grazzy: Nja, inte direkt... Just browser caching är något som jag vill diskutera också, men inte precis nu.

Tack iaf!
Danjel
Det är svårt att avgöra vad som anses vara för mycket tid, men jag är väldigt noga med koden jag lägger ut och jag har sett tydliga resultat av optimeringar jag har gjort. Vid två tillfällen har jag fått en scriptgenereringstid på ca 10% av ursprungstiden genom optimimeringar enbart på phpsidan. Så visst är det viktigt att ha bra kod, och cacha noga.
Men databashistorien är ju en helt egen del, och där är jag väldigt svag och har mycket att lära. I dagsläget har jag ingen koll på alls hur de databasrelaterade delarna hänger ihop med skalbarhet och replikerade servrar. Jag har ingen inblick där och därför har heller inte min databasdesign utformats med replikering i åtanke.
Jag använder också de inbyggda sessionerna i php. Jag har hört att de är bristfälliga just av samma anledning som du säger, men jag har också hört att det ska gå att lösa relativt smidigt. Jag kommer inte ihåg vad det var för lösning, men jag läste en diskussion någonstans med någon som hade ditt argument, som sedan blev motargumenterad och tystad.

Jag vet inte om det handlade om någon delad sessionskatalog eller nåt sånt - men det kanske ändå är en dum lösning.
I alla fall - vad skulle du föreslå för alternativ till mig?
Jag kan tänka mig att min databasdesign inte är i världsklass. Men jag jag har index på alla fält som ska ha index i alla fall. Sedan går det kanske att ta det där på djupare nivåer än vad jag känner till, jag kör bara index på fält som jag hämtar och sorterar enligt (where, order by).
Genomtänkt denormalisering... Ja, jag tror den är genomtänkt, kan du kanske utveckla det där?
Jag använder ju php/mysql.
Kan man kanske få be om ett exempel på vad som vore en konstighet så att jag gör det svårt för mig när vi ska sätta upp fler servrar?
Stort tack danjel, kul med komptetent folk!