| FAQ |
| Kalender |
|
|
|
|
#1 | ||
|
|||
|
Klarade millennium-buggen
|
Jag skulle inte kört VPS för en stor och krävande databas, egen server bör du köra.
Mycket minne och SSD gör extremt mycket, både minne och CPU är extremt billigt idag. Nu vet jag inte vad du menar med väldig stor databas, men om du behöver över 100-300GB blir SSD väldigt dyrt och då bör du köra med SAS. |
||
|
|
Svara med citat
|
|
|
#2 | ||
|
|||
|
Medlem
|
Med väldigt stor menar jag ett par miljoner rader, raderna själva har kanske inte så mycket information dock.
Vilka lösningar finns det för en dedikerad server med SSD? Kan inte hitta några, måste man bygga en server själv då och fixa colocation? |
||
|
|
Svara med citat
|
|
|
#3 | ||
|
|||
|
Flitig postare
|
Minne är den absolut viktigaste parametern. Tyvärr är det det som är dyrast också. Annat såsom CPU, diskutrymme och bandbredd kan du få för spottstyvrar men minne måste man betala för. Ju mer minne, desto större del av databasen kan du cacha så att trafiken slipper belasta hårddiskarna vilket är det som tar mest tid.
Dessutom beror det på vad du menar med "väldigt stor." Själv har jag en "liten" databas med fyra miljoner rader och den klarar sig hur bra som helst på 200mb minne. Är databasen för stor kanske du måste välja en dedikerad server istället för ett vps. Är den "ännu större" kanske du behöver ett helt kluster och en distribuerad databas. Men det finns leverantörer som erbjuder vps med 8gb ram som är fullt tillräckligt även för "väldigt stora" databaser (storlek är ju relativt). Sen skulle jag vilja påstå att ännu viktigare för prestandan, är hur mycket teknik du själv kan/hur skickliga dina tekniker är. Vet man hur memcached, squid, nginx, indexering och lastbalansering fungerar kan man pressa ut hundra gånger mer prestanda ur samma hårdvara än någon som inte kan det. |
||
|
|
Svara med citat
|
| Svara |
| Ämnesverktyg | |
| Visningsalternativ | |
|
|