| FAQ |
| Kalender |
|
|
|
|
#1 | ||
|
|||
|
Mycket flitig postare
|
Om du absolut ska ha en siffra för antal rader så skulle jag säga att upp till 100 miljoner inte är några problem.
Men som alla andra redan påpekat så är det en mängd faktorer som spelar in. |
||
|
|
Svara med citat
|
|
|
#2 | |||
|
||||
|
Supermoderator
|
min svarsdatabas på trivia.se har över 20 miljoner rader och den blev fett slö ganska snabbt innan jag lärde mig vad index var för något
|
|||
|
|
Svara med citat
|
|
|
#3 | |||
|
||||
|
Klarade millennium-buggen
|
Generellt vad man kan säga är att mysql tycker inte om databaser med många tabeller (säg några miljoner), bättre isf med många databaser med få tabeller, eftersom mysql försöker cacha hela databaser och inte cacha de vanligast använda tabellerna. Med oracle tex, spelar detta ingen roll. Men du bör ju självklart köra databas cachning på fil eller om du klustrar webben, bör du köra en central memcached server för att cacha mysql frågor.
Senast redigerad av Danielos den 2010-01-13 klockan 23:33 |
|||
|
|
Svara med citat
|
|
|
#4 | ||
|
|||
|
Medlem
|
Tack för många bra svar! Nu har jag en idé om vad som är hanterbart
|
||
|
|
Svara med citat
|
|
|
#5 | ||
|
|||
|
Supermoderator
|
Det beror ju rätt mycket på hårdvaran också vad som blir jobbigt
Förvånansvärt lite data kan bli ett förvånansvärt stort problem har jag noterat.
__________________
Jonny Zetterström se.linkedin.com/in/jonnyz | bjz.se | sajthotellet.com | kalsongkungen.se | zretail.se | zetterstromnetworks.se | webbhotellsguide.se | ekonominyheter24.se | nyamobiltelefoner.se | gapskratt.se | antivirusguiden.se | jonny.nu |
||
|
|
Svara med citat
|
|
|
#6 | |||
|
||||
|
Mycket flitig postare
|
Kör själv med index på tabeller som har runt 20 miljoner rader och utan index så hade det aldrig fungerat.
|
|||
|
|
Svara med citat
|
|
|
#7 | ||
|
|||
|
Medlem
|
Jag har ett projekt där jag har några tabeller som har några hundra miljoner rader.
För att lösa problemet med joina mellan hundramiuljnerraderstabeller som dessutom kan ge miljoner rader i resultat så gjorde jag en "summary table" där jag förjoinade/avnormaliserade datan. Detta gjorde 10sekundersqueryn till subsekundsquesyn. För att ytterligare snabba upp saker sorterar jag datan efter den key jag vill ha datan ut vilket gör att resultaten kan fås snabbare pga av att hårddiskens läshuvud inte behöver flyttas lika frenetiskt för att komma till rätt data. Jag använder Linux och MySQL. Och jag har nyligen dunkat in en 160GB Intel SSD vilket gav otroligt prestandaförbättring på det mesta. |
||
|
|
Svara med citat
|
|
|
#8 | ||
|
|||
|
Flitig postare
|
Citat:
2. Av ren nyfikenhet, vad är det för typ av data du lagrar som behöver så många rader? |
||
|
|
Svara med citat
|
|
|
#9 | ||
|
|||
|
Medlem
|
Citat:
Jag tror myisamchk kan sortera datan efter en nyckel fast jag körde sorteringen utanför MySQL med det gamla hederliga GNU Sort ![]() 2. DNSDigger.com - Jag sparar alla domäners IP-nummer så jag kan se vilka domäner som finns hostade vart osv. |
||
|
|
Svara med citat
|
| Svara |
|
|