FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Medlem
|
Hej,
En databas för en lösning jag byggt har växt enormt den senaste tiden och är nu på närmare 500MB. Det är som oftast statistikdelen som medför att storleken skenar iväg. Sökningar mot databasen blir också då allt segare. Finns det någon genial lösning på hur man kan hantera detta? Databasen ligger på en dedikerad server som i övrigt har bra med utrymme och prestanda. En variant som jag ser det är att bygga ett script som schemalagt aggregerar data från databasen efter en viss tid, och lägger detta i en egen databas och städar därefter upp i "produktionsdatabasen". Detaljstatistik är ändå oftast inte superintressant efter en tid, men man önskar ofta kunna jämföra med äldre statistik på ett mer övergripande sätt. Tänkte om det kanske fanns någon "färdig" smart lösning som andra använder sig av. Någon? |
||
![]() |
![]() |
|
|