FAQ |
Kalender |
![]() |
#21 | |||
|
||||
Medlem
|
Detta börjar bli riktigt oroande.
Inte direkt kul när man rekomenderar CN till ens kunder och det börjar lika Binero.... Lite statistik över min nertid: Idag (hittils): 1 tim 47min Senaste 7 dagarna: 5 tim 36 min Senaste månaden: 9 tim 34 min. 9 tim 34 min är enligt pingdown en up-time på 98,75% Även om det låter högt så nej, johan1234, detta är inte godkänt längre. |
|||
![]() |
![]() |
![]() |
#22 | |||
|
||||
Klarade millennium-buggen
|
Ja det beror ju helt på vilka behov du har, om du själv vill ha full kontroll över vps:en och arbeta aktivt med säkerhet och annat dagligen så bör du naturligtvis skaffa en vps. Men det går ju inte att jämföra ett webbkonto och en VPS.
|
|||
![]() |
![]() |
![]() |
#23 | ||
|
|||
Medlem
|
Citat:
Som AndersN nämner, börjar bli riktigt oroande detta. Nu är iallafall mina webbsidor uppe igen, så jag stannar kvar på webbhotellet och ser om det blir bättre. |
||
![]() |
![]() |
![]() |
#24 | ||
|
|||
Klarade millennium-buggen
|
Låter som växtvärk, typ dom köpt en lösning som inte klarar av belastningen.
Sedan har dom inte kompetens för lösa problemet när sakerna slutar fungera utan förlitat sig på sin färdiga lösning ska fungera. Brukar inte fungera ta fram silvertejpen för lösa problemen när man kommit till en viss gräns. |
||
![]() |
![]() |
![]() |
#25 | |||
|
||||
Klarade millennium-buggen
|
Jo, men CN har fungerat relativt bra jämfört med andra lastbalanserade webbhotell och nu har man haft problem en dag eller 2, och det är inte så farligt tycker jag och låt oss därför vänta och se lite hur man löser det aktuella problemet innan vi dömer ut dom helt Patrik.
|
|||
![]() |
![]() |
![]() |
#26 | ||
|
|||
Klarade millennium-buggen
|
Citat:
Bara det är en design miss eller kompetens miss, och resultatet blir mycket allvarligare då hela plattform drabbas vid fel i sådan miljö. Ett kluster eller lastbalanserad miljö skapar betydligt mer nertid och problem om det inte fungerar som det ska. Vilket folk i grunden inte tänker på. Jag har lärt mig att man ska hålla sig undan från nya saker som inte är beprövade, nästan allt kräver några år på nacken för vara 100%. Bättre låta andra företag köra nya saker i drift så alla buggar och firmware blir blir beprövade och stabila. Bättre låta andra råka ut för alla missöden så slipper man själv göra om andras problem ;P Jag personligen skulle aldrig köpa ett helt nytt SAN, risken för buggar i firmware är extrem stor och konstigheter som visar sig efter visst antal månader i drift. |
||
![]() |
![]() |
![]() |
#27 | |||
|
||||
Klarade millennium-buggen
|
Jo, jag håller med dig helt, men löser man detta snabbt så tycker jag man har räddat ansiktet, men vi får se hur CN själva möter kritiken som kommer fram här.
|
|||
![]() |
![]() |
![]() |
#28 | ||
|
|||
Nykomling
|
DDoS attacker är ju som vi alla känner till djävulens påfund. Vi jobbar kontinuerligt med att förbättra våra möjligheter att avvärja dem på olika sätt, bland annat genom att automatiskt strypa misstänka attackers möjligheter att påverka våra kunder. Hur man än gör är det oerhört svårt att motarbeta de enorma trafikmängderna som plötsligt belastar våra system.
Om automatisk strypning och andra åtgärder inte hinner sättas in tillräckligt snabbt så är det endast en marginell skillnad på hur snabbt en lastbalanserad och en icke lastbalanserad miljö får problem. Lastbalansering i sig är inte designat för DDoS attacker utan mer som en failover men vi gör självklart även fortsättningsvis vårt bästa för att använda dem mot dessa attacker som vi drabbas av. Vi uppgraderar hårdvara och justerar alla parametrar som på ett eller annat sätt kan hjälpa oss. Hur man än gör kommer tillräckligt mycket belastningstrafik till slut göra att någon resurs tar slut, antingen om det blir nätutrustning, lastbalanserare eller direkt på webbservrarna. Vi kan inte förhindra jävulens påfund utan bara göra vårt yttersta för att kunna klara av allt större attacker. |
||
![]() |
![]() |
![]() |
#29 | ||
|
|||
Klarade millennium-buggen
|
DoS/DDoS handlar i grunden om 3 saker, kompetens, infrastruktur, kapacitet.
Har man kunskap kan man sänka infrastruktur med enstaka Mbit bara, men 99% av alla DDoS i Sverige alla fall är utförda på så låg kompetens som det inte är sant. Dock i stor kapacitet. Vi seriösa leverantörer klarar av hantera DDoS, samtidigt bygger infrastruktur med flertal 10Gbit länkar för klara både stora kunder samt DDoS. Samtidigt är det väldigt dåligt bygga en lastbalanserad miljö på 1 IP på större antal kunder mot en SLB. Där blir en fin DDoS single point, man ska inte erbjuda sådana lösningar om man inte har kapacitet eller kompetens för skydda det. Största delen av Svenska Webbhotell är dåliga på teknik och infrastruktur och på att klara av någon själva alls knappt. Ett extremt LOL citat/kommentar från jgabor om FSDATA "Det beror på att vi inte gått över till gigabit-nätverk för samtliga av våra servrar ännu" Så det betyder att i grunden att en valfri h0runge på en privat bredbandskoppling kunnat sänka deras servrar. Och att dom fortfarande kör 100Mbit 2012 så funderade jag på om man även kunde gå till museum får kolla på deras infrastruktur. Medan andra leverantörer går över till 10Gbit switchar även till Access så har dom själva inte ens gått över till Gbit på servrar. Finns ju fan privat kunder som haft 1Gbit bredband flera år nu redan. Nu blev det väldigt OT, men ville bara lägga fram hur väldigt illa många webbhotell har det på infrastruktur och kompetens på många områden. |
||
![]() |
![]() |
![]() |
#30 | |||
|
||||
Klarade millennium-buggen
|
Fast det går ju utmärkt att sätta många IP på lastbalanserarna, och bara köra ifdown på det attackerade IP'et i värsta fall.
|
|||
![]() |
![]() |
Svara |
|
|