FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Mycket flitig postare
|
När google kommer och scannar/bedömer webbsidor så läste jag att den kan strunta i sidor som tar för lång tid att svara. Därför är det viktigt med ett snabbt webbhotell.
Är det någon som vet hur lång tid en sida max får dröja och finns det några verktyg som kan kolla just detta? Tacksam för info |
||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Klarade millennium-buggen
|
Om en robot hos google får timeout på en viss site betyder inte detta att ALLA också får smama resultat. Det kan vara en lina som tillfälligt gått ner mellan en eller flera noder.
|
||
![]() |
![]() |
![]() |
#3 | |||
|
||||
Mycket flitig postare
|
Man kan ju tänka sig att google väntar iaf några sekunder, och skulle man bli "missad" har dom nog ett bra system som återkommer.
Dröjer din sida några sekunder hade jag bytat webbhotel, eller fixat till det på sidan som genererar den långa laddningstiden. /empty |
|||
![]() |
![]() |
![]() |
#4 | ||
|
|||
Medlem
|
på google sitemaps så får du stats på googlebottens hastiighet, coh kan även be den söka snabbare eller långsammare beroende på din server.
de är till och med så snälla att de rekomenderar hastigheter :-) Tilläger att jag inte har någon aning om detta funkar eller inte.... |
||
![]() |
![]() |
Svara |
|
|