![]() |
Under flera veckor, så har jag märkt att Google verka ha problem med att
på ett bra sätt indexera sidor. Ovanligt många av deras cashlagrade sidor är nästan en månad gamla och när jag granskar googlebotens besök hos mig, så orkar den inte med att hämta mer än max 20 mb information av nästan 90 mb möjlig information. Detta ska jämföras med msn boten som dagligen hämtar minst 80 mb information. Även nya sidor indexeras inte längre. Är det någon här som upplever samma problem? |
Inga problem här,
November 2006 Googlebot 195.45 MB December 2006 Googlebot 205.15 MB Januari 2007 Googlebot 257.34 MB Februari 2007 Googlebot 864.88 MB |
Nog något tillfälligt, de har runt 500 000 servrar och ett eget fibernät som knyter ihop allt, så kapacitet har de hur mycket som helst.
Kolla om du har många sidor i suplemental, isåfall är det nog svaret... |
Citat:
|
Suplemental är ett "sidoindex" som Google använder, de placerar sidor där som de anser håller lägre kvalité eller som inte har uppdaterats på länge, allternativt som har dålig länkkraft. Googles eget recept om man vill få upp sidorna från inedexet är att skaffa bra inlänkar mot de sidorna.
|
Citat:
|
Alla suplementals:
site:domän.tld *** -sljktf Alla icke suplementals: site:/domän.tld |
Citat:
Tack för den lektionen! |
Citat:
|
Han menar att om du skriver: "site:dittdomännamn.toppdomän *** -sljktf" i Googles sökruta så får du upp alla sidor på din domän som Google har placerat i sidoindexet. Det vill säga sidor som är på väg ut för att de är inaktuella eller saknar inlänkar.
Tack för tipset xpat! Kände hur jag gick upp en level i Googlekunskap! |
Alla tider är GMT +2. Klockan är nu 19:10. |
Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson