Flitig postare
|
|
Reg.datum: Mar 2003
Inlägg: 450
|
|
Flitig postare
Reg.datum: Mar 2003
Inlägg: 450
|
Som alla vet har Google flera miljarder sidor i sitt index, då kommer vi till frågan, hur mycket kan verkligen google analysera varje sida? När det pratas om seo och googles patent går man ofta in på en massa tekniker och detaljer som faktiskt är mer eller mindre orealistiskt att google använder.
När google inte kan upptäcka text som dolts inom display: none, hur stor är då risken att de använder de hundratals faktorer som det ryktas om, jag har iallafall fått uppfattningen att google är riktigt simpel och den som lyckas bäst är den som listar ut om man ska använda keyword 13 eller 14 gånger per sida och har flest inlänkar. Någon som är riktigt insatt och kan berätta om alla dessa faktorer(ip-adress, whois-information, adress-information på sidan, varifrån man får inlänkar, trust-rank, adsense-annonser, osv) faktiskt spelar någon roll? Eller är det så att Google kör sin basic algoritm och kör driver med enstaka faktorer för att höja kvaliten något och verka avancerat?
|