![]() |
Som alla vet har Google flera miljarder sidor i sitt index, då kommer vi till frågan, hur mycket kan verkligen google analysera varje sida? När det pratas om seo och googles patent går man ofta in på en massa tekniker och detaljer som faktiskt är mer eller mindre orealistiskt att google använder.
När google inte kan upptäcka text som dolts inom display: none, hur stor är då risken att de använder de hundratals faktorer som det ryktas om, jag har iallafall fått uppfattningen att google är riktigt simpel och den som lyckas bäst är den som listar ut om man ska använda keyword 13 eller 14 gånger per sida och har flest inlänkar. Någon som är riktigt insatt och kan berätta om alla dessa faktorer(ip-adress, whois-information, adress-information på sidan, varifrån man får inlänkar, trust-rank, adsense-annonser, osv) faktiskt spelar någon roll? Eller är det så att Google kör sin basic algoritm och kör driver med enstaka faktorer för att höja kvaliten något och verka avancerat? |
Håller på och kör tester på TR (jag har indikationer på att faktorer andra än inlänkar och onpage SEO spelar roll).
Google har väl inte implementerat css-tolkning än vad jag vet, men det är på G. |
Google måste fan ta och se upp när dom implementerar CSS koll. Det är väl nästan bara display:none odyl som de kan kolla.
På en site har jag vit bakgrund och vita rubriker samt vit text... låter ju som riktigt fusk om det inte vore för att en bild som används som bakgrund i en div har ett grönt prati just under denna text. Man blir ju rädd att G försöker vara "för smart"; det kommer att ligga många CSS designer om bakfoten...rejält! |
Troligen är det just detta problem som har gjort att Google ännu inte har implementerat det. De måste ju sträva efter att skapa vattentäta algoritmer.
|
Alla tider är GMT +2. Klockan är nu 00:07. |
Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson