 |
Medlem
|
|
Reg.datum: Sep 2004
Inlägg: 58
|
|
Medlem
Reg.datum: Sep 2004
Inlägg: 58
|
Det är också min erfarenhet att man riskerar att fastna i googles duplicate content filter. Dock, google har inte legat långt framme när det gäller att stänga ute sidor som av olika anledingar anklagas för spamming, även värre en detta. Problemet med duplicate content filtret är ju att fler och fler sidor blir dynamiska, och tex. shopping sidor kan var helt identiska förutom enstaka ord.
En annan erfarenhet av duplicate content filter var att den gamla sidan skulle listas före, även om kopian har fler inkommande länkar, bättre domännamn, fler och bättre interna länkar, etc,. Detta av den anledningen att en klar kopia inte skulle listas före orginalet.
En sida som ligger 1:a och 2:a på ett populärt sökord har nog inte fastnat i filtret.... Personligen tror jag googl ligger lågt med detta tills man har fått bukt med värre problem. Det spammas som aldrig förr, och google får hundratals spamm anmälningar dagligen, men har ändå svårt att ta i tu med dem.
Tyvärr är google mycket hemliga med vad de gör, har gjort, och vad de tänker göra!
Niclas
|