FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Medlem
|
Tjena!
Jag har 20 sidor som är indexerade av Google, men när jag letar efter site:www.optimalbors.se så visar den bara 14 resultat och bifogar kommentaren: "Vi har uteslutit vissa svar som var snarlika 14 som redan visats för att kunna ge dig de mest relevanta resultaten. Om du vill kan du göra om sökningen och inkludera tidigare uteslutna resultat." Nu är det så att jag har en pdf-fil som jag länkar till från förstasidan. Denna pdf-fil (en manual) består av ca. en tredjedel unikt material. Resten är exakt samma innehåll som finns utspritt på webbplatsen. Nu är fråga vad jag ska göra: 1. Ta bort pdf-filen från min sitemap och ändra länken från startsidan till "nofollow" 2. Göra ingenting. 3. Försöka ändra lite meningar här och var. 4. Ändra prioritet på pdf-filen i site-mapen till 0.1 Frågan är om jag förlorar något på att ha med pdf-filen. Det verkar ju så eftersom Google anser att 6 sidor inte bör visas i sökresultatet pga. duplicate content. Samtidigt så har jag ju rätt så mycket (ca 10 sidor A4) unikt material i pdf-filen. Att dela upp pdf-filen i flera filer anserjag inte vara ett alternativ eftersom kunder ska kunna ladda ner manualen i en fil. Mvh, petpap |
||
![]() |
![]() |
![]() |
#2 | |||
|
||||
Klarade millennium-buggen
|
Kontrollera så att du har unika meta-taggar för varje sida. Särskilt viktigt är det att din <title> och <description> är unik för varje sida. Det brukar räcka om de här taggarna är unika för att Google ska indexera samtliga sidor - även om innehållet i övrigt är identiskt.
|
|||
![]() |
![]() |
![]() |
#3 | ||
|
|||
Medlem
|
Tack!
Ja, jag har unika taggar, men de sidor som Google inte indexerar har innehåll som helt och hållet täcks av PDF-filen. Frågan är om jag tappar i placering tack vare PDF-filen... |
||
![]() |
![]() |
![]() |
#4 | |||
|
||||
Klarade millennium-buggen
|
Jag såg nu att jag själv har en site som Google sorterar bort en massa sidor hos. Trots att jag har unika taggar. Det är egentligen ingenting ovanligt och behöver inte nödvändigtvis ha med duplicat content att göra. Google hittar och tappar sidor hela tiden. Nu vet jag inte hur gammal din sida, men ibland kan det ta väldigt lång tid innan Google crawlar siten på djupet och indexerar samtliga undersidor. Har siten dessutom låg PR så händer det att Google struntar i att indexera samtliga sidor i alla fall.
Om din pdf-fil inte rankar så bra i dagsläget så kostar det dig ingenting att prova att ta bort den. Bara nofollow kommer däremot inte hjälpa om det finns externa webbsidor som länkar till dokumentet. Men försök att exkludera pdfén från Googles index och se vad som händer. Jag har i och för sig svårt att tro att det är duplicant content som är haken i ditt fall. Jag har sidor där 99 % är samma innehåll men där båda sidorna indexeras. I mitt fall beror det förmodligen på att sidorna med samma innehåll har externa inlänkar. Vill du få hela din webbsida indexerad så se till att få länkar till samtliga sidor och inte bara förstasidan. Får både pdf-dokumentet och dina andra sidor länkar till sig från andra domäner, så ska det inte spela någon roll om innehållet till viss del är lika. |
|||
![]() |
![]() |
Svara |
|
|