FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Medlem
|
Förmodligen har detta diskuterats tidigare. Har sökt runt lite men inte hittat specifik information om det jag undrar över.
Till min fundering: Har testat lite olika "Google sandbox detection tools". De flesta verkar väga skillnaden i ranking mellan sökningar på ett specifikt nyckelord (blue widgets) mot sökningarna: allintitle:blue widgets allinanchor:blue widgets alintext:blue widgets Om man har en sida som rankas ca 150:e på ett specifikt ord, medan sökningarna allintitle, allinanchor, allintext på samma ord ger ranking på ca 15:e plats, kan man då säkert säga att man är i sandlådan? Lägg därtill att msn ger top 10 ranking på samma sökord. Eller bedömmer inte google relevansen på samma sätt när man gör allintitle, allinanchor och allintext sökningarna? /berneboy |
||
![]() |
![]() |
![]() |
#2 | |||
|
||||
Medlem
|
allin-sökningarna är ju avgränsade till sidor som uppfyller just de kriterier du söker efter, och visar därför andra resultat än den naturliga sökningen, som väger in alla förhållanden på sajten.
|
|||
![]() |
![]() |
![]() |
#3 | ||
|
|||
Medlem
|
Ja förvisso är det så. Men är det någon som vet om det ligger nåt i hur man gör en kontroll av om en sida är "drabbad" av google sandbox.
Som jag sade tidigare så är det de verktyg som påstår sig kontrollera "Google sandbox detection" som använder sig av dessa jämförelser. Frågan är om det ligger nåt i det eller om det bara är humbug. För visst är det lite konstigt att differensen i ranking är så mycket som från 150:e plats på google och top 30 (tom top 10 ibland) på alla andra sökmotorer. Eller. |
||
![]() |
![]() |
![]() |
#4 | |||
|
||||
Medlem
|
Ingen kan väl bevisa något om någonting vars existens vi inte ens kan bevisa, och som Google förnekar... Men. En liten historia ur livet kanske kan hjälpa dig på traven?
Jag hade en sajt som satt fast i sandlådan i somras. Innan Bourbon låg den på plats 1-7 på de flesta relevanta sökord. I och med Bourbon, eller egentligen dagarna innan, så sjönk den som en sten för alla de termer som sajten var optimerad kring. Min kund fick panik förstås eftersom en stor del av hans affärsmodell låg förankrad i visibilitet hos Google. Google-trafiken till sidan försvann den med, och jag slet mitt hår och rannsakade mig själv och koden på sidan. Men det här var en site som var så whitehat jag kunde få den. Dessutom vänder den sig mot handikappade, så den var kodad för att verifieras som xhtml 1.0, med minimalt med onödig kod och en väldigt liten css-fil. Mitt råd till kunden var att börja lägga till nya sidor på sajten. Det gjorde han genom att införa en nyhetsbevakning som sammanfattade dagliga nyheter inom den sektor företaget verkar inom. Och sakta men säkert kunde vi konstatera att de nya sidorna rankades högt hos Google. Vi fick till flera bra förstaplaceringar faktiskt, men de termer vi egentligen, och ursprungligen, var ute efter placerade fortfarande sajten långt ner någonstans på platserna mellan 130-275. Under tiden som kunden lade till nya sidor på sajten var jag ute och letade nya kvalitetslänkar in till sajten. Det blev en och annan köpt länk, ett flertal intiggda länkar hos sidor som hade med ämnet att göra och även, måste jag erkänna ett och annat forum som försågs med länkar... Nu i höstas, en månad innan Jagger satte igång för amerikanska sajter, släpptes sajten plötsligt fram igen. De fem primära sökbegreppen placerar den återigen på förstasidan med placeringarna 1, 3, 4, 8 och 10. Det var hemska tre månader, men det viktiga för sajten är att den tog sig upp igen, och att den gjorde det utan att vi behövde hänfalla till några riktigt fula tricks. |
|||
![]() |
![]() |
Svara |
|
|