FAQ |
Kalender |
2010-05-10, 15:02 | #1 | ||
|
|||
Flitig postare
|
Hej,
Jag funderar starkt på att plocka bort all javascript för sökrobotar för att minska bandbredden. Är det att klassa som cloaking? Som jag förstått det så kan ju ändå inte robotarna tolka det och isåfall är det ju onödig bandbredd. Jag själv skulle tjäna några kB per hämtning. Har kollat runt lite på andra sidor och det verkar vara ganska poppis att plocka bort js för sökroboten (kollat cachade filer i serp hos google). |
||
Svara med citat |
2010-05-10, 19:21 | #2 | ||
|
|||
Nykomling
|
hur mycket inline-javascript har du egentligen? försök slå ihop all javascript till en fil istället, så får googleboten välja själv om den ska ladda ned scripten eller inte
|
||
Svara med citat |
2010-05-10, 20:23 | #3 | |||
|
||||
Klarade millennium-buggen
|
Ett bra sätt att slå ihop (och minifya) java och css är http://code.google.com/p/minify/
|
|||
Svara med citat |
2010-05-10, 22:34 | #4 | ||
|
|||
Flitig postare
|
Hejsan,
Jag har minifierat all js och css, js är ändå ~200kB. Det är bildvisningen (highslide) och jquery med UI meny och ajax som drar iväg (highslide värst). Får nog ta mig en funderare på att byta ut highslide, men ändå, vad tror om cloakning om man tar bort det för bottarna? Man kanske landar i ett faktum där man aldrig vet (google är ju inte direkt glasklara med sina regler) om man kommer straffas för cloaking eller inte, isåfall är ju valet enkelt, låt skiten vara... Parantes: kollade igenom en av mina konkurrenters sajter som rankas högt, den var minsann cloakad... hmm... |
||
Svara med citat |
2010-05-12, 03:23 | #5 | ||
|
|||
Mycket flitig postare
|
Se till att Last-Modified och If-Modified-Since (HTTP headers) fungerar som de ska. Om det är statiska filer ska normalt webbservern sköta det. Om man använder t.ex. PHP kan man fixa det själv i början av skriptet.
|
||
Svara med citat |
2010-05-13, 12:00 | #6 | |||
|
||||
Klarade millennium-buggen
|
1. Hur många sökmotorbesök har din sajt egentligen? Är det ens värt att bry sig?
2. Se för guds skull till att du har fungerande cachning av filerna! Då kan även dina vanliga besökare dra nytta av att du slipper skicka 200kb data på varje sida. 3. Laddar ens sökmotorerna ner .js filer? |
|||
Svara med citat |
2010-05-13, 19:38 | #7 | ||
|
|||
Flitig postare
|
1. Enligt Google Webmaster så hämtar Google 878 602 kB i genomsnitt per dag.
2. Cache används. 3. Vet ej, hoppas inte, då slipper jag detta. Det jag ska ordna med är att lägga all JS i filer, så är det inte idag, men det som ligger i koden är en bråkdel, men ändå. |
||
Svara med citat |
2010-05-13, 20:44 | #8 | ||
|
|||
Administratör
|
Flytta all javascript (och css) till externa filer och lägg till deny i robots.txt för alla javascript-filer. Jag tror inte de laddas av de vanliga robotorna, men för att vara på säkra sidan eller för att förebereda för framtiden skadar det inte att lägga till dem där.
|
||
Svara med citat |
2010-05-13, 20:59 | #9 | ||
|
|||
Nykomling
|
Citat:
Du kan ju alltid, via webmaster tools, dra ner hur många sidor google får hämta i sekunden. Men som sagt, flytta scripten till externa filer, och kanske gzippa den genererade html-koden om du inte redan gör det. |
||
Svara med citat |
2010-05-13, 23:32 | #10 | ||
|
|||
Flitig postare
|
Ja, det verkar som det går att lösa så då slipper jag bryderierna på cloaking och det är ju bra, tackar!
|
||
Svara med citat |
Svara |
Ämnesverktyg | |
Visningsalternativ | |
|
|