WN

WN (https://www.wn.se/forum/index.php)
-   Sökmotorpositionering (https://www.wn.se/forum/forumdisplay.php?f=11)
-   -   Funderar jag på cloaking? (https://www.wn.se/forum/showthread.php?t=1041973)

olsserik 2010-05-10 15:02

Funderar jag på cloaking?
 
Hej,
Jag funderar starkt på att plocka bort all javascript för sökrobotar för att minska bandbredden. Är det att klassa som cloaking?

Som jag förstått det så kan ju ändå inte robotarna tolka det och isåfall är det ju onödig bandbredd. Jag själv skulle tjäna några kB per hämtning.

Har kollat runt lite på andra sidor och det verkar vara ganska poppis att plocka bort js för sökroboten (kollat cachade filer i serp hos google).

wdb 2010-05-10 19:21

hur mycket inline-javascript har du egentligen? försök slå ihop all javascript till en fil istället, så får googleboten välja själv om den ska ladda ned scripten eller inte

fabian 2010-05-10 20:23

Ett bra sätt att slå ihop (och minifya) java och css är http://code.google.com/p/minify/

olsserik 2010-05-10 22:34

Hejsan,
Jag har minifierat all js och css, js är ändå ~200kB.
Det är bildvisningen (highslide) och jquery med UI meny och ajax som drar iväg (highslide värst).
Får nog ta mig en funderare på att byta ut highslide, men ändå, vad tror om cloakning om man tar bort det för bottarna?

Man kanske landar i ett faktum där man aldrig vet (google är ju inte direkt glasklara med sina regler) om man kommer straffas för cloaking eller inte, isåfall är ju valet enkelt, låt skiten vara...

Parantes: kollade igenom en av mina konkurrenters sajter som rankas högt, den var minsann cloakad... hmm...

BjörnJ 2010-05-12 03:23

Se till att Last-Modified och If-Modified-Since (HTTP headers) fungerar som de ska. Om det är statiska filer ska normalt webbservern sköta det. Om man använder t.ex. PHP kan man fixa det själv i början av skriptet.

Anders Larsson 2010-05-13 12:00

1. Hur många sökmotorbesök har din sajt egentligen? Är det ens värt att bry sig?

2. Se för guds skull till att du har fungerande cachning av filerna! Då kan även dina vanliga besökare dra nytta av att du slipper skicka 200kb data på varje sida.

3. Laddar ens sökmotorerna ner .js filer?

olsserik 2010-05-13 19:38

1. Enligt Google Webmaster så hämtar Google 878 602 kB i genomsnitt per dag.

2. Cache används.

3. Vet ej, hoppas inte, då slipper jag detta. Det jag ska ordna med är att lägga all JS i filer, så är det inte idag, men det som ligger i koden är en bråkdel, men ändå.

Clarence 2010-05-13 20:44

Flytta all javascript (och css) till externa filer och lägg till deny i robots.txt för alla javascript-filer. Jag tror inte de laddas av de vanliga robotorna, men för att vara på säkra sidan eller för att förebereda för framtiden skadar det inte att lägga till dem där.

wdb 2010-05-13 20:59

Citat:

Ursprungligen postat av olsserik (Inlägg 20355193)
1. Enligt Google Webmaster så hämtar Google 878 602 kB i genomsnitt per dag.

Bandbredden google drar är väl knappast bortslösad med tanke på att du får besökare tillbaka när sidorna indexerats? 800 MB om dagen är väl inte så farligt heller, kostar långt under en kr.

Du kan ju alltid, via webmaster tools, dra ner hur många sidor google får hämta i sekunden. Men som sagt, flytta scripten till externa filer, och kanske gzippa den genererade html-koden om du inte redan gör det.

olsserik 2010-05-13 23:32

Ja, det verkar som det går att lösa så då slipper jag bryderierna på cloaking och det är ju bra, tackar!


Alla tider är GMT +2. Klockan är nu 19:44.

Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson