FAQ |
Kalender |
![]() |
#1 | |||
|
||||
Mycket flitig postare
|
Har t ex följande url:er indexerade i bl a Google:
hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml?__xsl=/cms-print.xsl hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml?start=0 Vill så klart att endast den översta url:en ska vara indexerad. Hur kan jag exkludera de andra två med hjälp av robots.txt? Kan man skriva som följer? User-agent: * Disallow: /*? eller kanske User-agent: * Disallow: /*?* Man kan väl i så fall kanske även skriva mer specifikt? Som t ex: User-agent: * Disallow: /*?__xsl=/cms-print.xsl Som ni ser i url:erna ovan så är underkatalogen "nyheter". Men om jag nu skulle ha en uppsättning exakt samma länkar förutom att "nyheter" är utbytt till "arkiv", skulle det då finnas en smidigt sätt att kombinera disallow-funktionen? |
|||
![]() |
![]() |
|
|