FAQ |
Kalender |
![]() |
#1 | |||
|
||||
Mycket flitig postare
|
Har t ex följande url:er indexerade i bl a Google:
hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml?__xsl=/cms-print.xsl hxxp://www.xxxxxxxxxx.se/nyheter/blabla-blabla-bla/index.xml?start=0 Vill så klart att endast den översta url:en ska vara indexerad. Hur kan jag exkludera de andra två med hjälp av robots.txt? Kan man skriva som följer? User-agent: * Disallow: /*? eller kanske User-agent: * Disallow: /*?* Man kan väl i så fall kanske även skriva mer specifikt? Som t ex: User-agent: * Disallow: /*?__xsl=/cms-print.xsl Som ni ser i url:erna ovan så är underkatalogen "nyheter". Men om jag nu skulle ha en uppsättning exakt samma länkar förutom att "nyheter" är utbytt till "arkiv", skulle det då finnas en smidigt sätt att kombinera disallow-funktionen? |
|||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Mycket flitig postare
|
Tyvärr kan du inte använda wildcards i robots.txt. Specialtecknet '*' är inte heller ett tradtionellt wildcard utan betyder 'Alla user-agents som inte definerats ovan'
![]() Du får lägga in noindex i metataggen på utskriftssidorna: http://www.robotstxt.org/wc/meta-user.html |
||
![]() |
![]() |
Svara |
|
|