Visa ett inlägg
Oläst 2008-05-28, 15:44 #8
berneboy berneboy är inte uppkopplad
Medlem
 
Reg.datum: Oct 2005
Inlägg: 208
berneboy berneboy är inte uppkopplad
Medlem
 
Reg.datum: Oct 2005
Inlägg: 208
Citat:
Ursprungligen postat av klein
Citat:
Ursprungligen postat av berneboy
Jag skulle helt klart satsa på att lagra URLerna i databasen, vilket ger en mycket mer flexibel lösning, där du faktiskt kan gerera URL automatiskt, och även tillåta manuell redigering. Detta går att implementera på olika sätt, lite beroende på vilken målmiljö man har.

Schematiskt funkar det ungefär så här:

0 - Se till att generera och spara ned URL i databas när innehåll skapas.

1 - Se till att alla anrop till webbplatsen går till samma fysiska fil (med classic ASP måste man göra detta med custom 404)
2 - Kontrollera url för inkommande request i den filen
3 - Slå mot databasen för att se om det finns något innehåll med efterfrågad URL
4 - Om det inte finns något innehåll - servera en 404.
5 - Om det finns innehåll - servera innehållet.

Hoppas att det är till någon hjälp.
Jag kör i för sig PHP och MySQL, så jag har en .htaccess som har följande rader i sig :

Kod:
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*) index.php
Sedan fångar upp det med

Kod:
<?
$path * = split ( "/",$REQUEST_URI );

?>
404 requester är väl inte så bra ur SEO perspketiv, för då skicka webserver demonen ett 404 header till sökspindel, vilket sökmotor tar hänsyn vid indexeringen?

Men tittar man t.e.x på hur expressen är SEO:ad, såkomuflera dom "databasenid" i urlen ..
Precis så gör man i php. Men om man har klassisk asp blir det knepigare, men inte omöjligt.

Rätt hanterat med custom 404 kan man få det att fungera utan att sökmotorerna missförstår någonting. En custom 404 behöver ju faktiskt inte returnera response code 404 varje gång om man inte vill
berneboy är inte uppkopplad   Svara med citatSvara med citat