Citat:
Originally posted by berneboy@May 28 2008, 07:14
Jag skulle helt klart satsa på att lagra URLerna i databasen, vilket ger en mycket mer flexibel lösning, där du faktiskt kan gerera URL automatiskt, och även tillåta manuell redigering. Detta går att implementera på olika sätt, lite beroende på vilken målmiljö man har.
Schematiskt funkar det ungefär så här:
0 - Se till att generera och spara ned URL i databas när innehåll skapas.
1 - Se till att alla anrop till webbplatsen går till samma fysiska fil (med classic ASP måste man göra detta med custom 404)
2 - Kontrollera url för inkommande request i den filen
3 - Slå mot databasen för att se om det finns något innehåll med efterfrågad URL
4 - Om det inte finns något innehåll - servera en 404.
5 - Om det finns innehåll - servera innehållet.
Hoppas att det är till någon hjälp.
|
Jag kör i för sig PHP och MySQL, så jag har en .htaccess som har följande rader i sig :
Kod:
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*) index.php
Sedan fångar upp det med
Kod:
<?
$path = split ( "/",$REQUEST_URI );
?>
404 requester är väl inte så bra ur SEO perspketiv, för då skicka webserver demonen ett 404 header till sökspindel, vilket sökmotor tar hänsyn vid indexeringen?
Men tittar man t.e.x på hur expressen är SEO:ad, såkomuflera dom "databasenid" i urlen ..