Din sida hämtar ett RSS-feed på cirka 200KB varje gång den laddas? Jag hoppas att jag inte behöver påpeka hur galet det är...
Att hämta feed'et x gånger per dag med hjälp av crontab och spara i en fil eller databas är absolut inte svårt. Här har du ett exempel som laddar hem filen och skapar en textfil med länkar till de två senaste posterna. Värt att notera är att jag använder simplexml (en extension till PHP) och koden blir en aning enklare. Har du inte tillgång till simplexml så, tja, se till att skaffa det eller anpassa koden.
Kod:
<?php
$feed = file_get_contents("http://www.muf.se/rss_newsfeed.php");
$xml = simplexml_load_string($feed);
$fh = fopen("links.txt", "wb");
for($i = 0; $i < 2; $i++) {
$link = utf8_decode($xml->channel->item[$i]->link);
$title = utf8_decode($xml->channel->item[$i]->title);
fwrite($fh, "<a href=\"" . $link . "\">" . $title . "</a>\n");
}
fclose($fh);
?>
För att visa länkarna på din sida kan du med fördel använda file().
Kod:
<?php
$lines = file("links.txt");
echo $lines[0];
echo $lines[1];
?>