FAQ |
Kalender |
![]() |
#1 | ||
|
|||
Medlem
|
hejsan,
jag skulle väldigt gärna vilja veta hur man på ett smidigt sätt kan hämta data/text från andra sidor. jag vill dock unkomma att hämta självaste html-koden, utan bara texten på sidan. tack för vägledning |
||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Klarade millennium-buggen
|
$text = strip_tags(file_get_contents('http://www.rippamighårtoch.nu''));
Ett annat alternativ är: lynx --dump http://www.orkarinteskrivasjälv.se/ > /tmp/text Torde väl vara så enkelt det går att få det. Som vanligt hjälper det om du anger vilket språk och möjligheter du har att göra det hela på. Om du vill hämta specifik data på en viss sida blir det hela oändligt mycket mera komplicerat beroende vad du vill uppnå. Då kan jag tex rekommendera att läsa perlboken om LWP (Perl and LWP http://www.bokus.com/b/0596001789.html?pt=...=search_result) eller att lära dig skriva xml/html-parsers i PHP (the joy). |
||
![]() |
![]() |
![]() |
#3 | ||
|
|||
Klarade millennium-buggen
|
Curl rekommenderas (om du jobbar i PHP vill säga). Curl hämtar fler sidor än vad file_get_contents gör.
Om du inte vill skriva rutiner själv fnns det programvara som rotar fram den info du vill ha från sidorna, tex Happy Harvester |
||
![]() |
![]() |
Svara |
|
|