![]() |
Spindel, hoppa in på varje sida i t.ex. ett excel ark och hämta logo*.*
Finns de någon mjukvara "spindel" som kan gå in på alla sidor man anger i t.ex. en .txt fil och den försöker hämta logo*.* eller liknande från sidorna?
Dvs om jag vill ha logo's från massa sidor. Och om den kan spara ner logon med adressens namn typ? |
Självklart det finns sådan mjukvara, vad får den kosta?
|
Edit: wget hade inga riktigt bra flaggor för att göra detta per default, men jag gör något liknande i två körningar för att spara ner Metros PDF-tidning:
wget -a log -nv -nc -nd --user-agent="" -O - http://www.metro.se/se/pdf/ | grep -o "[^\"]*SE\(RIK\|STO\|TEK\)[^\"]*\.pdf" >> urls följt av: wget -a log -nv -nH --cut-dirs=3 -nc -w 400 --random-wait -P ~/public_html/metro/archive/ --user-agent="" -x -A pdf -B http://www.metro.se/se/pdf/ -i urls |
Det borde gå att göra med http://www.httrack.com , den har väldigt mkt funktioner, finns både i GUI-version och commandline-version. Gratis också ;)
|
Alla tider är GMT +2. Klockan är nu 05:45. |
Programvara från: vBulletin® Version 3.8.2
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Svensk översättning av: Anders Pettersson