FAQ |
Kalender |
|
Ämnesverktyg | Visningsalternativ |
|
![]() |
#1 | |||
|
||||
Klarade millennium-buggen
|
Finns de någon mjukvara "spindel" som kan gå in på alla sidor man anger i t.ex. en .txt fil och den försöker hämta logo*.* eller liknande från sidorna?
Dvs om jag vill ha logo's från massa sidor. Och om den kan spara ner logon med adressens namn typ? |
|||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Medlem
|
Självklart det finns sådan mjukvara, vad får den kosta?
|
||
![]() |
![]() |
![]() |
#3 | |||
|
||||
Bara ett inlägg till!
|
Edit: wget hade inga riktigt bra flaggor för att göra detta per default, men jag gör något liknande i två körningar för att spara ner Metros PDF-tidning:
wget -a log -nv -nc -nd --user-agent="" -O - http://www.metro.se/se/pdf/ | grep -o "[^\"]*SE\(RIK\|STO\|TEK\)[^\"]*\.pdf" >> urls följt av: wget -a log -nv -nH --cut-dirs=3 -nc -w 400 --random-wait -P ~/public_html/metro/archive/ --user-agent="" -x -A pdf -B http://www.metro.se/se/pdf/ -i urls Senast redigerad av emilv den 2009-09-30 klockan 07:02 |
|||
![]() |
![]() |
![]() |
#4 | |||
|
||||
Mycket flitig postare
|
Det borde gå att göra med http://www.httrack.com , den har väldigt mkt funktioner, finns både i GUI-version och commandline-version. Gratis också
![]() |
|||
![]() |
![]() |
Svara |
|
|