FAQ |
Kalender |
|
![]() |
#1 | ||
|
|||
Medlem
|
Nej, du kan inte enkelt undvika alla möjliga scraping attacker genom enkla system av anti-proxy eller ännu enklare ip-banns vid ett visst antal requests och så vidare. Visst du kan lägga in Asirra eller någon mycket jobbigare kontroll än reCaptcha, eller något som kan brytas av anti-captcha algoritmer för att visa varje sida, varje gång den anropas, sådant skulle försena scraping en hel del och givetvis göra sidan den mest jobbiga i världen. Men du kan aldrig, om du har en publik sida undvika att informationen stjäls.
|
||
![]() |
![]() |
![]() |
#2 | ||
|
|||
Nykomling
|
Debatten om scraping är jäkligt intressant. Är ju lite tjatigt att ta som exempel kanske men ändå: Google är ju världens största scraper. De livnär sig till 100% på att presentera världens alla webbplatser och dess innehåll i kommersiellt syfte.
Är det någon skillnad på att låta en dator samla in samma information som går att samla in manuellt? Går i sådant fall gränsen i automatiseringen? Tel. nr och den typen av uppgifter är ju faktiskt ingen som kan sätta (c) på. |
||
![]() |
![]() |
![]() |
#3 | ||
|
|||
Flitig postare
|
Citat:
|
||
![]() |
![]() |
![]() |
#4 | ||
|
|||
Klarade millennium-buggen
|
Katalogskyddet borde vara ganska lätt att hävda i en rättsprocess för ägaren. Skraparen ligger rätt illa till.
|
||
![]() |
![]() |
![]() |
#5 | ||
|
|||
Supermoderator
|
Citat:
Citat:
Om någon kopierar mitt arbete lika uppenbart som i detta fallet så är det ju en sak men om det hela görs manuellt? Vad gäller då? Jag kan omöjligt bevisa någonting alls förutom att de har samma data.
__________________
Full-stack developer, free for smaller assignments Senast redigerad av tartareandesire den 2010-03-18 klockan 17:34 |
||
![]() |
![]() |
![]() |
#6 | ||
|
|||
Klarade millennium-buggen
|
Här är ett aktuellt svenskt fall om katalogskydd:
http://www.wn.se/showthread.php?t=29066 Lazyman här på WN skriver: Citat:
|
||
![]() |
![]() |
![]() |
#7 | ||
|
|||
Klarade millennium-buggen
|
Frågan är om du överhuvud taget är något fel att ta informationen om den inte publiceras efteråt.
Sedan så är det väl inte olagligt med DDOS-attacker i Sverige? Har för mig att jag läste att det var "lagligt". |
||
![]() |
![]() |
![]() |
#8 | ||
|
|||
Nykomling
|
Man kan anställa 4st från china som kan skirva in manuellt i en excell fil och det blir billigare än att tillverka scraping scriptet.
finns det någon lag om att man inte får skriva ner information manuellt från en hemsidan? Hur fick dom information? |
||
![]() |
![]() |
![]() |
#9 | ||
|
|||
Supermoderator
|
Jag har svårt att se något problem med insamlandet av information så länge det inte överbelastar servern. Det är först OM informationen används som det börjar bli intressant.
__________________
Jonny Zetterström se.linkedin.com/in/jonnyz | bjz.se | sajthotellet.com | kalsongkungen.se | zretail.se | zetterstromnetworks.se | webbhotellsguide.se | ekonominyheter24.se | nyamobiltelefoner.se | gapskratt.se | antivirusguiden.se | jonny.nu |
||
![]() |
![]() |
![]() |
#10 | ||
|
|||
Supermoderator
|
Varför skulle någon få för sig att samla in informationen utan syfte att använda den?
__________________
Full-stack developer, free for smaller assignments |
||
![]() |
![]() |
Svara |
|
|