FAQ |
Kalender |
![]() |
#11 | ||
|
|||
Medlem
|
XSS attacker är alltid tråkiga men generellt sätt så kan en attackerare göra precis allt som en vanlig användare kan, med undantag för CAPTCHA eller något som kräver dens lösenord. Givetvis kan även captcha knäckas, men det försvårar nämnvärt.
Men då du bygger sidan från grunden skulle jag lägga mycket prioritet på att inte tillåta javascript från användare. Generellt sätt kan man tvinga (framförallt) IE att köra javascript på en rad sätt och även större communities (playahead, snyggast, anstalten m.fl.) har visat sig vara sårbara på en eller flera punkter där. Skrev för övrigt en artikel om samma ämne och hur man som programmerare för ett community kan skydda sig för A List Apart, adress http://www.alistapart.com/articles/secureyourcode och http://www.alistapart.com/articles/secureyourcode2 Mycket av det om står ska en webmaster redan veta men med lite tur kan de flesta lära sig något nytt. Vid intresse kan ni med fördel kolla in diskussionen som följde då det kom upp flertalet bra poänger där. Mvh/ Niklas |
||
![]() |
![]() |
![]() |
#12 | |||
|
||||
Mycket flitig postare
|
Tack folk!
Det där med att skriva in sitt lösenord är kanske grejen. Jag ska fundera på vad det har för innebörder. Bivald, xss är faktiskt inte problemet i detta fall, det är jag väl skyddad emot, detta gäller ju externa länkar - där personer skriver en länk i forumet "kolla min fina bild" - sedan har de ett javascript på SIN site, så nu blandar du ihop problematiken lite. Men jag ska ändå titta på dina länkar imorrn, det finns säkert något matnyttigt ändå. |
|||
![]() |
![]() |
![]() |
#13 | ||
|
|||
Medlem
|
Du kanske kan använda tekniken jag beskriver i min lilla text på http://www.netrogenic.com/public/linkprotection/
Om du modifierar tillvägagångssättet lite dvs. |
||
![]() |
![]() |
![]() |
#14 | ||
|
|||
Medlem
|
Citat:
Men alternativet man kan göra istället är att skapa en "egen" referer. dvs. mer eller mindre addera lite data (token) per http request i en cookie. Denna jämförs sedan med den som sparades på serversidan. Det negativa med detta är att det tar en del kraft. Rekommenderar ej att använda IP-adress eller user-agent då dessa kan förändras genom att vissa ISP:er vill spara bandbredd(proxy servrar som cachar vanliga http requests el dyl. har inte riktigt koll på proceduren) och därmed skicka andra ip-adresser respektive user-agents. Vet inte riktigt hur vanligt detta är men det förekommer. För dom som inte använder ett liknande verktyg så rekommenderar jag firefox tillägget "Tamper Data" vilket gör att ni kan testa era webbapplikationer enkelt. |
||
![]() |
![]() |
Svara |
|
|