Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties

Microsoft gaat helpen bij het opsporen van kinderporno. Het bedrijf stelt software die het heeft ontwikkeld om afbeeldingen te herkennen, gratis ter beschikking aan het Amerikaanse National Center for Missing and Exploited Children.

Het bedrijf uit Redmond heeft dat woensdag bekendgemaakt. De nieuwe software, PhotoDNA genaamd, is de afgelopen twee jaar ontwikkeld door Microsoft in samenwerking met het prestigieuze Dartmouth College. PhotoDNA herkent afbeeldingen door deze te vergelijken met bekende afbeeldingen uit een database. Het bijzondere is dat de methode volgens Microsoft ook werkt als afbeeldingen bijvoorbeeld zijn bijgesneden of verkleind. Daarmee zou de software effectiever zijn dan tot nog toe gemaakte herkenningssoftware.

Microsoft onthult geen werkingsdetails over zijn methode, die het bedrijf als 'robust hashing' aanduidt. Wel zegt het bedrijf dat de software in staat is afbeeldingen in minder dan vijf milliseconden te vergelijken. In tests herkende PhotoDNA 98 procent van de afbeeldingen; in één op de miljard gevallen zou er een false positive worden gegeven. De software moet het NCMEC helpen bij het afspeuren van het internet naar afbeeldingen van misbruikte minderjarigen.

Het softwarebedrijf stelt de programmatuur gratis ter beschikking aan de organisatie, die zich al langer inzet om kindermisbruik op internet tegen te gaan. Zo is het NCMEC een samenwerking aangegaan met circa zeventig internetproviders, zowel binnen als buiten de Verenigde Staten. De software kan volgens het NCMEC door isp's en andere internetbedrijven worden gebruikt om op kindermisbruik te controleren. De organisatie geeft geen voorbeelden van bedrijven die de software zouden kunnen gebruiken, maar er kan worden gedacht aan hosters van websites die gebruikers foto's laten delen.

Moderatie-faq Wijzig weergave

Reacties (122)

Goed initiatief, het is alleen te hopen dat de software inderdaad zo goed werkt als Microsoft beweert.
Zodat niet oud-uitziende minderjarigen door de filters heen komen en juist jong uitziende 18+-ers er door onderschept worden.
Zo werkt de software dus niet. Het is geen programma dat een op zichzelf staande foto bekijkt en dan zegt of het KP is of niet. Het vergelijkt de foto met een of meerdere andere foto's en meldt dan of de foto uniek is of gemaakt is door een van de vergelijk-foto's te bewerken.

Stel ik pak een vakantiekiekje, ik ga daar aan zitten photoshoppen: beetje verkleinen, helderheid wat omhoog gooien, watermerkje rechtsonderin, etc... Als ik nu het eind-resultaat samen met het origineel door de PhotoDNA software haal dan zegt deze dat er een match is (althans, dat is de bedoeiling). Pak ik vervolgens een foto van iemand anders die toevallig dezelfde scene gefotografeerd heeft, maar vanuit een iets ander perspectief of iets dergelijks, dan zal deze niet matchen in de PhotoDNA software.

Om KP te kunnen herkennen is dus een grote database nodig met KP-foto's die door mensen zijn aangewezen als KP. De software kan dan zeggen of een nieuwe foto een bewerking is van een in de database aanwezige foto. Een volledig unieke foto zal (helaas) niet als KP herkend kunnen worden door de software.

Maar goed, je leest in de berichten over KP-foto-bezitters vaak dat ze duizenden tot miljoenen foto's bezitten. Daar van zullen er ongetwijfeld wel een aantal in de database staan en PhotoDNA pikt die er uit, zelfs als ze bewerkt zijn. Daarna kan een menselijke onderzoeker de overige foto's beoordelen en die in de database stoppen voor de volgende keer.

Overigens kan deze software ook elders erg nuttig zijn. Stock-photo-bedrijven beheren duizenden foto's van allerlei onderwerpen die ze in licentie verkopen aan anderen die specifieke foto's nodig hebben voor hun reclame / website / whatever. Met de PhotoDNA software en een internet-crawler, kan een stockphoto-bedrijf controloeren of er geen mensen zijn die zonder te betalen deze foto's gebruiken. Zelfs resizen of het toevoegen van je eigen bedrijfslogo hoort geen belemmering te zijn voor detectie.
hij herkent geen mensen/leeftijden ofso... lees het bericht nog is als een foto in de database staat en die komt op internet kunnen ze hem herkennen maar als een foto op internet komt die NIET in de databse staat wordt die niet herkent, het is veel simpeler dan je dnket...
Ik ben benieuwd hoe goed dit werkt met bijvoorbeeld vakantie foto's. Dit is toch wel een potentieel voor false positives.
De software vergelijkt afbeeldingen met bekende kinderporno afbeeldingen in een database. Dus tenzij je vakantiekiekje op zo'n bekende afbeelding lijkt, zal er niet veel aan de hand zijn... Maar goed, ik weet natuurlijk niet wat voor vakantiekiekjes jij maakt ;)

Verder vind ik dit wel een erg goede ontwikkeling. De teams die zich bezighouden met kinderporno zijn vaak onderbezet (vanwege lage prioriteit ervan), dus automatisering kan dan helpen om de werkdruk te verlagen.

Toch vraag ik me wel af of dit een soort webcrawler is of gewoon software die los op een server of client kan draaien. Veel kinderporno zal (lijkt mij) wel via P2P netwerken verspreid worden en dus niet over het internet. Maar misschien is het met deze software ook mogelijk om bijvoorbeeld snel een in beslag genomen harddisk te scannen op kinderporno, dat zou ook al handig zijn.

Edit @ Ryaka: Er staat dat er een soort hashing-algoritme gebruikt wordt. het is dus maar de vraag of de database een visuele afbeelding bevat, of een wiskundige representatie daarvan... Van een berg hexadecimale karakters zal niemand opgewonden raken lijkt me :)

[Reactie gewijzigd door Morrar op 16 december 2009 11:47]

Persoonlijk vind ik alles wat gemaakt wordt om kinderporno te bestrijden een goede zaak, maar er is een ding dat me verontrust.

<quote>"erkent afbeeldingen door deze te vergelijken met bekende afbeeldingen"</quote>

Dat wil dus zeggen dat er ergens een database moet bestaan waarin alle (recente) kinderporno opgeslagen zit . Het idee alleen al maakt me ziek, maar dat even terzijde, het woordje alle is hier van belang. Dat wil zeggen dat de software enkel 'gekende' kinderporno kan opsporen.

Zou het niet nuttiger zijn om bvb. aan de hand van gezichtsherkenning, het internet af te speuren naar gekende slachtoffers en/of vermiste kinderen?

Daarnaast is het bezit van of naargelang de gebruikte techniek aanmaak van de database volgens mij onwettig, gezien er zeer strenge regels zijn op het bezit van kinderporno (of ga ik hier te kort door de bocht)

[Reactie gewijzigd door Ryaka op 16 december 2009 11:34]

Dat wil dus zeggen dat er ergens een database moet bestaan waarin alle (recente) kinderporno opgeslagen zit . Het idee alleen al maakt me ziek, maar dat even terzijde, het woordje alle is hier van belang. Dat wil zeggen dat de software enkel 'gekende' kinderporno kan opsporen.
Voor zover ik weet wordt alle kinderporno die in beslag genomen wordt bij die "raids" netjes opgeslagen en geklasseerd, alleen al om als bewijs te kunnen dienen. Overigens zitten er wel degelijk enkele agenten een paar weekjes (afhankelijk van de hoeveelheid) met kotszakjes om naar al die beelden te kijken om er uit te filteren wat welke vorm van porno is: kinderporno, gewone porno, onvrijwillige verkrachtingsscenes, dieren, -is-die-nu-wel-of-niet-18-?-porno- vooral die laatste categorie moet door verschillende mensen verschillende keren bekeken worden, hoewel die "net-18" categorie niet zo aanstotelijk is als de "net-3,5"
dus dat alle "gekende" kinderporno ergens in een database (interpol ofzo?) zit kan ik me best wel voorstellen, en persoonlijk vind ik dat niet echt ziek, eerder normaal.

je hebt wel gelijk dat het betekend dat hiermee enkel "gekende" kinderporno kan gevonden worden, maar als je bv 100 schijven moet doorzoeken, en met dit algoritme vind je op 1 van die schijven 1 fotootje dat overeenkomst vertoont kan je je toch al concentreren op die schijf want waar rook is is meestal vuur.
Zou het niet nuttiger zijn om bvb. aan de hand van gezichtsherkenning, het internet af te speuren naar gekende slachtoffers en/of vermiste kinderen?
zo'n algoritmes bestaan, maar om dat te gaan doen is enorm werk. ook de gezichtsherkenning is niet echt makkelijk, meestal is bij kinderporno het gezicht van het slachtoffer niet zichtbaar en concentreert men zich op andere delen, ook de "vermiste kinderen" zijn meestal niet indezelfde toestand als waar ze in verdwenen, verminking, haarkleur veranderen (sommige gaan ver) en dergelijke, het is efficienter om zodra je nieuwe kinderporno beelden binnenhebt om hier een aangezicht uit te halen en dit te vergelijken met je database van vermiste kinderen
Daarnaast is het bezit van of naargelang de gebruikte techniek aanmaak van de database volgens mij onwettig, gezien er zeer strenge regels zijn op het bezit van kinderporno (of ga ik hier te kort door de bocht)
zoals ik hierboven al vermelde: waarschijnlijk houden politiediensten die databases bij, met hashes er aan, de nodige screening van wie er aan kan en blablabla
als de lokale recherche een disc in beslag neemt, hashes maakt van al de afbeelding, die hashes dmv bv een webservice door stuurt naar (zoals ik bv hierboven zei) interpol en die geven per hash een positive-negative flag terug dan weet er niemand wat er in die DB zit
je zou natuurlijk zelf ook kunnen kijken of je collectie kinderporno detectable is of niet...
zoals ik hierboven al vermelde: waarschijnlijk houden politiediensten die databases bij, met hashes er aan, de nodige screening van wie er aan kan en blablabla
Bij de belgische politie moet je je over die screening geen zorgen maken :z
nieuws: Geheime gegevens Belgische politie staan op internet
edit: oeps, reactie staat helemaal op de verkeerde plaats, mod maar weg

[Reactie gewijzigd door Fibbers op 17 december 2009 02:38]

Dat wil dus zeggen dat er ergens een database moet bestaan waarin alle (recente) kinderporno opgeslagen zit .
(...)
Daarnaast is het bezit van of naargelang de gebruikte techniek aanmaak van de database volgens mij onwettig, gezien er zeer strenge regels zijn op het bezit van kinderporno (of ga ik hier te kort door de bocht)
Lijkt me niet correct. Als ik het artikel goed begrijp wordt er van een eerder gevonden 'foute' afbeelding een 'robust hash' gemaakt - dan heb je verder alleen die informatie nodig om een nieuw gevonden bestand te testen. Het zou natuurlijk ook veel te langzaam zijn om nieuwe afbeeldingen in real-time tegen een database van eerder gevonden afbeeldingen te checken.

Aangezien het bij een 'positive' niet nodig is voor de bewijslast dat het originele beeld aanwezig is (een fout beeld zal opzichzelf al genoeg bewijs vormen) hoeft het beeldmateriaal niet bewaard te worden. Dat gezegd, het lijkt met een bijzonder slecht idee het te vernietigen als je dit soort software wilt kunnen trainen in de toekomst.
Het idee alleen al maakt me ziek, maar dat even terzijde, het woordje alle is hier van belang. Dat wil zeggen dat de software enkel 'gekende' kinderporno kan opsporen.
Klopt. Maar ik denk dat het aantal false positives anders volledig de pan uit rijst.
Het alternatief zou zijn dat je als agent bezig met zo'n zaak zelf al die afbeeldingen langs moet om te zien of ze strafbaar zijn of niet.

Ik denk dat dit emotioneel een zeer zware taak is, en dat men dan dankbaar gebruik zal maken van deze software oplossing.

Overigens wordt er gesproken over hashing - waarbij er van een afbeelding een unieke hash wordt gemaakt. Je hebt dus wellicht niet een database nodig met plaatjes, maar een database met hashes...
Nu kan ik me voorstellen dat Microsoft een zeer efficiënt hash patern zal hebben wat het mogelijk maakt om de foto's snel te doorzoeken en de foto op zo'n manier in te delen dat stukken ervan op te sporen zijn, maar het probleem blijft hetzelfde.

En dat is, dat als je hashing gebruikt, je geen heuristics meer kan toepassen. Het hash patroon komt overeen of niet. Wat het voor de toepassing extreem moeilijk maakt om nieuwe foto's te herkennen lijkt me. Wat er weer voor zorgt dat iets/iemand er zorg voor moet dragen dat alle nieuw opgedoken foto's 'verhashed' moeten worden en in de database opgeslagen.

edit: Rainlife verwoord exact wat ik bedoel. (post kwam iets te laat door)

[Reactie gewijzigd door Ryaka op 16 december 2009 12:01]

En dat is, dat als je hashing gebruikt, je geen heuristics meer kan toepassen. Het hash patroon komt overeen of niet. Wat het voor de toepassing extreem moeilijk maakt om nieuwe foto's te herkennen lijkt me. Wat er weer voor zorgt dat iets/iemand er zorg voor moet dragen dat alle nieuw opgedoken foto's 'verhashed' moeten worden en in de database opgeslagen.
Nou, dat hoeft niet persee waar te zijn. Ik heb in mijn afstudeeropdracht gebruik gemaakt van zogenaamde integral images als "hashes" van afbeeldingen (overigens werkten die onderzoekers ook nog eens bij Microsoft :)).

In mijn geval waren deze hashes handig, omdat ik dan zeer snel de som van een vlak van pixels in een afbeelding kon berekenen door de som van slechts 4 waardes uit die integral image te berekenen (ipv alle pixels in dat vlak af te gaan), ongeacht hoe groot dat vlak was. Het detecteren gebeurde namelijk op basis van sommen van pixel-waardes binnen vlakken.

Het ligt er dus maar net aan hoe je detectie algoritme werkt en hoe je de afbeeldingen dus gaat representeren of hashen. Informatie hoeft hierbij helemaal niet verloren te gaan.
Inderdaad gezichtsherkenning of misschien andere delen van een lichaam zou vele male efficienter zijn. Wel ondoendelijk om te maken overigens. of iig tijdrovend.
Nu kan ik me voorstellen dat Microsoft een zeer efficiënt hash patern zal hebben wat het mogelijk maakt om de foto's snel te doorzoeken en de foto op zo'n manier in te delen dat stukken ervan op te sporen zijn
Ja en dat hebben ze

Wat zijn mensen toch onstellend naief, geloven ze echt dat dit ontwikkeld is om kinderporno op te sporen. Als ze ons iets door de strot willen duwen is het argument of terrorisme of kinderporno. De twee dingen die iedereen verafschuwt.

Wat nu als de titel van dit artikel had geluid. MS ontwikkelt technologie om auteursrechtelijk beschermd materiaal op te sporen? Zouden ze dan nog steeds zo enthousiast zijn. Want dit werkt echt niet alleen op kinderporno foto's.

Zijn al de foto's op flickr en picassa wel jouw eigendom of heb je leuke foto''s van internet afgeplukt voor je blog waar misschien wel auteursrechten op rusten? Misschien heb je op je site of in je rapport wel een bewerkte foto van een ander gebruikt. FOEI.

Dat is een grote misdaad! Daarvoor kun je $35.000 boete per foto krijgen in sommige delen van de US! Want niet langer zul jij de rechten kunnen schenden. Dank zij de nieuwe MS crawler kunnen bedrijven zoals persbureaus het internet afstropen naar gemene dieven die hun rechten schenden.

Ongetwijfeld zal er veel geld aan te verdienen zijn.

Dit is MS nieuwste bijdrage aan digital rights management. DRM is niet erg populair, daarom wordt het ons gebracht als MS nieuwste pedo bestrijdingssoftware.

[Reactie gewijzigd door degener op 16 december 2009 20:47]

In beide gevallen ben je volgens de 'wet' strafbaar. Auteursrechtelijk materiaal of kinderporno.

MS 'matched' tegen een reeds bekende database. * TeeDee zit met smart op de specificaties van zo'n database voor alle beschermde afbeeldingen te wachten.

Ik geef MS geen ongelijk. Als hiermee kinderporno een grote slag toegebracht kan worden...

Neemt niet weg dat het natuurlijk helemaal hip is om onder het mom van globaal geziene afschuwelijke praktijken iets te presenteren ;)
Wat ben jij zo duister cynisch :+ Microsoft doet iets slecht voor hoge winst, mensen boos, Microsoft doet iets goeds voor de gemeenschap, mensen boos en paranoïde.

Ze helpen kinderporno op te sporen, wat boeit het als hun volgende stap auteursrechten beschermen is, het zij zo. ZE HELPEN KINDERPORNO OP TE SPOREN! Als dit niet duidelijk genoeg is, weet ik het ook niet...

Stop bashing Microsoft and get a life.
Dat moet toch al gebeuren, anders is het wettelijk toch niet geldig.
Natuurlijk niet. Die databases bevatten hash waarden van bekende KP. Bezit van KP is zelfs voor politie / justitie strafbaar onder alle omstandigheden behalve een lopend onderzoek naar.
Er staat dat ook verkleinde of bijgesneden afbeeldingen worden herkend. Die zullen niet dezelfde hash waarden hebben als het origineel, dus dan vraag ik me af hoe ze dat herkennen als er alleen een database met hash waarden is.
Zowel @Bonez0r en @Ruud v A:

Hebben jullie al eens overwogen om een artikel daadwerkelijk te lezen voordat je gaat reageren?
Het bijzondere is dat de methode volgens Microsoft ook werkt als afbeeldingen bijvoorbeeld zijn bijgesneden of verkleind.
Vandaar dat ze een nieuwe term, "robust hashing", hebben bedacht, juist omdat dit een probleem is bij "klassieke hashing".
<sarcasm>Wie weet, misschien is de ontwikkeling van robust hashing wel helemaal de reden is dat we dit nieuws noemen...!?</sarcasm>
Een hash zou stom zijn; je hoeft de afbeelding niet eens bij te snijden. Alleen al het bestandsformaat veranderen, of opnieuw comprimeren leidt al tot een andere hash.
Dat wil dus zeggen dat er ergens een database moet bestaan waarin alle (recente) kinderporno opgeslagen zit
Tsja wat had je anders verwacht, dat ze na onderzoek al het materiaal zouden vernietigen? Inderdaad een ziek idee maarja, bewijsmateriaal van brute moordzaken of verkrachtingen wordt ook allemaal bewaard...
Dat wil dus zeggen dat er ergens een database moet bestaan waarin alle (recente) kinderporno opgeslagen zit . Het idee alleen al maakt me ziek, maar dat even terzijde, het woordje alle is hier van belang. Dat wil zeggen dat de software enkel 'gekende' kinderporno kan opsporen.
Volgens mij wil het zeggen dat er ergens een database bestaat met daarin de kenmerken van alle kinderporno.
Er is in Nederland ook een landelijke database met alle kinderpornografische foto's. Sterker nog, deze is afgelopen week enorm uitgebreid door een viezerik die meer foto's had dan de politie.
@ Ryaka

Daar dacht ik dus ook aan,
dat er ergens een database moet zijn met alle kinderporno...
Goede ontwikkeling, om het bestrijden van kinderporno tegen te gaan, maar ik vraag me af of het echt gaat werken...

[Reactie gewijzigd door mickje12 op 16 december 2009 15:41]

een erg goede ontwikkeling, MAAR dat betekent dat microsoft zelf een giga collectie aan kinderporno ergens online moet hebben staan om te vergelijken en nieuwe afbeeldingen waarschijnlijk niet snel ontdekt zullen worden.

Een stap in de goed richting dus maar we zijn er nog lang niet.
De software vergelijkt afbeeldingen met bekende kinderporno afbeeldingen in een database. Dus tenzij je vakantiekiekje op zo'n bekende afbeelding lijkt, zal er niet veel aan de hand zijn... Maar goed, ik weet natuurlijk niet wat voor vakantiekiekjes jij maakt
De volgende informatie heb ik uit een artikel over dit onderwerp in een dagbald, hoe betrouwbaar is moet je zelf even inschatten...

Wat je tegenwoordig ziet in de scènes, is dat alles steeds 'verborgener' wordt. Daarom moet je eerst zelf nieuw materiaal aanleveren, voordat je toegang krijgt tot de private places. Politie mag dit soort afbeeldingen niet verspreiden, laat staan vervaardigen en daardoor werkt deze truc ook nog vrij goed.

Maar boerenjan met de pet die erin wil gaat in veel gevallen niet het risico lopen om zelf iemand te ontvoeren of in zijn omgeving te misbruiken. Die pakt een andere methode, waarmee ik tot mijn punt kom:

Op internet zoeken ze die onschuldige vakantiekiekjes, en met photoshop brouwen ze er heel iets anders van. Bijvoorbeeld een naakte peuter op het strand dat aan een ijsje likt, is niet zo heel moeilijk om te bouwen naar een foto van een naakte peuter die aan heel iets anders likt. Maar ook foto's van gewoon geklede mensen worden hiervoor misbruikt.

Moraal van het verhaal, ook die onschuldige vakantiekiekjes kunnen wel degelijk een 'false positive' geven. Hoewel het ook nog eens dicutabel is of het dan wel een false positieve is, maar dat is een technischere discussie.

Dus wees ook een beetje op je hoede met het soort foto's dat je publiekelijk tentoon stelt, maar wees ook bewust dat ALS ze het willen, ze het feitelijk met elke foto kunnen en dan kun je zelf helemaal niets meer publiceren... Die angstwereld zie ik liever ook niet ontstaan.
Toch wordt er een false positive aangegeven van 1 op een miljard. Ik maak hieruit op dat dit een willekeurige afbeelding kan zijn.

Er van uit gaande dat op een pc al snel 10.000 foto's staan, betekent het dat van elke 100.000 pc's er 1 keer een false positive herkend wordt. In Nederland alleen al zouden dus145 mensen worden aangemerkt als kinderporno bezitters, zonder werkelijke schuld. (Immers is er in Nederland een pc-bezetting van zo'n 0,85 computers pp)

Naast de overduidelijke voordelen zal er dus ook goed gecontroleerd moeten worden op onschuldige indicaties.
liever 145 vals beschudligingen (dit tg niet gestraft willen worden)
dan xxx kinderporno spaarders die niet gepakt zijn
Het makkelijke is dat een foto die matcht met de database gewoon bekeken kan worden. Is dat vervolgens geen kinderpornoplaatje maar een foto van een tijger in de dierentuin is er dus weer niets aan de hand.

En los daarvan: one plaatje does not make a kinderpornofanaat (vrij naar one swallow does not make a summer). Niemand wordt geraid en/of veroordeeld voor een enkel plaatje, tenzij mischien het plaatje zelfgemaakt is en dus bewijs is van kindermishandeling door de eigenaar ervan. Verder is dat de moeite niet waard; grotere kans dat dat ene plaatje met iets anders is meegekomen en de eigenaar er niet eens van wist.

--

Ik vind 't op zich een prima zaak, verder. Normaal trap ik niet in die 'kinderporno' en 'terrorisme'-excusen voor vanalles maar ik zie hier verder niet direct een grote andere toepassing voor. Je moet namelijk een database hebben van afbeeldingen om mee te vergelijken. Ja, dat kan ook voor auteursrechtenbescherming maar:
1) De schaal daarvan is bijna per definitie kleiner-- flickr gaat echt geen complete database van miljarden foto's nalopen voor elke geuploade foto bijvoorbeeld. Dan mogen ze hun serverpark wel even flink uitbreiden. Datzelfde doen voor kinderporno op 't moment dat er vlaggetjes opgaan bij een bepaalde user is echter prima denkbaar.
2) Auteursrechtenschending is ook niet iets wat zomaar mag natuurlijk.

[Reactie gewijzigd door CyBeR op 16 december 2009 20:30]

Dat ben ik niet met je eens, de mensen die op zo'n manier opgepakt worden, krijgen een slechte naam waar ze moeilijk nog maar vanaf komen. Hiermee kunnen ze problemen krijgen met bijvoorbeeld het vinden van een baan.
Als je pas getriggerd word bij het hebben van bv 100 afbeeldingen, dan zal één persoon, mits geen fotograaf niet snel bestraft worden.
Dat controleren zal ook wel gebeuren - we zijn in Nederland nog niet zo ver dat we door een enkele aanwijzing van een stukje software iemand meteen veroordelen...

Overigens vind ik een fout-marge van 1 op de 1 miljard bizar laag. Ik kan me niet voorstellen dat software zo nauwkeurig afbeeldingen kan analyseren...

Realiseer me overigens dat 't om false positives gaat - waarbij 'vakantiekiekjes' worden gelabeled als kinderporno. Andersom (kinderporno labelen als vakantiefoto's) is de foutmarge 'slechts' 98 %?
Makkelijk toch; visueel controleren door een persoon en er is geen wolkje aan de lucht.
Het gaat denk ik om zelfde foto die vaker ook bij andere voor komen, op dat manier dat ze het opsporen..

ik vind mooi ontwikkeling _/-\o_
Tsja ik vraag mij af of het allemaal wel zo'n vaart loopt, want verleden week was ik bij mijn neef thuis en was een serie aan het downloaden van startrek (de originele) Nadat de boel binnen was vonden we tijdens het uitpakken een KP clip van een paar megabyte er tussen zitten, nu is het zo dat ik exact 4 jaar geleden dezelfde clip ben tegengekomen alleen bij een andere e-mule download en toen heb doorgegeven aan een website tegen kinderporno is en waar je dat kan melden waarna er stappen genomen gaan worden, nu blijkt het dus dat er helemaal geen stappen zijn genomen want die jaren oude clip zwerft nog steeds over het internet onder andere namen en zo ben ik al meer oude clips (soms van 9 a 10 jaar oud tegengekomen bij e-mule downloads) waarvan ik er totaal 4 van heb doorgegeven en die nog steeds vrolijk rondzwerven ondanks dat ik het IP en alles wat als bewijsmateriaal te gebruiken was verschillende malen heb doogegeven aan de site tegen kinderporno. Conclusie een hoop geschreeuw van de zedenpolitie en de site's tegen kinderporno, maar bijzonder weinig hooi (om het zo te zeggen) en met foto's zal het niet anders gaan, inmiddels zijn de kinderen van toen, nu in AOW vrees ik. Want er waren er 2 bij die zelfs nog zwart wit waren en waarschijnlijk op super of single 8 film waren gemaakt |:(

[Reactie gewijzigd door Athalon1951 op 16 december 2009 13:45]

Wat voor stappen moeten ze ondernemen dan? Jij kreeg het via p2p binnen, dat betekent waarschijnlijk dat duizenden andere mensen het ook hebben gedownload. En die verspreiden het (zelfs voordat hun download compleet is) weer door naar duizenden anderen. De bron van materiaal dat al jaren over p2p netwerken zwerft is onmogelijk nog te achterhalen. Moeten ze dan iedereen die het op een bepaald moment onbewust deelt gaan opsporen en een politie inval gaan doen? Dan kan je zelf dus ook een bezoekje van de politie verwachten. En dan mag je gaan uitleggen waar al die gedownloade series enz vandaan komen.
Over die False Positives maak ik me niet ongerust. Ik neem namelijk aan dat je niet aangeklaagd wordt, omdat de computer vindt dat een plaatje positief is. Ik neem aan dat een rechercheur dat toch wel even verifieert. En zelfs als dat niet gebeurt, dan zal en rechter die foto wel willen zien. Het is dan namelijk bewijs. Een false positive valt dan wel door de mand.
Waar ik me meer zorgen over maak zijn de false negatives. Daar staat niets over in het artikel. Dat zijn dus belastende foto's die niet door de computer ontdekt worden en waar ook niemand meer naar kijkt. Anders zou je namelijk toch iedere foto apart moeten bekijken en zou de software geen meerwaarde hebben. Ik zou die foutmarge dus graag willen weten.
De software wordt ook niet direct gebruikt voor het verzamelen van bewijsmateriaal (indien er een vermoeden is dat een collectie foto's kinderporno is of bevat zal daar vast nog doorgekeken worden) maar meer voor het opsporen/detecteren van materiaal op websites en dergelijke.
Ik neem aan dat ze de afbeeldingen die ze deruit vissen laten bekijken door echte mensen, dan is jouw vakantiefoto gewoon bekeken door een totale vreemde, that's all ;-)
Ik ben toch benieuwd hoe je dat test.. Is dat niet illegaal?
Ja, blijkbaar heeft Microsoft een ontzettend groot aantal kinderporno-foto's om ze mee te kunnen vergelijken.
Sterker nog, om goed te kunnen werken moeten ze ALLE foto's hebben, en een paar mensen in dienst om de nieuwe te kunnen classificeren.
Mag dat zomaar? "Ja, ik heb een grote collectie kinderporno voor test-doeleinden"
Volgens mij zou alleen Justitie zoiets mogen hebben.
Wat is dat nou weer voor onzin? De software kan ook met een ander soort foto's getest worden. Als de resultaten hiermee positief zijn kan het NCMEC verder testen met kinderporno foto's.
De software herkent foto's, niet specifiek kinderporno-foto's. Het vergelijkt foto's met bekende foto's. In feite staat dat los van kinderporno-of-niet.

De vergelijkings-foto's (alsmede personeel om de boel te beheren) zullen eerder afkomstig zijn van justitie, en niet van MS zelf. Zij maken de software, anderen gebruiken het.
Als je de moeite had genomen om het bericht (helemaal) te lezen, had je geweten dat de software ter beschikking wordt gesteld aan een overheidsorganisatie, het National Center for Missing and Exploited Children.
Zonder te weten hoe ze het doen, kan je dat niet weten. Zo kan je bv een algoritme hebben dat fingerprints van de foto's aanmaakt en daarna deze gaat vergelijken, daarbij heb je echt de originelen niet meer nodig.
Als programmeur zijn fingerprints toch meteen iets waar ik aan zou denken en geen grote lompe foto's.
Dit is onzin. Microsoft hoeft helemaal niks te hebben. De basis waarop zo'n systeem (ik vermoedt een vorm van neural network simulation) werkt is het leren herkennen van features van een plaatje in een invariante manier (ongevoelig voor locatie, positie, schaal etc). Dat wil zeggen dat de onderste lagen geheel unsupervised opgevoed kunnen worden en algemene featuredetectors worden (dus los van het soort plaatje). Alleen de bovenste output regionen moeten wat supervised training epochs doorstaan. Zolang microsoft de leerregel (backpropagation oid) heeft ingebakken of met het programma meelevert hoeft die Amerikaanse Instantie hun database enkel een paar (honderd/duizend) keer te scannen en presto..

Edit: Overigens is dit eigenlijk helemaal niets nieuws, maar alleen op een grotere schaal uitwerken van eerdere modellen. Zo zijn er al enkele jaren modellen bekend die met dezelfde effectiviteit als mensen plaatjes met dieren, mensen of gebouwen/natuur kunnen onderscheiden ongeacht of deze in close-up, center view of op de verre achtergrond zijn.

[Reactie gewijzigd door k.olfers op 16 december 2009 11:38]

MS heeft deze foto's uiteraard niet, maar de politie en de NCMEC wel, daarom stellen ze de software ook ter beschikking (ipv het zelf doen)
doordat dergelijke foto's niet overal te vinden is, hebben vele pedo's enkele dezelfde foto's
door te gaan vergelijken met dergelijke software kan men zeer snel zien of er in een grote collectie kinderporno zit, indien er dan gevonden zijn, kan men manueel nakijken
het is uiteraard niet 100%, maar in een fractie van de tijd, kan men veel meer controle doen
Waarom zou je er één plaatje van kinderporno voor moeten hebben? De software is er zich niet van bewust wat er op de plaatjes staat. Je "traint" de software niet om kinderporno te ontdekken. Je kunt alle mogelijke plaatjes gebruiken. Vakantiefoto's van je medewerkers, die mee willen werken eraan, foto's van schilderijen, gebouwen, een spider die gewoon allerlei foto's van het Internet afhaalt. ik denk zelfs dat ik die laatste zou gebruiken. Veel bekende foto's worden namelijk bijgesneden, verkleint, van formaat veranderd of voorzien van een logo door de diverse sites. Het is dus een goede test.

Een organisatie die zo'n tool gbruikt, krijgt een lege database, die ze zelf zullen moeten vullen.

[Exact kan je een boekhoudprogramma leveren, maar hoeft jouw boekhoudgegevens niet te hebben om dat programma te ontwikkelen. Daarvoor zijn fictieve gegevens voldoende.]
Microsoft werkt al veel langer met politie diensten samen aan dit probleem, er is ooit een agent in Canada geweest die Microsoft, direct via Bill Gates, gevraagd heeft om te helpen bij het opsporen en sorteren van kinderporno.

Eerste link die ik vond: http://www.microsoft.com/.../government/cetsnews.mspx

[Reactie gewijzigd door Tijger op 16 december 2009 12:49]

is toch hetzelfde argument als Japan en Noorwegen gebruiken. Wij schieten walvissen dood en knuppelen zeehonden neer, vanwege onderzoek. ;)

P.S. Ik ben een groot bewonderaar van Bill. Hij is echt een van de weinige superrijken die een groot deel van zijn kapitaal (> 1 miljard) aan maatschappelijk relevante noodzakelijkheden besteedt.

[Reactie gewijzigd door onzichtbaar op 16 december 2009 11:39]

Wat heeft Bill er mee te maken? Die mens is tegenwoordig bezig met Malaria, AIDS en superorkanen uit de wereld te helpen.
Off topic:
Tja, wat is erger. Een beperkt aantal zeehonden en walvissen doden (voor welk doeleinde dan ook) die tenminste hun leven in vrijheid hebben geleefd, of het van geboorte tot dood opsluiten van tientalen miljoenen varkens, koeien en kippen om ze vervolgens op het eind te slachten. Dat laatste gebeurt gewoon in Nederland en er kraait bijna geen haan naar. Maar wel allemaal verontwaardigd reageren als er door een ander land een veel kleiner aantal walvissen/zeehonden gedood worden. Hoezo dubbele standaard?
Je moet inderdaad wel een database met KP hebben om mee te vergelijken. En dat bezit is voor particulieren strafbaar.
Maar de afbeeldingen hoeven niet per se als herkenbare afbeeldingen gestockeert te worden: wellicht heeft men met een aantal patronen en metadata genoeg, en dat is vermoed ik wel legaal om te bewaren.
...EN voor bedrijven. Zou wat idioot zijn dat het ok is zodra je een of andere schijn-BVBA/NV oid opzet om je zieke hobby mee te beleven...
Marcel Vervloesem?
zelfs dat is met deze software niet nodig, als de politie de PhotoDNA tabellen die het programma gebruikt geeft, bezit je geen KP
met een hash kan je het originele bestand nooit terug construeren
Kinderporno lijkt vooral een kreet te zijn die verwerkt is in het bericht voor het vergroten van het bereik. PhotoDNA lijkt veel breder te zijn dan dat, het herkent geen kinderporno, het kan alleen twee afbeeldingen met elkaar vergelijken, ook als een van de afbeeldingen bewerkt is (of in iedergeval vergroot/verkleind/bijgesneden). Het 'herkennen' van kinderporno werkt pas als je b.v. de beschikking hebt over de database met plaatjes van de KLPD.

Het testen van PhotoDNA kan dus prima met je vakantiefoto's gebeuren, niets illegaals aan. Ik gok overigens dat Australie op het moment een mooi export land is voor deze technologie...
Goede actie, als het hiermee makkelijk word om pedo's en andere belanghebbenden bij kinderporno te pakken te krijgen!

Maar de politie gebruikt neem ik aan toch ook van dit soort software? Mag aannemen dat niet agenten de hele dag naar dit soort smerige plaatjes lopen te kijken. Had men dat pakket dan niet kunnen gebruiken?

En wat kost dit voor een ISP?
Ik denk gratis, omdat de organisatie dit software ook gratis krijgt. (Kan er ook naast zitten :o )

98% voor herkenning, zelfs met bijgesneden of verkleint, netjes!
Gratis is niks, de software mag dan gratis zijn ze hebben zowiezo de kosten voor het draaien van de machines die de beelden moeten verwerken. Dat kost hoe dan ook energie en brengt dus kosten met zich mee evenals het aanschaffen van de apparatuur.
Wel zegt het bedrijf dat de software in staat is afbeeldingen in minder dan vijf milliseconden te vergelijken.
Vraag me af op wat voor soort machine dat is, een simpel pctje met een CPU van zo'n €200 of moet ook aan een grote bak denken met veel rekenkracht. Als het 1e het geval zal het niet zo heel veel gaan kosten voor de isp's denk ik.

[Reactie gewijzigd door Zartok op 16 december 2009 11:33]

de politie beschikt inderdaad over gelijkaardige software, het unieke aan het pakket van MS is dat het ook foto's kan herkennen die bewerkt zijn
hierdoor kan ook de databank beperkt worden doordat er nu waarschijnlijk meerdere versies van 1 foto circuleren

een andere leuke toepassing voor de software zou kunnen zijn om de originele foto's te zoeken wanneer er weer eens iemand een bekend hoofd op een (naakt) lichaam heeft gephotoshopt
ISP's krijgen het pakket niet? Dit is puur bedoeld voor de politie, niet voor service providers.
Goede zaak! Ik hoop dat dit veel zaken gaat oplossen. En als het echt zo goed is als MS beweerd dan zie ik dat ook daadwerkelijk gebeuren.
Ach wat is oplossen.
Volgens mij zijn er in de meeste gevallen geen directe banden met de daadwerkelijke 'makers' van de foto's.
Goed dat er getracht wordt de verspreiding in te perken, maar het werkelijke kwaad is al geschied (de foto's zijn al geschoten).

Zowieso zal er nog handmatig een controleerslag gedaan moeten worden over de resultaten van deze tool, ik neem aan dat mensen niet 'blind' veroordeeld worden, puur en alleen op resultaten van een tooltje.
Er zullen best wel wat agentjes zijn die daar *kuch* vrijwiliger voor willen zijn.
dit is het belangrijkste, vaak pakken ze bezitters op. Maar bezit, (ja het vehoogt de vraag) is erg, maar daar kan ik nog mee leven. Het maken vind ik veel erger, zonder de makers ook geen bezit.

één maker zorgt voor 100den mogelijke "criminelen" terwijl door één persoon op te pakken je de slachtoffers veel meer helpt dan die andere 100.
één maker zorgt voor 100den mogelijke "criminelen" terwijl door één persoon op te pakken je de slachtoffers veel meer helpt dan die andere 100.
je zou er ook kunnen van uitgaan dat als je de "vragers" oppakt, de aanbieders vanzelf stoppen. en niet iedereen die kinderporno maakt doet dat omdat hij/zij dat nu eenmaal zo plezant vind, sommige mensen die in barslechte omstandigheden leven en horen dat ze voor foto's van hun 11 jarig dochtertje in een wat volwassenere houding geld kunnen krijgen doen dat ook. ze vinden het zelf ook maar niks, maar soms is dat of hongerlijden (ja je kan de fotocamera ook verkopen, maar dan heb je éénmalig een inkomen, de foto's geven steeds opnieuw inkomen)
niet alle kinderporno wordt gemaakt met ontvoerde en verkrachte kindjes he, dat is (vraag me geen bronnen) maar pakweg 25% van alles, het meeste is "binnen de familie" gemaakt
Stel je hebt gelijk 25% komt vanuit de familie, dan is het overgrote deel door echte criminelen gedaan. die overige 25% is er alleen maar door die andere 75% die het groot maakt. Die vallen vanzelf weg als die andere ook weg zijn.
Sterker, er treedt waarschijnlijk een doelverschuiving op omdat het veel gemakkelijker is om verspreiding en bezit op te sporen in plaats van het maken ervan. En een decembermiddag achter een PC is voor een rechercheur veel aangenamer dan in de regen buiten posten bij een louche pand.

Net zoals je in het verkeer gemakkelijker wordt bekeurd vanwege een niet brandend achterlichtje dan wegens a-sociaal rijgedrag.
Deze software lijkt me overigens voor veel meer inzetbaar dan alleen kinderporno. Het lijkt erop dat in principe elke set aan plaatjes/foto's kan worden gematcht tegen een willekeurige verzameling plaatjes op het internet.

Dus als een fotograaf zijn copyright wil beschermen, zou hij ook deze tool kunnen gebruiken.

[Reactie gewijzigd door Keypunchie op 16 december 2009 11:27]

Of het vinden van dubbelen in willekeurig wat voor soort verzameling.

Hopelijk wordt de applicatie voor anderen ook beschikbaar. Prima dat het gebruikt wordt voor dit soort zaken, maar ik zou het ook wel eens op m'n eigen artwork collecties los willen laten om de dubbelen er uit te hengelen. :)
Ze hebben natuurlijk gewoon normale foto's gebruikt.Als het daar op werkt dan ook op andere soort foto's met zulke eigenschappen als, herkenning blijft mogelijk bij resize, dpi, of kleur.

Maar het is nu eenmaal makkelijk publiciteit scoren wanneer je over kinderporno begint.
Hun krijgen het gratis, andere mogen dik betalen.. ze moeten het voornamelijk van opsporingsdiensten hebben ivm security footage/ ctv's enz.

Lijkt me toepasbaar voor zowel videobeeld als foto's aangezien je er gewoon een frame uit kan pakken om te matche met omgevingen, gezichten enz..

[Reactie gewijzigd door Daikiri op 16 december 2009 11:33]

Ergens kijk ik niet op van deze techniek. Het is ook mogelijk om muziek te fingerprinten, zodat Shazam op je telefoon een liedje kan identificeren door een paar seconden geluid op te nemen met een krakend mono-microfoontje. (Deze techniek is ontwikkeld door platenmaatschappijen, om automatisch te kunnen tellen hoe vaak hun muziek op radiostations wordt afgespeeld, zodat ze meteen een factuur/boete kunnen sturen.)

En iPhoto van Apple herkent zelfs gezichten. Zeker niet 100% betroubaar, eerder 50% of zo, maar het is dus techniek in ontwikkeling en al voor de consument te koop.

Waarmee ik niet wil zeggen dat ik het geen goede ontwikkeling vind, zeker niet als het om kinderporno gaat, maar het was een kwestie van tijd voor dit soort technieken ontwikkeld gingen worden voor dat doel.
De ultieme detectie software voor porno/kinderporno is software die foto's vergelijkt en het aantal geel/huidskleur achtige pixels telt in een bepaald bereik van een kleurenset. Dat deze dan vervolgens hierop een percentage berekening maakt en deze eruit filtert. Dat zou bijna een waterdichte pornoscanner zijn.
Bel MS even met je tip ;)
Het gaat volgens het artikel om het vinden ervan.
Artikel: De software moet het NCMEC helpen bij het afspeuren van het internet naar afbeeldingen van misbruikte minderjarigen.
Volwassenen hebben over het algemeen dezelfde huidskleur als kinderen vermoed ik. Verder gaat het er in dit geval om dat bekende foto's worden vergeleken met foto's op het internet. Om kopieën te vinden en zo webmasters en makers van de foto's op te sporen.
Ik lees hier overwegend positieve reacties. Toch enkele bemerkingen bij dit systeem hoor: Dit systeem herkent enkel bestaande foto's. Moet je dus al een hele database bestaande foto's hebben, zaken uit het verleden dus, om nieuwe verspreiding van dit oud materiaal te detecteren/tegen te gaan. M.a.w 'nieuwe' kinderporno moet eerst 'manueel' herkend worden om dan pas automatisch te kunnen worden gedetecteerd. Dus: Iemand kan via deze software betrapt worden op het bezit van, maar niet op de productie van deze wansmakelijke prentjes. Dit is wel een vooruitgang, maar zo blijven de grootste zakken alweer buiten shot.

Maar goed. Ik denk idd dat het zo goed als onmogelijk is om niet gekende kinderporno te kunnen herkennen. Als het al zou kunnen gedetecteerd worden is iemand die naakt foto's van zijn baby bezit daarom nog geen pedofiel. (Al gaat het met al die christelijk conservatieven in Amerika wel meer en meer die kant uit. Ook een trieste evolutie eigenlijk hoor)
Groter probleem lijken me de foto's die met knip en plak acites in elkaar gezet zijn. Hoofd van bekend persoon x op blootlichaam van persoon y met daarop ook nog een fragment van een kinderporno foto.

Dat fragment wordt herkend (want geknipt uit de zelfde database die de bad guys ook hebben) en dan moet jij als x maar uitleggen wat je daar doet.

Kun je een goede fotoshop herkennen? Kun je je verweren tegen geautomatiseerd zoeken?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True