Door Tijs Hofmans

Nieuwscoördinator

Scannen naar kinderporno

Zo werken de tools om misbruik op te sporen

25-04-2022 • 06:00

48 Linkedin

Scannen naar kinderporno - Zo werken de tools

Het feit dat je tijdens het googelen niet zomaar op afbeeldingen van kindermisbruik stuit, is een van die typisch onzichtbare vormen van magie onder de internetmotorkap. Imagehosters, e-mail- en clouddiensten, zoekmachines, de meeste van hen gebruiken technologieën die kinderpornoplaatjes detecteren en verwijderen. Toch zijn die plannen, ondanks hun goede intenties, niet onomstreden. Apple kreeg vorig jaar veel kritiek op het plan om iPhones lokaal te scannen op kindermisbruikafbeeldingen en onlangs introduceerde het Nederlandse Expertisecentrum Online Kindermisbruik een tool die grote delen van het openbare internet scant op alle afbeeldingen waar mogelijk kindermisbruik op staat, met 'zo'n tachtig procent nauwkeurigheid'. En die andere twintig procent? De 'privacy wordt goed gewaarborgd', hoor je overal, maar bij kinderporno is ieder valspositief resultaat er een te veel. In dit artikel kijken we naar de verschillende technologieën voor 'csam-scanning', welke bedrijven die inzetten en wat de voor- en nadelen zijn.

In den beginne ... was er Microsoft

Internetbedrijven scannen al meer dan een decennium op kinderporno, of beter gezegd, child sexual abuse material (csam), omdat porno toch echt iets anders is. Dat gebeurt via het algoritmisch hashen van afbeeldingen. Het was Microsoft dat die technologie verfijnde en ontwikkelde tot de methode die later als blauwdruk zou werken voor veel vormen van csam-scanning. Die technologie heet PhotoDNA. Het is tot op de dag van vandaag nog steeds een van de meestgebruikte technologieën voor het scannen van afbeeldingen, maar zeker niet de enige.

In de basis werkt PhotoDNA heel eenvoudig. Het pakt een foto, hasht die en gooit die in een grote database. Daarin zitten hashes van foto's van bekend csam-materiaal, door de jaren heen aangedragen door politiediensten en techbedrijven. Microsoft scant vervolgens iedere foto die de servers van het bedrijf passeert. Dat kan een foto op OneDrive zijn of iets dat via e-mail wordt verstuurd. Die foto's worden ook gehasht. Als de hashes overeenkomen met een hash uit de database, volgt een volgende stap. Wat die stap is, hangt af van wie de tool heeft geëmbed. Vaak worden de afbeeldingen meteen verwijderd. Veel bedrijven geven de informatie door aan een kinderbeschermingsorganisatie: in Amerika het National Center for Missing & Exploited Children of Ncmec en in Nederland het Expertisecentrum Online Kindermisbruik of EOKM. Die kunnen vervolgens besluiten de informatie door te spelen naar de autoriteiten. Die kijken dan naar eventuele strafbare feiten en of een overtreding een strafvervolging nodig heeft.

PhotoDNA werd al in 2009 ontwikkeld door Microsoft, samen met onderzoekers van een universiteit. In het begin was het vooral een project dat Microsoft gebruikte in zijn clouddiensten, zoals Hotmail en Live, maar sinds 2014 kwam de tool beschikbaar in Azure. In datzelfde jaar maakte PhotoDNA meteen zijn belangrijkste ontwikkeling door; Microsoft stelde de technologie toen ook beschikbaar aan allerlei andere internetbedrijven, waaronder concurrerende diensten. Anno 2022 maken Facebook, Google, Reddit, Discord, Twitter en tientallen andere diensten onder de motorkap gebruik van PhotoDNA. Microsoft heeft het over meer dan 200 organisaties wereldwijd. Die organisaties kunnen alleen via een api gebruikmaken van de tool. De broncode van PhotoDNA is niet openbaar beschikbaar. Alleen een klein aantal partners, waaronder het Ncmec, heeft er toegang toe. Daarom is ook niet precies bekend hoe het hashalgoritme van PhotoDNA werkt. Microsoft wil dat geheimhouden om te zorgen dat criminelen dat niet uitbuiten.

Verbeteringen

Door de jaren heen is PhotoDNA op verschillende manieren verbeterd. Een belangrijke verandering vond plaats in 2015, toen PhotoDNA ook geschikt werd voor video's. De werkwijze daarvan is niet fundamenteel anders dan hoe de scanningtool werkt op afbeeldingen. Een video wordt dan alleen eerst opgedeeld in verschillende frames waarin een opvallend beeld voorkomt: iets onderscheidends zoals een bepaald meubelstuk of een decoratie. Van die frames worden vervolgens weer hashes gemaakt die kunnen worden gecontroleerd uit de database. Een belangrijk voordeel van die werkwijze zit in de manier waarop het materiaal wordt gecontroleerd. De werknemer bij de organisatie die de video's moet classificeren als wel of geen csam, hoeft dan niet een hele video te bekijken, maar alleen een paar frames. Dat maakt het makkelijker dat werk uit te voeren.

De PhotoDNA-api is meer dan alleen een plug-and-playdienst. Gebruikers kunnen verschillende configuraties doorvoeren op hun systemen waardoor sommige foto's wel of juist niet gescand worden, beschrijft mensenrechtenorganisatie Prostasia, die verschillende tools bekeek. Zo kan een eindgebruiker kiezen uit welke databases de bronfoto's afkomstig moeten zijn. Die komen voornamelijk van het Amerikaanse Ncmec, maar ook de Canadese tegenpool, de Cybertip, of het Nederlandse EOKM hebben zulke databases die optioneel kunnen worden gekoppeld aan PhotoDNA. Ook is er een opvallende optie om te kunnen scannen op verschillende categorieën: alleen seksuele handelingen of ook als de persoon op de foto erotisch poseert. Het is zelfs mogelijk om scans in te delen op leeftijdscategorie, maar het is moeilijk om je situaties voor te stellen waarbij een gebruiker dat onderscheid zou willen maken.

Alternatieve diensten

We hebben het tot nu toe voornamelijk over PhotoDNA gehad, omdat het de grootste en oudste csam-scanner is die nu actief is, maar er zijn er veel meer. Veel grote techbedrijven hebben hun eigen tools, die vaak ook in combinatie worden gebruikt met Microsofts PhotoDNA. Zo heeft Google een eigen tool, Content Safety-api, die ook niet nader gespecificeerde kunstmatige intelligentie gebruikt in combinatie met fotoherkenningstools zoals PhotoDNA. Sinds 2014 werkt Google ook aan een eigen tool voor het detecteren van video's op YouTube: CSAI Match. Child Sexual Abuse Images Match is een verwarrende naam, maar de tool is ook bedoeld voor bewegend beeld en niet alleen voor afbeeldingen. Om de wereld van csam-scanners nog wat onoverzichtelijker te maken, is CSAI Match dan weer gratis beschikbaar voor 'partners', waaronder internetbedrijven als Reddit en Yahoo, maar ook stichtingen die kindermisbruik tegengaan.

Sinds 2019 heeft ook Cloudflare een eigen csam-scanningtool. Die is gratis voor Cloudflare-gebruikers. Omdat het bedrijf geen hostingprovider is, zit het in een lastig parket. Het kan zijn klanten vaak niet meteen offline halen, dus heeft het als tussenoplossing ingesteld dat flagged content eerst wordt geblokkeerd en dat een gebruiker daarvan een waarschuwing krijgt in plaats van dat het direct wordt doorgestuurd naar de autoriteiten.

Cloudflare laat gebruikers zijn scanner zelf inschakelen.

Een andere opvallende tool is die van Facebook. Het bedrijf heeft twee algoritmes gebouwd voor csam-scanning. PDQ is bedoeld om afbeeldingen te scannen en TMK+PDQF is er voor videobeelden. De algoritmes zijn deels gebaseerd op het bekende fotovergelijkingsalgoritme pHash, al zegt Facebook er een compleet eigen implementatie van te hebben gebouwd. PDQ en TMK (voor temporal match kernel) vallen voornamelijk op omdat de broncode openbaar op GitHub beschikbaar is. Facebook gebruikt die tools trouwens niet alleen voor het scannen van kindermisbruikafbeeldingen, maar voor alle soorten content die het niet op het platform wil hebben. Daar vallen bijvoorbeeld ook categorieën zoals terrorisme onder of zelfs gewone porno. Facebooks PDQ mag dan openbaar beschikbaar zijn, de aansluiting met de Ncmec-database met bekende beelden is dat niet. Daarom is het niet zomaar mogelijk Facebooks oplossing te implementeren in een eigen systeem om op kinderporno te scannen.

Er zijn ook betaalde tools om op csam te scannen, zoals Safer van ThornVeel tools om csam-afbeeldingen te scannen zijn gratis te gebruiken, maar er zijn er ook een paar waarvoor betaald moet worden. Zo is er Safer van Thorn. Betaald betekent niet dat het profiteert van kinderporno: Thorn is een non-profitorganisatie en het geld gaat dan ook naar het onderhouden van de tool. Het bedrijf werkt daarbij ook weer samen met het Ncmec. Dat de stichting geld vraagt voor het gebruik, is omdat Safer niet alleen werkt met de eerdergenoemde databases, maar ook met 'nieuwe', of onbekende foto's, de grote blinde vlek van PhotoDNA, dat alleen bekend materiaal scant. Thorn zegt dat Safer ook gebruikmaakt van machinelearning om te herkennen wanneer beelden van kinderen zijn en wanneer niet. Safer kwam in december 2020 uit de bèta. Thorn zei toen dat zijn algoritmes 'in 99 procent van de gevallen' kindermisbruik konden detecteren, maar bewijs voor die claims is er eigenlijk niet, omdat de broncode niet openbaar is en het voor onderzoekers moeilijk is om het effect te onderzoeken. Bovendien is een valspositief resultaat van een procent nog steeds hoog als de tool in de toekomst miljoenen afbeeldingen moet scannen.

Missing links

PhotoDNA mag dan in de praktijk de gouden standaard zijn voor csam-scanning op internet, de tool is niet zonder gebreken. Een ervan is bijvoorbeeld dat de tool alleen toegankelijk is via een api. Ook van de andere tools is de exacte werking, en dan met name de hashfunctie, geheim. Critici zijn niet zozeer bang voor vendor lock-in, maar eerder voor de betrouwbaarheid van de tools. De werking van het algoritme is daarmee ook een zwarte doos en dat is natuurlijk altijd een beetje dubieus. Beveiligingsonderzoekers zouden bijvoorbeeld graag willen weten hoe de tool werkt, maar klagen dat ze tegen een muur aanlopen als ze die willen controleren. Je kunt dan bijvoorbeeld niet verifiëren of de code werkt zoals geadverteerd of te veel valspositieve resultaten geeft. In sommige gevallen denken onderzoekers dat het zelfs mogelijk zou moeten zijn de hash om te keren. Dat is niet mogelijk met cryptografische algoritmes, maar soms wel met de perceptual hashes die worden gebruikt voor csam-scanning.

Ook hebben csam-scanners de grote missing link dat ze alleen nuttig zijn met bekende csam-afbeeldingen die door andere partijen worden aangeleverd. 'Nieuwe' kinderporno kun je er niet mee opsporen. Maar, eerlijk is eerlijk, dat pretenderen de tools ook niet te doen. Die zijn in het leven geroepen om het internet relatief laagdrempelig gezuiverd te houden van dergelijk materiaal en niet om grote netwerken op te rollen.

Te weinig actie

Csam-scanningsoftware is door die gebreken zeker geen zilveren kogel tegen kindermisbruikafbeeldingen. Dat zou je misschien niet zo snel zeggen als je de grote techbedrijven erover hoort. Hun lovende woorden doen het lijken alsof een simpele api-koppeling met PhotoDNA voldoende is om het internet vrij te houden van dat materiaal, maar dat blijkt tegen te vallen. The New York Times schreef in 2019 een profiel over het probleem van kindermisbruik bij online diensten. De aanpak lijkt ernstig tekort te schieten omdat er nog steeds tienduizenden afbeeldingen en video's online verschijnen. Het probleem lijkt niet zozeer in de technologie te liggen als in de schaal: Facebook, maar ook diensten als Dropbox, zijn zo groot dat zelfs bij het detecteren van miljoenen afbeeldingen er altijd iets onder de radar vliegt. Bovendien zijn nieuwe foto's een grote blinde vlek in het proces waar de csam-scanningtools vrijwel niets tegen kunnen doen.

Hoe werken de scanners?

De csam-scanners werken met hashes, omdat daarmee een zekere mate van privacy kan worden gewaarborgd. Het is vaak lastig de exacte werking van hashes te achterhalen, maar in essentie is het gebaseerd op het decenniaoude principe van contentvergelijking op basis van hashtables. Hashingalgoritmes voor afbeeldingen bestaan al jaren. Je kunt een afbeelding hashen met bestaande algoritmes zoals SHA-1 of MD5, maar je loopt dan al snel tegen beperkingen op. Een dergelijk cryptografisch algoritme gebruikt het bronbestand als seed en dat levert een zwart-witantwoord op: als de hashes gelijk zijn, zijn de twee afbeeldingen gelijk. Zijn ze dat niet, dan zijn het verschillende afbeeldingen. Een dergelijk systeem is simpel te omzeilen door een afbeelding iets te vergroten of te verkleinen. Een enkele pixel verschil levert dan al een ander hashresultaat op. Er zijn ook andere hashingalgoritmes die een andere soort hash maken, die beter geschikt zijn voor het doel van tools als PhotoDNA.

Zulke algoritmes genereren perceptual hashes. Zo'n hash wordt niet met de bronafbeelding als seed gebruikt, maar op basis van elementen in een foto. Een afbeelding wordt eerst in stukjes opgedeeld die allemaal afzonderlijk van elkaar worden gehasht. Perceptual hashes worden gebruikt voor tientallen verschillende functies, van tools die auteursrechtelijk beschermd materiaal opsporen of bij gezichtsherkenning. Dat zijn processen waarbij 100 procent exacte overeenkomsten niet nodig zijn. Ook reverse-imagesearchtools zoals Tineye maken er gebruik van. Het voordeel van die methode bij het opsporen van csam-afbeeldingen is dat afbeeldingen ook kunnen worden herkend als die aangepast worden, bijvoorbeeld door ze groter of kleiner te maken of door de kleuren te veranderen.

Geheim van de chef

Bedrijven kunnen hun eigen implementatie van zo'n algoritme bouwen. Er zijn een aantal bekende, open vormen van zoals pHash en dHash. Ook het eerdergenoemde PDQ van Facebook en Safer van Thorn maken gebruik van hun eigen implementaties van perceptual hashings. Microsofts PhotoDNA doet dat ook.

De exacte implementatie is het geheim van de chef. De algoritmes moeten altijd de balans zoeken tussen snelheid en nauwkeurigheid. Er zijn meerdere methodes om een hash te berekenen die een maker nog kan tweaken. In veel gevallen wordt een afbeelding eerst kleiner gemaakt, maar het eindresultaat varieert als je een afbeelding naar 8x8 pixels verkleint of naar 64x64 pixels. In dat eerste geval bereken je een resultaat sneller, maar kom je vaker een gelijke hash tegen als je die toepast op grote datasets. Het beeld wordt daarna opgehakt in stukjes via discrete cosine transform of dct en ook daarvan bestaan weer verschillende implementaties met verschillende eigenschappen. Er zijn vervolgens nog meerdere stappen die de makers kunnen instellen, zoals het omzetten naar grayscale of een ander aantal kleuren, of het berekenen van een mediaanwaarde van die gebruikte kleuren. Al die verschillende methodes bij elkaar leveren een hash op die via de api's van de diensten kan worden gedeeld.

Databases

De enige manier waarop csam-scanners werken, is omdat ze een basis hebben van materiaal om te herkennen. Maar waar komt die data eigenlijk vandaan? Een bedrijf als Microsoft kan, alle goede bedoelingen ten spijt, niet zomaar zelfstandig een grote database van kinderpornografisch materiaal aanleggen. Dat brengt vanzelfsprekend veel problemen met zich mee, niet alleen ethisch, maar ook juridisch: je mag namelijk niet zomaar csam-afbeeldingen downloaden, ook niet voor onderzoek of bestrijding.

De brondata met csam-afbeeldingen komt van een wirwar aan organisaties en stichtingenDe data van de bekende csam-scanners zoals PhotoDNA is afkomstig van een wirwar aan stichtingen met allerlei samenwerkingsverbanden met afkortingen. Een van de belangrijkste partijen is het eerdergenoemde Amerikaanse National Center for Missing & Exploited Children, een stichting die strijdt tegen kindermisbruik. Die opende in 1998 de CyberTipLine. Iedereen die online tegen potentieel kindermisbruikmateriaal aanloopt, kan daar een tip achterlaten. Dat kunnen gewone internetgebruikers zijn, maar de bulk van het aangeleverde materiaal is afkomstig van de inmiddels 1400 partners die bij het netwerk zijn aangesloten. Dat zijn internetbedrijven of hostingproviders die op grote schaal te maken hebben met eigen gebruikers die beeldmateriaal uploaden en daar zit bijna altijd wel zulk illegaal materiaal bij. Die bedrijven doen dat niet vanuit louter altruïstische motieven: in veel landen zoals Amerika is in de wet opgenomen dat providers verplicht zijn dat materiaal te melden. Het Ncmec is daarvoor de officieel aangewezen instantie. Dat brengt speciale privileges met zich mee. Die organisatie mag, in samenspraak met justitie, een database van csam-materiaal bijhouden.

Samenwerkingsverbanden

Er zijn meerdere van zulke organisaties, zoals het Nederlandse EOKM. Het EOKM heeft een tool ontwikkeld die hetzelfde doet als PhotoDNA: HashCheckService. Ook heeft het het Meldpunt Kinderporno opgezet. Organisaties als het EOKM werken onderling veel samen. Dat gebeurt weer in het samenwerkingsverband Inhope. Materiaal dat bij het ene meldpunt wordt aangeleverd, wordt zo met de andere instanties gedeeld. Die delen het dan weer met partners zoals Microsoft om het via PhotoDNA te hashen, zodat niet iedereen ermee aan de haal gaat. Er zijn 50 organisaties uit 46 landen aangesloten bij Inhope.

De landen die via Inhope met elkaar in contact staan

Bij dat aanleveren moet je niet denken aan een zip-bestandje met foto's dat over en weer wordt gemaild. Daarvoor gebruikt Inhope de tool Iccam, een afkorting van I See Child Abuse Material. In dat systeem worden url's geïndexeerd van afbeeldingen van kindermisbruik. Iccam downloadt dat materiaal en stuurt het door naar analisten, werknemers met de taak om materiaal wel of niet als kindermisbruik te classificeren. Iccam kan ook zien in welk land een url gehost wordt. De aangesloten organisatie in dit land krijgt dan een rapportage over de url, zodat er een mogelijke aangifte kan worden gedaan bij de lokale autoriteiten.

De politie- en opsporingsdiensten zijn dan ook belangrijke partners in het hele verhaal. Zij ontvangen niet alleen materiaal van de aangesloten organisaties, maar leveren dat daar zelf ook aan. Als de politie servers in beslag neemt waarop potentieel kindermisbruikmateriaal staat, kan dat via partijen als Interpol aan de stichtingen worden doorgegeven. En onderling is er óók weer een eigen uitwisselingsprogramma: Project VIC.

Openbare bronnen

Ook in die uitwisselingsprocessen zit nog een blinde vlek. Ondanks de speciale status van 'verzamelaar' die organisaties zoals het Nmcec en het EOKM hebben, mogen die organisaties meestal niet actief gaan speuren naar kindermisbruikmateriaal. Ze moeten het hebben van tips die worden aangedragen door andere partijen, maar er zijn ook genoeg afbeeldingen die niet gemarkeerd worden, maar wel op het internet staan. "De politie mag zulke scans wel doen, maar wij niet", legt EOKM-voorzitter Arda Gerkens uit. In sommige landen mag dat wel, zoals in Canada en het Verenigd Koninkrijk, maar in Nederland zijn dergelijke crawlers niet toegestaan, en dat terwijl in ons land opvallend veel kindermisbruikmateriaal wordt gehost. Daar zet Gerkens wel wat nuances bij. "Nederland wordt vaak een kinderpornoland genoemd, maar de meeste content die we vinden, wordt via Amerikaanse diensten zoals Facebook en Twitter gedeeld." Nederland is wel een land waar veel webhosting plaatsvindt tegen lage prijzen. Dat maakt het een aantrekkelijk land voor veel imagehosters. Op zulke websites kunnen relatief anonieme gebruikers afbeeldingen plaatsen en dat betekent dat het een vrijhaven is voor het delen van kinderporno. Veel van die providers nemen actieve maatregelen om dat tegen te gaan, maar dat doet lang niet iedereen. Het was een van de speerpunten van voormalig minister van Justitie en Veiligheid Ferd Grapperhaus. Hij wilde zulke foute webhosters op een zwarte lijst plaatsen.

Voormalig minister Grapperhaus wilde hard optreden tegen hostingproviders.

Het EOKM presenteerde eerder dit jaar een tool die een oplossing biedt voor precies dat probleem: Libra. Hopelijk ben je inmiddels nog niet acroniem-moe, want dat staat voor Labelling Identifiability by Remote Analyses. De tool is Libra van Web-IQ. Dat is de softwarefabrikant die ook de Nederlandse HashCheckService bouwde. Libra bestaat uit een crawler die afbeeldingen op internet scant en daar direct een hash van maakt. De afbeeldingen die Libra scant, worden niet gedownload. "Er kan heel gericht en zonder de foto’s te downloaden, op te slaan of te bekijken, worden gescand. Er wordt uitsluitend open data gescand en de privacyregels zijn nauwkeurig in acht genomen", schrijft het EOKM. Het is daarbij wel de vraag of 'open data' wel echt zo openbaar is als de bedoeling is. Libra kan bijvoorbeeld ook scannen op afbeeldingen die op iemands webdomein staan. Openbaar, ja, maar op niet alle openbare data mag zomaar onderzoek worden gedaan. Toen dat bijvoorbeeld vorig jaar gebeurde door het Nederlandse leger werd dat programma meteen afgestraft, ook al beriep Defensie zich op het feit dat de data waar het programma naar keek, openbaar was.

Libra werkt niet alleen maar met hashes. Er komt ook een andere component aan te pas: naast de hash maakt Libra een fingerprint van een afbeelding op basis van een aantal kenmerken die het potentieel illegaal maken. Dat kan bijvoorbeeld zijn dat er op hetzelfde domein eerder illegaal materiaal is gevonden. Die afbeeldingen krijgen een 'risicoscore'. Een afbeelding met een hoge risicoscore wordt dan door HashCheckService gehaald. "Tot nu bleken 80% van de hashes die door Libra als verdacht werden aangemerkt, ook daadwerkelijk afbeeldingen van seksueel kindermisbruik te bevatten", schrijft het EOKM daarover.

Apple-controverse

Voor de processen van Libra, PhotoDNA en de andere diensten is het nodig dat bedrijven foto's scannen die in een clouddienst staan. Apple dacht daar in 2021 iets op te hebben gevonden. Het bedrijf kondigde toen aan dat het foto's ging scannen met een algoritme: NeuralHash. Het grote verschil met diensten als PhotoDNA is dat het lokaal werkt: de foto's worden op de iPhone gehasht en die hashes worden pas geëxporteerd als gebruikers de foto's uploaden naar iCloud. Samen met wat andere beperkingen, zoals het feit dat er alleen een waarschuwing wordt afgegeven als dertig hashes overeenkomen, hoopt Apple de zorgen rondom privacy weg te nemen en vooral ook het aantal valspositieve resultaten te beperken. Apple wist dat verhaal maar moeilijk uit te leggen aan gebruikers en verkwanselde al snel zijn zorgvuldig opgebouwde reputatie als privacyvriendelijke techgigant. Maar er was meer kritiek dan alleen de slechte PR: experts wezen op een paar fundamentele fouten in de denkwijze. Zo was er de maker van fotodienst FotoForensics, Neal Krawetz. die opmerkte dat Apples whitepaper maar weinig concrete details over de werking bevatte. Een ander kritiekpunt was dat van de valspositieve resultaten. Daarvan zei Apple dat het ging om 'één op een biljoen', maar Krawetz merkt op dat dat nummer uit de lucht gegrepen lijkt te zijn en niet gestaafd kan worden met data.

Het probleem met valspositieve resultaten komt vaker naar voren. Dat gebeurde vorig jaar ook met de implementatie van HashCheckService. Dat gaf meerdere valspositieve resultaten weer bij afbeeldingen die op WordPress-installaties van TransIP-klanten werden gehost. Met die afbeeldingen bleek niets mis, maar er bleek dan iets op te staan wat zijdelings met een onderzoek te maken had. Het zou gaan om een menselijke fout, maar met dergelijk gevoelig materiaal wil je die fouten niet maken. Directeur Gerkens zei toen dat 'een bepaalde foutmarge geaccepteerd moest worden' bij csam-scanning.

Conclusie

Er zijn nog veel andere problemen te bedenken met csam-scanning. De technologie wordt nu voornamelijk ingezet om overduidelijk verwerpelijk materiaal te bestrijden, maar kan natuurlijk makkelijk door autoritaire landen worden gebruikt voor andere doeleinden. Je zou er bijvoorbeeld ook dissidenten mee kunnen opsporen, het kunnen gebruiken voor berichten met bepaalde kernwoorden of er nepnieuws mee kunnen bestrijden, een beladen motief dat allang niet meer door autoritaire regimes wordt gebezigd.

Bovendien zetten sommige experts vraagtekens bij de effectiviteit van het systeem. Dat erkent het EOKM ook. Dat noemt het systeem effectief voor opschoning, maar niet voor opsporing. De grote producenten van csam blijven buiten schot, al moet je de taken van csam-scanners wel los zien van die van opsporingsdiensten. Dat de tools alleen kunnen scannen op bekende afbeeldingen, is ook een grote blinde vlek. Tools als Libra en Safer en inmiddels ook PhotoDNA proberen daar verandering in te brengen, maar hebben nog een lange weg te gaan voor dat betrouwbaar kan worden gedaan. Ook scannen de tools alleen het openbare internet en geen besloten groepen, apps met encryptie of het darkweb. Maar, zegt Arda Gerkens van het EOKM, vergis je niet in de effectiviteit daarvan. Op anonieme fotodeeldiensten wordt alsnog veel csam gedeeld. Daar heb je geen Tor-browser voor nodig.

Dit artikel kun je gratis lezen zonder adblocker

Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.

Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.

Ben je abonnee? Log dan in.

Reacties (48)

48
46
23
5
0
15
Wijzig sortering
Tsja, zoals in de andere reacties al werd gezegd, het is en blijft een lastig onderwerp. En dat komt mijns inziens omdat er wereldwijd vele culturen zijn en elk van die culturen is ook aan verandering onderhevig. Wat de ene persoon normaal vind, vind de ander not-done.

Neem Amerika bijvoorbeeld. Ik zeg altijd gekscherend dat het daar toegestaan is om op 1001 manieren te tonen hoe je mensen hun leven beëindigt, maar dat alles wat te maken heeft met het creëren van nieuw leven juist niet getoond mag worden. Zo zwart-wit is het natuurlijk niet, maar afgaande op de schandalen die er ontstaan als men een tepel op TV ziet of als er 'fuck' op de radio word gezegd, en de hoeveelheid actie-, thriller- of horror-films die het land exporteert, dan geeft je dat wel een bepaald beeld. Ik herinner mij nog hoe verbaasd sommige Amerikaanse artiesten waren als ze bij Giel Beelen in de ochtendshow het verzoek kregen om hun nummer vooral ongecensureerd en live ten gehore te brengen. "Yes you can say 'Fuck; on the radio here." Dan kun je je natuurlijk afvragen of dat komt door de 'preutse' Amerikaanse cultuur, onze (misschien te) open cultuur of door het feit dat Giel Beelen nogal een shockjock is. Maar die vraag mag ieder voor zichzelf beantwoorden.

Naast de verschillende culturen speelt ook de tijd nog een niet te onderschatten factor. Waar het ooit een hele eer was om als jong (schand-)knaapje de kasteelheer te mogen bedienen, wordt je nu al voor van alles beschuldigd (en uitgemaakt) als men ook maar vermoed dat je de verkeerde afbeelding(en) download.

Ik heb altijd van een best vrije opvoeding genoten waarbij bloot geen taboe was. In mijn kindertijd was dat echt heel anders dan nu. Er is destijds een hele schattige foto gemaakt waarin mijn toenmalige (even oude) vriendinnetje en ik als kleuters elkaar een kusje op de mond geven. Deze omschrijving alleen kan al een aanleiding zijn voor mensen om het als kinderporno te bestempelen. Kindjes die kusjes geven? BAH! Maar daar blijft het niet bij. want de foto was genomen in een snikhete zomer in de tijd dat badkleding voor kleine kinderen nog geen gemeengoed was. We zitten dus allebei in ons blootje. OEI... nu wordt het gevaarlijk!

Persoonlijk vind ik het geen kinderporno, het was vrij normaal in die tijd om peuters en kleuters op een warme en zonnige dag op het strand of in de tuin in hun blootje te laten lopen. En een kleuter die een ander kleutertje een kusje geeft wordt ook nu nog wel geaccepteerd. Men zoekt daar op die leeftijd nog niets achter. Maar heb ik of daar een trauma aan over heb gehouden? Om eerlijk te zijn weet ik bijna niets meer van die periode en dat kusje is mij ook niet bijgebleven en hetzelfde geldt voor mijn vriendinnetje van destijds. Dus schadelijk was het sowieso niet.

Dan de vraag: had die foto überhaupt gemaakt moeten worden?
- In de tijdsgeest van toen: Waarom niet??
- In de huidige tijd: Je zou wel gek zijn!!
Natuurlijk spelen er vele factoren een rol. Want je had destijds nog geen internet. De enige 'viezerik' die lol aan je foto kon beleven was de fotograaf die het rolletje en de foto's ontwikkelde. Die kon extra exemplaren van een foto maken en verspreiden, maar het kon nooit zo'n vaart lopen als vandaag waar het maken van een kopie slechts een fractie van een seconde kost. Of uiterlijk een paar seconden als die kopie naar de andere kant van de wereld gaat.

Ook heb je nog te maken met de factoren functioneel en artistiek bloot. Zoals bij de journalistieke berichtgeving van het leed wat napalm aanricht. Ik denk dat iedereen de foto van het napalm-meisje wel kent. Dat meisje wat in blinde paniek bloot over straat rent, gillend van de pijn omdat de napalm op haar lichaam brand. Het schoolvoorbeeld van: een foto zegt meer dan een duizend woorden. Wie Googled op 'napalm meisje' krijgt die foto zo te zien aangezien het een van de weinige uitzonderingen is waarbij 'men' heeft bepaald dat die foto een belangrijke historische waarde heeft. Daarnaast heeft het meisje in kwestie geen bezwaar tegen de publicatie van die foto.

Over artistiek bloot zal ik kort zijn omdat iedereen zijn eigen mening heeft (en mag hebben) over het feit dat naaktbeelden van kinderen gebruikt zijn in artistieke werken. Voorbeelden ga ik dus niet noemen, maar ik denk dat iedereen wel weet dat er in het verleden LP albums zijn uitgebracht met blote kinderen op de cover of de (Amerikaanse) films waar blote kinderen in voorkwamen. Natuurlijk speelt de tijdsfactor hier ook voor een belangrijk punt mee. Je zult vandaag de dag wel een erg goede reden moeten hebben om een bloot kind in een film te laten zien.

Maar we zijn er nog niet, de factor tijd speelt nog steeds een rol. Wie weet wat voor 'kinderporno' afbeeldingen we vandaag nog mogen verspreiden en morgen niet meer. Zo ben ik zelf vader van een kindje die vlak voor de corona-pandemie geboren is. Door de pandemie heeft de kleine bijna 2 jaar lang borstvoeding kunnen krijgen. Het afbouwen daarvan is heel natuurlijk gegaan doordat de interesse van de kleine in de borstvoeding af naam en uiteindelijk is het gestopt. Maar ik ben trots op mijn vrouw dat ze dat voor de kleine heeft kunnen doen waardoor de kleine ook de antistoffen tegen covid heeft binnen gekregen.

Natuurlijk zijn er ook een paar foto's gemaakt waarbij de kleine aan mama's borst hing. Mijns inziens is dat volkomen normaal, volkomen natuurlijk. Maar ik hoor helaas ook signalen dat sommigen dat ook als kinderporno zien. Dus misschien zijn die foto's morgen ook taboe. Maar dan kunnen we ook meteen stoppen met kinderen mee te nemen naar de (kinder-) boerderij. Zeker in de tijd dat er lammetjes, kalfjes en veulentjes zijn. Want tsja... die zouden zomaar eens bij hun moeder kunnen gaan drinken. Of mag dat misschien wel omdat wij die melk ook drinken? Ohh nee natuurlijk niet! Melk komt toch uit de fabriek?!

En met al het bovenstaande in het achterhoofd.... zullen we dan ooit in staat zijn om een algoritme te bedenken die met zulke complexe zaken als het menselijke cultuur en ontwikkeling rekening houdt? Ik betwijfel het!

[Reactie gewijzigd door RiDo78 op 25 april 2022 14:07]

Eigenlijk komt je betoog op 1 duidelijk iets neer. Is het wel kinderporno? Of is het minderjarig naakt? En ik realiseer me dat daar ook al een lading achter zit, maar het verschil is wel belangrijk.

Op naaktheid zit een taboe, en waar ik enerzijds het eens ben met wat je zegt, is het iets wat natuurlijk wel door vele als prive wordt gezien, en zouden jouw foto's als bijv 5 jarige blote jongen op het internet hebben gestaan, had jij dit als kind leuk gevonden, en nu nog steeds, even los van de 'angst' voor viespeuken.

In onze cultuur is daar in aan banden gelegd, maar het blijft erg problematisch, want een partij als FB heeft hele onschuldige foto's die totaal niet seksueel waren verwijderd, maar seksuele afbeeldingen waarbij de tepels bedekt zijn, die mogen wel. Bedoelt voor een lichaamsdeel die we allemaal hebben, ligt dit wel heel erg gevoelig.

Maar dat alles gezegd, blijft nog steeds de term kinderporno. Is een 5 jarig bloot kind kinderporno? Als het goed is niet, tenzij er sprake is van kindermisbruik en deze wordt geforceerd tot seksuele handelingen. Want dat is waar het om gaat bij porno, het seksuele.
Uiteraard kan je zeggen dat iemand een normaal bloot kind ook al erg seksuel kan vinden, maarja dan komen we op het niveau dat we Wehkamp ook een pornoblad is, en eerlijk gezegd vind ik dat nog makkelijker om te beargumenteren ook, omdat daar ook werkelijk bijv lingerie wordt getoond om te prikkelen.

Uiteindelijk is mijn grootste vraag wel of dit soort foto's op te sporen wel echt relevant zijn. In de tijd van KaZaA kreeg ik ongevraagd kinderporno op mijn computer (voor de mensen die niet uit die tijd komen - je kon via KaZaA bestanden downloaden, maar je kon gewoon de bestandsnaam veranderen en dan deed iemand anders dat niets vermoedend downloaden - was toch raar om te denken dat je een AMV van Dragon Ball Z dacht te downloaden, en opeens iemand hele rare dingen zag doen met een paard ofzo), en zover ik weet is de Darkweb een goudmijn voor dit spul. Nu dat VPN's ook steeds normaler worden, en anonieme transacties via crypto kan, zie ik dit soort foto's echt puur als het topje van de ijsberg.


Als laatste zie ik als hulpverlener ook weinig oplossingen. Fijn als je iemand kan opsporen, en dan? Het gross van de mensen die hier naar kijken gaan niet over op praktiseren, en door het gigantische stigma en niet de welwillendheid om deze mensen te helpen, is dit geen werkelijke oplossing.
Dus ik zou minder geld en moeite steken in dit soort ontwikkelen, en meer in zorg voor deze mensen, want ja, het zijn wel gewoon mensen.
Wat er nog als lastige bij komt is dat wat jij en ik misschien niet bestempelen als kinderporno wel op die manier op het internet verspreid kan worden. Dus waar jouw voorbeelden, zeker in context, volkomen normaal zijn, is weer goud voor pedofielen.

Ook is er nog het stukje privacy en vertrouwen. Dat ook mega commerciële partijen zaken scannen is in basis natuurlijk goed, maar je kunt ze niet vertrouwen dat ze niet ook een hele andere sloot aan metadata opslaan en koppelen aan je account. Ze zeggen wel van niet, maar dat geloof ik ondertussen niet meer.

Ik vrees dat dit een oorlog is zonder einde, maar wel een die de moeite waard is te bestrijden.
Zover ik weet wordt gekeken naar de bedoeling van het maken van de foto. Die is bepalend en niet hoe de foto later gebruikt wordt. De bedoeling van de fotograaf is natuurlijk ook moeilijk te duiden, maar het voorkomt dat er absurde situaties ontstaan.
Precies dat.

We zijn erg terughoudend met posten van onze kinderen.

Één keer een niet herkenbare foto (vanaf achterkant) uitkijken over een meer. Gewoon normaal gekleed etcetera.

Wordt de foto ineens door een geheel onbekende via via gedeeld. Vrouw vroeg er naar maar geen respons. Wat als die foto ergens circuleert en vervolgens gemarkeerd. Zijn wij dadelijk ons account kwijt!?

Detectie ter preventie vind ik op zich prima.

Als een foto dan gemarkeerd wordt als mogelijke KP, dient dit mijn inziens, met goedkeuring door een gerechtelijk orgaan, gecontroleerd te worden door een onafhankelijke juridische identiteit. Bijvoorbeeld een KP research team.

Alleen dan als blijkt dat dit daadwerkelijk niet kan mag mijn inziens een account geblokkeerd worden. Zeker als je met e.g. een MS account iemand geheel kan lam leggen van alle communicatie.

Ze hebben een behoorlijke maatschappelijke impact en verantwoordelijkheid dat dit niet een simpele: je schend voorwaarden doei!

Zeker zonder dat er deugdelijk onderzoek en weerwoord gegeven kan worden mag een account niet zomaar geblokkeerd worden.

[Reactie gewijzigd door phoenix2149 op 26 april 2022 12:39]

Persoonlijk vind ik het geen kinderporno, het was vrij normaal in die tijd om peuters en kleuters op een warme en zonnige dag op het strand of in de tuin in hun blootje te laten lopen.
Dat is ook nu normaal.
Seksueel getinte afbeeldingen vind ik persoonlijk lastig.
De een zijn familiefoto's met zoon of dochter is een andermans porno.
Het is net hoe de ander er naar kijkt.
Net als dat beeld bij het martiniziekenhuis in Groningen, een moeder met twee kinderen.
Wat al gauw vertaald werd alszijnde een vrouw die door twee kinderen bevredigd werd.
Je kan overal wel wat pervers in gaan zien.
De kreet kinderporno is net als de kreet terrorisme te vaak gebruikt of als reden oogevoerd ten behoeve van de diverse opsporingsdiensten.
Uiteraard ben ik ook fel tegenstander van zulks misbruik, en zie hier een een leuk voorbeeld.
Ben ik tegenstander van kindermisbruik of tegen misbruik van de wijze waarop de term kindermisbruik misbruikt wordt, dit om bij het grote publiek op emotioneel gestoelde goedkeuring te krijgen.
Dergelijke praktijken dringen heel ver door in de private levenssfeer en gaat klaarblijkelijk verder dan het onderzoeken van wapenhandel, drugs of andere vormen van criminaliteit.
Ze kunnen amper de welbekende whatsapp fraudes bestrijden, aangifte van mijn schoonmoeder van in de 80 waarbij ze financieel zwaar gedupeerd werd werd aan de kant geschoven omdat ze daar niet de capaciteit en de middelen voor hadden.

Let wel, kindermisbruik is fout en dient gewoon net als elk ander misdrijf bestreden te worden.
Maar wanneer spreken we van misbruik?
Minderjarig?
Hm, in het ene land zijn ze met 16 meerderjarig en in een ander pas bij 18 of zelfs 21 dus zeg het maar.
Het is inderdaad vrij lastig. Want je hebt gelijk in wat je zegt: de een zijn/haar familiefoto's zijn een andermans porno. Zelf was ik mij daarvan niet zo bewust totdat een aantal weken geleden een kennis haar dochter terechtwees. Ze was boos op haar dochter omdat die foto's op het internet (onbekend wel sociaal medium) had gezet van een zwembad bezoek. Totaal onschuldige foto's van een gezin wat in het zwembad was. Geen aanstootgevende foto's of wat dan ook. Gewoon een gezin in zwembad kleding. Die foto werd wel een keer of 4 meer bekeken dan andere foto's.
Dat is toch niet normaal. Dat er dus mensen zijn die op zoek gaan naar zulke foto's.
En dat legt meteen het volgende probleem bloot: moeten we alles gaan verbieden? Moeten we bij bepaalde foto's waarschuwingen zetten? Moeten we het blijven toelaten met de gedachte dat je nou eenmaal dat risico loopt? Of moeten we alle social media maar afschermen dat alleen je vrienden/volgers jouw content kunnen zien?
Het zal niet gemakkelijk zijn er een oplossing voor te vinden. En dat laat het artikel ook al wel duidelijk merken, het is effectief voor opschoning maar niet voor opsporing. En zolang er diensten bestaan voor opschoning en opsporing zullen er ook middelen worden bedacht om die te ontwijken. Laten we hopen dat er snel iets effectief wordt bedacht voor de opsporing.
Foto's zijn het probleem niet, verspreiden wel. Maak gewoon een analoge vergelijking, zou je dergelijke foto's publiceren in de krant, op tv of op billboards? Zo nee, waarom doe je dat dan wel openlijk online waar iedereen er bij kan? Dat is praktisch hetzelfde namelijk. Iedereen heeft wel foto's van baby'tje in bad, kindje aan zee/zwembad etc, die zet je ook niet zomaar in de krant.

Die foto's zijn het probleem niet, de rare neiging om het overal te publiceren wel en dan vinden we het vreemd dat er mensen met rare gedachten naar gaan kijken. Delen met vrienden en familie kan prima als ze gewoon afgeschermd zijn, indien ze ongevraagd verder gedeeld worden is het tijd voor een gesprek met degene die het doet, analoog doe je dat namelijk ook niet, ik zie niet in waarom dat online anders zou zijn.
Het probleem is dat dergelijke foto's die vroeger in een album, dia of envelop zaten nu in een cloud hangen die deze scant. Dat maakt de kans op een false-positive best groot. Ook is jouw oordeel over wat wel en niet okay is ondergeschikt aan die van een Amerikaans bedrijf met wellicht andere normen en waarden.

Schiet je een paar foto's op het strand en zit daar eentje bij van je kiddo in de blote kont, iets wat heel normaal is in privé-sfeer (je ziet je kids elke dag bloot ten slotte..), dan kan dat als fout worden opgevat. Weg is je account bij Microsoft of Google, met alle historie/foto's/aankopen etc.

//edit wettelijk inderdaad geen kinderporno, maar volgens MS en consorten wel fout. Woord aangepast.

[Reactie gewijzigd door Feni op 25 april 2022 12:22]

Die foto is onder geen enkele westerse wetgeving kinderporno.

Echter heb je daar niets aan, aangezien MS en co je er wel voor af kunnen sluiten en je dan weigeren te zeggen om welke foto het gaat en aanvechten kan je het al helemaal niet.

Deze systemen zouden samen moeten gaan met een verplichting van de partijen om aan te geven om welk bestand het gaat en bezwaar mogelijkheden wettelijk af te dwingen.

Nu ben je aan de goden overgeleverd en die kijken alleen maar naar hun eigen portemonnee.
Nee, je kunt het inderdaad niet aanvechten. Deze mevrouw heeft dat dan ook écht niet gedaan en ook écht geen gelijk gekregen van de rechter: nieuws: Microsoft moet blokkade Nederlands OneDrive-account opheffen van rechter
Zij is de eerste die het gelukt is, er zijn velen voor haar geweest waarbij dat niet het geval was of het überhaupt niet geprobeerd hebben. Deze uitspraak is niet algemeen bindend, elk persoon zal een eigen langdurige en financieel risicovolle rechtszaak moeten voeren.
Dat is helaas ook wel zo, maar ik bedoelde alleen te zeggen dat het dus wel degelijk aan te vechten *kan* zijn, i.t.t. de persoon boven me die beweerde dat het niet aan te vechten was.
Iets genuanceerder, MS bied je zelf geen weg om het aan te vechten.

M.I zeker bij een betaald abonnement tegen de Nederlandse wet. Die verbiedt namelijk dat bij een consumenten contract de aanbieder in de voorwaarden mag opnemen dat het oordeel of je je aan de voorwaarden houdt eenzijdig bij de aanbieder ligt. En dat is precies wat Microsoft hier doet.
Het is toch to suit belachelijke dat MS eenzijdig jou beschuldigt en een overeenkomst beëindigd en als daar bezwaar tegen wil maken je naar de rechter moet?

Nog even los van het feit dat een algemene voorwaarde die zegt dat 'of je de overeenkomst nakomt eenzijdig door de partij die de voorwaarden voert wordt beoordeelt' op de zwarte lijst staat.

[Reactie gewijzigd door Omega Supreme op 25 april 2022 20:51]

Nog even los van het feit dat een algemene voorwaarde die telegraaf dat of je de overeenkomst nakomt alleen door de partij die de voorwaarden hanteerd op de zwarte lijst staat.
Watte?? Daar kan ik geen hout van snijden...
Is het zo erg dat een wildvreemde seksueel kijkt naar normale zwembadfoto’s van je dochter op internet?

Zolang we de gedachtenpolitie nog niet hebben, zijn gedachten niet verboden. Je kunt het lastig vinden dat mensen zich seksueel bevredigen met een beeltenis van je kind, maar dat probleem ligt misschien meer bij jezelf. Je hebt moeite met die gedachte. Het is best een raar fenomeen dat mensen gedachten van anderen proberen te beteugelen en zelfs willen criminaliseren.

Kinderporno is vaak duidelijk, maar ook zeer regelmatig erg subjectief, waarbij opsporingsambtenaren zich proberen te verplaatsen in de gedachten en intenties van de ‘dader’. Ethisch kun je daar wat van vinden
Is het zo erg dat een wildvreemde seksueel kijkt naar normale zwembadfoto’s van je dochter op internet?
Met die wildvreemde gaat het van kwaad naar erger als je daar helemaal niets aan doet of van zegt. Sterker nog: zelfs als je er iets van zegt helpt dat niet altijd. Maar dan kun je alsnog iets doen om te laten merken dat dit geen normaal gedrag is en dat het niet getolereerd wordt.

[Reactie gewijzigd door Uruk-Hai op 25 april 2022 13:40]

[...]

Met die wildvreemde gaat het van kwaad naar erger als je daar helemaal niets aan doet of van zegt. Sterker nog: zelfs als je er iets van zegt helpt dat niet altijd.
Bron?
Bron: eigen ervaring met een kennis die ik 20 jaar geleden mijn leven uitgegooid heb. Geen zin om in details te treden.

[Reactie gewijzigd door Uruk-Hai op 25 april 2022 14:53]

Hoeft ook niet.
Ik hoopte op iets meer dan anekdotisch bewijs.
Als in een wetenschappelijk artikel of gedetailleerd politierapport.
Ik hoopte op iets meer dan anekdotisch bewijs.
De woorden anekdotisch en bewijs zijn tegenstellingen in deze zin.
Verder: er zijn ook mensen met een voet-fetish. Dus... foto's met blote kindervoetjes is dus ook kinderporno?
Dat laatste is ook in Nederland indirekt wel een probleem.

In Nederland is de 'age of consent' 16 en voor het internet groot werd was dat ook de leeftijdsgrens voor kinderporno.

Er zijn voor die tijd legale publicaties gedaan met sexueel getinte afbeeldingen van kinderen tussen 16 en 18.

Hoeveel mensen hebben op zolder ergens nog een doos met wat nu kinderporno is verstopt staan.

Ca. 10 jaar geleden zat dit nog in een doos die aan kinderen werd meegegeven voor koninginne dag, tussen stripboeken als Donald Duck nota bene. Moet je nog opletten als je kinderen de buurt doorgaan om mensen te vragen of ze nog dingen hebben om te verkopen.

Je zal het maar onwetend online te koop zetten!

[Reactie gewijzigd door Omega Supreme op 25 april 2022 07:52]

Over het algemeen is het niet heel lastig. Er zijn vrij duidelijke afspraken over gemaakt, Cybercrime conventie Budapest (2001) Convention on the Protection of Children against Sexual Exploitation and Sexual Abuse in Lanzarot (2007). Elk land dat hieraan mee deed (veel, voornamelijk Westerse landen), krijg enkel een klein beetje ruimte om zaken via nationale wetgeving te regelen. In Nederlands was sommige virtuele kinderporno eerst niet strafbaar maar hier heeft de Hoge Raad anders over besloten enkele jaren geleden.
En wanneer spreken we van misbruik? Dat hoeft toch geen vraag te zijn? Kan het bij kinderen van 8 jaar ook geen misbruik zijn dan? En bij iemand van 16 is misbruik toch ook gewoon misbruik? Het woord geeft dat al aan lijkt me...
Dat laatste is natuurlijk wel een hele grote versimpeling van zaken. Jij stelt gewoon van: als het misbruik genoemd wordt dan is het misbruik.
Punt is juist om vast te stellen waar misbruik precies begint. Er zijn allerlei fotografen die met minderjarigen hebben gewerkt. Sommigen zijn tijdens het maken van de foto over de schreef gegaan en anderen niet. Aan de foto zelf zie je dat niet. De ene foto kan dan dus wel onder misbruik vallen en de andere niet, ook al verschillen ze inhoudelijk niet veel met elkaar. Het gaat om de omstandigheden waaronder die gemaakt is.
Hetzelfde geldt voor films met naaktscenes. Bij de ene film was er goede begeleiding en bij andere films hebben regisseurs gepushed. Ook dan kan de ene scene als misbruik gezien worden en de andere als functioneel naakt.
Ik stel als het wordt gedefinieerd als misbruik is het inderdaad misbruik. Daar zijn dus richtlijnen voor. Een afbeelding waarop een volwassene handelingen verricht met een kind valt bijvoorbeeld (uiteraard) onder misbruik; Child Sexual Abuse Material (CSAM).
Een afbeelding van een naakte peuter op het strand, gemaakt door de ouders voor de vakantiecollectie valt niet onder misbruik. Als deze foto wordt verspreid door kwaadwillenden en terecht komt in de collectie van pedo's is er nog steeds geen sprake van misbruik maar wel onder de noemer kinderporno.
Je hebt dus materiaal waarop misbruik te zien is, meer- of minderjarig. En je hebt materiaal waarop (naakte) kinderen te zien zijn; onschuldig of CSAM. De vraag van de poster was wanneer is er sprake van misbruik? Dat is dus niet zo ingewikkeld. Wat valt onder kinderporno (CSAM & SCEM) is een andere vraag.
Probleem is dat misbruik niet gedefinieerd is. Er zijn uitersten waarbij je heel duidelijk kan stellen dat iets misbruik is maar er is een heel groot grijs gebied, waarbij via onderzoek vastgesteld moet worden of er sprake is van misbruik.
En wat betreft foto’s, de omstandigheden van het maken van de foto zijn bepalend, niet of een bepaalde foto in een familie-archief zit of in een archief van een pedofiel.
Er zijn inderdaad een grijze gebieden mbt kinderporno:
- Een foto van je kleuter in een badje in jouw bezit
- Diezelfde foto in bezit van een oma/opa
- Diezelfde foto in bezit van de buurvrouw
- Diezelfde foto in bezit van de KDV-leider/leidster
- Diezelfde foto in bezit van iemand willekeurigs ergens op de wereld

- Een 'naakte selfie' van een 16 jarige jongen in zijn eigen bezit
- Diezelfde foto in bezit van die jongen z'n vriendje/vriendinnetje
- Diezelfde foto in bezit van z'n voetbalcoach
- Diezelfde foto in bezit van iemand willekeurigs ergens op de wereld


Echter:
Dit soort technologieën gaan over "de geverifieerd foute" foto's, waar kinderen daadwerkelijk worden misbruikt in de breedste zin (van professionele suggestieve foto's (met dat als doel) en 'striptease-foto's' tot groepsverkrachting en alles er tussenin). Als het goed is, zal de privéfoto van je peuter dat in de branding aan het spelen is, niet in die databases belanden.
Het is niet de computer die bepaald of iets goed of fout is, of de foto zelf interpreteert. De computer controleert of de foto een 'bekende foute foto' is door middel van die hashing en al het gebeuren er omheen.
Maar wanneer spreken we van misbruik?
Daar is de wetgever (in elk geval in Nederland en ik neem aan ook in België) nou juist vrij duidelijk over. Het is denk ik eerder het maatschappelijke/sociale-culturele aspect dat het ingewikkelder maakt.

Er is een verschil tussen meerderjarigheid en seksuele meerderjarigheid (de leeftijdsgrens van seksuele zelfbeschikking). Bijvoorbeeld: In Europa is iedereen (kort door de bocht) vanaf z'n 18e wettelijk meerderjarig. De seksuele meerderjarigheid verschilt echter heel erg per land. De uitschieters in Europa zijn: 14 in Bulgarije en 18 in onder andere Malta enTurkije. In Nederland en België is het 16 en dat is dan ook de meest voorkomende leeftijd in Europa.
Dit wil natuurlijk niet zeggen dat iemand van 16 jaar en 1 maand niet naar bed mag (mits vrijwillig uiteraard enz enz enz) met z'n/d'r partner van 15 jaar en 11 maanden (daar gaat geen rechter in mee als dat zou voor moeten komen op welke manier dan ook) en het zegt ook niet dat iemand van 17 jaar en 10 maanden seksueel getinte foto's van zichzelf mag publiceren en/of verkopen (even los van hoe en of dit 'gedetecteerd wordt'). Dit zijn juridisch echt compleet andere zaken en is ook allemaal wetgeving omheen.
Er is ook nog een verschil of iemand een afhankelijkheids/vertrouwensrelatie heeft met de ander, zoals een coache/trainer/maatschappelijk werker/leraar/arts/fysio/enz/enz/enz/enz. Dan is de leeftijd niet 16, maar 18 (SR artikel 249)
De vraag is dus, moet je dit niet doen omdat er fouten gemaakt gaan worden of wel doen omdat je de echte porno ermee aanpakt. Dat ligt aan de consequenties, als je valselijk beschuldigd wordt kan dat enorme effecten hebben. Trial by media als in de me-too discussie? Moet je het daarom laten? Ik ben persoonlijk blij met de me-too discussie...
Waarom zou ne fotoos van je kinderen online delen met iedereen trouwens? Voor de likes? Waarom niet alleen maar met een paar familieleden?
In Japan is minderjarig 13 jaar, vandaar dat hentai makkelijk kan daar. Moet je dit eens lezen en de verkniote reactie erop. Leider anti-vaccinatiepartij Japan maakt kind zwanger, vervolging niet zeker - https://nos.nl/l/2426256

[Reactie gewijzigd door tw_gotcha op 25 april 2022 09:20]

Hier in Nederland is het ook meten met twee maten.
Ik weet nog dat de muziek van Michael Jackson geweerd werd van de radio om vermeende en tot nu toch nog steeds onbewezen aantijgingen.
En Andre Hazes, die als volwassene de slaapkamer was binnengedrongen van de toendertijds 15 jarige Rachel krijgt een standbeeld.
Ze was 15.

Maar ja, hij is een volkszanger en die mogen dat schijnbaar.
Maar, diep in zijn hart, wist hij, zij was te jong voor hem...
Dat heeft weer te maken met tijdsgeest. Napoleon is bij de Fransen de grote held, ook geen lieverdje. Dzjengis Khan wordt vereerd in Mongolië terwijl die de halve planeet had veroverd en ontelbare moorden en verkrachtingen op zijn naam heeft staan. Zo zijn er nog tientallen "helden" uit het verleden op te noemen waar we met onze huidige blik anders naar kijken, een kromme vergelijking dus. Michael Jackson en André Hazes zijn mensen van deze tijd en van Jackson is er uberhaupt niets bewezen buiten enkele verklaringen tien jaar na diens dood zodat verweer onmogelijk is.

En om op tijdsgeest terug te komen, bij de oude Grieken en Romeinen werden er ook rare dingen met jonge jongens gedaan, gaan wij daarom de Akropolis en het Colosseum afbreken? Laat het verleden rusten zou ik zeggen.
Dat heeft weer te maken met tijdsgeest
Wat maakt het uit of het te maken heeft met tijdsgeest?
Fout is fout. Moordenaars en mensen die andere mensen martelen, moet je niet vereren, maar uitkotsen.
Verschil is wel dat Hitler nooit een held geweest is, je gaat geen Duitser vinden die terug naar die tijd wil op wat neonazi's na die zelf nog niet geboren waren in de jaren 30/40. Je bent overigens zelf begonnen met het vergelijken van een destructieve dictator met een zeeheld die een bijdrage heeft geleverd aan het Nederland van destijds. Dat is inderdaad ten koste gegaan van mensen ver weg en zou tegenwoordig niet meer kunnen. Daarom dat ik Napoleon en Dzjengis Kahn vernoem, die kun je moeilijk in een rijtje met Hitler plaatsen omdat ze in hun eigen land nog een held zijn, Hitler is dat absoluut niet. Je gaat van Hitler in Duitsland geen standbeeld vinden in de openbare ruimte bv.
Oké, dan vervangen we die zeehelden door Napoleon en consorte. Neemt niet weg dat het nog steeds wrang is dat zulke mensen ook vandaag de dag nog vereerd worden.

Maar jammer dat je niet reageert op mijn laatste argument over Instagram. Dat is zelfs nog behoorlijk ontopic.
Instagram en consorten zouden inderdaad geen naaktportretten uit 1600 moeten verbieden, of andere kunst en/of historisch relevante schilderijen en foto's met naakt moeten weren (Vietnamees meisje wat van de napalm wegrend bijvoorbeeld).
Silveren kogel? Niet alles dat je letterlijk vertaalt uit het Engels is daarmee ook normaal taalgebruik in het Nederlands ;).

Verder informatief artikel. En zoals enkelen hierboven al aangeven, waar leg je de grens? Ik heb de indruk dat we dat in Nederland goed geregeld hebben. De leeftijdsgrens van 18 jaar is niet meer dan redelijk. En inderdaad, als je dat afzet tegen de walgelijke praktijken in Japan, dan hebben we het hier netjes geregeld.

Ik heb wel wat moeite met allerlei scanners die min of meer al geautomatiseerd "aangifte" doen (dat dus niet maar ze melden je wel alvast) op basis van algoritmes die niemand mag zien en die een behoorlijke failrate hebben. Te vaak hoor je verhalen van mensen die totaal onschuldig van hun Microsoft accounts worden afgeknikkerd en hemel en aarde moeten bewegen om weer bij hun data te kunnen. Dat kan dus echt nog wel beter, veiliger en transparanter lijkt me.
Ik ben het met je redelijke argumenten eens, maar tieners vertonen nou eenmaal uit zichzelf seksueel gedrag. Aangezien ze tegenwoordig ook altijd een camera bij zich hebben maakt dit dat ze al snel kp hebben gemaakt zonder dat er echt sprake is van een misbruik situatie. Ik heb het antwoord ook niet, maar dat maakt de zaak er niet minder complex op en een harde leeftijd lastig uit te leggen. In elk geval voeden wij onze kinderen op door ze heel duidelijk te maken dat als je een plaatje deelt - met wie dan ook - je er vanuit moet gaan dat het door iedereen te zien gaat zijn in potentie. Met alle gevolgen van dien. Dus denk 2x na.
Dit is inderdaad een serieus probleem. Dat er automatisch melding gemaakt wordt hoeft niet erg te zijn. Want de organisatie die de melding ontvangt weet ook dat het een vals-positieve kan zijn. Het is niet zo dat iedere aangifte direct tot vervolging leidt. Het enige probleem is dat de controlerende partij overspoeld kan worden.

Dat je (eventueel tijdelijk) niet meer bij je data kan, tot er een manuele controleslag (van maximaal 1 à 2 dagen) heeft plaatsgevonden zou ik op zich nog wel vrede mee kunnen hebben, met de juiste mitsen en maren, maar hoe het nu gaat inderdaad niet. Dit raakt op dit moment echt kant nog wal.

Ondertussen HEUL veel jaar geleden had een vriend van mij een website bij Geocities (ja, zo lang geleden :) ). Dat was gewoon zo'n site van "Hoi, ik ben Pietje en dit is m'n konijn." (dat was toen helemaal hip om te hebben).
Op een gegeven moment kreeg hij de melding van Geocities dat z'n site werd geblokkeerd tot nader order en er zou binnen zoveel dagen contact opgenomen worden.
Na een paar dagen deed z'n site het weer. 'Het systeem' had een hakenkruis gevonden op één van de foto's van z'n site. (Het bleek uiteindelijk een boom die wat ongelukkige takken had, waar het softwarepakket van toen iets in dacht te vinden). De betreffende foto werd 'gewhitelist' als zijnde een veilige foto. Er werd hem op het hart gedrukt dat als hij ook maar iets met die foto deed (hernoemen, opnieuw uploaden, opnieuw opslaan, één pixel aanpassen, wat dan ook) dat die whitelisting dan weg zou zijn en dat hij dan mogelijk weer een trigger kon veroorzaken.

Als het op zo'n soort manier zou gaan, zou ik er denk ik niet zoveel moeite mee hebben, mits je account dan niet 2x per jaar ten onrechte wordt geblokkeerd, want dan is het gewoon superirritant natuurlijk.
Ook een groot probleem is dat de grote bedrijven en alle software pekketten, graag willen dat je hun cloud-service gaat gebruiken, en soms al je foto's beginnen te uploaden als gemakkelijke service, en dit soms ongewild gebeurd, ook bv na koop van een nieuwe PC waarvan je niet weet dat die software er op staat als bloatware.
en als je vele leuke kiekjes hebt van je kinderen die heel leuk in bad aan het spelen zijn, dit OOK als kinderporno gezien wordt, en je al snel in de problemen kan komen, waar soms geen weg van terug is.

Waar Apple in de fout gaat, is het lokaal scannen van foto's (of alles?), en het verleden heeft al teveel geleerd dat privacy een snel schuivende schaal is, en dat die grote bedrijven totaal geen probleem (scrupules) hebben om voor regeringen en regimes hun werkwijze aan te passen, om toch die software/hardware te kunnen blijven verkopen, en zoals ook in het artikel staat, dat wat er gescand wordt ook aangepast kan worden naar politiek gevoelig/ongewenst materiaal.

en als deze techniek een maal is ingebouwd zou ook een Israëlisch bedrijf weer handig gebruik van kunnen maken.
Magie onder de internetmotorkap? Zwarte magie dan toch.
Ik vind het wel opvallend dat er heel genuanceerd gereageerd word op dit toch wel redelijk beladen onderwerp. Waarbij ook ik mij wel afvraag van waar trek je de grens en het zal je maar gebeuren dat je zomaar onterecht van iets beschuldigd word. Alleen al het feit dat je beschuldigd word kan iemand al zijn hele leven behoorlijk op zijn kop laten gaan.

Let wel, ook ik ben zeer zeker tegen kindermisbruik en begrijp ook totaal niet wat in het hoofd van die mensen om gaat. Snap gewoonweg niet wat er nu mooi, leuk of opwindend zou zijn aan een kind en denk dan van zoek het bij je eigen leeftijd. Maar ja goed, zo zijn er wel meer dingen die ik niet kan en wil begrijpen waarin mensen vaak ver door schieten.

Absoluut met iedereen eens dat er best wel een gevaar in schuilt in zo'n automatisch scannen maar van de andere kant denk ik ook wel weer dat iedereen zich ervan bewust moet zijn dat internet een open boek is en blijft. Wanneer ik alleen al kijk naar Facebook hoeveel persoonlijke info mensen zomaar op het net zetten dan denk ik wel vaker van mensen weten totaal niet welk risico ze nemen.
Uit artikel:

Bovendien zijn nieuwe foto's een grote blinde vlek in het proces waar de csam-scanningtools vrijwel niets tegen kunnen doen.
Hypnotiserent: Wanneer materiaal wordt herkend door PhotoDNA zal het snel verwijderd kunnen worden. Draagt dit systeem daarom ook onbedoeld bij aan een grotere productie van nieuw materiaal (dus ook meer leed)? En zal dit besef weer uiteindelijk een cultuurverschuiving veroorzaken van het volledig verbieden nu terug naar het gedogen van de jaren 60-70-80 wanneer wij daar weer achterkomen? (zoals we toen ook al wisten)
Ik vind het nogal raar dat iedereen bij voorbaat beschouwd gaat worden als misdadiger met dit soort technieken. Waarom moet iedereen gescand worden? De politie komt ook niet elke dag de boekenkast overhoop halen.

Met clouddiensten kan ik er nog iets bij voorstellen omdat je gebruik maakt van hun diensten en er ook mee kan delen, waarmee zij dan medeplichtig zouden worden. En de meeste diensten doen niet eens de moeite om end to end encryptie te gebruiken.

Maar op je eigen apparaat te gaan lopen scannen zoals Apple wil doen, dat gaat me echt een stap te ver. Ik snap dat ze dit willen doen juist om te kunnen scannen en toch E2E encryptie in te voeren. Maar het is geen goede reden vind ik. Er wordt wat mij betreft een harde grens overschreden. Apple moet dit ook helemaal niet doen van de wetgever. Het is hun eigen initiatief.

Dit soort zooi komt ergens vandaan, en wordt verkocht en verspreid. Genoeg aanknopingspunten voor politieonderzoek zonder de hele samenleving als potentiele verdachte aan te merken. Scannen op fotodiensten vind ik ook geen probleem omdat die met juist bedoeld zijn om te delen. Er zijn zo veel manieren om dit aan te pakken zonder iedereen potentieel als verdachte te bestempelen.

Niet dat ik iets te vrezen heb op dit gebied maar ik vind het gewoon een heel vervelend gevoel dat mijn eigen spullen continu over mijn schouder lopen te kijken. Of het nu door een mens is of een algoritme.

[Reactie gewijzigd door GekkePrutser op 26 april 2022 10:57]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee