Het feit dat je tijdens het googelen niet zomaar op afbeeldingen van kindermisbruik stuit, is een van die typisch onzichtbare vormen van magie onder de internetmotorkap. Imagehosters, e-mail- en clouddiensten, zoekmachines, de meeste van hen gebruiken technologieën die kindermisbruikmateriaal detecteren en verwijderen. Toch zijn die plannen, ondanks hun goede intenties, niet onomstreden. Apple kreeg vorig jaar veel kritiek op het plan om iPhones lokaal te scannen op kindermisbruikafbeeldingen en onlangs introduceerde het Nederlandse Expertisecentrum Online Kindermisbruik een tool die grote delen van het openbare internet scant op alle afbeeldingen waar mogelijk kindermisbruik op staat, met 'zo'n tachtig procent nauwkeurigheid'. En die andere twintig procent? De 'privacy wordt goed gewaarborgd', hoor je overal, maar bij kindermisbruikmateriaal is ieder valspositief resultaat er een te veel. In dit artikel kijken we naar de verschillende technologieën voor 'csam-scanning', welke bedrijven die inzetten en wat de voor- en nadelen zijn.
In den beginne ... was er Microsoft
Internetbedrijven scannen al meer dan een decennium op kinderporno, of beter gezegd, child sexual abuse material (csam), omdat porno toch echt iets anders is. Dat gebeurt via het algoritmisch hashen van afbeeldingen. Het was Microsoft dat die technologie verfijnde en ontwikkelde tot de methode die later als blauwdruk zou werken voor veel vormen van csam-scanning. Die technologie heet PhotoDNA. Het is tot op de dag van vandaag nog steeds een van de meestgebruikte technologieën voor het scannen van afbeeldingen, maar zeker niet de enige.
In de basis werkt PhotoDNA heel eenvoudig. Het pakt een foto, hasht die en gooit die in een grote database. Daarin zitten hashes van foto's van bekend csam-materiaal, door de jaren heen aangedragen door politiediensten en techbedrijven. Microsoft scant vervolgens iedere foto die de servers van het bedrijf passeert. Dat kan een foto op OneDrive zijn of iets dat via e-mail wordt verstuurd. Die foto's worden ook gehasht. Als de hashes overeenkomen met een hash uit de database, volgt een volgende stap. Wat die stap is, hangt af van wie de tool heeft geëmbed. Vaak worden de afbeeldingen meteen verwijderd. Veel bedrijven geven de informatie door aan een kinderbeschermingsorganisatie: in Amerika het National Center for Missing & Exploited Children of Ncmec en in Nederland het Expertisecentrum Online Kindermisbruik of EOKM. Die kunnen vervolgens besluiten de informatie door te spelen naar de autoriteiten. Die kijken dan naar eventuele strafbare feiten en of een overtreding een strafvervolging nodig heeft.
PhotoDNA werd al in 2009 ontwikkeld door Microsoft, samen met onderzoekers van een universiteit. In het begin was het vooral een project dat Microsoft gebruikte in zijn clouddiensten, zoals Hotmail en Live, maar sinds 2014 kwam de tool beschikbaar in Azure. In datzelfde jaar maakte PhotoDNA meteen zijn belangrijkste ontwikkeling door; Microsoft stelde de technologie toen ook beschikbaar aan allerlei andere internetbedrijven, waaronder concurrerende diensten. Anno 2022 maken Facebook, Google, Reddit, Discord, Twitter en tientallen andere diensten onder de motorkap gebruik van PhotoDNA. Microsoft heeft het over meer dan 200 organisaties wereldwijd. Die organisaties kunnen alleen via een api gebruikmaken van de tool. De broncode van PhotoDNA is niet openbaar beschikbaar. Alleen een klein aantal partners, waaronder het Ncmec, heeft er toegang toe. Daarom is ook niet precies bekend hoe het hashalgoritme van PhotoDNA werkt. Microsoft wil dat geheimhouden om te zorgen dat criminelen dat niet uitbuiten.
Verbeteringen
Door de jaren heen is PhotoDNA op verschillende manieren verbeterd. Een belangrijke verandering vond plaats in 2015, toen PhotoDNA ook geschikt werd voor video's. De werkwijze daarvan is niet fundamenteel anders dan hoe de scanningtool werkt op afbeeldingen. Een video wordt dan alleen eerst opgedeeld in verschillende frames waarin een opvallend beeld voorkomt: iets onderscheidends zoals een bepaald meubelstuk of een decoratie. Van die frames worden vervolgens weer hashes gemaakt die kunnen worden gecontroleerd uit de database. Een belangrijk voordeel van die werkwijze zit in de manier waarop het materiaal wordt gecontroleerd. De werknemer bij de organisatie die de video's moet classificeren als wel of geen csam, hoeft dan niet een hele video te bekijken, maar alleen een paar frames. Dat maakt het makkelijker dat werk uit te voeren.
De PhotoDNA-api is meer dan alleen een plug-and-playdienst. Gebruikers kunnen verschillende configuraties doorvoeren op hun systemen waardoor sommige foto's wel of juist niet gescand worden, beschrijft mensenrechtenorganisatie Prostasia, die verschillende tools bekeek. Zo kan een eindgebruiker kiezen uit welke databases de bronfoto's afkomstig moeten zijn. Die komen voornamelijk van het Amerikaanse Ncmec, maar ook de Canadese tegenpool, de Cybertip, of het Nederlandse EOKM hebben zulke databases die optioneel kunnen worden gekoppeld aan PhotoDNA. Ook is er een opvallende optie om te kunnen scannen op verschillende categorieën: alleen seksuele handelingen of ook als de persoon op de foto erotisch poseert. Het is zelfs mogelijk om scans in te delen op leeftijdscategorie, maar het is moeilijk om je situaties voor te stellen waarbij een gebruiker dat onderscheid zou willen maken.
Alternatieve diensten
We hebben het tot nu toe voornamelijk over PhotoDNA gehad, omdat het de grootste en oudste csam-scanner is die nu actief is, maar er zijn er veel meer. Veel grote techbedrijven hebben hun eigen tools, die vaak ook in combinatie worden gebruikt met Microsofts PhotoDNA. Zo heeft Google een eigen tool, Content Safety-api, die ook niet nader gespecificeerde kunstmatige intelligentie gebruikt in combinatie met fotoherkenningstools zoals PhotoDNA. Sinds 2014 werkt Google ook aan een eigen tool voor het detecteren van video's op YouTube: CSAI Match. Child Sexual Abuse Images Match is een verwarrende naam, maar de tool is ook bedoeld voor bewegend beeld en niet alleen voor afbeeldingen. Om de wereld van csam-scanners nog wat onoverzichtelijker te maken, is CSAI Match dan weer gratis beschikbaar voor 'partners', waaronder internetbedrijven als Reddit en Yahoo, maar ook stichtingen die kindermisbruik tegengaan.
Sinds 2019 heeft ook Cloudflare een eigen csam-scanningtool. Die is gratis voor Cloudflare-gebruikers. Omdat het bedrijf geen hostingprovider is, zit het in een lastig parket. Het kan zijn klanten vaak niet meteen offline halen, dus heeft het als tussenoplossing ingesteld dat flagged content eerst wordt geblokkeerd en dat een gebruiker daarvan een waarschuwing krijgt in plaats van dat het direct wordt doorgestuurd naar de autoriteiten.
Een andere opvallende tool is die van Facebook. Het bedrijf heeft twee algoritmes gebouwd voor csam-scanning. PDQ is bedoeld om afbeeldingen te scannen en TMK+PDQF is er voor videobeelden. De algoritmes zijn deels gebaseerd op het bekende fotovergelijkingsalgoritme pHash, al zegt Facebook er een compleet eigen implementatie van te hebben gebouwd. PDQ en TMK (voor temporal match kernel) vallen voornamelijk op omdat de broncode openbaar op GitHub beschikbaar is. Facebook gebruikt die tools trouwens niet alleen voor het scannen van kindermisbruikafbeeldingen, maar voor alle soorten content die het niet op het platform wil hebben. Daar vallen bijvoorbeeld ook categorieën zoals terrorisme onder of zelfs gewone porno. Facebooks PDQ mag dan openbaar beschikbaar zijn, de aansluiting met de Ncmec-database met bekende beelden is dat niet. Daarom is het niet zomaar mogelijk Facebooks oplossing te implementeren in een eigen systeem om op kindermisbruikmateriaal te scannen.
Er zijn ook betaalde tools om op csam te scannen, zoals Safer van Thorn
Veel tools om csam-afbeeldingen te scannen zijn gratis te gebruiken, maar er zijn er ook een paar waarvoor betaald moet worden. Zo is er Safer van Thorn. Betaald betekent niet dat het profiteert van kindermisbruikmateriaal: Thorn is een non-profitorganisatie en het geld gaat dan ook naar het onderhouden van de tool. Het bedrijf werkt daarbij ook weer samen met het Ncmec. Dat de stichting geld vraagt voor het gebruik, is omdat Safer niet alleen werkt met de eerdergenoemde databases, maar ook met 'nieuwe', of onbekende foto's, de grote blinde vlek van PhotoDNA, dat alleen bekend materiaal scant. Thorn zegt dat Safer ook gebruikmaakt van machinelearning om te herkennen wanneer beelden van kinderen zijn en wanneer niet. Safer kwam in december 2020 uit de bèta. Thorn zei toen dat zijn algoritmes 'in 99 procent van de gevallen' kindermisbruik konden detecteren, maar bewijs voor die claims is er eigenlijk niet, omdat de broncode niet openbaar is en het voor onderzoekers moeilijk is om het effect te onderzoeken. Bovendien is een valspositief resultaat van een procent nog steeds hoog als de tool in de toekomst miljoenen afbeeldingen moet scannen.
Missing links
PhotoDNA mag dan in de praktijk de gouden standaard zijn voor csam-scanning op internet, de tool is niet zonder gebreken. Een ervan is bijvoorbeeld dat de tool alleen toegankelijk is via een api. Ook van de andere tools is de exacte werking, en dan met name de hashfunctie, geheim. Critici zijn niet zozeer bang voor vendor lock-in, maar eerder voor de betrouwbaarheid van de tools. De werking van het algoritme is daarmee ook een zwarte doos en dat is natuurlijk altijd een beetje dubieus. Beveiligingsonderzoekers zouden bijvoorbeeld graag willen weten hoe de tool werkt, maar klagen dat ze tegen een muur aanlopen als ze die willen controleren. Je kunt dan bijvoorbeeld niet verifiëren of de code werkt zoals geadverteerd of te veel valspositieve resultaten geeft. In sommige gevallen denken onderzoekers dat het zelfs mogelijk zou moeten zijn de hash om te keren. Dat is niet mogelijk met cryptografische algoritmes, maar soms wel met de perceptual hashes die worden gebruikt voor csam-scanning.
Ook hebben csam-scanners de grote missing link dat ze alleen nuttig zijn met bekende csam-afbeeldingen die door andere partijen worden aangeleverd. 'Nieuwe' kindermisbruikmateriaal kun je er niet mee opsporen. Maar, eerlijk is eerlijk, dat pretenderen de tools ook niet te doen. Die zijn in het leven geroepen om het internet relatief laagdrempelig gezuiverd te houden van dergelijk materiaal en niet om grote netwerken op te rollen.
Te weinig actie
Csam-scanningsoftware is door die gebreken zeker geen zilveren kogel tegen kindermisbruikafbeeldingen. Dat zou je misschien niet zo snel zeggen als je de grote techbedrijven erover hoort. Hun lovende woorden doen het lijken alsof een simpele api-koppeling met PhotoDNA voldoende is om het internet vrij te houden van dat materiaal, maar dat blijkt tegen te vallen. The New York Times schreef in 2019 een profiel over het probleem van kindermisbruik bij online diensten. De aanpak lijkt ernstig tekort te schieten omdat er nog steeds tienduizenden afbeeldingen en video's online verschijnen. Het probleem lijkt niet zozeer in de technologie te liggen als in de schaal: Facebook, maar ook diensten als Dropbox, zijn zo groot dat zelfs bij het detecteren van miljoenen afbeeldingen er altijd iets onder de radar vliegt. Bovendien zijn nieuwe foto's een grote blinde vlek in het proces waar de csam-scanningtools vrijwel niets tegen kunnen doen.
Hoe werken de scanners?
De csam-scanners werken met hashes, omdat daarmee een zekere mate van privacy kan worden gewaarborgd. Het is vaak lastig de exacte werking van hashes te achterhalen, maar in essentie is het gebaseerd op het decenniaoude principe van contentvergelijking op basis van hashtables. Hashingalgoritmes voor afbeeldingen bestaan al jaren. Je kunt een afbeelding hashen met bestaande algoritmes zoals SHA-1 of MD5, maar je loopt dan al snel tegen beperkingen op. Een dergelijk cryptografisch algoritme gebruikt het bronbestand als seed en dat levert een zwart-witantwoord op: als de hashes gelijk zijn, zijn de twee afbeeldingen gelijk. Zijn ze dat niet, dan zijn het verschillende afbeeldingen. Een dergelijk systeem is simpel te omzeilen door een afbeelding iets te vergroten of te verkleinen. Een enkele pixel verschil levert dan al een ander hashresultaat op. Er zijn ook andere hashingalgoritmes die een andere soort hash maken, die beter geschikt zijn voor het doel van tools als PhotoDNA.
Zulke algoritmes genereren perceptual hashes. Zo'n hash wordt niet met de bronafbeelding als seed gebruikt, maar op basis van elementen in een foto. Een afbeelding wordt eerst in stukjes opgedeeld die allemaal afzonderlijk van elkaar worden gehasht. Perceptual hashes worden gebruikt voor tientallen verschillende functies, van tools die auteursrechtelijk beschermd materiaal opsporen of bij gezichtsherkenning. Dat zijn processen waarbij 100 procent exacte overeenkomsten niet nodig zijn. Ook reverse-imagesearchtools zoals Tineye maken er gebruik van. Het voordeel van die methode bij het opsporen van csam-afbeeldingen is dat afbeeldingen ook kunnen worden herkend als die aangepast worden, bijvoorbeeld door ze groter of kleiner te maken of door de kleuren te veranderen.
Geheim van de chef
Bedrijven kunnen hun eigen implementatie van zo'n algoritme bouwen. Er zijn een aantal bekende, open vormen van zoals pHash en dHash. Ook het eerdergenoemde PDQ van Facebook en Safer van Thorn maken gebruik van hun eigen implementaties van perceptual hashings. Microsofts PhotoDNA doet dat ook.
De exacte implementatie is het geheim van de chef. De algoritmes moeten altijd de balans zoeken tussen snelheid en nauwkeurigheid. Er zijn meerdere methodes om een hash te berekenen die een maker nog kan tweaken. In veel gevallen wordt een afbeelding eerst kleiner gemaakt, maar het eindresultaat varieert als je een afbeelding naar 8x8 pixels verkleint of naar 64x64 pixels. In dat eerste geval bereken je een resultaat sneller, maar kom je vaker een gelijke hash tegen als je die toepast op grote datasets. Het beeld wordt daarna opgehakt in stukjes via discrete cosine transform of dct en ook daarvan bestaan weer verschillende implementaties met verschillende eigenschappen. Er zijn vervolgens nog meerdere stappen die de makers kunnen instellen, zoals het omzetten naar grayscale of een ander aantal kleuren, of het berekenen van een mediaanwaarde van die gebruikte kleuren. Al die verschillende methodes bij elkaar leveren een hash op die via de api's van de diensten kan worden gedeeld.
Databases
De enige manier waarop csam-scanners werken, is omdat ze een basis hebben van materiaal om te herkennen. Maar waar komt die data eigenlijk vandaan? Een bedrijf als Microsoft kan, alle goede bedoelingen ten spijt, niet zomaar zelfstandig een grote database van kindermisbruikmateriaal aanleggen. Dat brengt vanzelfsprekend veel problemen met zich mee, niet alleen ethisch, maar ook juridisch: je mag namelijk niet zomaar csam-afbeeldingen downloaden, ook niet voor onderzoek of bestrijding.
De brondata met csam-afbeeldingen komt van een wirwar aan organisaties en stichtingen
De data van de bekende csam-scanners zoals PhotoDNA is afkomstig van een wirwar aan stichtingen met allerlei samenwerkingsverbanden met afkortingen. Een van de belangrijkste partijen is het eerdergenoemde Amerikaanse National Center for Missing & Exploited Children, een stichting die strijdt tegen kindermisbruik. Die opende in 1998 de CyberTipLine. Iedereen die online tegen potentieel kindermisbruikmateriaal aanloopt, kan daar een tip achterlaten. Dat kunnen gewone internetgebruikers zijn, maar de bulk van het aangeleverde materiaal is afkomstig van de inmiddels 1400 partners die bij het netwerk zijn aangesloten. Dat zijn internetbedrijven of hostingproviders die op grote schaal te maken hebben met eigen gebruikers die beeldmateriaal uploaden en daar zit bijna altijd wel zulk illegaal materiaal bij. Die bedrijven doen dat niet vanuit louter altruïstische motieven: in veel landen zoals Amerika is in de wet opgenomen dat providers verplicht zijn dat materiaal te melden. Het Ncmec is daarvoor de officieel aangewezen instantie. Dat brengt speciale privileges met zich mee. Die organisatie mag, in samenspraak met justitie, een database van csam-materiaal bijhouden.
Samenwerkingsverbanden
Er zijn meerdere van zulke organisaties, zoals het Nederlandse EOKM. Het EOKM heeft een tool ontwikkeld die hetzelfde doet als PhotoDNA: HashCheckService. Ook heeft het het Meldpunt Kinderporno opgezet. Organisaties als het EOKM werken onderling veel samen. Dat gebeurt weer in het samenwerkingsverband Inhope. Materiaal dat bij het ene meldpunt wordt aangeleverd, wordt zo met de andere instanties gedeeld. Die delen het dan weer met partners zoals Microsoft om het via PhotoDNA te hashen, zodat niet iedereen ermee aan de haal gaat. Er zijn 50 organisaties uit 46 landen aangesloten bij Inhope.
Bij dat aanleveren moet je niet denken aan een zip-bestandje met foto's dat over en weer wordt gemaild. Daarvoor gebruikt Inhope de tool Iccam, een afkorting van I See Child Abuse Material. In dat systeem worden url's geïndexeerd van afbeeldingen van kindermisbruik. Iccam downloadt dat materiaal en stuurt het door naar analisten, werknemers met de taak om materiaal wel of niet als kindermisbruik te classificeren. Iccam kan ook zien in welk land een url gehost wordt. De aangesloten organisatie in dit land krijgt dan een rapportage over de url, zodat er een mogelijke aangifte kan worden gedaan bij de lokale autoriteiten.
De politie- en opsporingsdiensten zijn dan ook belangrijke partners in het hele verhaal. Zij ontvangen niet alleen materiaal van de aangesloten organisaties, maar leveren dat daar zelf ook aan. Als de politie servers in beslag neemt waarop potentieel kindermisbruikmateriaal staat, kan dat via partijen als Interpol aan de stichtingen worden doorgegeven. En onderling is er óók weer een eigen uitwisselingsprogramma: Project VIC.
Openbare bronnen
Ook in die uitwisselingsprocessen zit nog een blinde vlek. Ondanks de speciale status van 'verzamelaar' die organisaties zoals het Nmcec en het EOKM hebben, mogen die organisaties meestal niet actief gaan speuren naar kindermisbruikmateriaal. Ze moeten het hebben van tips die worden aangedragen door andere partijen, maar er zijn ook genoeg afbeeldingen die niet gemarkeerd worden, maar wel op het internet staan. "De politie mag zulke scans wel doen, maar wij niet", legt EOKM-voorzitter Arda Gerkens uit. In sommige landen mag dat wel, zoals in Canada en het Verenigd Koninkrijk, maar in Nederland zijn dergelijke crawlers niet toegestaan, en dat terwijl in ons land opvallend veel kindermisbruikmateriaal wordt gehost. Daar zet Gerkens wel wat nuances bij. "Nederland wordt vaak een kinderpornoland genoemd, maar de meeste content die we vinden, wordt via Amerikaanse diensten zoals Facebook en Twitter gedeeld." Nederland is wel een land waar veel webhosting plaatsvindt tegen lage prijzen. Dat maakt het een aantrekkelijk land voor veel imagehosters. Op zulke websites kunnen relatief anonieme gebruikers afbeeldingen plaatsen en dat betekent dat het een vrijhaven is voor het delen van kindermisbruikmateriaal. Veel van die providers nemen actieve maatregelen om dat tegen te gaan, maar dat doet lang niet iedereen. Het was een van de speerpunten van voormalig minister van Justitie en Veiligheid Ferd Grapperhaus. Hij wilde zulke foute webhosters op een zwarte lijst plaatsen.
:strip_exif()/i/2005056898.jpeg?f=imagemedium)
Het EOKM presenteerde eerder dit jaar een tool die een oplossing biedt voor precies dat probleem: Libra. Hopelijk ben je inmiddels nog niet acroniem-moe, want dat staat voor Labelling Identifiability by Remote Analyses. De tool is Libra van Web-IQ. Dat is de softwarefabrikant die ook de Nederlandse HashCheckService bouwde. Libra bestaat uit een crawler die afbeeldingen op internet scant en daar direct een hash van maakt. De afbeeldingen die Libra scant, worden niet gedownload. "Er kan heel gericht en zonder de foto’s te downloaden, op te slaan of te bekijken, worden gescand. Er wordt uitsluitend open data gescand en de privacyregels zijn nauwkeurig in acht genomen", schrijft het EOKM. Het is daarbij wel de vraag of 'open data' wel echt zo openbaar is als de bedoeling is. Libra kan bijvoorbeeld ook scannen op afbeeldingen die op iemands webdomein staan. Openbaar, ja, maar op niet alle openbare data mag zomaar onderzoek worden gedaan. Toen dat bijvoorbeeld vorig jaar gebeurde door het Nederlandse leger werd dat programma meteen afgestraft, ook al beriep Defensie zich op het feit dat de data waar het programma naar keek, openbaar was.
Libra werkt niet alleen maar met hashes. Er komt ook een andere component aan te pas: naast de hash maakt Libra een fingerprint van een afbeelding op basis van een aantal kenmerken die het potentieel illegaal maken. Dat kan bijvoorbeeld zijn dat er op hetzelfde domein eerder illegaal materiaal is gevonden. Die afbeeldingen krijgen een 'risicoscore'. Een afbeelding met een hoge risicoscore wordt dan door HashCheckService gehaald. "Tot nu bleken 80% van de hashes die door Libra als verdacht werden aangemerkt, ook daadwerkelijk afbeeldingen van seksueel kindermisbruik te bevatten", schrijft het EOKM daarover.
Apple-controverse
Voor de processen van Libra, PhotoDNA en de andere diensten is het nodig dat bedrijven foto's scannen die in een clouddienst staan. Apple dacht daar in 2021 iets op te hebben gevonden. Het bedrijf kondigde toen aan dat het foto's ging scannen met een algoritme: NeuralHash. Het grote verschil met diensten als PhotoDNA is dat het lokaal werkt: de foto's worden op de iPhone gehasht en die hashes worden pas geëxporteerd als gebruikers de foto's uploaden naar iCloud. Samen met wat andere beperkingen, zoals het feit dat er alleen een waarschuwing wordt afgegeven als dertig hashes overeenkomen, hoopt Apple de zorgen rondom privacy weg te nemen en vooral ook het aantal valspositieve resultaten te beperken. Apple wist dat verhaal maar moeilijk uit te leggen aan gebruikers en verkwanselde al snel zijn zorgvuldig opgebouwde reputatie als privacyvriendelijke techgigant. Maar er was meer kritiek dan alleen de slechte PR: experts wezen op een paar fundamentele fouten in de denkwijze. Zo was er de maker van fotodienst FotoForensics, Neal Krawetz. die opmerkte dat Apples whitepaper maar weinig concrete details over de werking bevatte. Een ander kritiekpunt was dat van de valspositieve resultaten. Daarvan zei Apple dat het ging om 'één op een biljoen', maar Krawetz merkt op dat dat nummer uit de lucht gegrepen lijkt te zijn en niet gestaafd kan worden met data.
Het probleem met valspositieve resultaten komt vaker naar voren. Dat gebeurde vorig jaar ook met de implementatie van HashCheckService. Dat gaf meerdere valspositieve resultaten weer bij afbeeldingen die op WordPress-installaties van TransIP-klanten werden gehost. Met die afbeeldingen bleek niets mis, maar er bleek dan iets op te staan wat zijdelings met een onderzoek te maken had. Het zou gaan om een menselijke fout, maar met dergelijk gevoelig materiaal wil je die fouten niet maken. Directeur Gerkens zei toen dat 'een bepaalde foutmarge geaccepteerd moest worden' bij csam-scanning.
Conclusie
Er zijn nog veel andere problemen te bedenken met csam-scanning. De technologie wordt nu voornamelijk ingezet om overduidelijk verwerpelijk materiaal te bestrijden, maar kan natuurlijk makkelijk door autoritaire landen worden gebruikt voor andere doeleinden. Je zou er bijvoorbeeld ook dissidenten mee kunnen opsporen, het kunnen gebruiken voor berichten met bepaalde kernwoorden of er nepnieuws mee kunnen bestrijden, een beladen motief dat allang niet meer door autoritaire regimes wordt gebezigd.
Bovendien zetten sommige experts vraagtekens bij de effectiviteit van het systeem. Dat erkent het EOKM ook. Dat noemt het systeem effectief voor opschoning, maar niet voor opsporing. De grote producenten van csam blijven buiten schot, al moet je de taken van csam-scanners wel los zien van die van opsporingsdiensten. Dat de tools alleen kunnen scannen op bekende afbeeldingen, is ook een grote blinde vlek. Tools als Libra en Safer en inmiddels ook PhotoDNA proberen daar verandering in te brengen, maar hebben nog een lange weg te gaan voor dat betrouwbaar kan worden gedaan. Ook scannen de tools alleen het openbare internet en geen besloten groepen, apps met encryptie of het darkweb. Maar, zegt Arda Gerkens van het EOKM, vergis je niet in de effectiviteit daarvan. Op anonieme fotodeeldiensten wordt alsnog veel csam gedeeld. Daar heb je geen Tor-browser voor nodig.
Update 6-9-2024: in dit artikel is de term 'kinderporno' op meerdere plekken vervangen door kindermisbruikmateriaal, omdat dat beter de lading dekt - porno impliceert immers consent.