Empheria schreef onder meer:
Als gevolg kan ik me slecht voorstellen dat je het dan in je hoofd haalt om je materiaal in de cloud te bewaren, waar je er zelf niet de volledige controle over hebt.
CORRECTIE: het gaat bij het voorstel van de EC
niet zozeer om het scannen van materiaal in de cloud (wat in toenemende mate versleuteld is), maar om het zoeken naar "ongewenst" materiaal
op apparaten van eindgebruikers (vooral smartphones) op het moment dat bestanden niet meer versleuteld zijn, oftwel "Client-Side Scanning".
Effectief dus een soort "antivirus" waarbij overheden gaan bepalen wat ongewenst materiaal is.
Persoonlijk heb ik er veel meer begrip voor als cloud-providers checken of er niets illegaals op
hun opslagsystemen staat (wat hen strafbaar zou kunnen maken) dan dat zij, of OS/app-makers, op
mijn apparatuur gaan neuzen.
Empheria schreef ook:
Door het scannen van materiaal in het 'witte circuit', vang je naar mijn idee alleen de kleine vissen.
Vooral stomme. Want het is helemaal niet moeilijk om deze maatregelen te omzeilen (zie verderop).
Belangrijker, je pakt er waarschijnlijk nauwelijks of geen kinderpornomakers, kindermishandelaars en hun cameramensen mee. Wat
ik zou willen bereiken is dat nul (in elk geval zo min mogelijk) kinderen slachtoffer worden van deze nietsontziende egoïsten.
Het gaat dus sowieso om symtoombestrijding. Ik vrees echter dat het een illusie is dat we
zoveel kijkers kunnen opsporen en
ofwel opsluiten totdat ze de interesse verliezen (rollatorleeftijd?)
ofwel met succes hebben heropgevoed (mogelijk net zo kansrijk als genezen van homofilie) dat het verdienmodel van de makers wegvalt.
Terzijde, discutabel is computergegenereerde kinderporno als alternatief voor echte. Dat zou kunnen aanzetten tot "live actie". Maar als die kans groot zou zijn, vraag ik mij af welke invloed geweld in films en games heeft op sommige mensen.
Omzeilen van detectie van
beeldmateriaal kan, in essentie, op twee manieren:
1) User bekijkt beelden op ander (niet backdoored) apparaat dan waarmee wordt uitgewisseld
Kleinere pakkans, meer "gedoe"
Voorbeelden: een extra laag
encryptie,
steganografie (
achtergrond),
digitale beeldbewerking (een groot deel van de bewerkingen zal onvoldoende zijn om herkenning uit te sluiten) en maatwerk, zoals een soort "schuifpuzzels" waarbij volgens een "sleutel" pixels in een bepaald patroon van plaats worden verwisseld en/of met een "exclusive or" functie van (bijv. RGB-) waardes wijzigen. "Nadeel": je kunt de plaatjes (en ander materiaal) mogelijk niet straffeloos in de gebackdoorde app bekijken, of niet op het apparaat als de scanfunctie in het OS zit.
2) User bekijkt beelden op hetzelfde (wel backdoored) apparaat als waarmee wordt uitgewisseld
Zodra uitlekt (dat is onvermijdelijk) hoe de scanner plus definities werken, zullen er apps verschijnen waarmee de plaatjes e.d. zo kunnen worden aangepast dat ze "het bekijken waard zijn" maar niet meer worden gedetecteerd, op min of meer dezelfde wijze als virusscanners en masse om de tuin worden geleid.
Als de scanfunctie in het OS zit en alle
bestanden scant, kan bekijken in een speciale
niet backdoored app, die evt. het OS voor de gek kan houden door geen bestanden "detecteerbaar" op te slaan, maar in het beeldgeheugen te reconstrueren (als de EC-scanner ook het beeldgeheugen scant en de definities daar verboden materiaal in "zien", zal men naar optie 1 moeten). Door een te verwachten kat- en muisspel is de pakkans hierbij wel groter.
Hoe dan ook, uit
onderzoek (
bron) blijkt:
[...] In a large-scale evaluation, we show perceptual hashing-based client-side scanning mechanisms to be highly vulnerable to detection avoidance attacks in a black-box setting, with more than 99.9% of images successfully attacked while preserving the content of the image. [...]
Omdat er bij grooming bijv. gechat of gebeld wordt met een kind, zijn technische trucs, om detectie te omzeilen, wel een stuk lastiger (maar zie verderop).
Empheria schreef verder:
Dan komt ook de vraag van proportionaliteit om de hoek kijken: Zijn er daadwerkelijk voldoende van deze kleine vissen om te kunnen rechtvaardigen dat er ook fouten gemaakt kunnen worden en/of dat er misbruik gemaakt kan worden van de techniek?
Die fouten zijn er:
naar verluidt (plus artikel) geeft de EC-scanner veel
false positives.
Bij grooming zou sprake zijn van 10% valspositieven (dat lijkt te zijn "afgerond" van de 12%
die Microsoft zei te vinden, wat waarschijnlijk ook al rooskleurig was): die mensen zijn alvast verdacht en kunnen zomaar eindeloos in
politiedatabases terechkomen (mogelijk met vinkje voor de zin "ooit geassocieerd met grooming").
Bovendien wil je snel optreden bij grooming, het veiligst voor het kind is de verdachte onmiddelijk arresteren (hebben de buren ook weer wat te beleven) en daarna uitzoeken of de verdenking terecht was. Voor de buren kan daarna gelden: "waar rook is, is vuur". Bij welke aantallen is dit proportioneel?
M.b.t. beelden: als je, na wat beeldbewerkingen, het voor elkaar krijgt dat
twee totaal verschillende foto's dezelfde neural hash opleveren (een neural hash is beslist iets
heel anders dan een cryptografische hash), dan lijkt mij duidelijk dat het niet moeilijk is om een plaatje zo te manipuleren dat de meeste bytes in die neural hash een andere waarde hebben, maar ook dat de kans op false positives levensgroot is.
Ten slotte hebben (andere dan eerdergenoemde) onderzoekers het EC-plan
onder de loupe genomen (
bron) en schrijven daarover onder meer ("CSS" = Client-Side Scanning):
[...] the European Union decided to propose forced CSS to combat and prevent child sexual abuse and weaken encryption. CSS is mass surveillance of personal property, pictures and text, without considerations of privacy and cybersecurity and the law. [...]
De kans op misbruik voor andere opsporingsdoeleinden zou binnen de EU wel eens mee kunnen vallen, maar zodra deze techniek in apps en/of apparaten zit willen regimes die mensenrechten minder of niet respecteren, deze scanner ook inzetten (voor het opsporen van bezitters van materiaal dat die regimes ongewenst achten).
Een m.i. zeer disproportionele maatregel dus. Erger, de tijd en energie die we aan deze risicovolle onzin besteden, kunnen we beter gebruiken om de kern van het probleem aan te pakken en veel meer mensen (met name jonge mannen) wijzen op de enorme emotionele schade die zij bij kinderen aanbrengen voor het korte "pleziertje" van henzelf en de kijkers daarnaar.
Dit is je reinste techsolutionism - het levert meer problemen op dan het oplost. Welke lobbyisten zitten hier eigenlijk achter en wat is hun doel?
Edits t/m 17:11: tekstuele correcties en een kleine aanvulling.
Edit 17:25: URL naar de twee (mooie) verschillende foto's met dezelfde neural hash was fout.
[Reactie gewijzigd door Verwijderd op 22 juli 2024 20:07]