Zoals ik in november al schreef bij
EU-chatcontrole: “vrijwillig” scannen dreigt toch verplicht te worden, (zie
NEK in 'EU-lidstaten gaan akkoord met wet voor 'vrijwillig' scannen van chatberichten') blijkt met de recente updates dat die analyse helaas volledig standhoudt. Het zogenaamde “vrijwillige” karakter van dit huidige voorstel is vooral een juridisch en politiek rookgordijn want wie de Raadstekst daadwerkelijk leest, ziet dat de structuur van de eerdere CSAM-verordening intact is gebleven. De kern zit opnieuw in "alle redelijke maatregelen" binnen het risicobeheermodel.
In EU-recht betekent dat simpelweg dat aanbieders maatregelen moeten nemen die proportioneel zijn aan het vastgestelde risico. En omdat de categorie "hoog risico" vrijwel alle moderne communicatiediensten omvat (berichten, foto’s, video, voice, livestreams), blijft de uitkomst identiek aan eerdere voorstellen: risicobeperking = detectie, want beschermen van kinderen......
Formeel wordt scanning "vrijwillig"

maar aanbieders mogen gebruikers weigeren als zij de niet-gescande versie niet veilig kunnen aanbieden. Dat is exact dezelfde constructie als bij cookiewalls: op papier keuzevrijheid maar in de praktijk uitsluiting.
Vrijwillig is hier slechts vrijwillig zolang je bereid bent de dienst niet meer te gebruiken. De bewering dat end-to-end encryptie niet wordt verzwakt is juridisch leeg zolang client-side scanning expliciet open blijft staan. Encryptie blijft dan alleen intact omdat de analyse voor versleuteling plaatsvindt. Functioneel is dat gelijk aan een backdoor. Apple trok ditzelfde mechanisme in 2021 terug na zwaar technisch en academisch bezwaar. Daarbovenop komt detectie van onbekend materiaal dat patroonherkenning met hoge foutmarges vereist. En dat leidt weer tot onvermijdelijk tot grote aantallen false positives en onterechte meldingen. Tegelijk wordt metadata expliciet betrokken bij risicobeperking want wie met wie praat, wanneer en hoe vaak. Met die gegevens zijn volledige sociale netwerken te reconstrueren, iets wat de Commissie zelf erkent in haar risk-mitigationdocumenten.
Voor privacygerichte diensten zoals Signal, Threema en Proton is dit fundamenteel onverenigbaar met hun architectuur want je kunt niet tegelijk geen toegang tot inhoud hebben en verplicht zijn om inhoud vooraf te beoordelen. De keuze wordt dan of principes breken of de EU verlaten.
Politiek past dit in een bekend patroon: voorstellen vlak voor een stemming intrekken, cosmetisch aanpassen en opnieuw indienen waardoor het Overton-venster stap voor stap opschuift richting normalisering van massasurveillance. Met het aflopen van de tijdelijke regeling in april 2026, het einde van het Deense voorzitterschap eind 2025 en de overdracht aan Polen, wordt de ruimte om af te zwakken alleen maar kleiner.
Kortom: dit is geen compromis meer maar het is dezelfde CSAM-wet in andere woorden met een "vrijwillige" saus eroverheen. De juridische verplichtingen blijven overeind via brede risicocategorieën, indirecte scanplicht, client-side scanning en metadata-analyse. De uitkomst blijft brede monitoring van privecommunicatie, ongeacht de verpakking.
En tja op deze manier wordt
1984 van George Orwell toch geen fictie maar een beleidsrichting die wat langer nodig had om werkelijkheid te worden. En altijd onder het mom van "kinderen beschermen". Maar als dat werkelijk het doel was, waarom stelt niemand dan voor om alle servers in de EU te laten scannen, toch? Dat gebeurt namelijk nergens. Alleen bij burgers.
Het zou tweakers ook sieren om zulke stukken kritisch onder de loep te leggen.....