Rapport: semiopenbare groepschats WhatsApp zijn in gebruik voor kinderporno

Semiopenbare groepschats op WhatsApp zijn in onbekende mate in gebruik om kinderporno te verspreiden. Dat claimt een rapport van twee Israëlische non-profitorganisaties. WhatsApp erkent het probleem en suggereert dat smartphonemakers een scan in hun software moeten zetten.

WhatsApp kinderpornoDie scan zou afbeeldingen op de telefoon cryptografisch moeten matchen met bekende databases van kinderporno om zo na te gaan of de gebruiker kinderporno bekijkt in WhatsApp, schrijft Techcrunch. Door dat op de telefoon te scannen, zou WhatsApp end-to-endencryptie in zijn chatapp in stand kunnen houden om afluisteren tegen te gaan.

Het probleem ligt bij semiopenbare groepschats; groepsgesprekken waarvoor een uitnodiging openbaar online staat, waardoor gebruikers elkaar niet hoeven te kennen, blijkt uit het rapport. De non-profitorganisaties vonden een aantal van die groepen, die met hun namen nauwelijks verhullen dat gebruikers daarin kinderporno delen.

Het is onbekend hoe groot het probleem precies is. De organisatie vond tientallen van zulke groepen, maar weet niet hoeveel onontdekte groepen er zijn. Gebruikers komen aan de links met uitnodigingen op websites of in apps. WhatsApp leunt momenteel op algoritmes om gegevens te scannen als groepsnamen en profielfoto's, maar dat filter is niet genoeg om de nu ontdekte groepen eruit te halen.

WhatsApp heeft wel beperkende maatregelen voor groepen. Zo is het aantal leden beperkt tot maximaal 256 en het biedt geen zoekfunctie aan voor groepschats. Als WhatsApp dergelijke groepen tegenkomt, haalt het dochterbedrijf van Facebook die offline en verbant al die gebruikers van WhatsApp.

Door Arnoud Wokke

Redacteur Tweakers

21-12-2018 • 07:02

161

Reacties (161)

161
159
71
15
0
76

Sorteer op:

Weergave:

WhatsApp erkent het probleem en suggereert dat smartphonemakers een scan in hun software moeten zetten.

WhatsApp kinderpornoDie scan zou afbeeldingen op de telefoon cryptografisch moeten matchen met bekende databases van kinderporno om zo na te gaan of de gebruiker kinderporno bekijkt in WhatsApp, schrijft Techcrunch. Door dat op de telefoon te scannen, zou WhatsApp end-to-endencryptie in zijn chatapp in stand kunnen houden om afluisteren tegen te gaan.
NEE!!!
Wat is dat nou voor achterlijke suggestie? De telefoon moet álles maar scannen zodat wij schijnheilig end-to-end encryptie in stand kunnen houden? Als het al gescand moet worden dan doe je dat maar in whatsapp... dat kan ook prima terwijl de chat zelf encrypted blijft. Wat een belachelijke privacy invasie zou dat zijn. Ja kinderporno is erg, maar om daar de volledige bevolking maar voor onder surveilance te zetten? Just NO.
Jouw voorgestelde alternatief is net zo goed massa surveillance. De maatschappij moet eens leren om minder verhit te reageren als het over kinderporno gaat. Niet omdat we daar maar aan moeten wennen maar omdat we ons wat meer bewust moeten zijn van ons recht op privacy en omdat dat recht verliezen een veel groter gevaar met zich meebrengt dat de hele bevolking raakt. Er zijn al heel veel middelen om kinderporno te bestrijden en daar hoeven communicatiekanalen niet onder te lijden. De politie werkt bijv al met infiltranten en die zullen vast ook in Whatsapp groepen opereren als daar de noodzaak toe bestaat. Je kunt wel achterdeurtjes inbouwen in Whatsapp maar dan grijpen criminelen wel weer naar een ander middel en dan blijven de reguliere gebruikers met een rammelende encryptie zitten. Dan heb je op termijn alleen maar verliezers.
" De maatschappij moet eens leren om minder verhit te reageren als het over kinderporno gaat."

Ik hoop dat je bedoeld dat de reflex niet standaard moet zijn: privacy opgeven.

Ik hoop persoonlijk dat de maatschappij wat heftiger en serieuzer gaat reageren op kinderporno en werk gaat maken om kinderen beter te beschermen, er wordt te vaak gedacht, oh dat gebeurd mijn kind niet, ik vertrouw die mensen wel etc.

Er wordt veel teveel nieuw geproduceerd, ook hier in Nederland. De schade die het doet aan het kind is enorm, zo groot dat het niet in een keer te overzien is.

[Reactie gewijzigd door SpiceWorm op 26 juli 2024 09:50]

Een verhitte reactie is standaard een emotionele reactie en als de emotie heftig genoeg is (zoals bij kinderporno) blijft er voor de ratio simpelweg geen ruimte over. Mensen moeten inderdaad serieus werk maken van kinderporno.

Filters zijn sowieso veeel te laat; de kinderporno is er dan al, de slachtoffers al gemaakt. Filters zijn daarbij makkelijk te omzeilen door afbeeldingen/video’s te bewerken en als je dat gaat oplossen met “AI” die kinderporno moet gaan herkennen dan krijg je weer het probleem dat de een z’n wij-zijn-naturisten-vakantiefoto’s de ander zijn steun-kreun-natte-sok-foto’s zijn. Het Tumblr-debacle laat goed zien hoe belangrijk context bij een afbeelding is en dat wat in de ene context acceptabel is dat in een andere niet is.

Maar goed, zoals het nu gaat zie ik de maatschappij eerder eisen dat camerafabrikanten een AI-kinderporno-filter inbouwen dan dat kritisch gekeken wordt naar hoe kinderporno middenin die maatschappij kan worden gemaakt en verspreid; hoe dergelijk misbruik vaak jaren onopgemerkt kan blijven...
Ik bedoel het allebei. Dergelijke problemen los je niet op door er als een soort pavlov reactie altijd emotioneel over te zijn. Het doel is om kinderen te beschermen en dat je doe je met verstand. Het opgeven van privacy van een hele groep gebruikers is dan geen oplossing.
Het is natuurlijk allemaal erg, en verschrikkelijk, maar je punt klopt niet, scannen implementeren op een encrypte verbinding / gegevens is onmogelijk.

Mocht het schijnheilig zijn zoals je suggereert bevestigt het alleen maar als ze dat zouden doen, want het kan ook alleen als het niet echt encrypted is.

[Reactie gewijzigd door vooviro op 26 juli 2024 09:50]

Tuurlijk wel. Alles gaat via de encrypted verbinding, maar als je afbeeldingen stuurt wordt daar een algoritme op los gelaten en de hash wat daar uit komt, dat gaat naar een server om vergeleken te worden met bekende foto's. Voor het probleem dat hier beschreven wordt is het ook niet nodig dat 100% van de foto's gedetecteerd wordt, al zou er maar 10% gedetecteerd worden dan vind je die groepen nog wel.

En ja, het zou Whatsapp iets minder absoluut secure maken, maar hun suggestie is om alle telefoons gewoon minder secure te maken, zodat het probleem (van het minder secure zijn) in ieder geval niet in hun app zit. Uiteindelijk zijn we dan alleen maar verder van huis, maar het is tenminste niet de schuld van Whatsapp.
Hoe ga je iets vergelijken, met een algoritme als het op voorhand al met encryptie binnen komt? Dit gaat niet werken, daarom is het ook end to end, en niet alleen op hun servers.

Op de telefoon het doen voordat het encrypted is, gaat ook niet werken, dit zet de deur open voor misbruik, koud kunstje om voor FB een tweede connectie dan open te zetten en je chats lekker binnen te halen, allemaal in de naam van “scannen”

Dat staat nog naast het feit dat een cliënt scanner, CPU van je telefoon zal gaan gebruiken, dat is ook minder fijn

[Reactie gewijzigd door vooviro op 26 juli 2024 09:50]

Hoe ga je iets vergelijken, met een algoritme als het op voorhand al met encryptie binnen komt? Dit gaat niet werken, daarom is het ook end to end, en niet alleen op hun servers.
Je kan versleutelde data wel vergelijken mits de soort encryptie dat toelaat. (Vergelijk dat ECB-versleutelde plaatje van tux voor een idee.) Dat is wel een zwakte in de encryptie natuurlijk, en om dat dan weer tegen te gaan worden er willekeurige nonces en dergelijke ingezet. Maar dat kan je ook niet doen. Daarnaast is het natuurlijk duidelijk dat als de ontvanger niet kan ontsleutelen dat die dan helemaal niets aan het plaatje heeft.

Maar let even op, het gaat hier over "gesloten groepen met publieke uitnodiging". Ik weet niet hoe de sleuteldistributie werkt bij whatsapp maar het lijkt me dat je checkservers prima lid kan laten worden van zulke groepen. De uitnodiging is immers aan iedereen.

Daar hoef je niet eens voor te rommelen in client software of zelfs het OS. Dit kunnen anti-kinderpornogroepen heel goed zelf: Zoek de publieke uitnodigingen, voer ze aan je checkserver, die volautomatisch alle plaatjes in de groep checkt.

Lijkt me een veel minder groot sleepnet dan maar gewoon iedereen met een permanente checker op al z'n plaatjes op z'n eigen telefoon op te zadelen. "Telefoon kan plaatje niet opslaan want geen dataverbinding om het plaatje door de checker te halen." Ja, nee, wat?
Op de telefoon het doen voordat het encrypted is, gaat ook niet werken, dit zet de deur open voor misbruik, koud kunstje om voor FB een tweede connectie dan open te zetten en je chats lekker binnen te halen, allemaal in de naam van “scannen”
Daar kom je niet onderuit, niet bij servers en niet bij clients.
Dat staat nog naast het feit dat een cliënt scanner, CPU van je telefoon zal gaan gebruiken, dat is ook minder fijn
Hash trekken en opsturen naar een checkserver want ze gaan natuurlijk niet de hele lijst rondbazuinen. Zo'n hash voor een enkel plaatje is wel te doen, vergelijkbaar met het plaatje versleutelen voor transport naar de andere leden van de groep, of weer ontsleutelen bij ontvangst. Maar de checkserver krijgt bij iedere post een check-aanvraag van iedere ontvanger, dus die kan gelijk precies zien wie er nog meer in de groep zit.

Zo'n lijst is overigens op zichzelf ook een risico. Zo bleek er op de Australische lijst van hashes van kinderpornowebsites ineens de website van een tandarts te staan, die geen idee had waarom er niemand meer op z'n website kwam (en wat 'm dus klandizie kostte) want de lijst is geheim. Alle andere landen met vergelijkbare lijsten hebben vergelijkbare problemen, ook al houden ze die ook geheim.

Zo kan ik me voorstellen dat als er iemand met (indirecte) schrijftoegang op de hashesdatabase kwaad wil, die natuurlijk gewoon hashes kan trekken van het hele fotoalbum van zijn doelwit en die in de database kan storten. Geen hond die kan zien dat de bronfotos geen kinderporno zijn want hashes.

Om nog maar te zwijgen van "near matches" die dartelende kindertjes in kinderbadjes ("naakt!") erbijpakken en zo de whatsapgroep van de buurtmoeders twee straten verderop als grote bron van kinderporno aanmerken. Hoe ga je ervoor zorgen dat ze niet ondertussen als pedofiel gebrandmerkt worden? Ik noem maar een dwarsstraat. Je zal dus altijd heel zorgvuldig met de hand na moeten kijken of je niet toevallig tegen collissions aankijkt, of dat er een andere reden is waarom het volautomatische checksysteem mischien steekjes heeft laten vallen. Dat wordt hier, maar ook bij andere toepassingen van hetzelfde idee zoals "cloud storage", website hosting, en zo verder, maar al te gemakkelijk vergeten.

Dus zo'n panacea is die hashesdatabase zelf ook weer niet. Wat mij betreft is dit gewoon weer zo'n dom idee dat maar niet wil sterven, en daarmee een goede intentie die de weg naar de hel helpt te plaveien.
Alsof ze dat nu niet zouden kunnen doen? Het is toch allemaal op vertrouwen gebaseerd. En ja zoals ik al zeg, dat maakt Whatsapp iets minder aantrekkelijk voor de echte privacy nut. Het is ook geen perfect oplossing, maar het is minder achterlijk dan de hele telefoon dan maar insecure te maken. Wat heb je aan een 100% secure app op een in de basis insecure platform? Wat maakt het nog uit als die app niks naar de servers stuurt als de telefoon dat zelf al doet?
Dat is een mening natuurlijk, dat het meer achterlijk is, feit is gewoon dat zou WhatsApp doen wat jij suggereert, het bevestigt dat de encryptie een loze belofte is, dus de kans acht ik klein, mocht het zo zijn.

Je handelt natuurlijk wel nu met de gedachte op voorhand dat het al zo is, hier zijn audits voor nodig, op voorhand er een mening over hebben is prima, maar je zet het neer alsof het een feitelijk bewezen iets is.
@Finraziel beveelt aan, als ik het goed begrijp, dat de Whatsappclient nog steeds alles versleutelt, maar van de verstuurde afbeeldingen bovendien een hash maakt, en die naar Whatsapp stuurt om te kunnen detecteren of het een elders ook aangetroffen kinderpornoplaatje betreft. Op die manier zouden whatsappgroepen die voor dat doel worden gebruikt makkelijker kunnen worden opgespoord.
Zolang het om afbeeldingen gaat die niet al elders op het internet zijn gevonden, kan Whatsapp op basis van die hash niet achterhalen hoe het plaatje eruitziet. Voor de normale gebruiker is dat al met al niet echt een verzwakking van de end-to-end-versleuteling, lijkt mij.

[Reactie gewijzigd door Brousant op 26 juli 2024 09:50]

Het plaatje op je telefoon zelf is niet versleuteld als je hem opend in whats app. en kan op dat moment dus naar de hash worden gekeken. Dus ja whats app of de telefoon kan dat in theorie scannen. bedenk dat het verkeer tussen de telefoon encrypted is en niet op het moment als het bericht moet worden getoond.
Dan is de verbinding (die via Whatsapp gaat) idd versleuteld. Facebook kan niet je berichten lezen of de foto's/video zien. Maar er kan wel gevolgd worden waar bepaalde foto's/video's heen gaan. Wat de contacten zijn van een bepaald kanaal e.d.

De vraag is dan misschien eerder wie de controle moet/mag gaan doen of jij bepaalde data verzend/ontvangt.
En dit is los van de messenger (b.v. Whatsapp) of het systeem (b.v. android) |:(

[Reactie gewijzigd door cruysen op 26 juli 2024 09:50]

Het zou zelfs kunnen zonder iets naar de servers te sturen. Zorg dat de client een mini-database met hashes heeft (zeg 25.000 bekende plaatjes, dat is een half MB aan ruimte). Op die manier kan de client zelf checken of er iets aan de hand is en hoeft er in 99,9999% van de gevallen helemaal niets naar de server te worden gestuurd over de plaatjes die worden gedeeld.

Eventueel kan je die lijst met hashes nog wat korter houden en bij iedere update aanpassen zodat de mensen in die groepen hier ook bijna niet op kunnen anticiperen.

Zo hoeft niet alles op de telefoon altijd te worden gescand, blijft je privacy behoorlijk gewaarborgd en zit je nog steeds met een bagger chat-dienst maar dat is een heel ander verhaal ;)

Wat ik niet helemaal snap is echter; waarom in hemelsnaam via Whatsapp via een semi-openbare groep? Voor Whatsapp heb je een telefoonnummer nodig, lijkt me nogal erg veel gedoe om dan anoniem te blijven en de kans op het ontdekken van dit soort groepen is nogal erg groot. Ook kunnen de opsporingsdiensten bijzonder makkelijk checken of er illegale dingen gebeuren in zo'n groep, ze kunnen zichzelf zo aanmelden. Op die manier heb je helemaal niets aan de e2e encryptie van Whatsapp.

[Reactie gewijzigd door bartvb op 26 juli 2024 09:50]

lijkt een lastige kwestie maar is het inwezen gewoon niet. Ik vind dat er helemaal niet gescanned hoeft te worden. niet door watch app en ook niet door je telefoon zelf. Al hebben ze eerder ook el eens gehint op dat iedere besturing systeem zulk software zou moeten hebben. Maar waar stopt het scannen ?
De whatsapp groepen zijn bekend en dus dienen die niet eens gescanned te worden,want je kan ze blijkbaar op een andere manier vinden. Dat andere nog onbekkende whatsapp groepen zijn, dan is dat maar zo. Er zijn ook tig andere criminelen groepen op whatsapp die zich met andere zaken bezig houden. die ook niet direct kunnen worden opgespoord, moet daar dan ook een scan voor komen ?
Als we toch aan het scannnen zijn, kunnen we niet wat meer scannen ? misschien moeten we https verbinding verplicht worden gescannned op de server of mobiel/computer want je weet maar nooit waar daar allemaal op wordt verhandeld.
Het scannen stopt volgens mij al bij installatie vam een custom rom of is dat te gemakkelijk gedacht?
Dus als een slimme pedo/terrorist zijn plaatjes telkens voorziet van een nieuwe unieke code of het plaatje een beetje aanpast dan werkt dit systeem niet. 1 bit aanpassen is volgens mij direct een totaal andere hashwaarde. Denk dat de politie meer successen zal boeken door undercover te gaan zoals eerder benoemt.
Muziek kan heel goed herkend worden, als fragment, ook na afspelen via speakers, gemengd met omgevingslawaai, opgenomen met de microfoon in een smartphone, en dan gecomprimeerd verstuurd naar een vergelijkingsdienst (Shazam of zo).
Moet met plaatjes ook wel lukken.
Hashes van andere gedeelde plaatjes zullen ook bekend worden, zodat je ook kunt zien welke politieke inhouden, memes, etc je deelt. Het privacybezwaar lijkt mij wel groot.
"Oh, het is niet ons probleem hoor waar onze app voor wordt gebruikt. Maak van je telefoon maar spyware". Hmmm... ik denk dat die vlieger niet opgaat, omdat er ook telefoons zullen bestaan zonder die spyware. En raad eens wie die telefoons vooral zou gebruiken?

Dit argument van Meneer Facebook leidt uiteindelijk tot een verbod op custom ROMs. Want je moet die scanner verplicht maken, nietwaar?

Dit is een ontlopen van verantwoordelijkheid door FB. Bovendien: de suggestie 'dat ze niks zien want encryptie' is ook al niet juist. Verkeerspatronen zeggen heel veel (anders hadden ze geen miljarden betaald voor WA).
> (anders hadden ze geen miljarden betaald voor WA)

Ik denk dat de reden was concurrentie kleinhouden. In ieder geval is het een plausibele andere verklaring.

Whatsapp had, net als WeChat, facebook-achtige statusberichten/posts kunnen krijgen en een grote bedreiging voor FB kunnen worden. Voor een paar miljard is dat risico mooi uitgeschakeld.
Daarvoor hoeven ze geen informatie te delen met facebook. En al helemaal niet via een illegaal vormgegeven 'toestemmings'procedure.
Daarom laat je het de app doen die de 'meeste' mensen die Whatsapp gebruiken dan ook geinstalleerd hebben... Met een simpele MD5 ga je niks merken kwa CPU verbruik, paar duizend bestanden over een span van 24 uur een voor een rustig even hashen.
Encryptie in een app van Whatsapp, over servers van Whatsapp is natuurlijk nutteloos om Whatsapp/Facebook te vertrouwen, uiteraard zouden die er bij kunnen door gewoon de app aan te passen en de encryptie er uit te slopen of een backdoor in te bouwen, als dat vertrouwen omlaag zou gaan omdat de files worden gescand was er sowieso al misplaatst vertrouwen...
Een simpele MD5 ga je het niet mee redden. Het eerste wat er dan gemaakt wordt is een applicatie bij elke nieuwe afbeelding die op de telefoon komt, 1 pixel een random waarde geven. Dat ga jij niet zien in in de afbeelding, het gaat wel een geheel andere MD5 resultaat opleveren.
En ja, dat geheel automatisch, genoeg applicaties die automatisch nieuwe afbeeldingen uploaden/backupen naar een cloud omgeving.. Extra hook aan een dergelijk event en klaar.

Huidige scan methodes om foto's te vergelijken gaan echt wel iets verder om kenmerken eruit te halen om die te vergelijken.. En die zijn wel (meer) CPU intensief.
Dit is precies mijn issue met dit soort voorstellen.
Er zijn genoeg manieren om een afbeelding te verbergen of te encrypten zodat deze niet meer door een database te verifiëren is of gescand kan worden als verboden afbeelding.
En alhoewel het een uitdaging is om verdachte afbeelding of gesprekken te traceren en in te dammen moet dit niet betekenen dat iedereen maar continue op zijn vingers gekeken moet worden.
Als er in de voorwaarden staat dat er op kinderporno gescand wordt dan accepteert vrijwel iedereen die voorwaarden. Een paar privacyvoorvechters en een paar liefhebbers van die porno zullen er enorm van balen, en overstappen op een andere app die wel 'veilig' is, maar dan heeft WA haar straatje schoon.

Dat is natuurlijk ook de achterliggende gedachte van WhattsApp, het is dan minder interessant om ober te stappen als alle bestanden altijd bekeken worden, niet alleen als je iets via WA verstuurt.
In theorie kan wat je zegt, maar dan gaat iedereen wel naar Signal of Telegram of weet ik veel wat voor andere app. Hoewel, doe iets op telefoon-niveau en mensen gaan wel leren hoe ze moeten rooten ofzo...
Klopt... Alleen wij normaal volk waar het niet om te doen was blijft dan lekker vol in de surveillance staan. Mijn punt was ook niet per se dat ze moeten doen wat ik voorstel, mijn punt is dat áls ze iets willen doen dat ze dat prima in de app zelf kunnen doen en niet een nog veel zwaarder paardenmiddel in hoeven zetten.
Een aantalprivacyprincipialisten wel, maar zelfs al is het ten principiale een priavacyaantasting, wie durft in de klasseapp, tegen de buurvrouw of de potentiële vriendin te zeggen " nee ik gebruik geen Whatssapp want ik kan niet toestaan dat ze mij op kinderpornoverspreiding verkennen. Dat gaat heel heeeeeel rare blikken geven.
Ik verwacht dan ook geen massaal overstappen.

[Reactie gewijzigd door Schrudde op 26 juli 2024 09:50]

Wat denk je van al die mensen die nu moeten gaan verantwoorden aan vrienden en familie waarom ze gebanned zijn van Whatsapp? ;)
Het maakt een hash van je plaatje (soort van) en die gaat naar een server. Maw, die server weet de hashes van alle foto's die je hebt gedeeld, daarna is het maar een kwestie van tijd voor je een rainbow table voor plaatjes gebouwd hebt en de hashes zo goed als fotos zijn. Je verse foto's niet direct maar wel nadat jij ze op FB hebt gezet (of 1 van je vrienden).
Op de telefoon is het gewoon unencrypted te lezen.... (anders kun je het niet lezen). Kwestie van in de whatsapp software een hash/feature set laten maken van alle afbeeldingen en die hash naar een centrale server sturen.

Ja stukje privacy inleveren, maar zolang je er criminelen en dit soort uitwassen in de samenleving er mee kunt opsporen, ga lekker je gang!

Encryptie is voor mij belangrijk dat er niemand mee kan lezen op het verkeer tussen de Peers, een hash ban een plaatje bevat geen confidential informatie (je kunt er geen reconstructie van maken) dus moet prima kunnen.
Nee, ga niet lekker je gang.

Dit betekent dat je complete whatsapp verkeer (en als het op de telefoon gebeurt eigenlijk al je verkeer want waarom zou dit dan tot whatsapp verkeer beperkt blijven?) wordt bekeken door het bedrijf dat die centrale server beheert.

Want wat doet dit ding als hij een plaatje tegenkomt dat je zelf gemaakt hebt en waar de hash dus niet van bekend is? Dan moet hij dat gaan uploaden omdat hij die anders niet kan inspecteren. En dat is natuurlijk de volgende stap. Want wat heb je er aan als je nieuw materiaal niet kan identificeren. Bovendien is de helderheid van 1 pixel met 1 bitje aanpassen al voldoende om de hash totaal te veranderen. Dus dit doen zonder al het nieuwe materiaal te uploaden heeft vrijwel geen effect zodra ze overstappen op manieren om de plaatjes een klein beetje aan te passen.

Ja, pedo's zijn ziek en gevaarlijk en moeten hard aangepakt worden. Maar iedereen in de gaten houden is net zo'n groot probleem.

Wat ik heel erg mis is een rationele discussie. Waarom is de politie niet in staat om dit goed genoeg tegen te gaan met bestaande middelen zoals infiltranten? En is dat eigenlijk wel zo? Er is pas nog een enorme wereldwijde actie geweest. Wat denken ze dat nieuwe methoden toevoegen aan reductie hiervan (in acht nemend dat uitbannen gewoon onmogelijk is) en wat is de impact op de samenleving? Wat nu voorgesteld wordt is puur symptoombestrijding op een manier die over 2 maanden al uitgebreid omzeild gaat worden, en als je het echt goed wil doen dan heb je uiteindelijk een hele enge surveillancestaat.

[Reactie gewijzigd door GekkePrutser op 26 juli 2024 09:50]

scannen implementeren op een encrypte verbinding / gegevens is onmogelijk.
Woosh...

Hij zegt dat WhatsApp, de APP, niet de servers, afbeelding zou kunnen scannen alvorens die verstuurd worden.

Op die manier moet niet de hele telefoon gescand worden, enkel wat je verzendt.
Ze kunnen in-app wel scannen, waar het weer decrypted is. Vergelijk de hashes van de ontvangen images tegen een db, en rapporteer de user waar nodig.
Waarom zou het op de encrypted verbinding moeten? Jij lijkt er vanuit te gaan dat het gaat om een filter dat een of andere server uitvoert en dan een bericht niet accepteert. Maar wat let WhatsApp om een hash te trekken van een plaatje dat je aan een bericht toevoegt en dat plaatje niet te accepteren als de hash in een db van verboden plaatjes staat? Dat kan de client, zonder op enig moment de end-to-end encryptie te verbreken; die staat dan immers buiten spel want de scan vindt plaats voordat er überhaupt een bericht versleuteld hoeft te worden...
Wat heeft een server aan een hash die vergeleken wordt? En hoe wil je het scannen binnen whatsapp, zonder een complete database lokaal op de telefoon te zetten of de end-to-end encryptie te niet te doen?
https://realpython.com/fi...near-duplicate-detection/
Zoiets bijvoorbeeld. Je kunt prima die difference hash op het toestel bepalen en alleen die naar een server sturen die dan bepaalt of het op bekende afbeeldingen lijkt. Een enkele false positive hoeft ook niet direct een probleem te zijn maar groepen als waar ze het hier over hebben zouden zo makkelijk te detecteren zijn.
Dat kan, maar dan zit je wel met een onbetrouwbare encryptie, want wie zegt dat whatsapp alleen die hash maakt en stuurt?
Whatsapp communiceert nu toch ook al met hun eigen servers? Hoe weet je nu dan dat ze daar niet stiekem bv even een vlaggetje meesturen als jij bepaalde woorden gebruikt hebt in je chats?
Maar als ze alleen encrypted data sturen, hoe komen ze dan weer bij die vlaggetjes.
In de header van het encrypted packet? In de body, waarbij het bericht zelf in een encyrpted “envelop” zit? Legio mogelijkheden om informatie mee te sturen die FB/WA kan gebruiken voor analyse van gesprekken zonder daarvoor de end-to-end encryptie te hoeven compromitteren.

Onthoud dat WA een end-to-end ecnryptie biedt, niet een garantie dat zij jouw berichten niet kunnen/zullen analyseren.
Je weet nu ook al niet of WA stiekem dingen naar eigen servers stuurt, om je gesprek heen.
De suggestie dat geen end-to-end encrypty een beter alternatief is is net zo belachelijk uit oogpunt van privacy.

Als je verplichte scans op je client niet wenst om privacyredenen, hoe kan je om privacyredenen dan doorbreekbare encryptie beter vertrouwen.

Beiden situaties lever je op privacy in. Hoeveel hangt af van de controleerbaarheid van de toepassing. En die is er voor gebruikers misschien op de eigen client maar niet bij de doorbreekbare communicatie.
Mijn suggestie zou helemaal de end to end encryption helemaal niet aanraken. Alleen naast die versleutelde verbinding berekent het toestel ook een hash en stuurt die naar een server.
Is dat wenselijk? Dat is een tweede punt. Mij ging het er vooral om dat Whatsapp, als ze vinden dat dit moet gebeuren, het dan lekker zelf in hun eigen app stopt. Liever helemaal niet inderdaad, maar beter dan in het os zelf.
Daarbij; wat is kinderporno? Als je ergens op gaat "scannen" moet je defineren wat het exact is. Want doe je dit niet krijg je 100% zeker false positives.
Ik begrijp dat het gaat om vergelijking met bestaande databases. Maar daar zit meteen wel een joekel van een probleem, nieuwe gevallen detecteeer je dan niet. En als je iets niet wil is dat ze meer verse fotos gaan maken omdat die wel gedeeld kunnen worden. Dat zou je het allerhardst moeten willen monitoren omdat je dan concreet nog onbekende slachtoffers zou kunnen bevrijden uit hun invloed.
Fuzzy hashing is geen privacy invasie hoor. Telefoon berekend een cryptografische waarde die niet perse herleidbaar is en doet een lookup ergens.

Probleem is eerder dat het totaal ineffectief is. De communicatie onder pedofielen is best goed en iedereen kan een custom ROM bakken.
Wel een leuk stukje uit het bronartikel van Techcrunch:
Given that Tumblr’s app was recently temporarily removed from the Apple App Store for allegedly harboring child pornography, we’ve asked Apple if it will temporarily suspend WhatsApp, but have not heard back.
Als Apple consistent zou zijn, dan zouden ze ook WhatsApp blokkeren.

Verder is dit een gevolg van het gebruik van technologie. End-to-end encryption zorgt ervoor dat Facebook niet kan meekijken (mits goed geïmplementeerd), maar het is nog steeds aan Facebook om iets te doen met metadata waaruit blijkt dat er kinderporno gedeeld wordt. Kanaalnamen zoals “Children 💋👙👙” en “videos cp” worden niet versleuteld en daar zou gewoon op gescand kunnen worden. Dat kon al gedaan worden met bijvoorbeeld Groups for WhatsApp (recentelijk verwijderd uit de Play Store, terwijl er in juni nog een update was).

Dat lost natuurlijk niet het hele probleem op, maar Facebook moet sterker laten zien dat ze alle zichtbare indicatoren gebruiken om de verspreiding van illegaal materiaal te voorkomen. Kanaalnamen zijn gewoon zichtbaar.

[Reactie gewijzigd door The Zep Man op 26 juli 2024 09:50]

Moeten ze Canon en Nikon niet verplichten een filter in hun camera’s in te bouwen zodat er geen kinderporno meer opgenomen kan worden? Lijkt me nog veeeeeeeel effectiever...
Het idee is zo gek nog niet, als je weet dat veel professionele scanners bvb een algoritme aan boord hebben om geld te herkennen en weigeren dat te scannen. Ik dacht zelfs dat er ook iets dergelijks in Photoshop zit.
Dat is geen beeldherkenning, maar patroonherkenning wat veel simpeler is. Als je geïnteresseerd bent in hoe een scanner waarde documenten herkent, Google dan eens op “eurion constellation”. Spoiler: elk waardedocument betvat een patroontje in de vorm van een “sterrenstelsel”.
Misschien moeten we dat patroon maar over de lichamen van onze kinderen tattooeren voor makkelijkere herkenning van naaktbeelden. Om het dan vervolgens allemaal weg te laseren als ze 18 worden. :+

BTW, deze beveiliging was nog wel is een probleem toen ik nog bij een reprografisch bedrijf werkte ("drukkerij"), als er een false-positive was weigerde de printers dienst en moest er een service monteur komen om deze te unlock-en zodat de opdracht alsnog geprint kon worden.
Idd. Zelfde geldt ook voor dingen als paspoorten en (papier) geld. Veel scanners blokkeren dat automatisch.
Oh ja? Hoe maak ik dan meerdere malen op verschillende apparaten een scan van mijn paspoort?
Andersom zitten er in prints ook patronen die herleidbaar zijn aan de unieke printer. Het probleem is wel dat iedere foto herleidbaar maken aan de camera waarmee ie genomen is ook wel echt een privacy probleem is online, en dat compressie bestaat.
Maar ehm hoe zit het dan met een vader of moeder die hun kinderen filmen bij het zwembad of aan zee?

Daarnaast weet ik niet of het een goed idee is om de producent te laten bepalen wat wel en wat niet gefilmd mag worden. Ook meteen maar een anti-bloedfilter inbouwen? Anti-wapen?
Of naturisten, of überhaupt ouders of andere familieleden en naasten die foto's van kinderen maken.

Een momentopname van een trotse dochter in turnpakje met medaille bij een turnwedstrijd; een kleinzoon die onbekommerd een zandkasteel bouwt op een naakstrand, selfies van een brugklasser die haar nieuwe bikini showt aan vriendinnen, en helemaal mooi: kunst, soms eeuwenoud en wereldwijd geroemd om de schoonheid ervan, met minderjarig naakt.

Los van de extreme vormen ervan, kunnen algoritmes niet makkelijk zien of iets (kinder)porno is, omdat het verschil vaak exclusief in het hoofd van de kijker gevormd wordt. Wat voor de meerderheid overduidelijk onschuldig is windt sommigen nou eenmaal op. Ga daar maar eens een algoritme voor schrijven.

Wat ze wel kunnen is alles wat maar enigszins op minderjarig en een staat van ontkleding wijst markeren als kinderporno. Voor een extreem puriteins ingestelde burger is dat misschien fijn, maar dat lijkt mij niet wenselijk in een gezonde maatschappij.

Ik kan me trouwens goed voorstellen dat het voor veel mensen een nare schok gaat zijn als ze plotseling een bericht van WhatsApp ontvangen met daarin een beschuldiging van het versturen van kinderporno nadat mama een foto van een dagje aan zee met de kinderen naar oma stuurde.
Heb je gehoord van die scenario's in de VS waar een minderjarige een dick pic naar een vriendin stuurt, en beschuldigd wordt van het verspreiden van kinderporno?

Ik zou helemaal geen foto's van baby in het bad verspreiden als ik een brave moeder was. Je weet maar nooit hoe de wet er zal uitzien, en het internet vergeet niet.
:-) dat kan wel eens dichterbij zijn dan je denkt. Hoewel veel software op dit moment nog nauwelijks gezichten goed kan herkennen, laat staan het onderscheid kunnen maken tussen een blootfoto van een kind of een promo foto van een kind.... Maar geef ze eens 10 jaar? De techniek staat niet stil natuurlijk..
Ja kinderen standaard blurren. Ook goed vanwege hun privacy. :P
Die scan zou afbeeldingen op de telefoon cryptografisch moeten matchen met bekende databases van kinderporno om zo na te gaan of de gebruiker kinderporno bekijkt in WhatsApp
Wouw. Dus software die buiten chat apps om alles wat je bekijkt scant en verstuurt naar en externe server om te matchen.

Ja, dat zal en populaire telefoon worden. Denk dat veiligheidsdiensten watertanden bij het idee.
Welk idee precies? Dat een hash van je foto de deur uit gaat? Daar kan je echt helemaal geen fluit mee.

Een logischere en betere oplossing is iets als de Safe Browsing API. De "update" variant welteverstaan. Dit is een te downloaden lijst van onveilige URL's. Daarmee geef je niets weg aan Google.

Zoiets zou je ook kunnen doen voor foto's.

En ik zeg niet dat het moet, of dat het zelfs maar slim is, maar je "mijn privacy!!!111"-argument slaat kant noch wal.
"Daar kan je echt helemaal geen fluit mee"...denk je dat echt? Even los van het hele kinderporno onderwerp kun je daarmee aantonen dat een bepaald persoon een bepaalde foto heeft of wil versturen. Je kan de foto niet zelf zien, maar dat is ook nergens (meer) voor nodig.

Techneuten veranderen dan net een detail aan de foto waardoor de hash compleet anders wordt, maar de massa doet dat niet. En zo identificeer je snel anti-overheid propaganda. De Chinese overheid zit al te juichen.

De Safe Browsing API is client-side... dus dan verwacht je dat mensen die bewust iets illegaals aan het doen zijn, dat eerst tegen een checklist aan gooien.

Het gaat overigens niet over 'mijn privacy', maar privacy in het algemeen. Ik verbaas me over de manier waarop we er met z'n allen groot voorstander zijn van zijn, maar dat een onderwerp als kinderporno of terrorisme alle (nog niet eens gemaakte) argumenten kennelijk soepel van tafel veegt. Of je hebt het [privacy] wel, of je hebt het niet.
Dat iemand kan inzien wat ik zie, vandaag is het een hash van kinderporno, morgen is het een hash van erdogan in drag en daar sta je dan op je vakantie in Turkije uit te leggen waarom jij die foto hebt gezien.

De joden vervolging begon met een ordinaire volks telling, gewoon registreren wat het geloof is, onschuldig toch?

Laten we niet vergeten dat dit nog steeds bestaat https://nl.wikipedia.org/...sschennis#Wettelijk_kader

De koning in zijn onderbroek, wil jij dat er een lijst bestaat van wie die foto heeft gezien in de toekomst als er weet ik niet wie aan de macht is?
De software maakt gewoon hashes van je bestanden en vergelijkt die, de bestandsnaam, extensie, formaat, inhoud en overige informatie komt daar niet bij kijken.
Er wordt dan ook geen informatie naar een externe server gestuurd, enkel de hash van een bestand.
Ja want anders zou jij illegaal kinderporno aan het verspreiden zijn aan externe websites, wettelijk gezien. En heeft de scan server ook een groot probleem.

[Reactie gewijzigd door MrFax op 26 juli 2024 09:50]

Toch vraag ik mij wel af, hoe kunnen ze uit de hash zien of het gaat om kinderporno, of om bijv. pikante foto's van modellen? Wordt er met algoritmes bijv. nagekeken of op de foto een kind is of een model? Of woden alle pikante foto's als mogelijk kinderporno gemarkeerd en dat ze het handmatig het nakijken?

Zit zelf in een aantal groepen waar soms pikante foto's van verschillende modellen komen, maar ook op FB heb je van dat soort groepen, waar regelmatig pikante foto's van modellen worden geplaatst.

Ik juich het natuurlijk toe dat ze zo veel mogelijk kinderporno weghalen, maar denk dat het wel altijd zal blijven. Dark web blijft nog steeds # 1 als het gaat om illegale activiteiten en anoniem zijn. Ben wel benieuwd hoe het over paar jaar het zal zijn en of er dan een uploadfilter zou komen.
Mooiste zou natuurlijk zijn dat foto's automatisch gescand worden op kinder / wraakporno (als FB gezichten kan scannen, dan kunnen ze ook foto's in een vroeg stadium herkennen).

Het nadeel is dat bijna iedereen zich aan de regels houdt, alleen door een selecte groepje worden die regels misbruikt en wordt iedereen aangesproken / gestraft.
Dat is het nadeel van hashes, iemand (of een automatisch systeem) zal zelf de hashes van kinderporno moeten registreren, zodat als er een match is het systeem weet dat het om dergelijke content gaat.
Hashes zelf kunnen dus niet zien dat het een foto is, laat staan wat er op de foto staat, enkel dat die hash eerder is geregistreerd in het systeem als kinderporno.
Mogelijk dat ze in samenwerking met Politie etc. een database van dat soort hashes opzetten, die door mensen handmatig wordt aangevuld met materiaal uit politie-zaken maar misschien zouden ze een soort AI ervoor gebruiken, hoe die de keuzes maakt bepaalt wat wel en niet mag.
De hashes zelf kunnen niet zien wat wel en niet acceptabel is.
Hashes kunnen wel robuust gemaakt worden door niet bit-voor-bit te werken. Muziek te te herkennen via speakers en microfoon, maar ook zelf (slecht) zingen kan genoeg zijn het nummer te herkennen.
Moet met plaatjes ook lukken.
Maar dit is er net zo een als AirBnB die beweert dat ze geen rapportages kunnen maken.
Als ik kijk naar Microsofts PhotoDNA, dan wordt er een hash gemaakt, die dan vergeleken wordt met een database van hashes. Er wordt dus niks bekeken met algoritmes en de kans dat 2 verschillende foto's dezelfde hash hebben, lijkt mij erg klein.
goed maar wie zegt dat het beperkt blijft tot kinderporno?
kp is natuurlijk de "lokker" voor MSM om dergelijke privacy schending goed te praten. Volgende stap is terorristische foto's bv IS die mensen het hoofd afhakt.

Uiteindelijk gaan de AIVD, etc. Brein, etc. gewoon lekker meegluren.
(alu hoedje op) Dat lijkt ook precies de achterliggende gedachte.(alu hoedje af) Weer een argument om encryptie te verzwakken of achterdeurtjes te forceren. Post wordt ook gebruikt voor kinderporno. moeten we dan het briefgeheim maar afdanken? Terrorisme en kinderporno, de twee meest misbruikte argumenten om gewone burgers privacy loos en rechteloos te maken.
WhatsApp zou dit op de telefoon scannen, ze zeggen niet dat de telefoon al de foto's in alle apps moet scannen.
Dus als je een foto maakt van je zoon met een kind van school op de achtergrond op het schoolplein die voorkomt in pornofilmpje van een buurman dan wordt je ook geboekt als pornobezitter of toerist? Dat is alsof ik bekend sta als drugsgebruik bij de Amerikaanse Ambassade, doordat ik altijd in de koffieshop met vrienden zo nu en dan risk speel of een potje klaverjassen speel en dat terwijl ik nooit gerookt hebt.

Ik weet dat facebook en Whatsapp foto;s scannen op omgeving,personen, kleuren, kleding, etc, en dat het wellicht op deze manier kan en zou op zich niet verkeerd zijn om een slachtoffer te vinden en de omgeving om zo de dader te pakken. Het zijn vaak mensen die bekend zijn.

Wat ik wel weet dat er honderden groepen zijn die gegevens uitwisselen. Ik heb ooit een artikel gelezen over een onderzoek waarin werd gekeken hoe men in deze groepen kon komen en hoe men elkaar vindt. De manieren van communicatie cq adverteren en uitnodigingen wees erop dat er honderden groepen aktief moet zijn op whatsapp. De Nederlandse politie was ook erg aktief om dit soort groepen te vinden, wat ook veel succes heeft. Vorige eeuw en zelfs halverwege de 20ste eeuw dat mannen zelfs een castratie moesten ondergaan Het probleem is blijkbaar dat er veel pedofielen zijn en dat is best wel eng als je zelf ook kinderen hebt. Ik weet alleen niet meer waar ik dat gelezen heb.

[Reactie gewijzigd door Noresponse op 26 juli 2024 09:50]

Zoals door andere reacties op mijn bericht al opgemerkt werd, zou er voor zo'n systeem waarschijnlijk gewerkt worden met hashes van bestanden. Jouw persoonlijke bestanden zouden niet snel in zo'n database voorkomen, tenzij ze ineens in honderden van dit soort dubieuze groepen gedeeld worden, dat valt op.

Maar als het niet moeilijk is om bij deze semi-openbare groepen te komen, wat voegt het automatisch scannen van die afbeeldingen dan nog toe? Kun je mensen dan niet binnen die groepen herkennen en opsporen? Zo makkelijk zal het vast niet zijn, maar ik zie de toegevoegde waarde van het automatiseren (nog) niet.
Kaastosti dat klinkt beter.
...neemt overigens niet weg dat ik tegen een dergelijke manier van controle ben. Het doel sta ik helemaal achter, maar het heiligt de middelen naar mijn mening nog steeds niet. Want als dit kan, dan kun je in theorie dus van een willekeurige afbeelding aantonen dat iemand deze bezit/verspreid. Als het in theorie kan, gaat het in de praktijk gebeuren.
Onedrive en andere diensten doen dit net zo goed.
Bij Microsoft gaat ook bijna alles door PhotoDNA heen, het kinderporno opsporingstooltje van MS wat o.a. door de Nederlandse politie gebruikt wordt.

Je kunt het allemaal heel eng vinden. Zolang het geautomatiseerde systemen zijn en jou data wordt verwijderd zodra het 'safe' blijkt te zijn... Wordt hier een heleboel leed mee voorkomen en worden hier een boel smerige gasten mee opgepakt.
Dat men dit soort gasten moeten berechten voor een lange tijd staat vast. Hoe groter de pak kans hoe beter idd.
Tis jammer te lezen dat het gebeurt, maar zeg nu zelf: Indien ze hier gebanned worden vinden ze hun heil dan niet weer ergens anders? Het is dweilen met de kraan open. Er zou een oplossing voor die mensen gevonden moeten worden mits ze natuurlijk geholpen willen worden.
Behalve ze bannen van WA zou je ze natuurlijk nog kunnen aangeven bij de politie oid. Maar dan zal WA wel bewijzen moeten kunnen overleggen wat er in die groepen gebeurt.
Wat @anpat probeert te zeggen is dat door het uitwissen van kinderporno de pedofielen niet minder pedofiel worden. Die gevoelens blijven maar ze worden onderdrukt, waardoor ze misschien op een gevaarlijker manier tot uiting komen.
En door foto's en video's te zien zullen ze minder zin hebben in seks met kinderen?
Misschien is het geen gek idee om daar eens onderzoek naar te doen, want bestaande foto's en video's bekijken op je zolderkamer is nog altijd minder schadelijk dan nieuwe slachtoffers maken.

Het probleem is dat dat onderzoek niet gedaan wordt maar er bij de gedachte van pedofilie al in een stuip geschoten wordt en iemand het liefste in een donkere cel moet worden opgesloten met de sleutel in een put gegooid.
Moet daar echt onderzoek naar gedaan worden? Het lijkt me logisch dat het bekijken van kinderporno zin in echte seks met kinderen geeft voor dat soort mensen. Als ik porno kijk krijg ik ook zin in seks. Waar de ene genoeg heeft aan porno en een zakdoek ga ik op zoek naar seks wat vandaag de dag poepsimpel is.

Natuurlijk zullen er wel pedofielen zijn die genoegen nemen aan video en een zakdoek maar er zal toch ook wel een deel zijn dat geen genoegen neemt met wat virtueel gedoe.
En die zin in seks met kinderen verdwijnt spontaan als je ze gaat zeggen dat wat er in hun hoofd gebeurt, hartstikke crimineel is en mensen ze het liefste aan de galg opgeknoopt willen zien? Zo lang de gordijnen maar dik genoeg zijn, zien we het als maatschappij niet en hoeven we niets aan het probleem te doen?

Pedofielen durven nu al niet voor hun stoornis uit te komen, ook niet bij de GGZ, omdat ze bang zijn dat er gelijk een politieagent de deur intrapt om ze op te halen.

Dat je zin in seks krijgt doordat je porno kijkt betekent nog niet dat je vrouwen gaat verkrachten. Net zo min als een potje Call of Duty mij de behoefte geeft om een vliegveld overhoop te gaan schieten.

Porno kijken is een passief iets, terwijl 'op jacht gaan' iets is waar je actief voor moet handelen. Die zin in seks met kinderen is iets wat ze niet kunnen beheersen, maar ze hebben alle controle over de handelingen die ze als gevolg daarvan doen.

[Reactie gewijzigd door Stoney3K op 26 juli 2024 09:50]

Dat ik zin krijg in seks wil inderdaad niet zeggen dat ik vrouwen ga verkrachten, maar het wil wel zeggen dat "de jacht" op vrouwen is ingezet. Ik ga dan langs de kapper en een pedo gaat dan langs de snoepwinkel om zich voor te bereiden.

Beetje belachelijk om porno met cal of duty te vergelijken. Mensen hebben dagelijks zin in seks, enkel mensen waar iets zwaar mis mee is hebben dagelijks zin iemand te vermoorden. Wat doen we met mensen die zich niet kunnen beheersen en een moord plegen? Die sluiten we op, we gaan ze geen snuff video's geven zodat ze niet gaan moorden.

Als je kinderporno nodig hebt, is er iets mis met je en heb je geen plek in onze maatschappij. Je hoort dan in een gesloten instelling waar de rest van de maatschappij geen last van je heeft. Al dat pedo's-zijn-ook-mensen gedoe hoeft echt niet. Mensen die een gevaar vormen voor de maatschappij sluiten we op en pedo's zijn een gevaar voor de maatschappij.
Als je kinderporno nodig hebt, is er iets mis met je en heb je geen plek in onze maatschappij. Je hoort dan in een gesloten instelling waar de rest van de maatschappij geen last van je heeft. Al dat pedo's-zijn-ook-mensen gedoe hoeft echt niet. Mensen die een gevaar vormen voor de maatschappij sluiten we op en pedo's zijn een gevaar voor de maatschappij.
Jij bent dus voor gedachtenpolitie en mensen die (onvrijwillig) één of andere kortsluiting in hun hoofd hebben, gewoon opbergen in een hok alsof het onhandelbare beesten zijn, in plaats van te onderzoeken waar het vandaan komt en of er hulpverlening en veilige uitlaatkleppen mogelijk zijn? Als ze niet op die gevoelens handelen door slachtoffers te maken, dan moet het nog altijd als crimineel worden aangepakt?

Goed, dan ben ik van mening dat jij ook een gevaar vormt voor de rechtsstaat en dus de maatschappij.

[Reactie gewijzigd door Stoney3K op 26 juli 2024 09:50]

Ohja hier gaan we hoor. Als je geen pedo's in de maatschappij wil ben je een gevaar voor de rechtstaat. |:(
Hoe ga je bepalen (en vooral bewijzen) of iemand 'pedo' is als ie zijn handen thuis houdt? Wat schieten we er als maatschappij mee op om iemand te veroordelen om gevoelens die hij alleen in zijn hoofd heeft? Als we die kant op gaan, dan zetten we de deur wagenwijd open voor een heksenjacht.

En voor 'kinderporno' hoeven er geen slachtoffers te worden gemaakt. Nog afgezien van het feit dat er gigantisch met twee maten gemeten wordt (een filmpje van een kind wat vermoord wordt is bewijsmateriaal, kinderporno is illegaal om te bezitten of kijken), kan zoiets prima opgelost worden door virtuele kinderporno waar geen kind bij in de buurt hoeft te komen.

Het enige tegen-argument wat dan nog overblijft is of je misschien latente pedofiele gevoelens ermee aanwakkert, maar dat is nooit onderzocht. En normale mensen zal het niets doen -- van gay porn word ik ook niet spontaan homo.

Pedofilie is een ander probleem dan mensen die actief kinderen verkrachten. En het probleem is niet dat we er iets tegen willen doen, het probleem is dat er vanuit de onderbuik wordt geredeneerd want "denk toch aan die tere kinderzieltjes!" en het doel de middelen heiligt.
Wat moet je met kinderporno als je geen pedo bent? Is toch redelijk simpel te bewijzen en vast te stellen lijkt me.

Een filmpje van een kind dat wordt vermoord is net zoals kinderporno bewijslast van een misdrijf. Er wordt daar niet met 2 maten en gewichten gewogen. Mensen die filmpjes van vermoorde kinderen op hun pc hebben staan daar is ook iets mis mee.

Jij probeert vooral alles wat krom is recht te praten. Pedo's zijn een gevaar voor onze maatschappij. Daar moeten we geen onderzoek naar doen, we weten wat het probleem is en we weten ook hoe we ermee moeten omgaan. Wat is het volgende? Begrip tonen door slaapweekendjes te organiseren voor pedo's? Doe eens normaal. We hebben het hier over kinderen en jij hebt het over pedo's die hun handen kunnen thuis houden? Een kind weet niet wat zich afspeelt in het hoofd van een pedo en een opgehitste pedo ook niet wat zich afspeelt in het hoofd van een kind dus laten we asjeblieft stoppen met begrip te tonen voor pedo's. Zo kunnen we voor elk ongewenst gedrag begrip gaan vertonen.

En porno filmpjes met virtuele kinderen is even goor als echte kinderporno. Ik denk dat je daar je vergelijking met call of duty vandaan haalt. Mensen spelen geen call of duty omdat ze een innerlijke drang hebben om mensen kapot te maken. Ik heb nog second life meegemaakt waar er ook allerhande seks themed events waren en dat is totaal niet vergelijkbaar met het model waarop video games gebaseerd zijn. Video games zoals call of duty werken op een model dat onze hersenen als beloningen ervaren. Beetje vergelijkend met drugs. Vandaar de populariteit van lootboxes in het genre. Virtual sex is daar helemaal niet mee te vergelijken.
Pedo's zijn een gevaar voor onze maatschappij. Daar moeten we geen onderzoek naar doen, we weten wat het probleem is en we weten ook hoe we ermee moeten omgaan. Wat is het volgende? Begrip tonen door slaapweekendjes te organiseren voor pedo's? Doe eens normaal.
Wat is het alternatief? Elke vermeende pedo standrechtelijk executeren zonder enige vorm van bewijs. Want vertel mij maar eens hoe je gaat bewijzen dat iemand pedo is. En hoe wil je omgaan met mensen die zelf worstelen met die gevoelens, maar er niets mee willen doen, behalve er hulp voor zoeken? Je in je handjes wrijven en roepen "Haha, we hebben er weer een" waardoor iemand zijn eigen doodvonnis tekent?

Je probeert hier de discussie te polariseren door te stellen dat we pedofielen maar óf in de watten moeten leggen en doen alsof het een normale seksuele geaardheid is, óf ze moet behandelen als een onbeheersbare untermensch waardoor we kunnen rechtvaardigen dat het begrip "mensenrechten" niet voor die personen opgaat.

Het is nou eenmaal een geestelijke ziekte en de normale manier om daar in een maatschappij mee om te gaan, is die ziekte te behandelen. Niet mensen gaan ophokken in een gesticht omdat we dan kunnen doen alsof het probleem niet meer bestaat. Die tijd zijn we als maatschappij (hopelijk) ontgroeid.
Nee ik probeer helemaal niet de discussie te polariseren, dat doe jij door over executies te praten en me dingen in mijn mond te leggen die ik niet heb gezegd Jij probeert hier gewoon om pedofilie goed te praten en dat gaat me gewoon te ver.

Wanneer iemand kinderporno bezit of verspreid stop je ze gewoon in een instelling voor de rest van hun leven. Dat doen we ook met andere mensen die gevaarlijk zijn voor de maatschappij. Kinderporno is gewoon iets dat geen enkele normale mensen zou opslaan.
Jij probeert hier gewoon om pedofilie goed te praten en dat gaat me gewoon te ver.
"Niet met ons is tegen ons"-argument. Ik praat nergens pedofilie goed, ik ben alleen van mening dat er geen enkele reden is om iemand als een on-mens te behandelen en het recht op een eerlijk proces en een eerlijke strafmaat maar uit het raam moet. Als we dat namelijk gaan doen, dan weet je nooit wat een toekomstige overheid met die macht gaat doen.

Er is geen enkel geval waarin het doel de middelen moet heiligen, want dat is uithollen van de rechtsstaat.
Wanneer iemand kinderporno bezit of verspreid stop je ze gewoon in een instelling voor de rest van hun leven. Dat doen we ook met andere mensen die gevaarlijk zijn voor de maatschappij.
In Nederland stoppen we nooit mensen voor de rest van hun leven weg, want het Nederlandse strafsysteem is gericht op rehabilitatie van iemand. Zelfs moordenaars en serieverkrachters duwen we niet eindeloos in een cel, die proberen we met psychiaters te behandelen zodat ze uiteindelijk in de maatschappij mee kunnen doen.

Of dat lukt is een tweede vraag en wat je moet doen met mensen die "onherstelbaar" zijn is daarin een heel erg heet hangijzer, want levenslang opsluiten is net zo inhumaan als iemand direct een spuitje geven. Bovendien is het bepalen of iemand onherstelbaar voor de maatschappij is of niet, niet iets wat je objectief kan vaststellen, dus daar zullen altijd fouten in gemaakt worden.

Sowieso had ik het vooral over het geval dat iemand pedofiele gevoelens heeft en daar zélf hulp bij wil zoeken, en dus geen kinderporno bezit. Of het bezit van kinderporno bestraft moet worden vind ik echt een twijfelgeval, want hoe je het ook bekijkt, het blijft alleen informatie, een waarneming van iets. Dat het nu iets ziekelijks is wat je waarneemt, maakt die waarneming zelf nog niet crimineel.

[Reactie gewijzigd door Stoney3K op 26 juli 2024 09:50]

Als iemand daar hulp voor zoekt dan bestaan daar telefoonlijnen voor in Belgie. Je wordt niet bestraft omdat je er wil over praten. Je wordt bestraft voor het bezit van kinderporno. Is toch simpel? Ik zie dan ook echt niet in waarom er nog onderzoek moet gebeuren. Denk je nu echt dat je mensen van pedofilie kan genezen? Ik geloof daar echt niet in of toch niet zonder drastische en waarschijnlijk gevaarlijke ingrepen in de hersenen waar we vandaag de kennis nog niet over bezitten. Als je pedo's kinderporno gaat voederen ga je ze echt niet genezen.
Als je pedo's kinderporno gaat voederen ga je ze echt niet genezen.
Dat is dan ook een middel tot damage control meer dan iets anders.

Als mijn buurman pedo is en hij in de maatschappij kan functioneren door op zijn zolderkamer te rukken op virtuele kinderporno (naast het accepteren van hulpverlening) waardoor hij niet aan mijn dochter gaat zitten, dan weet ik wel welke van de 2 kwaden ik kies.

Bovendien is het grootste deel van kindermisbruik geen gevolg van pedofilie (dat is maar een klein aandeel) maar vooral van machtsmisbruik, vaak van een bekende binnen de familie of vriendenkring.
Het bezit van foto's en videos is al illegaal.

Daarnaast denk ik dat pedofielen over het algemeen niet (graag) meewerken aan onderzoeken (zij het case studies of grote onderzoeken), net zoals criminelen.
Het bezit van foto's en videos is al illegaal.
Is het maatschappelijk wenselijk dat het bezit illegaal is?

Pedofielen (dus niet pedoseksuelen) kunnen er niets aan doen dat ze seksuele gevoelens voor kinderen hebben, foto's en video's (al dan niet van gegenereerde beelden) zijn dan een veilige uitlaatklep om te voorkomen dat een pedofiel ook pedoseksueel wordt.

Als maatschappij collectief onze ogen sluiten en doen alsof pedofilie gewoon niet bestaat is in ieder geval iets wat we NIET moeten doen, net zo min als mensen met die gevoelens bij voorbaat criminaliseren als ze niks fout hebben gedaan, want dat staat hulpverlening in de weg.
Je eerste zin ben ik het mee eens, en is de reden dat ze bekend moeten worden bij instanties, bijvoorbeeld via de politie, maar dat mag van mij ook via de gemeente of GGD oid.
Je tweede zin klopt ook, maar is dat een oproep om kinderporno toe te staan? Dat is me niet helemaal duidelijk. Ik realiseer me dat er 2 scholen zijn op dit gebied, en ik weet niet welke versie meer slachtoffers oplevert, maar ik weet dus niet wat die implicatie nu inhoudt.
In plaats van dat je ze steeds achterna zit op facebook / het dark web / verschillende messaging platformen en altijd een stap achter loopt, zou het wellicht beter zijn om het probleem bij de bron op te pakken. Hoe dat kan - geen idee, maar beeld hebben op wie en wat, is vele malen beter dan het symptoom bestrijden en doen alsof je met een software-filter alle problemen oplost.

Wat ik van het artikel ook mis, is wat er dan met die mensen in die groepen gebeurt. Worden ze alleen verbannen? Waarom wordt de politie niet ingelicht? Ze hebben immers de 06-nummers.
Die 06 nummers kunnen ook gewoon prepaid zijn en dan begin je vrij weinig. Simmetje van bijv lebara, even whatsapp activeren en simmetje weer opbergen.
Dan zou je het misschien al moeten kunnen koppelen aan bijv een account voor de appstore en android gebruikers kunnen gewoon n losse installatie doen... Dus je blijft achter de feiten aanlopen
Over encrypted data?

Als ze daar zelf bij kunnen vallen ze zwaar door de mand.

Daarnaast elke foto via whatsapp is verminkt dus is ook het gebruik maken van een hash database mogelijk een stuk lastiger.
Over encrypted data?
De naam van de group chat is gewoon publiekelijk zichtbaar. Ook zijn de de telefoonnummers van accounts (en andere identifiers die ze via de WhatsApp applicatie binnenhalen) die in die groep zitten bekend bij Facebook. Dat gecombineerd met een undercoveractie zou voor Facebook voldoende moeten zijn om naar de politie te stappen.

Het blijft overigens nog steeds een lapmiddel.

[Reactie gewijzigd door The Zep Man op 26 juli 2024 09:50]

Ja undercover kan natuurlijk wel. maar dat blijft een politietaak. Daarnaast welke politie. Ik bedoel als ik en een amerikaan in de groep zitten. Mag de BE politie dan iets zeggen over iemand uit NL en US.

Lastiger nog als er iets gebeurd wat in land X legaal is. en de groep komt orgineel uit dat land is het dan wel illegaal?
Zijn er landen waar kinderporno legaal is? Volgens mij niet. In de meeste landen zal porno in het algemeen illegaal zijn, zelfs wanneer sex met een kind wel legaal is. In landen waar porno an zich metaal is, stelt de wet voor zover ik weet altijd minimum leeftijden en expliciete toestemming als voorwaarde.
Misschien wel dat dat al vanaf 16 legaal is, waar andere landen 18 of 21 als grens telt.
Dat beschouw ik even als een randgeval, net zoals de 17-jarige puber die een naaktselfie verstuurt en dan als "sex offender" wordt afgeschilderd omdat ze zou geilen op minderjarigen, want ze maakt seksueel getinte foto's van minderjarigen... namelijk zichzelf.

[Reactie gewijzigd door Stoney3K op 26 juli 2024 09:50]

Zijn er landen waar kinderporno legaal is?
Ja. Een een enkel land in Zuid-Amerika (Guyana) en wat landen in Afrika.
Jammer genoeg valt Wiki met enige regelmaat door de mand.

Er is geen specifieke wet ivm kinderporno, alleen betekent dat niet dat dat legaal maakt. Sterker nog, in de meeste landen is pornografie in elke vorm illegaal en staan er zwaardere straffen dan die we hier hebben mbt kinderpornografie.

https://www.icmec.org/pre...hild-pornography-a-crime/

Daar wordt dan een opsomming gemaakt van een x-aantal landen,
Afghanistan, Algeria, Angola, Antigua and Barbuda, Bahrain, Benin, Burkina Faso, Central African Republic, Chad, Comoros, Congo, Cote d’Ivoire, Dominica, Equatorial Guinea, Eritrea, Ethiopia, Gabon, Ghana, Grenada, Guinea, Guinea Bissau, Guyana, Haiti, Iran, Iraq, Kiribati, Kuwait, Lebanon, Lesotho, Libya, Maldives, Marshall Islands, Micronesia, Mozambique, Namibia, Nauru, Niger, North Korea, Pakistan, Palau, St. Lucia, Samoa, Sao Tome and Principe, Solomon Islands, Somalia, Swaziland, Syria, Tajikistan, Turkmenistan, Tuvalu, Uzbekistan, Yemen, and Zimbabwe.
En rijm dat eens met dit;
https://en.wikipedia.org/wiki/Pornography_by_region

Aanvullende wetgeving is dan in principe niet nodig.
Dan moet ik mijzelf corrigeren. Nee, kinderporno is daar niet legaal omdat porno daar niet legaal is. ;)
Het maakt helemaal niks uit waar de groep origineel vandaan komt. Buiten dat heeft een groep geen "nationaliteit", dat de eigenaar ergens vandaan komt is niet van de orde.

Wanneer een land hier een onderzoek aan begint en strafbare feiten constateer en meerdere nationaliteiten zal er een samenwerking worden gestart, zodat ze in principe allemaal gepakt kunnen worden.
Dus maakt het toch uit?

Immers kan je wel die amerikaan oppakken maar mag de amerikaanse politie hier niet zomaar iemand oppakken.
Dus werken ze samen zodat de Amerikanen de Amerikanen pakken, en de Nederlanders de Nederlanders.
Zo gaat het al jaren, neem als voorbeeld het "Operation Power Off" project. Nederland start een onderzoek, servers hebben ook gestaan in Nederland, maar de beheerders kwamen uit het oostblok, deze landen sluiten dan aan bij het onderzoek.

Dus maakt totaal niet uit waar de groep vandaan komt.
Zo'n groep heeft ook geen 'thuisland'. Ik kan een groep starten en daarna vertrekken en iemand admin maken, betekent dat dan ineens dat je van landen wisselt?
Klopt je kunt alles bannen wat je wilt maar ze zoeken altijd wel een andere manier.

Ik weet niet of zulke smeerlappen wel geholpen kunnen worden. Misschien is het wel zoiets als homo of lesbisch zijn? Dat verander je ook niet, ik zeg natuurlijk niet dat homo/lesbisch zijn verkeerd is ;)

Ik ken geen studies naar pedofielen en heb er alleen mijn eigen oplossing voor. Helaas is de wereld waarin we leven bevolkt met een deel zieke geesten.

Ik weet wel dat een scan op je gsm van de fabrikant gewoon te ver gaat ivm privacy.
Wat een Facebook-antwoord weer:
"Ja, wij hebben het inderdaad verspreidt, maar het ligt aan de makers van de telefoons... die moeten maar een 'kinder-bloot-filter' plaatsen"

Ze zouden die filter natuurlijk zelf OOK kunnen bouwen en plaatsen, in plaats van de verantwoordelijkheid naar anderen afschuiven.


[edit]... Hmm... niet aan de encryptie gedacht...
Need MOAR coffee

[Reactie gewijzigd door Jester-NL op 26 juli 2024 09:50]

Wat een Facebook-antwoord weer:
"Ja, wij hebben het inderdaad verspreidt, maar het ligt aan de makers van de telefoons... die moeten maar een 'kinder-bloot-filter' plaatsen"

Ze zouden die filter natuurlijk zelf OOK kunnen bouwen en plaatsen, in plaats van de verantwoordelijkheid naar anderen afschuiven.
het 'probleem' daarmee is dat end to end encryptie dan moet worden opgeheven (en dus privacy moet worden opgegeven) , of is dat nu opeens gerechtvaardigd omdat het, in een relatief klein percentage, om kinderporno gaat?

De nieuwe inlichtingenwet is volgens jou dan ook geen probleem?
jij hebt dan ook geen probleem met douaniers die de content van je laptop/telefoon/tablet bij binnenkomst land even scannen op illegale/verdachte zaken?

allemaal zaken die een zware impact hebben op privacy, weliswaar de een wat meer dan de ander, maar ze ondermijnen je privacy wel

[Reactie gewijzigd door mschol op 26 juli 2024 09:50]

Kinderporno, terrorisme of drugs noemen en dan zijn alle verdere argumenten van tafel. Hoe klein het percentage ook is.
Maar dat tuig zoekt dan elders zijn distributieplatform en wat overblijft is een onbeveiligde chatdienst.
Kinderporno, terrorisme of drugs noemen en dan zijn alle verdere argumenten van tafel. Hoe klein het percentage ook is.
dat besef ik wel, ik vraag mij alleen af of jester-NL wel stilstaat bij de potentiële gevolgen van zijn opmerking.

ik vind het een bizarre en 'enge' ontwikkeling dat men zo lukraak hun privacy wil opgeven
Nee hoor, het kan prima in de Whatsapp-client worden opgelost, vóór de encryptie eroverheen gaat en het verzonden wordt. Zo hoeft er niet ingegrepen te worden in de encrypted chain.

Het probleem is niet zo onoverkomelijk als WA het voordoet.
Dan kunnen ze dus alles wat je stuurt inzien, dan heeft end-to-end encryptie nog steeds geen zin.
Niet per definitie: als de hashes bekend zijn, kan er clientside gekeken worden of de hash van foto in kwestie overeenkomt met een bekende hash in de database.

Die database kan op een server staan; als de vergelijking maar lokaal plaatsvindt.
Dat klopt, maar als je afbeelding encrypted is, heeft zo'n hash weinig zin. Je moet die hash dus maken voordat je het encrypt.
Dat zou inderdaad kunnen. Maar als elke app dat gaat doen zit je straks met 30 scanners op je telefoon die allemaal hetzelfde doen.

Als het client side moet gebeuren dan lijkt een enkele centrale functie me toch het meest voor de hand liggen.
Ze geven ook een reden waarom ze er zelf niet happig op zijn om iets te implementeren, want dit zou de hele end to end encryptie in geding brengen, jammer en verschrikkelijk natuurlijk dat dit gebeurd, maar Facebook heeft daar wel gelijk mee.
Ze zeggen ook dat ze dit zelf zouden bouwen, maar dat ze dit cliëntside moeten scannen want dat ze dit niet centraal op hun servers kunnen doen door de encryptie van de berichten.
Dat kan juist niet. WhatsApp verwerkt alleen verkeer wat reeds al encrypted is (end to end). Ze kunnen hier niet in scannen.

Verder snap ik het heil in het willen wegfilteren niet. Je moet doelbewust een chat groep voor kp joinen om hier 'last' van te hebben. Beter dat het op een plek waar van je vanaf weet gedeeld wordt, zodat je het kan monitoren en de mensen die het delen/verspreiden kan oppakken.
Dat werkt niet best als alles encrypted is...
Wat een Facebook-antwoord weer:
"Ja, wij hebben het inderdaad verspreidt, maar het ligt aan de makers van de telefoons... die moeten maar een 'kinder-bloot-filter' plaatsen"

Ze zouden die filter natuurlijk zelf OOK kunnen bouwen en plaatsen, in plaats van de verantwoordelijkheid naar anderen afschuiven.
Hele simpele vraag: hoe los je kindermisbruik op met welke soort app of telefoonfilter dan ook maar?

Dat is toch symptoom bestrijding? Het echte probleem dat we willen aanpakken is kindermishandeling lijkt me? Niet die paar pedo's die naar naakte kinderen kijken, maar de pedo's die ze daadwerkelijk aanraken.

Filters in apps doen helemaal niets aan pedo's die kinderen aanraken. Die hebben namelijk geen app of telefoon nodig om kinderen wat aan te doen. Sterker nog: als je het voor pedo's moeilijk gaat maken kinderporno te vinden, dan gaan ze het in de echte wereld zoeken. Dat lijkt me flink ongewenst?!

Het is niet alsof er ineens minder pedo's bestaan als je maar genoeg kinderporno blokkeert. |:( |:( |:(

[Reactie gewijzigd door GeoBeo op 26 juli 2024 09:50]

Uiteraard is het symptoom bestrijding.
Volgens Darwin is dit gewoon een variatie in onze mensheid net als homosexuelen, hetros, bisexuelen. Dus oplossen lijkt onmogelijk. Er is nu voor gekozen om bepaalde variaties te criminaliseren. Dit doet natuurlijk niks met de aanwas, die blijft gelijk.
Volgens mij is een humane "oplossing" voor dit natuurverschijnsel heel lastig.
Het lastige lijkt mij, dat mensen hier niet voor kiezen, ze zijn zo geboren. Dus het is wat anders als dieven, witwassers etc.
WhatsApp erkent het probleem en suggereert dat smartphonemakers een scan in hun software moeten zetten. Die scan zou afbeeldingen op de telefoon cryptografisch moeten matchen met bekende databases van kinderporno om zo na te gaan of de gebruiker kinderporno bekijkt in WhatsApp, schrijft Techcrunch.
Dat zou Whatsapp natuurlijk ook zelf kunnen doen. Alle fotos uit een groepschat staan op geslagen op mijn telefoon, dus zonder encryptie te slopen kunnen ze die ook gewoon checken. Of het gewenst is dat Whatsapp al mijn (Whatsapp) fotos naar hun server gaat sturen voor een kinderporno check, is natuurlijk een andere vraag.
End to end encryptie zal er niet onder lijden, maar als WhatsApp iets implementeerde waarbij het voorhand gescannet wordt, stopt niets ze van daarna met een tweede connectie jou chats fijn door te sturen zonder encryptie.

Het is natuurlijk allemaal verschrikkelijk dat dit gebeurd, maar jou idee zet wel de deur open dat Facebook dit lekker kan misbruiken:
Wil je geen facebook gebruik dat geen whatsapp.
Of denk je dat ze niks doen met je metadata? Denk je niet dat die metadata onbelangrijk is?
ik heb geen facebook of whatsapp. Er zijn genoeg alternatieven.
Kansloos, zolang zij zich veilig voelen kan je infiltreren en personen volgen, als die mensen een betere app gebruiken die geen telefoonnummer nodig heeft en proxi ondersteund wordt het pas lastig. Dan worden groepen ineens 100.000 en kanalen met miljoenen volgers.
ik kan je garanderen dat veel van deze groepen jongeren zelf zijn. hoeveel weet ik natuurlijk niet, maar als je als minderjarige jezelf filmt of fotos maakt is dat natuurlijk ook gewoon kinderporno en net zo strafbaar. maar dat vind ik wel van een heel ander kaliber kinderporno dan industriele misbruik van kinderen voor porno. hetzelfde zie je op snapchat. dit soort dingen komen echt veel meer voor dan mensen denken, ik ken zelf mensen die zelf in de kinderprostitutie beland zijn op die manier. je kan constant de verspreiding aanpakken maar uiteindelijk heeft het denk ik ook heel veel belang bij stevige EERLIJKE voorlichting bij jongeren erover. (dus niet na een keer blowen is de kans best groot dat je psychothisch word en de rest van je leven in een rolstoel zit verhalen om mensen bang te maken).
Dat de wereld aan het doorslaan is was me inmiddels wel bekend, maar elke keer weer verbaas ik me erover hoe een woord als "kinderporno" meteen garant is om een hele hoop publiciteit te genereren. Bravo, het is gelukt.

Voorop gesteld: kindermisbruik en kinderporno moeten absoluut bestreden worden. Maar 2 relatief onbekende NGO's (waaronder 1 net startende) publiceren een onderzoekje waarvan ze niet weten hoe groot het probleem is, en gelijk moeten nota bene smartphone fabrikanten maar een filter aanbrengen op telefoons.

Het argument "kinderporno" opent natuurlijk gelijk deuren om lekker door te draven in het aanpakken van het probleem: WhatsApp heeft te weinig moderatoren (alsof KPN ongericht alle telefoongesprekken over het vaste net moet gaan afluisteren) en dus moet het maar op een andere manier opgelost worden. Om, als het ooit zover zou komen, erachter te komen dat de database eigenlijk alleen maar "oude" en "bekende" afbeeldingen bevat en dus moet er een algoritme komen om te gaan blokkeren.

En dus kan die leuke foto van een kind wat even buiten in een badje aan het spelen is ook niet meer. Bovendien ben ik waarschijnlijk nu ook verdacht gezien de tekst "And a screenshot provided by anti-exploitation startup AntiToxin reveals active WhatsApp groups with names "..." or “videos cp” — a known abbreviation for ‘child pornography’" - als Linux beheerder tik ik dagelijks meermalen "cp" in.
Goeie naamgeving toch? Cp commando is van een hash functie voorzien om te checken of bestanden die je hebt matchen met bekende kinderporno. Wat dacht je dan dat t deed?
Ik snap niet waarom Facebook een technische oplossing suggereert. Dat is helemaal nergens voor nodig. De middelen om deze mensen aan te pakken zijn er allang.

Blijkbaar kan je die invites online vinden. Of in beperkte kringen. Wat is er precies gebeurt met de informant? Waarom zet je geen "under cover" pedo in? Volgens mij is dit een allang geaccepteerde praktijk. En dat kan hier natuurlijk ook.

Join vanaf een burner phone zoveel mogelijk van die groepen. Pluk iedereen van de straat die lid is en plaatjes deelt.

Ik schets het lekker simpel maar een technische oplossing is helemaal niet nodig.
Waarom zet je geen "under cover" pedo in? Volgens mij is dit een allang geaccepteerde praktijk. En dat kan hier natuurlijk ook.
Precies wat ik meteen dacht toen ik de kop las: hier zullen al een aantel mensen van de politie tussen zitten, zowel nationaal als internationaal. Kan me zelfs niet indenken dat dit niet al gebeurt nu dit bericht zo naar buiten komt.

Dus mocht je ""toevallig"" in zo'n groep zitten: uittreden uit de groep(pen?), je telefoon (samen met alles dat je vergaard hebt op dat gebied) fysiek verbranden en door de schredder halen en er nooit meer mee bezig houden. Je staat waarschijnlijk al onder verscherpt toezicht.
Misschien niet de juiste procedure vanuit het recht gezien, maar effectief om te zorgen dat verspreiding wordt gestopt --> doel bereikt.
Ik snap niet waarom Facebook een technische oplossing suggereert.
Omdat het niet aan Facebook is om lokpedo's in te zetten ?
Ik ook niet, maar dan kan ik het nog wel voorstellen?

Op dit item kan niet meer gereageerd worden.