WhatsApp gaat geen foto's scannen op zoek naar kindermisbruik zoals Apple

WhatsApp gaat de methode van Apple om privéfoto's van gebruikers te scannen op zoek naar beeldmateriaal van kindermisbruik niet overnemen. De directeur van de WhatsApp-divisie binnen Facebook heeft zich uitgesproken tegen de methode van Apple om foto's te scannen.

WhatsApp-directeur Will Cathcart noemt het systeem een 'tegenslag voor privacy'. "Dit is de verkeerde aanpak en een tegenslag voor de privacy van mensen over de hele wereld. (...) We hebben al decennialang computers en er is nooit een mandaat geweest om de privé-bestanden op elke desktop, laptop en telefoon te scannen op zoek naar content die illegaal is. Dat is niet hoe software in de vrije wereld werkt." Cathcart is vooral bang dat landen waar iPhones in de schappen liggen op termijn zelf mogen bepalen waarop het systeem gaat scannen.

Apple onthulde de methode vorige week als onderdeel van meerdere maatregelen om de verspreiding van beeldmateriaal met kindermisbruik tegen te gaan. Apple krijgt een database met hashes van foto's van kindermisbruik van organisaties die zich inzetten voor de bescherming van kinderen, zoals het National Center for Missing and Exploited Children.

Vervolgens gaat die database versleuteld naar alle Macs, iPads en iPhones, waar de apparaten lokaal de hashes vergelijken met hashes van lokale foto's die naar back-updienst iCloud Photos zullen gaan. Als het aantal matches een threshold overstijgt, stuurt het apparaat een melding naar een Apple-server. De functie zal in de loop van dit jaar werken in de VS.

De WhatsApp-directeur is niet de eerste criticaster van het systeem. Onder meer burgerrechtenorganisaties Electronic Frontier Foundation en Center for Democracy & Technology spraken zich al uit tegen het systeem van Apple.

Apple NeuralHash-systeem voor opsporen beeldmateriaal van kindermisbruik

Door Arnoud Wokke

Redacteur Tweakers

09-08-2021 • 08:21

445

Reacties (445)

445
435
170
37
1
226
Wijzig sortering
Na het artikel op tweakers over het zomaar afsluiten van accounts, word ik toch wel bang van dit soort dingen. Als je een boel foto's op je icloud hebt staan van je eigen kind, kan het dan zijn dat je account zomaar wordt gesloten wegens verdenking van bezig van kinderporno (maar misschien begrijp ik dit geval niet goed genoeg). Als er geen manier is om hier tegen in beroep te gaan, lijkt mij dit zeer onwenselijk. Misschien wordt dit anders als mensen zonder hoor en wederhoor niet zomaar worden afgesloten. Ik ben nu in ieder geval blij dat ik niet bij Apple zit.
Het hele gebeuren is mediahype wat je in een roddelblad zou verwachten. Het geeft wel aan dat Tweakers meer geïnteresseerd is in de click en de ruzies in de comments. Iedereen gebruikt deze techniek (CSAM) al heel erg lang o.a. Microsoft, Google en Apple (iCloud) zelf.

Je foto's worden enkel vergeleken met bekende hashes van valide kinderporno. Iculture heeft alle vragen op een rij gezet:
https://www.iculture.nl/n...g-kindermisbruik-privacy/
Daar gaat het niet om, dadelijk in 2035 zijn we zo ver dat als ik een foto van Wilders op mijn smartphone heb, dat ik dadelijk niet meer mag stemmen? Of dat ze dadelijk gaan scannen op teksten en dat ik niet meer een bepaalt land binnen mag komen omdat ik zogenaamd de president hebt beledigd in een grapje met vrienden.

Zo kan ik nog wel doorgaan, maar andere bedrijven doen dit ook, het scannen.dat heeft er werkelijk geen reed mee te maken wat andere doen.

Je privacy bij Apple is in gevaar en ze promoten dit zelf op hun eigen website als verkoop argument we care about your privacy.dit is geen hype maar de werkelijkheid.

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 08:18]

False positives zijn mogelijk.
Dit is het begin van het 'social credit system' als Apple vind dat .....
dan word je tel afgesloten, en kan je niet meer betalen, bankieren, enz
Maar als je ook maar één van de artikelen had gelezen wist je dat daar ook rekening mee wordt gehouden, en dat er een drempelwaarde is voordat er ook maar een ping naar Apple gaat.

Het systeem verdient zeker kritiek, maar dit soort comments heeft niemand wat aan.

[Reactie gewijzigd door Luminair op 23 juli 2024 08:18]

Ook deze drempelwaarde in acht nemende, zullen er waarschijnlijk false-positives zijn. Bugs en kinderziektes horen nu eenmaal bij software development. Ik vind dit persoonlijk wel relevant.
Dit systeem draait al jaren op alle grote clouddiensten. Over welke bugs en kinderziektes heb je het?
"De cloud" zijn andermans computers; nu wilt men op persoonlijke apparaten surveillance uitvoeren... zonder opt-in of zelfs opt-out. Dit is zeer onethisch.
Het is onethisch om uitspraken te doen over materie waar je totaal niet over hebt ingelezen. Je kan het gewoon uitzetten…
Grapje zeker? Surveillance is een gevoelig onderwerp. De last ligt bij Apple om het goed uit te leggen; niet aan de gebruiker die het opgelegd krijgt om de handleiding te lezen. Is de plicht als je je gebruikers iets oplegt. En een opt-out is nog steeds opleggen, en nog steeds kwalijk.
Als je geen ICloud gebruikt dan staat het standaard uit. Als je al iCloud gebruikt dan staat het nu al aan (al lange tijd). Net zoals dat bij Google (photos), Dropbox of elke andere online dienst. Dit wordt vaak ook al verplicht vanuit wetgeving.
Dan waarom surveillance lokaal op het apparaat. Als het aan iCloud is gebonden, waarom dan niet aan de server kant. 8)7

Je bent erg gefocused op hoe 'geweldig' de implementatie is, en minder op de implicaties dat Apple met deze ontwikkeling een precedent aan het zetten is. Precedent dat ongevraagde surveillance op een persoonlijk apparaat dat jouw eigendom is maar gewoon moet worden. Maar ik zal zeker wel zeiken met mijn privacy. Laten we lekker naar beneden glijden... alles voor de kinderen en alles tegen terrorisme.
Anoniem: 1322 @Z10010 augustus 2021 12:17
Nog een die niet eens de moeite neemt om er over in te lezen.

De last ligt bij Apple om het goed uit te leggen;
Dat klopt en dat doet Apple ook. Maar er verandert hier maar 1 ding. In plaatst van dat Apple bestanden scant in ICloud, zoals iedereen dat doet, wordt nu ondervind gescant. That’s it. Dit is dus een veel privacy vriendelijkere oplossing dan alle andere methoden. Maar Tweakers weigerd dit zo te formuleren om meer Apple ‘discussie’ te creëren. Lees je in!

Je bent erg gefocused op hoe 'geweldig' de implementatie is,
Nee, ik ben gefocust op juiste berichtgeving. De verslaggeving is op het niveau van roddeljournalistiek hier en iedereen gelooft zonder maar ook het bron artikel te lezen wat Tweakers hier suggereert. Goede journalistiek laat beide kanten van het verhaal zien.
Ik heb er ook geen kaas van gegeten. Wanneer je het echter ethisch bekijkt, dan zou deze functionaliteit standaard uit moeten staan en indien je dat zou wensen zelf aanzetten.

Maar nogmaals ik ken het verder niet en staat het standaard wellicht al uit..
Als je geen ICloud gebruikt dan staat het standaard uit. Als je al iCloud gebruikt dan staat het nu al aan (al lange tijd). Net zoals dat bij Google (photos), Dropbox of elke andere online dienst. Dit wordt vaak ook al verplicht vanuit wetgeving.
Is het niet zo dat als je een iPhone hebt sowieso standaard naar iCloud gaat? Of kan je uitzetten dat geen gegevens naar iCloud gaat?
Tijdens de setup geef je aan of je iCloud wilt gebruiken. Zet je het niet aan of maak je simpelweg geef account aan, dan staat alles uit en gaat er geen staat naar Apple. Ook naderhand is dit eenvoudig uit te schakelen.
Zie bv de verhalen van de mede-tweakers die geblokkeerd zijn geraakt. Dat is door dit soort systemen. Dat er bugs zijn in dit systeem, is zo goed als een zekerheid.
Dat er bugs zijn in dit systeem, is zo goed als een zekerheid.
Er waren ook mensen die schreeuwen dat hun account geblokkeerd was en dat dit naderhand terecht bleek. Natuurlijk zullen er altijd bugs zijn, maar dat zegt helemaal niets. Overal zitten bugs in.. dat zegt helemaal niets.

Dat is door dit soort systemen.
Daar gaat je je argument, maar jij doet uitspraken over zaken die jij helemaal niet kan weten (tenzij je aan de andere kant van die conversatie zat en dus beide kanten van het verhaal kent). Dus als jij de Microsoft CSAM beheerder bent, mijn excuses. Zo niet, doe dan geen uitspraken of trek conclusies over zaken die hier waarschijnlijk niets mee te maken hebben..
Systeem en uitrol van dit systeem in deze hoedanigheid is nieuw en nog nooit eerder vertoond. Ik stel voor om in de nabije toekomst nog eens te evalueren. Overigens, wat @crazyx hieronder schrijft; gelockte accounts zijn een veelvoorkomend verschijnsel.
Niet om het een of het ander, maar had je deze reactie toevallig al in de ijskast?
iCulture
Ik weet niet waarom, maar om de een of andere reden klinkt die site toch niet geheel neutraal in deze kwestie.

Dan ga ik toch liever uit van wat de Electronic Frontier Foundation er over te zeggen heeft (ook genoemd in het artikel): https://www.eff.org/deepl...ackdoor-your-private-life

Dat anderen het al gebruiken, lijkt me des te kwalijker, in plaats van dat het het minder kwalijk maakt.

Ten slotte wil ik nog zeggen dat ik totaal niet begrijp hoe dit ooit kan werken. Iemand die dit soort foto's wil kijken, is zich er nu toch van bewust dat Apple (en anderen) dit soort technieken gebruiken? Dus die gaan dan vooral hun foto's niet in iCloud zetten of gaan gewoon een ander merk telefoon gebruiken.

Uiteindelijk gevolg: elk doelwit van deze technologie gebruikt deze technologie niet en wordt niet opgespoord. De enige hits die dan nog kunnen volgen, zijn false positives van onschuldigen. Dus wat heb je er dan nog aan?
Ik denk dat mensen toch slordiger zijn dan je denkt. Maar goed, ik wil het niet goedpraten wat hier gebeurd maar de verslaggeving is zo belabberd. Men wil voornamelijk Apple zwart maken terwijl ze de laatste zijn die het doorvoeren. Ze zijn de enige die zich continue voor privacy inzetten en zijn altijd diegene die in het ‘nieuws’ komt. Dit is geen neutrale verslaggeving.. de vraag moet veel breder aangepakt worden zeker gezien ze dit ook opgedrukt krijgen vanuit overheden.
Ik ken alleen PhotoDNA en niet de systemen die Google en Apple gebruiken.

PhotoDNA is zelflerend. Het kan unieke foto's van je eigen koters naakt in een badje gewoon flaggen als het volgens het systeem op kinderporno lijkt. Dat werkt dan wel met hashes, maar PhotoDNA vergelijkt niet heel simpel de hashes 1 op 1. De hash is een verzameling gegevens gebaseerd op de inhoud van de foto.
En dat is waarom Apple specifiek deze oplossing pushed. Het gebeurd lokaal op het apparaat (enkel als je iCloud photos aan hebt staan, anders staat het helemaal uit) en er wordt niets meer in de cloud gescanned. Wanneer er geen hit is, gaat er ook niets terug naar Apple. In principle is de methode van Apple dus de meest privacy vriendelijke oplossing. Apple scanned namelijk niet je photo's, dat doet je lokale telefoon. Waartegen Google en Microsoft direct jouw foto's scannen.
Ze hebben een database met foto's (of hashes van foto's) waarmee vergeleken zou worden. Tenzij een van jou kinderfoto's tussen de kinderporno terecht gekomen is (en door hen is aangemerkt als dusdanig), denk ik niet dat Apple je account gaat afsluiten.
En dat is best wel af en toe een probleem geweest. Die hash databases zijn niet perfect, en het detectie algoritme ook niet. Het is ook niet menselijk om iemand naar elke hit te laten kijken dus het is altijd een afweging.
nieuws: Bureau Online Kindermisbruik: false positive hashdatabase was menseli...

Om maar een voorbeeld te noemen uit ons land. Een organisatie met de beste bedoelingen die een menselijke fout maakt. Laat nu net toevallig je Wordpress backup op je telefoon staan en direct heb je stront aan de knikker.
Of wat dacht je van bijvoorbeeld iemand die je ineens via Whatsapp vanaf een onbekend nummer een shitload aan KP stuurt. Als je dat nummer niet in je contacten hebt dan zal de afbeelding niet automatisch downloaden, maar de nieuwsgierigheid van de mens maakt dat dat 99% toch gewoon op dat download-icoontje zal drukken om te zien wat ze nou hebben gekregen.

Zit je dan met de gebakken peren. Kun je wel zeggen dat je erin bent geluisd, maar dan is het kwaad al geschied. Met vrouw en kinderen lekker thuis op de bank, valt de politie ineens binnen :D Dan heb je wel wat uit te leggen aan je vrouw. Leuk voor de buren ook. Gegarandeerd dat er misbruik gemaakt gaat worden van deze functie.

En dat nog los van dat de meest gevaarlijke pedo's heus niet via een iPhone hun smerige zaakjes beheren.

Apple zou zich moeten schamen om zo openlijk te doen alsof ze het grootste morele kompas hebben onder de doorzichtige noemer KP. Ik vraag me af of Cook nog heeft getwijfeld of hij niet beter terrorisme als reden kon noemen :X

[Reactie gewijzigd door Saven op 23 juli 2024 08:18]

Dat zou nu ook al een probleem zijn, immers wordt er serverside reeds gescand op iCloud. En ook bij de andere diensten zoals Google Drive, Microsoft OneDrive en DropBox. Als iemand je een shitload aan KP stuurt en je telefoon, van welk merk dan ook, synct dit naar wat voor grote clouddienst dan ook: dan heb je al jaren een probleem, want vanuit wettelijke verplichtingen moeten ze allemaal al scannen naar cp.
Volgens mij wordt het nu niet gescand op iCloud (end-to-end encrypted (correctie dankzij WhatsappHack: iCloud is niet end-to-end encrypted, maar iMessage wel; Apple heeft echter wel de afbeeldingen versleuteld at rest en zijn volgens eigen voorwaarden gebonden aan de belofte die niet te bekijken/scannen)); en vandaar dat Apple de content dus lokaal wil scannen voordat het op iCloud komt. iCloud uitzetten en geen iMessage meer gebruiken zou ook het scannen stopzetten. Hiermee kan Apple tegen de instanties zeggen dat ze hun best doen om hun systemen vrij te houden van KP. So far so good?

Probleem is dat dit een glijdende schaal kan zijn:
- inhoudelijk: nu is het kinderporno, gaat het straks ook op voor terroristische of criminele handelingen? of voor politiek onwelgevallige meldingen?
- gerichtheid: nu nog voor iedereen dezelfde behandeling, in potentie is het een backdoor die gebruikt kan worden voor het meelezen van communicatie van een kleine groep mensen
- controleerbaarheid: wie controleert dat het illegaal is, is Apple een rechter?

Het is ook niet langer meer voor Apple om vol te houden dat hun e2e encryptie niet af te luisteren is, omdat ze het per definitie doen (ook al doen ze het zo lijkt het met zorg).

De gevolgen van een foutieve constatering zijn vaak disproportioneel groot bij clouddiensten die zoveel mogelijk aan elkaar koppelen. Stel dat je ook altijd mailt met je Apple mail-adres, dan zou je b.v. al moeite kunnen krijgen met het aanvechten van je account blokkade. Hierover zijn volgens mij op het forum al wel diverse berichten geweest.

Daarnaast zou je je kunnen afvragen of iMessage (toch primair een tool voor één op één communicatie) en iCloud (toch vooral een persoonlijke backup-tool, niet een deelplatform) überhaupt worden misbruikt voor het delen van kinderporno?

Misschien worden gedeelde iCloud albums misbruikt voor KP; in dat geval lijkt het mij vrij gemakkelijk, want dan staan de afbeeldingen niet-versleuteld ter beschikking tot Apple, en hoeven we deze complexe omweg niet te bewandelen.

[Reactie gewijzigd door :murb: op 23 juli 2024 08:18]

Volgens mij wordt het nu niet gescand op iCloud (end-to-end encrypted)
iCloud is niet end-to-end encrypted. Enkel je keychain en Health-data is end-to-end encrypted. De rest is enkel at-rest en in-transit encrypted, waarbij Apple in principe toegang heeft tot de data daar zij de sleutels beheren. Zo kan Apple ook voldoen aan verzoeken van rechters om de inhoud van iCloud-accounts te overhandigen. Bij E2EE zou dat onmogelijk zijn. Al je data op iCloud (en ook op OneDrive, Google Drive, DropBox, etc.) wordt nu al gescand op KP. De een doet het anders dan anderen, zo probeert Microsoft met AI/ML ook nieuwe KP te ontdekken en kan je kindje in bad aangemerkt worden als KP. Apple doet het anders en gebruikt enkel die database van reeds bekende KP; je foto's van je kindje staan daar niet in.

Echter, het gerucht gaat wel dat Apple deze functie nu implementeert omdat het iCloud end-to-end zou willen encrypten. Nu kan Apple in principe bij al je foto’s op iCloud ivm zij beheren de key. Dat zou veranderen. Maar omdat zowel de EU als de VS wetten aan het maken zijn die backdoors verplichten “omdat er wel eens kinderporno zou kunnen staan!”, neemt Apple die wind uit de zeilen. Immers hebben ze dan volledige sterke encryptie, maar er wordt wel degelijk alsnog gekeken naar die KP-database door het punt van scannen (vlak voor ivm vlak na) te verleggen. Pas als er meerdere matches zijn (dus één false positive lijdt niet tot actie), krijgt Apple een anonieme (voor de moderator) low-res kopie om te bekijken. Is het een false positive, dan wordt die discarded en klaar. Is het een positive positive, dan gaat de zaak naar justitie evenals nu het geval is bij positives op een scan bij je cloudprovider zoals die scans nu reeds plaatsvinden. Als Apple E2EE-iCloud invoert zonder scan, dan is het eigenlijk zowat een garantie dat de EU en VS het verbod op encryptie gaan invoeren. Als Apple dit invoert is het wel een enorme veiligheidsboost voor je data in iCloud vergeleken met nu. ECHTER, als deze geruchten kloppen: Apple zou op dit moment ook gewoon E2EE-iCloud in kunnen voeren en dan helemaal niet meer scannen, want er is nog geen decryptieverplichting. Ik denk alleen dat Apple heel erg bang is dat als ze dit doen zonder de “but what about the children?”-mensen te pleasen, dat ze munitie geeft aan de wetgevers om wetten die de encryptie verbieden er doorheen te rammen. Enfin, dit is slechts een gerucht; het is afwachten wat er gaat gebeuren.
Probleem is dat dit een glijdende schaal kan zijn:
Ja dat klopt, maar als we het over slippery slope hebben dan kan ik nog veel ergere en engere dingen verzinnen :P
- inhoudelijk: nu is het kinderporno, gaat het straks ook op voor terroristische of criminele handelingen? of voor politiek onwelgevallige meldingen?
Ik denk dat dat er aan ligt. Op het moment is het in de VS wettelijk verplicht voor cloudproviders om die scans uit te voeren. (Echter is er een caveat: als de data end-to-end encrypted is, dan kan de cloudprovider dat niet en ben je uitgezonderd omdat er geen verplichting is tot decryptie. Als Apple nu iCloud end-to-end gaat encrypten, maar deze functie (het scannen vóór upload ipv ná upload zoals nu het geval is) weglaat, dan krijg je die "THINK OF THE CHILDREN!"-argumenten en kan je er vergif op innemen dat men dit aan gaat grijpen als dé reden om end-to-end encryptie te verbieden/een backdoor te eisen met toegang tot *alle* data. Apple's systeem neemt die wind iig uit de zeilen, want er vindt gewoon een check plaats: maar dan zonder backdoor in de gehele encryptie.)

Enfin, op dit moment gaat dit enkel nog over KP. Of het in de toekomst uitgebreid gaat worden: geen idee. Dat zou kunnen. Maar onthoud dat dat nu ook al kan, immers worden alle foto's op alle clouddiensten (althans bij de grote namen: iCloud, Google Drive, Microsoft OneDrive, DropBox, etc.) reeds gescand op de aanwezigheid van KP vanuit wettelijke verplichting. Als de overheid in de VS dat wil uitbreiden, dan zullen ze daar aan moeten voldoen. De EU wil dit overigens ook invoeren, tezamen met een mogelijk verbod op end-to-end encryptie.
- controleerbaarheid: wie controleert dat het illegaal is, is Apple een rechter?
Hoe het nu werkt is dat er meerdere matches moeten zijn met de database met bekende kinderporno. Als er meerdere matches zijn, genereert de telefoon een low-res kopie die naar Apple toe gaat voor controle. Is het een false-positive, dan wordt de foto direct discarded en gebeurt er niets. Blijkt het wél een match te zijn, dan geeft Apple een seintje aan justitie en zoeken die het verder uit en zullen de zaak eventueel aan moeten melden bij de rechter. Apple is dus geen rechter, nee.
Het is ook niet langer meer voor Apple om vol te houden dat hun e2e encryptie niet af te luisteren is, omdat ze het per definitie doen (ook al doen ze het zo lijkt het met zorg).
Nogmaals: er is (nog) geen sprake van end-to-end encryptie in iCloud. :) (Keychain + Health uitgezonderd) Dat is dus ook een claim die Apple niet gemaakt heeft.
De gevolgen van een foutieve constatering zijn vaak disproportioneel groot bij clouddiensten die zoveel mogelijk aan elkaar koppelen. Stel dat je ook altijd mailt met je Apple mail-adres, dan zou je b.v. al moeite kunnen krijgen met het aanvechten van je account blokkade. Hierover zijn volgens mij op het forum al wel diverse berichten geweest.
Dat klopt helemaal en is een reeel probleem. Maar, onthoud wel: deze problemen gingen voornamelijk over OneDrive. Microsoft zet een systeem in dat dmv AI/ML probeert kinderporno te herkennen. Foto's van je kindjes in bad kunnen dus aangemerkt worden als KP, en daar kwam gezeik van bij meerdere Tweakers. Apple vergelijkt enkel hashes van daadwerkelijk bekende en bevestigde kinderporno. Dat is een heel ander mechanisme. Daarnaast moeten er meerdere matches zijn voordat er actie wordt ondernomen. En als het een false-positive is, dan wordt het discarded. Is het wel een positive? Tja, ehh... dan heb je een probleem.
Daarnaast zou je je kunnen afvragen of iMessage (toch primair een tool voor één op één communicatie) en iCloud (toch vooral een persoonlijke backup-tool, niet een deelplatform) überhaupt worden misbruikt voor het delen van kinderporno?
Het zou me niets verbazen. Helaas.
Misschien worden gedeelde iCloud albums misbruikt voor KP; in dat geval lijkt het mij vrij gemakkelijk, want dan staan de afbeeldingen niet-versleuteld ter beschikking tot Apple, en hoeven we deze complexe omweg niet te bewandelen.
Alle foto's staan nu al ter beschikking van Apple en worden al geruime tijd gescand. Het enige dat nu verandert, is dat Apple de foto's die je wilt uploaden naar iCloud scant *voor* upload ipv *na* upload. Foto's die je niet uploadt naar iCloud worden niet gecontroleerd. Dit zet de weg open voor Apple om E2EE-iCloud in te voeren *zonder* daarbij ammunitie te geven aan de "think of the children, let's ban privacy!" wetgevers.


Overigens, ik vind het nog steeds een slecht plan. :P Ik breng wel nuance aan in het verhaal, maar vind het geen prettige technologie. (Ik ben sowieso heel allergisch voor clouddiensten hoor, dus ik gebruik geen cloud; ook geen iCloud.) Maar dan in het algemeen. Dit systeem van Apple is eigenlijk helemaal zo slecht nog niet en veiliger dan bijvoorbeeld het systeem van Microsoft OneDrive en het zou eigenlijk zelfs redelijk welkom zijn als ze dit inderdaad doen omdat ze E2EE-iCloud willen introduceren zonder de US en de EU meteen wetgeving om encryptie te verbannen te doen introduceren. Maar dat neemt niet weg dat ik vind dat überhaupt de verplichting voor cloudproviders om de content maar te scannen niet zou moeten bestaan; privacy is een erg belangrijk goed. Om dit voor de massa in te perken vanwege een paar criminelen, terwijl de pakkans daarnaast heel erg laag is omdat veel van die gestoorde viespeuken helaas elkaar helpen om niet gepakt te worden dankzij goede technische oplossingen, voelt heel onredelijk. Maar let wel: dat is dus een politiek probleem. Geen Apple, Microsoft of Google probleem.

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 08:18]

Foto’s downloaden in WA staat nog steeds niet gelijk aan het meteen in je foto bibliotheek van je iPhone of iPad zetten. Dat zijn 2 verschillende dingen
Vanuit gebruikers oogpunt ja.
Vanuit technisch oogpunt nee.
En vanuit juridisch oogpunt lijkt mij dit helemaal een nee.

Die laatste 2 zijn grotendeels bepalend voor hoe een scanner er mee omgaat lijkt mij.
En waarom zou je je Wordpress site uploaden naar iCloud of via Messages sturen naar kleine kinderen? Hier wordt echt veel geroepen met weinig kennis van de zaak. Er wordt op reeds bekende kinderporno foto's enkel gescand als deze naar iCloud worden upgeload. Je telefoon wordt helemaal niet gescand.
Even los van dat de infographic niet klopt of erg onduidelijk is - die laat blijken dat dit 'on device' wordt uitgevoerd.

Maar je kunt instellen dat je foto's automatisch naar iCloud gebackupt worden. Dus ja, kan zomaar gebeuren.
Als het echt hashes zijn, ben ik het met je eens. De vraag is dan wel hoe nuttig het algoritme dan nog is. Je zou het dan al kunnen omzeilen door één pixel aan te passen.
Het zijn natuurlijk geen hashes van de file zelf, maar een fingerprint van de afbeelding. Hierdoor hebben hele kleine veranderingen of extra JPEG artifacts geen impact tot op zeker niveau.
Je wordt gemint, maar hebt zeker een punt. Zo snel iets wordt aangepast is de hash anders.

Daarom zullen ze ook Fuzzy Hashing doen van het beeld (en niet zozeer het bestand) vermoed ik. Dan moet een hash van een beeld een bepaalde percentage overeenkomen. Dit creëert wel weer ruimte voor false positives.

Ook is er (zij het wellicht wat theoretisch) nog steeds collision mogelijk. Namelijk dat een volstrekt andere foto leidt tot een zelfde hash.

Ik zou wel nieuwsgierig naar de ROC curve van dit systeem zijn (https://en.m.wikipedia.or..._operating_characteristic).
De techniek die je noemt is bedoeld om mogelijke gelijke afbeeldingen te herkennen, niet om stellig te selecteren welke afbeelding (en zeker niet verwerker) dus via Apple apparaten of whatsapp herkend moeten worden. Als die dat wel zouden toepassen mag je je nog meer zorgen maken dan bij hashes, omdat er bij hashes tenminste nog 'bewijs' is dat iemand die hash en afbeeldingen eerder als ongewenst gecontroleerd heeft. Met fuzzy hashing op een apparaat of in software controleren maakt de uitkomst niet betrouwbaarder, wel kan het meer inzicht geven voor wie macht over de resultaten heeft.
Anoniem: 470811 @kodak9 augustus 2021 18:15
Eens hoor, ik denk alleen dat stellig haast niet kan zonder waarde verlies. Maar ik heb me niet heel erg verdiept in die hele materie, maar meer vanaf een meta niveau bekeken.

De hash moet immers ook werken bij gekantelde foto's bijvoorbeeld. En foto's waarbij beeld gecropped is (ander beeld verhouding), of wellicht van kleur naar zwart-wit. En denk ook aan gespiegelde foto's.

Tenzij het toch echt stellig wordt, maar dan verwacht ik een relatief klein effect.
Pixel aanpassen gaat niet werken, zie "An honest conversation on Apple, hashing, & privacy with Daniel Smullen". https://www.youtube.com/watch?v=9ZZ5erGSKgs
Tja, maar waarom kan dat niet gebeuren. Je account wordt gehacked. Er staan kinder foto's tussen van kinderen in en zwembad. (al dan niet met kleren aan). deze belanden tussen de KP ergens. En hoppa je wordt opgepakt voor KP.
Het lijkt me inderdaad vrij lastig om jezelf nog te verdedigen in deze situatie als ouder zijnde (of anderzijds familie). Kwalijke zaak, want het leed dat het met zich mee brengt is al ernstig genoeg.
Ze hebben op dit moment een database met foto's (of hashes van foto's) waarmee vergeleken zou worden.
De grens dat ze foto's gaan scannen is al overschreden. Nu gaat het aan de het van bekend materiaal, maar morgen?
Ze hebben een database met foto's (of hashes van foto's) waarmee vergeleken zou worden. Tenzij een van jou kinderfoto's tussen de kinderporno terecht gekomen is (en door hen is aangemerkt als dusdanig), denk ik niet dat Apple je account gaat afsluiten.
Dan ga je er vanuit dat ze enkel foto's controleren waarvan het bekend is dat het kinderporno is.
Maar een systeem dat ook nieuwe/onbekende foto's scant en classificeert kan wel degelijk false positives opleveren. De algoritmes zijn zo goed nog niet als men ons wil doen geloven.
Je zag het ook op Facebook waar onterecht bepaalde foto's als naakt werden aangeduid, met alle vervelende gevolgen van dien.
Ik heb ontzettend leuke foto's van mijn toen hele jonge kinderen die samen in bad zitten, de grootste lol hebben, met schuim gooien, zitten te stoeien en er een groot waterbalet van maken. En nee, ze hebben geen zwembroek of wat dan ook aan, ze zijn 2, 3 jaar oud. Zo onschuldig en prive voor ons als wat. Gaat iemand anders straks bepalen of ik die op mijn computer mag hebben staan? Omdat je misschien een tepel, een piemeltje of wat ziet? Omdat een of ander logaritme bepaalt dat dat net te.... is? Waar gaat dit heen....
Nee, dat is op zich nog geen probleem voor zover ik begrijp. Het gaat om een vergelijking met “bekende” kinderporno. Dus het risico is vooral dat als zo’n foto ongewild in die kringen terecht komt de hash opgenomen wordt in de database. Dan heb je waarschijnlijk ineens alsnog een probleem.
Ok, maar mijn foto's worden wel "gechecked" tegen een bepaalde hash omdat er nu eenmaal waarschijnlijk veel bloot in voor komt. Dat is een glijdende schaal. Het zijn MIJN foto's en ik wil helemaal niet dat ze tegen een scanner aangehouden worden, ondanks dat de uitkomst daarvan "onschuldig" beschouwd wordt.

De echte consumenten van deze walgelijke toestanden EN de producenten ervan dumpen Apple als eerste, je lost er niks mee op.
Enigste oplossing is om je prive familie fotos offline te bewaren dan.
Als het zo zou werken, dan zou ik alle foto's waarbij mijn kinderen er naakt op staan juist op iCloud zetten en wachten tot je geflagged wordt. Dan weet je wel meteen dat jouw kinderen in het KP circuit te vinden zijn.
Dan kan je er wat aan doen? Of het tenminste proberen.

Lijkt me beter dan het niet weten.
Als je bedoelt dat ze 'fysiek' in dat circuit zitten ben ik het met je eens.
Ik bedoel meer, als jouw normale familie-foto's door viezerikken worden bekeken, ben je er dan mee geholpen dat je dat weet?
Idd, ik heb ook een paar van zulke foto's van mijn kids. Ik merk dat ik na dergelijke berichtgeving wel wat meer oplet met het maken van foto's, wat eigenlijk de omgekeerde wereld is.

Alles voor de goede zaak natuurlijk, maar ik hoop wel dat het aantal positives hoger is dan het aantal false positives met dit systeem. Als je Google of Microsoft account geblokkeerd wordt dan is dat voor de meeste mensen een behoorlijk probleem.
Het lijkt me niet zozeer dat je erg bang moet zijn dat iets als kinderporno wordt aangemerkt, maar meer dat het hek van de dam is. Dit betekent in feite dat alles straks gecontroleerd gaat worden, zoals de veiligheidsdiensten graag willen. Ik denk dat de enige optie is om Apple helemaal links te laten liggen.
Ik denk dat dat een hellend-vlak-argument is, of zie ik dat verkeerd? Zo kan je inderdaad het controleren op kinderporno extreem doortrekken naar controleren op goed tandenpoetsen met risico op korting van zorgtoeslag. Maar moet je het dan nu al een halt toeroepen omdat je heel misschien in de verre toekomst gecontroleerd kan worden op tandenpoetsen? Of moet je dat bij die beslissing pas doen?

In dit geval boeit het mij zelf niet zo als een kunstmatige intelligentie mijn foto's doorzoekt op kinderporno. Maar als ik bijvoorbeeld een foto van mijn zoontje in bad maak en vervolgens Microsoft mij als pedofiel aanmerkt en mijn account bant, dan wil ik wel een deur hebben om bij aan te kloppen om bezwaar te maken.
Maar het punt is natuurlijk dat ze helemaal geen recht hebben om jouw gegevens te controleren, wat het ook is. Apple is geen opsporingsdienst en de data is privé. Ze beginnen altijd met kinderporno, omdat niemand kan zeggen dat hij voor het recht daarop is, dus word je vooraf de mond gesnoerd. Maar als het systeem eenmaal werkt, kan en zal het ook voor andere dingen gebruikt worden en dan wordt het inderdaad lastiger, want dan moet je dus gaan aantonen dat wat ze nu precies controleren niet gerechtvaardigd is, omdat je al eerder blijkbaar hebt ingestemd dat er dingen zijn die ze dus zouden mogen controleren.
Als je een boel foto's op je icloud hebt staan van je eigen kind, kan het dan zijn dat je account zomaar wordt gesloten wegens verdenking van bezig van kinderporno (maar misschien begrijp ik dit geval niet goed genoeg).
Je begrijpt het inderdaad niet goed genoeg.
Ik ben nu in ieder geval blij dat ik niet bij Apple zit.
Bij welke partij zit je dan wel? En doet die het beter?

@all
Het opsporen van kindermisbruik is geen taak die thuishoort bij een commerciële instelling zoals Apple of WhatsApp. Aan de andere kant verwachten we wel van sociale media (Facebook, Twitter, WhatsApp, ...) dat ongepaste inhoud zo snel mogelijk verwijderd wordt. Dus misschien is preventie dan beter. En dat is waar Apple aan doet.

Nogmaals: het opsporen van kindermisbruik is niet een taak van Apple, maar ik snap wel dat Apple deze mogelijkheid onderzoekt. MS doet het overigens ook.

Dat WhatsApp nu een bericht de deur uit doet heeft echt niks met hun goede klantgerichte bedoelingen te maken. Ze willen alleen het negatieve nieuws over Apple inzetten als pluspunt voor zichzelf. Het is een poging tot goedkoop scoren, niets meer en niets minder.
Het is inderdaad geen taak van Apple om kindermisbruik op te sporen maar het is wel de taak van Apple ervoor te zorgen dat er geen kinderporno op haar iCloud servers terecht komt.
Zelfs dat is geen taak van Apple zolang het duidelijk is dat dat in verreweg de meeste gevallen niet gebeurd.

Apple is een cloud provider en moet in mijn ogen geen politie spelen. En geen betekend nooit.
Exact. Apple treedt feitelijk op als opsporingsdienst, het controleert op basis van externe data, overigens ook van een niet-oveheidsorg. jouw persoonlijke data. Hoe ze dat doen maakt geen ene barst uit. Dat ze het doen zou wettelijk niet mogen. Gekozen overheden zouden dan ook ervoor moeten zorgen dat dit soort privacyschendend gedrag door grote techreuzen ook nooit in gebruikersovereenkomsten als voorwaarden mogen worden opgenomen.

Het probleem is nu dat democratisch gekozen overheden in westerse democratische landen bewust steeds meer de online wereld overlaten aan dit soort 'digitale overheden' als facebook, apple en google.
Dat ze het doen zou wettelijk niet mogen. Gekozen overheden zouden dan ook ervoor moeten zorgen dat dit soort privacyschendend gedrag door grote techreuzen ook nooit in gebruikersovereenkomsten als voorwaarden mogen worden opgenomen.
Het probleem is tegenovergesteld. Apple, Google, Microsoft, Facebook, DropBox, et cetera zijn allemaal wettelijk verplicht deze controles uit te voeren. Het is dus niet zo dat het wettelijk niet zou mogen, maar dat ze het juist wettelijk *moeten* doen. In de VS dan he, waar deze technologie geïntroduceerd wordt.

Daarnaast is het hier in de EU ook toegestaan, zie van vorige maand: https://www.europarl.euro...child-sexual-abuse-online De EU overweegt om dit te verplichten ipv enkel de wettelijke mogelijkheid te bieden om het te doen. Daarnaast overweegt de EU ook zeer sterk om alle sterke end-to-end encryptie te verbieden vanwege dit soort ('think of the children/capture terrorists!') zaken.

Reken er dus maar niet op er een wettelijke blokkade komt op dit soort zaken, het is realistischer om te denken dat er juist een wettelijke *verplichting* komt voor bigtech om dit te gaan doen in de EU. En in de US is het dus al geruime tijd verplicht.

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 08:18]

Je begrijpt het inderdaad niet goed genoeg.
Illuminate me. Hoe is dit anders dan de sitaties die worden geschetst in dit artikel?
[...]
Dat WhatsApp nu een bericht de deur uit doet heeft echt niks met hun goede klantgerichte bedoelingen te maken. Ze willen alleen het negatieve nieuws over Apple inzetten als pluspunt voor zichzelf. Het is een poging tot goedkoop scoren, niets meer en niets minder.
Je onderbouwd je mening niet, je gaat zelfs niet in op de onderbouwing vanuit Whatsapp, dan is het te makkelijk om dit te beweren.

Whatsapp geeft duidelijke onderbouwingen vanwege de toegang die anderen krijgen terwijl de gebruiker controle over de eigen gegevens op het apparaat verliest.

Daarmee lijkt de bewering die je doet zelfs meer bedoeld om maar over whatsapp te kunnen klagen.
Het is een poging tot goedkoop scoren, niets meer en niets minder.
Niet alleen goedkoop scoren, maar ook een goedkope manier om onder valse voorwendselen een technologie testen en implementeren.

Want als het tegen pedofilie is zal niemand nee durven zeggen, dat dit gelijktijdig mogelijkheden schept om andere dingen op te sporen, zoals bijvoorbeeld religieuze voorkeuren, daar zwijgen ze dan over.

Wat als een grote economische mogendheid op deze aardbol van Apple toegang eist tot deze technologie? Er zijn er al veel door de knieën gegaan, omdat ze een Miljard potentiële klanten niet willen missen.
Uit het oorspronkelijke artikel:
- (De hashes van) je foto's worden vergeleken met (de hashes van) bekende kinderpornofoto's. Een foto van je eigen kind in bad zal dus geen match opleveren.
- Bij een eventuele match controleert Apple eerst handmatig voordat een account wordt afgesloten. En "If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated."
Wat controleren ze dan, want als ze een foto van jou kinderen zien is die vanaf dat moment verspreiding van KP. Immers worden ze gedeeld met derden. Dus hoewel privé opslaan wettelijk geen probleem is, geld dat niet meer als het gedeeld is.

De beste oplossing die je dadelijk overhoudt is alles lokaal met encryptie beveiligen en daarna pas uploaden. Onhandig maar noodzakelijk.
Er zijn enkele officiële instanties zoals het National Center for Missing and Exploited Children die een database hebben met hashes van foto's waarvan is vastgesteld dat het kinderporno is. Die verzamelingen zijn leidend. Op jouw toestel worden je iCloud-foto's omgezet in hashes (een code die niet terug te rekenen is naar het oorspronkelijke beeld) en die worden lokaal vergeleken met de hashes uit de database. Als je geen kinderporno uit die database hebt, wordt er geen match gevonden en gebeurt er dus niets.
Of stel dat je van die vrienden hebt die allerlei dumpert xrated doorsturen en je ineens de lul bent. Dit bijv. een filmpje wat achteraf toch niet helemaal kosjer is ineens in een groepsapp staat een dus ook jou telefoon.
Het blijkt toch wel een heel hardnekkig misverstand te zijn dat Apple alle foto’s op je device zou gaan scannen zelfs als je geen iCloud gebruikt. Dat is simpelweg niet waar. Het is nu al zo dat clouddiensten in de US wettelijk verplicht zijn de content te scannen op zoek naar KP aan de hand van die databases. Wat Apple, Google, Microsoft, et cetera op dit moment doen is server-side scannen. Dat doen ze allemaal, want verplicht.

Wat Apple gaat doen is ipv (bijv.) 100ms ná upload te scannen en te vergelijken, is 100ms vóór de upload naar iCloud te scannen. Materiaal dat je *niet* uploadt naar iCloud wordt niet gescand; als je iCloud helemaal niet gebruikt wordt er dus ook niets op je telefoon gescand. Ten tweede gaat dit niet zoals bijvoorbeeld bij Microsoft OneDrive met Machine Learning/AI om nieuwe content te proberen te ontdekken (waardoor er veel false positives zijn en sommige mensen geband werden vanwege foto’s van hun eigen kind bijvoorbeeld), maar er wordt enkel gekeken naar reeds bekende kinderporno dmv perceptual hashing. Het tracht niet foto’s van je eigen kinderen te herkennen ofzo en in principe zou zelfs originele KP-content door de hash check heenkomen, omdat het geen match oplevert.

Feitelijk gezien verandert er dus vrij weinig. Je content werd al gescand bij uploaden naar iCloud, Google Drive, Microsoft OneDrive, DropBox, et cetera. Apple wil alleen net vóór upload scannen ipv net ná upload, maar gescand werd het sowieso.

Ik ben het er niet mee eens trouwens, al wist ik al dat cloudproviders hier wettelijk toe verplicht zijn. Ik zou liever zien dat er helemaal niet gescand wordt op je cloudcontent, maar er is nu eenmaal een verplichting in de VS en de EU wil het ook gaan verplichten (en gaat nog verder door een backdoor te willen in alle encryptie). Daarvoor moet je bij de politiek zijn.

Het gerucht gaat overigens dat Apple dit doet, omdat ze end-to-end encrypted iCloud willen invoeren. Nu kan Apple in principe bij al je foto’s op iCloud ivm zij beheren de key. Dat zou veranderen. Maar omdat zowel de EU als de VS wetten aan het maken zijn die backdoors verplichten “omdat er wel eens kinderporno zou kunnen staan!”, neemt Apple die wind uit de zeilen. Immers hebben ze dan volledige sterke encryptie, maar er wordt wel degelijk alsnog gekeken naar die KP-database door het punt van scannen (vlak voor ivm vlak na) te verleggen. Pas als er meerdere matches zijn (dus één false positive lijdt niet tot actie), krijgt Apple een anonieme (voor de moderator) low-res kopie om te bekijken. Is het een false positive, dan wordt die discarded en klaar. Is het een positive positive, dan gaat de zaak naar justitie evenals nu het geval is bij positives op een scan bij je cloudprovider zoals die scans nu reeds plaatsvinden. Als Apple E2EE-iCloud invoert zonder scan, dan is het eigenlijk zowat een garantie dat de EU en VS het verbod op encryptie gaan invoeren. Als Apple dit invoert is het wel een enorme veiligheidsboost voor je data in iCloud vergeleken met nu. ECHTER, als deze geruchten kloppen: Apple zou op dit moment ook gewoon E2EE-iCloud in kunnen voeren en dan helemaal niet meer scannen, want er is nog geen decryptieverplichting. Ik denk alleen dat Apple heel erg bang is dat als ze dit doen zonder de “but what about the children?”-mensen te pleasen, dat ze munitie geeft aan de wetgevers om wetten die de encryptie verbieden er doorheen te rammen. Enfin, dit is slechts een gerucht; het is afwachten wat er gaat gebeuren.

Dit alles maakt me nog altijd geen voorstander van dit systeem trouwens, don’t get me wrong. Vind alleen dat de misconceptie dat al je foto’s “zomaar” gescand worden of “Apple maakt alle pakketjes open in je huis!” geadresseerd moest worden. Dit is simpelweg een incorrecte weergave van de realiteit. Enkel foto’s die je upload naar iCloud worden gescand. (Upload je toevallig alle foto’s dan wordt je hele bibiliotheek gescand, ja.) Dat werden ze al, evenals bij alle andere grote clouddiensten ivm wettelijke verplichtingen, alleen het moment van scannen wordt verlegd van ná upload naar vóór upload. En er is dus ook geen sprake van ML/AI-pogingen om nieuwe content te identificeren als KP zoals bijvoorbeeld Microsoft doet met OneDrive, dus je familiefoto’s zijn bij Apple gewoon veilig; tenzij dat toevallig bekende kinderporno is. :+ En bij een positive match, en dat moeten er meerdere zijn voor er actie ondernomen wordt, checkt een moderator van Apple een low-res kopie van de afbeelding; is het een false positive dan gebeurt er niets, gaat er niets naar justitie, et cetera.

Enfin, ik ben ook geen voorstander van dit systeem; maar er heerst echt teveel onbegrip over de werking van dit systeem en hoe dit zich verhoudt tot de huidige situatie; die eigenlijk relatief niets anders is dan nu.

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 08:18]

Dit is nu precies wat ik mis bij de artikelen van tweakers. Een beetje achtergrondinformatie en nuance. Het lijkt verdorie wel of dit bewust weggelaten wordt.
Misschien dat @arnoudwokke wel een achtergrondartikel wil schrijven en dit soort zaken en nuances meeneemt; of het aan nieuwe artikelen over dit onderwerp wil toevoegen om het veel meer te verduidelijken, gezien er nu zo enorm veel misverstanden over bestaan. Ook in het net gepubliceerde artikel gaan de comments meteen weer over het idee dat alle foto's gescand zouden worden (zelfs als je geen iCloud gebruikt) of dat er Machine Learning toegepast zou worden waardoor de foto's van je baby's in bad aangemerkt kunnen worden als KP; terwijl dat dus niet kan. Ik snap de verwarring wel, omdat bijvoorbeeld bij bijvoorbeeld OneDrive dit een probleem was (zie ttps://tweakers.net/reviews/9094/all/account-geblokkeerd-wat-nu.html), maar Apple's syteem werkt dus anders. In principe is dat gelinkte artikel natuurlijk al een deel achtergrondartikel over dit exacte probleem, al focust die veel meer op het juridische aspect dan de achterliggende reden: de scans van al je content. :P

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 08:18]

Dan staan zulke informatieve achtergrondartikelen straks weer achter een paywall zoals de meeste achtergrondartikelen de laatste maanden.
Wat is het nut van E2E als Apple van tevoren alsnog scant? In hoeverre us E2E dan veiliger dan hoe het nu werkt?

En wat ik me ook afvraag: kan Apple een foto waarvan de hash later pas wordt toegevoegd aan de database alsnog detecteren? Dat bedoel ik dan als ze wel E2E zouden gebruiken. Kunnen ze dan alleen scannen op het moment dat je uploadt?
Wat is het nut van E2E als Apple van tevoren alsnog scant? In hoeverre us E2E dan veiliger dan hoe het nu werkt?
Hoe het op dit moment werkt is dat alles plain-text accessible is. Als iemand inbreekt op je account, zijn in principe ook alle foto's in te zien. (*kuch*fappening*kuch*) Daarnaast kan de cloudprovider gedwongen worden om al je data in plain-text te overhandigen aan een overheid. Bij end-to-end encryptie is dit niet het geval, dan kan de data niet door de cloudprovider zelf ontsleuteld worden: enkel door jouzelf.

Het nut daarvan is natuurlijk behoorlijk groot, ongeacht deze pre-scan + hash vergelijking met de database van bekende en geverifieerde kinderporno die on-device vlak voor upload plaatsvindt. Je foto's zijn dus daadwerkelijk versleuteld. Enkel als je meerdere matches hebt met de CSAM-database (een enkele match/false-positive is dus *niet* voldoende als trigger), dan krijgt Apple *enkel van die foto's die matchen* een low-res kopie om na te laten kijken door een mens. (Dat gebeurt geanonimiseerd) Blijkt het een false-positive, dan discard men de foto en gebeurt er verder niets. Is het een correcte positive, dan maakt men er melding van. Alle overige foto's blijven nog altijd geheel versleutelt en niemand kan erbij behalve jij.

E2EE-iCloud zou in alle opzichten een verbetering zijn ten opzichte van de huidige situatie; en deze scan doet slechts zeer miniem afbreuk aan die veiligheid in het extreme geval dat je een false-positive krijgt. Overigens wil dat niet zeggen dat ik het eens ben met dat scannen van alles in de cloud of wat de cloud ingaat, ik beschrijf enkel het compromis dat dan gesloten zou worden en in hoeverre end-to-end encryptie dus wel degelijk van een enorm toegevoegde waarde is; ongeacht deze hash-scans.
En wat ik me ook afvraag: kan Apple een foto waarvan de hash later pas wordt toegevoegd aan de database alsnog detecteren? Dat bedoel ik dan als ze wel E2E zouden gebruiken. Kunnen ze dan alleen scannen op het moment dat je uploadt?
Ik weet eigenlijk niet of de checks steeds opnieuw uitgevoerd worden of enkel bij eerste upload, zoals het er nu uitziet enkel bij eerste upload. Maar zal eens kijken of ik dat uit de technische documentatie boven water kan halen. :)
In wezen wordt hier weer de metadiscussie opgestart over wie verantwoordelijk is over de inhoud van een cloudaccount. In de Megauploadzaak werd er met veel bombarie ingehakt op de eigenaren van de clouddienst en dat ging in basis vooral over copyrighted content. Daardoor werden in elk geval de grote jongens ook kopschuw en gingen in de accounts van hun klanten kijken wat er in stond. Dat gebeurt al jaren en is niet alleen een Apple ding. Wat mij betreft is dit echter een stap te ver, want er is geen direct opsporingsbevel om dit te doen. Ik ben tegen het gebruik van sleepnettechnologie in het algemeen. Los daarvan moet eens duidelijk gemaakt worden wie de baas is over de inhoud van accounts in de cloud. Daaraan gecombineerd is de privacy dan ook duidelijk geregeld.

Er wordt op gewezen dat op dit moment er nog met de CSAM lijst wordt gewerkt. Die lijst loop altijd achter de feiten aan, hoe uitgebreid dat hij uiteindelijk ook wordt. Het zal me niets verbazen als er een vriendelijk advies gaat komen vanuit de justitiële hoek om eens te gaan kijken naar de machinelearning mogelijkheden in de toekomst. Ik denk dat een combinatie van dit sleepnet en bijvoorbeeld de anti-homowetten in het Oostblok tot een heel trieste situatie kan leiden. Maar die situatie is niet uniek voor het Oostblok. Op dit moment krijg je bij je internetaansluiting in het Verenigd Koninkrijk al een family filter gratis cadeau. Dit is een opt-outfilter gerund door de overheid. Daar sijpelt regelmatig ook een politieke website in, die er niet in thuishoort, zoals Greenpeace. Uiteindelijk lijkt het erop dat je, voor zover je dat nog bent, zelf niet meer de baas bent over je eigen informatiebehoefte, en dat vind ik een heel beangstigende gedachte.
Hoewel Whatsapp dan wel weer fungeert op de plek waar:

1) verspreiding plaatsvind
2) het materiaal expliciet naar een publieke dienst vloeit

Edit: Ik begrijp de argumenten voor en tegen het doorzoeken, ik benoem vooral dat Whatsapp zich in een net andere positie bevind die de wel belangrijk is voor de nuance.

[Reactie gewijzigd door MiesvanderLippe op 23 juli 2024 08:18]

Door al het materiaal te gaan scannen verklaar je iedereen als verdachte.

Ondanks dat ik hier verder geen last van heb, vind ik dit persoonlijk aanstootgevend. Laat de opsporingsdiensten maar degelijk onderzoek doen I.p.v. dit soort vangnetten uit gaan zitten te gooien en de hele bevolking te gaan spioneren.
Hoezo heb je hier geen last van?
Wie heeft er niet een jeugdfoto als klein hummeltje naakt in een bad of op 't strand of bij een zwembad?
Het systeem slaat alleen aan bij matches met een bestaande database van misbruikfoto’s. Een eigen foto van een peuter in bad staat niet in die database.
Maar met Machine Learning herkent de iPhone de foto wel als peuter in een badje en zo krijgt die foto ook een "safety voucher".
It is also important to note that Apple has chosen to use the notoriously difficult-to-audit technology of machine learning classifiers to determine what constitutes a sexually explicit image.
bron: https://www.eff.org/deepl...ackdoor-your-private-life

Dit betreft het versturen via iMessage. Toch een enge gedachten dat ML gebruikt wordt om al je fotos te categoriseren en alarm kan laten slaan.

[Reactie gewijzigd door bluewalk op 23 juli 2024 08:18]

Ja maar dit wordt enkel gebruikt bij messages voor accounts van jongeren die een family sharing account hebben. Als ze jonger zijn dan 13 krijgen de ouders een melding. Zijn ze tussen 13 en 17 krijgen ze zelf een melding. Hiervan gaat nix naar Apple. Deze feature is opt-in.

Maar bij het uploaden naar iCloud photos, dit staat volledig los van de feature in de messages app, wordt het CSAM ding gebruikt en hier komt er geen machine learning aan te pas en als je in dit systeem teveel ‘matches’ hebt dan wordt Apple op de hoogte gesteld en evt de bevoegde instanties.
hier komt er geen machine learning aan te pas
Niet 100% correct. Er word inderdaad enkel gezocht naar foto's waarvan de hashes overeen komen met bekende foto's, maar er word niet gezocht op een bit-identieke hash, maar een 'perceptual hash' zodat ook kleine wijzigingen herkend worden.
Vermits het niet naar perfecte kopieen zoekt is er nog steeds een kans op false positives dus, en de kans die Apple noemt van 1 op 1 biljoen is waarschijnlijk niet correct.
Interessante blog die hier wat verder op in gaat:
https://www.hackerfactor....es/929-One-Bad-Apple.html
Ik heb me verkeerd uitgedrukt: ik bedoelde computer vision. Hetgeen ze in de messages app gaan gebruiken.
Ja maar dit wordt enkel gebruikt bij messages voor accounts van jongeren die een family sharing account hebben. Als ze jonger zijn dan 13 krijgen de ouders een melding. Zijn ze tussen 13 en 17 krijgen ze zelf een melding. Hiervan gaat nix naar Apple. Deze feature is opt-in.
Deze E2EE-omweg en backdoor is gewoon ingebouwd in iedereens iOS en daarmee doet het er niet toe wanneer het wel of niet aanstaat, net als de CSAM-analyse.
Ah, bedankt voor de verduidelijking.

Dat scheelt redelijk in de privacy implicaties hoewel ik het er persoonlijk nog steeds niet mee eens ben dat dit gebeurd en het zeker niet de taak is van Apple om dit te doen.
Hierbij wordt iedereen in een klap verdacht en aan de scans onderworpen. Het lijkt wel een trend te worden, je bent standaard verdacht tot je je onschuld kan bewijzen.
Graag gedaan ☺️

Een iets gedetailleerdere uitleg kan je hier vinden:

https://daringfireball.ne...nitiatives_slippery_slope

Ik ben ook niet akkoord dat het hun taak is dit te doen. Maar ik denk dat het dit is of (in de toekomst) de overheden een ‘backdoor’ te geven in de E2E encryptie. De pest of de cholera ..
Meer als je bent per definitie schuldig, we zijn alleen nog aan het kijken waarvoor we je moeten gaan oppakken en wanneer. Want de fout in gaan doe je sowieso, dus je bent schuldig. Bedrijven horen niet op de stoel van de wetgever en politie te gaan zitten.

Maar naast dit feit, waar ik absoluut niet van gedient ben, hou ik er ook niet van dat grote Amerikaanse commerciele bedrijven hun puriteinse normen en waarden wereldwijd opleggen. Wat sociaal of wettelijk niet acceptabel is in de VS hoeft dit niet per definitie te zijn in een ander land. Dat hoeven dergelijke partijen niet op te leggen; als landen dat soort dingen willen veranderen zijn ze daar prima toe in staat zonder de 'hulp' van Apple/Microsoft/Google/FaceBook. Niet iedereen zit te wachten op een hartaanval om een blote (vrouwen) borst en de verheerlijking van vuurwapens en geweld binnnen dezelfde minuut.
Maar dit gebeurd al veel langer op alle apple apparaten alleen zal er nu dus een extra tag toegevoegd worden voor sexual content.
Hoe weet je zo zeker dat die persoonlijke jeugdfoto niet door een pedofiel ooit in zijn collectie is opgenomen nadat je die ooit ergens online hebt gehad? Van daar uit kan die zomaar weer in die database terecht komen. Best gevaarlijk.

Sowieso zijn hashes niet uniek, dus je kan ook een totaal andere foto of bestand hebben die geheel toevallig qua hash matcht met een foto uit die database, zeker als die database erg groot is en je heel veel bestanden gaat testen.
De foutmarge is volgens Apple 1 op de biljoen matches (dus niet 1 op de biljoen foto's). Als we ervan uit gaan dat dat klopt hoef je je daar geen zorgen over te maken.
Een persoonlijke foto moet dan eerst nog door jezelf of door familie ergens gelekt zijn, opgepikt moeten zijn door een pedofiel en vervolgens ook nog eens als misbruikfoto geclassificeerd moeten zijn in de database van de kinderrechtenorganisatie en vervolgens nog door een menselijke beoordeling nogmaals als zodanig geclassificeerd moeten worden. Het kan... Ik denk dat via de klassieke manier van opsporing mensen vaker ten onrechte een arrestatie voor de kiezen krijgen.
Het hangt van de hoeveelheid bestanden af waar tegen je vergelijkt. Als de foutmarge inderdaad 1 op een biljoen is, dus 10 tot de twaalfde macht, dan is dat eigenlijk niet zo veel als je bedenkt hoeveel iPhones, iPads en macs er zijn in de wereld en hoeveel bestanden die elk bevatten. Er zijn volgens Apple op dit moment een miljard iPhones alleen al, als die elk jaar 1000 nieuwe bestanden te scannen hebben (niet een heel vreemd aantal als je af en toe wat fotografeert, online wat afbeeldingen in je browser krijgt, wat afbeeldingen van WhatsApp van vrienden, etc) dan is dat elk jaar al 1 false positive. Maar het gaat ook nog eens om alle MacBooks, iMacs, MacMini's, etc, welke allemaal wellicht nog meer bestanden te scannen hebben jaarlijks. Je zal dus elk jaar meerdere false positive's hebben en dan wordt de handmatige controle heel belangrijk. En dit proces zal dan tientallen jaren zo door gaan. Het zullen niet extreem veel slachtoffers zijn die vals beschuldigd zullen worden, maar ze zullen er zeker zijn simpelweg door het grote aantal bestanden. En als de gebruikte hash niet 100% zuiver verdeeld is zal het aantal wellicht nog groter blijken, als bijvoorbeeld foto's altijd al in een subset van het totaal aantal hashes terecht komt.

Voor wat betreft de foto die per ongeluk in de database terecht is gekomen: zonder de context dat jij dat zelf in je eigen badje bent kan die handmatige controle ook heel goed falen. Het zal uiteindelijk vast voor de rechter wel goed komen, maar je moet er niet aan denken dat je door zo'n proces heen zou moeten.
Nogmaals, niet 1 op de biljoen foto's maar 1 op de biljoen positieve matches is vals.
Controle op[ de database kan inderdaad falen, maar de database wordt onderhouden door het National Center for Missing and Exploited Children. Heel veel opsporing verloopt volgens die database. Missers in deze database staan dus helemaal los van het principe dat Apple hanteert. Het is een referentie die door Justitie gebruikt wordt.
Waar heb je dat getal van 1 op een biljoen vandaan? Kan dat nergens vinden. Enige waarden die ik vind over PhotoDNA van Microsoft (wat de CSAM kennelijk gebruikt) is 1 op 10 miljard false positives en dat gaat uit van het totaal aantal foto’s, niet enkel de positieven: https://www.itu.int/en/co...uments/ICMEC_PhotoDNA.PDF

Dat getal is dus aanmerkelijk lager zelfs dan wat jij nu noemt, dan hebben het over duizenden fouten per jaar.
https://www.apple.com/chi...ion_Technical_Summary.pdf

"The threshold is selected to provide an extremely low (1 in 1 trillion) probability of incorrectly flagging a
given account."
Ah, daar staat dus inderdaad heel iets anders! Kennelijk gaan ze niet iemand aangeven bij een enkel plaatje dat matcht, maar pas als je een bepaald aantal van dat soort matches hebt. En dat aantal foute plaatjes houden ze dus zo hoog dat je op die 1 in 1 trillion komt. De kans op een vals positieve is dus wel veel hoger, maar dat hoeft dan niet uit te maken. Je zou dan heel veel vals positieven moeten hebben voordat je account als geheel als fout wordt gezien.
Als 1 op de miljoen foto's ten onrechte als een misbruikfoto herkend wordt, hoeft de drempel maar twee foto's te zijn om op 1 op 1 biljoen uit te komen.
Gezien de techniek die ze gebruiken niet een normale hash is waarbij een kleine wijziging in het bestand tot een drastisch andere hash leidt, maar juist soortgelijke foto's dezelfde hash opleveren, kun je dat niet zomaar zeggen. Een map met een aantal vlak na elkaar genomen foto's waarbij er eentje matcht, leidt dan waarschijnlijk tot een hele rij matches op diezelfde hash. Er moet voldoende verschil zijn om tot een ander PhotoDNA resultaat te komen. Zeker een rij foto's in borst mode bijvoorbeeld zou dus wel eens heel goed hetzelfde kunnen zijn.
Of dat zo is weten we alleen als we exact weten hoe de hash wordt opgebouwd. In het wilde weg redeneren is enkel speculatie.
Als een burst-shoot van 20 foto's allemaal matchen met één foto in de database zal daar mogelijk ook logica voor bestaan om dat als één match te zien en niet als 20.

[Reactie gewijzigd door bytemaster460 op 23 juli 2024 08:18]

Als we ervan uit gaan dat dat klopt hoef je je daar geen zorgen over te maken.
Als je alles gelooft wat de marketing afdeling van Apple beweerd ben je eeuwig gelukkig 😊
Dan houdt iedere discussie verder op als je alle informatie die je over opsporingsmethoden te horen krijgt in twijfel gaat trekken.
Dus nu verwar je marketing speak zelfs met
informatie die je over opsporingsmethoden
Net was het zelfs nog geen opsporing..
'Het systeem' is niet, nooit, feilloos. Dat mag toch onderhand wel helder zijn. En als het dat wel is, zijn er altijd mensenhanden beschikbaar om het stuk te maken of we weten gewoon nog niet dat het altijd al rot is geweest.

Die eeuwige behoefte om dingen weg te automatiseren juist nu we steeds beter ontdekken dat al die algoritmen tot tunnelvisie leiden... ik snap het niet. Het is niet alsof we steeds meer werk te doen hebben toch? Integendeel. Laat mensenwerk, mensenwerk zijn...

[Reactie gewijzigd door Vayra op 23 juli 2024 08:18]

Nee, maar de oude analoge justitie was ook niet feilloos. Apple heeft aangegeven dat 1 op de biljoen matches een vals positieve is.
Ik ben ook geen voorstander van dit systeem maar de discussie moet wel gevoerd worden op basis van juiste informatie.
Dat is waar. Maar dan werd het wel door een mens gedaan. Zelfde probleem als met autonome auto's. Mensen mogen een fout maken want we kunnen ze erop aanspreken. Als een systeem het doet is niemand uiteindelijk écht verantwoordelijk en dat werkt onze huidige technocratie in de hand. En die dient ons geen van allen - die perkt vrijheid in op een hele misselijke manier. Veroorzaakt apathie, zelfs (de mobiel-in-de-aanslag-ramptoerist, bijvoorbeeld). We leveren heel veel in omdat het systeem dat wel gaat managen. Doen heel veel dingen niet meer. Nemen de moeite niet voor X of Y. En leren er dus ook niet mee omgaan. Langzaamaan vergroot dat de tegenstellingen tussen mensen op allerlei gebieden.

En is kinderporno zó relevant dat er vangnet technologie voor nodig is? Ik vind dat een veel betere discussie om te voeren. We zitten al een paar stappen te ver :) Het is altijd terrorisme en kinderporno. Uitbuiting van angst want er zijn veel grotere risico's in het leven en ook digitaal die veel meer mensen raken.

[Reactie gewijzigd door Vayra op 23 juli 2024 08:18]

Nee, maar de oude analoge justitie was ook niet feilloos. Apple heeft aangegeven dat 1 op de biljoen matches een vals positieve is.
Je zou die ene maar zijn.
Daarbij kan Apple zoveel percentages noemen. Ze gaan heus niet roepen dat 1 op de 100.000 een false positive kan zijn.
Afijn, de toekomst zal het ons wederom wel leren.
De kans dat je via ouderwetse analoge opsporing ten onrechte met justitie in aanraking komt is vele malen groter...
de thumbnails van fotos die fout geflagged zijn komen vervolgens bij een Apple team(er gebeurt niks bij 1 of 2, pas bij meerdere kan er iemand naar kijken) die ziet dat het duidelijk om onschuldige foto's gaat, en je flags worden stilletjes weggehaald.
Maar bij de methode van Apple zitten er altijd mensenhanden tussen als ik me het artikel goed herinner.

1. Je moet voldoen aan een 'threshold' (x-aantal) van foto's op je device die matchen met een database.
2. Indien dat bereikt is, wordt er altijd gecheckt door mensenhanden.
3. Indien die het ook eens zijn dat het illegale content is, worden de autoriteiten ingeschakeld.

Dus hoe had jij het liever gezien met mensenhanden? Dat mensenhanden elk device gaan checken? En / of dat we alle technologische ontwikkelingen die er tegenwoordig zijn en nog gaan komen hier niet voor gebruiken en hetzelfde blijven doen als voorheen?
Ik had het liever geheel niet gezien.

Want waarom? Weten we of dit wat oplevert? Wat weten we van voorgaande dragnet surveillance methoden en de winsten daaruit? Het blijft dragnet en dus bij voorbaat verdacht, 'omdat het kan' 'want het is maar data'. En wat mist de database nog allemaal? Ook interessant, want dit is allemaal vrij oncontroleerbaar. Eén garantie heb je: hoe beter dat systeem, des te beter mensen leren om niet in de database te geraken, net zoals criminelen prima een ander communicatiemiddel verzinnen. En dan... dan staat er een systeem dat doorontwikkeld is maar steeds minder nuttig. Laten we het nuttiger maken, voeg meer functies toe, controleer andere zaken ook. En daar gaan we.

Compleet van de pot gerukt, dat principe, zoals data in vele vormen nog altijd vogelvrij is en daarmee ook de mensen die die data genereren. Die puzzel is nog lang niet opgelost en ook deze methode is 'm niet.

[Reactie gewijzigd door Vayra op 23 juli 2024 08:18]

Wat dacht je van geen mensenhanden zodat de privacy van de gebruikers niet wordt geschonden.
Ik reageer op een post die het heeft over mensenhanden, vandaar dat ik dat benoem.
Maar bij de methode van Apple zitten er altijd mensenhanden tussen als ik me het artikel goed herinner.

1. Je moet voldoen aan een 'threshold' (x-aantal) van foto's op je device die matchen met een database.
2. Indien dat bereikt is, wordt er altijd gecheckt door mensenhanden.
3. Indien die het ook eens zijn dat het illegale content is, worden de autoriteiten ingeschakeld.
Indien het illegale content is.... in stap 3.
Dus in stap 1 en 2 controleren ze volgens hou legale dingen? Waarom moet daarop gecontroleerd worden?
Tsja, waarom moet je door een metaaldetector op een vliegveld? Waarom wordt er gefilmd in uitgaansgebieden of winkels? Waarom moet ik soms mijn tas openen bij de kassa? Etc.

Het is niet zo dat eventuele verdachten zelf hun illegale content gaan markeren.

En ik snap jouw punt ook hoor, maar het is mij te makkelijk om te zeggen dat onschuldigen helemaal niets moeten hoeven opofferen (en het offer is hier marginaal in mijn ogen) om schuldigen te vinden. Dat gebeurt niet alleen hier, maar dagelijks ook op heel veel andere plekken en manieren.
Totdat jij (of een familielid) het leuk vindt zo'n oude babyfoto online te zetten en deze opgepikt wordt door een verkeerd persoon en alsnog in die database belandt. Of erger, jouw iCloud leeggetrokken wordt omdat jouw wachtwoord in een am-I-pwned lijst terecht is gekomen.

Vergelijk het met cash geld in je portemonnee. Jij kunt ook niet garanderen dat er met een deel ervan géén illegale activiteiten zijn uitgevoerd en/of vrij is van coke-sporen. Sta je dan met je goede gedrag.

Ik snap (zelfs als je kinderen hebt) niet dat je Apple's voorstel goed kan keuren. De stap naar 200 andere onderwerpen anders dan kindermisbruik om jouw privégegevens te scannen is hiermee zó makkelijk gemaakt. Zelfs in Nederland met onze vrij strenge regels omtrent privacy is hier meer dan eens "een fout" gemaakt waarbij middel X in het leven is geroepen voor doel Y maar uiteindelijk Z ook wel erg makkelijk was...
Die database wordt niet alleen door Apple gebruikt om te matchen maar door allerlei instanties en diensten. Als daar een onschuldige foto van jou in belandt heb je het al veel eerder aan de stok met deze instanties.
Daarnaast gaat het om expliciete misbruikfoto's. De kans dat jouw onschuldige babyfoto (die eerst gelekt is, vervolgens opgepikt door een pedofiel en daarna nog eens verspreid moet zijn) als misbruikfoto in die database belandt is gewoon klein. Het is niet uitgesloten, maar daarna vindt er nog altijd een menselijke check plaats of het inderdaad gaat om misbruik.
Het is niet uitgesloten,
Daar ga je al....
maar daarna vindt er nog altijd een menselijke check plaats of het inderdaad gaat om misbruik.
Bron?
Dat staat in ieder artikel over dit onderwerp....
https://www.apple.com/child-safety:
Only when the threshold is exceeded does the cryptographic technology allow Apple to interpret the contents of the safety vouchers associated with the matching CSAM images. Apple then manually reviews each report to confirm there is a match

[Reactie gewijzigd door Krulliebol op 23 juli 2024 08:18]

Waarom zouden badfoto's überhaupt in die database belanden als datzelfde kind niet ook op een andere misbruikfoto staat? Natuurlijk is ook dat mensenwerk, maar ik kan me niet voorstellen dat ze dat soort foto's überhaupt in zo'n database plaatsen. Ja, het kan zijn dat mensen dat als kinderporno zien, maar het lijkt me niet dat een badfoto gebruikt zal worden als trigger voor een systeem als dit. Daar zijn (jammer genoeg) andere types foto's voor te gebruiken.

Het lijkt mij althans niet logisch om dat te doen.
Waarom zouden badfoto's überhaupt in die database belanden als datzelfde kind niet ook op een andere misbruikfoto staat? Natuurlijk is ook dat mensenwerk, maar ik kan me niet voorstellen dat ze dat soort foto's überhaupt in zo'n database plaatsen.
Waarom uitgaan van de goede intenties als het:
a. deels mensenwerk is (zowel de database vullen(?) als coderen van Apple's algoritme) en er dus fouten gemaakt gaan worden. Bijv: nieuws: Bureau Online Kindermisbruik: false positive hashdatabase was menseli...
b. deels AI is, wat altijd een foutmarge gaat hebben of zelfs een black box kan zijn betreft de (verkeerde) classificering.

We trappen er telkens weer in; er wordt een middel X in het leven geroepen tegen een onderwerp waar de gemiddelde mens moreel gezien niet tegen kan zijn. Flashforward jaren later, het initiële doel wordt niet meer bereikt want de bad guys gebruiken al lange tijd medium ABC, maar omdat X er nu toch al is gebruiken we het wel voor iets anders.
Daarbij, de consequenties voor Apple (of een andere organisatie die genoeg druk kan zetten) mocht deze iets verkeerds doen zijn nul komma nul. Geen garantie dat iets of iemand opkomt voor onze belangen.

[Reactie gewijzigd door geekeep op 23 juli 2024 08:18]

Je kunt het ook andersom zien: middelen hiervoor bestaan al lang en op een veel privacy-onvriendelijkere manier. Kijk bijvoorbeeld naar China hoe zij bestanden en / of het internet controleren. Zij hebben deze methode van Apple helemaal niet nodig, die hebben al veel betere alternatieven voor hun 'iets anders'. Apple had het op diezelfde privacy-onvriendelijke manier kunnen doen, maar doet het nu op een privacy-vriendelijkere manier.

Dus er telkens weer intrappen gaat wat mij betreft in dit geval niet op. Als er een kwaadwillende organisatie of regime is, hebben ze dit middel niet nodig, daar zijn al lang andere (en betere) middelen voor.
Waarom zouden badfoto's überhaupt in die database belanden als datzelfde kind niet ook op een andere misbruikfoto staat? Natuurlijk is ook dat mensenwerk, maar ik kan me niet voorstellen dat ze dat soort foto's überhaupt in zo'n database plaatsen. Ja, het kan zijn dat mensen dat als kinderporno zien, maar het lijkt me niet dat een badfoto gebruikt zal worden als trigger voor een systeem als dit. Daar zijn (jammer genoeg) andere types foto's voor te gebruiken.
Normale baby- of kinderfoto's kunnen van het net geplukt worden door pedofielen etc. Die plaatsen dedergelijke foto's in hun fotocollectie. Uiteindelijk worden ze opgepakt door de politie en belandt de collectie in de database.
Dat het kan, snap ik. Maar als ik zo'n organisatie was, zou ik kieskeurig zijn met welke foto's ik dan in de database stop. Het is nergens voor nodig om te matchen op badfoto's die in een andere context niet illegaal zijn als er genoeg andere foto's zijn waar je op kunt matchen die wel duidelijk misbruik tonen.
Heb je het topic van geblokkeerde Microsoft accounts al gelezen? Één "verdachte" foto in je Onedrive en je hele Microsoft account wordt geblokkeerd. Vaak gaat het dan dus om zo'n foto van een kind in bad.
Ja, klopt, maar als jij dan even leest wat de systematiek van Apple is, zal je zien dat dat heel anders werkt.
Een foto die niet in de database van misbruikfoto's voorkomt zal nooit een positieve melding geven.
Totdat een grapjas jou zo’n foto mailt/appt/ etc.
Stel dat je daarmee een iCloud of Google Drive of Microsoft account automatisch kan blokkeren.
Dan zou een (staats) internet crimineel naar iedereen zo’n foto sturen. Dat is een makkelijke manier van terrorisme.
Mail en telefoonnummer databases zijn er genoeg om zeker 100-en miljoenen accounts te blokkeren.
Of foto's in de icloud gezet worden als je ze ontvangt moet je bewust voor kiezen bij iOS. Het is niet dat alle foto's die je vanuit de hele werd ontvangt automatisch in de icloud terecht komen.
Dat weet ik, maar weten al die anderen dat ook?

Ik heb bijv. bij WhatApp ingesteld dat video en foto's niet automatisch worden opgeslagen, maar dit staat standaard aan.

De meeste gebruikers van IT apparaten en diensten zijn onwetend over de mogelijkheden en zeker de gevaren.
Nee, dat staat standaard uit op iOS-apparaten. Je moet juist aangeven dat je de foto's in je photo library wil opslaan.
Ik heb net even gekeken in mijn WhatApp en daar stond het dus aan, helaas.
Ik gebruik eigenlijk alleen mijn WA Business (heb 2 nummers op een iPhone) en die standaard WhatsApp gebruik ik niet tot weinig. Die optie 'Voeg toe aan filmrol' optie heb ik zeker weten niet zelf aangezet.
In WA Business stond het wel uit. Zoals ik zelf heb gedaan ooit.

Geen idee wat de huidige standaard instelling is, maar ik weet dat ik het bij mij uit heb gezet, net zoals bij mijn kinderen en mijn vriendin. Aangezien die stomme WA berichten de hele iCloud storage vol zette met troep.

Even buiten deze discussie zou ik het liefst WA meteen van mijn telefoon halen, maar helaas zit ik er sociaal gezien aan vast.
Bij mij staat het toch echt standaard uit. Heb voor diverse familieleden hun telefoon geïnstalleerd en dan hoefde ik het alleen bij de familie-chat in te schakelen omdat het overal al standaard uit stond.
Ik wil er geen welles niets spelletje van maken, maar mijn persoonlijk ervaring is anders en ik kan niet oordelen over de algemene standaard instellingen.

Wat ik beoogde is om iedereen aan te sporen om al die privacy gevoelige dingen eens goed onder de loep te nemen, wat ook de standaard zou moeten zijn.

Een beetje awareness zou een hoop ellende schelen.
Ho even, iets te kort door de bocht. Als er voorheen geen kwaadwillend gedrag is geweest (even hoe dat getoetst wordt buiten beschouwing latende) en je ontvang dit voor een 1e keer incidenteel? Het mechanisme zal in dit geval vast bepalen dat de verstuurder trammelant krijgt en niet de ontvanger.

Anders wordt het veel en véél te makkelijk.
Een foto die niet in de database van misbruikfoto's voorkomt zal nooit een positieve melding geven.
Zeg nooit nooit. Het lijkt er op dat het systeem ook object herkenning doet in foto's. Wellicht nu nog alleen voor detectie en waarschuwingen, maar wat houdt ze tegen om ook dat uit te breiden met automatische uploads naar de online rapportage tool. Een citaat van Apple over het Messages component van de CSAM scanner:
The Messages app will add new tools to warn children and their parents when receiving or sending sexually explicit photos.

When receiving this type of content, the photo will be blurred and the child will be warned, presented with helpful resources, and reassured it is okay if they do not want to view this photo. As an additional precaution, the child can also be told that, to make sure they are safe, their parents will get a message if they do view it. Similar protections are available if a child attempts to send sexually explicit photos. The child will be warned before the photo is sent, and the parents can receive a message if the child chooses to send it.

Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit. The feature is designed so that Apple does not get access to the messages.
De technical overview legt uit dat NeuralHash (het algoritme dat op je device de scan doet) ook kijkt naar wat er in de afbeelding staat ipv de pixels e.d.
NeuralHash is a perceptual hashing function that maps images to numbers. Perceptual hashing bases this number on features of the image instead of the precise values of pixels in the image. [...]

For all images processed by the above system, regardless of resolution and quality, each image must have a unique hash for the content of the image. [...]

For example, an image that has been slightly cropped or resized should be considered identical to its original and have the same hash.
Zover ik de tech kan volgen staat er niet bij wat ze onder 'slightly cropped' verstaan. Het is aannemelijk dat de betrouwbaarheid van de hash significant afneemt naarmate een afbeelding minder gedetailleerd is, bijvoorbeeld door bewerking en compressie. Afbeeldingen van lage kwaliteit kunnen dan eerder een false-positive geven.

Dit citaat is wellicht ook interessant:
Siri and Search are also being updated to intervene when users perform searches for queries related to CSAM.
De scanner kijkt dus naar patronen in afbeeldingen, fuzzy matcht afbeeldingen met lijsten van derden én kijkt naar je zoek acties in Siri en Search (vermoedelijk Spotlight). Die drie bij elkaar geeft Apple behoorlijke user profiling waarde. Zeker omdat de matching lokaal gebeurt en daarmee de e2e afscherming wordt omzeilt. Je zou bijna denken dat het iets te maken heeft met het e2e verbod waar aan gewerkt zou worden.
Het systeem zoals Apple wil gebruiken gebruikt geen objectherkenning om te matchen. Het maakt een hash en vergelijkt deze met bestaande hashes in een database. Een foto die niet in de database voorkomt geeft geen positief signaal. De foutmarge is 1 op de biljoen positieve matches (dus niet 1 op de biljoen foto's). Het citaat dat je aanhaalt gaat over foto's die binnenkomen die vervolgens wel of niet aan kinderen worden getoond. Daar wordt objectherkenning op toegepast.
Het hashen gebeurt inderdaad op basis van wat er op de foto te zien is om zo licht aangepaste foto's (crops, helderheid/contrast aanpassingen) toch te kunnen matchen met de hash in de database. Foto's die niet in de database voorkomen worden dus nooit gevlagd.
Totdat er foto's cq hashes in de database terecht komen die er niet in thuishoren.
Die database wordt heel breed in de opsporing van kindermisbruik ingezet. Als daar foto's ten onrechte in terecht komen heeft dat ook invloed op al die andere opsporingsmethoden en heeft dus niets te maken met deze van Apple in het bijzonder.
Maar dat zijn wel jeugdherinneringen en dus intieme persoonlijke foto's die wel gescand worden. Daar hoeft niemand iets van te weten behalve jij. Je hebt niet te verbergen maar ook niets te vertellen.
Die worden niet gescand maar er wordt een hash van gemaakt. Aan de hand van de hash kan helemaal niemand bepalen wat erop staat.
Dan nog is het jouw eigendom. Hash of niet, jij moet in controle zijn wat je wel en niet geeft. Zolang die hash overeen kan komen met foto's kan je dus alsnog iets illustratiefs van maken.

Je moet je voorstellen dat jij een foto-album thuis hebt van vakantiefoto's waar jouw kleinkinderen in staan, naakt aan het zwemmen. Vervolgens kijkt iemand constant mee in jouw albums en noteert van iedere foto die mogelijk een barcode en kijkt op kantoor of jij een fout begaat.

Behalve een enorme inbreuk in privacy, kan het zo zijn dat apple een fout maakt en jou kenmerkt als handelaar van kinderporno. Wil jij echt dat een prive bedrijf het wet in eigen handen neemt en jou aan de schandpaal nagelt? Zelfs al bieden zij hun excuses aan dat zij jou fout hebben gekenmerkt als dit of dat, de schade is al gedaan.
Met de hash kun je niets, behalve als ze in de database voorkomen. Dat kun je dus matchen met een bekende foto.
Het is niet te vergelijken met het meekijken in je album. Een hash is niet hetzelfde als meekijken. Er wordt meegekeken in de verzameling hashes en niet in het album. Dat is echt wat anders.
Apple gaat niemand kenmerken als misdadiger. In het geval van een positieve match vindt er een menselijke beoordeling plaats en als die ook positief uitvalt, worden de autoriteiten ingelicht. Die bekijken vervolgens wat ze met de melding doen. Dit is niet anders dan wat ontwikkelcentrales, speeltuinen, campings, zwembaden, winkels etc. ook doen en verplicht zijn om te doen. Het systeem zoals Google en MS gebruiken is een heel ander verhaal. Die gaan zelf op de stoel van justitie zitten.
Die worden niet gescand maar er wordt een hash van gemaakt. Aan de hand van de hash kan helemaal niemand bepalen wat erop staat.
Tuurlijk kan iemand dat wel. Er is altijd nog de daadwerkelijke foto met de identieke hash.
Dat zeg ik toch? Alleen als die foto in de database voorkomt en het dus een strafbare foto is. Alle andere foto's zijn niet te matchen.
Ik kan mij wel verhalen herinneren van andere Tweakers die bij Google Drive gebanned waren hierom. Maar het kan zijn dat die een andere methode gebruiken.
Ja, daar werd dus inderdaad de inhoud van de foto geanalyseerd en op niet-transparante wijze bepaald dat je geschorst werd. Apple checkt het met een bestaande database aan misbruikfoto's, samengesteld door een overheidsorgaan en waarschuwt vervolgens de autoriteiten bij een positieve match. Ik ben er ook geen fan van, maar het is wel een hele andere invalshoek dan Google en Microsoft.
Zeker waar. Maar zoals al zo ontzettend vaak is gebleken bij dergelijke systemen blijft het daar niet bij. Het is niet onwerkelijk om binnen een paar jaar het systeem uit te bereiden met het lokaal scannen van wat zich in een foto bevindt aangezien bijna alle tech bedrijven bezig zijn met computational photography.
Dat is een hele andere discussie, dat systemen worden uitgebreid naar andere gebieden.
Het is een hele andere discussie die op hetzelfde antwoord uitkomt; dit soort systemen moeten in de kiem worden gesmoord.
Het ging er nu om of een persoonlijke foto van je kleuter in bad kan leiden tot een signaal in het systeem.
Nee, dat is niet zo, want een positief signaal ontstaat alleen als er een match is met een bestaande database aan misbruikfoto's.
Het is heel goed mogelijk dat mensen dit soort databases gaan manipuleren door onschuldige foto's te uploaden en te labelen als "misbruik".

En wat nou als jouw foto bij een security leak van iCloud in de handen terecht komt van pedofielen en deze vervolgens wordt geflagged als misbruik?

Dit zijn vragen en onzekerheden waar geen antwoord op is en wat dit systeem onmogelijk waterdicht maakt.
Daarnaast snijdt jouw argument het daadwerkelijke probleem niet aan; hoe kunnen wij ooit zeker weten en hoe kan Apple ooit garanderen dat dit systeem niet gaat worden uitgebreidt of gebruitk door overheden om onwenselijke foto's en bestanden te detecteren.
Die database wordt bijgehouden door het National Center for Missing and Exploited Children en daarna vindt er nog een menselijke check plaats. Die database wordt gebruikt voor allerlei opsporingen. Niet alleen het systeem van Apple.
Je kunt wel van alles gaan verzinnen hoe zo'n systeem zou kunnen falen maar dat geldt voor alle opsporingsmethoden.
Het is simpelweg onverantwoord om niet na te denken over de potentiële gevolgen van dit systeem. Apple kan gewoon geen garanties geven.

Die database is één voorbeeld. Welke databases gaan ze gebruiken in andere landen? Stel dat ze dit systeem is een land als China uitbrengen, gaan ze dan een database gebruiken geleverd door de overheid? Zelfde verhaal voor landen als Polen, Hongarije, Brazilië, etc.

In essentie is dit massasurveilance dat heel makkelijk kan worden misbruikt en je hoofd daarover in het zand steken helpt niemand.
Klopt, ik ben ook tegen het systeem maar je moet het wel beschouwen in vergelijking met andere (feilbare) systemen. Ik denk dat de implementatie zoals Apple het beschrijft heel wat meer zekerheden biedt dat menig andere vorm van surveillance op internet en op de openbare weg.
Dat zou heel goed kunnen, maar feit is nog steeds dat die argumentatie een "whataboutisme" is. Simpelweg het feit dat Apple's systeem dan wel dan niet beter werkt dan anderen is geen argument waarom het zou moeten worden gebruikt.

Zonder vastgespijkerde garanties is dit systeem veel te makkelijk te misbruiken door partijen die invloed hebben op Apple of toegang hebben tot de databases.

Iemand ten onrechte labelen als pedofiel kan hun hele leven verwoesten. Zo'n belangrijke en gevaarlijke prognose kan simpelweg niet worden overgelaten aan iemand anders dan de justitiële macht en een rechter.
Simpelweg het feit dat Apple's systeem dan wel dan niet beter werkt dan anderen is geen argument waarom het zou moeten worden gebruikt.
Daarom zei ik dus ook: "ik ben ook tegen het systeem maar je moet het wel beschouwen in vergelijking met andere (feilbare) systemen.". Ik gebruik het dus helemaal niet als argument waarom het gebruikt zou moeten worden.
Hier een goed filmpje(nieuwstrend) over van EenVandaag over Apple kinder misbruik foto’s :

https://eenvandaag.avrotr...ar-privacy-in-het-geding/
Daarin wordt dus ook al foutief gezegd dat "Wanneer zij (Apple) vinden dat het om pornografisch materiaal gaat...". Dat klopt dus gewoon niet. Het wordt langs de lat gelegd van een database bij de overheid waar vastgestelde misbruikfoto's in zitten.
Ik ben ook tegen het systeem maar vind wel dat de discussie gevoerd moet worden op basis van juiste informatie en niet op basis van wat mensen denken hoe het werkt.
En apple is degene die de database bewerkt (encryptvoa) en aanbied.
Dus per definitie verdacht.
Nee, het National Center for Missing and Exploited Children houdt die database bij.
Maar apple bewerkt die!
Apple bewerkt die helemaal niet. Apple zorgt ervoor dat de foto's in die database gehashed worden.
Dat is een bewerking van het origineel. Je moet Apple vertrouwen dat het ook daadwerkelijk alleen de bron gebruikt. Ik heb dat vertrouwen niet.
Zoals al eerder gezegd: als je alles in twijfel gaat trekken wat instanties en bedrijven zeggen, dan valt geen enkel systeem te vertrouwen.
Ik zou werkelijk niet weten wat Apple tot een betrouwbare partner maakt.
Alleen al het siri schandaal bewees het tegendeel en ook dit plan bewijst dat het een onbetrouwbare partner is
Dus feitelijk helpt het niet zoveel tegen kinderporno. Kwestie van nieuwe foto's maken en er is geen vuiltje aan de lucht.
Het lijkt me toch dat men ook wel gaat kijken naar foto's die overeenkomsten vertonen en in dat geval zijn false positives wel degelijk mogelijk.
Nee, klopt. Nieuw materiaal wordt niet herkend en de doorgewinterde verzamelaar gebruikt geen iphone of ipad of icloud voor zijn verzameling.
Na het scannen staat het wel "gehashed" n een db. Maar dat zeggen ze niet. ;)

[Reactie gewijzigd door Xfade op 23 juli 2024 08:18]

Nee, het gebeurt op je telefoon, zowel het hashen als de check.
De foto van mijn kind naakt in mijn bad op mijn telefoon is gewoon een kinderfoto. Dezelfde foto op de telefoon van een pedo maakt het KP. Maar dezelfde foto op de telefoon van opa en oma houdt het nog steeds een kinderfoto. Dus hoe bepaalt het algoritme het heel dunne verschil tussen een gewone foto en KP gezien dat niet enkel aan de foto te zien is?

Sterker nog, ALS die foto uitlekt en tussen pedo's verspreid wordt, wordt mijn foto dan plots KP, en bezit ik, zodra de hash op de zwarte lijst staat, KP volgens het systeem?

Dit systeem moet je noot willen...
De foto van mijn kind naakt in mijn bad op mijn telefoon is gewoon een kinderfoto. Dezelfde foto op de telefoon van een pedo maakt het KP.
Dat is onzin. De beoordeling of iets KP is hangt af van de inhoud van de foto en niet wie hem op zijn telefoon heeft staan. Er zijn allerlei criteria of een foto in de database komt. Het feit of een pedofiel een foto in zijn bezit had is daar niet één van.
Dat is dus wel een ding, zeker met de artikelen afgelopen weken/maanden over dat Cloud-accounts worden gesloten zonder reden van opgaaf. Lekker als m'n moeder babyfoto's van m'n zus en mij wilt veiligstellen.
Babyfotos (in bad, etc) in iCloud foto’s zetten zal geen problemen geven. Want die foto’s zitten niet in de CSAM database. En zelfs al wordt je gehackt en komen al je foto’s op straat te liggen dan nog zullen die foto’s niet in de CSAM database komen want het zijn geen foto’s van kindermisbruik
Komt nog wel. Bovendien begint het altijd klein, en wordt het daarna voor andere dingen ge/misbruikt.
Voorbeelden genoeg.

nieuws: Politie gebruikte onterecht foto's van automobilisten via kentekencam...
Ondanks dat ik hier verder nog geen last van heb,
Fixed.

Vandaag zijn het foto's van kindermisbruik, morgen algemene criminaliteit, overmorgen logo's van de oppositie.
Kijk voor kindermisbruik is het fantastisch dat dit kan. De vraag is wel wanneer China en Rusland etc. hier om vragen om op een andere hashlijst te zoeken. Nu mag in China een zoekresultaat ook geen resultaten opleveren. Het is wel erg makkelijk om de hashlijst aan te vullen met nieuwe hashes die andere zaken filteren.

Sterker nog, het is erg moeilijk om te controleren of dit uberhaupt niet direct al gebeurt, de hashes zijn uniek en wie levert ze aan? Ik neem aan dat Apple zelf niet een database met dergelijke foto's bijhoud? Dus krijgen ze hashes aangeleverd, waarvan?

Ook lijkt het mij niet moeilijk om hier iets voor te maken dat je willekeurig welke foto hier tegen 'beschermd' kwestie van even overal een subtitel onder zetten.
Anoniem: 377399 @7ven9 augustus 2021 09:30
Kijk voor kindermisbruik is het fantastisch dat dit kan.
Dat weet ik niet. In de VS bijvoorbeeld, als een verliefd tienerstel van 17 naaktfoto's van elkaar maakt, dan wordt dat als kinderporno gezien. De twee tieners kunnen dan (en worden dan ook) gestraft voor het maken en bezitten van kinderporno. Als een Nederlands tienerstel hetzelfde doet, kunnen ze nietsvermoedend tijdens een vakantie in de VS worden opgepakt. Alleen omdat Apple de foto's als 'verdacht' hebben gemarkeerd, waardoor de VS hun namen in een database hebben opgeslagen.

Wie bepaalt wat zo moreel verwerpelijk is, dat Apple zomaar en zonder op z'n minst tussenkomst van een rechter door al je bestanden mag zoeken op bewijs daarvoor? De VS? China? Iran?
Nogmaals, dit klopt niet, foto's van dit verliefd stel worden niet gekenmerkt als kinderporno omdat de hash niet overeenkomt met de database. Sterker nog "nieuwe kinderporno" zal ook niet worden opgemerkt.
Apple stuurt een bericht naar de autoriteiten in het land waar het account gevestigd is. Daarnaast gaat dit systeem voorlopig alleen in de VS werken. Apple heeft aangegeven dat per land gekeken moet worden hoe het systeem moet werken.
Nee. Er wordt enkel gescand naar KP bij Amerikaanse iCloud accounts en er wordt dus enkel contact opgenomen met de Amerikaanse autoriteiten omdat het enkel over Amerikaanse burgers kan gaan.
Ja, in eerste instantie, maar Apple heeft aangegeven dit in andere landen volgens de lokaal geldende wetten te willen implementeren.
Internet kent geen grenzen en zoals het voorbeeld aangaf, mensen ook niet.
Het inlichten van autoriteiten klinkt leuk maar als dat onterecht is zul je er niet blij mee zijn. Het zal dankzij de bureaucratie ook lang duren voor je naaam weer gezuiverd is (voor zover dat al mogelijk is).
Klopt maar we moeten het wel vergelijken met andere opsporingsmethoden waarbij dwalingen plaatsvinden en mensen onterecht met justitie te maken krijgen. Men heeft de neiging om vooral nieuwe methoden flink onder de loep te nemen terwijl bestaande falende methoden niet meer besproken worden. Als dit tot minder vals positieven leidt dan bestaande methoden is dat alleen maar positief.
China gebruikt We chat, geen Whatsapp (is daar verboden). We chat stuurt alles al netjes door naar de overheid. Kan zelfs automatisch al beoordelen of je tegen de overheid iets aan het doen bent en meteen die persoon flaggen.

https://citizenlab.ca/2020/05/wechat-surveillance-explained/

Plaatjes/woorden worden dus al vergeleken met een database en server side gecensureerd. China kan inderdaad Apple gaan vragen om hun database (een deel) te gebruiken, laatste tijd gebeurd dit veel meer inderdaad.. Ik ben er zelf ook bang voor dat we steeds minder anti China mogen zijn van China.
De 'lange arm van Peking' (en overigens ook die van andere landen) reikt al lang tot aan Nederland. Chinese Nederlanders of Chinezen die in Nederland verblijven worden actief in de gaten gehouden door China, en China heeft hier ook al meerdere instituten (los van ambassades en consulaten) die de beeldvorming over China proberen te beinvloeden.

https://www.vpro.nl/speel...ialogica-in-de-klas~.html
https://www.npo3.nl/de-lange-arm-van-china
https://nos.nl/artikel/23...go-china-niet-beschadigen
(en zo verder)

[Reactie gewijzigd door Tc99m op 23 juli 2024 08:18]

Al zou iemand de hash database veranderen, dit zou een bedrijf zijn waarmee Apple samenwerkt, dan nog zouden de bestanden alleen door Apple kunnen worden ingezien. En die zal dus zien dat de hashes niet kloppen.
dan nog zouden de bestanden alleen door Apple kunnen worden ingezien.
En dat lijkt je een goed plan?
Ik zit er niet om te springen dat ze dit doen, maar vrijwel elk hosting bedrijf doet dit tegenwoordig. Dus hoe Apple het dan doet is misschien nog de minst erge. Als je niet wilt dat bedrijven in je foto's kunnen kijken, moet je ze dus niet uploaden naar een server van een ander.
Maar hier kijken ze naar lokaal opgeslagen foto's!
Maar alleen als je ze upload naar de iCloud! Dus dan komen ze daar terecht.
alleen als je ze upload naar de iCloud
Nog een reden om dat niet te gebruiken
Maar ze worden lokaal gescand!
Al zou iemand de hash database veranderen, dit zou een bedrijf zijn waarmee Apple samenwerkt, dan nog zouden de bestanden alleen door Apple kunnen worden ingezien. En die zal dus zien dat de hashes niet kloppen.
Door wie ?
Want "Apple" is geen persoon ..

Net zoals ik TPG post vertrouw dat ze pakketjes bezorgen, maar ik soms mijn twijfels heb aan de mensen die ze in dienst hebben
Ja dat is zo, dus als je foto's privé wilt houden moet je ze vooral niet uploaden naar een of andere clouddienst.
In het verleden hadden wij in Oost Europa DDR, KGB. Destijds was het Westen fel tegenstander van massasurveillance. Nu onder de mom mag ineens wel elk burger worden gemonitord, sterker nog, ze mogen gewoon in je foto’s graaien!! Destijds ging DDR en KGB niet zo heel ver! Wel bestond destijds een angst cultuur, als je maar ook niets deed wat niet mocht (serieuze consequenties)… en nu beginnen wij in het Westen waar wij destijds fel op tegen waren, alles dunnetjes over te doen, maar in het dubbele kwadraat, met richt zich op het hele planeet!!! Vreselijk dat alles onder een bepaald noemer wordt gepakt en wat heeft een bedrijf als Apple te doen met het spelen van een burgerwacht… hoezo!! Wie heeft hierom gevraagd??? Achter de gesloten deuren toch de overheid?? Ik vindt dit helemaal niets en gaat totaal de verkeerde kant uit.

edit; typos, zins opbouw (ja ja in know, nooit een 10 voor taal gehad)...

[Reactie gewijzigd door Fermion op 23 juli 2024 08:18]

Ik heb wel vaker gezegd dat Rop Gonggrijp(white hacker) hier in 2001 al voor waarschuwde :

https://youtu.be/wqgBg38kmbU
Inderdaad relevant maar we zijn ondertussen zo afhankelijk van technologie dat er vrijwel niet meer aan te ontsnappen valt. Ik wordt nu als vreemd en verdacht gezien door het dommere deel van mijn familie omdat ik weiger facebook of whatsapp te gebruiken, “hij zal wel wat te verbergen hebben”.
En toch vind ik het dubbel. PostNL mag ook verdachte pakketten openen om de inhoud te controleren.

Geen idee of het zo werkt, maar: scan op telefoon van afbeelding, vergelijking met hash op server en bij een hit wordt deze doorgestuurd en bekeken door een persoon. Niet veel anders dan een pakket openen.
Maar een verdacht iCloud account mag dan ook doorzocht worden. Dat was altijd al.
Ja verdacht, dat is hier het keyword. Nu gaat Apple iedereen als verdacht markeren. Groot verschil tussen iedereen scannen, of alleen bij een melding van een autoriteit.
Dat weet ik. Ik reageer ook op iemand die schrijft "verdacht pakket".
Ik vind je nu wel verdacht hoor... fel tegen Apple! hoezo? waarom? iets te verbergen?
Je bent voor Apple of tegen Apple... Eng idee best wel. Want er tegen zijn is direct al een stempel, want dan heb je iets te verbergen... Belachelijk voor woorden.
Ik vind het erg verdacht dat jij mij verdacht vind :+

Trouwens komt de hashrate van jouw nick overeen met iets wat niet in de haak is, pas maar op :P (grapje)
Dat zeg je goed. Een verdacht pakket. Dan moet er al een aanleiding zijn om juist dat pakket te openen. Wat Apple hier wil doen is gewoon alle paketten openen om te kijken of er wat mis mee is. Daar zit hem het verschil.
Apple opent helemaal geen pakketten. Ze vergelijken enkel de hash zonder de inhoud te zien. Het is eerder het lezen van een barcode op de doos en die vergelijken met de criminele database.
Was het maar zo onschuldig. Het probleem is dat die 'criminele database' in feite een black box is.
En een black box waarvan de regels telkens worden uitgebreid, zonder dat hier voor jou zicht op is.
Wat vandaag onschuldig is, kan morgen ineens strafbaar zijn in welke vorm dan ook.
De Toeslagen affaire en Syri zijn hier lokale voorbeelden van.
Verkijk je niet op de technische verklaringen met hashes ect: dit is massasurveillance pur sang.
Zo heb ik jaren terug last gehad van een foto van een bakje friet welk steeds verwijderd werd op verschillende sociale media en toen nog Skydrive. Dus ook op mijn PC werd de foto steeds opnieuw verwijderd na elke sync met mijn telefoon.
Kwam er later pas achter dat de meest waarschijnlijke oorzaak is dat de MD5-hash van de foto lijkt op een hash in zo'n database voor verboden foto's, en daardoor dat bakje friet dus constant werd verwijderd. Zonder dat je daar iets tegen kan doen.
Wel een hoop werk voor een bakje patat..
Precies, dit soort dingen komen altijd met een glijdende schaal dat omlaag gaat.

Recent voorbeeldtje: nieuws: Politie gebruikte onterecht foto's van automobilisten via kentekencam...

In eerste instantie zou dit systeem alleen worden gebruikt voor snelheidsovertredingen en milieuoverschrijdingen. Toch niet, zo zie je maar. Als het kan dan zal het ook gewoon gedaan worden. Nu inderdaad om alleen kinderporno te stoppen, straks om terrorisme te stoppen, hierna om foto's van de Eiffel toren in de nacht weg te knippen?
De vergelijking is niet helemaal correct, er is geen enkele relatie tussen de inhoud van een kartonnen doos met barcode en de inhoud dat vb een vuurwapen kan zijn, terwijl de fingerprint/hash van een foto wel degelijk een mathematische relatie heeft met het eigenlijk prentje.

Pakketjes gaan natuurlijk makkelijker door een scanner waar met geavanceerde software wel degelijk allerlei vormen en materialen kunnen geidentificeerd worden, wat dan genoeg kan zijn voor een "red flag"
Ik heb geen idee waar pakket-scanners (X-ray) eigenlijk gebruikt worden, is dit enkel op luchthavens/havens (dus entry-points van landen) of zouden grote "hubs" ook scanners hebben staan?
Toch is dat ook niet zo natuurlijk, om hashes te kunnen vergelijken moet er volgens mij EERST een database met bekende fotos van kindermisbruik zijn aangelegd waar de hashes van gemaakt zijn.
Dus het is als vergelijken met barcodes van afzenders waarvan je wel weet dat die verdacht zijn.
Het enige bezwaar is dat om dit betrouwbaar te kunnen doen die hashes gemaakt worden door het foto bestand in een vaste vorm te openen (converies van het huidige formaat naar het formaat waar je de hashes van maakt) en daar dan op te hashen. Dus technisch is er 'gekeken' naar de inhoud van de foto.
Ik denk toch dat het wel mee valt allemaal.
De relatie tussen een hash en een afbeelding is echter wel eenzijdig. Je kan van een afbeelding wel een hash maken, maar van een hash geen afbeelding. Zolang je geen database hebt met miljoenen/biljoenen afbeeldingen blijft deze link eenzijdig...

En facebook heeft nou net toevallig zo'n database met allerlei afbeeldingen...
En facebook heeft nou net toevallig zo'n database met allerlei afbeeldingen...
En een heleboel moderators die na enkele maanden weer moeten vertrekken, omdat er best wel heel spannende dingen heen en weer geslingerd worden.
De HASH zegt wat er in zit als het een bekende HASH is.
Apple 'opent' wel degelijk alle 'pakketten' -> alle fotos worden gescanned
Apple opent helemaal geen pakketten. Ze vergelijken enkel de hash zonder de inhoud te zien. Het is eerder het lezen van een barcode op de doos en die vergelijken met de criminele database.
Het is dan nog eerder het lezen van de barcode en deze code vergelijken met de codes op diverse codelijsten om op die manier te achterhalen wat er in het pakket zit. Feitelijk komt dat neer op het openen van het digitale pakket. Bij elke match weet Apple waar het om gaat. En wat niet matcht slaan ze op totdat het ooit wel matcht.
Dus een hash code vind jij prima, het is geen hash op een bestand, het is een hash op een bepaalde identificatie van een compositie en personen.

Maar is het ook prima als ze continue jouw stem opnemen, een hash bepaald dan of jij terroristische uitspraken doet... (Apple het Shazam gekocht... 1+1=...)... pas op met je grapjes bij je vrienden.

Bij je volgende iPhone geef je toestemming dat ze onverwacht jouw huis mogen onderzoeken, gewoon uit voorzorg. Onder de mom, heb jij wel je rookmelders geplaatst, is je woning wel goed geïsoleerd tegen de kou en geluid. Wel lief dat Apple gratis jouw woning komt inspecteren... lief hé!

[Reactie gewijzigd door Fermion op 23 juli 2024 08:18]

Om een hash te kunnen maken, hebben ze eerst wel de inhoud moeten inzien....
Bij voorbaat is iedereen voor Apple al verdacht.
De aanleiding om een pakket te openen wordt gevormd door het scannen van het pakket
Apple maakt een hash van je foto’s. Ze weten dus niet wat erop staat. Dat is zelfs minder privacyschendend dan wat de post doet.
Neen dat is niet zo. Apple doet enkel de pakketten open waarop in grote letters vermeld staat "Kinderporno". Al de andere pakketten laat Apple ongemoeid.
Nee want ze maken het pakketje alleen open als het zeer verdacht is. Sterker nog ze kunnen het alleen open maken wanneer het zeer verdacht is.
Nee, wanneer ze vermoeden dat het verdacht is. Ze zitten binnen de ingestelde threshold door je foto's te gluren. Net zoals destijds bij het meeluisteren door personen van siri.
En wat Apple "doet":

- alleen in de VS
- Je moet opt-innen
- Foto's op iCloud
En wat Apple "doet":
...
- Je moet opt-innen
Dit heb ik nog niet eerder gelezen, heb je daar een bron voor? Maar als het niet dwingend is, wat is dan het nut?
Opt-in van het "kind-account"

Goede Uitleg:

https://www.youtube.com/watch?v=Dq_hvJI76IY
Ging me niet zo zeer om het "kind account" maar de foto-scan-functie (waar dit artikel voornamelijk over gaat).
Apple heeft dat goed dichtgetimmerd, uitgelegd in de lange video.
Dichtgetimmerd al geen opt-in.
Je komt nogal niet geïnformeerd over. (dom)
Ploink! Klaar.
En wat Apple "doet":

- alleen in de VS
- Je moet opt-innen
- Foto's op iCloud
- en jij
- gelooft
- dat dat
- zo zal
- blijven?
- naïef!
Als het opt-in is, is het heel raar. Niemand die kinderporno heeft gaat vrijwillig z'n afbeeldingen laten checken.
Je moet opt-innen
dat zou wel het meest idiote systeem zijn. Elke pedofiel zet het niet aan en kan zijn gang gaan.
Ik vrees dat je de werkelijke consequenties niet goed begrijpt.
Iedereen is verdacht volgens Apple, dus iedereen wordt gescand op kp.
[...]
dat zou wel het meest idiote systeem zijn. Elke pedofiel zet het niet aan en kan zijn gang gaan.
Ik vrees dat je de werkelijke consequenties niet goed begrijpt.
Iedereen is verdacht volgens Apple, dus iedereen wordt gescand op kp.
Nu den ik niet dat de soep zo heet gegeten gaat worden ;)

Ik denk eerder dat dit een poging tot (goede) media-exposere is, na allerlei nare berichten op "wij helpen de FBI niet" en "wij vragen teveel voor onze appstore"
Opt-in voor het "kind account" (Apple heeft "Parental control")


Complete Uitleg:

https://www.youtube.com/watch?v=Dq_hvJI76IY
Je bent nu aan het ordinair spammen!
Je zit hier met het briefgeheim, ik neem aan dat ook PostNL een reden moet hebben om net dat pakket te mogen openen. Zeer concrete aanleiding kan natuurlijk een drughond zijn, maar het kan evengoed land van herkomst zijn dat net iets algemener is.
Dit gezegd zijnde, wil ik hiermee zeggen dat niet elke pakket een controle zal krijgen. Bij de scanning van foto's is het simpelweg elke foto's en daar ligt toch een belangrijk verschil.
Ze mogen het pakket scannen en laten besnuffelen. Als er aan de hand daarvan een verdenking ontstaat mogen ze het openen, dat is feitelijk gelijk aan wat Apple wil doen.
Maar het pakket wordt alleen besnuffeld als je het verstuurt. Bij apple komen ze bij je thuis en scannen ze alle pakketten die je in je kamer hebt liggen, of je ze gaat versturen of niet.
Het systeem slaat aan wanneer het in de cloud komt.
Nog wel. Wie zegt me dat er geen glijdende schaal gaat plaatsvinden en dat er automatisch een melding gemaakt gaat worden in de toekomst als er iets verdachts op mijn telefoon staat?
Het systeem slaat aan wanneer het in de cloud komt.
En daar begint de verwarring, want volgens Apple gebeurt het ook lokaal op jouw eigen apparaat.

https://www.cnbc.com/2021...ges-on-icloud-to-law.html

Dus er word thuis EN op de opslag extern gecontroleerd.

* FreshMaker is het er nog altijd niet mee eens, dus gaat orienteren om icloud te laten varen, en weer lokaal te synchroniseren
De match met de hashes gebeurt op de telefoon maar het systeem slaat pas aan als er een foto met de gematchte hash in de icloud komt. Er wordt dus alleen op je telefoon gecheckt.
Dat klopt niet. De iPhone scant enkel foto’s die je wilt uploaden naar iCloud. Op dit moment vindt die scan plaats direct ná upload (wettelijk verplicht). In plaats daarvan willen ze het nu direct vóór upload scannen. Hoe dan ook wordt je foto gescand, net als bij alle andere clouddiensten; enkel het moment van scannen verplaatst.

Het is niet zo dat je iPhone alle foto’s op je device gaat scannen, tenzij je toevallig alle foto’s upload naar iCloud. Maar dat is nu ook al het geval.
Apple loopt je huis binnen zonder te bellen of aan de deur te kloppen en struint al je lades door omdat te gaan scannen. Hoe fijn is dat?

Morgen zetten jouw microfoon aan en luisteren wat jij te zeggen hebt en met een hash pakken ze jouw op ivm een boek bespreking over terroristen. Success.
Dat zou meer een vergelijking zijn als je het scannen en besnuffelen zou uitvoeren op in en uitgaand data verkeer.
Nu is het meer dat Apple constant door je huis heen loopt en alles scant en besnuffelt om er zeker van te zijn dat er niks illegaals aanwezig is ongeacht of je überhaupt verdacht ben of niet.
Goed punt, want in weze kan met dit apple systeem pas met zeer concrete aanleiding in de betreffende foto’s kijken.
Wat Apple doet is álle post openen en je fotoalbums thuis doorsnuffelen om te kijken wat er in zit, en de inhoud inscannen/fotograferen en in een database gooien.
Dat klopt nu ook weer niet. Apple vergelijkt enkel de hashwaarden tegen een gekende database met hashwaarden.
Nu, het is op zich schandalig want het is en blijft een sleepnet waarbij niet-verdachten hun privésfeer gecontroleerd wordt op foute gedragingen…
Het is weldegelijk anders dan alle post openen. De hash is een afgeleide van de afbeelding. Om de PostNL vergelijking door te trekken:
PostNL weegt pakketten en doet een visuele inspectie van de buitenkant (al was het enkel om te kijken waar het heen moet). Zonder te weten wat er in die pakketten zit kunnen ze op basis daarvan pakketten al als verdacht aanmerken, en eventueel verder bekijken of hun vermoedens overdragen aan andere instanties zoals de politie.
Een hash van een afbeelding bevat informatie over de afbeelding, zonder de afbeelding zelf prijs te geven. Apple weet niet dat jij verjaardagsfotos van oma Trijntje of de lanparty van afgelopen weekend upload, ze weten alleen dat die foto's niet overeen komen met bekende foto's van kindermisbruik.
Maar hier moet PostNL wel een gegronde reden voor hebben en het blijft beperkt tot verdachte pakketten.

Apple gaat, zonder enige reden, ALLE foto’s van iedereen scannen.

[Reactie gewijzigd door RobbieB op 23 juli 2024 08:18]

Echter scannen ze ook pakketjes, en als ze dan iets zien dat op een (vuur)wapen lijkt gaan ze het controleren. Dat is ongeveer wat Apple nu ook gaat doen toch?
Niet bepaald… bij Apple is het zo alsof iedereen een pistool heeft.
Maar postnl maakt toch ook een scan van elk pakketjes? Ze kunnen van die scans ook beter aflezen wat in je pakketje zit anders zouden ze niet alleen de verdachte pakketjes kunnen open maken. Bij apple weten ze alleen of die hash overeenkomt.
Stap om het systeem te gebruiken om dissidenten op te kunnen pakken... wat Rusland zal gaan doen... is niet ver..
Nee, zo werkt het niet bij PostNL. Die kan niet zien wat er in een pakketje zit.
Postnl beschikt over röntgenapparatuur. Nu zie ik dat ze pakketjes alleen steekproefsgewijs controleren maar dit komt eerder door een capaciteitsprobleem. Ze kunnen dus wel degelijk zien wat er in een pakketje zit als ze dit zouden willen.
Nou dat hoop ik niet, als er geen match is dan gaat niemand het controleren...
Checken of er een match is letterlijk controleren.
Maar wat als de match onterecht is?
Wat als Iran/Turkije/Rusland etc dit gebruiken om dissidenten/oppositieleden tegen te werken?
Dus Apple dwingen dit systeem in te zetten om bijvoorbeeld mensen met andere gedachtegoeden op te kunnen pakken?
Goed punt, enige vraag is dan nog: scannen ze alle pakketjes of doen ze steekproefsgewijs scans?
Google zegt steekproefsgewijs. Maar dit is eerder een capaciteitsprobleem. Als ze het konden controleerde/scande ze het liefst alle pakketjes.
Nog even los van de verschillen die eerder in deze thread genoemd worden, pakketjes openen en beoordelen is mensenwerk, wat het niet schaalbaar maakt.
Ronald Prins heeft daar een best bijzonder punt over in de laatste aflevering van Podcast over Media (https://dagennacht.nl/serie/een-podcast-over-media/). Eigenlijk heb ik wel genoeg vertrouwen in de politiek dat het niet logo's van de oppositie gaat opsporen. Natuurlijk kan het politieke klimaat veranderen (kijk maar eens naar Rusland). Maar als er iemand aan de macht komt met de intentie om de oppositie op te sporen, en de mogelijkheid is er dan nog niet, dan komt die er binnen de kortste keren toch wel. Mocht er in de toekomst een Nederlandse Poetin aan de macht komen, dan hinderen we hem amper door hier nu een stokje voor te steken.

Verder wil ik niet zeggen dat ik voor of tegen het inzetten van deze technologie ben. Ik denk dat de inzetbaarheid voor opsporing van politieke tegenstanders geen goed argument is om het nu niet in te voeren, los van of ik voor of tegen ben.
Ik denk dat je dat toch iets te makkelijk ziet... Kijk naar de FBI die Apple niet kon dwingen een iPhone te ontgrendelen. Best een verschil of Apple zegt dat ze het niet kunnen (en een aparte software update niet willen maken omdat ze dan riskeren dat die update 'ontsnapt' en een risico voor alle iPhones zou vormen)... Of wanneer ze het al zouden kunnen maar alleen niet willen.

Dit ook, ze hebben dit systeem nu eenmaal, het wordt dan veel moeilijker om tegen een regime te zeggen dat het niet kan wanneer dat regime zijn eigen hashes aan wil leveren. Apple bewijst nu dat het wel kan.

Als een politiek bewind het echt echt echt wil dan zul je het uiteindelijk misschien niet tegen kunnen houden, maar je hoeft het ook niet makkelijk te maken. Dat is de kat op het spek binden.
Is dat dan niet hetzelfde dat een regime kan dwingen een update door te voeren waarmee afgeluisterd kan worden? Als je denkt dat een regime Apple kan dwingen tot het heimelijk ontvangen van bepaalde data, dan kunnen ze dat nu toch ook al?
Goed punt wel. De vraag is dan vooral hoeveel makkelijker je het maakt op het moment dat je de politiek niet meer kan vertrouwen met deze dingen, wellicht meegenomen met de kans dat zo'n regime aan de macht komt.
Daar zijn in het verleden genoeg voorbeelden van te vinden hoe bedrijven op politieke veranderingen hebben gereageerd.
Dat is vergelijkbaar hoe mensen zelf reageren daarop, de ene gaat er tegen in, de andere geeft er aan toe, volgende is onverschillig erin.

Ene bedrijf is meer moralistischer als een ander bedrijf, en denk dat anno2021 dat niet veel anders zou zijn als hoe bedrijven in verleden in zulke omslagen hebben gedragen.
Kans dat er een bedrijf met deze Tech bij een politieke omslag deze Tech tegen een riante vergoeding ter beschikking zou stellen aan dat nieuwe regime is absoluut aanwezig.

En dat zou geheel buiten elk controlerende orgaan kunnen worden gespeelt, zeker juist in dat soort regimes en politieke gedachte zijn regels en wetten alleen maar voor anderen van toepassing.

Goed Kans het hier in ons landje gebeurd acht ik gelukkig niet heel hoog, maar genoeg landen waar dit absoluut een reële kans is.
dan hinderen we hem amper door hier nu een stokje voor te steken.
Maar we hoeven er niet nu al aan mee te werken.
Daarbij komt dat hoe meer men nu accepteert, des te minder men in verzet komt bij een politieke klimaatverandering.
Bedrijven zullen echt niet zover gaan om van alles en nog wat foto’s te scannen.
Uiteindelijk willen ze ook nog steeds geld opbrengen en als je alles censureert zal niemand nog je producten kopen en zullen de aandelen zakken met als gevolg dat je grote verliezen krijgt.
Je snapt dat Google en Microsoft dit al doen in hun cloud diensten. Alleen Apple gaat nu lokaal doen voordat het in de iCloud wordt geüpload. Heb je geen iCloud oog geen scan.

Maar als je zo mee zit, dan moet het ook niet meer autorijden, want APR systeem scant alle auto’s. De veiligheidscamera’s langs de snelwegen houden 2 weken de opnames vast. Traject controles, waarin elke auto scant en de gemiddelde snelheid van wordt berekend. Daarnaast hebben we nu ook nog flits systeem dat kijkt of jij telefoon in je hand hebt als je aan het autorijden bent. Daarnaast heeft elke winkel een portje, waarin het portje checken of je gesloten producten in je tas heeft zitten. Of factuur systeem dat automatisch langs loopt of klanten de rekening al betaald hebben. Je leven nou eenmaal in samenleving waarin een aantal mensen niet te vertrouwen zijn.. We kunnen niet vanuit gaan dat iedereen netjes rijdt of betaald.

Maar nogmaals Apple gaat niet inhoudelijk kijken welke foto jij hebt, Apple maakt er alleen maar een hash van. Deze hash wordt vergeleken met kinderporno database waarin hashes staan. Als er match is, dan is er iets aan de hand. Jouw foto’s worden niet zomaar aan die kinder porno database toegevoegd, alleen als je aangifte hebt gedaan bij de politie. De politie zal dan beoordelen of jouw foto’s gestolen moeten worden omgezet naar hashes en dat de foto’s vallen onder de category kinderporno.

[Reactie gewijzigd door Xieoxer op 23 juli 2024 08:18]

En je weet dat microsoft al accounts zomaar sluit op basis van scans?

reviews: Account geblokkeerd. Wat nu?

dus dat is (en dat stel je ook niet) geen goede reden waarom je overal zou moeten scannen.

Want stel dat iemand je een heel foute foto stuurt. Die staat op een gegeven moment op je apparaat, en wordt dus gescanned. En dan ben je dus gevlagged, Het is nog daadwerkelijk illegaal ook in Nederland. Wat zou er fout kunnen gaan?
Alleen Apple gaat nu lokaal doen
Apple doet dit ook al jaren in de icloud. Zelfs met bedenkelijke machine learning.
Is dat zo? Bij Schiphol moet je toch ook door het poortje. Ben je dan ook verdachte? Bij alcoholcontroles moet je ook blazen.

Het grote verschil is wel dat de voorbeelden die ik noem (semi)overheden zijn die het controleren. De vraag is of je deze controles door bedrijven wilt toestaan.

Bedrijven die namelijk maar 1 doel hebben: winst maken. In het verleden heb je al vaker gezien dat deze bedrijven het niet zo erg vinden om naar de pijpen van een land/regering/machthebber te dansen (ook als die ideologieën niet helemaal overeenkomen met die van het bedrijf zelf).
Daarnaast vraag ik me af wat Apple dan gaat doen. Er gaat een signaal af en dan? Blijkbaar zijn ze een opsporingsinstituut geworden dus gaan ze dan aangifte doen? En welk bewijs sturen ze dan mee?

Juridisch kunnen ze volgens mij niets meer dan een tip geven op basis waarvan de politie zelf maar een actie moet verzinnen want een huiszoekingsbevel zullen ze niet zo snel krijgen.

En wat gebeurt er daarna als ik ze aanklaag wegens smaad of laster?

Het lijkt er toch op dat ze mooie sier willen maken en zich hebben verslikt....
Waar baseer je dat op?

Je weet het niet wat er gedeeld wordt.

Je weet alleen dat er mogelijk op het internet kinderporno gedeeld wordt. Dan kan je net zo goed elke dienst scannen. Mail/Facebook Messenger/telegram/etc.

Oh wacht, laten we het briefgeheim afschaffen en alle post doorzoeken, want als het niet meer via Whatsapp kan dan gaat het via de post.

Oh wacht. Hey kan niet meer via de post. Laten we maar bij je naar binnen stappen, hoe gaan we anders nog kinderporno vinden.

Kinderporno is vreselijk, maar om allerlei vrijheden op te geven vind ik nogal vergaan.

Wat is de maatstaf daarvoor geweest.

Het klinkt gewoon weer als een excuus om achter je privé data te komen.

Hoe groot is het percentage pedofielen onder de bevolking eigenlijk wat daadwerkelijk ziekelijke plaatjes verspreid. Moeten we daarvoor echt dit middel inzetten?
Dit is nog meer een geval dan anderen van pak het bij de bron aan.
Het is alles of niets, het hele verhaal van apple moet je het gevoel geven dat alsnog niemand je foto's in kan zien. Dit traject eindigt echter met menselijke verificatie... M.a.w. die encryptie op je foto's is waardeloos geworden.

De andere optie is natuurlijk een veroordeling zonder dat iemand toegang heeft tot het "bewijs" en of je dat zelf even mag komen laten zien, waar je als verdachte niet aan mee hoeft te werken...
Dat scannen is voor zover ik weet alleen van toepassing op telefoons waar iCloud op aan staat. Dat maakt de encryptie sowieso waardeloos gezien iCloud foto's niet versleuteld zijn.
Dus waarom alle heisa? Nee alle home data op iCloud is encrypted.
Nee, gezondheidsdata en de keychain zijn versleuteld en daar kan Apple niet bij. Foto’s, documenten, filmpjes kan Apple gewoon inzien. Ze kunnen je toch ook een link sturen om je wachtwoord te resetten? Dat betekent dat ze er zelf ook bij kunnen…
Wat is Home data dan? Van je huis?
Als Apple dus al bij alle foto's kan van de iCloud, waarom al deze heisa dan? Met regimes die Apple zouden dwingen, blablablabla. Ze kunnen dus al bij alle foto's. Dan kunnen ze toch gewoon de hashes op de iCloud servers checken?
Daar is van de week al een discussie over geweest. Qua voorwaarden kan dat niet. Een check op de clouddata gaat in tegen de bestaande voorwaarden. Daarnaast leent zich de manier waarop het in de cloud is opgeslagen hier slecht voor.
Ok, maar voorwaarden worden steeds aangepast, net zoals ze die nu moeten aanpassen voor iOS? Ik begrijp het nog niet helemaal. Enige is dan nog dat het geen energie kost om het gedistribueerd te doen ipv centraal.
Ik denk dat de juristen van Apple wel zo slim zijn om de voorwaarden van de icloud juist NIET aan te passen om bepaalde gebruikers juist het idee te geven dat data in de cloud niet bekeken wordt. Dat is gewoon een principiële zaak waar men niet aan wil tornen.
Dat vind ik vreemd, want nu zeggen ze juist dat ze alle foto's toch gaan scannen zodra ze naar de iCloud worden gestuurd. Wat is het verschil? Voor mij als gebruiker van iCloud geen verschil.
Ik lees inderdaad dat Apple zelf de sleutels bewaard en dat ze data zullen overdragen aan de politie als daar een goed verzoek over binnenkomt. Dat zeggen ze zelf in hun privacy regels.

Maar goed, ze zullen zoals je zegt wel goede redenen hebben om het decentraal te doen.
Nee, check even het artikel van afgelopen weekend. Daar staat precies in hoe het werkt.
Apple heeft zelf de masterkey en geen end to end encryptie. Is vooral marketing speak.
https://www.onemorething....-af-van-icloud-encryptie/
Je reageert overal op maar je leest blijkbaar niet hoe de dingen in elkaar zitten. Het klopt allemaal niet wat je roept...
Foto's, video's, documenten etc. zijn voor de opslag versleuteld maar daar kan Apple gewoon bij, zoals ik hierboven ook al zei. Gezondheidsdata, home data, keychain etc. is E2E versleuteld en daar kan Apple niet bij.
Dus jij vindt het wel een geruststelling dat Apple al je documenten kan lezen.. Klinkt als een goed gevoel voor privacy... Not
Nee, maar dat is een hele andere discussie. Dat gaat over de cloud in het algemeen. Er verandert op dat gebied helemaal niets. Apple, Google, MS en Amazon konden dat al lang.
Zo is dat, alleen kijken ze nu naar lokale bestanden. Geen probleem natuurlijk...
"Criminelen" weten hier wel weer omheen te werken zoals stuur mij de foto,s even in zip bestand met wachtwoord erop, als ik gewone bestanden over de mail stuur en de spamfilter houd dat tegen doe ik het ook op deze manier.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 08:18]

Criminelen hebben hele andere kanalen om dit smerige materiaal uit te wisselen. Dat gaat niet via iphones of ipads via icloud. Je gaat hier alleen naievelingen mee pakken.
Je gaat hier alleen naievelingen mee pakken.
Gezien het aantal die alle marketing speak van Apple geloven zijn er dat nogal wat.
Criminelen hebben hele andere kanalen om dit smerige materiaal uit te wisselen. Dat gaat niet via iphones of ipads via icloud. Je gaat hier alleen naievelingen mee pakken.
De vraag is dan wel hoe die naieveling aan het soort foto's dat in de database staat komt.
Dat is een niet zo reëel scenario.
Dat gebeurt gewoon doordat die naievelingen elkaar dit soort foto's gewoon via Whatsapp, Telegram, Signal etc. doorsturen. In de westerse landen heeft iedereen thuis de mogelijkheid om een illegale verzameling goed op te bergen maar in hele grote delen van de wereld is een smartphone de enige vorm van een computer in eigen bezit. Daar wordt dan alles opgezet, ook deze rotzooi.
Het is meer Telegram waar die illegale content te vinden is, over het algemeen.
Goed punt. Wat is dan ook het verschil met een hashdatabase voor websites, zoals nieuws: Bureau Online Kindermisbruik: false positive hashdatabase was menseli... ?

Ik weet niet zo goed wat ik ervan vind, maar heb sowieso liever dat ze hierop scannen dan mijn data aggregeren qua privacyschendingen. Wat dat betreft ook wel opvallend dat Facebook hierin een andere houding aanneemt dan Apple. Gaat Facebook nu pretenderen principieel voor privacy te kiezen?

Kindermisbruik tegengaan is heel wat waard. Voor mij is het enige tegenargument misschien de angst voor een glijdende schaal.
Foto’s die doorgestuurd worden via whatsapp worden op ios automatisch gesaved en dus ook automatisch naar je icloud backup gesynced als je dat gebruikt. Signal doet dit niet wat ook wel handig is omdat je niet constant memes moet gaan deleten van je fotorol.
Daar is gewoon een vinkje voor hoor!
En als ze het wel gaan dorn stappen de kinderporno mensen overop een andere dienst die het niet doet.
En anders een dienst van een verweggistan land die die regels niet heeft.
Ik vrees dat er ook mensen zijn die er hierdoor mee in aanraking komen om vervolgens steeds verder te gaan. Mensen die via Whatsapp wel op de verkeerde plekken zouden komen, maar niet direct op het dark web zouden gaan (of weten wat dat is).
Whatsapp bevind zich eerder op een punt waar je kan zeggen je moet scannen. Dat is alleen als jij het met iemand wil delen. Dat zou in mijn ogen nog kunnen.

Je apparaat scannen (wat niks op lost) is echt inbreuk, en lost niet/nauwelijks iets op. Je kan namelijk nog steeds KP maken met een iPhone, pas als het uitlekt en in de DB terecht komt is het een probleem.
Dat hoeft whatsapp ook niet te doen, want bij whatsapp geinstalleerd op een iphone doet Apple dat al voor ze. Als ze daar zo op tegen zijn (wat terecht is overigens) zullen ze dus eigenlijk moeten voorkomen dat Apple de opgslagen foto's op het toestel die via Whatsapp binnenkomen, kan scannen.
Begin dan met het automatisch opnemen in je fotolijst wat standaard aan staat, uit te schakelen. Anders gaat alles alsnog naar icloud.
Dat is wat ik bedoel. Als WA beweert dat ze dat scannen niet doen (en niet laten doen) moeten ze dus zorgen dat de afbeeldingen die je ontvangt via WA niet als beeldmateriaal wordt geclassificeerd (encrypted oplsaan op je iphone byvoorbeeld met een sleutel die alleen het programma kan gebruiken).
Ik vraag mij toch wel af hoe dit door de marketingafdeling van Apple heen is gekomen.
Grote kritiek op dit systeem moet toch te voorzien zijn geweest?
Ik heb volgens mij nog nooit zoveel kritiek op Apple gegeven zien worden, vanaf alle kanten.
Voor zover ik weet is er geen enkel groot bedrijf die hiervoor steun heeft uitgesproken?
Dat is het probleem als bedrijven te groot en machtig worden, je kan behoorlijk ver gaan met je punten want de klant stapt toch niet over op de concurrent.
Dat vraag ik me ook af. Apple heeft echt veel geld gestoken in privacy campagnes en het opbouwen van een positief imago daaromheen.

Misschien zit er ergens wetgeving in de pijpleiding waardoor een vorm van controle uiteindelijk een verplicht nummer gaat worden.
De gemiddelde West Europese kijk op dit soort zaken is waarschijnlijk nogal anders dan in de USA?
Het lijkt mij juist dat er op het hoofdkantoor van Apple hierover niet 'teveel vraagtekens' waren, het is er immers doorheen gekomen.
'Relatief weloverwogen', en dus niet 'geglipt', dat is mijn inschatting.
"but think of the children" is in Amerika een nog groter argument dan hier in het westen.

Kan me goed voorstellen dat het vooral langs de Amerikaanse management kant is gekomen en pas op de eerste grote hobbels in Europa stuitte.
Nochtans zie je die kritiek bij alles wat Apple aankondigt. Meestal gaat het dan van 'Wij blijven Flash gebruiken" of "Wij zullen nooit de headphone jack verwijderen". Niks nieuws dit
Ik begrijp het vanuit de integriteitsregels van een bedrijf wel, dat wanneer klanten data over je servers versturen, je dit soort uitwassen wilt voorkomen en je dienst daarvoor blokkeert.
Maar om preventief de inhoud van je privé computer of telefoon te controleren snap ik dan inderdaad ook niet.
Ik juich over het algemeen dit soort acties wel toe, maar ik denk dat Whatsapp hier gelijk heeft, en dit niet de beste route is die Apple volgt.
Het blijft ook lastig, hoe je de ene soort misdaad (online) bestrijd die voor de rechten van deze kinderen opkomt en waar dit wrijft met de privacy bescherming.
Dat is dan weer de marketing van de grote bedrijven. Google en MS scannen toch al jaren je bestanden voor reclame doeleinde?
*kuch*
Headphone jack.
Nou nog een statement van Microsoft. Ik gebruik zelf Onedrive voor het automatisch uploaden van de foto's die ik maak. Als mijn kleine er zo meteen is wil ik wel foto's kunnen maken zonder meteen als pedofiel aangemerkt te worden door een automatisch systeem.

Alleen al daarom zou ik Apple mijden als de pest als ze dit echt gaan doorvoeren. Ik moet gewoon een foto van mijn kind kunnen nemen!
Dat kun je ook. Microsoft en Google doen dit scannen al jaren, al is het in de cloud.

Overigens zijn het niet "zomaar" hashes, maar perceptual hashes - wat is er te zien, welke hoek etc. (eigenschappen van de content zelf). Probleem is dat het alleen om bestaande beelden gaat, niet om nieuwe. De 1 in triljoen kans op een false positive lijkt me iets te optimistisch, deze systemen zijn ook voor de gek te houden, een headline is een kwestie van tijd. Ben wel benieuwd wat dit aan batterij gaat kosten.

Als je de technical summary van Apple doorneemt, dan zie je dat ze vele stappen hebben gezet om privacy bovenaan te zetten.

Het probleem is de glijdende schaal, overheden smullen hiervan.

[Reactie gewijzigd door z1rconium op 23 juli 2024 08:18]

Glijdende schaal is wel een understatement. In Amerika vindt in bepaalde kringen best wat machtsmisbruik plaats, en uiteindelijk gaan er gewoon hashes in de database staan die niks met kinderporno te maken hebben.
Ben wel benieuwd wat dit aan batterij gaat kosten.
Zo goed als niets. Ze hoeven niet constant alle foto’s te scannen maar alleen tijdens het opslaan/inlezen van een foto. En als ze dat niet genoeg vinden dan kunnen ze ook nog bestanden in rust scannen terwijl jij het toestel oplaadt.
Als er al een extreem aan het blokkeren is op basis van foto’s is het Microsoft wel. reviews: Account geblokkeerd. Wat nu?
Men werkt met de hashes database. Voor wat ik begrepen heb werkt het system van Apple net als PhotoDNA van Microsoft. Die herkent ook varianten van dezelfde foto (zwart-wit, kleur, kleiner of groter gemaakt).

Dus je kan je foto's uploaden. Die worden niet automatisch herkend.
Dus je kan je foto's uploaden. Die worden niet automatisch herkend.
Maar ze worden wel even allemaal digitaal gecontroleerd.
Nu op kinderporno, straks op een regenboogvlag.
Microsoft en Google doen dit al een tijdje op hun media:

Like Google, Microsoft Scans Accounts for Illegal Images
(uit 2014)

En blijkt dat de regering van de VS dit wil:
Federal law requires that large media companies like Facebook, Google and Microsoft report possible child pornography, whether it’s posted in social media, stored in a virtual locker or stored in an email.
Dus het komt niet uit de lucht vallen; mede omdat er al kinderporno is verstuurd/opgeslagen. (zie link)

[Reactie gewijzigd door Shark.Bait op 23 juli 2024 08:18]

Op hun media inderdaad. Maar ik heb helemaal niets op hun media. Ik heb gewoon nog ouderwetse backups. Als ik zaken overbreng via hun media (OneDrive bijvoorbeeld), dan is dat encrypted en geef ik de ontvanger de sleutel.

Apple gaat dit nu doen op jouw media. Nee, bedankt. Dan pas ik toch echt. En dan weet ik niet of ik dat soort apparaten wel actief gebruikt wil hebben in mijn huis.
Voor je eigen bestwil. En voor de zekerheid eisen ze straks ook maar een vaccinatie-, orgaandonatie- en goed gedrag-paspoort voor toegang tot je eigen mobiel.
Apple gaat dit nu doen op jouw media. Nee, bedankt. Dan pas ik toch echt. En dan weet ik niet of ik dat soort apparaten wel actief gebruikt wil hebben in mijn huis.
Niet voor zover ik kan zien; Apple doet dit alleen op hun media; dat wil zeggen: iCloud en verspreiding via iMessage, en alleen bij Amerikanen.
om foto's die Amerikaanse gebruikers op iCloud zetten te controleren op kindermisbruik
nieuws: IPhones en iPads gaan foto's controleren op kindermisbruik - update

De titel is clickbait, het gaat alleen om Amerikanen en transfer naar iCloud, iMessage etc..
Doen ze idd al een tijdje, en als ze onwelgevallige content vinden kunnen ze je gehele account bannen.
Automatische backups gewoon uitschakelen, voor je het weet stuurt iemand je een foute foto en ben je je Windows, Office en XBox account kwijt.
Ik snap het eigenlijk niet zo goed, wat is de juridische basis voor Apple om dit te doen? Apple heeft geen opsporingsbevoegdheden, is van de zotte als die taak bij een bedrijf terecht komt.
Het is volgens mij gewoon zieltjes winnen bij de politiek. Braafste jongetje van de klas willen wezen.
Het is geen opsporing. Hashes vergelijken mag in de VS wettelijk gezien gewoon. Apple geeft bij meerdere positieve matches een signaal aan de autoriteiten om het verder op te pakken.

[Reactie gewijzigd door bytemaster460 op 23 juli 2024 08:18]

Dat heet opsporing. Je bent op zoek naar illegale zaken en alle iPhone gebruikers zijn bij voorbaat verdacht.
Dat is niet anders dan een ouderwetse ontwikkelcentrale die aan de bel trok als dit soort foto's langskwamen of campings die controleren of er geen mannen foto's aan het maken zijn van spelende kinderen. Zo zijn er nog talloze controles die al tientallen jaren plaatsvinden door commerciële bedrijven die vervolgens aangifte doen als ze onwettig gedrag vermoeden. Daar is Apple niet de eerste in.
Ik heb nog nooit een ontwikkel centrale gezien die mijn foto's vergeleek met KP.
Sterker nog, ze vergeleken het helemaal nergens mee. Als een medewerker een foto zag waarvan hij vond dat die niet de beugel kon, werd dat gerapporteerd.
Je hebt in een ontwikkelcentrale gewerkt? Of hoe weet je anders dat die controle niet plaatsvond?
Ik heb inderdaad weekend werk gedaan bij een Duitse centrale. Daar hadden we geen tijd voor flauwekul.
Voor de paar dubbeltje die een rolletje opbracht ook niet te doen.
Je keek alleen steekproefsgewijs naar kwaliteit. Het wad de topless tijd, ongetwijfeld een zondige periode voor de puriteinen van Apple
Ze zijn al verplicht te scannen wat je in iCloud zet. Google, DropBox Microsoft, etc. zijn dat ook wettelijk verplicht.
Het is een federale wet in de VS; het scannen gebeurt dan ook alleen (zegt Apple) als een Amerikaan iets deelt via iMessage of op iCloud zet.

nieuws: IPhones en iPads gaan foto's controleren op kindermisbruik - update
Ik vraag mij wel af of dit in Nederland überhaupt wel mag. Volgens mij druist dit tegen alle privacywetten in hier.
Recent legaal gemaakt door de EU:

nieuws: EU-parlement geeft platforms optie privéberichten te checken op kinde...

En mocht deze test periode op een einde aan lopen, dan denken de makers van de wet er aan om dit verplicht te maken:

https://www.politico.eu/a...-brussels-warns-facebook/
Het parlement heeft het aangenomen. Het is nog niet definitief. De Europese Raad moet het nog goedkeuren en juristen geven al aan dat het in strijd is met bestaande privacywetgeving.
Apple heeft ook aangegeven dat dit systeem primair voor de VS ingezet wordt en dat voor andere landen gekeken gaat worden naar lokale wetgeving.

[Reactie gewijzigd door bytemaster460 op 23 juli 2024 08:18]

Hoe zit het met niet-VS iPhones die wel in de VS zijn (vakantie/werk)?
Het gaat zover ik weet over de locatie waaraan de Apple account gelinkt is. Niet om de geografische locatie.
Onder kindermisbruik valt alles erdoor te krijgen, ik ben vooral bang wat daarna gebeurt van "ach wij hebben dit systeem toch al" en wordt het uiteindelijk ook gebruikt voor gericht reclame sturen bijvoorbeeld.

Kindermisbruik moet je tegen gaan daar mee eens maar zodra het woordje terrorisme en kindermisbruik vallen zijn mensen blind van doe maar en later wordt het voor andere zaken gebruikt gezien er dan weinig weerstand meer is.
Of vullen de database aan met allerlei andere gegevens. Dit kan zo simpel misbruikt worden om wederom privacy te beperken.
Anoniem: 39993 @et36s9 augustus 2021 12:07
Precies, gewoon een kwestie van andere hashes voeren. Dan kun je dit systeem laten afgaan op zo'n beetje alles.

Op dit item kan niet meer gereageerd worden.