Apple belooft fotoscan alleen te gebruiken voor opsporen kindermisbruik

Apple belooft om de vorige week aangekondigde functie voor het scannen van foto's op apparaten van gebruikers alleen te gebruiken voor het opsporen van bekend materiaal van kindermisbruik. Als overheden andere dingen willen opsporen, zal Apple dat weigeren.

In de maandag geplaatste faq over de nieuwe technieken schrijft Apple dat het al jaren verzoeken van overheden weigert als die privacy van gebruikers in het geding brengt: "Laten we duidelijk zijn: deze technologie is beperkt tot het detecteren van beeldmateriaal van kindermisbruik in iCloud en we zullen geen verzoeken van overheden inwilligen om dat uit te breiden."

De vrees dat Apple op een gegeven moment de functie uitbreidt naar andere dingen dan beelden van kindermisbruik is een van de grootste kritiekpunten van onder meer burgerrechtenorganisaties als de Electronic Frontier Foundation. The Verge wijst erop dat Apple in het verleden vaker aan verzoeken van overheden heeft voldaan. Zo is Facetime niet beschikbaar in diverse landen, omdat het end-to-end encrypted is en overheden dat niet toestaan. Ook heeft het bedrijf toegestaan dat iCloud-data van Chinese gebruikers opgeslagen staat in een datacentrum dat de Chinese overheid in beheer heeft.

Apple onthulde de methode vorige week als onderdeel van meerdere maatregelen om de verspreiding van beeldmateriaal met kindermisbruik tegen te gaan. Apple krijgt een database met hashes van foto's van kindermisbruik van organisaties die zich inzetten voor de bescherming van kinderen, zoals het National Center for Missing and Exploited Children.

Vervolgens gaat die database versleuteld naar alle Macs, iPads en iPhones, waar de apparaten lokaal de hashes vergelijken met hashes van lokale foto's die naar back-up dienst iCloud Photos zullen gaan. Als het aantal matches een threshold overstijgt, stuurt het apparaat een melding naar een Apple-server. De functie zal in de loop van dit jaar werken in de VS.

iPhone 12 Mini
iPhone 12 Mini

Door Arnoud Wokke

Redacteur Tweakers

09-08-2021 • 13:48

363

Reacties (363)

363
355
193
36
0
123

Sorteer op:

Weergave:

Tweakers, misschien een idee om hier een keer een deep dive over te schrijven? Ik zie bij dit soort draadjes veel reacties die ogenschijnlijk uit onbegrip over de manier waarop deze hashes tot stand komen en hoe de vergelijking ongeveer werkt.

Het is niet alsof Apple ergens een centrale server heeft staan met terabytes aan kinderporno, en het is ook niet alsof Apple een team heeft dat kinderporno verzamelt. Er worden hashes (geen bestandshashes, maar visueleperceptuele hashes) aangeleverd door een externe partij en na een hele hoop papierwerk kán er per foto toestemming worden verleend om materiaal te vergelijken alvorens er een melding naar de overheid wordt gedaan.

In dit stuk van een criticus op het nieuwe beleid staat wat meer informatie over hoe het proces zelf werkt. De auteur ervan is zelf actief in het opsporen van kinderporno en doet daar veel meer moeite voor dan veel grote techreuzen die het doen om legaal niet aansprakelijk zijn. Ik zou het aanraden aan iedereen die wat meer achtergrond wil lezen over hoe zulke systemen tot stand komen, werken en wat de nadelen zijn, los van of je het eens of oneens bent met de aanpak van Apple.

Edit: op het moment van schrijven staat deze reactie op +3. Ik waardeer de karma, maar lees alsjeblieft de moderatierichtlijnen voor je gaat modden. Zo'n uitzonderlijke toevoeging is dit volgens mij toch ook weer niet?

[Reactie gewijzigd door GertMenkel op 22 juli 2024 14:09]

Niemand bestrijdt dat kindermisbruik/kinderporno niet mag worden opgespoord. Maar de onderliggende techniek die Apple hier gebruikt kan voor veel andere doeleinden worden gebruikt/misbruikt.

De belofte die Apple hier maakt is geen cent waard, er zijn legio voorbeelden waarin bedrijven of overheden beloven écht, écht, ECHT niet een bepaald surveillance/monitoringsmiddel voor andere doeleinden gaan inzetten, en dat na een tijdje wel doen, zij het openbaar ("ja, maar de bestrijding van X of Y is óók belangrijk, en we hebben het middel nu toch al"), zij het stiekem/illegaal (https://www.nrc.nl/nieuws...nden-ook-gezicht-a4053582).

[Reactie gewijzigd door Tc99m op 22 juli 2024 14:48]

En de overheid kan dus zelfs een "willekeurig" gezicht als kinderporno in in deze hash database zetten en zo over de hele wereld iemand zoeken.
Apple kan wel te vertrouwen zijn, maar de aanlevering van deze DB niet (een signaal is immers genoeg) en helaas de overheid ook niet. Nu is kinder misbruikt het doel, morgen terrorisme, over morgen een bestormer van het Capitool, en over een week een politiek tegenstander. Vandaag alleen in de US, en morgen in Europa en volgende week in een communistisch land, en alleen om de burgers te beschermen.
Je maakt een foto van een auto, zet deze in de database als "ongewenst" en alle foto's op de wereld worden gecontroleerd op dit item. Juist omdat deze database niet openbaar is (en dit is zeker niet wenselijk) is het NIET geschikt voor dit soort doeleinde.
Noot dat de database niet afkomt van de overheid, maar van een non-profit organisatie.
Hoe kan ik controleren dat Apple alleen hashes van deze organisatie matcht? Is er een wettelijke garantie dat Apple nooit andere bronnen zal toevoegen? Hoe weet ik of deze non-profit organisatie geen fouten maakt of onder druk van overheden andere hashes toevoegt?
Hoe kan ik controleren dat Apple alleen hashes van deze organisatie matcht?
Niet. Evenmin als dat je nu kan controleren wat je smartphone, van welk merk dan ook, eigenlijk allemaal aan het doen is. Dat is het vertrouwensprobleem met technologie.
Is er een wettelijke garantie dat Apple nooit andere bronnen zal toevoegen?
Nope.
Hoe weet ik of deze non-profit organisatie geen fouten maakt of onder druk van overheden andere hashes toevoegt?
Niet, maar dat maakt vrij weinig uit en wel om deze reden: bij upload naar iCloud zal Apple de controle uitvoeren. Alle foto's die matchen (en ik vrees dat als dit meervoud is dat er dan werkelijk KP op het toestel staat :X) worden in een speciale container gezet in low-res kopie. Als je een bepaalde threshold voor matchings overschrijft (dus x aantal foto's die matchen), dan wordt deze data toegankelijk voor Apple's reviewteam. Die gaan dan kijken. Blijkt dat op miraculeuze wijze er sprake is van allemaal false-positives, dus dat er meerdere foto's een match hadden terwijl dat helemaal geen KP is, dan "discard" Apple het weer en is er verder niets aan de hand. Het heeft dus helemaal geen functie om andere hashes toe te voegen als het systeem zo blijft werken.

Overigens hebben overheden, zowel in de EU, VS als China, nu op verzoek gewoon al toegang tot de data bij je favoriete cloudprovider; dus ze hoeven de moeite niet eens te doen en dit soort verplichtingen zouden al jaaaaaaaren bij bigtech geforceerd kunnen worden dankzij cloudoplossingen. Het is tot dusver beperkt gebleven tot kinderporno. Dit probleem bestond dus al. Al jaren zelfs. Bij alle cloud- en mailproviders en dergelijken. Dat is absoluut geen nieuw probleem waar we tegenaan lopen, helaas.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Privacy bestaat niet meer. Als je daar nog in geloofde..
Ja... Laten we er nu zeker van zijn dat het er niet meer is. Dit gaat keihard misbruikt worden door overheden, vraag maar wat Apple doet in Hong-Kong, helpen ze ook leuk de chinese overheid met verzamelen van activisten
Diezelfde opsporingsmethode komt hier binnenkort overgewaaid naar Europa omdat ik nog steeds dat vaccin weiger :+
tot de overheid je verplicht om een bepaalde database ook te gebruiken om het bvb over een andere boeg te gooien: een most wanted lijst en dan niet enkel lokaal maar globaal (hallo CIA/KGB/Mossad/...).
Ja. Het kan ook zijn dat morgen de overheid verplicht dat Apple en alle andere fabrikanten toegang geven tot alle data op je toestel of er backdoors op installeren. Zolang het echter geen feit is, maak ik me daar niet al teveel constant zorgen om; al ga ik zeker voorzichtig om met al mijn data. (Overigens minder vanuit zorgen om de overheid, meer vanwege black-hat hackers en omdat ik gewoon enorm op m'n privacy gesteld ben. :) Het gaat niemand aan wat ik doe, zelfs niet wat ik vanavond gegeten heb... Tenzij *ik* besluit dat te delen.) Als ik alle "Wat als" slippery-slope argumenten moet aanhalen, dan smijt je je smartphone rechtstreeks je vuurkorf in. Daarnaast kan dat nu allemaal al, gezien cloudproviders (allemaal, niet enkel Apple) op het moment al verplicht zijn te scannen naar KP. Die verplichting om ook naar een "most wanted list" te zoeken had dus al jaren geleden ook ingevoerd kunnen worden. Is niet gebeurd.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

het is een precedent en eens technologie beschikbaar is, zal een overheid daar sneller misbruik van willen maken. Zo ook met bvb de paspoorten met vingerafdrukken. Zie wat ze met het tappen van telefonie en internet doen, dit is quasi hetzelfde als een trojan of adware installeren die verbinding maken met command&control servers. Het is een spyware-feature die enkel nadelen voor de gebruiker heeft, letterlijk geen enkel voordeel én geforceerd op alle toestellen wordt geïnstalleerd als je andere relevante features en updates wil.
Het is een spyware-feature die enkel nadelen voor de gebruiker heeft, letterlijk geen enkel voordeel én geforceerd op alle toestellen wordt geïnstalleerd als je andere relevante features en updates wil.
Een feature die alleen in de praktijk eigenlijk geen enkel verschil maakt, omdat alle foto's die je uploadt naar je clouddienst (of dat nou Apple, Google of Microsoft is) nu al gescand worden, geforceerd en zonder dat je daar iets aan kan doen behalve de upload naar de cloud uitschakelen. Dat is nu al het geval, is al jaren het geval, en wat dat betreft verandert er dus helemaal niets. Foto's niet uploaden = worden ook niet gescand. Wel uploaden = wordt gescand. Dat was de situatie, dat blijft de situatie; er verandert niets wat dat betreft. Situatie A is hetzelfde als situatie B, enkel het moment van de scan (vlak voor ipv vlak na) wijzigt. Echter, je zegt dat het enkel nadelen heeft. Dat klopt mogelijk niet helemaal. Dit zet namelijk de weg open naar E2EE-iCloud zónder organisaties zoals de EU ammunitie te geven om dan maar end-to-end encryptie in z'n geheel te verbieden want "think of the children". Daar is de EU nu al mee bezig en in de VS is er al het een en ander aan wetgeving. Dat zou een flinke boost in de veiligheid zijn.

Andere vraag: kun je mij vertellen wat er nu werkelijk verandert aan de situatie? :) Als je iCloud/Google Photos/OneDrive/wat dan ook nu gebruikt, worden al je foto's die je daarnaartoe uploadt gescand. Als deze wijziging van Apple doorgevoerd wordt, gebeurt dat client-side ipv server-side. Dat is het enige verschil, maar het feit blijft: je foto wordt linksom of rechtsom gewoon gescand. Dat was al zo, dat blijft zo; wat is er nu wezenlijk anders?

Dat wil niet zeggen dat ik het goedkeur trouwens, integendeel zelfs. Maar ik snap gewoon oprecht niet waarom mensen er nu opeens helemaal uit hun plaat over gaan terwijl dit al jaren aan de gang is bij alle cloudproviders en de situatie eigenlijk helemaal niet verandert. Sterker nog, en dit geldt al helemaal als E2EE-iCloud inderdaad waarheid wordt, wat Apple nu invoert kan het op termijn de situatie juist verbeteren ipv verslechteren... En nogmaals, dat betekent alsnog niet dat ik het goedkeur/het ermee eens ben. Ik ben het er al jaren niet mee eens dat deze scans (verplicht) plaatsvinden bij de cloudboeren en ben ook niet blij met deze wijziging van Apple; al hoop ik dat er een extra achterliggende reden is die me wel iets meer kan bekoren. (E2EE-iCloud) Maar de ophef is gewoon wat apart; tenzij mensen er serieus nu pas achterkomen dat de data in de cloud al jaren gescand wordt. :+ Maar dat is een politiek probleem, want dat is een wettelijke verplichting.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Als deze wijziging van Apple doorgevoerd wordt, gebeurt dat client-side ipv server-side. Dat is het enige verschil, maar het feit blijft: je foto wordt linksom of rechtsom gewoon gescand. Dat was al zo, dat blijft zo; wat is er nu wezenlijk anders?
het feit dat ze nu technologie inbouwen in je toestel om client-side controle uit te voeren en je er niets tegen kan doen. Ze beloven dat ze enkel foto's scannen juist voor je ze upload, maar in de praktijk houdt letterlijk niets hen tegen om dat altijd en met een veel ruimere database te doen, want een daarop volgende stap is te scannen op het moment dat een foto wordt opgeslagen/gemaakt. E2EE is nutteloos als eerst alles door the great firewall of apple gaat. Hun iconische reclame tégen big brother is des te frappanter, want nu zijn ZIJ big brother en zijn de gebruikers de hersenloze zombies die zich maar laten controleren en zelfs dit soort misdragingen verdedigen.
Vanaf je data uit handen geeft, dan weet iedereen dat je er geen controle meer over hebt, maar als die controle letterlijk in jouw handen gebeurt, wat kan je er dan nog tegen doen?
het feit dat ze nu technologie inbouwen in je toestel om client-side controle uit te voeren en je er niets tegen kan doen.
Je kan er wel wat tegen doen. Geen iCloud Photo's gebruiken... En daarom vraag ik ook: wat verandert er nu wezenlijk? Want als je nu iCloud Photo's gebruikt (in VS) zal Apple de foto's scannen. Dat moeten alle clouddiensten verplicht doen. Wil je dat niet? Geen iCloud Photo's gebruiken (of Google Photos, of OneDrive, et cetera.).

Dus "je kan er niets tegen doen": de keuze blijft exact hetzelfde als nu. Gebruik je iCloud Photos? Dan wordt het gescand. Gebruik je het niet? Dan wordt er niets gescand. Dat is de huidige situatie en dat is ook de toekomstige situatie. En je hebt dus de keuze: wel of geen iCloud Photos gebruiken. Dat is de keuze nu en dat is ook de keuze in de toekomstige situatie. Meer controle heb je nooit gehad, het is 1 of 0 en het blijft 1 of 0. Derhalve blijft m'n vraag eigenlijk staan wat er nu wezenlijk veranderd... Maar misschien zien we het gewoon anders.
Ze beloven dat ze enkel foto's scannen juist voor je ze upload, maar in de praktijk houdt letterlijk niets hen tegen om dat altijd en met een veel ruimere database te doen, want een daarop volgende stap is te scannen op het moment dat een foto wordt opgeslagen/gemaakt.
Dat is een glijdende schaal en in principe kunnen ze sowieso allerlei shit op je toestel draaien of in de cloud en dat kunnen ze al jaren. Alle fabrikanten kunnen dat. Daar speelt een vertrouwenskwestie simpelweg de hoofdrol. Als je ze al die jaren vertrouwd hebt, terwijl ze in principe kunnen flikken wat ze willen als ze evil intentions hebben, zou het raar zijn als deze functie dat opeens verandert terwijl ze er nogal transparant over zijn wat het doet, hoe het werkt, hoe ze het beperken, et cetera. :P
E2EE is nutteloos als eerst alles door the great firewall of apple gaat.
Neen. Dat is pertinent onwaar. E2EE is alles behalve nutteloos. Stel dat er E2EE-iCloud komt, dan is het heel simpel: als jij 10.000 foto's op je apparaat hebt staan waarvan er 0 matchen: dan zijn er 10.000 foto's op je iCloud versleuteld en kan niemand behalve jij daarbij. Matcht er 1 foto: dan kan niemand erbij. Pas als er een aantal foto's een match hebben met CSAM, dan krijgt Apple toegang tot een low-res kopie **van die specifieke matchende foto's** ter controle. Als het 10 foto's zijn, dan zijn alle overige 9990 foto's nog steeds end-to-end encrypted voor iedereen inclusief Apple. Blijken het false-positives te zijn? Dan wordt de plain-text accessible variant weer discarded en zijn alle 10.000 foto's wederom in haar geheel end-to-end encrypted. Daarnaast zijn vanuit het oogpunt van aanvallers die toegang weten te krijgen tot je iCloud account te allen tijde alle 10.000 foto's beschermd geweest en gebleven; zelfs de "matched" foto's; tegen partijen buiten Apple die om wat voor reden dan ook ongeauthoriseerd toegang hebben tot je account ben je dus volledig beschermd. Dat is een veel betere situatie dan nu, waarbij als iemand toegang tot je account weet te krijgen ze toegang hebben tot al je foto's... Match of niet. ;) Ten slotte: blijken het geen false positives te zijn maar heb je daadwerkelijk KP op je telefoon, dan nog krijgt Apple niet opeens toegang tot al je versleutelde foto's. Ze maken er louter melding van dat er positieve matches zijn en bij controle van die matches bleek dat het positive positives waren. De rest is aan justitie en die moeten dan maar zien hoe ze volledige toegang tot je data krijgen ALS ze dat willen op basis van die foto's.

Dus nee, end-to-end encryption is en blijft alles behalve nutteloos en is een enorm gewin ten opzichte van de huidige situatie waarbij alles plain-text accessible is voor Apple en iedereen die kan inloggen op jouw account (zonder jouw toestemming)! Zelfs met deze functie win je er te allen tijde heel veel mee en de kans op een false positive is astronomisch klein.
Hun iconische reclame tégen big brother is des te frappanter, want nu zijn ZIJ big brother en zijn de gebruikers de hersenloze zombies die zich maar laten controleren en zelfs dit soort misdragingen verdedigen.
Voor de duidelijkheid: ik verdedig helemaal niks. Ik ben hier al jaren op tegen, maar het is helaas een wettelijke verplichting in de VS. Ik kijk echter niet naar Apple als de schuldige, maar de politiek. En de EU is geen haar beter trouwens. Door het constante gedreig in de VS en de EU om backdoors te verplichten of end-to-end encryptie geheel te verbieden, denk ik dat Apple het niet aandurft om E2EE-iCloud te introduceren zónder eerst iets zoals dit te introduceren om het "think of the children"-gelazer de pas af te snijden voor men er ook maar over kan gaan ouwehoeren in de politiek.
Vanaf je data uit handen geeft, dan weet iedereen dat je er geen controle meer over hebt, maar als die controle letterlijk in jouw handen gebeurt, wat kan je er dan nog tegen doen?
Nogmaals: je hebt de controle wel. Als je niet wilt dat er scans uitgevoerd worden, dan moet je iCloud Photos uitschakelen. (Of Google Photos of Microsoft OneDrive of DropBox, whatever.). Dat is de huidige situatie en dat is ook de toekomstige situatie. Er wordt NIET gescand als je NIET naar de cloud uploadt. Dus de keuze is er wel degelijk en de situatie blijft de facto exact hetzelfde als dat die nu is qua keuze en impact; linksom of rechtsom worden de foto's gescand als je ze de cloud in wil gooien. Dat was zo, dat is zo en kennelijk blijft dat zo. (Vanwege wettelijke verplichtingen en politiek schaakspel.)

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Nochtans heeft de Amerikaanse overheid al regelmatig verzoeken gedaan tot het unlocken van een iPhone en heeft Apple steeds voet bij stuk gehouden ook als dat slechte PR opleverde.
er is letterlijk een wet die hen in bepaalde gevallen verbied om over zulke samenwerking te communiceren. In zo'n geval zal het onderzoek ook niet aan de grote klok gehangen worden, net omdat ze de illusie ook in stand moeten houden
En toch zien we die zaken dus in de media opduiken en is het duidelijk dat Apple niet buigt. Als ze het al niet doen voor één van de grootste terroristische aanslagen in de VS dan is dat echt wel duidelijk genoeg. Als zelfs de Amerikaanse overheid klaagt in de media dat Apple nooit wil meewerken. Dus nu met verdachtmakingen komen als dat ze dat niet mogen communiceren is wappie praat.
wat er in de pers gebeurd en in de rechtbanken of tijdens onderzoeken zijn 2 verschillende dingen.

combineer
section 213 van de Patriot Act:
Delayed notification warrants are a long-existing, crime-fighting tool upheld by courts nationwide for decades in organized crime, drug cases and child pornography.
met
section 215 van de Foreign Intelligence Surveillance Act:
Obtaining business records is a long-standing law enforcement tactic. Ordinary grand juries for years have issued subpoenas to all manner of businesses, including libraries and bookstores, for records relevant to criminal inquiries.
...
Section 215 requires FBI agents to get a court order. Agents cannot use this authority unilaterally to compel any entity to turn over its records. FISA orders are unlike grand jury subpoenas, which are requested without court supervision.
en je weet pas achteraf dat er is rondgeneust in je data
En blijven we doorgaan met dit wappie verhaal? Nogmaals de realiteit leert ons dat Apple niet buigt of verdoezelt. Zo heeft de regering Trump met een gag order nu net net dit laten doen bij een paar top democraten. Zo'n gag order is niet voor eeuwige duur en Apple rapporteerde ook dat netjes.

Wat jij quote geeft helemaal niet aan dat de Amerikaanse overheid bedrijven kan verplichten een andere database te gebruiken. Het gaat hier over opgeslagen informatie die verplicht moet vrijgegeven worden. Het wordt een wappie verhaal als je van alles in een glas doet en het begint te mixen. De overheid kan Apple bvb niet verplichten een iPhone te unlocken, net zoals het Apple niet kan verplichten een andere database te gebruiken.
kan je tenminste stoppen met dat achterlijke woord te gebruiken tenzij je geen inhoudelijke discussie wil voeren?

"de realiteit" ken je niet volledig, dus ipv dat ding hele tijd te spammen misschien eens kritisch nadenken, want dat mixen is wat wel onderdeel is van de realiteit: je kan als dader, slachtoffer of tussenpartij niet kiezen welke wetten wel of niet van toepassing zijn, dat is aan de gerechtelijke instanties, de politici die ze opstellen en de politiediensten die ze handhaven.
De VS hebben zichzelf bovendien het recht gegeven om overtredingen die buiten hun grondgebied gebeuren toch te vervolgen als ze vinden dat hun rechten of belangen geschonden zijn en een uitleveringsbevel uitvaardigen, zelfs al zit je aan de kant van de wereld en hun bedrijven zijn verplicht er aan mee te werken. Waarom denk je anders dat er onder andere zo veel landen/werelddelen zijn die lokale dataopslag eisen en de multinationals daar schoorvoetend mee instemmen?
Sorry als je zo discussieert dan kan ik enkel blijven opmerken dat je wappie verhaaltjes verkoopt. Jij verzint gewoon je eigen realiteit. Je voert geen inhoudelijke discussie. Het is natuurlijk een teken van deze tijd maar het mag ondertussen wel gaan stoppen.
Wat moet een "non profit organisatie" met een database van kinderporno?

Daarbij, iedereen spreekt hier over "slechts een hash" die wordt getoetst aan een centrale database.
Hebben we nu echt de illusie dat deze database allesomvattend is, dus in andere woorden hoe doeltreffend is dit eigenlijk? Als de database maar 1% van alle kinderporno bevat wat levert het dan effectief op?
Daarbij; zullen figuren die kinderporno bezitten dit uberhaupt op hun telefoon zetten?
Het ia niet één database, maar zijn verschillende databases die beheerd worden door verschillende NGO's, bijvoorbeeld het NCMEC in de V.S.

Uiteraard zijn sie databases niet alomvattend, maar ze worden aangevuld zodra er meer kipo wordt gevonden.

En ja, er zijn kinderpornobezitters die het gewoon op hun telefoon hebben staan.
Wat moet een "non profit organisatie" met een database van kinderporno?
Het doel van hun database is om de pakkans te vergroten, distributie te verminderen en te proberen vervaardigers en verspreiders van kinderporno op te sporen. En dat is niet zonder succes.
Hebben we nu echt de illusie dat deze database allesomvattend is
Nee, dat beweert niemand.
dus in andere woorden hoe doeltreffend is dit eigenlijk? Als de database maar 1% van alle kinderporno bevat wat levert het dan effectief op?
Daarbij; zullen figuren die kinderporno bezitten dit uberhaupt op hun telefoon zetten?
Ligt eraan wat je doel is. Als ze er een paar kinderen mee redden of pedo's pakken is dat al mooi meegenomen. Maar, ja: de kans dat er een match uitkomt is heel klein. De kans dat er een mismatch uit voorkomt is astronomisch klein. Daarom is het ook eigenlijk niet zo heel boeiend allemaal, het enige dat overblijft zijn de slippery slope argumenten. Wat overigens argumenten zijn waar ik zelf ook mee zit hoor, daar niet van... Vind dit al jaren een behoorlijk slecht idee, maarja: wettelijk verplicht om te scannen he. Dat Apple koos voor een database ipv bijv Machine Learning zoals Microsoft het doet scheelt al een hoop, maar ideaal is de situatie nog altijd niet privacytechnisch gezien.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Non profit zoals Siewertje van der Lienden?

Dan is er vast wel wat te koop
Nee, absoluut niet. Een non-profit die al heel wat jaren meegaat en waar tig partijen, ook opensource projecten zoals bijvoorbeeld een project waar ik aan werk, mee samenwerken en algemeen tot grote tevredenheid. Het is dus niet een of andere rando oplichter met een leuk marketingverhaal, maar een organisatie die zich al jaren inzet op dit gebied en een goede reputatie kent. https://www.missingkids.org/home (Had ik al gelinkt, maar kennelijk heb je niet geklikt :P)

Ik vind het ook nogal wat om zomaar aannames te maken als je kennelijk niet eens hebt gekeken welke organisatie het is, wat hun historie is, hoe betrouwbaar/integer ze tot dusver zijn gebleken en wie er allemaal met ze samenwerken, dat ze ge-audit worden maakt kennelijk ook niet...; Welnee, gewoon hoppaaaaa op een hoop smijt met zo'n sjaak als dat omhooggevallen corrupte CDA-lid en suggereren dat ze dezelfde slechte integriteit hebben, maarja. ;) Dat kan aan mij liggen dat ik dat niet zo netjes vind. :P

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Kijk nog even door wie en met wie die is opgericht, het is een NGO (en links) is dit een nieuwe manier om elk ander kritisch geluid de mond te snoeren.

Deplatforming: Het begon bij Alex Jones (walgelijke man) en nu is het gemeen goed om elke tegenstander
neer te knuppelen !

Volgende fase is dat Apple ook bank rekeningen gaat scannen, of mee gaat kijken welke DigiD communicatie je hebt met de overheid.

Hoe goed bedoeld ook, maar ze gaan steeds meer op de stoel van de overheid, rechter, en aanklager zitten dat is waarom -Trias Politica-
En de overheid kan dus zelfs een "willekeurig" gezicht als kinderporno in in deze hash database zetten en zo over de hele wereld iemand zoeken.
Nee overheden kunnen niet rechtstreeks in het CSAM Systeem. Dat kan alleen het NCMEC en andere kindbescherming organisaties. Er zal wel in de toekomst meer druk op Apple komen om het systeem uit te breiden in die richting vrees ik.
Ach, over 30 jaar word je opgepakt omdat je pornografische afbeeldingen hebt op je mobiel van 18 en 19 jarigen... De grens van kind zijn zal vermoedelijk steeds verder omhoog schuiven.

In de jaren 70 en 80 was het nog heel normaal om topless te zonnen als vrouw op het strand en liepen kinderen soms ook naakt rond. Nu is vrouwelijk bloot, ook al zijn ze meerderjarig, al not done in het openbaar. Vroeger werd 16 jaar nog een beetje gezien als leeftijd tussen kind en volwassen. Nu is dat 18. In Amerika kun je in veel staten zelfs tot je 21e geen alcohol drinken. In de jaren 80 en 90 kon je al 16 jarige in Nederland gewoon alcohol bestellen aan de bar. Tegenwoordig moet je tot je zeker je 24e je ID laten zien.

De wereld wordt preutser en preutser. Daarmee verschuift ook de grens steeds verder wat we nog collectief acceptabel vinden.

Nu refereert men nog in CSAM aan bekende beelden van kinderporno. In de toekomst verschuift ongetwijfeld die gedachte naar verdere preventie, kortom, er zal actief gescand gaan worden op onbekende beelden die iets weg hebben van bekend kinderporno materiaal. En zo glijden we steeds verder af en worden we steeds preutser.

Het overgrote deel van de mensheid is gelukkig tegen kinderporno. Maar de glijdende schaal is ingezet en dat vind ik beangstigend. Al een jaar of dertig is het al aan de gang. De vraag is wanneer stopt dit en start de omgekeerde beweging?
Weer een enorm sleepnet wat geen nut heeft de kinderporno zal gewoon doorgaan
KoffieAnanas draaf een beetje door maar heeft wel een punt. Wat jij beweert zegt hij toch niet. We worden wel in veel opzichten wel preutser. Voorbeeld er wordt aan een wet gewerkt waar je pas 21 moet zijn voor je in de prostitutie mag. Of het wel of niet goed is wil ik bij deze in het midden laten. Alleen vind ik het wel zeer vreemd dat je met je 18e mag stemmen en mee mag bepalen wie het land regeert maar niet mag bepalen wat je met je lichaam doet? Nu gaan er alweer stemmen op de alcohol grens te verhogen naar 21, Waarom?
@KoffieAnanas draait niet door, hij schets even heel kort hoe het afgelopen decennia’s veranderd is.
@Finraziel er zijn hele generaties zonder al die preutse regels oud geworden, waarschijnlijk jou ouders ook.
Het punt is de glijdende schaal, waar geen einde aan lijkt te komen.
Alles moet altijd correct, niemand mag gekwetst worden (wat een gebed zonder eind is, want de grens verschuift altijd weer), niks wordt niemand meer (extra) gegund en we rekenen het liefst tot drie achter de komma met iemand af …. Het is allemaal zo bekrompen en deze actie van Apple slaat kant noch wal.

Iedereen is het er mee eens dat (kinder)misbruik moet stoppen. Think of the children.
Voor de duidelijkheid, ik ben absoluut geen voorstander van deze actie van Apple... En ik heb ook een hekel aan dat eeuwige think of the children. Ik zie alleen niet hoe wetgeving die kinderen beschermt tegen de gevolgen van alcohol of van pornografisch materiaal die hun in de huidige maatschappij de rest van hun leven kan achtervolgen iets met preutsheid te maken heeft. Voor de duidelijkheid ik heb het hier over materiaal waar die tieners op door anderen te zien zijn, niet dat ze zelf geen porno zouden mogen zien, daar heb ik het niet over.

Als je bedoelt dat mensen ook oud werden toen er wel nog volop gezopen mocht worden, ja dat klopt maar dat wil niet zeggen dat het dan ook goed is. What doesn't kill you makes you stronger is onzin. Je kunt prima enorme schade ergens door leiden en toch 80 jaar of langer leven.

Wat betreft pornografie is de wereld vandaag de dag compleet anders, vanwege het internet. 50 jaar geleden als je een fout maakte dan kon je besluiten het voortaan anders te doen en waarschijnlijk kwam niemand er dan ooit nog achter. Tegenwoordig hebben we het eeuwige geheugen van het internet.
Daarbij is natuurlijk ook de vraag of ieder land dan weer zijn eigen database krijgt, zodat per land de overheid kan bepalen wat wel en wat niet (of bestaat er een VN definitie van kinderporno?)

Daarbij zie ik ook nog andere bezwaren

1. gelijkheidsbeginsel. Je mag in principe geen specifieke bevolkingsgroep targetten (in dit geval apple bezitters).
2. proportionalitiet. Is bekend hoeveel gevallen men hiervan nu heeft gevonden of gaan we 100 miljoen appels scannen om 5 (mogelijke) overtreders te vinden

En nog wat vragen

1. Hoe makkelijk is het om de database aan AI te voeren en automatisch kinderporno te laten herkennen?
2. Hoe makkelijk is het om dit te omzeilen door bv te encrypten of foto's te croppen
3. In hoeverre heeft apple opsporingsbevoegdheid? is dit niet meewerken aan je eigen veroordeling?
Waarom lees je de artikelen niet goed? Dat je zo'n hoge score krijgt op een stukje wat totaal nergens op slaat.
Dat is wel een enorme glijdende schaal though. Apple heeft in iOS bijvoorbeeld ook machine learning waardoor je in je Foto's app kan zoeken op "Kat" en (bijna) alle foto's met katten komen tevoorschijn. Als ik ook slippery slope ga denken, dan kunnen overheden Apple nu al dwingen om daar ook een check in te bouwen om daar meteen op KP, terrorisme, moord, je seksuele voorkeuren misschien, welke memes je bekijkt, whatever te gaan zoeken. Maar dat doen ze niet.

De vraag is dus, op welk punt mag je technologisch iets inbouwen en wat beslist nou precies of het wel of geen gevaar is of we doomscenario's moeten overwegen en daarmee gebruik ervan afzweren? Er zitten heel veel functies op je telefoon, of dat nou een Apple is of iets anders, die "potentieel" heel erg gevaarlijk "zouden kunnen zijn". Dus als we het hebben over "de onderliggende techniek kan misbruikt worden", dan denk ik dat als je de gemiddelde smartphone pakt je nog tig meer functies tegenkomt die heel erg gevaarlijk "zouden kunnen zijn" en nog veel erger dan dit systeem dat niets anders doet dan een hash vergelijken met een database gevuld met bekende en geverifieerde kinderporno.

In hoeverre moeten we dan niet dezelfde slippery slope argumenten toepassen op al deze functies? Of niet? En waarom dan niet op functie A zoals machine-learning van de content van je foto's, maar wle op functie B: de vergelijking van een hash. En als we dat soort functies allemaal niet willen omdat ze "potentieel gevaarlijk zijn" : kunnen we dan niet beter dumbphones kopen? :)

Niet om dit goed te praten ofzo he, don't get me wrong... Ik vraag me alleen af waarom we hier opeens allerlei glijdende schaal argumenten er op loslaten over hoe gevaarlijk het wil niet "kan worden", maar op alle tig andere functies op je telefoon die enorm gevaarlijk zouden kunnen zijn bij de minste of geringste aanpassing niet en daar kraait geen haan naar en wordt vrolijk gebruik van gemaakt; terwijl het even goed gevaarlijk "zou kunnen zijn". Dus geen oordeel over de stance en even los wat je vindt van deze specifieke functie, vraag ik me oprecht af waarom we hier opeens alle mogelijke slippery slopes gaan bewandelen mbt wat de technologie "kan" en waar het misbruikt voor zou kunnen worden, maar dat bij tig andere features die nog veel en veel verder gaan op je gemiddelde smartphone we daar niet hetzelfde doen.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Niet om dit goed te praten ofzo he, don't get me wrong... Ik vraag me alleen af waarom we hier opeens allerlei glijdende schaal argumenten er op loslaten over hoe gevaarlijk het wil niet "kan worden", maar op alle tig andere functies op je telefoon die enorm gevaarlijk zouden kunnen zijn bij de minste of geringste aanpassing niet en daar kraait geen haan naar en wordt vrolijk gebruik van gemaakt; terwijl het even goed gevaarlijk "zou kunnen zijn".
Ik denk dat dat vooral is, omdat men hier geen controle over heeft en het systeem heel makkelijk misbruikt kan worden. Ik doe bijvoorbeeld zelf niet aan social media, dus er staat weinig persoonlijks van mij online. Dat is een keuze die ik zelf heb gemaakt, waarbij ik de nadelen heb gewogen tegen de voordelen, maar met deze techniek heb ik geen keuze, anders dan helemaal niks meer online doen. Er is geen grijs gebied, het is 1 of 0 en er zit niks tussenin. Qua social media kun je nog kiezen om bepaalde platformen te weren, bijvoorbeeld wel LinkedIn, maar geen Facebook. Hier zul je als Apple-gebruiker naar bijvoorbeeld Google moeten overstappen, wat nogal 'a bridge too far' is als je Apple-gebruiker bent om privacy-redenen.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 14:48]

Ik denk dat dat vooral is, omdat men hier geen controle over heeft en het systeem heel makkelijk misbruikt kan worden.
Maar als je iCloud Photos, Google Photos of Microsoft OneDrive of iets dergelijks op dit moment gebruikt: dan is de situatie precies hetzelfde. Je hebt de controle: foto's wel of niet uploaden naar je favoriete cloudprovider. Doe je dat wel? Dan wordt de content gescand. Doe je dat niet? Dan niet. 1 of 0, dus dezelfde situatie. :P Die situatie is al jaren zo en verandert met deze wijziging van Apple (wss in aanloop naar E2EE-iCloud) niet? Dat het makkelijk misbruikt kan worden is dan al jaren een probleem gezien alle cloudproviders wettelijk verplicht zijn (in de US) om te zoeken naar KP in data waar ze de plain-text van kunnen benaderen. Als ik puur kijk naar de implementatie, dan is deze setup van Apple zelfs een van de minst indringende oplossingen omdat ze geen gebruik maken van ML/AI om te proberen kindermisbruik te herkennen: neen, ze gebruiken enkel perceptual hashing om de controleren aan de hand van een database met bekende/geverifieerde KP; wat tot veel en veel en *veel* minder false positives zal lijden in vergelijking met de andere diensten. (Overigens is dit nog steeds niet ideaal he, begrijp me niet verkeerd. Ik zou liever zien dat er helemaal niet in onze privédata gerommeld wordt; maar die cloudproviders zijn er op het moment helaas juridisch toe verplicht.)

De controle die je hebt met dit systeem is hetzelfde als de controle die je nu en de afgelopen jaren hebt gehad, daar verandert wezenlijk helemaal niets in. Ook als je de cloud helemaal niet gebruikt verandert er dus niets, omdat de data on-device niet gescand wordt *tenzij* je die probeert te uploaden naar iCloud. Qua controle die je hebt/had, verandert er dus feitelijk niets?
Hier zul je als Apple-gebruiker naar bijvoorbeeld Google moeten overstappen, wat nogal 'a bridge too far' is als je Apple-gebruiker bent om privacy-redenen.
Naast dat laatste, heeft dat ook geen enkel nut. Google doet namelijk precies hetzelfde en gaat er nog veel verder in door toepassing van ML/AI op alles in Google Photos ipv louter een hash-check dmv een database. :P

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Ik denk dat er ook nog wel bepaalde andere dingen bij komt kijken. Veel van de technologie komt ook uit een tijd dat men de bedrijven nog redelijk kon vertrouwen, toen privacy data nog niet zoveel waard was. Dit voelt gewoon nog steeds veilig voor veel mensen ook al kan het eigenlijk bij elke update veranderen.

Een andere ding is dat men hier geen voordeel bij heeft en dat men dus minder geneigd is dit te accepteren. Sterker nog dit heeft eigenlijk alleen potentiële nadelen als men geblokkeerd wordt omdat er "kinder porno" (je eigen kind in bad of eigen zwembad) gevonden is.

En soms is het pas dat men het niet verwacht dat er misbruik van gemaakt kan worden. Bij wifi bijvoorbeeld weet men dat je gehackt kan worden. Maar niemand had bijvoorbeeld verwacht dat de ssid data verder belangrijk zou zijn totdat Google en hun streetview auto's dit ineens ook gingen opslaan.
Volgens mij ben je ingehuurd door Apple om het goed te praten. Deze actie is een glijdende schaal, dat zeg ik niet, en de vele tweakers hier, maar is met name door 6000+ deskundigen en privacy organisaties bevestigd, en hebben een petitie opgesteld en ondertekend. Deze route is gewoon zeer ongewenst. Als het daadwerkelijk wordt ingevoerd, zal Apple dat denk ik ook wel gaan merken in commerciele zin. Je kan niet zomaar iedereen beshouwen als dader of verdachte zonder aanleiding en ongewenst onderzoeken, dit is volledig onacceptabel.

[Reactie gewijzigd door gmj2 op 22 juli 2024 14:48]

Ik vind het best knap dat je op geen enkel punt in mijn post ingaat en geen enkele van mijn vragen/stellingen beantwoord, enkel wat compleet willekeurige onderbuikgevoelens en op de man aanvallen sproeit (zo te lezen ook nog eens op basis van foutieve dan wel onvolledige informatie) en that's it. :X Afijn... Je zal het wel nodig hebben gevonden om even gal te spuwen ofzo. Laat ik dan wel inhoudelijk ingaan op jouw post:
Volgens mij ben je ingehuurd door Apple om het goed te praten.
Dat soort aanvallen gaan echt nergens over en zijn een zwaktebod. "Ik ben het niet met je eens. Jij hebt een andere mening, dus je zal wel betaald worden!!1!" :+ Kinderachtig vergiftigen van de put... Zo kan ik het ook: volgens mij ben jij ingehuurd door een hedgefund dat wil dat de koers van Apple-aandelen zakt omdat ze het ge-short hebben.

Zo, kennelijk hebben we beiden financiële motieven om onze meningen te uiten. Nu dat uit de weg is, kunnen we wellicht werkelijk op de inhoud ingaan. :+ Ik praat overigens juist helemaal niets goed en ben ook geen voorstander van die scans, maarja. Je hebt je aannames zo te zien al gemaakt, zo te zien zonder mijn post echt goed door te lezen. ;)
Deze actie is een glijdende schaal, dat zeg ik niet, en de vele tweakers hier, maar is met name door 6000+ deskundigen en privacy organisaties bevestigd, en hebben een petitie opgesteld en ondertekend.
Het is bevestigd dat het een glijdende schaal is...? O...kee... Dat is wat apart en weet niet wat ik met dat gegeven aanmoet, hehe... Ik weet niet wat je nou eigenlijk wilde zeggen, maar dit leest zo erg vreemd weg. Wat je denk ik bedoelde te zeggen is dat een aantal deskundigen en privacy organisaties een brief hebben geschreven aan Apple waarin zij hun zorgen uiten. Top. Ik ben het ook tot op grote hoogte met ze eens; al komt de ophef eigenlijk tig jaar te laat en is de aanleiding om er nu opeens over te beginnen wat vreemd, maar dat terzijde. Daarnaast vind ik dat de brief aan de wetgevers gericht had moeten worden die de aanleiding zijn en niet per definitie (louter) aan Apple. (Noch de andere cloudboeren die scans uitvoeren.)
Deze route is gewoon zeer ongewenst.
Wat is er precies zo ongewenst aan in vergelijking met de huidige situatie? :) Dit kun je wel roepen, maar een uitleg waarom je dat vindt zou wel handig zijn.
Je kan niet zomaar iedereen beschouwen als dader of verdachte zonder aanleiding en ongewenst onderzoeken, dit is volledig onacceptabel.
De wetgever denkt daar helaas anders over. Misschien was het je ontgaan, maar dit scannen van foto's "zonder aanleiding en ongewenst onderzoeken" gebeurt al jaren op last van een wettelijke verplichting waar alle cloudproviders aan moeten voldoen... Het is niet de keuze van Apple, Google, Microsoft, etc. om al je foto's te scannen die je uploadt naar hun cloudstorage: dat zijn ze simpelweg verplicht. Je moet dus je pijlen richten op de politiek die die verplichting geschapen heeft. En niet enkel in de VS. Immers heeft de EU recent besloten dit te legaliseren en wil het ook gaan verplichten... Maar goed, dat die wet bestaat zal op de een of andere manier vast Apple's schuld zijn. :+

Summary:
a.) Het scannen van foto's die je uploadt naar iCloud (of welke dienst dan ook van de bigtech firms) gebeurt al jaren. Dat was dus al zo en dat blijft nu zo. (Zelfs als E2EE-iCloud er komt.) Nogmaals: foto's die je NIET uploadt naar iCloud worden dus ook NIET gescand. Net als nu het geval is.
b.) Deze scans zijn op last van de wetgever in de VS, niet omdat de cloudproviders er zelf nou zoveel zin in hadden. De EU heeft dit recent ook legaal gemaakt en overweegt het zsm ook te gaan verplichten.
c.) De route die jij als "Zeer ongewenst" beschrijft bij Apple is exact hetzelfde als de huidige route qua keuzes die je als consument hebt en welk eindresultaat elke keuze heeft. Daar verandert helemaal niets aan. Derhalve nogmaals de vraag: wat is er precies zo erg aan de nieuwe situatie ten opzichte van de huidige situatie, wetende dat er de facto niets verandert aan de keuzes noch het eindresultaat van elke keuze...? En waarom is hier de glijdende schaal opeens een zeer belangrijk en valide argument, maar op alle andere, en in potentie zelfs veel gevaarlijkere, functies niet? (Ik probeer het nogmaals, gezien je hier in je reactie compleet niet op ingegaan bent. ;))

Zou een inhoudelijke reactie ipv op de man aanvallen en de rest negeren toch wel op prijs stellen. :)
Het idee dat we op deze manier zo bespioneerd kunnen worden, is niet acceptabel.
Ik vind het prima dat een overheid kinderporno opspoort. Ik vind het prima dat een overheid mij zou verdenken van het bezit van kinderporno, probeert in te breken in mijn telefoon om dat aan te duiden. Maar we moeten het opsporen niet te makkelijk maken. Om voor te stellen dat we overal binnenshuis camera's te laten plaatsen, ook op badkamers/toiletten, zouden we hoogstwaarschijnlijk te ver vinden gaan om misbruik van minderjarigen tegen te gaan. Maar de grens mag ook wel hiervoor liggen. Ik hoop dat we dat verstand hebben.
Dit soort beloftes zijn van niemand iets waard, daar hebben we duizenden voorbeelden van. Het is een belofte dit op dit moment gemaakt wordt, maar 10 seconden later kan de wereld er al heel anders uitzien.
Het nadeel van dit soort praktijken is dat je het niet ziet. En hoewel Apple misschien niet geïnteresseerd is in wat je precies op je telefoon doet, anderen kunnen dat wel zijn. Straks is er een database van -weet ik veel wat- en worden andere zaken die ik stuur via hashes geturft.
Niemand bestrijdt dat kindermisbruik/kinderporno niet mag worden opgespoord. Maar de onderliggende techniek die Apple hier gebruikt kan voor veel andere doeleinden worden gebruikt/misbruikt.
Mja ik vind dat nogal een kulargument hier eigenlijk. Het is niet alsof Apple hier een soort nieuwe techniek aan het uitvinden is; het maken van die hashes en ze tegen een lijst leggen bestaat al heel lang. Als overheden zouden willen dat ze dat doen staat het niet op dat moment geïmplementeerd zijn van een dergelijk systeem ze echt niet in de weg om dat te eisen.
Ik ben niet bekend met hoe het systeem werkt, maar dat is denk ik weinig relevant in de discussie.
Wat het probleem is, is waar we zijn beland met betrekking tot privacy.
Persoonlijke gegevens zijn een vorm van intellectueel eigendom. Het bestaan en handelen van een persoon leidt tot die gegevens. Die gegevens zouden moeten behoren aan die persoon. Dat kan discutabel zijn, want wat als ik moeite doe om die gegevens te bemachtigen?
Stel dat ik het gedrag van mijn buurman controleer. Ik weet dat de buurman een hond heeft en dat zijn vriendin rookt. Die gegevens zijn geld waard. Zijn die gegevens nu van mij of van mijn buurman?

Als ik dat zo zeg, klinkt het als spionage of achtervolgen, iets wat onwenselijk is. Maar bij bedrijven laten we dit gebeuren, alsof het normaal is.
Maar een belangrijk detail is de situatie die zich over tijd ontwikkelt. Stap één is dat we ons laten bespioneren door bedrijven, zogenaamd als betaling voor een dienst/product, maar in feite (ook) voor flinke winsten.

Die winsten zijn een probleem: wat we niet accepteren van onze buurman, maar wel van bedrijven, wordt vergaand gestimuleerd, want winst. Meer spioneren = meer winst = nog meer spioneren.
Uiteindelijk belanden we in een situatie waarin het zó ver gaat, dat bedrijven onze foto's door gaan struinen. Het maakt mij niet uit welke kaart er in de discussie wordt getrokken: ik wil dit niet. Ongetwijfeld zal het ook werken dat we camera's in onze badkamers/toiletten en overal in huis laten installeren, zodat kindermisbruik afneemt. Ook dat doen we niet.

En niet alleen bedrijven, maar ook overheden profiteren van deze massasurveillancetechnieken. De technieken die bedrijven creëren en de databases die zij genereren, worden ook gebruikt door overheden. Niet alleen "onze" overheid, waarvan de intenties al niet geheel zuiver zijn, gezien de uitkomst van de kindertoeslagaffaire en SyRI. Vergeet ook niet dat (daar ga ik tenminste van uit) met de "sleepwet" data ook behoorlijk onbeperkt gedeeld kan/gaat worden met buitenlandse veiligheidsdiensten.

We moeten heel erg snel dingen terugdraaien. Ik zou het liefst willen zien dat het niet toegestaan is om winst te maken met persoonlijke gegevens. Niet morgen, niet vandaag, maar eergisteren.
We geven af op Rusland en/of China, maar dat onze foto's ongevraagd gescand kunnen worden, is wel echt iets wat hoort bij een politiestaat. Stel je voor dat twintig jaar geleden ongevraagd en onbewust iemand je foto-albums zou kunnen bekijken. Dat is wat er vandaag de dag mogelijk is.
Hoewel ik het met een aantal punten wel redelijk eens ben, is het niet reëel wat je zegt.

Geen winst met persoonsgegevens klinkt leuk, maar hoe zit het dan met alcohol, tabak, gokken, fossiele brandstoffen, bio-indistrie, wapens... De lijst is bijna eindeloos.

De enige oplossing is stemmen met je portemonnee, maar je bent helaas maar een stem. Ok er is een alternatief: een autoritaire/dictatoriale overheid die het voor ons allema besluit.

Zolang de meerderheid van de bevolking direct zelf, of indirect via de politiek, kiest voor goedkoop (gratis) en/of gemak en/of imago, boven de ethisch betere opties, blijft het van kwaad naar erger gaan. En zie hier waarom de wereld letterlijk in brand staat.
Het gaat niet om hoe dat is alleen interessant voor de (valse)naievelingen. Het gaat erom dat een commercieel bedrijf zonder enige juridische grondslag optreedt als wettelijke opsporingsdienst. Nu zijn het foto's met kinderen, volgend jaar zijn het foto's met wapens, en het jaar daarop foto's met religieuze kenmerken.
Apple gebruikt geen visual hashes maar een perceptual hash.

Een visual hash wordt meestal een identicon genoemd en is het tegenovergestelde wat Apple doet. Een visual hash heeft als input een hash waarde en die waarde wordt vormgegeven dmv een afbeelding.

Apple zet een beeld om naar een perceptual hash. Input is een beeld en de output is een perceptual hash

https://en.wikipedia.org/...e=Visual_hash&redirect=no
https://en.wikipedia.org/wiki/Perceptual_hashing

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:48]

Goh, ik kende de term "visual hash" voor identicons niet. Dat is ook een manier om "visuele hash" te interpreteren ja, een hash die visueel is in plaats van een hash van wat je ziet (wat ik dan ook bedoel). Excuses voor de verwarring.
Dat met die heleboel papierwerk zal wel meevallen... zie de geautomatiseerde takedowns van sites op basis van aanvragen door bepaalde organisaties.
Het blijft fout dat een bedrijf of instantie direct of indirect inzicht heeft in wat er op jouw stukje storage staat.
Ja ik weet google doet dat ook, facebook ook; maar hier heeft geen gebruiker bewust voor gekozen.
De suggestie die je wekt (of suggereerd er hier te zijn) dat Apple een database met dat soort beelden heeft lijkt nergens op gebaseerd. Het is ook niet redelijk om aan te nemen, Apple is zeer duidelijk dat het om hashes gaat en tweakers verwijst daar in het nieuws ook naar.
dan veel grote techreuzen die het doen om legaal niet aansprakelijk zijn.
En daar zit het probleem. Apple lost hiermee niets op en veegt alleen het eigen straatje schoon. Ondertussen is er wel software gemaakt waarmee persoonlijke inhoud kan worden doorgelicht.

Een overheid hoeft de aansprakelijkheid maar uit te breiden en Apple kan zich beroepen op de legale plicht om het toch breder te gaan gebruiken.
Tweakers, misschien een idee om hier een keer een deep dive over te schrijven? Ik zie bij dit soort draadjes veel reacties die ogenschijnlijk uit onbegrip over de manier waarop deze hashes tot stand komen en hoe de vergelijking ongeveer werkt.

Ik weet wel zeker dat Tweakers dit juist express doet. Veel clicks en veel zure mensen die vanalles schreeuwen in de comments. Dat levert meer geld op. Anders hadden ze ook wel in het artikel gezet dat het gewoon uit te schakelen is:

https://www.iculture.nl/n...ndermisbruik-privacy/#uit
Apple heeft bevestigd dat de CSAM-detectie niet toegepast wordt als iCloud-foto’s is uitgeschakeld. Wil je dus niet dat hashes van foto’s op je device gematcht worden met hashes van een bewezen CSAM-database, dan moet je iCloud-fotobibliotheek uitschakelen.

Maar ze zullen dit er nooit bijzetten.. Tweakers wil clicks en engagement. Ik had dit het vorige artikel ook al gemeld maar dit interesseert niemand. Ze willen sensatie.
Off topic:
Edit: op het moment van schrijven staat deze reactie op +3. Ik waardeer de karma, maar lees alsjeblieft de voor je gaat modden. Zo'n uitzonderlijke toevoeging is dit volgens mij toch ook weer niet?
Thanks, eindelijk iemand die in de + staat die het zegt! _/-\o_
Het ding is dat Apple wel snel buigt voor regimes, kijk maar naar China bijvoorbeeld… daar heeft de Chinese overheid de decryptiesleutels van de lokale Chinese iCloud bestanden.
Kan Apple wel zeggen “wij beloven” maar wat als er wetten worden veranderd?
Wat me opvalt is dat Apple dit op duizenden manieren kan communiceren!(marketing). Dat het internet ontploft over dit zegt veel over apple, een stuurloze marketing en terecht ook dat iedereen zit te klagen.
het is creepy en gewoon privacy schending.

Steve jobs zou zich in zijn graf omdraaien.
Tot de Chinese overheid zegt, je scant wat wij vragen of Apple wordt niet meer verkocht in China…
Tot ook onze overheid via rechter apple een bevel geeft om een set foto's in de database in te geven en te laten weten wie ze nog meer heeft of verstuurd. Apple heeft zo een datastructuur waar overheden straks dankbaar gebruik van kunnen maken.
Dat kan een rechter helemaal niet...
De overheid kan dat vragen met als risico dat Apple dit wereldkundig maakt.
US code, Title 18, part 1, chapter 121, article 2709: National Security Letter.
FBI issued "administrative" subpoena with gag order.

Betrokken partijen mogen nooit en te nimmer de inhoud van het onderzoek bespreken met externe partijen. Ook niet na het verstrijken van een grace period of afronding van onderzoek. Deze gag orders zijn meerdere keren aangevochten en bekrachtigd gebleven door de rechtbank.

Feit is dat je niet eens een rechter nodig hebt in dit geval, alleen maar een overenthousiaste FBI agent. Dit rechtsartikel geeft onbeperkte macht aan de FBI en kan praktisch onbetwist en onaangevochten door het leven gaan. Er zijn duizenden van zulke NSL's aan bedrijven uitgedeeld.
Dat gaat dus over de USA...
Ik reageerde op iemand die het had over onze overheid. Bij ons gaat dit veel moeilijker.
Aangezien Apple amerikaans is, heeft het amerikaanse bedrijf te luisteren naar de FBI. Zelfs als de data opgeslagen is in europa. En je mag er simpelweg niks over zeggen. Alle privacy verdragen zijn effectief waardeloos door dit specifieke artikel. Het is ook niet dat ik bang ben voor de nederlandse overheid, maar de FBI die bepaald wat kinderporno is in andere landen en op basis van Amerikaanse normen jouw foto's beoordeeld.

Dat is hoe de bal rolt, zo simpel is het.
Als deze data opgeslagen is in Europa mag deze niet zomaar door amerikaanse overheden ingekeken worden.
Dat is net één van de redenen dat Europa zo sterk benadrukt heeft dat de cloudservices hun servers binnen europa moeten staan voor europese gebruikers.

Maar vermits er recent een schandaal geweest is over spyware van de amerikanen op Merkel haar telefoon denk ik nu wel niet dat we moeten doen alsof we veilig zijn.
Maar het betekent wel dat voor een random persoon je data niet doorzocht wordt als deze in europa opgeslagen is.
En volgens de amerikaanse wet en regelgeving worden amerikaanse bedrijven verplicht data in het buitenland ook te behandelen alsof deze onder amerikaans recht valt.

Dat is de spagaat waar grote multinationals nou eenmaal inzitten.
Volgens de Amerikaans wet wel, maar volgens de europese niet en daar wringt nu net de schoen.
Er wringt geen schoen want we weten reeds dat het gebeurt.

Het lijkt alsof we dweilen met de kraan open, je weet ook dat de VS ons spioneerd net om machtiger te worden en betere deals te sluiten.

Ben je heel dat fiasco vergeten?
Gag orders voorkomen juist dat er over gepraat mag worden. Je gaat er nooit achter komen, zo simpel is het. ELK verdrag wordt terzijde geschoven, simpelweg omdat de wet dat zegt.

Klokkenluiders? Nadat de amerikaanse diensten hebben laten zien tot welke acties ze bereid zijn te gaan? Ze zijn bereid om klokkenluiders kostte wat kost te arresteren (jullian assange, whistleblowers are the enemy of the people) of voorbeeld te stellen (manning, contempt of court omdat ze niet mee wilde werken aan eigen veroordeling)
Dacht je nu werkelijk dat Apple vanuit US (of willekeurige andere apple locatie in de wereld) niet bij servers in de EU zou kunnen? Lekker naief hoor. En niet mogen is niet hetzelfde als niet doen. Reken maar dat als de NSA of FBI data nodig heeft, dat ze dat ook krijgen, zonder dat iemand dat weet. Daarom is deze techniek een verregaande inbreuk in de privacy, en moet met kracht worden tegengegaan. Het hele enge aan dit Apple verhaal is dat ze lokaal op je phone kunnen scannen (dus niet eens perse in alleen iCloud) en vervolgens de data ongemerkt kunnen uploaden ter controle als er een hash triggert. Dit is gewoon abject...
Maar lees even de discussie terug waar het om ging. Dat Apple zich ten allen tijde aan de Amerikaanse regels moet houden is duidelijk, maar daar ging het nu even niet om...
Excuus je hebt helemaal gelijk, het gaat over de nederlandse overheid. De oh zo gecontroleerde en gecorrigeerde nederlandse overheid waar alles via rechters op z'n pootjes terecht komt. |:(

Ik hoef alleen maar te refereren naar het kinderopvang fiasco om het gehele argument onderuit te halen. Het laat de drive zien van de overheid om zichzelf te beschermen ten koste van duizenden mensen. Hele pallets aan zwartgelakt papier zijn verkwist om mensen een trap na te geven. En na al die jaren zijn mensen nog steeds volledig kapot.

Pas als dat fiasco opgelost is en alle schuldigen gestraft zal ik weer een beetje vertrouwen hebben in de overheid en de controlerende macht. Maar zolang Rutte en Kaag zitten waar ze zitten hebben ik geen enkel vertrouwen in dit bananenland.

En dan ben ik nog niet eens begonnen over alle schendingen die in het verleden geweest zijn, waaronder ook rauwe metadata uit te wisselen met de US om vervolgens het ondervangen resultaat te classificeren als "foreign intelligence".
Je moet het verhaal niet proberen om te draaien. De Nederlandse overheid werkt graag samen om illegale praktijken toe te passen in samenwerking met de VS. Als ik mij goed herriner is het zelf enkel in de USA als illegaal bestempeld maar heeft Nederland dit nog steeds niet gedaan?!
Ik draai niets om. Als een geheime dienst data wil monitoren gaat dat niet via dit systeem maar gebruiken ze daar veel kortere lijnen voor.
Hoe bedoel je? De nieuwe "dienst" kan hetzelfde gewoon uitvoeren op je gsm. Het moet niet eens op icloud staan, die belofte(s) van Apple daar heb je weinig aan als de geheime dienst toegang kan verschaffen tot dit systeem.

Dit is dus de nieuwste korte lijn en zal met plezier in gebruik worden genomen door de geheime dienst, is het niet die van de USA dan zullen ze we een samenwerking opstarten met die van Nederland of England om zo via een omweg tot het gewenste doel te bekomen.

Ik zie echt niet in welke andere betere manier ze gaan te pakken krijgen. Ze moeten niet eens meer iets op je telefoon krijgen want het zit al ingebakken.
De check wordt op de telefoon uitgevoerd maar pas als je je foto's naar de cloud uploadt wordt er een mechanisme getriggerd en wel als er een treshold bereikt wordt. Die treshold bestaat uit meerdere foto's en meerdere criteria. Daar zit een veiligheidsdienst niet op te wachten op al die drempels.
Duhhh.. Die gaan die gewoon omzeilen en negeren. blijkbaar heb je niet goed opgelet in het Snowden verhaal.

Jij bekijkt het leven door en net iets te roze bril.

Zoals ik hierboven zei:
die belofte(s) van Apple daar heb je weinig aan als de geheime dienst toegang kan verschaffen tot dit systeem.
Toegang betekent voor mij op lokaal niveau en niet op het plan van Apple.

[Reactie gewijzigd door LordMike op 22 juli 2024 14:48]

Precies, ze hebben dat hele nieuwe principe van Apple helemaal niet nodig om de data in te zien die ze willen inzien. Dat konden ze al lang en dat kunnen ze nog steeds. Er is dus geen reden om bij dit nieuwe principe van Apple ineens bang te zijn dat veiligheidsdiensten het misbruiken.
Tuurlijk wel :
Apple kondigde eerder deze maand aan dat het een csam-detectie functie zou toevoegen aan iOS 15 en iPadOS 15.
Zonder deze nieuwe functie is het onmogelijk om van deze nieuwe dienst gebruik te maken.

Ik ben dus oprecht bang dat het misbruikt zal worden door de resultaten uit het verleden die notabena gelekt zijn. De geheime diensten staan er algemeen bekend voor dat er bijna nooit iets naar buiten komt want "nationale veiligheid" primeert boven alles.

Laten we akkoord gaan dat we niet overeenkomen 💪

Edit:
Volgens het Center for Democracy & Technology zou het bedrijf hiermee een infrastructuur voor surveillance en censuur op, die kwetsbaar is voor misbruik wereldwijd.
Het laatste nieuwsbericht hierover leest echt als een verhaal waar je bijna zou gaan denken dat ze verplicht zijn om dit in te voeren omdat ondanks de kritiek die ze hierop ontvangen toch doodleuk verder gaan met de plannen. 🙈

[Reactie gewijzigd door LordMike op 22 juli 2024 14:48]

Jij vergeet dat maar even dat "onze" geheime diensten samenwerken met de VS en zij dit dus via een omweg kunnen aanvragen.

Bron: Snowden.

We praten hier ook over bewezen feiten!
Hoofdredacteur Peter Vandermeersch maakte vanavond bekend dat Nederland sinds 1946 wordt afgeluisterd door de Verenigde Staten.
Nee, dat vergeet ik niet, maar als men dat zou willen dan gaat men dat niet via de omweg van deze nieuwe functionaliteit met tresholds en allerlei privacysparende technieken doen. Dan wordt dan gewoon direct op de data in de icloud gedaan.
Idem als vorige reactie:
Hoe bedoel je? De nieuwe "dienst" kan hetzelfde gewoon uitvoeren op je gsm. Het moet niet eens op icloud staan, die belofte(s) van Apple daar heb je weinig aan als de geheime dienst toegang kan verschaffen tot dit systeem.

Dit is dus de nieuwste korte lijn en zal met plezier in gebruik worden genomen door de geheime dienst, is het niet die van de USA dan zullen ze we een samenwerking opstarten met die van Nederland of England om zo via een omweg tot het gewenste doel te bekomen.

Ik zie echt niet in welke andere betere manier ze gaan te pakken krijgen. Ze moeten niet eens meer iets op je telefoon krijgen want het zit al ingebakken.
In de USA heb je de geheime rechtbanken, daar neemt rechter een beslissing die jij niet openbaar mag maken.

In Nederland kan het ook en apple kan dat misschien openbaar maken maar niet om welk geval het gaat. waarbij de rechter ook weer kan opdragen het niet openbaar te maken als het de opsporing in gevaar brengt.

Punt blijft er is nu infrastructuur en apple kan mooi roepen we werken niet mee. Zijn er wetten en mogelijkheden dat zal apple als ze daartoe wettelijk wordt opgedragen gewoon mee moeten werken. Niets meer niets minder.
Net zoals deze encyptie is er werkelijk he-le-maal niemand die een 100% garantie geeft dat zulke dingen niet naar buiten komen. Kan het nog via allemaal slinkse wegen onder het tapijt worden geveegd, zodra er iemand met een geweten even een usb stick met 'bepaalde gegevens' naar een journalist lekt gaat de beerput open.

In de USA zal het wel iets meer van het 'that information is above your paygrade'-niveau zijn, dus de gemiddelde klokkenluider loopt niet via een stage van een paar maanden met de strengst beveiligde gegevens naar buiten.
En dan wordt het bekend, wat dan?

Meeste mensen kennen Edward Snowden wel. Maar ondanks alles wat hij publiekelijk heeft gemaakt, hoeveel is er sindsdien nou werkelijk veranderd?

Een van de grootste verdachten van kindermisbruik pleegt 'zelfmoord' in een Amerikaanse gevangenis.
Vraag me af hoeveel daar nog mee gedaan gaat worden.
Ja, maar je zei "onze overheid", dus ik betrok mijn antwoord dus ook op onze overheid...
In Nederland kan dit veel moeilijker en zijn er veel meer controles op.
De infrastructuur om alle foto's te checken ligt er nu ook. Apple kan gewoon in opdracht van een overheid een hele iCloud doorlichten, behalve de keychain, gezondheidsdata en homekit data.

[Reactie gewijzigd door bytemaster460 op 22 juli 2024 14:48]

onder onze overheid valt in die zin leger, politie, aivd mivd en noem ze allemaal maar op.
De Chinese overheid kan zelf al heel veel, want iCloud data staat daar blijkbaar op servers waar de Chinese overheid al bij kan.
klopt, maar ook op lokale devices meekijken is toch wel een fatsoenlijk stap verder.
What-if.

Dat zou China afgelopen jaren ook al gezegd kunnen hebben en het antwoord had toen al kunnen zijn: "dan fluit maar naar je iPhones", net zoals dat nu het antwoord zou kunnen zijn. En als dat nu niet het antwoord zou zijn en -stel- Apple zou daarmee akkoord gaan, dan zie ik niet waarom dat de afgelopen jaren anders zou zijn geweest. Dus er verandert helemaal niets op dat vlak?

[Reactie gewijzigd door RobIII op 22 juli 2024 14:48]

Ik denk dat de Chinese overheid al alles kan bekijken van hun users: https://wccftech.com/apple-icloud-data-storage-china-keys/

Maar ik snap je punt wel.
Laten we hopen dat t niet zover komt... Al geloof ik wel dat China al zoveel informatie heeft over iedereen dat ze zo een dossier kunnen opstellen van personen.
Of de Amerikaanse... Die Yanks sturen een bedrijf gewoon een eis om data en een keihard verbod om daar iets over te zeggen tegen wie dan ook.
Dat de Chinese overheid niet zuiver is daar twijfelt niemand aan maar Apple heeft een eigen iCloud voor China. Dus daar hebben wij dan in ieder geval geen last van.
Dit is gewoon hetzelfde alsdat de politie willekeurig bij jou aanbelt en jou huis doorzoekt naar illegaal materiaal.

Wat de reden ook is, je kan het niet goed praten. Dit is onacceptabel.

Dus heb je een Apple device, dan kan je deze device niet langer als prive of persoonlijk beschouwen, maar zul je moeten doen alsof het een telefoon / PC van de zaak is.
Laat ik voorop stellen dat ik tegen dit systeem ben, maar het is niet hetzelfde als het doorzoeken van je huis naar illegaal materiaal. Het gebruik van hashes zorgt er nu juist voor dat je alleen een match krijgt als er inderdaad illegaal materiaal ligt maar dat je alle andere materiaal in huis niet te zien krijgt en als er geen illegaal materiaal ligt je helemaal niets weet van de inhoud van het huis. Dat is bij een doorzoeking wel anders.
Ik vraag me af of het niet mogelijk is een volstrekt onschuldige afbeelding te maken die een gelijke fuzzy hash geeft als een KP afbeelding. Die kan je vervolgens doorgestuurd krijgen via Whatsapp die alles op je cameraroll opslaat en plots heb je het toch zitten. Ook al is het een volstrekt legale en onschuldige afbeelding. Ik blijf het toch een gevaarlijke indringing op mijn privacy vinden.

Ik weet dus niet of je zomaar kan stellen dat je illegaal materiaal hebt staan als er een match is op vlak van hash.
Daarom hanteert Apple dus een treshold. Één afbeelden met een match leidt niet tot een flag. Er moet aan allerlei criteria voldoen worden. De kans dat je onterecht door die criteria heen komt is volgend Apple 1 op 1 biljoen. Daarna vindt er nog een menselijke check plaats. De kans dat je iop andere manieren door overheid of Google, MS of Amazon in je privacy wordt aangetast is vele malen groter dan via dit systeem.
Ik ben er overigens ook tegen.
't Is misschien inderdaad de 'beste' manier om een invasie te plegen op mijn privacy...

Volgens de laatste cijfers heeft Apple 700 mil betalende abonnees. Laten we er van uit gaan dat die betalen voor meer cloudopslag om hun foto's in de cloud te zetten.
Ik ben al een tijdje een iPhone gebruiker en heb +7000 foto's staan in mijn bibliotheek. Laten we dat wat terugschalen naar 5000 foto's per gebruiker.
Dat komt neer op 3,5*10^12e foto's in iCloud, allen lokaal gescand door het algoritme.
Kans op een false positive is 1 op 1*10^12, dus klopt het dan als ik zeg dat er 3,5 betalende abonnees onterecht zullen geïdentificeerd worden als bezitters van KP?
Statistiek is lang geleden...
Nee, dan begrijp je de treshold niet. De treshold is een verzameling van criteria waar je aan moet voldoen voordat je account geflagd wordt. De kans dat al die criteria onterecht vervuld worden is 1 op 1 biljoen. Daarna gaat het balletje pas rollen. Zelfs dan wordt je niet geïdentificeerd als bezitter van KP maar wordt er eerst nog door een persoon gekeken naar de betreffende foto's en als het dan nog steeds positief uitvalt geeft Apple de autoriteiten door dat je een nader onderzoek verdient.
Die 1 op 1 biljoen lijkt nergens onderbouwd en klinkt alsof het uit de duim gezogen is. Het zou mij niet verbazen als de kans uiteindelijk veel hoger blijkt.

Overigens zou de kans gewoon 0% moeten zijn, maar goed, dit scannen is uit principe al per definitie fout. Het is aftellen totdat het systeem ingezet gaat worden om andere zaken aan te pakken (Drugs? Religie? etc.), wellicht afhankelijk van locatie.

Die criteria kunnen overigens altijd achteraf veranderd worden, idem voor de handmatige controle.

De belofte van veel grote (tech-)bedrijven is helemaal niets waard, zo blijkt uit het verleden.
Ik heb dit onderwerp nog niet in de discussie voorbij zien komen maar: er is zoiets als naturisme (soms bekend als nudisme). Dit zijn mensen die graag naakt rondlopen. Dat kan privé maar er zijn wereldwijd ook veel campings en stranden waar dit kan. Voor naturisten is hier niets seksueels aan maar het is een manier om dichter bij de natuur te komen en te ontspannen.

Als naturisten nu vakantiefotos willen maken of privé fotos en ze hebben een gezin met kinderen dan kan ik je garanderen dat er meerdere foto’s van naakte kinderen en volwassenen op staan. Of mensen deze foto’s willen delen met hun mede naturisten is wat mij betreft hun eigen zaak. Daarnaast garandeer ik je dat er vele malen meer naturisten zijn dan pedofielen. Daarnaast staat iCloud bij Apple standaard aan en bij mensen die minder technisch onderlegd zijn is het soms flink knutselen om hun eigen telefoon goed in te stellen.

Ik hou mijn hart vast voor mensen met de ongelukkige combinatie van technisch minder onderlegd en naturist/nudist als Apple automatisch privé foto’s gaat scannen.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:48]

Lees even hoe het werkt. Het systeem slaat alleen aan op foto's die als misbruikfoto geclassificeerd staan in een database van een instantie ter bescherming van kinderen. Foto's die je dus zelf maakt op een naturistencamping staan niet in die database en daar slaat het systeem dus niet op aan (in tegenstelling tot de systemen van MS en Google die dus wel per foto checken wat de inhoud is).
Het is tegenwoordig overigens not done om foto's te maken op naturistenstranden of -campings, ook al gaat het om het eigen gezin.
Bedankt voor de verhelderingen. In dat geval lijkt het hele systeem me vrij nutteloos want het is te omzeilen door pedofielen door iets te doen met de foto wat de hash veranderd. Zou een gekleurde stip ergens in de foto al voldoende zijn? Het lijkt me dat dit zelfs te automatiseren is.

Mtb je stukje over ‘not done’: ik zei niets over foto’s waar andere mensen in staan ik zei privé foto’s.
De hash verandert niet zomaar. Ook dat staat uitgelegd. Het bijsnijden van een foto, het toevoegen van pixels of het veranderen van de helderheid/contrast/verzadiging gaat de hash niet veranderen. Er wordt gebruik gemaakt van neurale hashes.
Doorgewinterde verzamelaars ga je hier niet mee pakken. Die zetten hun fotoverzameling met smerige foto's niet op een iphone of ipad.

Foto's van het eigen gezin zijn toch privéfoto's..? Los van dat campings niet meer willen dat er gefotografeerd wordt zijn de mensen zelf ook zo verstandig om de vakantiekiekjes te bewaren tot buiten de campings. Ook al zijn het privéfoto's, het risico dat ze op straat komen te liggen is gewoon aanwezig.
Zou je zeggen dat het risico ook aanwezig is dat, als ze op straat komen te liggen, er uiteindelijk een pedofiel iets mee doet. En ze daarmee ook in een database terecht kunnen komen?
In de Amerikaanse database kunnen ze prima terechtkomen. In Europa zijn we nog enigszins rationeel over wat een misbruikfoto is en wat een onschuldige familiefoto is maar in de VS is men daar een stuk puriteinser in. Naakt staat daar nagenoeg gelijk aan erotiek of porno.
Wat is het fundamentele verschil tussen een zoekertje op mijn telefoon of een zoekertje in mijn huis? Ze zoeken allebij "gericht" naar dingen die niet mogen. Zo'n mannetje die bij me thuis komt zal ook niet zomaar mijn playstation meenemen of documenten lezen die hem niets aan gaan.

Ik vind 't een rare heuvel om op te sterven om te zeggen dat het op je telefoon oké is en thuis niet. Het enige concrete verschil is dat het op je telefoon ongezien gebeurd en die figuurtje bij je thuis misschien een kop koffie zou lusten.

[Reactie gewijzigd door Polderviking op 22 juli 2024 14:48]

Een zoekertje in je huis bekijkt wat er daadwerkelijk in je huis te vinden is. Op de telefoon wordt er een hash gemaakt en alleen matchende hashes zijn terug te herleiden naar hoe het er werkelijk uitzag. Alle niet-matchende hashes blijven privé.
Nagenoeg alle andere vormen van surveillance schenden de privacy meer dan dit systeem (camera's, kentekens, internetgedrag, etc.)
Ik denk niet dat Apple's systeem zo plat is dat het alleen maar dom file hashes naast elkaar legt zoals je bijvoorbeeld zou doen bij een download die je wil controleren met de bron want dan hoef je bijna niks met je foto's te doen om ze onherkenbaar te maken voor dat systeem en dat lijkt me bijzonder ineffectief.
Foto's die niet bit voor bit hetzelfde zijn krijgen (totaal) andere hashes.

Apple "kijkt" zeker wel naar je foto's om daar kenmerken uit te extrapoleren met wat hocuspocus en daar een hash van te maken die tegen die database aangehouden wordt.

[Reactie gewijzigd door Polderviking op 22 juli 2024 14:48]

Misschien moet je dan eerst even gaan lezen hoe het systeem gaat werken...
Hier staat het in:
https://www.apple.com/chi...ion_Technical_Summary.pdf
Welk deel van hun uitleg is fundamenteel anders dan wat ik hier zeg? Ik heb dit gelezen, daar komt die kennis weg die ik hierboven gebruik.

[Reactie gewijzigd door Polderviking op 22 juli 2024 14:48]

Je zegt "Foto's die niet bit voor bit hetzelfde zijn krijgen (totaal) andere hashes."
In het document staat juist dat tot een bepaalde mate van bewerking een foto geen andere hash oplevert. Via neurale hashes wordt er op een andere manier gehashed dan de klassieke manier. Dat betekent niet dat je vanuit een hash de oorpronkelijke foto kunt reconstrueren, maar wel dat bijgesneden foto's of foto's waar de helderheid of contrast zijn aangepast dezelfde hash opleveren. Dat hashen vindt plaats op je telefoon, waar dus zich ook het algoritme bevindt. Apple hoeft dus helemaal niets te zien van je foto's,
Apple ziet pas een foto als de treshold overgschreden is en er een medewerker gaat kijken naar de foto's die gematched zijn met de database.
Die neurale hash betekend alleen maar dat ze een hash genereren op basis van visuele kenmerken van je foto en niet op basis de platte data.
Dat staat ook in dat document.

Die hashes ga je dus moeten maken van alle foto's op je telefoon, want anders ga je niks tegen die database aan kunnen houden.
Vanaf dat punt zit Apple toch al aan je foto's feitelijk of ben ik gekke henkie?
En dat vind ik best een dingetje voor data die niet op Apple's eigen hardware (iCloud) staat.

Kijk dat er niks mee doen, en ze zich verbergen achter een leger intenties en een lofwaardige vooropgezette missie is leuk maar nu is nu, morgen is morgen en uiteindelijk weet je helemaal niet waar dit naartoe gaat.

[Reactie gewijzigd door Polderviking op 22 juli 2024 14:48]

Aangezien de hash op je telefoon wordt gegenereerd en niet in de cloud en het algoritme in iOS zit kijkt Apple helemaal niet naar je foto's. Het hashen gebeurt volledig lokaal. Vanuit de hash kun je de foto niet meer reconstrueren. Dat het algoritme visuele kenmerken gebruikt betekent niet dat je a.d.h.v. de hash nog kan herleiden wat er op de foto stond.
Ook de database aan hashes van bekende misbruikfoto staat volledig op je telefoon.
Maar die hashes voor alleen kipo is toch helemaal niet interressant? Wat fundamenteel fout is, is dat Apple nu een gelikte infrastructuur uit wil rollen dat op ongelimiteerde schaal controle op onschuldige burgers op eenvoudige manier mogelijk maakt, diep in hun prive domein. Dat nu alleen een beperkte hash-set van kinderporno gebruikt wordt omdat wellicht nobel lijkt, tot daar aan toe. Maar dat gaat natuurlijk aangevuld worden met van alles en nog wat, daar kan je op wachten. Controle is er niet op (zie eerdere opmerkingen met de regelgeving voor Non-disclosure). En die belofte van apple om geen andere checks te doen is natuurlijk boterzacht.
Een deel van de klanten hebben Apple, omdat ze helemaal *geen* privacy schending willen. En Apple ("omdat ze niet aan reclame/tracking doen") zich daar ook niet mee bezig houdt. En nu dus blijkbaar wel.

Daarnaast: een huiszoeking gaat ook enkel op zoek naar matchende dingen. Alle niet-matchende items worden niet meegenomen. Er wordt wel naar gekeken, maar dat doet het algoritme ook. ;)
Dus met je koffiekopje of foto van een koffiekopje gebeurd hetzelfde.
Bij een huiszoeking wordt wel alles gezien in huis. Dat is bij deze check dus niet het geval. En bij een huiszoeking gebeurt het door een ambtenaar terwijl de check door een algoritme op jouw telefoon gebeurt, in het OS. Alleen als er strafbaar materiaal gevonden wordt, gaat er een signaal naar buiten.
Liever dat dan een huiszoeking waarbij alles overhoop wordt gehaald. Ik voel me toch echt meer in mijn privacy aangetast bij een huiszoeking dan bij een algoritme dat een check doet op mijn telefoon...
Nee dat is niet hetzelfde. De hash check vindt pas plaats als je de foto’s wilt uploaden naar iCloud. Niet als die at-rest op je telefoon staan. Foto’s op iCloud werden daarnaast, evenals bij OneDrive en GDrive, altijd al gescand op KP ivm wetgeving. OneDrive is er notoir om, want die kijken niet enkel maar bekende KP maar proberen KP te herkennen met machine learning.

Het enige dat dus feitelijk verandert met dit systeem van Apple, is dat je foto net vóór upload wordt gecontroleerd in plaats van net ná de upload naar iCloud.
Apple is ook voornemens om content op je device zelf te checken a.d.h.v. de hashes.
En wie maakt die hashes ?? kunnen we dat controleren ?
The criticism centers primarily on Apple’s plans to scan iCloud Photos to check against a database of child sexual abuse material (CSAM) for matches and the potential implications of such a feature.
Bron: https://9to5mac.com/2021/...-photo-scanning-concerns/
Wie dat gaat controleren is bij mij niet bekend.
Apple says the new tool is called “neuralMatch.” It will scan images on your cellphone before they’re uploaded to the iCloud and flag anyone known for child sexual abuse.
https://newyork.cbslocal....exually-explicit-content/

Deze afbeelding: Klik hier
https://9to5mac.com/2021/...-photo-scanning-concerns/
Uh ja, het hele onderwerp is dat Apple de foto's lokaal vóór upload naar iCloud gaat scannen in plaats van ná de upload server-side op iCloud. :+ Het punt is, dat ze dit enkel doen bij foto's die je upload naar iCloud. Niet op alle andere foto's op je device. Als je iCloud Photos helemaal niet gebruikt, wordt er dus ook helemaal niets gescand.
En wie gebruikt iCloud Photos niet? Ik heb nog nooit gehoord dat iemand het niet gebruikt.
Ik gebruik het bijvoorbeeld niet en m'n partner ook niet en denk dat je zat mensen zal vinden die het niet gebruiken. (Al is het alleen omdat ze niet willen betalen voor de opslag en dus een andere dienst gebruiken. Bijvoorbeeld omdat ze "gratis" opslag bij OneDrive krijgen bij hun Office-abonnementje, om maar iets te noemen. Waarom zou je dan nog eens voor iCloud gaan betalen?) Ik zie er geen enkel nut in noch reden toe om iCloud Photos te gebruiken. Ook voor backups niet trouwens... backups worden hier lokaal op de NAS weggeschreven (gaat volautomatisch via WiFi, complete backups van alle iPhone/iPad-toestellen in huis.) en gaan eens in de zoveel tijd in een encrypted containertje naar een server in een ander land voor het geval de boel hier afbrandt.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

En wie gebruikt iCloud Photos niet?
Hoi!
Bij aardig wat mensen staat de synchronisatie van foto's van de telefoon naar iCloud standaard aan, daarbij worden alle afbeeldingen die ik binnenkrijg standaard meteen naar de cloud gepusht. Fijn voor back-up en fotosync tussen werk- en privételefoon, maar mocht er dus een idioot zijn in een van mijn WhatsApp/Telegram/Signal groepen die dan een verkeerde (naakt)foto zou doorsturen ben je dus mogelijk de sjaak. Gezien het bij Google en Microsoft bijna onmogelijk is om gegevens terug te krijgen of een block op een account terug te draaien lijkt me dit geen fijne ontwikkeling

Daarnaast begreep ik juist dat Apple het offline wilde scannen waarbij alleen de foute foto doorgestuurd werd om zo juist de inbreuk te beperken.

Bron voor het laatste:
Apple says the new tool is called “neuralMatch.” It will scan images on your cellphone before they’re uploaded to the iCloud and flag anyone known for child sexual abuse.
https://newyork.cbslocal....exually-explicit-content/

Deze afbeelding: Klik hier
https://9to5mac.com/2021/...-photo-scanning-concerns/

[Reactie gewijzigd door jdh009 op 22 juli 2024 14:48]

Als iemand jou via WhatsApp/Telegram/Signal kinderporno toestuurt en je telefoon uploadt dit direct naar de cloud, dan kan dat inderdaad een probleem opleveren. Dit geldt overigens voor alle clouddiensten, niet enkel iCloud. Ik hoop dat je niet in groepen met idioten zitten die per ongeluk hardcore kinderporno bezitten en dat ook nog eens naar je doorsturen trouwens, maar dat even terzijde. :P Als iemand mij dat zou flikken, zou die persoon me nooit meer zien en zou ik er aangifte van doen. Afijn. Let op dat dit dus in Apple's geval om foto's gaan die in de geverifieerde kinderporno database van MissingKids (CSAM) staan, niet om Machine Learning/AI-detectie zoals bij bijvoorbeeld OneDrive.
Daarnaast begreep ik juist dat Apple het offline wilde scannen waarbij alleen de foute foto doorgestuurd werd om zo juist de inbreuk te beperken.
Dat is correct. Wat Apple en alle andere cloudboeren nu doen is scannen direct ná upload. Wat Apple wil doen is de scan uitvoeren vlak vóór upload naar iCloud. Daarnaast moeten er meerdere matches zijn alvorens je geflagd wordt en vervolgens ALS je dan geflagd bent, wordt er door een medewerker naar gekeken of het geen false-positive is. Foto's die je NIET gaat uploaden naar iCloud worden ook niet gescand en vergeleken.
Gelukkig zit ik niet in zulke groepen, er wordt zo nu en dan in die groepen naakte vrouwen doorgestuurd. Hardcore (maar ook softcore) kinderporno ben ik gelukkig, zover ik me kan herinneren, in mijn leven nog nooit tegen gekomen. Al hoor je wel zo af en toe dat er op sites zoals Dumpert/4Chan/9GAG/Reddit post verwijderd worden omdat de dame in kwestie toch jonger blijkt te zijn. Terugkomende op het grapje, dan zou de door jou beschreven reactie ook mijn reactie zijn. Ik denk dat de hele duidelijke gevallen ook niet voor problemen gaan zorgen maar meer de foto's van vrouwen die rond de 18 jaar zijn. Het lijkt me ook een voordeel dat ze gebruik maken van hashes ipv image recognition die ik dacht Microsoft gebruikt. Ik kan me nog een bericht herinneren onder een nieuwsbericht hier waarbij een gebruiker zei dat ie verbannen was door oude blootfoto's uit zijn eigen jeugd en/of eigen kinderen.

[Reactie gewijzigd door jdh009 op 22 juli 2024 14:48]

Klopt inderdaad. Het Machine Learning/AI-gebeuren dat bij o.a. Microsoft OneDrive van toepassing is, levert veelvuldig gezeik op. Foto's van je kinderen in bad of naakt spelend in het zwembadje in je achtertuin? Dat kan zomaar een match opleveren en tot account blokkade lijden. Dat is bij deze techniek niet het geval. Zogenaamde "jailbait" blijft inderdaad mogelijk wel een risico... Meiden en jongens die er uitzien als 21 maar eigenlijk net 16 zijn, zouden in principe kunnen kwalificeren als kinderporno afhankelijk van het type foto/video waar we het over hebben. (In de VS dan, in Nederland ben je vanaf je 16e "legal".) Als ik de criteria van de CSAM-database zo lees, moet er wel sprake zijn van iets seksueels of misbruik; een selfie naaktfoto bijvoorbeeld of foto's van je kinderen op het strand/in bad/whatever zonder expliciete seksuele handelingen zou nog niet per definitie kinderporno zijn voor de database. Het is natuurlijk wel een verhaal van "waar trek je de lijn en wie trekt die", maar er worden wel een aantal criteria benoemd om te kunnen kwalificeren tot opname in de database; en dan moet er wel wat meer aan de hand zijn dan een onschuldige familiefoto van je pasgeboren baby in een zwembadje zullen we maar zeggen.
Het feit dat je als klant iets wil uploaden maakt de controle door Apple op je apparaat, laat staan het gebrek aan controle en op tijd kunnen ingrijpen door de klant als eigenaar, niet zomaar redelijk.

Je kan prima overeenkomen dat controle gewenst, of nodig, is. Maar de voorwaarden waaronder dat gebeurt wenst Apple niet met de klant te onderhandelen. Daarbij gaat Apple op geen enkele redelijke wijze in welke andere mogelijkheden er voor deze controle zijn die minder ver gaan voor de klanten, maar net zo effectief of zelfs effectiever zijn. In plaats daarvan kiest Apple er voor om enkel te beweren dat je ze maar moet vertrouwen op je apparaat en met hun keuzes voor de gevolgen. Vertrouwen hoort al van twee kanten te komen, wat er hier duidelijk vanuit Apple niet is. En met de informatie en controle die Apple aan klanten geeft omgekeerd bij klanten ook niet verwacht hoeft te worden. Wat je noemt is dus niet het enige wat wijzigt.

[Reactie gewijzigd door kodak op 22 juli 2024 14:48]

Wat je noemt is dus niet het enige wat wijzigt.
Wat wijzigt er nog meer dan? :) Want wat je daar nu aanhaalt: dat was toch al zo? Als je gebruik wilde maken van iCloud, dan ging je ermee akkoord dat je foto's gescand werden. Dat was al zo, dat is nu nog zo, en daar heb je als klant geen enkele inspraak in behalve dat je ervoor kan kiezen om iCloud simpelweg niet te gebruiken. Hetzelfde verhaal gaat op bij Google Drive, Microsoft OneDrive, DropBox, et cetera. Sommigen uit dat rijtje gaan zelfs nog veel verder dan enkel perceptual hash comparisons; zoals pogingen om ook nieuw materiaal te ontdekken via Machine Learning.

De situatie is bij Apple totaal niet gewijzigd wat dat betreft: je iCloud Photos werden al gescand, zonder dat je daar iets tegenin kon brengen. Dat blijft nu zo, het enige verschil is dat ipv controle vlak ná upload de controle nu vlak vóór upload plaatsvindt. In beide gevallen blijven foto's die je *niet* gaat uploaden naar iCloud buiten schot. Precies zoals het nu dus ook werkt.

Derhalve ben ik oprecht benieuwd: wat verandert er wezenlijk dan nog meer? :) De situatie is precies hetzelfde, behalve dat de controle net voor ipv net na upload plaatsvindt. De aanleiding blijft ook hetzelfde: de upload naar iCloud. In alle andere gevallen, dus als je niet naar iCloud uploadt of zelfs heel iCloud niet gebruikt, wordt er geen moer gescand + hash-comparison.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Het belangrijkste is de nuance.
In theorie iets kunnen is niet hetzelfde als in de praktijk iets doen.
Nu al iets controleren maakt een andere controle niet zomaar hetzelfde.
Ergens een controle uitvoeren maakt niet zomaar dat de locatie niets uit maakt.
Nu al iets kunnen zonder inbreng wil niet zeggen dat het volgende dus maar wel acceptabel is.
Dat een andere ook controle doet (of kan doen) wil niet zeggen dat deze controle acceptabel is.
Waar zijn in jou stellingen de nuances? Want waar je die wel noemt ga je niet in op wat die nuance voor betekenis heeft maar kijk je alleen naar een aanleiding. Een aanleiding is slechts een deel van de omstandigheden.
Ik heb op verschillende plekken in de comments nuances aangebracht; maar op welk punt zou ik volgens jou moeten nuanceren binnen ons gesprek? :) Wil er best opnieuw naar kijken hoor, misschien zie ik iets over het hoofd of kijk ik er inderdaad te kort door de bocht naar... Heb zelf het gevoel dat ik er best uitgebreid over nagedacht heb vanuit verschillende standpunten en overwegingen; maar wie weet kan je me op andere gedachten brengen. :) Bottom-line is dat ik op dit moment zelf vind, dus mijn persoonlijke mening, dat er wezenlijk niets verandert. De keuze is hetzelfde, het effect is hetzelfde en het eindresultaat is exact hetzelfde. Linksom of rechtsom is het eindresultaat te allen tijde hetzelfde: je foto's worden gescand bij upload naar de cloud. Dat de methode net iets anders is op één punt vind ik niet boeiend genoeg om het opeens als iets heel anders te zien. (En ik vond het al fout, dit is dus niet opeens "fouter" in mijn optiek; omdat het eindresultaat niet wijzigt.) En in beide gevallen ben ik er principieel op tegen. (Dat wil niet zeggen dat, vanwege de wettelijke verplichtingen en politiek geleazer, ik niet snap dat het nu eenmaal moet gebeuren; daarom wil ik er graag het beste van maken onder de huidige sub-ideale omstandigheden.)

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Je kan er ook voor kiezen de foto’s. Niet naar iCloud te syncen.
Dat maakt nog niet dat de toegang die Apple hier voor zichzelf mogelijk maakt dus verdwenen is of alleen maar gebruikt kan of zal worden voor wat Apple nu stelt.
Als Apple werkelijk zo bezorgd is om de privacy en beveiliging van haar klanten dan is het enige redelijke dit soort controles op apparaten van de klant niet eens maken, tenzij de klant voldoende controle en zeggenschap over de werking heeft.
Verwachten dat iemand die ergens geen last van wil hebben iets doet wat effectief niet aantoonbaar helpt is niet redelijk. Zeker niet als dat iets is wat op het eigen apparaat gebeurt.

Apple wil iets niet op hun cloud en voor hun klanten, dan is het meest redelijke dat ze die controle ergens op hun eigen systemen of in een neutraal gebied doen waar zowel klanten als Apple zich in kunnen vinden. Niet dat klanten zich op hun eigen apparatuur maar naar de wil van Apple schikken omdat die meent iets te willen en kunnen.
Nee, dit is hetzelfde als jij een politiebureau binnen loopt en met je tas door de scanner gaat.
Dus gewoon acceptabel.
Je geeft geen enkele onderbouwing voor je generaliserende mening en toont ook op geen enkele wijze aan wat je daarbij redelijk afweegt.
De reactie van Apple komt er nu na forse kritiek vanuit niet de minste personen. Dat die mensen kritiek hebben wil niet zeggen dat ze geen fan van Apple zijn. Men is het om onderbouwde redenen nu niet met Apple eens.
Toch zal Apple er geen telefoon minder om verkopen. Misschien nog wel meer door al deze aandacht.
En ook dat onderbouw je weer niet. Terwijl er voldoende redenen zijn om dat wel te doen als er ondertussen onder andere in de EU-landen wetgeving is die stelt dat je als bedrijf zelf controle moet hebben over de verwerking van persoonsgegevens zoals op foto's. Terwijl Apple op geen enkele wijze toont dat een koper van een apparaat hier controle heeft over wat Appel scant en wat er met de resultaten gebeurt.
Laat ik vooropstellen dat uiteraard terugdringen van kindermisbruik een goede zaak is.

Echter er zitten meer juridische implicaties bij de gebruikte methode. In het strafrechtsysteem van een democratische rechtstaat is nu juist het uitgangspunt dat iemand onschuldig is tot het tegendeel wordt bewezen. De iphone, macbook en dergelijke apparaten zijn privé eigendom van de gebruiker en zijn bij uitstek apparaten gezien de foto's privé aantekeningen en contacten welke privacy gevoelig zijn. Alleen bij ernstige aanwijzingen en bezwaren zal pas een bevel tot doorzoeking van zo een apparaat worden gegeven, daarin verschilt volgens mij de vs niet van Nederland.

Echter, nu een privaatrechtelijk bedrijf, bij voorbaat jouw apparaten "scant" op verdacht materiaal ben je dus wel degelijk "verdacht bij voorbaat". De strafrechtelijke waarborgen zijn daarbij niet van toepassing. Met andere woorden het strafrechtsysteem met haar waarborgen wordt omzeilt. Daarbij blijft het niet alleen beperkt tot foto scans maar is men ook voornemens de gepromote privacy van imessage-berichten te gaan "scannen".

Ondanks de aankondiging dit vooralsnog eerst alleen in de VS toe te passen lijkt het niet heel lang te duren voordat ook in Europa dit zal gaan plaatsvinden. Zie https://www.europarl.euro...nderpornografie-aanpakken.

Hoe goed de bedoeling of intenties ook zijn, het resultaat zal zijn dat juist degenen die zich met verboden praktijken bezighouden zoals kindermisbruik andere methoden zullen verzinnen. Daarvoor wordt wel in potentie de privacy van bijna iedereen beperkt. Dit lijkt wel een glijdende schaal waarbij onder het mom van de bestrijding van "kindermisbruik" en "terrorisme" meer vrijheden worden ingeperkt.

Daarnaast, zoals ook door anderen al gesuggereerd, nu eenmaal door Apple een dergelijk "backdoor" systeem wordt geïntroduceerd is het voor Apple ook een stuk lastiger vol te houden aan landen welke de mensenrechten niet serieus nemen zoals China, Verenigde Arabische Emiraten etc. dat men simpelweg geen toegang kan verschaffen. Omdat de hashes in het besturringssysteem worden gebouwd lijkt het mij ook lastig te zien of toevallig ook andere "hashes" op verzoek van minder betrouwbare overheden zullen worden toegevoegd welke zich niet alleen beperken tot bekende foto's van kindermisbruik.

Nog een opvallend feit, Apple lijkt dit een fantastische nieuwe feature te vinden. Echter in plaats van dit groots aan te kondige tijdens hun wdc en de aankondiging van ios 15 nieuwe Macos etc. van dit jaar niets daarover, slechts in de zomer periode een bericht. Daarbij lijken ze zelf ook wel te begrijpen dat de tijd dat men kon claimen zelfs weerstand te bieden aan de FBI als geclaimd "privacy kampioen" al weer ver achter hen ligt.
Echter, nu een privaatrechtelijk bedrijf, bij voorbaat jouw apparaten "scant" op verdacht materiaal ben je dus wel degelijk "verdacht bij voorbaat". De strafrechtelijke waarborgen zijn daarbij niet van toepassing. Met andere woorden het strafrechtsysteem met haar waarborgen wordt omzeilt. Daarbij blijft het niet alleen beperkt tot foto scans maar is men ook voornemens de gepromote privacy van imessage-berichten te gaan "scannen".
Noot: al deze privaatrechtelijke bedrijven moesten alle foto's die je uploadde naar hun clouddiensten al scannen op verdacht materiaal. Dat zijn ze wettelijk verplicht in de VS. Het enige dat hier verandert, is dat Apple de scan vlak vóór upload naar iCloud uitvoert ipv vlak ná de upload naar iCloud. In alle gevallen ook enkel op de data die naar iCloud gestuurd wordt. Je apparaat wordt dus niet "bij voorbaat" gescand, maar pas als je probeert te uploaden naar iCloud Photos.

Naar mijn mening verandert er eigenlijk vrij weinig... Al je foto's werden al gescand als je iCloud Photos, Google Photos, Microsoft OneDrive of wat dan ook gebruikte. Het enige verschil hier is dat Apple, mogelijk vanwege een toekomstige introductie van E2EE-iCloud, de scan nu uitvoert op het punt van upload ipv het punt van download. Maar er wordt hoe dan ook gescand en er werd altijd al gescand, ivm de wettelijke verplichtingen.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 14:48]

Dat is nu juist ook het gevaar, niet zozeer dat er op clouddiensten wordt gescanned maar nu daadwerkelijk op je eigen apparaat. Indien jij gebruik maakt van storage extern van derden heb je als het ware ook afstand gedaan van je privacy rondom het materiaal dat je upload want je geeft als het ware ook een derde toegang tot die data. Je kan daarin zelf de keuze maken het wel of niet te willen.

Het gebruik op je eigen apparaat is nu juist het omzeilen van strafrechtelijke aarborgen welke normaal gesproken van toepassing zijn. De scan vindt dus plaats op je eigen apparaat, dit betekent dat ook zonder dat jij of anderen het weten ook vrij gemakkelijk andere hashes of zaken kunnen worden gescanned zonder dat je dit als gebruiker ooit zal weten. Daarbij heb je dus simpelweg geen keuze, het apparaat is als het ware niet helemaal meer van jou maar Apple lift mee en kijkt mee.

Daarbij, ook accugebruik en processorkracht vindt niet plaats op de iclouddiensten zelf zoals nu het geval is maar gaat ten koste van je eigen batterij en energie je betaald als het ware ook dus nog hiervoor. Dit zal voor een dag wel meevallen maar tel het bij een jaargebruik eens op. Ik ben wel benieuwd hoeveel provessorkracht/energie dit ook nog eens gaat kosten.

Ik zou het dus ook omkeren, juist door de cloud te scannen zou ik niet zoveel bezwaren zien. De Icloud is immers nu ook zonder encryptie en het lijkt me prima als zaken die je toch al aan een derde wilt blootgeven ook worden gescanned (in een ideale wereld niet) maar mij gaat het om de keuze, wil je geen scan of geen inbreuk op je privacy gebruik je geen icloud of clouddiensten. Nu is de keuze in de toekomst voor een Apple apparaat ook direct een keuze op Big Apple is watching always.
Indien jij gebruik maakt van storage extern van derden heb je als het ware ook afstand gedaan van je privacy rondom het materiaal dat je upload want je geeft als het ware ook een derde toegang tot die data. Je kan daarin zelf de keuze maken het wel of niet te willen.
Dat is nu nogsteeds zo, je kan nog steeds kiezen om het wel of niet naar de cloud te uploaden. Wil je het uploaden naar cloud? Dan wordt het gescand. Wil je het niet uploaden? Dan wordt het niet gescand. Dat was de situatie nu en dat blijft de situatie ook met deze nieuwe functie. Die keuze maak je zelf. Uitsluitend als je gaat uploaden naar iCloud, worden de items die je uploadt gescand en wordt een perceptual hash-comparison uitgevoerd. In mijn optiek: die toestemming om te scannen heb je al gegeven. Of het nu vlak voor of vlak na upload gebeurt maakt geen wezenlijk verschil qua impact; linksom of rechtsom wordt het hoe dan ook gescand.
De scan vindt dus plaats op je eigen apparaat, dit betekent dat ook zonder dat jij of anderen het weten ook vrij gemakkelijk andere hashes of zaken kunnen worden gescanned zonder dat je dit als gebruiker ooit zal weten. Daarbij heb je dus simpelweg geen keuze, het apparaat is als het ware niet helemaal meer van jou maar Apple lift mee en kijkt mee.
Vooropgesteld: dat kon sowieso al natuurlijk. Elke smartphoneboer kan onder de motorkap er zoiets in proppen zonder iets te zeggen and most of us would be none the wiser... Hier wordt er tenminste nog transparant verteld wat ze gaan doen, waarom ze het doen, hoe ze het doen en wat de caveats zijn. Dit komt neer op de eeuwenoude problematiek: wie vertrouw je, hoeveel vertrouw je ze. Dat is een afweging die ieder voor zich moet maken natuurlijk.
Dit zal voor een dag wel meevallen maar tel het bij een jaargebruik eens op. Ik ben wel benieuwd hoeveel provessorkracht/energie dit ook nog eens gaat kosten.
Verwaarloosbaar.
Ik zou het dus ook omkeren, juist door de cloud te scannen zou ik niet zoveel bezwaren zien. De Icloud is immers nu ook zonder encryptie en het lijkt me prima als zaken die je toch al aan een derde wilt blootgeven ook worden gescanned (in een ideale wereld niet) maar mij gaat het om de keuze, wil je geen scan of geen inbreuk op je privacy gebruik je geen icloud of clouddiensten. Nu is de keuze in de toekomst voor een Apple apparaat ook direct een keuze op Big Apple is watching always.
Die keuze blijft dus hetzelfde. Als je geen iCloud Photos gebruikt, wordt er helemaal niets van je gescand. Gebruik je het wel? Dan wordt het evenals nu gescand. Enkel het moment verplaatst van net na upload naar net voor upload. De keuze is eigenlijk dus hetzelfde en blijft enkel de keuze tussen wel of niet uploaden naar iCloud; en net als nu is dat automatisch ook de keuze tussen de foto's wel of niet scannen. Precies hetzelfde als nu dus qua keuzes en impact, alleen de plek van de scan is anders... Ik zie er oprecht geen wezenlijk verschil in; of het nou net voor of net na upload gescand wordt: "tomato, tomato.". Het wordt hoe dan ook gescand, daar kom je niet onderuit bij het gebruik van deze clouddiensten. Dus je keuzes en de impact blijven identiek, ongeacht de method een plek van de scan.

Dat wil trouwens niet zeggen dat ik het ermee eens ben he. Begrijp me niet verkeerd. Ik vind die verplichting dat cloudproviders alle afbeeldingen moeten scannen omdat er misschien weleens KP tussen zou kunnen staan belachelijk; en dat Apple moet vrezen om E2EE-iCloud te introduceren zonder eerst de "but think of the children!"-spullen te adresseren voordat er wetgeving komt die al dit soort beveiliging verbiedt is bizar. Maar dat neemt niet weg dat ik geen wezenlijk verschil zie in de shift van plek van scannen en de impact die dat zou hebben... Ik vind, als er dan dus toch helaas gescand wordt, het niet opeens een extra groot probleem omdat dit net vóór upload gebeurt in plaats van net ná upload - dat maakt wat mij betreft nul verschil op het eindresultaat; want gescand wordt het toch. Maar ik respecteert het uiteraard als jij daar anders over denkt... Ik kan de redenatie alleen niet zo goed volgen met het eindresultaat (dat altijd hetzelfde is) in het achterhoofd. :)
Beloven is gemakkelijk. Morgen kan er weer van gedachte veranderd worden.
Zelfs al legen ze het vast op papier / digitaal dan kan het morgen weer anders zijn. Ze maken hun eigen regels en veranderen deze ook steeds dus een zekerheid van NUL.
En het enige is, als je het er niet mee eens bent dan mag je stoppen met het gebruiken van hun hardware / software, maar dan is het kwaad alweer geschied.
Als overheden andere dingen willen opsporen, zal Apple dat weigeren.
Ik ben daar heel benieuwd wat er echt zal gebeuren als deze betreffende situatie voor gaat doen.
Ik denk met de juiste druk of manipulatie vanuit een overheid, waarschijnlijk Apple toch op de knieën moet. Je moeten toch immers de geldende wetgeving volgen en anders maakt de overheid die wel.
Oh nee dan is het goed :') Als er afgelopen jaren één ding is gebleken omtrent dit soort instrumenten met een groot risico voor onze privacy, is dat function creep steevast onvermijdelijk is. Oke, twee dingen dan: de beloftes van bedrijven over dit aspect zijn waardeloos.
Sorry hoor, maar dit is natuurlijk het begin van het einde.
In 2021 beloven ze het alleen bij kinderporno te doen......
2022 bij terroristische activiteit.....
2023 bij ongeoorloofd wapenbezit…
->
2050 bij het rijden in een diesel auto.

Dit soort beloftes zijn zo leeg , zeker van een commercieel bedrijf.
En volgend jaar kan je die belofte samen met de oplader in de doos van je nieuwe iphone vinden.
Snowden reageert hier terecht met zorgen op, zie ook deze retweet - wie controleert de aanvoerder van die lijsten?

En daar ga je al. Vrijheid, privacy gaat met zo'n verdrag langzaam maar zeker aan banden.

Op dit item kan niet meer gereageerd worden.