Apple stelt kindermisbruikdetectie iOS 15 uit

Apple stelt de invoering van de technieken om kindermisbruik te detecteren bij afbeeldingen van iOS-gebruikers uit tot een nog te bepalen datum. Het bedrijf meldt dit te doen op basis van feedback van onder andere gebruikers en onderzoekers.

Apple gaat in de komende maanden meer input verzamelen voor zijn plannen om kindermisbruik te detecteren met behulp van iOS en ook wil het bedrijf verdere verbeteringen doorvoeren voor de release. Apple spreekt in de korte mededeling gericht aan Amerikaanse media zoals Apple Insider wel van 'kritisch belangrijke kinderbeschermingsfuncties'.

Het bedrijf uit Cupertino stelt besloten te hebben om meer tijd te nemen op basis van de feedback van gebruikers, belangenorganisaties, onderzoekers en anderen. Een nieuwe streefdatum voor de invoering geeft het bedrijf niet. Apple wilde de functie aanvankelijk nog dit jaar doorvoeren.

Vorige maand maakte Apple zijn plannen bekend om functionaliteit toe te voegen aan iOS en iPadOS om foto's die Amerikaanse gebruikers op iCloud zetten te controleren op kindermisbruik. Dat zou met een mechanisme gaan gebeuren dat de privacy van onschuldige klanten zou beschermen en een heel laag risico op false positives zou geven.

De plannen kregen hevige kritiek van onder andere beveiligingsonderzoekers, privacyactivisten en juridische deskundigen, die wezen op de risico's op lange termijn wat privacy en beveiliging betreft. Afgelopen week hield burgerrechtenbeweging Electronic Frontier Foundation een petitie met de oproep aan Apple om de plannen niet door te zetten. Die werd door 25.000 mensen ondertekend.

Apple Private Set Intersection
De basis van Apple Private Set Intersection, de techniek die het bedrijf wil gebruiken om afbeeldingen te scannen

Door Olaf van Miltenburg

Nieuwscoördinator

03-09-2021 • 16:23

227

Submitter: ChrisM

Reacties (227)

227
221
99
32
3
98
Wijzig sortering
Edward Snowden is een held dat hij vroeger de misstanden openbaar heeft gemaakt, door alles te publiceren.

Ik heb zonet die blog gelezen (jouw link https://edwardsnowden.substack.com/p/all-seeing-i .

Snowden schrijft aan het eind:

"We are bearing witness to the construction of an all-seeing-i—an Eye of Improvidence—under whose aegis every iPhone will search itself for whatever Apple wants, or for whatever Apple is directed to want. They are inventing a world in which every product you purchase owes its highest loyalty to someone other than its owner.

To put it bluntly, this is not an innovation but a tragedy, a disaster-in-the-making."

Vertaling van de laatste zinnen: ze creëren een wereld waarin elk product dat je koopt, niet trouw is aan zijn eigenaar maar aan iemand anders. Om het ronduit te zeggen: dit is geen innovatie maar een tragedie, een ramp in wording.

Het is zooo waar.
Ik denk dat niemand precies weet hoe erg de kindermisbruik schandalen zijn en op welke schaal, je kan ze toch niet vrij spel blijven geven. Er moet actie genomen worden en het is goed dat ze erover nadenken. Hopelijk vinden ze een middenweg op de manier hoe ze het gaan doen en volgt de rest Apple hierin
Je hebt geen idee hoe ernstig het is wanneer je bijvoorbeeld homo bent in een land waar de doodstraf op staat op homofilie.
Deze technologie opent de deur naar het controleren van de persoonlijke devices van individuen. Het enige dat we hebben om te bewijzing dat deze technologie niet ter beschikking komt van de overheden zijn de blauwe ogen van Tim Cook.
Langzaam, stap voor stap, geven we onze autonomie weg aan bedrijven waar we volstrekt onvoldoende grip op hebben.

Deze wereld gaat de verkeerde kant op. Het is krankzinnig om er zelfs maar over te willen dénken dat je dergelijke controles gaat overdragen aan zeer machtige, puur commerciële bedrijven die hun eigen agenda hebben, gestuurd door keiharde aandeelhouders.

Ik erken deze bedrijven niet. Ik sta ook niet toe dat Volkswagen gaat controleren of ik niet af en toe te hard rij. Ik sta de camerafabrikant niet toe om te controleren of ik mijn echtgenoot niet sla. Zij hebben er geen fuck mee te maken.

Ik erken alleen de instanties die wij zelf, in Nederland, hebben opgetuigd om onszelf te controleren. Dat is een uitermate gezond uitgangspunt. Die macht hebben wij overgedragen aan justitie, OM en politie. Dat is langs democratische weg gebeurd en het is een "tijdelijke, uitgeleende macht". Die macht kan ook weer worden gewijzigd of worden afgenomen. Dit is een uitstekend systeem dat je niet moet weggeven. Het geheel wordt beheerd door onafhankelijke personen en instanties. Uitsluitend de burgers van een staat horen eigenaar te zijn van dat systeem, dáár hoort die macht te liggen, er zijn uitstekende redenen waarom, en die macht hoort never NOOIT bij iets of iemand anders te liggen. NU AL, in deze 200 posts, gaat de discussie erover hoe je het in de hand gaat houden. Er zijn dus NU AL zorgen. Ik praat er dus ook niet over of Apple wel of niet geschikt zou zijn, want het punt is nou juist dat die vraag helemaal niet van belang is -- het moet gewoon totaal niet gebeuren.

Deze plannen zijn puur gif. Je moet er niet eens over WILLEN nadenken.

Ik maak me grote zorgen om deze wereld. Ook dit vreselijke plan en het feit dat er grote groepen over willen nadenken, is deel van de huidige data/privacycrisis. Die gaat net zo ernstig worden als de klimaatcrisis.

Lees eens wat goede boeken over staatsrecht, filosofie, over de macht van bedrijven die in de meeste gevallen veel weg hebben van psychopaten. Jawel: veel bedrijven vertonen psychopatisch gedrag.

EDIT: 3 zinnen verbeterd.

[Reactie gewijzigd door Farmeur op 25 juli 2024 21:02]

De macht van bedrijven of hun aandeelhouders zit hem echt niet in het opsporen van kinderporno of andere zaken. Uiteindelijk wil elk bedrijf zoveel mogelijk winst maken. Apple gaat dan ook niet zelf de gebruiker achtervolgen. Net zo min als dat Microsoft gebruikers achtervolgt, wegens vermeende kinderpornografie. MS zet nogal lui gewoon het account op slot en laat het daarbij.

Het probleem zit hem er in dat bedrijven als Apple kennis van gebruikers vergaren, die voor regeringen interessant kan zijn. En als die zelfde regering jouw product kan maken of breken, dan neigt Apple er naar ter wille van de verkopen (en daarmee de aandeelhouders) mee te gaan in de wens van regeringen om hun burgers vergaand te controleren.

Het bedrijf zelf is niet het probleem. Maar machtige bedrijven die dubieuze deals sluiten met dubieuze regimes, dat is wel een probleem.
Aan Pegasus

Dank voor je bericht. Je conclusie is "Het bedrijf zelf is niet het probleem. Maar machtige bedrijven die dubieuze deals sluiten met dubieuze regimes, dat is wel een probleem. "

Ik heb het kernprobleem genoemd. Het bedrijf is absoluut het probleem. Dat blijft voor mij staan. Bedrijven horen deze bevoegdheid niet te hebben. Ik heb geprobeerd de redenen aan te geven, maar het is moeilijk om dat in enkele alinea's te doen. Daar zijn boeken over geschreven. Er is lang over gesproken in regeringen en volksvertegenwoordigingen, die tot stand zijn gekomen door op partijen te stemmen langs een zeer zorgvuldige weg -- zoals door te stemmen enzovoort. Apple doet totaal niets wat daar op lijkt. Helemaal niets.

Wat jij noemt, is een éxtra probleem dat erbovenop komt. Het komt er dus bij, en het is aansluitend. Ik ben het dus oneens met je opvatting dat het kernprobleem niet bestaat. Ik blijf erbij dat bedrijven deze bevoegdheid niet horen te hebben. Jij noemt iets extra's.

Ik geef wel eens een voorbeeld buiten de ICT-wereld, want dan wordt het duidelijker. Stel dat de privé-firma Securitas tienduizenden autootjes door Nederland laat rondrijden die met snelheidsmeters controleren of automobilisten te snel rijden. Ze controleren ONAFGEBROKEN elke individuele automobilist (dat is de controle die elke seconde op je telefoon plaatsvindt). Rijdt er iemand te snel, dan zetten die autootjes de bewuste automobilist aan de kant, ze pakken de sleutels af (methode Microsoft die het account opheft), ze nemen de auto mee en ze bellen de politie dat ze iemand hebben.

De wereld zou te klein zijn. Maar het is bijna hetzelfde. De enige reden dat "we" dit pikken op die telefoons, is dat het stiekem en verborgen gebeurt, op een manier die gewone gebruikers niet begrijpen, en bovendien moet je noodgedwongen accoord gaan, want anders kun je je telefoon naar de winkel terugbrengen. Je staat als individu, als gebruiker van je telefoon, in je eentje tegenover Apple. Apple zorgt er zorgvuldig voor dat jij uitsluitend met een automaat te maken hebt, waar je alleen "accoord met de voorwaarden" tegen kunt zeggen, en verder kun je bijna niets. Je hebt daarover geen contact met anderen in je stad of je land. Je hebt bij Apple geen "recht op vereniging". Apple kent dat niet want het is geen democratische staatsvorm. Er is geen partij die jou op dat moment vertegenwoordigt. Er valt niets te stemmen in een stembureau. Apple is geen democratie.

En dáárom komt Apple ermee weg. Met dat plan dat langs totaal ondemocratische weg de wereld wordt ingeschopt en wat daar totaal niet thuishoort. Apple gedraagt zich als staat, maar dan zonder enige democratische route. Het mág dus geen realiteit worden wat ze daar bedenken.

Ik hoop, verlang en zal er werk van maken tegenover de juiste mensen, dat dit krankzinnige plan door actiegroepen en bijvoorbeeld Europese gerechtshoven wordt geblokkeerd. Het is een weg naar het afbreken van belangrijke democratische rechtsregels. Het is gif.
Aan Pegasus

Je zegt: "MS zet nogal lui gewoon het account op slot en laat het daarbij".

Ik hoop niet dat je dit een "kleinigheid" noemt. Dat is erger dan opsporen, dat is eigenrichting. Het is een goed voorbeeld waarom dergelijke commerciële bedrijven een dergelijke bevoegdheid niet horen te hebben.

Ik heb ergens aangegeven waarom je veel grote bedrijven gerust psychopatisch mag noemen. Een psychopaat heeft geen empathie, doet alles voor zichzelf.

Je moet dit ook niet proberen op te lossen, door te vragen "beste MS als jullie mijn account blokkeren, dan wil ik beter met jullie kunnen mailen". Want langs die weg zal het nooit in orde komen, omdat je maar enkele verbeteringen krijgt en de rest blijft even slecht en verwerpelijk. Het gaat om het principe, en dat is: dat hele systeem is anti-democratisch en is gif. Je moet er niet eens over willen denken.
Het eventuele nieuwe minderheidskabinet van Rutte kan zich natuurlijk heel makkelijk achter een door bedrijven geleide autocratie verbergen om allerlei agenda's door te voeren.
Dat is wel een risico, maar dat kunnen ze niet "heel makkelijk" zoals je zegt, want zoiets komt snel uit en wordt dan aangepakt.

Dit risico is bovendien geen argument om het dan maar goed te vinden wat er gebeurt. Integendeel, want wat je nu zegt is het begin van een lange discussie over de werking van een normale democratie, en als je die discussie afmaakt, dan is de uitkomst ver in het voordeel van die democratie. Wat Apple doet is gif.
Je hebt geen idee hoe ernstig het is wanneer je bijvoorbeeld homo bent in een land waar de doodstraf op staat op homofilie.
En homofilie is bovendien strafbaar in 71 van de 195 landen in de wereld. Best idioot dat er zo veel landen zo ageren op mensen die van elkaar houden en helemaal niemand lastig vallen.

De mensheid heeft nog een lange weg te gaan...

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Niet homofilie is verboden, maar homoseksualiteit.

Want dat je homofiel bent kun je niks aan doen, net als dat je er niets aan kunt doen dat je pedofiel bent.

*fiel = je hebt de gevoelens
*seksueel = je handelt naar die gevoelens

Bron
Toch zou ik dat ook niet zeggen in Iran of Afghanistan.
kan je vertellen dat ik als transgender helemaal dit soort landen vermijd.
Zelf het onheilopzoeken doe ik absoluut niet.
Alhoewel, Duitsland is met dit soort thema´s ook niet veel beter.
Kan je vertellen dat ik als MtF transgender hier het niet echt makkelijk heb. is in Nederland gelukkig anders
Ja. Deze landen zijn zo gevorderd in hun beschaving dat ze het verschil weten tussen filie en seksualiteit.
Alleen maken bepaalde landen hier dus geen onderscheid in, en heb je gewoon een probleem als je er openlijk voor uitkomt.
Maar het systeem werkt niet zo dat een staat de opdracht kan geven: “zoek kussende mannen”. Hooguit kan een dubieuze staat de opdracht geven: “zoek deze foto die we op social media hebben gevonden”.
Laten we een fictief land nemen, met zo'n 1,5 miljard mogelijke consumenten. Dat land zegt, tegen Apple jij gaat deze database gebruiken en meld mij de matchen. Zo niet, dan mag je hier geen Apple producten verkopen.

Wat zal Apple doen?
Ik verwacht dat ze dan delen van diensten uit gaan zetten, zoals China nu geen FaceTime heeft bijvoorbeeld. Of diensten lokaal plaatsen zoals China nu al een eigen iCloud heeft.

[Reactie gewijzigd door Dennisdn op 25 juli 2024 21:02]

Dat het jou dan niet treft betekent niet dat het geen probleem meer is. Lokaal is nog steeds een probleem omdat Apple dan zou meewerken aan mensenrechtenschendingen in China.
Ook heeft het dan een zwakkere verdediging tegen andere landen die soortgelijke behandeling willen.
Mijn verwachting die ik schetste gaat er dan vanuit dat een dergelijk land een iCloud krijgt waar het systeem niét in zit zodat die overheid het ook niet kan toepassen. Daar kunnen ze dan aan de cloud-kant blijven scannen zoals nu bij ons het geval is.

Overigens zeg ik nergens dat het geen probleem is.

[Reactie gewijzigd door Dennisdn op 25 juli 2024 21:02]

En dan zegt dat land "jullie benadelen onze authoriteiten door die functie eruit te halen. Dus jullie supporten het misbruiken van onze kinderen. Jullie mogen hier niets verkopen"
Of diensten lokaal plaatsen zoals China nu al een eigen iCloud heeft.
en
Dat land zegt, tegen Apple jij gaat deze database gebruiken en meld mij de matchen.
jullie zeggen hetzelfde?
Als zo’n land dat wil, konden ze dat ook al eisen zonder deze functie.
Dat iets kan wil niet zeggen dat er genoeg aanleiding is om het te doen. Dat is nu juist ook waarom deze controle niet onomstreden is: dat klanten verdacht kunnen zijn wil niet zomaar genoeg zijn om gegevens waar je bij kan dus maar te controleren. Of dat je dat dus maar beter op andermans apparatuur kan doen in plaats van ergens anders.
Wat ik bedoel is dat wanneer een regime controle wil uitoefenen dit nieuwe systeem van Apple daar niet voor nodig is. Dat kon met de nu bestaande infrastructuur ook al.
Alleen gaat de discussie er ook om wat er mee valt te bereiken en wanneer dat waarschijnlijker is. Het zijn namelijk geen gelijke situaties.
Ik heb geen idee wat je hier nu mee bedoelt…
Dat land kan nu al aan Apple die vraag stellen.

Geef ons de sleuteltjes van iCloud (want photos zijn niet e2e…).

Apple zou nu al op hun servers de boel kunnen scannen, zoals Facebook en Google doen. Alleen willen ze dat niet, omdat ze juist photos ook e2e willen versleutelen… dit was een stap naar dat mogelijk maken in combinatie met wel CSAM bestrijden.
Dat land heeft *nu* de sleuteltjes van iCloud al (https://www.cpomagazine.c...ples-privacy-first-focus/).
Een overheid heeft deze filtering technologie niet nodig om dat soort zaken te eisen van Apple (of gelijk welk ander tech bedrijf).
Ik vermoed dat Apple iCloud net e2e wil maken op een manier dat ze zelf de keys niet meer moeten hebben, maar toch een systeem wil (moet?) hebben om foto's te scannen op CSAM content, en dat ze daarom met deze oplossing afgekomen zijn.
Het kan mogelijk nog vervelender: zonder officieel de sleutel en toegang vragen daar iets voor te regelen. Het punt is dat extra of andere gelegenheid geven dat er iets mis kan gaan niet zomaar redelijker is.
Apple zou nu al op hun servers de boel kunnen scannen
Volgens mij stond hier recent een nieuws artikel dat Apple dat al sinds 2019 doet.
Wat dit toevoegt is dat Apple het ook op je lokale device doet en niet alleen op hun cloud servers.
Volgens mij niet, daar zou ik graag een bron van zien als Apple dat deed.
nieuws: Apple scant bijlagen in iCloud Mail sinds 2019 op beeldmateriaal kind...
Dit kostte mij 10 seconden. Wat hielt jouw tegen om ook even een heeeel klein beetje moeite te doen?
Mail =/= icloud photos

Dat is een heel andere dienst.

Ze doen ook aan spamdetectir!

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

en hebben ze bij spamdetection 30 hits nodig en een handmatige analyse om false positives te voorkomen?
Terwijl Apple beweert dat de kans op false positives kleiner is dan 1 op de biljoen?
Wat een veeeeeeel lagere false positive rate is dan willekeurig welke antispam dienst?

Het is duidelijk dat er iets niet klopt aan hun verhaal.
Bij spam detectie gaat het om het voorspellen of een nieuwe mail misschien spam is, dat is veel lastiger dan checken of een foto volgens NeuralHash (een soort photoDNA) matcht in een databank.

Om de false positives dan nog kleiner te krijgen doen ze dan nog meer: Alleen als die hash dan in minstens 2 databanken voorkomt is dat een verdachte foto. Om op 1 op een biljoen uit te komen doen ze dan ook nog eens een threshold aanhouden, je moet geloof ik minstens 30 van die hits hebben die dus in meerdere databanken voorkomen. Pas bij een fotocollectie met matchende plaatjes wordt het dus pas geupload naar Apple, waar een mens het dan ook nog eens controleert voordat een melding bij de autoriteiten wordt gemaakt.

Dat alles maakt dat de kans op false positives zo klein wordt. Dat moet ook wel, want met zoveel Apple devices zou je anders een groot probleem krijgen simpelweg door de schaalomvang.
Het zou makkelijker zijn als de politiek er iets van zou zeggen. Maar Biden heeft Afghanistan al flink om zeep geholpen dus ik weet niet of er deze termijn nog iets goeds uit komt.
het zou naïef zijn om te denken dat dit door de diverse overheden, justitie en geheime diensten niet zou worden misbruikt voor andere doeleinden. Maar al te graag willen ze weten over terroristen, oppositie, dissidenten, vluchtelingen, geloof schenders, etc.

Wat aan de media-aandacht lijkt te zijn ontsnapt, is dat het doel breder was. Het was ook om vermiste mensen (kinderen) op te sporen, het was ook om kinderen te waarschuwen dat hun ouders in kennis worden gesteld als zij "erotische foto's" van zichzelf zouden sturen naar anderen. Kortom, de analyse van foto's ging al veel verder dan het identificeren van kinderpornografisch materiaal aan de hand van "hashes" (wat ook nog foto's zijn die soms al tientallen jaren oud zijn) en ook is het gewoon onwaar dat het slechts ingezet zou worden bij alleen maar foto's die naar icloud worden geupload. Default staat icloud Photo's aan, en worden zelfs via Whatsapp ontvangen plaatjes en foto's automatisch in je foto's opgeslagen en dus automatisch ook geupload naar iCloud Photo's.

Met überhaupt de kennisgeving dat Apple scanning op foto's ging toepassen op de devices zelf, trok dat onmiddellijk de aandacht van overheden en geheime diensten. Ben er maar zeker van dat Tim Cook bij zijn recente bezoek aan het Witte Huis, bij Biden, ook een gesprekje "of-the-record" heeft gehad met de Amerikaanse autoriteiten. Ben er maar zeker van dat diverse overheden al lang hebben geïnformeerd naar andere mogelijkheden en sommigen al gedreigd hebben met maatregelen als ze niet precies datgene krijgen wat ze willen. Ja tegenover sommige overheden kan Apple de juridische weg volgen, maar tegen zovele overheden volstrekt niet. De overheid van China, Rusland, India laten hun tanden al zien.

Wat ook gevaarlijk is zijn de geheime diensten die in staat zijn om op afstand 'leuke plaatjes' te uploaden naar iphones zonder dat de gebruiker daar ook maar enige notie van heeft. Meer dan 50000 iphones, waaronder die van Macron, zijn via Pegasus software op afstand gehackt. Dat was doelgericht, want konden worden gehack door een onzichtbaar berichtje. Zal mij niet verbazen dat we in de toekomst ineens grote CEO's en diplomaten opgepakt zien worden omdat er materiaal op hun iphone staat welke niet mag.

De PR-machine van Apple maakt al weken overuren en met elke woorden van wij werken niet mee aan andere doeleinden kwam zij in meer problemen. De delay nu is natuurlijk niet om gebruikersfeedback, maar om even ademruimte te creëren en proberen een weg hieruit te vinden. Of Apple dat nu nog lukt, is de grote vraag.
Maar als je zo wantrouwend bent, als Apple zó evil is…. Waarom zouden ze dat nu dan nog niet doen? Technisch is het allemaal niet zo spannend, ze zitten niet op je telefoon, ze zijn je telefoon….
Ik zeg niet dat Apple evil is. Ik heb sinds de iphone 4 al een iphone en bezit heel wat apple devices. Zeg alleen dat we niet naïef hoeven te zijn dat overheden nu hun control gaan vergroten. Google zal ooit, gedwongen of niet, volgen.
Maar waarom gaan ze dan nu pas hun controle verhogen en niet vorig jaar? Toen konden ze ook al op jou device als ze zouden willen.
Ik denk niet dat (hier) iemand is die kindermisbruik niet verwerpelijk vindt. Je kan je echter afvragen hoever een bedrijf (en hieraan gekoppeld overheden) inbruik mogen maken op de privacy van alle burgers om misdaden te bestrijden.

Deze technologie laat niet enkel toe om op kindermisbruik te scannen maar stelt overheden in staat om op andere 'verboden' content te scannen. Apple is niet ongevoelig aan druk van overheden (i-devices mogen in China enkel verkocht worden omdat de data van Chinese gebruikens op servers in China staat). Wat als een land in het Midden-Oosten plots wil dat Apple scant op LGBTQ-content? Of een ander land op 'terroristen' (kan naargelang het land een heel ruime betekenis krijgen).

Dit is waar privacy activisten zich zorgen om maken. En dit zet dan weer de deur open voor andere inbreuken.
Wat is "bijna niet"? 1 Kind is d'r 1 teveel natuurlijk. Het probleem is ook niet hetgeen ze willen bestrijden, het probleem zit hem in de verkoopargumenten, met name het label: het is misleidend. Dit is stap 1 (kinderen beschermen) en zometeen volgt ook dat niet-gelovigen in Saudi Arabië worden opgespoord en publiekelijk worden geëxecuteerd. Daarna gaat China meer Oeigoeren opsporen en opsluiten aan de hand van afbeeldingen die in die kringen vaak rondgaan.

Dat Apple zich buigt naar de wil van een grote afzetmarkt (China) is al meerdere keren gebleken. De enige reden dat ze kindermisbruik gebruiken als verkoopargument is omdat ze dachten dat iedereen daarin mee zou gaan.

Daarnaast is het ook nog eens gruwelijk dom in opzet. Als het een hash-check is kunnen alleen precieze matches worden gevonden. Dus je verandert 1 pixel of voegt een watermerk toe en het algoritme kan het plaatje al niet meer vinden. "Gelukkig" is dat niet zo en zit er daadwerkelijk een (configureerbare?) foutmarge in de detectie. Maar ja, die techniek is al onbetrouwbaar bewezen te zijn.

Wat gaan pedo's doen denk je? Ze gaan gewoon collages maken in plaats van losstaande plaatjes. Of ze gaan software gebruiken (buiten de App Store om gewoon programma's delen zoals developers dat doen tijdens ontwikkeling) waar plaatjes encrypted binnen worden gehaald en niet in je filmrol worden opgeslagen, dus ook nooit naar iCloud gaan.

Of ze gebruiken gewoon geen iCloud, presto.

Deze tool is niet om kindermisbruikers op te sporen. Dit is gewoon heel simpel een tool om de wereldbevolking te (kunnen) bespioneren. Dat begint met kindermisbruik, daarna vermiste kinderen, daarna terroristen opsporen, daarna mensen die mogelijk illegaal Torrents downloaden (een foto met uTorrent in de background open en 5x een film waarvoor je niet betaalt, ga maar even €10.000 per film betalen).

De film Minority Report komt zo wel heel dichtbij. Realistische en haalbaar dichtbij. Jouw eigen telefoon die als snitch jou verraad aan de politiestaat waar je woont.

"Op deze foto is te zien dat Jan al een tijdje zijn huis niet opruimt (+6 punten voor depressie) en zo te zien zijn er sporen van geweld (+12 punten voor geweld), hij heeft recentelijk ook een promotie niet gekregen (+32 punten geweld, +14 punten afgunst, +204 punten onrecht)."

Er gaat een bericht naar de politie dat Jan een gevaar is voor de samenleving. Jan z'n rijbevoegdheid wordt bij deze ingenomen en wordt uit voorzorg ingesloten en met geforceerde medicatie behandeld zodat hij weer een goed burger kan gaan worden.

Alles voor de veiligheid. En het begon met kindermisbruik proberen op te sporen.
Je verhaal leest als een trein maar heeft alleen het nadeel dat het ongelooflijk paranoïde is. Apple uit op het bespioneren van de gehele wereldbevolking en het hele kindermisbruikargument is maar een verkooppraatje? Je hebt nul bewijs voor die beschuldiging, het is een beetje opruiend om hier als waarheid te gaan presenteren dat Apple uit z'n nek aan het kletsen is en ons allemaal bedriegt.
Je leest niet goed. Ik denk niet dat Apple uit is op het bespioneren van de wereldbevolking. Dat is idioot om te denken. Apple maakt technologie die overheden rond de wereld in staat stellen om dit te laten doen.

Het kindermisbruik-label is een typisch Amerikaans "patriot-act"-soort van politiek punt waarvan de naam iets positiefs suggereert, maar de inhoud daadwerkelijk heel enge dingen tot stand brengt.

Ik ben niet paranoïde, mensen zoals jijzelf zijn te naïef. De hele 2e-wereldoorlog stond in het teken van mensen met bepaalde kwaliteiten opsporen en massaal uitmoorden. Dat is maar 80 jaar geleden gebeurd. China pleegt op dit moment genocide. Saudi Arabië staat bekend om het feit dat ze doodstraffen opleggen en op straat uitvoeren op mensen die niets kwaads in de zin hebben.

Denk jij dat deze twee landen geen enorme invloed hebben en kunnen uitoefenen op Apple? Een bedrijf met aandeelhouders die absoluut niet deze markten willen verliezen?

En het blijft niet alleen binnen de grenzen van die landen zelf. China zorgt al voor censuur (door Apple) in landen zoals Taiwan. Dat is geen paranoïde-denken, dat is de harde realiteit. Apple doet dat omdat China gruwelijk belangrijk voor ze is als afzetmarkt maar ook als productieland en een land waar bedrijfsgeheimen moeten worden bewaard (want de productie vindt daar plaats).
Dat Apple zich buigt naar de wil van een grote afzetmarkt (China) is al meerdere keren gebleken.
Wat heeft de grote afzetmarkt (en speciaal China) hier mee te maken? Je denkt toch niet dat Apple dit onder druk van de FBI/CIA/NSA moet doen en er een "kindermisbruik" argument bijsleept om het voor "het grote publiek" acceptabel te maken.?
Misschien de FBI, maar China heeft al genoeg middelen om de misdaad te bestrijden.
Deze tool is niet om kindermisbruikers op te sporen. Dit is gewoon heel simpel een tool om de wereldbevolking te (kunnen) bespioneren. Dat begint met kindermisbruik, daarna vermiste kinderen, daarna terroristen opsporen, daarna mensen die mogelijk illegaal Torrents downloaden (een foto met uTorrent in de background open en 5x een film waarvoor je niet betaalt, ga maar even €10.000 per film betalen).
Dit ben ik volledig met je eens, vanuit kapitalistisch oogpunt heeft alles wat wij doen commerciële waarde.

[Reactie gewijzigd door janbaarda op 25 juli 2024 21:02]

Het China-voorbeeld gebruik ik vooral om ervoor te waarschuwen dat regeringen over de hele wereld (zoals China en Saudi Arabië) hun invloed op Apple gaan uitoefenen om deze technologie, zodra deze beschikbaar is, te gebruiken om hun eigen vijanden op te sporen.

Oeigoeren in China en atheïsten in Saudi Arabië zullen dankzij deze "save the children 🙏👼"-technologie massaal worden opgesloten en worden vermoord. Dankzij Apple. Apple gaat "kindjes redden" en misbruik/moord op gelovigen (van de verkeerde religie) en ongelovigen faciliteren.

Dat China al genoeg tools heeft betekent niet dat hun regering hier geen gebruik van gaat maken. De telefoons van mensen zelf die de mens bespioneert? In de USA is dat misschien alleen als iCloud aanstaat, maar wie weet welke wet Apple in China gaat forceren om alle foto's te scannen?

Het is gewoon eindeloos eng en gevaarlijk.
Kan je mij daar meer over vertellen? Op Wikipedia en de (vele) bronnen die daarbij staan blijkt dat de Oeigoeren in China nog altijd onderhevig zijn aan een genocide. Zie: https://en.wikipedia.org/wiki/Uyghur_genocide en de 478 bronvermeldingen. Waar is het gedebunked?
Dan vergis je je, dit komt in de familiekring helaas wel degelijk veel voor. Als we kijken naar sexueel misbruik in het algemeen dan kom je op 11% van de bevolking! Kindermisbruik is daar natuurlijk een fractie van, maar de bewering "niemand op tweakers heeft dit gedaan" geloof ik zeker niet. En dan hebben we het nog over bekende gevallen. Vooral kinderen zullen dit gauw voor zich houden. Het is een topje van de ijsberg (vergeet #metoo niet).

Niet dat dit systeem daar iets tegen zal doen hoor. De meesten zullen er geen beeldmateriaal van maken en die al helemaal niet verspreiden.

Overigens frappant dat een zekere Amerikaanse president het plegen van sexueel misbruik zelfs heeft toegegeven en er nauwelijks ophef over was ("Grab 'em by the pussy"). Ik blijf de Amerikaanse gedachtengang niet te volgen vinden.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Blij dat er iemand is die het toegeeft.

Overigens 11% van de bevolking doet aan seksueel misbruik lijkt mij enigszins overdreven. Hiervoor moet je de definitie van "seksueel misbruik" wel erg ver oprekken.
Staren valt ook onder die 11%. Ik snap dat dit eng en intimiderend kan zijn, maar om dat nu seksueel geweld te noemen? Ook ongewenste aanrakingen vallen er onder. Ik de tijd dat ik jong was en uitging, kwam dit vrij veel voor (ook gewoon door vrouwen), maar dat noemde je echt geen seksueel geweld!
Voor het gemak van jouw reactie, realiseer jij je niet dat sommigen niet eens weten/beseffen of zij zich daarmee bezigen. Inzichtelijk, in verbijstering van het verstand of het niet (kunnen) herkennen van moreel en/of wettelijk verkeerd handelen. Spreek die overtuiging niet te snel en te gemakkelijk uit.

[Reactie gewijzigd door SkyStreaker op 25 juli 2024 21:02]

Het woord "privacy" wordt veel gebruikt, maar daar gaat het nauwelijks om. Het wrange is dat de privacy in veel gevallen prima geregeld is.

Want Apple laat vooraf natuurlijk goed weten wat er gebeurt en ze gaan zorgvuldig met je gegevens om. Dat soort dingen. En dan moet je ergens "ja" zeggen. Op dat moment is alles goed geregeld.

Maar daar gaat het niet om. Het gaat om wat ze doen. Het gaat om het misbruik van data en om het feit dat ze binnen die zogenaamd goed geregelde privacy, vreselijke dingen gaan doen.

De ernst van de data/privacycrisis bestaat nou juist uit het feit dat er volstrekt ongewenste dingen met je data gebeuren, terwijl de privacy keurig geregeld is.

Voorbeeld: de Belastingdienst heeft je privacy prima voor elkaar, niemand die daar aan twijfelt. Maar de toeslagenaffaire heeft toch kunnen ontstaan. Doordat ze met je data vreselijke dingen deden.

Het gaat om misbruik van data.

In het geval van Apple gaat het erom dat ik dergelijke bedrijven niet erken als bevoegd om mij/ons te gaan controleren. Zoiets is bestemd voor justitie, OM en politie, onafhankelijke partijen die deze macht hebben gekregen via democratische weg van de burgers zelf, en die macht kan ook weer worden afgenomen, door diezelfde burgers.

De plannen van Apple zijn puur gif voor een gezonde maatschappij. Zie verder mijn bericht van 5 september 2021 00:16.

EDIT: nu is de vraag misschien of ik straks nog kan slapen. Antwoord: ik denk het wel, want ik heb het eigenlijk opgegeven. Deze (ICT-)wereld is ziek.

[Reactie gewijzigd door Farmeur op 25 juli 2024 21:02]

Ik denk dat niemand precies weet hoe erg de kindermisbruik schandalen zijn en op welke schaal, je kan ze toch niet vrij spel blijven geven.
Is dit de manier? De grens die over gegaan wordt is dat er op je eigen apparaat wordt meegekeken. Bij iedereen. Niet door justitie die via een of andere hack-wet recht heeft verdachten te hacken. (Die wetten zijn er al in veel landen) Nee, een particulier bedrijf besluit dat iedereen verdachte is. Dus in NL hebben politieke discussies over 'de sleepwet' en wat de AIVD mag, maar Apple doet dit gewoon. Niet goed. Het lijkt me ook vrij naïef te denken dat dit over 10 jaar alleen nog over porno gaat. Als IS-K straks weer onthoofdingsfilmpjes gaat verspreiden om leden te werven, wie vindt het dan oké omdat gewoon te laten gebeuren?

En wat is de winst? De winst is dat Apple z'n straatje schoon veegt, niet dat er minder kinderporno in omloop komt. Dat lijkt mij tenminste een naïeve gedachte. Want iedereen weet dat het illegaal is, dus je bent wel heel dom als je het gewoon ergens in een mIcrosoft, google of apple-cloud zet zonder er zelf encryptie overheen te gooien.
kinderporno en terrorisme zijn altijd van die klassiekers waarvan mensen vinden dat ze function creep wel kunnen accepteren.

Kindermisbruik is groot, heel erg groot. Groter dan een fotootje op een iPad die ze hiermee willen kunnen detecteren.
Lijkt me dus een druppel op een gloeiende plaat om hiermee aan de slag te gaan en verre van een goede reden gezien het precedent wat dit schept op het gebied van privacy-schending.
Tenzij er gegronde redenen zijn om aan te nemen dat ik ToS-brekend (en strafbaar) materiaal op mijn iCloud/devices heb staan hebben ze (preventief) niets te zoeken in mijn opslagruimte (ja ik ben erg naief, ik weet het).

[Reactie gewijzigd door Verwijderd op 25 juli 2024 21:02]

(...)
Kindermisbruik is groot, heel erg groot. Groter dan een fotootje op een iPad die ze hiermee willen kunnen detecteren.
(...)
Als je echt los wilt als dader/trader, zorg je dat je de foto's die je maakt enkel op beveiligde dingen gebruikt.
- beveiligde verbinding op je apparaat
- camera zonder directe upload naar media (dus geen iphone/android device)
- alles schimmig houden om de politie en consorten te ontwijken.

Die foto van mijn zoon in bad, kan in de VS al als KP worden gezien. Voor mij onschuldig en een leuk aandenken aan de fijne jeugd die mn zoon heeft. In de verkeerde handen is het wèl KP. Die nuance mis ik in deze aanpak.
Die foto van jou staat alleen niet in de database. Daar komen foto’s in terecht die gevonden zijn bij veroordeelde pedoseksuelen.

En dat zijn geen onschuldige plaatjes: die foto die jij beschrijft is absoluut geen KP in de VS. Voor iemand die de nuance zoekt, moet je niet dat soort onzin gaan roepen.
Voor de wet is het in de VS geen KP. Voor de tech-giganten wel.
Op basis van dat soort onschuldige plaatjes zijn talloze mensen hun account en hun data kwijt geraakt.

En dat weet jij natuurlijk ook wel. Een beetje jammer dat je zelf niet dat beetje nuance wilt toevoegen en hem meteen beschuldigd van onzin te roepen.
Apple gaat geen accounts afsluiten, a la Facebook, ze gaan mensen doorverwijzen naar de rechterlijke macht.

@Arnoud Engelfriet Neem aan dat ze dat wel afwachten (die aangifte). Maar dat is nog gissen.

Het punt blijft dat het in tegenstelling tot wat MS/Google/Facebook nu doen geen random account-sluit want ‘voorwaarden’ is.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Apple gaat wel accounts afsluiten, naast het melden bij het NCMEC. De stichting NCMEC beslist of aangifte wordt gedaan (in consultatie met FBI).
En als je die foto hebt gedeeld op facebook en deze via-via op de harde schijf beland van een pedofiel die gepakt wordt? Dan staat die de volgende dag in een database en kan je een bezoekje verwachten. Natuurlijk zal je uiteindelijk' vrijgesproken' worden maar er is een kans dat je werkgever je ondertussen al ontslaan heeft e.d. Er zijn nog mensen onschuldig op no-fly lijsten geraakt die na jaren nog altijd problemen hiervan ondervinden. Het is niet altijd onschuldig.
Dan staat die de volgende dag in een database en kan je een bezoekje verwachte
De database (van hashes) staat lokaal op je telefoon.

De criteria om in die database te komen weet ik niet, maar laten we zonder verdere informatie aannemen dat die lat vrij hoog ligt en het echt KP moet zijn.

En zelfs dan: heb jij 30 foto’s nodig die per ongeluk als KP zijn aangemerkt.

Als laatste, maar dat is off-topic: ik zou sowieso iedereen Facebook afraden, maar al helemaal om foto’s van je kinderen in bad daarop te delen, laat staan publiekelijk.

Laat zo’n fotootje gewoon in levende lijve zien aan oma&opa, in plaats van FB.
Sowieso zal dit voornamelijk resulteren in dat kinderporno gebruikers iOS zullen ontwijken. En daarna zal de effectiviteit van deze tool vrijwel nihil zijn.
Je roept aan op schandalen, maar hoe zit het met de experimenterende tieners? Ik had vroeger het fietsenhokje achter school of de omkleedkamers in het zwembad. Ik ontwijk even de categorie van het daadwerkelijke "misbruik", maar de ontdekkende tieners die elkaar een gewaagd fotootje sturen (de discussie m.b.t. eventuele gevolgen even buiten beschouwing latende) vindt ik dat Apple daar eigenlijk vanaf moet blijven. Dat moet het spreekwoordelijke "op je bek gaan en erachter komen dat het niet handig is" zijn, wat elke tiener nodig heeft.

Mijn vraag is, wat is de toetsing, wat is het kantelpunt?

[Reactie gewijzigd door SkyStreaker op 25 juli 2024 21:02]

Ze controleren het met een bestaande database, dus daar hoef je niet bang voor te zijn. Daarnaast komt er na 30 flags nog eerst een handmatige controle voordat er verdere stappen worden ondernomen.

[Reactie gewijzigd door NotSoSteady op 25 juli 2024 21:02]

Als het een fingerprint met een bestaande database is, dan zouden er geen 30 flags en een handmatige controle nodig zijn.
Dat geeft het vermoeden dat het algoritme niet zo trefzeker is en waarschijnlijk bedoeld om ook zonder een bestaande database getriggered te worden.
En hoe vaak is een dergelijk "absoluut" wel niet geschonden? Een database wordt ook bijgewerkt en dat maakt, helaas, de vraag ofwel de kritiek wederom valide.

@ de edit van 16:34 - dat zijn inderdaad andere omstandigheden.

[Reactie gewijzigd door SkyStreaker op 25 juli 2024 21:02]

Ja, die database zal ongetwijfeld worden bijgewerkt met nieuwe beelden van kinderporno dat bekend is. Apple kijkt simpelweg of er een match is, dus als jij je vriendin een foto stuurt van je 16-jarige pielemuis dan staat dat dus niet in de database.
Je weet niet wat morgen strafbaar zal zijn en waar. Die bestaande database valt niet onder controle en verificatie van de gebruiker die gescand wordt.
Hoeft maar 1 persoon zo'n 'experimenteerfoto' door te sturen naar het meldpunt en je wordt achteraf alsnog gepakt op het bezit ervan.
Is dat wel zo? Volgens mij wordt de foto alleen gescand op het moment dat die wordt geupload naar iCloud. En niet later nog eens een keer.

Daarom juist vind ik het zo'n onzin dat dit gebeurt met foto's die zojuist op hetzelfde toestel gemaakt zijn. Ik zie er gewoon geen meerwaarde in terwijl de privacyinbreuk groot is.
Je kan ook prima foto’s van het web of berichten opslaan dus het geldt niet alleen voor nieuwe plaatjes.
Yep maar wat ik dus niet snap is waarom ze foto's die van de camera komen niet gewoon uitsluiten. Het toestel weet dat immers, hij maakt ze zelf. Die zijn juist het meest prive voor mensen.
Hier speelt echter nog een tweede puntje: Apple scant ook gestuurde foto's via iMessage en geeft dan de ouders een seintje dat er mogelijk dick pics worden verstuurd.

Dit gebeurt uiteraard niet aan de hand van die bestaande database.

De vraag is ook: Als het gaat om bestaande en bekende foto's, waarom worden zojuist gemaakte foto's via de camera van het eigen toestel dan ook gescand? Die kunnen immers nooit in die database staan want ze zijn net vers gemaakt. Dat doet me toch vermoeden dat Apple veel verregaandere plannen met dit systeem heeft.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Het probleem is dat die tiener er geen controle over heeft of en hoe het in de database terecht komt en ook de meest directe verantwoordelijken zoals de ouders daar geen zeggenschap in hebben.

Afbeeldingen kunnen lekken, en zeker als er een markt voor is en de personen die er mee om gaan niet beseffen hoe ze er werkelijk controle over houden, dan kun je er dus op rekenen. Dat wat jij onschuldig zou vinden als de personen die op een afbeelding staan dat zelf met elkaar delen, kan onacceptabel blijken als het door anderen ergens opduikt. Niet iedereen heeft dezelfde normen en waarden als het gaat om onacceptabel vinden of de werkelijke situatie. De databases zijn helaas niet zomaar betrouwbaar, doordat bijna niemand kan controleren waaruit dat blijkt. Of hooguit achteraf als er al een probleem is.
En zo'n database is altijd foutloos?
Daarom zeg ik mijn kinderen dat het internet nooit iets vergeet…….
Ook dit is een belangrijk argument. De vrees voor je eigen apparaatjes wordt door deze giftige plannen van Apple alleen maar groter. Het is niet te geloven dat je daar over moet nadenken, laat staan bang voor moet zijn.

ICT-ers hebben de neiging om alles als een puzzeltje te zien. En als ze dit dan als een probleem zien, dan verzinnen ze weer een oplossing, en dan zijn ze blij. En dan kijken ze rond of anderen ook zo blij zijn. In deze draad zie ik dit overal. ECHTER dat is een weinig principiële manier van werken. Zij vergeten dat het hier om iets totaal anders gaat, het is geen puzzeltje waar individuën mee bezig mogen zijn en mogen beslissen voor miljoenen.

Deze macht hoort langs democratische weg verleend te worden aan neutrale instanties zoals justitie, OM en politie. Zij hebben een bevoegdheid die aan hun is verleend, langs democratische weg, via stemmen, wetten, volksvertegenwoordiging, om andere te controleren en voor de rechter te halen. Die macht kan ook weer worden afgenomen. Dat systeem is controleerbaar en evenwichtig. ALS het me niet bevalt, kan ik de juiste partij stemmen of zelf een partij oprichten. En dan wordt daarover gediscusieerd en er wordt netjes over besloten. Iets anders accepteer ik niet, nooit, dus ik accepteer geen enkel bedrijf. De discussie of ze het misschien goed kunnen, doet er dus niet eens toe.

Zie ook mijn andere posts, daar staat het misschien beter.
Het is niet aan apple om hier wat aan te doen lijkt me.
Van techbedrijven wordt wettelijk steeds meer verwacht op dit gebied.
Vind het heel terecht dat misbruikers aangepakt worden, maar je moet wel kritisch zijn over wat er dan precies aangepakt wordt, hoe effectief het is en wie je er eventueel potentieel mee benadeelt.

De 'oplossing' van Apple is scannen op bekend beeldmateriaal, dus nieuw materiaal wordt per definitie niet gevonden en de smeerlappen die dit maken kunnen in eerste instantie gewoon hun gang gaan.

Hoewel ik nooit dergelijke rotzooi op mijn telefoon wil hebben vind ik het idee dat mijn telefoon een 'achterdeurtje' heeft en mij aangeeft bij de politie wanneer iemand mij een afbeelding doorstuurt eerlijk gezegd beangstigend. Juist het geautomatiseerde karakter zorgt ervoor dat je in een kafkaëske situatie terecht komt waarbij je 'aangeklaagd' wordt door een computer waarvan het oordeel blind gevolgd wordt en je eigenlijk al veroordeeld bent want kindermisbruik. (vraag maar eens aan een youtuber waarvan een filmpje offline is gehaald vanwege mogelijke copyright issues hoe eerlijk dat is)

Hoewel ik niet de illusie heb dat dit soort misdrijven ooit helemaal te voorkomen zijn zou ik het een beter idee vinden met echte opsporing naar echte daders te gaan zoeken. Dit is symptoombestrijding en Apple zou beter moeten weten of heeft een agenda om straks veel meer content te gaan blokkeren.
Niet over de ernst van kindermisbruik, maar schoenmaker hou je bij je leest.

The road to hell is paved with good intentions - deze techniek kan op zoveel manieren misbruikt gaan worden dat er een heel (veel te) groot risico is dat het middel erger is/wordt dan de kwaal.

Misschien willen we wel de privacy van iedereen opofferen om een heel klein deel van de bevolking wat zich hieraan schuldig maakt op te kunnen pakken, maar dat is dan aan de politiek en niet aan één bedrijf om te besluiten.

Het gaan scannen van mensen hun persoonlijke foto's is een grove inbreuk op de privacy, vele malen erger dan de openbare ruimte van een stad of land volhangen met camera's bijvoorbeeld.

What's next? Te hard rijden kost ook talloze mensenlevens (ook van kleine kinderen) willen we auto's die automatisch doorgeven wanneer je "te vaak" hard rijdt, of slingert?
Over hellend vlak gesproken: auto's die appende bestuurders aangeven lijkt me nog niet eens zo'n slecht idee ;)
Dat vlak is wel heel erg hellend:

Als je appen letterlijk ziet als het gebruiken van een applicatie is volgens mij is het bedienen van je ruitenwissers in een Tesla tegenwoordig strikt genomen al appen ;)

Nog erger, de bediening van mijn muziek app via Android Auto dmv de knopjes op mijn stuur zou ik dus al voor moeten parkeren?

edit: gaan we weer.. hoezo is dit een -1: flamebait, troll oid?! Me maken een grapje, en nog on topic ook...

[Reactie gewijzigd door Alxndr op 25 juli 2024 21:02]

Als de auto zo veel slimmigheid bevat moet hij gewoon zelf rijden en de 'bestuurder' lekker zijn gang laten gaan.
Eerlijk gezegd vind ik niet dat gedrag op de weg, met een voertuig waar je in de eerste plaats een *vergunning* voor moet hebben, meer bescherming verdiend dan de prive-sfeer van foto’s…

What’s next, op basis van privacywet geen trajectcontroles meer?
Er wordt continu actie ondernomen. Het is niet alsof er zonder deze methode niemand wat doet of bereikt. Daar doe je een hoop politiemensen mee te kort.

Ik ben ook wel benieuwd hoeveel meer zaken men denkt op te lossen met dit systeem. Of is het sowieso allemaal prima zolang iemand “kinderen” roept?

Het is ook jammer dat Tweakers dit systeem “kindermisbruikdetectie” noemt. Dat is het namelijk niet. Net als dat een auto wel als taxi kan fungeren maar dat niet de essentie van een auto is.
Het argument CP is overheersend stemmingmakerij gericht op de primaire emotie van borging en veiligheid voor kinderen. De eerlijkheid gebiedt te zeggen dat in de commerciële clouds er wel hits zijn maar de echte misbruikers weten die echt wel te omzeilen.

Het thuis fouleren, eh detecten op de thuis telefoon, zal alleen de dombo's pakken en de makers dieper het dark-web in duwen. Hoe mooi het ook klinkt, je bereikt just het omelette, namelijk dat je nog minder zicht gaat krijgen.
Het probleem zit niet zozeer in dat mensen niet willen dat er niet wordt opgetreden tegen kindermisbruik, maar op het moment dat het mogelijk wordt om op een bepaalde content te scannen, het op een gegeven moment ook voor andere zaken gebruikt kan worden.

Neem de staat Texas. Daar wordt abortus voor bijna alles strafbaar, en wordt er opgeroepen tot verklikken (levert een premie van $ 10.000 op voor de verklikker)
Straks moet Apple ook daar op gaan zoeken. Of inderdaad de LHBTIQ+ gemeenschap in landen waar dit verboden is. etc, etc
Als Apple dat gevraagd wordt of verplicht wordt kunnen ze dat sowieso al. Daar heb je dit systeem niet voor nodig.
Dat bedoel ik niet. Wat ik bedoel is dat wanneer Apple overstag zou gaan en regimes of andere regeringen wel tegemoet zou willen komen dit nieuwe systeem daar niet voor nodig is. Het risico op misbruik wordt door dit systeem niet groter.
Feit blijft dat iemand die je niet kent door je foto's gaat spitten. En diegene werkt niet voor een overheidsinstantie of opsporingsdienst, maar voor een miljardenbedrijf dat, alleen om iPhones te kunnen verkopen in China, akkoord is gegaan om alle iCloud data van Chinese klanten op te slaan op servers die in China staan.

Fijn vooruitzicht voor een systeem wat heel makkelijk uitgebreid kan worden om voor meer te scannen dan kinderporno.
akkoord is gegaan om alle iCloud data van Chinese klanten op te slaan op servers die in China staan.
Dat is een non-argument, dat eisen de EU en Rusland ook, en ik vermoed wel meer landen.
EU is inderdaad vergelijkbaar met China..oh wacht in China hebben ze niets met AVG.
https://www.cnet.com/tech...na-for-china-based-users/

[Reactie gewijzigd door Gam3Error op 25 juli 2024 21:02]

Je haalt nu een nieuw argument aan. Misschien haalde je die 2 door elkaar, en bedoelde je die encryptiesleutels? Je had het over het opslaan in dezelfde regio, en daar is niets bijzonders aan.
Wel als het regio's betreft waar ze met sociale credietscores werken en niets met privacy hebben. Overheidsinstanties hebben daar toegang tot je data wanneer ze dat willen, zonder dat er een rechter aan te pas komt. De EU wil dat de data van Europeanen in Europa werd opgeslagen vanwege de AVG. Als alles op Amerikaanse servers staat is de AVG in feite nutteloos aangezien instanties zoals de FBI door de Patriot Act veel makkelijker toegang kunnen krijgen tot gegevens via FISA orders. Je cloud provider mag de klant niet eens informeren wanneer de FBI erom heeft gevraagd:
FISA Orders, particularly as expanded under Section 215 of the Patriot Act, have given rise to privacy concerns for several reasons. First, such orders may be granted ex parte, meaning with only the FBI presenting evidence to the court. Second, Section 215 includes a “gag” provision that prohibits the party that receives a FISA Order from disclosing that fact. This typically would prevent a cloud service provider from informing its customers that the service provider had shared their data with the FBI in response to a FISA Order.
https://www.mayerbrown.co...he-privacy-of-data-stored
Je leest niet echt wat ik schrijf volgens mij, want je hebt het nu over misbruik van de data en hoe China met zijn burgers om gaat, waar wij (en de meeste mensen in het westen) het wel over eens zullen zijn dat dat niet fraai is.
Het ging er mij om dat je wel feitelijk correct moet blijven omdat je anders verwarringen krijgt.
Je cloud provider mag de klant niet eens informeren wanneer de FBI erom heeft gevraagd:
Volgens mij is het hier zo dat een verdachte achteraf geinformeerd kan worden, als het onderzoek is afgerond. Ik kan mij voorstellen dat het niet altijd handig is om direct een verdachte te informeren als er gegevens worden bekeken, dat zal met een telefoontap ook niet gebeuren.

Om dezelfde redenen die jij aangeeft willen verschillende landen dat de data van hun burgers in hun eigen land wordt opgeslagen zodat hun eigen recht/wetten hier over gelden.

Dat wij van mening zijn dat de Chinese niet goed zijn, staat los van dat het normaal is dat ze eisen dat de data in hun land staat.
Apple doet wel degelijk alsof ze je privacy heel belangrijk vinden. Hele fancy webpagina hebben ze gemaakt om dat te benadrukken: https://www.apple.com/privacy/

Dus ja, in die zin zou ik zeggen: "Put your money where your mouth is". Van Google en Facebook weten we het nu wel. Die doen ook niet alsof. Apple heeft van privacy ook een marketing punt gemaakt bij het aanprijzen van de laatste iPhone. Hier slaan ze volledig de plank mis. Degelijk ecosysteem, goed dichtgetimmerd (wat zowel positief als negatief kan zijn, afhankelijk van hoe je ernaar kijkt). Bij Android ben je dan al snel aangewezen op GrapheneOS. Prima OS als je een compleet dichtgetimmerde telefoon wil die nada van je verzamelt. Maar de meeste apps erop laten draaien zal toch wat voeten in de aarde hebben.

iOS werkt gewoon, verzamelt veel minder over je op de achtergrond dan Android met Google Play services en is over het algemeen een goed en dichtgetimmerd OS. Heb jarenlang Android gebruikt omdat ik een OS wilde waar je alles zelf kon aanpassen. Nu zit ik toch serieus een iPhone te overwegen omdat het me achteraf niet boeit hoeveel ik kan aanpassen. Ik wil gewoon een telefoon die werkt en die out-of-the-box heel weinig tot niets over me verzameld. Dit soort dingen schaad het "at Apple, we value your privacy" verhaal alleen maar.
ironie: Fundamenteel was dit een systeem om juist je privacy te waarborgen bij het bestrijden van KP.

Voor nu blijven *alle* foto’s onversleuteld bij Apple op de server.
Blijkbaar niet ernstig genoeg voor de FBI om aan te tonen hoe ze bewijs hebben verkregen tegen verdachten van een kinderporno website op het darkweb: https://www.techtimes.com...ing-tor-vulnerability.htm

Maar wees gerust, een random medewerker van Apple gaat straks jouw foto's doorspitten omdat ze een aantal keer geflagged zijn door een algoritme.
Detail: de medewerker van Apple gaat niet zomaar 'random' zijn en hij/zij gaat niet 'jouw foto's doorspitten'. Worst case is dat er minstens 30 foto's van je geflagt zijn als CSAM en dan gaat er iemand binnen een bepaalde afdeling kijken naar een bewerkte (verkleinde?) versie van die 30 foto's om te bepalen of het een false positive match was of niet.
Kindermisbruik is met de komst van internet zeker toegenomen en best groot. en er wordt verbazing wekkend best wel veel gedeeld buiten het darknet om gewoon in whatsapp of e-mail skype. Met het scannen van de foto's voorkom je geen kindermisbruik en van je ook geen nieuwe foto's alleen bestaande bekend matriaal. mocht iemand meer dan 30 foto's hebben wordt dit gecontroleerd en door gezonden naar een meldpunt, die weer op zijn buurt aangiften doet en daar zit het belangrijkste probleem. men krijgt veel te veel aangiften van kleine vergrijpen op het gebied van kinderprono, die allemaal zouden moeten worden onderzocht, het gevolg hiervan is dat men veel minder tijd overhoud om de echt grote gevallen te onderzoeken waar nieuw matriaal wordt verkocht of gedeeld en die personen bevinden zich toch voornamelijk op het darkweb of buiten de normale netwerken.
Het is nog steeds een complex vraagstelling. Veel mensen reageerden hierop zonder precies te weten waar men het over had.

Dit detectie systeem draait momenteel in iedere cloud omgeving. Vaak is dit ook verplicht vanuit de overheid. Apple bracht dit systeem naar het toestel van de gebruiker. Maar enkel als de gebruiker iCloud photo's aan had staan (en dus enkel bij gebruikers die effectief al gescand werden door het systeem). Dit is beter voor de privacy van de eindgebruiker want:
Apple heeft geen directe toegang meer nodig tot de foto's van de eindgebruiker.
Apple krijgt geen informatie krijg tenzij er een echte 'hit' is.

Het systeem staat dus volledig uit wanneer de gebruiker geen gebruik maakt van iCloud...
Maar goed, door alle ophef (en de slechte communicatie van Apple) gaan we nu gewoon weer lekker terug naar direct foto's benaderen....

[Reactie gewijzigd door Verwijderd op 25 juli 2024 21:02]

Beiden zouden niet moeten kunnen. Als er voldoende aanwijzing is dat een persoon kinderporno heeft kan een gericht onderzoek worden gestart naar specifiek die persoon. De privacy van honderd miljoenen ten grabbel te gooien is hetzelfde als je barbecue doven met een blusvliegtuig.

[Reactie gewijzigd door Verwijderd op 25 juli 2024 21:02]

De privacy van honderd miljoenen ten grabbel te gooien is hetzelfde als je barbecue doven met een blusvliegtuig.
Lees mijn reactie: Dit systeem (CSAM) draait al jaren op iedere clouddienst (Google, Microsoft, Apple, Dropbox, etc). De privacy van honderd miljoenen zijn dus nu al 'ten grabbel te gegooit'. Apple bood met dit systeem (enkel actief als je al je foto's naar de cloud upload) een privacy vriendelijkere oplossing.
Dat een bedrijf nu iets doet wil niet zomaar zeggen dat de plaats of de manier waarop ze dat vervolgens ook willen doen dan redelijk is.
Ten eerste blijkt die redelijkheid nog steeds niet uit het gebruik, omdat er tot nu toe niet duidelijk was gemaakt wat men al deed.
Ten tweede is de nieuwe plaats niet zomaar beter als een bedrijf bepaalt dat je dat op je eigen apparatuur en ook met gegevens van anderen moet toestaan, zonder daar verder nog inbreng in te hebben. Het geeft al helemaal niet zomaar meer privacy door alleen de plaats van het controleren te veranderen. Privacy gaat er namelijk ook om dat jij zeggenschap en controle over je gegevens en die van andren hebt. Ja zeggen geeft je nog steeds geen controle over wat men doet, het lijkt zelfs mogelijk nog veel minder controle te geven.
Dat je onwetend bent kan je een bedrijf niet verwijten. Was je geïnformeerd dan wist je dat die scans nu al bestaan. Blijkbaar snap je ook niet goed waarom on-device beter is dan wat we nu hebben.

Je hebt met dat systeem meer controle want in tegenstelling dat al je foto's worden gescand wordt er enkel nog gekeken naar foto's die niet op jouw toestel zijn genomen. Dus er wordt enkel nog gekeken naar foto's waarvan de eigenaar "de privacy" al heeft opgeheven door ze te delen. Zijn het foto's die helemaal niet in de privacy sfeer passen zoals KP dan wordt er pas echt naar de foto's gekeken.
Het gaat er bij weten niet alleen om dat de scan bestaat, maar ook dat je weet wat er precies mee gebeurd. Het zijn namelijk jou gegevens, of van iemand ander, waar jij zeggenschap over hebt, niet die van het bedrijf dat die gegevens wil gebruiken. Iemand toegang geven tot je huis of ander eigendom zorgt er ook niet zomaar voor dat iemand die dat kan dus ook maar alles met je gegevens daarin mag doen zonder jou te laten controleren voor deze naar buiten gaat.

Dat je meer controle hebt of er gescaned mag worden is dus niet zomaar relevanter.
KP valt niet onder iets zoals eigendom of toegang geven tot je huis. Het is materiaal dat verspreid is zonder toestemming van de slachtoffers die er op te zien zijn. Zwaaien met zeggenschap over KP is ridicuul. Je hoort daar niet van in het bezit te zijn. Het is net als AVG die standaard bij besturingssystemen komen. Virussen en malware horen niet op je computer. Niemand heeft er problemen mee dat AVG zonder toestemming al je bestanden gaat controleren om te kijken of het malware is en dit ook gemeld wordt.
Alleen gaat de controle hier over alle soorten afbeeldingen. Waar een bedrijf vervolgens een mening over gaat vormen, zelfs als het geen KP is, en daar eventueel ook strafrechtelijk gevolg aan geeft. Dat die controle nuttig is wil nog niet zeggen dat je dus als bedrijf van alles met die gegevens van andermans apparaat kan doen zonder die te betrekken. Dat het de bedoeling is dat het alleen om bepaalde beelden gaat wil daarbij nog niet zeggen dat die conclussie juist is. Daarbij krijg je bij een goede AVG ook eerst zelf inspraak wat ze met een conclusie doen, net als met iedere software dat iets met gegevens op je apparaat wil doen.
Dan heb je het nog steeds niet begrepen want het gaat totaal niet over afbeeldingen. Moest ik een pedo zijn die geen contact heeft met andere pedo's en nog nooit KP heeft geruild met andere pedo's dan ga ik nog steeds met een iPhone KP kunnen produceren en naar iCloud kunnen uploaden zonder dat er ook maar ergens een alarmbel afgaat. Er wordt dan ook niet gescand op afbeeldingen.

Het is pas als ik mijn KP ga sturen naar andere pedo's of hun verzamelplekken dat die foto's bij gerechtelijke instanties gaan terecht komen en het label KP krijgen. Vanaf die het label KP hebben gekregen wordt er specifiek gezocht naar die bestanden. Maar dat gebeurt echt niet door de afbeelding te scannen want dat is niet nodig. Dat is enkel nodig als er een treshold is overgeschreven en je teveel KP op je telefoon hebt staan dan normaal is. Met normaal bedoel ik dat het mogelijk is dat je per abuis KP kreeg toegestuurd en je totaal niks met KP te maken hebt.

[Reactie gewijzigd door monojack op 25 juli 2024 21:02]

Je blijft vermoedelijk hangen in de gedachte dat andermans mening over wat mogelijk onwettig is pas het uitgangspunt kan zijn. Dat lijkt me niet redelijk als die scans beginnen met de situatie dat onbekend is wat de afbeeldingen zijn. Daarbij maakt een conclusie over een afbeelding nog niet dat die conclusie correct is, dus kan je ook niet zomaar beweren dat de conclussie zorgt dat iemand geen eigendom of verantwoordelijkheid over die afbeelding heeft omdat een bedrijf een mening heeft.
Men controleert hashes. De bestanden die KP zijn en gezocht worden daar hebben gerechtelijke instanties van geconcludeerd dat het KP is. De enige manier dat die afbeelding niet correct zou zijn is als je afbeeldingen zo gaat bewerken dat de hashes overeenkomen met KP. Je nodigt dan dus bewust zelf uit om alarmbellen te gaan doen rinkelen.
Nu ben je argumenten aan het negeren en om kennelijk andermans recht weg te kunnen nemen. Dat een bedrijf iets wil is daarbij geen kwestie van als klant iets uitnodigen. Of men dat nu met hashes controleerd of niet maakt daarbij niet uit, men doet op andermans apparatuur een controle op gegevens waar ze op het moment van controle geen eigenaar van zijn en dus niet zomaar iets mee mogen doen.
Daarbij gaat op dat als jij of een bedrijf iets wil omdat een ander misschien iets heeft wat je goed uit komt, nog geen uitnodigen door die ander. Als zelfs politie pas iets mag doorzoeken en gebruiken bij zware verdenking dan gaat dat op zijn minst op voor een bedrijf dat gegevens van anderen wil doorzoeken op apparatuur van de klant. Dus dat die klant inspraak heeft wat men doorzoekt en vervolgens wil gebruiken. Data laatste was het bedrijf niet van plan, terwijl het wel om zeer gevoelige persoonsgegevens gaat waar een bedrijf niet zomaar even over mag oordelen, ook niet met een hash.
Daarbij zijn er diverse voorbeelden gegeven dat die conclussies niet zomaar redelijk zijn, omdat die databases gemaakt worden door mensen die fouten maken en verschillende meningen hebben. Dan hoort dus weer op zijn minst vanaf het begin de mening van de eigenaar van het apparaat mee te tellen, in plaats van alleen dat van het bedrijf. Zeker als dat bedrijf geen benul heeft of die conclussies die ze trekken wel kloppen.

[Reactie gewijzigd door kodak op 25 juli 2024 21:02]

Ik negeer geen argumenten. Jij manoeuvreert je tussen de realiteit en verzinsels en dat bedoel ik niet gemeen. Wanneer je spreekt over een bedrijf dat op andermans apparatuur controle doet dan zit je in het vak van verzinsels. Je bent geen eigenaar van het besturingssysteem. Je hebt een licentie voor het gebruik van het besturingssysteem. Het toestel is van jou maar het besturingssysteem is dat niet. En laat dat nu net het hart van je toestel zijn want zonder besturingssysteem werkt het toestel niet. Alles wat gebeurt op je smartphone wordt uitgevoerd door het besturingssysteem. Dus nee dat argument houdt geen steek. Maar ik snap dat velen die niet weten of begrijpen en daar is niks mis mee want er zijn belangrijkere zaken in het leven dan weten hoe een smartphone in elkaar zit. ;)
Je negeert het punt dat de gegevens niet van het bedrijf zijn als het bedrijf nog niet eens weet waar die gegevens over gaan en ook niet zomaar rechten aan het bedrijf geven omdat ze mogelijk van pas komen. Een licentie geeft nog steeds niet zomaar recht om maar iets met (persoons)gegevens te doen omdat het uit komt. Het feite dat fabrikanten dat recht al nemen zorgt er niet voor dat het dus maar is toegestaan of zelfs redelijk is. Het ontbreekt daarbij aan het op tijd en voldoende informeren wat een bedrijf doet, terwijl de wet dat op zijn minst bij persoonsgegevens vereist.
Ik negeer het punt dat het bedrijf niet eens weet waar die gegevens over gaan? Huh jij negeert het feit dat die gegevens komen van erkende organisaties die zich bezig houden met het bestrijden van KP. Jij doet het lijken alsof Apple zou samenwerken met een onbekend bedrijfje dat beweert een bestand te hebben met KP maar dat niemand weet of dat wel zo is.

De licentie die je afsluit met de fabrikant van een besturingssysteem laat de fabrikant alles toe. Een app die hen niet bevalt kunnen ze gewoon deleten van je telefoon zonder jouw toestemming. Je bent vast wel vertrouwd met de term "killswitch"?
Ik ga wel degelijk in op je poging een argument te maken van waar die hashes vandaan komen door je uit te leggen waarom het gebruik daarvan niet zomaar relevant is: dat je als bedrijf iets hebt waar je graag op wil vertrouwen en dat je graag iets wil geeft je nog niet zomaar recht.
De grens ligt daarbij bij bevoegdheid, niet bij willen of kunnen.

De licentie maakt het verschil ook niet zomaar, die gaat over waar het bedrijf eigendom over claimt omdat ze het zelf gemaakt hebben, niet waar het dat perse eigendom of meer recht dan een ander over krijgen omdat jij het gebruikt. Je kan niet zomaar recht over controle over jou of andermans persoonsgegevens verliezen omdat een ander daar bij kan. Een bedrijf hoort specifiek genoeg te zijn wat men doet en je op tijd inzage en keuze geven als dat kan gaan om bijvoorbeeld gegevens van anderen. Het feit dat men bij gegevens kan wil niet zomaar zeggen dat de persoon daar eigenaar van is of zeggenschap over heeft. Dat bedrijven dat wel graag aannemen is, zoals bij adresboeken of afbeeldingen, maakt nog niet dat ze het van de werkelijke eigenaren mogen verwerken. Dat daartussen dan gegevens kunnen staan die waardevol kunnen zijn geeft niet zomaar meer recht boven het recht om over die persoonsgegevens te gaan. Daarbij is willen scannen op andermans apparaat de omgekeerde wereld: het is het beginsel van alles is verdacht tenzij. De wet stelt niet zomaar dat verdacht zijn pas onder strenge voorwaarden op gaat. De wet stelt niet zomaar wie controle en zeggenschap over zijn of haar persoonsgegevens hoort te hebben.
Het probleem dat ik met je antwoorden heb en misschien daarom dat je denkt dat ik zaken negeer is dat dit over jouw mening gaat. Jij vindt dat ... en jij vindt dat ... en daarom dus ....

Er is een verschil tussen hoe je vindt dat iets moet zijn en hoe het is. Ik verwijs hier naar je argumentatie over licenties. Die argumentatie houdt geen steek als een feit maar als ik het als een mening lees dan houdt het wel degelijk steek.

Nogmaals: het is niet scannen op het apparaat maar scannen binnen het besturingssysteem. Nogmaals het besturingssysteem is niet van jou.
In de cloud is toch heel anders. Daar scannen ze het op hun eigen computer. Ja, het gebeurt op het toestel alleen met foto's die toch naar iCloud zouden gaan. Maar dat is duidelijk niet de 'endgame' van Apple. Immers, anders hadden ze het toch net zo goed op iCloud kunnen scannen net als al die andere aanbieders?

Bovendien kan je op clouddiensten een eigen laag encryptie toevoegen (bijv. met Cryptomator of Boxcryptor). Apple omzeilt dit door de foto's vooraf al te scannen. Ik doe dit ook standaard omdat ik Microsoft (in mijn geval) niet vertrouw met al mijn privefoto's, en bovendien is het een mooie extra beveiligingslaag.

Voor mij is ook het punt dat er wordt gescand op je eigen telefoon nogal grensoverschrijdend van Apple. Zelfs als het effectief helemaal hetzelfde werkt als op de cloud scannen dan nog vind ik het niet prettig door mijn eigen telefoon gecontroleerd te worden. En dat is ook belangrijk.

Ik weet dat het vooralsnog alleen voor Amerika is en ik heb sowieso geen Apple toestel, maar als er een schaap over de dam is dan volgen er natuurlijk meer. Dus ik zie dit met lede ogen aan.

Ik heb dit soort materiaal natuurlijk helemaal niet en de kans dat het algoritme ten onrechte getriggerd wordt is klein. Dus voor mij zou de praktische impact dus 0 zijn. Maar daar gaat het me niet alleen om. Het is toch van de zotte dat mijn eigen telefoon waar ik een vorstelijk bedrag voor neergeteld heb, continu over mijn schouder zit te gluren? Hier wordt voor mij een onacceptabele grens overschreden.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Als je boxcryptor gebruikt dan wordt de originele foto niet geüpload maar de geëncrypte versie. Ik zou verwachten dat dan die originele foto ook niet gescand zou worden door dit systeem.

Maar ik heb geen verstand van Apple / iCloud, dus wellicht heb ik het mis.
Ik vind dat nogal een groot verschil:

- op last van de overheid, niet een privaat bedrijf
- in de cloud, dus niet op mijn prive eigendom/apparaat

Het is eenzelfde soort verschil als preventief in de openbare ruimte gefouilleerd worden, of bij de ingang van een festival.
Dit is zelfs nog meer als preventief in je eigen huis gefouilleerd worden vind ik.
Ben je wel eens gefouilleerd? Dan gaat er iemand op neuslengte afstand met zijn handen langs heel je lichaam om te voelen wat er onder je kleding zit.

Ik ben ook zwaar tegen dit gedoe maar overdrijven is ook een vak. Daar wordt ik zo flauw van hier op tweakers. Het gaat steeds vaker om stemmingmakerij. Hou je gewoon bij de feiten in plaats van die slippery slope argumenten en dat onderbuikgevoel.
Een telefoon is juist een van de meest persoonlijke apparaten van mensen tegenwoordig. Vaak nog verhullender dan een dagboek.

En ja ik ben wel eens gefouilleerd en ik vind dat net zo onprettig. Helaas wordt dat ook steeds meer gemeengoed (zie nu net in Amsterdam die dat weer lukraak gaat doen zonder aanleiding).

Misschien voel jij het niet zo maar dat betekent niet dat dat voor iedereen zo is.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Zeker. Voor mij wel. In (of met) m’n telefoon deel ik m’n mening, sla ik in m’n leeslijst op wat ik graag nog wel leren of weten, (als ik zo avontuurlijk was) sext ik met meisjes en wat nog meer te bedenken is…

Wanneer ik in m’n blote kont voor een douanier sta voor een controle (hoe onprettig ook!!!) is dat een beeld wat tijdelijk is en waarschijnlijk ook voor de toeschouwer geen feestje ;-) - maar hoe ‘t ook is, is dat even kijken of in geval van fouilleren even voelen en niet uitgebreid door het persoonlijkste device bladeren…
(zie nu net in Amsterdam die dat weer lukraak gaat doen zonder aanleiding).
Het is overigens niet bepaald zonder aanleiding. Eén klik verder vanaf jouw link:
[…]De plannen waren eerder dit jaar al aangekondigd maar leken na kritiek vanuit de raad van de baan. Door de schietincidenten van de afgelopen dagen is daar verandering in gekomen. Zo vonden gisteren en eergisteren twee schietincidenten plaats in de Vechtstraat in Amsterdam-Zuid. Daarbij raakten een 23-jarige man en een 19-jarige man gewond. Beide slachtoffers zouden deel uitmaken van de rapscene. Volgens de politie is er waarschijnlijk geen verband tussen de twee incidenten.

Vanochtend werd in Amsterdam Zuidoost een appartement meerdere malen beschoten. Volgens Het Parool is het de woning van de 23-jarige rapper die dinsdag in de Vechtstraat werd neergeschoten.

Ook de dood van Bas van Wijk werd genoemd tijdens de vergadering. De 24-jarige Van Wijk werd begin augustus doodgeschoten op een strandje in een park in Amsterdam. […]
Het draait bij Apple alleen op email, niet op icloud photos.

Verbaas me ook een beetje over alle luidkeelse mensjes die hier plotseling een probleem mee hebben, terwijl echt exact hetzelfde systeem op de cloud draaien bij MS en google en whatnot. Ooit over een false positive gehoord ? Geloof het niet, maar er zijn wel daadwerkelijk pedofielen van hun bed gelicht.
...terwijl echt exact hetzelfde systeem op de cloud draaien bij MS en google en whatnot. Ooit over een false positive gehoord ?
Uh, ja? Volgens mij zijn er genoeg verhalen op diverse fora over het afsluiten van MS accounts (inclusief Xbox-games en email en whatnot) vanwege een foto van een badderend kind? Zelfs op GoT.
Amper 2 maanden terug nog een heel artikel aan gewijd

reviews: Account geblokkeerd. Wat nu?
Wat is je punt? Dat het al bestaat wil niet zeggen dat het goed is?
Het draait nog niet bij Apple, dat is net het punt, ze willen het implemeneteren.

Maar waar al die andere bedrijven het ook effectief in de cloud doen, wil Apple het lokaal doen. Als ik niet wens dat MS of Google mijn foto's scannen, dan kan ik die dus gewoon uitsluiten van een upload naar hun cloud opslag. Bij Apple gaat het evenwel op het toestel gebeuren.

En dan kan Apple vandaag zeggen: we scannen enkel als je iCloud sync aanzet. Er is evenwel niets dat hen belet van dat aan te passen en altijd te scannen. Zij het met opzet, zij het als een configuratiefout. En als ie die scanfunctionaliteit dan toch eenmaal op een toestel hebt, wat weerhoudt een overheid ervan om Apple te verplichten ook naar andere afbeeldingen te zoeken? Want je kan nu ineens scannen op het toestel zonder dat de gebruiker het kan uitschakelen.
Je hebt dit al verteld en er klopt iets niet in jouw verhaal. De functie moet dan zo geschreven worden zodat het later misbruikt kan worden. Er moet dus al van het begin de intentie zijn om de functie later te misbruiken om ze ook effectief te kunnen misbruiken. Een configuratie fout zal in een error resulteren, de software doen crashen of wat anders maar het zal geen scorebord vullen met nieuw gevonden pedo's want dat zou betekenen dat er infrastructuur is die speciaal gebouwd is om data te puren uit een configuratiefout.
Ik en veel Apple gebruikers willen geen foto scan mogelijkheid in ons iOS op ons toestel. Klaar. Scannen ze maar op hun icloud. Prima.
Toevoeging: er bestaat een risico dat dit systeem tzt uitgebreid wordt met andere zaken die overheden problematisch kunnen vinden (dissidenten, mensen die niet juiste religie aanhangen, etc…). En hoewel Apple aangeeft dat ten minste 2 landen beeldmateriaal als problematisch moeten zien, zullen overheden ook in overleg beeldmateriaal kunnen delen om een match van Apple te krijgen.

[Reactie gewijzigd door MacWolf op 25 juli 2024 21:02]

Da's een slippery slope argument. En ook zonder dit systeem kunnen overheden Apple dwingen om foto's te scannen. Deze implementatie verandert daar op zich niets aan. Elke foto op je iOS device, wordt nu al geanalyseerd om automatisch tags toe te voegen, zodat je makkelijk kan zoeken naar foto's van je hond of kat. In principe kan een overheid morgen ook naar Apple stappen, en eisen dat ze die analyses aanpassen en de resultaten delen.
Dat wil niet zeggen dat ik een groot voorstander van dit idee ben. Maar het is geen eenvoudige materie.
Da's een slippery slope argument. En ook zonder dit systeem kunnen overheden Apple dwingen om foto's te scannen.
Slippery slopes zijn waar de meeste ongewenste situaties uit voortkomen. Probeer in Frankrijk eens naar een restaurant te gaan zonder legitimatie. 2 jaar geleden had je me voor gek verklaard als ik dat voor zou stellen. Maar binnen de context van alle zware covid maatregelen is dit nu een van de maatregelen die de meeste mensen niet zo zwaar valt (mijzelf wel, overigens).

En overheden kunnen dit nu gaan verplichten omdat de techniek er bewijsbaar is. Tot nu kon Apple zeggen "ja maar dat kunnen we niet, die techniek bestaat niet". Nu kan dat niet meer.

Die machine learning inhoud scan is overigens technisch heel anders. Ben ik ook geen fan van trouwens en dit was al iets wat ik niet had gewild op mijn telefoon. Ik heb al geen Apple dus ik weet niet of je dat kan uitzetten, maar voor mij zou dat 100% een reden zijn geen Apple te kopen.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Het probleem met een slippery slope argument is dat het geen argument is. Je kunt altijd bang zijn voor een volgende stap etc. Dat blijkt ook wel want bij elk draadje duikt dit op, of er nou aanwijzingen voor zijn of niet. Nogal vermoeiend, wat je mening ook is.
En overheden kunnen dit nu gaan verplichten omdat de techniek er bewijsbaar is. Tot nu kon Apple zeggen "ja maar dat kunnen we niet, die techniek bestaat niet". Nu kan dat niet meer.
Dit lees je ook bij elk bericht, maar met alle respect, snijdt evenmin hout. Hostingbedrijven over heel de wereld gebruiken dit al jaren, van Google's cloud tot Amazon en van Dropbox tot Microsoft. 'Die techniek bestaat niet' was dus al jaren ongeloofwaardig, zeker met betrekking tot een cloud-omgeving.

Overigens zijn er veel 'praktischere' toepassingen te bedenken voor nieuwsgierige overheden. Scannen van teksten op je telefoon op gevoelige termen etc. Dat zouden allerlei overheden maar wat graag willen. Toch werkt Apple daar niet aan mee. Dus waarom zouden ze dat nu ineens wel gaan doen met deze foto's?

Dat zou heel raar zijn. Dit argument klinkt daarom nogal gezocht.
3 dignen.

1. die bedrijven doen dat met foto's die je bij hun host. Nu wordt de techniek van te voren client side op jouw mobiel gezet, en is de enige reden dat de foto's die naar iCloud de gene zijn die gescand worden, omdat er in 1 regel code staat dat die sync folder de folder is die gescand moet worden, i.p.v. /*. BTW, standaard is de telefoon zo ingesteld om alle foto's met iCloud te syncen, dus nu default is deze scan voor alle foto's op jouw apparaat.

2. De techniek die gebruikt word is wat dubieus. De meeste van dat soort technieken doen aan data hash vergelijken, waarbij 2 bestanden identiek moeten zijn. Maar de Apple techniek gebruikt een neural netwerk om een visuele hash te krijgen, dus dingen die er ongeveer het zelfde uit zien volgens een neural net (en die hebben het nooit mis 8)7 ). En die neural netwerk kan je makkelijk om de tuin leiden. Zo weten we al dat de code base nu al op devices staat, maar niet actief is, en die code base is al gebruikt om te bevestigen dat de hash niet bestand is tegen croppen of roteren, en is er al een kant en klare methode om een match/collision te forceren. Het is nog niet eens actief of het is al mogelijk om iemand onschuldig uitziende foto's te sturen die aangepast zijn om door deze controle als CSAM geflagd te worden.

3. Apple ontvangt zijn hashes op basis van databases van derde partijen, en die zijn zeker niet onfeilbaar. Zo zijn standaard assets van Wordpress al eens in zo'n database beland. De angst is niet eens zo zeer dat Apple akkoord gaat met het insluiten van bepaalde afbeeldingen door druk van regeringen, maar dat deze 3e partijen gebruikt/onder druk gezet kunnen worden om deze afbeeldingen op te nemen.
Dit lees je ook bij elk bericht, maar met alle respect, snijdt evenmin hout. Hostingbedrijven over heel de wereld gebruiken dit al jaren, van Google's cloud tot Amazon en van Dropbox tot Microsoft. 'Die techniek bestaat niet' was dus al jaren ongeloofwaardig, zeker met betrekking tot een cloud-omgeving.
Wacht even, hier gaat het om scanning on-device. Dat bestond nog niet.

Juist het feit dat Apple dit op het device doet terwijl het net zo goed in de cloud had gekund, doet me vermoeden dat ze veel verregaandere plannen hebben hiervoor. Anders is er gewoon geen reden om het zo te doen en alle ophef te triggeren. Een cloud scan hadden ze redelijk ongemerkt in kunnen voeren zoals alle anderen ook gedaan hebben.

Ook vind ik deze stap sowieso een stap veel te ver, slippery slope of niet. Ik weet dat anderen het in de cloud al deden maar ik gebruik dan ook altijd E2E encryptie bovenop mijn cloud diensten (cryptomator is mijn gekozen tool maar er zijn er veel meer)

Maar qua slippery slope vind ik het wel degelijk een argument. Met name door dat het het Overton window verschuift. Door iets als dit te normaliseren, wordt er weer iets ergers uit het ridicule getrokken.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Scanning on device bestond nog niet. Dit is ook de 1e stappen waarbij het systeem verder uitgebreid wordt in een latere fase.

cryptomator thanks for the tip.
Wacht even, hier gaat het om scanning on-device. Dat bestond nog niet.
Als je bijvoorbeeld een zoekopdracht aan in je mail app geeft, gebeurt er praktisch hetzelfde. Als je een voorbeeld wil wat meer grafisch is: gezichten herkennen kan een iPhone ook, zelfs 'live' terwijl je de camera nog aan het richten bent.

Sowieso lopen / sluimeren er tientallen processen, daemons, in de achtergrond, die onderdeel zijn van het normale functioneren van elk *nix-achtig os, waar de doorsnee gebruiker geen idee van heeft. Die staan vaak ook niet veel anders te doen dan dan 'if this than that'. Zo'n daemon kan ook je toetsaanslagen doorsturen of 1x per uur je mail of foto's scannen, etc, etc.

Kortom, deze specifieke combinatie kan best nieuw zijn, maar in technisch opzicht is het allemaal niets nieuws.
De identificatieplicht houdt in dat iedereen vanaf 14 jaar een geldig identiteitsbewijs moet kunnen tonen als de politie daar om vraagt.
Letterlijk de eerste zin. Een restaurant is toch wel iets anders dan de uitvoerende macht van een land. En daarbij ook nog eens dat de politie je niet zonder reden mag vragen jezelf te identificeren.

Voel je er wat voor je om te identificeren aan een 16 jarige bij de Mac voor een paar McNuggets?
Precies... Helaas is dat precies wat nu ze nu in Nederland ook willen :F Kwam toevallig net in het nieuws.

Het gaat me niet eens om de druk van het vaccineren. Ik ben allang gevaccineerd. Maar ook om dat ons leven dan compleet gelogd gaat worden. Overal wordt je QR code gescand. Als je vroeger geen bonuskaart had vanwege privacy? Tja, nu wordt je altijd gescand. Uiteraard wordt dat trackingvoordeeltje ook gelijk meegepakt. Je ID moet er natuurlijk ook bij getoond worden dus ondanks dat de code alleen de initialen en geboortedatum bevat, wordt dat toch allemaal bekend.

Ik heb persoonlijk veel liever dat ze dan gewoon de vaccinatie verplicht maken. Maar ik denk dat het de bedoeling is dat ze die scans ook voor BCO gaan gebruiken. Wel begrijpelijk op zich maar daarmee zijn we wel elke illusie van privacy kwijt. Ik vind dat dit veel te makkelijk wordt opgegeven.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Het klopt dat dat gescand wordt. Echter blijft daar verder geen data aan over, omdat de Corona scanner app geen informatie daar over opslaat. En het ID is beperkt tot een visuele check. Er wordt geen record van gehouden. Niet hetzelfde als de Corona Melder app of het registeren van jezelf bij een gelegenheid via bv een online formulier.

Ja, je moet je legitimeren bij bv een restaurant, maar aan de andere kant is er geen historie. Wel een belangrijke kanttekening wat bij betreft.
Ja de corona scanner app slaat dat niet zelf op.

Maar het is natuurlijk mogelijk om er een appje naast te draaien die dat ff meepakt voor eigen gebruik. Moeilijk te controleren ook. Zelfde met het ID bewijs (de telefoon heb je toch al in de hand als uitsmijter en OCR is simpel).

Juist omdat deze verantwoordelijkheid wordt uitbesteed aan de uitbaters zelf is er geen controle op of dit netjes gebeurt.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Een uitbater van het restaurant om de hoek die gegevens uit mijn ID gaan overnemen en verkopen of zo?
Die gedachte gaat wel erg ver en ik vind dat je dan wel het vertrouwen in de wereld goed kwijt bent.
Een uitbater van een restaurant wil jou een lekkere maaltijd verkopen en de gemiddelde automatiseringskennis is er niet erg groot volgens mij, dus als hij stiekem een foto of kopie wil maken dan denk ik dat de gemiddelde mens dat wel door heeft.

Ik ben overigens wel benieuwd of de scanner app volledig offline werkt en blijft werken en niet de gescande qr-codes toch een keertje verwerkt/doorstuurt bij verbinden met internet. Er staat op de site van coronacheck dat dat niet gedaan wordt, maar met het wat wisselvallige beleid rondom corona zou dat misschien een keer kunnen veranderen.
Het restaurant op de hoek niet. De grotere ketens wel. Dat zijn ook degenen die stiekem bluetooth tracking deden bijvoorbeeld voor dat duidelijk werd (zie de Dixons affaire). Vergeet niet dat het ook voor winkelcentra e.d. bedoeld is.

En ja ik ga er volledig vanuit dat dit uiteindelijk ook opgestuurd gaat worden ivm geautomatiseerd BCO... "U was vorige week bij de McDonalds en daar zat een vermoedde Covid patient dus deze week nog even thuisblijven hoor!". En natuurlijk ook gelijk je QR code op zwart. Beetje China social credit systeem zo.

Ik geef toe dat ik in een redelijk felle hoek zit op het gebied van privacy. Maar "That you're paranoid doesn't mean they're not out to get you!" :)

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Waarbij er sprake moet zijn van een absolute noodzaak om jouw identiteit te kennen. Dat staat letterlijk zo in Artikel 8 van de Politiewet 2012. Al voor het aannemen van deze wet zijn er meerdere rechters geweest die een uitleg hebben gegeven aan deze noodzaak: Pas bij een procesverbaal, controle ivm met het besturen van een motorvoertuig waarvoor een rijbewijs nodig is, of als de burgemeester een noodverordening heeft afgegeven.
Kunnen overheden apple dwingen. In dat geval moet men eerst een systeem daarvoor op gaan zetten.

Het systeem is er nu en als er een systeem is, is het veel eenvoudiger voor overheden om bedrijven te dwingen iets te doen.

Apple stelt het nu uit maar uitstel is geen afstel, het systeem is er alleen gebruiken ze het nu niet. Overheden kunnen apple nu wel eenvoudiger dwingen.

Conclusie heb je geen systeem is dwingen veel moeilijker.
Elke foto wordt nu op je device geanalyseerd, dat klopt, maar de daadwerkelijke analyses verlaten je apparaat niet. Dat is met CSAM wel zo als er een hit is, by design.
En hoewel Apple aangeeft dat ten minste 2 landen beeldmateriaal als problematisch moeten zien
ten minste 2? Dat is toch een argument van niks?
Dus als Noord Korea en Afghanistan (taliban) bepaald beeldmateriaal als problematisch zien...
Volgens mij doet Apple dit omdat China het verplicht.
Tja als we zo gaan beginnen redeneren kunnen we best het ganse internet opdoeken want al de risico's die er gebonden zijn aan het hebben van een internet zijn de moeite niet waard om een internet voor te hebben.

[Reactie gewijzigd door monojack op 25 juli 2024 21:02]

Ja apple gebruikers willen geen halfgebakken porno op hun hardware voorgeinstalleerd al zijn het nog fragmenten van hashes, welk excuus ze ook hebben om je als een bende criminelen te behandelen, zonder dat je een poot uitgestoken hebt. Daar gaat het om. |:(
Sorry hoor maar dan denk ik dat ik als Apple gebruiker dat jij totaal niet beseft wat je zegt. Ik wil niet dat Apple mijn foto's scant en dat wordt net verholpen door het KP scanning op mijn toestel te laten gebeuren. Net door het on-device te laten gebeuren hoeven de foto's die ik genomen heb niet gescand te worden. Geen enkele van je dickpics zal dan nog gescand hoeven worden. Iets wat momenteel nog wel gebeurt. Momenteel worden al je dickpics gescand wanneer ze gekopieerd worden naar iCloud. ;)
Slechte communicatie indeed.

Het bizarre is dat de *andere* feature, waarbij iMessage van kinderen gescand kan worden op ‘blootfoto’s’ en dit dan aan de ouders wordt doorgeklikt, gewoon doorgang lijkt te vinden.

[ed. uit andere bronnen lijkt die ook te worden geschrapt.]

Sure, die is opt-in (door de ouders), maar grijpt imho veel dieper in dan de CSAM scanning.

Ook was het een terminale fout van Apple om ze samen aan te kondigen, want daardoor lopen de beide features in de berichtgeving door elkaar heen (je ziet hier in de comments ook: “wordt de foto van mijn kleine in bad dan aangemerkt als kinderporno?”.

In de nu geschrapte feature niet, maar in de ongeschrapte feature: mogelijk wel!

[ed.] herhaling: uit andere bronnen lijkt ook die feature geschrapt.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Detectiesysteem*** niet "detectie systeem"

Ik begreep het al van bij het begin wegens goed verdiept maar ik ben er gewoon tegen, omdat je foto's toch worden gescand. Hoe mooi het ook klinkt hoe ze het doen, het is gewoon geen goed idee want je blijft scannen.
Risico dat het klanten en omzet ging kosten was kennelijk te groot.
De storm is nu even geluwd. Het is gewoon een spelletje.

Straks maken ze wat kleine tweaks en lanceren het alsnog, en omdat de gemiddelde consument inmiddels over de schok heen is, komt het er alsnog zonder veel gedoe door. Met een beetje 'geluk' komt een andere leverancier nu ook met zoiets en dan is Apple niet de enige meer met on-device scanning, wat ze nog minder in de spotlight zet.

Het zou me niet eens verbazen als dit vooraf zo gepland was. Typisch gebruik van het langzaam verschuiven van het Overton window.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Of om straks zonder tegenstand foto scannen op icloud in te voeren.
Zou kunnen maar dit betwijfel ik eigenlijk. Als dat het plan was geweest hadden ze dat gewoon kunnen doen zonder veel ophef. Immers, alle andere partijen doen dit al. Google, MS, Amazon, Dropbox, enz.

Het is ook een heel andere situatie gevoelsmatig gezien. Niemand vertrouwt de cloud echt (niemand in mijn omgeving in elk geval). Dus het is een bekende factor. Dit tast echt het vertrouwen in de eigen smartphone aan. En juist een smartphone is voor mensen een heel persoonlijk bezit. Alsof je continu je dagboek meesleept.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 21:02]

Het is natuurlijk sowieso dom om te veronderstellen dat een apparaat (bv je telefoon) of de cloud zelf, dat de hele dag met het internet verbonden is, een goede garantie is voor privacy.
Apple had geen andere keus. Hoewel ik best wil geloven in de goede bedoelingen, is het totaal niet te rijmen met de privacy-ambities die Apple heeft. Voor mij persoonlijk is het privacy-aspect van Apple een van de hoofdredenen om voor iPhone te kiezen. Ik was dan ook erg teleurgesteld en vol onbegrip toen Apple dit aankondigde in te gaan voeren.
Juist wel, door het op device te doen kunnen ze voor foto’s naar end to end encryption in de cloud.
Niet alleen dat, dit invoeren zou meer andere ellende opleveren (landen die misbruik van maken voor andere doeleinden to name one thing) dan dat het kindermisbruik zou detecteren.

Want op een enkele idioot na, meeste mensen bewaren dat soort zooi niet in de cloud of op hun telefoon, en zeker niet de grote vissen.

Was dit goed bedoeld? Vast wel, maar het brengt te veel andere risico's met zich mee en datgene waar dit voor bedoeld is lost het niet op (en als je al per ongeluk zo'n enkele idioot ermee oppakt, de risico's zijn het niet waard)

Niet dat ik zeg dat je kindermisbruik niet moet aanpakken (sterker nog ik vind dat ze wet te soft ermee is) maar dat is een discussie voor een andere keer, punt is dat als Apple dit perse wil aanpakken ze deze methode beter links kunnen laten liggen.
'kritisch belangrijke kinderbeschermingsfuncties'

Dit klopt gewoon niet. Je beschermt precies 0 kinderen met deze techniek. Het gaat sowieso al om bekend materiaal. Daarbij, als er video of fotomateriaal is gemaakt heeft het misbruik al plaatsgevonden en is bescherming al niet meer mogelijk.
Advocaat van de duivel: als bestaand kp-materiaal niet meer veilig is voor kp-lovers zorg je er juist voor dat er nieuw materiaal gemaakt gaat worden, waardoor dus juist méér kinderen misbruikt worden!
Vroeg ik me ook af idd. Er is in Amerika ook nooit zoveel gezopen als toen het verboden was door de drooglegging. Toen ging iedereen ook in het geheim z'n drank stoken, wat een groter risico was voor de volksgezondheid dan het normale spul.
Daar zijn denk ik twee kanttekeningen bij te maken (op z’n minst). Het kind dat zichtbaar is op het materiaal zal het erg onprettig vinden dat dergelijk materiaal nog in omloop is. Hoe groter dus de kans dat het materiaal "uitsterft", hoe beter wat dat betreft. Daarnaast kan door een eventuele trigger die richting de autoriteiten gaat de verdachte onderzocht worden. Daarmee is er een kans groter dan 0 dat ze tijdens dat onderzoek nieuw materiaal ontdekken en is de kans ook groter dan 0 dat de persoon in kwestie niet alleen bestaand materiaal bezit maar ook zelf produceert. Daardoor bescherm je dus zeker meer dan 0 kinderen hiermee. Of de bedachte methode daarvoor de beste methode is, waren een hoop mensen het dus mee oneens.
Dat de kans groter is dan 0 is correct, maar als de kans 0.0001 is betekend dat dat iedereen die onderzocht wordt 10 duizend in dit geval er eentje die meer doet dan wat verzamelen. nou gaat er enorm veel uren zitten in alleen 1 onderzoek. Als je dus alle meldingen moet gaan onderzoeken die binnen komen van een keertje op een site geweest tot mailtje ontvangen of weet ik veel met relatief kleine overtredingen moet je enorm veel onderzoek gaan doen, die na verhouding nagenoeg niets opleveren. men kan beter die tijd steken in de gevallen waarvan ze weten dat er veel matriaal wordt gedeeld en gecreeerd. daar worden er relatief veel meer kinderen mee geholpen. Dit zeggen ook de organisatie die strijden tegen kinderporno.
Mooi, wist niks van deze petitie. Hoog tijd dat er nog honderden-duizenden dit tekenen.

Mijn zeer goede vertrouwen in Apple dat opgebouwd is in flink aantal jaar heeft door deze onzin een flinke deuk opgelopen. Erg jammer.
Mijn zeer goede vertrouwen in Apple dat opgebouwd is in flink aantal jaar heeft door deze onzin een flinke deuk opgelopen.

Het systeem dat Apple voorstelde was veel privacy vriendelijker dan de systemen die nu in gebruik zijn (ook bij Apple). Zie ook mijn reactie hierboven. De media koos er echter voor om deze informatie achterwege te laten. Nu blijven we dus gewoon zitten met een systeem dat al onze foto's direct benaderd in de cloud.
Ik weet niet of ik een systeem dat op mijn device alles scant beter vind voor mijn privacy...

Als alles wat je in de cloud opslaat dan kan je een keuze maken of je wel of niet je bestanden wil uploaden.

Gebeurt het op je device dan heb je geen keuze en moet je maar hopen dat die database van Apple ook alleen maar scant op wat Apple zegt dat ze scannen en dat die database geen false positives bevat.

Zoals een andere user al zei, je kan er bijna wel vanuit gaan dat er een hele reeks landen is die meteen bij Apple op de deur staat de kloppen om hun eigen database ook te laten scannen. Wat gaat Apple doen als bv China zegt dat dat er op foto's van tank man gescand moet worden? Waarschijnlijk doet Apple daar niks tegen want het is dat of geen iPhones meer mogen verkopen in China.
Als China op foto's van tank man wil scannen, hebben ze heus dit systeem niet nodig om dat te doen. https://www.cpomagazine.c...ples-privacy-first-focus/
Jawel, want mensen die die fotos hebben zetten dat uiteraard niet in de iCloud in China.
Maar nu scant Apple het op je device.
Nee, je device scant de foto’s, en als ze dan op iCloud komen, dan ziet Apple het pas.

Het enige verschil is waar de hash wordt berekend en vergeleken.

Door het op de telefoon te doen, kan je juist vervolgens alle niet-CSAM foto’s versleutelen, terwijl je toch een CSAM-detectie mogelijkheid hebt.

De puristen zullen zeggen: versleutel gewoon alles, maar de vraag is of Apple dat juist toegestaan zal worden door o.a. autoritaire regimes…
Denk eens even na hoe makkelijk dit misbruikt zou worden in China
Heb je toch een methode om al die fotos van die man voor een tank te herkennen terwijl je vervolgens de andere fotos versleuteld.
Nee, dat is lastiger, want dan moet de overheid de foto’s al hebben.

Ze kunnen nu zeggen: scan icloud foto’s voor alle foto’s van de Dalai Lama, of tankman. Straks zouden ze specifieke foto’s aan de database moeten toevoegen.

En dat is makkelijker door Apple te weigeren (immers, overduidelijk geen CSAM) dan toegang tot onversleutelde bestanden voor “forensische doeleinden”, waar de a chinese overheid zelf in kan vissen..

(ook zou iemand dan meer dan 30 foto’s moeten hebben van tankman…)

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Denk je nou werkelijk dat de chinese overheid de fotos van die man voor de tank niet heeft??????

En Apple kan niet weigeren als daarmee de volledige chinese afzetmarkt verdwijnt. Niet voor niets hebben ze aan China toegegeven om een aparte iCloud te maken.

En als je denkt dat iemand 30 foto's moet hebben van tankman, dan snap je niet wat de technologe inhoud. Er zijn helemaal geen 30 fotos nodig. Lees nog maar eens goed.
Jawel, want daar moet je nog altijd een sync doen naar iCloud. Met deze nieuwe scanning kan men alle afbeeldingen op je telefoon gaan scannen, zelfs als je ze niet in de cloud zet.
Nee. De check wordt uitgevoerd bij upload naar cloud in dit systeem. (Sterker nog, als ik het goed begrepen is dat een 2e hash-check met een ander algoritme, mogelijk tegen de security voucher, om valse hash collisions door mensen die het on-phone algoritme hebben uitgeplozen te voorkomen)

Er komt maar heel weinig ‘bij’ door dit systeem.

(Sterker nog, het zou theoretisch juist e2e encryptie van foto’s mogelijk maken)

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Wat is op de lange termijn dan het voordeel van het scannen vanaf het device? Is het technisch gezien niet veel makkelijker het vanaf iCloud te doen het alleen content betreft die daar opgeslagen wordt?
Ja, dat is vele malen makkelijker.

Maar er is met deze omslachtige methode een voordeel, dat Apple verder niks van je foto’s centraal hoeft te weten.

Als je alle techniek terzijde schuift:
In de huidige situatie geef je een foto aan Apple en die zou dan centraal gaan bewerken. Bvb. kijken of het een plaatje van een hond is. Dit is hoe Google het doet.

Apple heeft, vanwege privacy, gekozen voor decentraal. Het is jouw telefoon/laptop die de analyse doet. Als je een nieuwe laptop hebt en je iCloud fotos ophaalt, staat hij daarom ook uren te stampen terwijl photoanalysisd draait.

Apple ‘weet’ dus niks van de opgeslagen foto’s: het is jouw telefoon die de kennis heeft.*

Door ditzelfde voor CSAM door te voeren, blijven ze in een situatie waar zij als organisatie zo min mogelijk info hebben. Sterker nog, het laat de optie open om de foto’s volledig te versleutelen in opslag op de Cloud (gebeurt nu niet: wat een beetje de situatie creëert dat ze enorm veel sloten op de deur hebben gezet, terwijl het raam open staat)

*veel mensen zeggen dan, maar het is de telefoon van Apple, waarop Apple zal zeggen: nee, het is jouw telefoon.

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Photoanalysisd scant op bijvoorbeeld overeenkomende gezichten, zodat je Fotobibliotheek automatisch weet wie op de foto staat. Dat is heel iets anders dan wat CSAM scanning doet.

CSAM scanning haalt een tabel op met image hashes. Die lijst wordt door opsporingsinstanties aangeleverd. De telefoon scant de foto's niet zoals photoanalisysd dat doet, maar vergelijkt enkel de hash van de foto met de foto's op je apparaat. Deze hashes zijn overigens te spoofen.

Op het moment dat de telefoon 30 of meer foto's vindt waarvan de hash overeenkomt met de tabel, worden de foto's door een medewerker van Apple beoordeeld.

Het niet versleutelen van foto's op iCloud is in het voordeel van opsporingsdiensten, en dat is op zich geen enkel probleem.

Of de foto op het toestel wordt gescand, of op iCloud geeft voor mij en voor veel anderen geen echt toegevoegd gevoel van privacy, eerder het tegenovergestelde. Linksom of rechtsom worden je foto's gescand. Als de scan op je apparaat wordt gedaan, gaan mensen zich afvragen wat Apple nog meer op je telefoon scant. En ongeacht of je het met de privacy strekking eens bent, blijft het een vreemde move van een bedrijf als Apple, dat je in 1 adem met marketing/op klantbeleving inspelen kan noemen. Ze hebben het in ieder geval niet handig aangepakt, en dat zien ze nu ook zelf in.

Mijn vraag is nog steeds, wat de lange termijn strategie is. Met Airtags zijn ze denk ik een weg ingeslagen waarbij ze het apparaat voor nog meer zaken inzetbaar willen maken. Is het on device scanning dan een gevalletje mislukt experiment?
Photoanalysisd scant op bijvoorbeeld overeenkomende gezichten, zodat je Fotobibliotheek automatisch weet wie op de foto staat. Dat is heel iets anders dan wat CSAM scanning doet.
Hoezo is dat iets “heel anders”. Het is “Apple gaat door je foto’s heen”.

Ze doen iets anders met de *informatie*, maar fundamenteel is het niet iets anders *wat* ze met je foto doen.
Gebeurt het op je device dan heb je geen keuze en moet je maar hopen dat die database van Apple ook alleen maar scant op wat Apple zegt dat ze scannen en dat die database geen false positives bevat.
Als je iCloud uit hebt staan, dan doet het system niets...
Het is voornamelijk emotie, niet feiten wat hier gepresenteerd wordt.
Aldus Apple. Maar hoe vaak hebben we al niet gehoord dat ondanks dat bedrijven claimen dat ze iets niet doen, uiteindelijk blijkt dat door een fout of moedwillig het tegenovergestelde waar blijkt te zijn?

Plus dat technisch natuurlijk geen reden is waarom niet alles lokaal gescand kan worden. Ook hier geldt weer, zodra de techniek in het OS zit, wat houd overheden tegen om te zeggen dat Apple op alles moet gaan scannen wat in de door de overheid aangeleverde DB zit?

Zoals andere al hebben aangegeven in verschillende nieuws berichten, er zitten gewoon veel te veel haken en ogen aan dit systeem.

Jij noemt het emotie, ik vind het meer een kijk op wat niet onwaarschijnlijk in de realiteit gaat gebeuren.
Aldus Apple. Maar hoe vaak hebben we al niet gehoord dat ondanks dat bedrijven claimen dat ze iets niet doen, uiteindelijk blijkt dat door een fout of moedwillig het tegenovergestelde waar blijkt te zijn?
Tja, alles in het leven is gebaseerd op vertrouwen. Laat ik een andere vraag stellen: Je vindt het nu blijkbaar prima dat al je foto's zonder enige toezicht gescanned kunnen worden? Man, ze kunnen er zo wat kinderporno tussen drukken en je aangeven (ze hebben immers volledig toegang nodig om te scannen)..

Alle argumenten die je nu opgooit kunnen veel simpeler en vandaag de dag al in de cloud. Denk daar eens over na (dat bedoel ik met emotie).
dan de systemen die nu in gebruik zijn (ook bij Apple)
En hoe werken die dan?
Op precies dezelfde manier als dat iedereen dat doet. Je benaderen al je foto's en maken hiervan een hash. Als deze hash overeenkomt met een hit uit de misbruik database, dan wordt daar actie op ondernomen.
Het probleem is dat Apple jouw eigen apparaat aan het werk zet om bewijs tegen je te verzamelen. Dat is essentieel anders dan dat Apple haar eigen servers scant op foute content.

Het mag in dit specifieke geval dan een tijdelijke privacy verbetering opleveren maar Apple gaat hier een grens over die op de lange termijn wel eens funest kan zijn voor je privacy.

Althans, een hoop organisaties die hier veel meer verstand van hebben dan ik vinden dit een groot risico. Want als Apple hiermee wegkomt, wat let andere fabrikanten en overheden dan om nog veel meer spionage taken aan je telefoon toe te wijzen?
Het probleem is dat Apple jouw eigen apparaat aan het werk zet om bewijs tegen je te verzamelen. Dat is essentieel anders dan dat Apple haar eigen servers scant op foute content.
Hoe is dit anders dan dat de ene de optie biedt om de privacy van de gebruiker te kunnen waarborgen waar het bij het andere systeem niet mogelijk is?

Het mag in dit specifieke geval dan een tijdelijke privacy verbetering opleveren maar Apple gaat hier een grens over die op de lange termijn wel eens funest kan zijn voor je privacy.
Dus je zegt dat Apple wat goed doet voor privacy maar dat dit enkel tijdelijk is.... :?

Althans, een hoop organisaties die hier veel meer verstand van hebben dan ik vinden dit een groot risico Ieder beetje journalist geeft twee kanten van het verhaal. Ik heb nog niet een goed artikel gelezen, het is allemaal hype, hype. Ik heb ook nog geen instantie gegrond uitleg hier over horen geven...
En in verhouding met hitler valt elke huidige dictator wel mee, right?

Het feit dat ze dit op een betere manier doen als andere, betekend niet dat het zomaar geslikt moet worden, en dat we het maar moeten accepteren.
Nooit de CentiPad aflevering van Southpark bekeken?
Er is niets te vertrouwen aan dat bedrijf, behalve dat ze goeie hardware leveren met een systeem dat altijd werkt (zolang je het wil gebruiken zoals Apple dat bedoeld heeft....samen met andere Apple producten)

De voorwaarden die ze stellen met betrekking tot garantie zijn gewoon in strijd met de wet.
Volgens Apple ben je overigens geen eens eigenaar van je eigen MacBook. Modificaties (zoals het plakken van een sticker) zijn volgens Apple een breuk van het contract. Alles automagisch de cloud in, privacy en security zijn onhandige obstructies die met een 100 pagina's tellende EULA gewoon buiten spel worden gezet. Ja, je bent tenslotte akkoord gegaan...
En dat is de reden dan ook dat er bij mijn geen @pple in huis komt.
Al die uitvluchten van terrorisme/kindermisbruik/geweld zijn in mijn ogen niet aan hun dit te doen, maar aan justitie met een goedkeuring van een rechter.
Wat gebruik je dan wel? Denk je dat Google dit soort scanning niet doet? En Facebook? En alle andere grote spelers?
Ik ga wel akkoord dat CSAM en terrorisme vaak als excuus gebruikt worden om privacy overboord te gooien, maar als je de technische details van deze implementatie bekijkt, denk ik niet dat dat hier de motivatie van Apple was. Ze kunnen nu al aan al je foto's (op hun devices).
Geen smartfoon in ieder geval en dus gelukkig geen WA en ik heb ook nog een vaste lijn (geheim nr dus ook niet zichtbaar en vindbaar) die ik gebruik.
Google komt ook niet meer op mijn pc, enige waar ik ook niet aan ontkom, is YT, maar goed daar log ik niet in.
En aangezien meneer @pple bepaalt wat jij met je telefoon doet, verdwijnen die gelijk de vuilnisbak in, daar horen die thuis met hun mentaliteit en voorwaarden. Iets wat ik koop, is van mij !
En de rechter bepaalt dat er in mijn telefoon gekeken kan worden of mijn pc, niet @pple

[Reactie gewijzigd door GameNympho op 25 juli 2024 21:02]

+1 ik kan je reactie beamen. Helemaal mee eens.
Daarom zie ik ook altijd macbooks vol met stickers, wat zijn die mensen toch een boefjes. Denk dat ze binnenkort allemaal opgepakt worden...
Modificaties (zoals het plakken van een sticker) zijn volgens Apple een breuk van het contract.
Daar heb ik nog nooit van gehoord, heb je een bronvermelding?
Eh. De aanschaf van een Macbook is een koopovereenkomst, geen licentie.

Op zijn allerhoogst zou Apple kunnen stellen dat een sticker je recht op garantie doet vervallen (zoals andere hardware-wijzigingen), maar reken maar dat dat geen moment stand houdt bij een rechter.

En er is mij ook geen enkel geval bekend. Weet je zeker dat je het niet op De Speld hebt gelezen?

(Even aanname dat je de sticker niet frontaal op de monitor hebt gelijmd met superlijm)

[Reactie gewijzigd door Keypunchie op 25 juli 2024 21:02]

Volgens Apple ben je overigens geen eens eigenaar van je eigen MacBook. Modificaties (zoals het plakken van een sticker) zijn volgens Apple een breuk van het contract.
Citation needed. Want dit is niets anders dan FUD verspreiden. Je kunt Apple van een hoop betichten, maar dit is gewoon onzin. Of heb je dit ook uit South Park?
Ze bouwen een backdoor in, wat nu nog onschuldig lijkt maar gezien zulk soort functionaliteit er dan toch is er met een court order echtwel naar andere dingen gezocht kan worden. De telefoons staan gewoon local te scannen en hashes te genereren om deze vervolgens af te wegen op een door Apple verzorgde lijst, die niemand eigenlijk weet.

Ik vindt dat het totaal niet op apple telefoons terecht moet komen. De ooit zo vrijvechter van privacy en toestanden gaat in 1 klap in de grabbel. Ik heb IOS updates uitgezet; IOS15 komt er niet bij op. Ik heb niks te verbergen maar onder het mom dat mijn telefoon hashes gaat staan vergelijken gaat mij gewoon tever. Als apple doorzet root ik het apparaat en zoeken ze het maar uit.
Als we surveillance op onze apparaten willen, waarom implementeren wij dan ook niet een Great Firewall in het Westen? Het is immers ook een volledig geautomatiseerd systeem, en checked eveneens een database van kwaadaardige websites. En waarom ook niet directe surveillance op servers? Met beheer van client, netwerk, en server, hebben we als samenleving een totale oplossing om te voorkomen dat mensen gekke dingen doen. Overigens is alles vrijwillig. Als je er niet aan wilt deelnemen, koop dan geen smartphone. Gebruik geen internet services. Wilt u wel even inloggen op DigiD voor uw overheidszaken? Vergeet ook niet Internet Bankieren alvast te hebben, want contant geld kan binnenkort echt niet meer. En wil je werken? Zorg dat je wel mee kan doen aan web conferencing in deze pandemie-tijden.
/s

Eigenlijk is het een verschrikkelijke gedachte dat ooit het APRANET opgericht was om mensen te helpen overleven in een nucleaire oorlog, maar dat we het steeds meer langzaam zijn gaan omarmen als een surveillance technologie. Het is net alsof je een medicijn ontwikkelt om je te beschermen, en nu vervolgens het tweaked om je te verlammen.
In je post staan 2 woorden die de kern raken.

Je schrijft "als samenleving". Dat is precies het probleem.

Want Apple is geen samenleving. Apple is een gigantisch machtig commercieel ICT-bedrijf. Zij gedragen zich niet democratisch, ze hebben geen regering, je hebt nauwelijks invloed, ze hebben zelfs graag zo min mogelijk contact met hun "burgers" (klanten). Daar zijn ze niet op ingericht, ze kunnen het zelfs niet aan. Het is zeer beslist géén samenleving.

Dergelijke bedrijven zijn een gevaar voor de democratie. Ze zijn een staat binnen de staat, maar de naam "staat" zijn ze niet waard, want ze missen de meeste kenmerken van een deugdelijke staat. Als je het al een staat zou willen noemen, moet je het een dictatuur noemen, waar je als klant wel of niet aan meedoet als je voor het eerst JA zegt tegen de voorwaarden.

Een goed functionerende rechtsstaat heeft justitie, OM en politie om zijn burgers te controleren, op te sporen en voor het gerecht te slepen. Die macht is door de burgers zelf (de kiezers) aan deze instanties gegeven, en diezelfde burgers kunnen die macht weer afnemen. Dit is in enkele woorden wat we in Nederland doen en zoals het hoort. Het is de beste manier. Er is door onafhankelijke deskundigen (geen bedrijf) over nagedacht, gediscussieerd, er zijn oorlogen voor gevoerd om die vrijheid te hebben over HOE je je burgers opspoort en controleert. Er zijn boeken over geschreven, studies gedaan, al tientallen/honderden jaren, studies die het beter beschrijven - ik weet op dit moment geen betere uitleg. Zie ook mijn andere posts in deze draad.

Maar ik maak me niet druk meer. Ik heb het opgegeven, deze wereld is ziek. En net als mensen die het op een andere manier opgeven, geeft het rust als je het eenmaal hebt opgegeven. Ik heb vannacht goed geslapen.

[Reactie gewijzigd door Farmeur op 25 juli 2024 21:02]

Lees het substack artikel van Snowden hier eens op na.
Grondig met hem eens: mijn hardware en dus niet tot Apple zijn beschikking om
wat voor zaken voor hun te regelen.

Op dit item kan niet meer gereageerd worden.