'Apple-medewerkers uitten kritiek op fotoscan voor opsporen kindermisbruik'

De fotoscanfunctionaliteit van Apple om materiaal dat wijst op kindermisbruik op te sporen krijgt felle kritiek uit eigen gelederen, blijkt uit een verslag van Reuters. Onder medewerkers zou er veel discussie zijn over de technologie sinds de aankondiging.

Bronnen binnen het bedrijf die anoniem wilden blijven, hebben tegenover Reuters laten weten dat er 'in de interne Slack van Apple meer dan 800 berichten zijn uitgewisseld over het plan dat vorige week werd aangekondigd'. Veel medewerkers zouden hun zorgen hebben geuit over hoe de functionaliteit kan worden ingezet door autoritaire regimes om te censureren en tegenstanders te arresteren.

Apple kondigde de nieuwe functionaliteit begin deze maand aan voor iOS en iPadOS. Het gaat om de zogeheten csam-detectie waarmee Apple materiaal dat wijst op kindermisbruik, wil opsporen. De fotoscan gaat hashes van lokale foto's op iPhones en iPads vergelijken met hashes uit een database met foto's van kindermisbruik. Apple heeft zelf beloofd de technologie alleen te gebruiken voor het opsporen van kindermisbruik, maar tegenstanders zijn daar niet gerust op.

Volgens de bronnen waar Reuters mee sprak, is de interne discussie heviger dan vorige keren dat Apple nieuwe securitymaatregelen introduceerde. Naast de zorgen over wat er gebeurt als de technologie in verkeerde handen komt, zijn sommige medewerkers ook bang dat Apple door deze keuze zijn reputatie op het gebied van privacybescherming kwijtraakt.

Verschillende privacyorganisaties hebben al hun zorgen geuit over het scannen en schreven een brief waarin ze Apple oproepen de plannen voor de fotoscan niet door te zetten. Apple wilde tegenover Reuters geen reactie geven.

Door Robert Zomers

Redacteur

13-08-2021 • 07:44

424

Reacties (424)

424
381
139
42
1
196
Wijzig sortering
Apple's AI en privacy impact assesment is hier wat mij betreft klassiek mis gegaan.

Vaak zie je dat de korte termijn voordelen goed worden gezien, maar de lange termijn nadelen minder goed worden gewogen. In dit geval gaat het dan om twee dingen:
- De precedentwerking die hiervanuitgaat. Als Apple dit doet, wordt de drempel lager voor anderen om dit ook te doen (bedrijven en overheden), maar op een minder afgebakende en privacy respecterende manier.
- Aansluitend versterkt dit de normalisering van surveillancecultuur. Kinderen groeien nu op in een wereld waarin ze zich continue gesurveilleerd voelen, en ook niet anders weten dan dat hun gedrag altijd wordt beoordeeld. De schade die dat doet is moeilijk te quantificeren, waardoor het wat mij betreft vaak te weinig gewicht krijgt. Zelfs als het systeem perfect zou werken en niet langzaam uitgebreid zou worden, dan nog zou dit negatieve effect blijven. Er is ondertussen genoeg onderzoek naar de negatieve effecten van panoptische situaties op mensen.

Hetzelfde patroon zagen we bij Google's FLOC, waarbij het op de korte termijn goed klinkt, maar het grote plaatje is dat surveillance businessmodel in core tech wordt verankerd en cultureel wordt genormaliseerd.

Dit is waarom het zo belangrijk is om menswetenschappers (ethici, ethnografen, sociologen, psychologen) in de tech- en startupwereld te krijgen. Zij zijn gespecialiseerd in het doorzien en wegen van deze risico's.

[Reactie gewijzigd door unfold op 22 juli 2024 20:41]

Dat een producent van computerapparatuur tot in je spullen kan kijken is w.m.b. het ergste. Je weet nooit wanneer je wordt geobserveerd en/of dat dit altijd het geval is. Bovendien is het geen applicatie die je even kan verwijderen.

Dit komt voor mijn gevoel te dicht bij de voorspelling 1984 van George Orwell. Waar mogelijk ga ik voortaan voor een open source oplossing waarbij ik zelf kan bepalen of ik beloerd wil worden.
Dit komt voor mijn gevoel te dicht bij de voorspelling 1984 van George Orwell. Waar mogelijk ga ik voortaan voor een open source oplossing waarbij ik zelf kan bepalen of ik beloerd wil worden.
We gaan veel verder dan George Orwell's 1984 voorspelde. Overal in de publieke ruimte hangen camera's en steeds vaker met met gezichtsherkenning, om te beginnen de boven de wegen (ANPR-camera's) maar ook, en met name op bus- en treinstations, in de bussen zelf, in uitgaansgebieden, aan de deuren en in winkels. Voorlopig is dat alleen nog maar de publieke ruimte ... voorlopig.

Getracked wordt je ook in winkelstraten, en in winkels door middel van je mobiele telefoon (3G, 4G, 5G) Wi-Fi, die niet meer is uit te zetten, bluetooth-signaal enzovoorts. Je mobiele telefoonprovider, Google en Apple weten continu waar je bent, ook thuis. Apparaten als Amazon's Echo Smart speaker, Apple Homepod, Google Nest, assistenten-apps zoals Alexa, Siri, Cortana, Google Assistant. Bixby, ze luisteren continu mee.

Als tiener had ik een abonnement op het tijdschrift KIJK, en één van de artikelen destijds (het kan uit 1984 zijn geweest, maar ook ouder) ging er toen al op in dat we steeds minder privacy hadden. Daar werd min-of-meer in voorspeld dat we mogelijk over een tijdje allemaal in een volledig glazen huis zouden wonen, waarbij je dus van buitenaf steeds zichtbaar bent, ongeacht waar je je in huis bevind.

In feite is dat glas al helemaal niet meer nodig, we halen gewoon steeds meer camera's en microfoons in huis, en hangen die aan de servers van de NSA (of FBI voor inwoners van de USofA), GQHC,AIDV, EU INTCEN, JESS, MSS, FSB, Mossad enzovoorts.

Denk niet dat de landen hun burgers gaan beschermen tegen spionage door buitenlandse mogendheden, daar hebben ze geen enkel belang bij, integendeel. Vrijwel alle landen zitten in groepjes die dit soort data met elkaar deelt. Heeft de eigen inlichtingendienst geen bevoegdheid om een groep burgers, of een individu te bespioneren, bv omdat er noch verdenkingen, noch aanwijzingen zijn dat die ergens bij betrokken is, voor die buitenlandse dienst geldt die beperking al helemaal niet, omdat die toch al buiten de lokale wet opereert. Mocht de spionage toch uitlekken, dan geldt diplomatieke onschendbaarheid, en volgt in het ernstigste geval uitwijzing van de betrokken "spion". Alleen als de spion afkomstig blijkt te zijn uit een land buiten dat groepje, en het betreft gevoelige (bv militaire) data, dan zal men proberen te vervolgen, maar ook dan komt men meestal pas in actie nadat de vogel is gevlogen.

Alleen als regeringsfunctionarissen en de regeringsleiders zelf doelwit blijken te zijn, staat men op de achterste benen, maar sancties volgen zo goed als nooit. Incidenteel wordt dat laatste uitgebreid naar journalisten.
Het grootste probleem wat ik hiermee heb, is dat de gebruiker helemaal nergens van op de hoogte wordt gesteld. Dus bij een false positive (meerdere false positives dus, in dit geval) heb je straks de politie of de FBI aan de deur, terwijl je werkelijk geen flauw idee hebt waar het over gaat. Die false positives gaan geheid komen. Of mensen gaan iOS-gebruikers een hak zetten door ze met opzet 'verkeerde' foto's te sturen, die (als de instellingen op standaard staan) automatisch in iCloud worden opgeslage. Dus er gaan straks onschuldige mensen aan hun partner/buurman/kinderen moeten uitleggen waarom de politie hun telefoon wilde onderzoeken. Ik vind dat erg kwalijk.

De meeste mensen zullen goede bedoelingen hebben, dus waarom stelt Apple niet eerst de gebruiker op de hoogte van een match? Je apparaat kan toch gewoon een notificatie doen dat foto x een verdachte foto is? Als er echt iets mis is met de foto, dan kan het apparaat aangeven dat die foto niet kan worden gedeeld en binnen x dagen verwijderd dient te worden van het device. Als je dat niet doet, dan word je gerapporteerd. Het gaat er uiteindelijk om dat het materiaal uit de roulatie raakt, dat is belangrijker dan alle 'gebruikers' oppakken en vervolgen, toch?

Het geeft ook aan dat we helemaal niet moeten willen dat een device voor je uitmaakt of je ergens aan schuldig bent of niet. Want je kunt wel een verklaring geven en de politie kan constateren dat het inderdaad onschuldige foto's zijn, maar daarmee is je privacy al geschonden (ik zou mijn foto's beslist niet aan een politieagent willen laten zien, daar heeft hij/zij helemaal niks mee te maken) en je buren hebben hun oordeel al klaar. Je blijft toch altijd die buurman waarbij de politie op de stoep stond...

Maar het is altijd nog beter dan wat Microsoft doet. Daar wordt gewoon je account afgesloten en daar is niks meer aan te doen. Dus je bent je e-mailadres kwijt plus alle dingen die daarachter hangen, inclusief gekochte apps en games, en je komt er nooit achter waarom dat is gebeurd.
Orwells "voorspelling" betrof een politiek systeem en een maatschappij-ordening waar de overheid elk aspect van het menselijk leven bewaakt en controleert, in zijn boek komt daar nauwelijks technologie aan te pas.

Het is nu inderdaad eenvoudiger dan Orwell het bedacht had, om elk aspect van het menselijk leven te bewaken/controleren. Maar het daadwerkelijk gebruiken van de technologie door een overheid om dat te doen op een manier zoals Orwell in gedachten had, zie je alleen maar in autoritaire staten - zie een land als China dat vandaag beter dan de Sovjet-Unie van Stalin (tijdsgenoot van Orwell) het maatschappijbeeld van 1984 in de praktijk heeft gebracht.

Wat niet betekent dat er geen gevaren zijn als delen van "democratische overheden", ver weg van democratische controle, allerlei aspecten van het dagelijkse leven gaan "monitoren en controleren".

Verder moet je ook geen amalgaam maken van "spionage door buitenlandse mogendheden" en "privacy", dat lijken mij twee onderwerpen van een andere orde. Als onze privacy bedreigd wordt, is dat heus niet door spionage, maar eerder door een onzorgvuldige of te "gulzige" overheid, of door onzorgvuldige, of "te gulzige" bedrijven.
Machtsblokken komen en gaan. Die van Amerika gaat nu. Ben benieuwd wat voor een invloed China over 20 jaar over Europa/Nederland heeft. En wat er dan als normaal beschouwd wordt.
Ze kijken niet in je spullen. Je moet het vergelijken met detectiepoortjes in de winkel. De winkelier kijkt pas in je tas als het signaal af gaat. De poortjes staan constant aan maar geven pas een signaal af als er een illegaal artikel gevonden wordt.
Ja en nee, ze kijken dus wel in je tas alleen met een peperkte resolutie (zit er een securitie tag in of niet). Het feit dat apple in je telefoon (of iig naar de content op je telwfoon) gaat kijken is een probleem. Dat wordt een glijdende schaal. Hash van "mien kampf " toevoegen, terroristisch kookboek, die lijn gaat steeds verder opschuiven. En regeringen zullen ook zaken gaan eisen. Als je nog iphones in land X wil verkopen willen we ook dat je kop materiaal Y scannend. Tot nu toe kon apple nog zeggen dat se dat niet konden, maar nu niet meer....
Apple gaat niet in je telefoon kijken. Het algoritme staat op je telefoon en de database staat op je telefoon. Je telefoon maakt lokaal een hash en vergelijkt die met de lokale database. Na meerdere positieve matches krijgt Apple een signaal waarna medewerkers a.d.h.v. de hashes kunnen zien welke illegale foto's jij op je telefoon hebt.
En werkelijk niemand lijkt zich af te vragen of dit wel een taak voor Apple is. Ze schuiven dus op van producent naar opsporingsinstantie. Lijkt mij een ontwikkeling waar we eens heel goed over moeten nadenken voordat we er mee aan de slag gaan. Terugdraaien is in dit soort situaties vrijwel onmogelijk gebleken.
Apple doet niets aan opsporing. Ze doen daarmee enkel aan signalering waarna ze opsporingsdiensten inschakelen als ze onwettig gedrag vermoeden. Dat doen bijna alle bedrijven. Dat doet de campingeigenaar, de hoteleigenaar, de winkelier, je werkgever en ook de techreus.
Juist door de manier hoe Apple het implementeert is het geen opsporing.
Wat dus in feite opsporing is… officieel zal dit nooit in Europa mogen worden ingevoerd ivm gdpr avg wetgeving.. maar dat is zo met een update aan te passen…
Apple doet enkel een aangifte wanneer ze zichzelf hebben overtuigd
Lees dat zinnetje nog eens terug. Dat is precies het gevaar hier.
Interessant dat je het gegeven dat een Apple medewerker in jouw foto's kijkt als iets positiefs brengt.
Apple checked alle foto's die je maakt. Punt. Voor de rest kun je er een heel verhaal omheen maken maar het blijft niet cool. Privacy => weg
Die 1 op kans is een puur marketing term. Dat moet in de praktijk nog blijken. Ik hoop trouwens dat Apple beseft welke inbreuk ze maken en tegen welke kosten. Als dat doordringt stoppen ze dit idiote plan.
Wat maakt dat zelfs medewerkers van Apple kritiek uiten mbt dit voornemen.
Dat is eigenlijk de klemtoon van dit bericht. Ook Apple personeel vind dit zorgelijk. Nu klinkt het nog nobel vanwege kindermisbruik.
Bytemaster, je bent wel heel erg naief. Zie de voorbeelden van Microsoft.
Tweakers heeft er een heel artikel aan gewijd:
reviews: Account geblokkeerd. Wat nu?

Dit gaat Apple nu doen op het toestel van de gebruiker, de data die daar opstaat is eigendom van de gebruiker. M.I. Een private partij gaat snuffelen in data op hardware van in eigendom van een prive persoon. Dat ze dat opdoen van hash vergelijking... Dat doet microsft ook op skydrive, we zien wat daar van komt.

Je kunt de klok er op zetten dat het fout gaat.
De discussie gaat er juist om dat Apple het op een hele andere manier doet. Dat is het probleem in deze discussie. 95% van de verontwaardiging komt voort uit het niet lezen/niet begrijpen van het systeem zoals Apple het gaat toepassen maar vervolgens wel het hoogste woord in de discussie hebben. ik snap heel goed dat mensen het niet acceptabel vinden. Ik ook niet, maar de discussie erover moet wel op basis van correcte info gevoerd worden.
Ten eerste: Microsoft en Google analyseren de foto op inhoud en bepalen vervolgens zelf of een foto door de beugel kan of niet. Een peuter in bad kan dus tot een signaal leiden. Bij Apple wordt het gecheckt tegen bekende misbruikfoto's.
Ten tweede: Apple gaat niet voor eigen rechter spelen. Nadat er 30 foto's zijn gevonden die matchen met de database met misbruikfoto's én er een menselijke check erop is uitgevoerd, wordt er een signaal gestuurd naar de autoriteiten. Die bepalen dan wat er vervolgens gebeurt. Er worden geen accounts afgesloten en niemand verbannen zolang er geen gerechtelijke schuldigverklaring ligt.
Daar kun je tegen zijn, maar het vergelijk met het systeem van Microsoft slaat echt nergens op.
Het gaat niet om die 1 op een biljoen, al was het een biljoen tot de biljoenste macht. Het principe klopt gewoon niet. Ik snap er werkelijk niets van hoe dit gedrag goedgepraat kan worden. Uiterst, uiterst laakbaar gedrag van Apple.
Dan hoeven ze nog niet voorop te lopen. Ze kunnen ook wachten tot die wetgeving er daadwerkelijk is en dan het absolute minimum doen. Precies dat wat ze nu met bijv. "right to repair" en ander consumentenrechten doen. Pas handelen als de regelgeving er is en dan nog maar het minimale doen om aan de wet te voldoen.

Zitten we ook nog met wetgeving in verschillende landen. Niet geheel theoretisch. Ik heb foto's van mijn kinderen in bad. In Nederland toegestaan in Amerika niet. Ik reis naar Amerika. en op dat moment ben ik dus aantoonbaar de wet aan het overtreden en mag dus opgepakt en berecht worden. Mag ik hopen dat ik die foto niet in de familie groepsapp hebt gedeeld anders krijg ik ook nog een aanklacht voor het verspreiden van kinderporno.
En stel dat ik kinderporno op mijn telefoon heb. Apple herkent het en kopieert de foto naar hun eigen server. Pas als ik boven de treshold kom, word ik gerapporteerd. Apple bewaart tot die tijd de "foute" foto's.

Dan is Apple dus zelf in overtreding, domweg omdat ze zelf ook kinderporno in bezit hebben.

Bezit = strafbaar

[Reactie gewijzigd door P_Tingen op 22 juli 2024 20:41]

Het is wellicht juridisch gezien geen opsporing, maar feitelijk gezien wel. Alleen in dit geval doet Apple het in plaats van het OM. De juridische werkelijkheid loopt bij tech vaak achter - dat betekend helaas dat soms een wet wel wet is, maar niet ‘recht’ (of ‘juist’) is.

Ik begrijp ook niet dat veel mensen hier zo OK mee zijn. Zou je het dan ook goed vinden als je huisbaas elke dag je woning binnenkomt en al je spullen doorzoekt naar illegale dingen, en als hij iets vind, aangifte doet?

Het scannen op naaktfoto’s en het op de hoogte stellen van ouders is ook problematisch. Oppervlakkig gezien alleen maar goed, maar dan krijg je dus wel dat als jouw 15 jarige dochter foto’tjes uitwisselt met haar 15 jarige vriend, ze geconfronteerd worden met deze meldingen en dat hun ouders op de hoogte gesteld worden. Dat moet je niet willen, kinderen hebben ook een recht om zichzelf te ontplooien zonder zich continu onder surveillance te bevinden. Seksuele ontwikkeling (met leeftijdsgenoten) is een essentieel deel van het volwassen worden, en het zal heel schadelijk zijn om dat kinderen af te nemen. (Hiermee bedoel ik niet het scannen op kinderporno, maar het scannen op elke foto met ‘naakt’ content wanneer deze verzonden of ontvangen worden door een minderjarige.) ook weer met oog op de precedentwerking; blokkeren en melden we straks ook sexting onder jongeren? En wanneer gaat een ‘flirt’ te ver?

De overbescherming van kinderen kan er op lange termijn voor zorgen dat deze mensen straks niet goed in staat meer zijn om zelf te functioneren. Dat merk je misschien niet in de economie of andere vooruitgang, maar dat kan je zeker gaan merken in steeds meer mensen met depressie, angst en andere soorten stoornissen. (En ja, dat heeft met elkaar te maken. Ik heb jaren last gehad van een angstoornis en dit was rechtstreeks veroorzaakt door een overbeschermde jeugd)

[Reactie gewijzigd door BurrowedLurker op 22 juli 2024 20:41]

Je haalt twee systemen door de war. Ten eerste is er de CSAM scanning op basis van de hashes. Dat komt feitelijk wel hetzelfde neer als mijn huisbaas-vergelijking. Je telefoon weet welke foto’s kinderporno zijn, kijkt je foto’s door, en als het er eentje herkent dan doet het aangifte. De fysieke analogie is dat een huisbaas weet wat een cocaine pil is, je woning doorspit, en als het een cocaine pil ziet er daar een aangifte van doet. Dat Apple niets ziet klopt (tot detectie), dat komt omdat technologie vernuft is, dat kan fysiek uiteraard niet. Maar praktisch gezien maakt dat niet uit, want het scannen gebeurt wel NAMENS Apple en DOOR software VAN Apple.

Het tweede systeem, waar ik het over heb, is dat bij minderjarige gebruikers ELKE foto die ze ontvangen of versturen (lokaal door je telefoon) gescant wordt door een AI en wanneer het detecteert dat dit een naaktfoto is, deze blokkeert. De minderjarige gebruiker krijgt dan een pop-up waarin ze gewaarschuwd worden met de vraag of ze het ‘toch’ willen bekijken. Als ze dat kiezen, dan krijgen ze de foto te zien, maar dan worden de ouders ook op de hoogte gesteld dat hun kind een ongepaste foto heeft geaccepteerd.

Dat allemaal terzijde voelt het vanuit een privacy standpunt echt absurd dat jouw EIGENDOM (ongevraagd en onzichtbaar) kan meewerken aan jouw vervolging. Kinderporno is altijd de manier waarop deze systemen geïntroduceerd worden, want wie kan er nou tegen zijn? Maar het is natuurlijk echt super eng.

[Reactie gewijzigd door BurrowedLurker op 22 juli 2024 20:41]

Dus jij stelt dat Apple:

- Niets ziet
- Niets doorzoekt

Hoe vinden ze dan precies kinderporno volgens jou? Wie doorzoekt het dan wel? Volgens jou dus een algoritme. Van wie is dat algoritme dan? Van jou? Van jouw iPhone?

Nee, dat algoritme is van Apple. Dus: Apple doorzoekt jouw telefoon. En als dat algoritme een match (of een false positive) vindt, dan krijgt Apple het WEL te zien en wordt het door een mens beoordeeld, al voordat ze aangifte doen.

Het is bijna alsof jij een algoritme als een levend ding beschouwt dat opereert buiten de verantwoordelijkheid van Apple, wat absurd is. Apple ontwerpt, programmeert en stelt het algoritme in werking. Het is geen 'kracht van bovenaf' of zo.

Ik ben echt heel pro-Apple en ben gewoonlijk een fan van wat ze doen qua privacy, maar wat mij betreft zijn veel mensen (waaronder jij) wat dit betreft echt niet kritisch genoeg.

De vergelijking met een virusscanner gaat ook niet op, want ten eerste is dat software die je zelf installeert omdat je gebruik wilt maken van de dienst. Dit algoritme van Apple wordt ongevraagd gepusht. En ja, je kan de software update weigeren, maar dat is geen realistische optie - Apple zou niet de macht moeten hebben om je te dwingen te kiezen tussen of surveillance of software updates. Daarnaast scant een virusscanner alleen op bestanden die gevaarlijk zijn voor jou, en als ze daar iets van vinden, vragen ze je vervolgens wat je met dat bestand wilt doen. Niks gaat zonder jouw toestemming; en ze zullen nooit aangifte doen als ze illegale content vinden op jouw computer.

[Reactie gewijzigd door BurrowedLurker op 22 juli 2024 20:41]

En als ik dat niet wil, dat dat algoritme op mijn Apple draait, zet ik het toch uit? O wacht, daar was iets mee. Ik snap niet waarom mensen dit alles zo "goed" praten. Apple heeft hier echt een verkeerde afslag genomen. Als een willekeurig land een lijstje hashes aanlevert met de vraag dat ze de eigenaar willen weten die dergelijke bestanden heeft, hoe gaat Apple daarmee om? Voor mij is het kip- en kipsimpel. Zolang ik zaken niet zelf kan "uit" zetten is het een NoGo qua OS.
En hoe overtuigen ze zichzelf dat er illegaal materiaal gevonden is? Toch door informatie uit een door hen ontworpen surveillance instrument? Dat instrument is toch onderdeel van 'het geheel van handelingen' uit jouw definitie?
Het is dus gewoon verklikkertje spelen. Dat is nog een haartje erger. Verklikken van je buren, ouders was iets slechts dat alleen de Sovjet Unie voorkwam. Nu blijkt dat kapitalisten het ook doen.

The land of the free = the land of the snitches. MacKarty 2.0.
Duitsers deden het ook tijdens ww2.
Zelfs onze eigen NSB was een club verraders. Frankrijk de Vichy.
Oh ja dus als bij jou buren wekelijks kinderen worden verkracht en jij weet dat. Dan laat je dat ook maar gewoon door gaan want ja je kan natuurlijk geen verklikkertje spelen.
Wie gaat er nu wekelijks bij de buren gluren om te kijken wat ze aan het doen zijn?

Het gaat nu om kindermisbruik, morgen over terrorisme, enz. Het is dat Apple toegeeft dat ze je telefoon onder observatie houden, permanent. Dat is wat we niet willen.
Kun je dit " opsporingssysteem", na automatische installatie, no verwijderen?

Zo nee, dan ben je geen eigenaar van je telefoon en wordt je defacto tegen je wil bespioneerd en verklikt aan een derde partij.

Dit is wat we niet moeten willen.
Ook dan mag dit systeem nu nog niet in Europa worden gebruikt…
dus doen ze aan opsporing als ze aangifte doen.
officieel zal dit nooit in Europa mogen worden ingevoerd ivm gdpr avg wetgeving.
Oh ja? https://www.europarl.euro...child-sexual-abuse-online Daarnaast overweegt men dit te verplichten.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 20:41]

Zoals wel vaker krijg ik de indruk dat hier het voornamelijk gaat over vliegen af vangen over hoe het e.e.a. technisch is bedacht en uitgewerkt.
Zodra je de morele kant van de medaille hier ter sprake brengt, wordt getracht die met een technische kwinkslag af te doen.

Nu is het de vraag of tweeakters de juiste plek is voor morele issues
Je en dat is een probleem met de hele tech sector. Nooit enige morele / ethische afweging.

En het is voor kinderporno. Goh. Wat toevallig. Net als alle andere privacy schendende maatregelen altijd daarmee beginnen. Ondertussen wordt er continu van alles van YouTube, Twitter, Instagram etc af gegooid omdat het politiek niet in overeenstemming is met 'het beleid'. En in China bouwen westerse tech bedrijven lustig mee aan een systeem om Oeigoeren te herkennen op videobeelden zodat ze sneller uitgeroeid kunnen worden. Maar dit systeem is volkomen veilig hoor. Ga maar weer lekker slapen.
Het verschil is dat al die instanties die jij noemt idd de opsporingsdiensten inschakelen, maar op het moment dat er iets niet in de haak is/lijkt. De campingeigenaar gaat niet iedere dag een rondje door alle tenten snuffelen om te controleren of iedereen nog rechtmatig gedrag vertoont
Dus ook het geheugen van de door jouw betaalde telefoon wordt misbruikt voor de Apple klikspaan.
Snap ik, maar Apple (Apple's software) scant dus wel iedere foto die er op je foon staat/bijkomt. En dan bedoel ik met scannen: de hash vergelijkt met de hashes in de database. Dat is toch snuffelen?
Apple snuffelt dus niet.
Apple zet een database met hashes op je telefoon die je niet wil/nodig hebt zodat Apple haar software, die ook op je telefoon gezet wordt zonder dat je die wil of nodig hebt en er ook niet af kan, alle foto's die je maakt kan beoordelen op basis van criteria die Apple vaststelt. Wordt er iets gevonden gaat er een signaal naar Apple, die dan beslist of ze jou gaan aangeven bij de politie of niet.... Maar Apple kijkt helemaal niet mee hoor.... Beetje woordspelletje dit he
Dat is hoe het wordt gepresenteerd. Probleem is dat het een black-box is die amper te controleren is (gaat Apple een public Audit toestaan op zijn algoritme en database?)
Daarnaast is het voor jouw als gebruiker compleet onzichtbaar wat er allemaal in die database zit. Apple zegt wel dat het een hash van KP is, maar hoe weet jij dat nou?
Terecht dat er zorgen zijn over de mogelijke (en wees eerlijk, de te verwachten) misbruik door autoritaire regimes. En Apple heeft wel degelijk een geschiedenis waar zij toegeven aan de wensen van zulke regimes.

Dan rest mij de vraag hoe eenvoudig dit te omzeilen is. Plaatje draaien of bijknippen veranderd de hash. Andere filter er overheen ook. Simpelweg 1 pixel veranderen zou de hash compleet moeten veranderen.
Gaat Apple een eindeloze reeks hashes opslaan die een lichte aanpassing van het plaatje tonen?

M.a.w., wordt die database niet zo verschrikkelijk ondoorzichtig dat zelf Apple niet eens meer kan weten wat er in staat?
Wat jouw telefoon, computer, auto etc. allemaal doen weet je sowieso niet. Het zijn al jaren black boxes. Dat is geen probleem dat nu met dit systeem wordt geïntroduceerd.

Daarnaast zou ik even goed lezen hoe dit systeem gaat werken. Daar staat ook in dat aanpassingen aan foto's niet leiden tot een andere hash (in bepaalde mate).

De database wordt bijgehouden door het National Center for Missing & Exploited Children, waarin enkel bewezen misbruikfoto's staan. Apple is daar geen partij in.
Het gemak waarmee Apple bezitters accepteren dat ze geen baas over de eigen telefoon zijn verbaast me na elk bericht meer.

Volledig onderworpen aan de grillen van een Amerikaans bedrijf ...
Alsof het zoveel uitmaakt HOE elke foto die je maakt bespioneerd wordt? Mensen zijn boos DAT ze bespioneerd worden. En terecht wat mij betreft.
National? Okee. Dus land X moet zich conformeren aan wat ze in land Y wel en niet acceptabel vinden? Goed verhaal. Je bedoelt ICMEC denk ik, niet NCMEC. Maar dat is alleen de database die ze nu gebruiken, of zeggen te gebruiken. Er is helemaal niet gezegd dat onder druk van bepaalde overheden (zoals nu nog helemaal niet gebeurt, hoor!) niet extra databases moeten worden gebruikt op straffe van een verkoopverbod. En natuurlijk waren Wordpress-plaatjes ook bewezen misbruikfoto's, dus dat is allemaal waterdicht en vrij van mogelijkheden tot beïnvloeding.

Er is voor zover ik heb gezien nog geen enkele transparantie over hoe het systeem precies werkt en hoe hun kansberekening tot stand komt, laat staan of het systeem bug-vrij wordt opgeleverd (hint: dat wordt het niet). Door de fuzzy matching die ze gebruiken is het niet ondenkbaar dat er false positives zijn en of hun kansberekening klopt is nog maar de vraag. Dan heb je nog de wet van de grote getallen (1 miljard iPhones en vaak duizenden foto's per device) die dicteert dat hier gewoon veel false positives uit gaan komen, ook gewoon op hetzelfde device. Zelfs foute verdenkingen op dit gebied zijn al onacceptabel ingrijpend in je privé-leven en hebben invloed op o.a. je relatie, gezin, werk- en reismogelijkheden, wat je allemaal jarenlang kan achtervolgen terwijl je niks fout hebt gedaan. Je kan letterlijk iemands leven kapot maken hiermee.

Verder is je post een hoop whataboutism. Dat andere apparaten misschien ook black boxes zijn wil niet zeggen dat het dan maar goed is dat er nog eentje bij komt in zo'n grote userbase.

Staat dit wel allemaal in verhouding? Kinderporno is zo'n ontzettend hot topic dat het bijna lijkt alsof meer dan de helft van de wereldbevolking ermee bezig is. Of is het een relatief ontzettend klein iets, waarmee dus met een atoombom op een mug wordt geschoten? Natuurlijk is er leed maar dat staat volgens mij in de verste verte niet in verhouding tot de genomen maatregelen met het bij voorbaat verdacht maken van een miljard gebruikers, waarvan waarschijnlijk veel minder dan een promille daadwerkelijk verdacht is. Kijk bijvoorbeeld naar statistieken in de VS (2018) waar ze in 1414 child pornography offenders hadden. Stel je voor dat dat slechts 1% was van het totaal, dus eigenlijk 141400 offenders. Met 330 miljoen inwoners heb je het dan over 0,04% of minder dan een halve promille zelfs. Waar gaat dat over joh. En wie spoor je ermee op? Iedereen behalve degenen die het produceren.

Dan heb ik het nog niet eens over de glijdende schaal gehad, daar kan je nog alle kanten mee op.
Nee, misschien eerst even lezen. Dit systeem gaat voor de VS ingezet worden. Vandaar dat die database gebruikt wordt. Apple heeft aangegeven dat wanneer dit systeem naar andere landen wordt uitgerold dit via lokale databases gedaan wordt.
Lokale databases met o.a. voor China natuurlijk "interessante" foto's ja. Precies het punt dus. Ook gewoon wat ik zeg volgens mij.
Dictatoriale regimes die foto’s van hun burgers willen checken hebben dit systeem daar helemaal niet voor nodig. Die hebben allerlei andere mogelijkheden, ook van Apple.
Ik hoor alleen maar slechte argumenten van je. Dat bepaalde regimes al bepaalde mogelijkheden hebben wil niet zeggen dat die van Apple er dan wel bij kan, dat dat toch niks uitmaakt. Ze hebben misschien wel mogelijkheden, maar momenteel hebben ze als het goed is nog niet de mogelijkheid om op Apple-devices te kijken zonder deze te moeten hacken. Waarom zou je in godsnaam die mogelijkheid willen geven?
Je zegt inderdaad een heleboel niet, maar je impliceert wel een hoop. Je voert een voornamelijk semantische discussie in plaats van op de inhoud en de ethiek in te gaan. Als het niet relevant was als argument voor het invoeren van dit systeem, waarom haal je het dan aan? Het gaat helemaal niet om eventuele andere mogelijkheden die ze al hebben, het gaat om het introduceren van deze mogelijkheid en alle daaruit voortvloeiende toekomstige mogelijkheden, onwenselijkheden, mogelijke implementatiefouten en mogelijkheden tot foutief gebruik of zelfs misbruik door Apple of andere partijen.
Precies wat je zegt. Die regels zijn er nog niet. Alleen in dit geval wil men wel zo nodig voorop lopen. Daar waar het bij andere regels pas wordt opgepakt als de regels zijn ingegaan. En dan nog wordt het proces een aantal jaren tegengewerkt. Nee nu moeten ze voorop lopen terwijl we nog niet eens weten wat eventuele nieuwe regels precies gaan inhouden.
Alle redenen om Apple vaarwel te zeggen, sinds wanneer heeft Apple brand permission om op jouw device te scannen naar zgn. 'onoorbare' foto's? Is Apple naast tech leverancier nu ook spion? Laten wij wel wezen de mensen die in kinderporno doen hebben deze niet in hun icloud of device staan ... de gewone burger wordt elke dag een paar keer gescand door Apple
Alleen al Facebook heeft 2 miljoen accounts afgesloten in 2020 omdat dit soort materiaal gedeeld werd.
Accounts afgesloten? Klinkt als een passende straf voor kinderporno...

Facebook veegt alleen haar eigen straatje schoon en doet verder helemaal NIETS.
Maar als mijn zusje trots een foto van zichzelf plaatst met ontbloot bovenlijf dan wordt die verwijderd en krijgt ze een waarschuwing. Kinderporno? Ze is 23.
Zal allemaal wel. Maar de verhoudingen zijn zoek. Voordat je dit soort ingrijpende technieken introduceert moet je misschien eens eerste het laaghangende fruit daadwerkelijk oppakken. Ik ben zelf al een hele tijd aan de bel aan het trekken dat op een aantal bekende videochatsites gewoon openlijk kinderporno wordt aangeboden/gevraagd. Ga daar eens als agent een dagje rondhangen en je kunt er zo een flink aantal figuren van hun bedje lichten. Heel concrete aanpak, maar dat doen we niet. In plaats daarvan gaat een techgigant dit wel even aanpakken.

Ben er zelf inmiddels ook wel achter dat die algoritmes niet heilig zijn. Tinder, zonder opgaaf van reden ben ik er afgegooid. Insta, mag ik niet op met de mededeling "om dit platform leuk te houden voor al onze gebruikers mag u er niet op". Beide geen diensten waar ik wakker van lig, maar zorgelijk is het wel. Wat staat er over mij genoteerd en wat voor gevolgen heeft dit nog meer. Nu en in de toekomst.

Heeft het invloed. Ja dat heeft het nu al. Gezien dit soort vlaggetjes zal ik bijv. maar niet naar Amerika reizen. Oftewel mijn persoonlijke keuzes worden nu al beïnvloed door dit soort ongein. En in feite lever ik nu al een stukje vrijheid in.
Als je telefoon VAN APPLE, met software VAN APPLE, je foto's checked tegen een database VAN APPLE, zodat het misbruik kan doorsturen naar een server VAN APPLE, zodat een medewerker VAN APPLE kan beoordelen of het kinderporno is.... Dan scant Apple. Man man wat een woordspel speel jij zeg.
Dan rest mij de vraag hoe eenvoudig dit te omzeilen is. Plaatje draaien of bijknippen veranderd de hash. Andere filter er overheen ook. Simpelweg 1 pixel veranderen zou de hash compleet moeten veranderen.
Gaat Apple een eindeloze reeks hashes opslaan die een lichte aanpassing van het plaatje tonen?
Het is geen file hash maar een imaging-hash. Roteren of croppen zou nog steeds een positive op moeten leveren. Microsoft doet (deed?) dit ook op OneDrive sinds jaren. Daar was namelijk een policy dat OneDrive geen pornografisch materiaal mocht bevatten, als ik me niet vergis.
Ja, alleen is dit anders. OneDrive is een service van Microsoft, zij bepalen wat wel en niet mag gebeuren op hun servers. Het is een garantie voor de veiligheid van Microsoft en hun servers. Dit gaat over op je eigen apparatuur. Doet me denken aan een reactie die ik ergens gelezen heb: "Hey, ik zie dat jij een illegaal verkregen kopie (of gewoon geript van een CD die je in je collectie hebt) van dit nummer op je telefoon hebt! Ik heb het gemeld bij Apple, je mag het niet meer afspelen en hier is een link naar iTunes waar je het nummer kan kopen". Dit gaat natuurlijk wel verder dan wat hier besproken wordt, maar het is deels gerelateerd.
Dan rest mij de vraag hoe eenvoudig dit te omzeilen is. Plaatje draaien of bijknippen veranderd de hash. Andere filter er overheen ook. Simpelweg 1 pixel veranderen zou de hash compleet moeten veranderen.
Gaat Apple een eindeloze reeks hashes opslaan die een lichte aanpassing van het plaatje tonen?
Knippen doet mogelijk iets, draaien tot op zeker niveau.. maar pixel veranderen absoluut niet.

We praten hier niet over een file hash, maar over een image fingerprint. Zie bijvoorbeeld hoe Google Images het doet als je op afbeelding zoekt, dan vind je ook de zelfde afbeeldingen in andere resoluties met verschillende gradaties van JPEG comrpessie
Juist… en wie checkt of het goed gaat? Wie checkt of Apple niet stiekem meewerkt met China, Rusland, Turkije en daar het systeem inzet om dissidenten op te kunnen pakken?
Niemand op dit moment, maar dat is niet specifiek voor deze techniek. Dat geldt voor de hele cloud en het gebruik van smartphones, computers, tablets, GPS, auto's etc.
Het gebrek aan toezicht is een discussie die veel breder getrokken moet worden.
Apple gaat niet in je telefoon kijken. Het algoritme staat op je telefoon en de database staat op je telefoon. Je telefoon maakt lokaal een hash en vergelijkt die met de lokale database. Na meerdere positieve matches krijgt Apple een signaal waarna medewerkers a.d.h.v. de hashes kunnen zien welke illegale foto's jij op je telefoon hebt.
Het maakt niet uit wáár het plaatsvindt. Het feit is dát het plaatsvindt.

Ze hoeven maar een hash aan de database toe te voegen om ook naar andere zaken te kunnen zoeken (zoals jaap1879 al aanhaalt.) Nu zoeken ze kinderporno, wat is het over een paar maanden?
Uiteraard wordt ook die weer gehackt en misbruikt en speuren straks bepaalde overheden naar regenboogvlaggen.
Ik ben er ook tegen en vind dat ook een valide argument, maar als malafide overheden willen gaan speuren doen ze dat niet via dit systeem met allerlei hobbels en drempels. Dan eisen ze direct inzicht in je data en dat kon al lang. Daar is dit systeem helemaal niet voor nodig.
Het is al lang duidelijk dat het speurwerk en sowieso de meeste enforcement gedaan wordt via commerciele bedrijven. Zoals Frankrijk nu cafe houders dwing hun bezoekers om hun Health Pass te vragen, met hoge straffen als ze verzaken. De overheid maakt het bedrijfsleven tot haar verlengstuk.
Ze kijken ongevraagd en niet blokkeerbaar in je persoonlijke zaken, dat we het eens zijn over wat fout gedrag is, betekent niet dat je daar elke dag verplicht thuis/eigen telefoon op gecontroleerd wilt/mag worden. Je wil toch ook niet elke dag een huiszoeking om te zien of je een wapen in huis hebt, ook al vind je het terecht dat mensen geen wapens mogen hebben? Een detectiepoortje is buiten je huis is duidelijk zichtbaar en kun je in ieder geval voor kiezen niet naar binnen te gaan. Nog buiten dat iemand expres een foute foto naar jou kan sturen waardoor zelfs zonder hacken je dan als verdacht geflagged kan worden. En inderdaad dit is sowieso helemaal geen opsporingstaak voor Apple.

Lijkt voor nu om icloud te gaan, maar dat is expres zo seamless (en gedeeltelijk gratis) mogelijk gemaakt dat het door de gebruiker gewoon als persoonlijke opslagsfeer ervaren wordt, dus het "zet icloud maar uit" is geen excuus, als je weet dat 95% deze manier van volgen helemaal niet zal snappen.

[Reactie gewijzigd door mike_again op 22 juli 2024 20:41]

Dus in jouw vergelijking vind je een detectiepoortje bij je voordeur dus ook geen probleem? Ze komen je pas arresteren als hij afgaat dus dan is de automatische controle elke dag geen probleem? Ik wil niet gecontroleerd worden of ik een wapen op zak heb met een metaaldetector als ik mijn huis in ga. Pas als bv een buurman dat gezien heeft en de politie waarschuwt zou er aanleiding zijn om te gaan onderzoeken niet elke dag geautomatiseerd.
Zoals ik vermeldde is de icloud zodanig bewust seamless, gratis en vanaf je telefoon in je eigen huis, dat juist jouw vergelijking met bewust een ander bedrijf inlopen hier niet opgaat. Als het actief staat ben je niet per foto bewust aan het uploaden of zoiets. In het artikel wordt bovendien gezegd dat ze naar LOKALE foto's kijken als icloud aanstaat, vanwege encryptie ongetwijfeld. Of het geautomatiseerd via hash gaat of niet is niet relevant, ze testen of je iets hebt en dat is privacyinbreuk, net zoals een metaaldetector thuis.

Het is wel degelijk vergelijkbaar met een particuliere voordeurleverancier die zelf besluit een detectie poort in te bouwen en de politie te bellen als die afgaat. Die zou er niet mee wegkomen en niemand nog wat bij kopen, maar dit digitale product is te ontastbaar en ondoorzichtig en geen gebruiker die dat in de EULA leest of snapt, dat is inperking van vrijheid en vergroting van big brother gehalte hoe je het ook went of keert. Jouw argument gaat alleen op voor een dagelijkse bezoeker van Tweakers, maar je weet van te voren dit dat voor 99% van de gebruikers dit een gevaarlijke route/precedent is. Al was het maar omdat via een hack of iemand die je expres een verkeerde foto stuurt het allerlei risico's oplevert,
Als iemand je een verkeerde foto opstuurd kan je contact opnemen met de politie toch?
Het detectiepoortje staat niet bij je huis,
Onjuist, in deze analogie staat het detectie poortje juist precies in huis. Niet eens bij het huis, maar daadwerkelijk bij jou in de gang.
Alles wat je voordeur uitgaat, dus wel degelijk binnen je eigen huis/telefoon!
Het staat op jouw apparaat. Dus gewoon in huis.
Trouwens een hoop kp bestaat uit film en die ziet het op jouw apparaat geïnstalleerde poortje (nog) niet.
Bedenkelijke zaak derhalve.
Je kunt hem niet even verwijderen als je hem eenmaal hebt. (Nouja, eigenlijk wel, je kunt dan gewoon nog terug naar 14 zolang Apple 14 signed). Maar heel toevallig introduceert Apple tegelijkertijd dat je op iOS14 kunt blijven, dus niet dit systeem krijgt, maar wél toekomstige veiligheidsupdates. Dus je hebt gewoon de keuze. Je hebt ook nog eens de keuze om wél naar iOS15 te gaan en de iCloud uit te zetten.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

Altijd die kromme vergelijking met 1984. Ik word er een beetje flauw van.

De grote angst van dat boek zat hem in de totale overheid die door beperkingen in taal de grote massa dom en onderdrukt hield, en dat controleert met overal aanwezige observatie.

Bij “ons” in 2021 is iets heel anders aan de hand: de vrijheid voor persoonlijke expressie is nog nooit zo groot geweest. Iedereen kan zijn wie hij/zij/hen willen zijn en zeggen wat ze willen*, en dat direct uitsturen aan miljoenen anderen middels social media.
Voor elke splintergroep is er een eigen kanaal en politieke partij

En die instant-massaverspreiding heeft gevolgen. De kinderporno van de buurman staat ineens wereldwijd, en makkelijk toegankelijk voor anderen. Dat is ook nog nooit zo geweest en daar moeten we als samenleving iets mee

Is Apples aanpak een inbreuk op privacy? Ja. Is dat erg? Mijn antwoord: een voorzichtig ja.
Hier moeten we genuanceerd over praten ipv direct de 1984 kaart spelen.



*En die politici die roepen “je mag tegenwoordig niets meer zeggen”? Dat is een simpel trucje: je roept iets doms, zegt dat je dat eigenlijk niet mag zeggen, herhaalt dat in elke talkshow en streamt het vervolgens over alle platformen… krijg je aandacht en al je miljoenen volgers worden dan lekker boos

[Reactie gewijzigd door MatthijsZ op 22 juli 2024 20:41]

Persoonlijke expressie/mening staat tegenwoordig wel degelijk onder druk vanuit de huidige cancelcultuur. En dat hangt ook samen met hoeveel wat van wie in de gaten gehouden wordt. Dat kan een foute tweet uit verleden zijn die opeens naar boven gehaald wordt, maar die heb je dan nog zelf ooit geplaatst, maar publiek aan de schandpaal nagelen met niet vrijwillig publiek gemaakte info over iemand wordt ook gedaan via sociale media. Dus door de digitale vooruitgang is er nu bepaalde surveillance en druk vanuit bepaalde hoeken die veel verder gaat dan Orwell ooit had kunnen voorspellen, en van diezelfde instrumenten kunnen overheden ook misbruik maken.
“Tegenwoordig”?
Politici zeggen nu dingen waar Jan Maat alleen maar van kon dromen.

Echt waar: je “mag” tegenwoordig veel meer zeggen dan vroeger en er is ook een groter publiek voor.

Wat jij “cancel-culture” noemt is meestal dat iemand iets roept waar zijn/haar werkgever het niet mee eens is en wat leidt tot een onoverbrugbaar verschil in inzicht. Het is niet het gene wat geroepen is, maar hoe dat conflict (niet) opgelost wordt.
Het is een prachtig woord, maar als je dieper graaft blijkt dat er meer _over_ het probleem wordt geschreven dan dat het een groot probleem _is_. Veel opgeklopte lucht.

Let wel: ik zeg niet dat het _geen_ probleem is. We mogen best wat meer naar elkaar luisteren en begrip tonen voor andere opvattingen. Maar dat kan het beste op individuele basis, niet op zo’n containerbegrip “cancel culture”
Altijd die kromme vergelijking met 1984. Ik word er een beetje flauw van.

Bij “ons” in 2021 is iets heel anders aan de hand: de vrijheid voor persoonlijke expressie is nog nooit zo groot geweest. Iedereen kan zijn wie hij/zij/hen willen zijn en zeggen wat ze willen*, en dat direct uitsturen aan miljoenen anderen middels social media.
Voor elke splintergroep is er een eigen kanaal en politieke partij
Zelfs in Nederland moet je op je woorden passen met de hedendaagse politieke correctheid.
Maar dit gaat niet om Nederland maar om de hele wereld en er zijn genoeg landen waar je niet zomaar kunt zeggen wat je wilt. Landen waar je goed in de gaten wordt gehouden etc.

We zitten globaal al lang in een 1984 situatie en het wordt enkel maar erger. Helaas zien velen dat niet of ze zien het wel maar trekken hun schouders ervoor op.

Misschien moet je het boek nog maar eens lezen.
Ik zit echt even te puzzelen hoor.

Wat mag je niet zeggen?
Je kunt tegen Zwarte Piet demonstreren, je mag zeggen dat Zwarte Piet onderdeel is van ons cultureel erfschap, je mag zeggen dat je homo bent of als “hen” aangesproken wilt worden, je mag zeggen dat je dat allemaal maar onzin vindt, je mag moslim zijn en je mag ook zeggen dat moslims de schuld van alles zijn…

[Reactie gewijzigd door MatthijsZ op 22 juli 2024 20:41]

Jij ook denk ik :-). 1984 gaat over totaal onderdrukking inclusief het herdefiniëren van de werkelijkheid en bezighouden van de maatschappij door een niet bestaand conflict.

Reclames, koude oorlogen, moslim angst, fake news etc, dat is waar 1984 over gaat. Niet zo zeer over computers. Daar gaan weer andere verhalen over.
De grote angst van dat boek zat hem in de totale overheid die door beperkingen in taal de grote massa dom en onderdrukt hield, en dat controleert met overal aanwezige observatie.
Zoals in China bijvoorbeeld allang gebeurt? En hier ook steeds meer. In sommige EU landen mag je je al elke keer legitimeren als je naar de winkel wil, naar een restaurant of met de bus. Vanwege de Corona, maar gaat het dan ook weer weg daarna?

"Als het kan gaan ze het ook doen" blijkt ook nu weer een waarheid.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:41]

Kijk, China is een plek waar de 1984-vergelijking wél opgaat: totalitair regime die mensen in de gaten houdt of ze dingen zeggen die “tegen de partij” zijn

Dat is een mooie vergelijking

Hier missen we dat totalitaire regime, met zijn één partij politiek en een officiële lezing waar niet vanaf geweken mag worden. Dáárom gaat de vergelijking niet op.

Verder moeten we wel heel zuinig zijn op onze vrijheden: ik ben ook tegen wat jij de legitimatieplicht noemt (ik draag principieel geen ID-kaart op zak).
Om daarvan zeker te zijn moet je wel paar stappen verder gaan.
Je kan natuurlijk niet hardware kopen van een derde partij, en de enigste code waar niet een mitm tussen kan zitten is de code die je zelf schrijft. Ook kan je niet het internet gebruiken, want dat is per definitie niet een netwerk die je zelf beheerd.

[Reactie gewijzigd door PrismSub7 op 22 juli 2024 20:41]

Ik raadt iedereen die refereert aan "1984 van George Orwell" dat boek eens te lezen.
Het stond in mijn schooltijd (1960) al op de literatuurlijst. Waarom denk je dat veel reageerders het boek niet gelezen hebben?

N.B. Wat Apple en anderen nu doen komt verrassend goed overeen met de voorspelling van George Orwell uit 1948.
Omdat iedereen dat altijd noemt als er controle via IT ter sprake komt. 1984 gaat daar maar deels over en de juist belangrijke aspecten uit dat boek spelen een veel belangrijkere rol, en die worden vaak niet goed begrepen. Het is ook een vrij moeilijk te lezen boek en verre van optimistisch. Maar als je het nog niet gelezen hebt, zou ik het zeker aanraden.
Ik ben met je eens dat er meer aspecten in het boek zijn die nu ook al aardig in de richting komen, o.a.:
  • verregaande beïnvloeding door propaganda
  • permanente geschiedenisvervalsing - het werk van de hoofdpersoon Winston Smith (min. van Waarheid)
  • veranderen van de betekenis van woorden
  • permanente oorlogen
  • enz.
Het is niet alleen verregaande surveillance die de wereld in de richting van "1984" schuift.
Ik raad iedereen aan om het boek te lezen.

[Reactie gewijzigd door janbaarda op 22 juli 2024 20:41]

Welke precedentwerking? Bedrijven doen het al. Het verschil met hoe de anderen het doen is dat Apple net vanwege privacy de controle op het toestel plaatsvindt ipv serverside.

Dat kinderporno zo massaal verspreid kan worden is een gevolg van "uitvindingen" die bedrijven zoals Apple in het verleden deden. De technologie die Apple en andere bedrijven destijds begonnen te produceren hebben veel negatieve dingen veroorzaakt. Daar zien wij nu op de langere termijn de gevolgen van. Wat Apple doet is veel van die negatieve trends die ze veroorzaakt heeft uit het systeem te halen. Ze zijn begonnen met gebruikers bewust te maken van privacy. Ze beginnen gebruikers bewust te maken van de rotzooi hun kinderen allemaal mee geconfronteerd te worden. Hopelijk leren ze gebruikers binnenkort ook dat je sociaal kan zijn zonder een toestel te gebruiken.

Als je spreekt over gevolgen op langere termijn wees je dan bewust dat we nu al af te rekenen hebben met de lange termijn gevolgen van iedereen op aarde een computer te bezorgen.
Welke precedentwerking? Bedrijven doen het al.
Dat is dus net de precedentwerking. Andere bedrijven doen het al dus moet Apple het ook maar doen. En als Apple op een dag merkt dat toestelside toch niet de beste oplossing is kunnen ze het zo serverside gaan doen want andere bedrijven doen het al.

En nu doe je het overkomen dat kinderporno een steeds groter probleem aan het worden is dankzij de technologie. Ik denk dat het toch net iets anders is. Dat we net meer zicht krijgen op het probleem dankzij de technologie.
Dat laatste, daar denken kinderbeschermingsorganisaties toch heel anders over... De productie en verspreiding van kinderporno is juist geëxplodeerd sinds de komst van internet.
Die productie was er altijd al en je bent naïef als je denkt dat dit veranderd. Alleen ging vroeger de verspreiding via magazines en ook Nederland speelde daar een aanzienlijke rol in. Maar die zgn kinderbeschermingsorganisaties zijn vreselijk schijnheilig. De westerse (blanke) mens wordt verkettert als men een paar plaatjes van een 17 jarige heeft, terwijl het in andere culturen en religies allemaal vrij normaal is, maar daar hoor je die organisaties natuurlijk niet over en dat vindt ik eigenlijk een groter probleem.

Denk ook maar niet dat Apple dit wereldwijd gaat invoeren, alsof niet westerse landen dit zullen accepteren. En de stap van KP hashes naar andere vormen van scanning is snel gemaakt, ook al roepen ze dat ze het niet gaan doen. De vrijheid in het westen is betrekkelijk, het neemt enge vormen aan.

Niet dat ik ooit iets van dat foute Amerikaanse tech bedrijf zou kopen, maar volgende week kan google of Microsoft soortgelijke technologie uitrollen. Zeker sinds het nieuwe bewind in de VS kun je niks meer uitsluiten, de bedrijven voelen zich nu oppermachtig.

China en Rusland hebben dit al lang zien aankomen en zijn bezig met eigen besturingssystemen voor apparaten en dat zou Europa eigenlijk ook moeten doen. Niet dat ik zo graag versplintering zie maar de macht van de tech-bedrijven is te groot. Er kan te makkelijk misbruik gemaakt worden voor eigen (politiek) gewin.
Je wil dat handjevol magazines uit de jaren 60/70 en de VHS-video's uit de jaren 80 en 90 vergelijken met de honderden terabytes die anno 2021 beschikbaar zijn? Da's wel heel erg naief...
Wat heeft huidskleur hier mee te maken?

En kinderporno gaat niet over “een handjevol foto’s van 17-jarigen”, maar om sexueel geweld op peuters, kleuters en zelfs babies. Echt harde misbruik. Jonge kinderen.

Je moet even je kompas ijken…
Alles, maar het feit dat jij dit er uit pikt zegt al veel over jou. Ga vooral zelf je kompas ijken want mensen zoals jij keuren dit soort schijnheilige gedrag goed. Overigens de meeste kp wordt door kids en pubers zelf verspreid, daar gaat geen misbruik aan ten grondslag. Tijd terug gelezen dat YT per dag alleen al 25.000 filmpjes offline moet halen omdat ze continue naakte content blijven uploaden.
De content die kinderen zelf verspreiden is _niet_ waar het hier om gaat.

Dit gaat om type KP wat ik beschreef: misbruik van jonge kinderen.

Je trekt deze discussie scheef door dat te bagatelliseren.

Jij haalt zelf huidskleur erbij terwijl dat in je betoog nergens voor nodig is. Dat kan ik best aanstippen.
Dat weet jij helemaal niet, alle content die door een persoon aangemerkt wordt als kp of 18 min kan in die databases belanden, jij hebt jezelf wijs gemaakt dat het altijd misbruik van jonge kinderen moet betreffen of misschien is dat hoe jij kp ziet. Juridisch werkt het wat anders.

Nee, ik stip juist aan dat die organisaties en tech bedrijven schijnheilig bezig zijn en zij juist onderscheid maken op cultuur/religie en of huidskleur want die groepen durven ze niet te benoemen en hun benadering is ook verschillend. Jij kunt er niet tegen dat ik daar een terechte opmerking over maak, dan ben je wat mij betreft onderdeel van het probleem.
Ho. Niet op de man spelen, dan is discussie nutteloos. Daar mag je je excuses voor aanbieden.

De database waar het hier over gaat is niet “aangemerkt als 18-“ door willekeurig iemand, maar materiaal van de “National Center for Missing and Exploited Children”.
Dat gaat om hard materiaal, niet bikini foto’s

Dat staat helemaal los van ander beleid van tech bedrijven, en hun veronderstelde schijnheiligheid.
Apple doet dit al lang serverside. De hele verandering is juist dat ze het nu clientside gaan doen.
Natuurlijk is dankzij computers en vooral iPhones (smartphones) een explosie ontstaan in kinderporno. Het is niet dat de videotheek uit de jaren 80 een afdeling met kinderporno had en het materiaal voor handen was om op eenvoudige manier je eigen ranzigheid te filmen en die ook nog anoniem direct met duizenden andere anonieme vieze mannetjes te delen.
Welke precedentwerking? Bedrijven doen het al. Het verschil met hoe de anderen het doen is dat Apple net vanwege privacy de controle op het toestel plaatsvindt ipv serverside.
De precedentwerking dat er op je apparaat gescand wordt. Dat iets wat je naar een niet encrypted cloud upload gescand wordt (of kan worden) is een gegeven. Apple heeft deze 'storm' denk ik grotendeels veroorzaakt door het op die manier te willen doen, in plaats van net als andere bedrijven pas te scannen als de informatie op hun eigen servers staat.

Apple zegt alleen op je apparaat te scannen als je iCloud aan hebt staan, maar het precedent is dat ze de techniek hebben om 'lokaal' bij de gebruiker te scannen. Mogelijk hebben ze hier inderdaad met de beste bedoelingen 'vanwege de privacy' voor gekozen, maar op lange termijn blijft dit een heel gevaarlijk precedent.

Stel dat de Chinese overheid van Apple eist dat alle iPhones in China gescand worden op de foto van 'Tank Man'. Apple kan nu niet meer volhouden dat dat niet kan, ze kunnen alleen zeggen dat ze dat niet willen doen. Zoals ze ook iCloud gegevens van Chinese gebruikers niet in China wilden opslaan (en niet zonder hun gebruikelijke versleuteling wilden opslaan), maar dat uiteindelijk wel moesten.

Is dat kans groot dat wij in Nederland op korte termijn last hebben van dergelijke praktijken: waarschijnlijk niet. Blijft het voor privacy & mensenrechten wereldwijd een heel slecht precedent: wat mij betreft wel.
Wie zegt dat dit nu niet gebeurd in China? Chinese iPhones hebben een afwijkende encryptie en servers. Het mag duidelijk zijn dat dit voor access is.
Ik vind moesten hier wel discutabel. Als Apple de ballen had gehad had het zich gewoon teruggetrokken uit China, maar kennelijk is het tevreden houden van de aandeelhouders belangrijker dan de privacy van (Chinese) gebruikers.
Apple is een beursgenoteerd bedrijf dat gestuurd wordt met de richtlijn om investeerders gelukkig te houden.
Als techfanaat ben ik niet gelukkig met apple zijn gedrag in China.
Als investeerder in Apple ben ik blij met de stijgende lijn van de aandelen.
Yup... money talks, bullshit walks. En zolang mensen zo blijven denken zal er weinig veranderen in deze wereld :(
Het "probleem" is dat ze je foto's niet KUNNEN scannen als het in iCloud staat. omdat deze encrypted zijn met je device key(s). dit is ook exact de reden dat Apple zo'n moeilijk/omslachtig proces heeft bedacht om KP hashes on-device te vergelijken voor iCloud uploads.

Edit: zoals @bytemaster460 en @svane hieronder aankaarten zit ik ernaast, iCloud photos maar ook Contacten, calendar, voice memos, notes, reminders, iCloud-Files en Backups zelf zijn dus niet End-2-end encrypted. en dus niet gewist na een account recovery of reset van je encryptie-sleutels (alle andere data wel).

Bedankt, ik heb weer wat geleerd vandaag :)

[Reactie gewijzigd door ZeroMinded op 22 juli 2024 20:41]

Ik denk dat veel gebruikers iCloud aam hebben staan. Al is het maar voor die gratis 5GB en het gemak om je chat historie van whatsapp mee te nemen naar je nieuwe mobiel.

iCloud is breder dan alleen iCloud Photos (die heb ik ook uit staan ten faveure van Photo Stream - 30 dagen of 1000 foto's "gratis")
Je hebt gelijk, maar dat geldt alleen voor gebruikers die geen recovery key hebben ingesteld.
https://support.apple.com/en-us/HT204921
(zie onderaan de support pagina)
"If you generated a recovery key, you can't use account recovery. Learn more about using a recovery key. "
https://support.apple.com/en-us/HT208072
Weet je 't zeker? Ze zeggen hier alleen dat je niet 'account recovery' meer kan gebruiken als je een recovery key hebt. Dit zegt volgens mij niks over de end-to-end-encryptie van je foto's.

Deze pagina zegt:
Voor bepaalde vertrouwelijke informatie gebruikt Apple end-to-end-codering. Dit betekent dat alleen u toegang hebt tot uw gegevens, en alleen op apparaten waarop u bij iCloud bent ingelogd. Niemand anders heeft toegang tot informatie die met end-to-end-codering is beveiligd, zelfs Apple niet.
De volgende functies en de bijbehorende gegevens worden verstuurd en bewaard in iCloud met end-to-end-codering:

Apple Card-transacties (vereist iOS 12.4 of hoger)
Gegevens van de Woning-app
Gegevens van de Gezondheid-app (vereist iOS 12 of hoger)
iCloud-sleutelhanger (met al uw bewaarde accounts en wachtwoorden)
Favorieten, verzamelingen en zoekgeschiedenis van Kaarten (vereist iOS 13 of hoger)
Memoji (vereist iOS 12.1 of hoger)
Betaalgegevens
Woorden die het QuickType-toetsenbord heeft geleerd (vereist iOS 11 of hoger)
Safari-geschiedenis en iCloud-tabbladen (vereist iOS 13 of hoger)
Schermtijd
Siri-informatie
Wifiwachtwoorden
W1- en H1-Bluetooth-sleutels (vereist iOS 13 of hoger)
Foto's staan hier duidelijk niet in de lijst. ;(
Hey dat is een interessante vondst! De reden dat ik de aanname met foto’s maak is omdat ik een tijdje terug het account van een familielid via Apple support moest recoveren. Daarna was alle data uit de lijst die je zojuist deelt verdwenen, maar ook de foto’s!

Nu je dit noemt ga ik denk ik even testen met een oud toestel en een test-AppleID. :)

Edit: ik heb mijn 1e post in deze thread aangepast, je leert elke dag weer bij in deze community :)

[Reactie gewijzigd door ZeroMinded op 22 juli 2024 20:41]

Dat kinderporno zo massaal verspreid kan worden is een gevolg van "uitvindingen" die bedrijven zoals Apple in het verleden deden. De technologie die Apple en andere bedrijven destijds begonnen te produceren hebben veel negatieve dingen veroorzaakt. Daar zien wij nu op de langere termijn de gevolgen van.
Kortom Apple is mede schuldig en moet daarom ook zorgen voor een oplossing, wou je zeggen.

Dus drukkerijen zijn ook schuldig, fabrikanten van fotopapier, autofabrikanten want auto's worden ook gebruikt voor aanslagen, iedereen die belasting betaalt of zelfs maar in een pensioenfonds zit houdt mede de wapen-wedloop in stand die misdaden plegen etc etc.

Sorry maar dit slaat totaal nergens op. Dan is iedereen aan alles schuldig en medeplichtig.
Verschil is dit, Apple gaat dit op de toestellen doen… terwijl andere bedrijven dit alléén serverside doen…groot verschil.
Juist op het toestel is meer belastend, omdat dan in principe alles gecheckt kan worden op je telefoon ipv wat alleen op de server staat.
Anoniem: 1576590 @unfold13 augustus 2021 09:52
Nog even los van de vraag of je het afschuwelijke probleem van kindermisbruik oplost door fotokijkers op te sporen (en wat dan): wie kijkt er nog naar foto's? Filmpjes zijn "in" (vermoedelijk geldt dat ook voor CSAM).

Hoewel in WikiPedia staat dat deze technologie (bekend als PhotoDNA, NeuralHash, ...) ook voor video's zou kunnen werken, lijkt de door Apple aangekondigde software slechts naar foto's te "kijken".

Welk probleem, anders dan toegeven aan de druk van naïeve overheden (voorbeeld) en pedojagers, lost Apple hier mee op?
Een bedrijf hoort op dit punt zich ver weg te blijven, technologie staat hier totaal buiten!!! Elke keer weer Tweakers die technologie denkt goed te kunnen inzetten, het gaat om over jouw eigen vrijheid te kunnen beschikken.

Vergeet niet, het gaat niet om een publieke forum, sociale media, etc etc, het is JOUW PRIVÉ leven waar APPLE in gaat graaien en de POLITIE wilt spelen. TECHNIEK moet hier buiten staan en is geen onderdeel van dit debat!!
Privacy? mmmm het bedrijf dat aan de voorkant dit roept en vervolgens aan de achterkant alsnog samenwerkt met US overheidsinstellingen. Dit is net als Whatsapp aangeeft de voorkant beveiligd heeft voor je privacy en mooi gecodeerd en vervolgens aan de achterkant als je gegevens verkoopt via facebook aan nep bedrijven van de CIA en NSA etc. . O ik kan Google ook nog wel noemen ,ach weetje who cares als het maar gratis is.
Ik zie het een beetje als de sleepwet van een paar jaar terug, het is de eerste traptrede om naar een overheid met te veel macht voor toezicht van burgers. Vorig jaar liep Grapperhaus al weer te vertellen dat die wet al niet meer voldoet en aanpassingen nodig heeft. Het idee is fundamenteel verkeerd, maakt niet uit hoe veilig of goed het geimplementeerd is. Moet je je voorstellen dat er een aantal foto's van je kinderen getagged worden, en een Apple medewerker een slechte dag heeft.

Ik vond dit "interview": van Louis Rossmann met Daniel Smullen een goede uitleg geven: https://www.youtube.com/watch?v=9ZZ5erGSKgs.
Moet je je voorstellen dat er een aantal foto's van je kinderen getagged worden, en een Apple medewerker een slechte dag heeft.
Dat kan niet echt, aangezien er alleen bekende CSAM foto's die al in omloop zijn getagd worden en als je je prive foto's gewoon zelf houdt kunnen ze die dus ook niet taggen!

Aan de andere kant betekent dat ook dat het niet echt veel doet tegen daadwerkelijk kindermisbruik. Immers, als die foto's in de database terecht komen is het misbruik allang gebeurd en het materiaal al wijdverspreid. Het werkt alleen de afzetmarkt tegen voor de misbruikers. Het is een nogal indirecte manier om het misbruik tegen te gaan en daarmee ook een manier waardoor urgentie ontbreekt. Het is niet alsof er een misbruikgeval voorkomen kan worden met de informatie die ze ophalen.

Juist daarom ben ik er tegen, het is een enorm zware inbreuk met een doel dat slechts mondjesmaat helpt tegen het probleem. Vooral ben ik er tegen om bij voorbaat als potentiele crimineel gezien te worden. Dit is eigenlijk alsof er constant een huiszoeking wordt gedaan in je eigen telefoon maar dan zonder enige aanleiding. Onderzoek naar dit soort dingen zou gewoon gericht moeten zijn, net zoals een onderzoek naar een moord.

Laten we ook wel wezen: De meeste foto's die in iCloud worden geupload, zijn zelf gemaakt. Die kunnen dus nooit in die database staan aangezien die alleen bekend onderschept materiaal bevat. Een foto die je zojuist gemaakt hebt, kan daar onmogelijk in staan.

Waarom dus niet zelfgemaakte foto's uitsluiten van deze scan? Dat zou het voor een heleboel mensen een stuk behapbaar maken. Juist het feit dat ze dat niet doen, doet me denken dat ze veel verdere bedoelingen hebben hiermee.
Vaak zie je dat de korte termijn voordelen goed worden gezien, maar de lange termijn nadelen minder goed worden gewogen.
Helaas is dit toch echt de moderne geest dat steeds prominenter wordt. Verkiezingen en bestuursvormen worden hier op afgesteld. Kiezers hebben niet het geduld, de discipline en vinden lange-termijn-denken moeilijk. Aandeelhouders gaat het om relative groei. Zodra het schip begint te zinken. Verkoopt men hun aandeel om het in een andere partij te investeren.

Deze systemen met negatieve prikkels hebben we zelf gemaakt. Alleen de gemiddelde mens staat er helemaal niet bij stil. Die worden gemotiveerd door hun huidige belangen gebaseerd op emoties. Want de emotie regeert. In muziek, films en mode gaat het vaak om emoties. Vroeger moest je uren staren naar een schilderij om de emotie of idee van een schilder te pakken. Nu krijg je dat in milliseconden.

Om deze prikkel tegen te gaan hebben mensen gauw de neiging om angst te gebruiken. Het probleem bij angst is alleen dat het weer op basis van emotie gaat i.p.v. kennis en principes. Daardoor verliest het uiteindelijk zijn kracht of raak je van de regen in de drup. Sla je door van de ene naar de andere kant.

Helaas is deze trend lastig te stabiliseren. Je kan het zien als een balancing-act waardoor je intuïtief je correcties steeds heftiger moet zijn om je te corrigeren.

De enige manier om dit tegen te gaan is door principieel te handelen i.p.v. op basis van emoties. En door kleinere veranderingen door te voeren i.p.v. enorme verschuivingen waarvan je de gevolgen niet kan overzien.

Wat is er nou mis met een film? Altijd naar muziek luisteren? Een spel spelen waar en wanneer je maar wilt. Snel toegang hebben tot alle (mis)informatie die je maar wilt.

Het is net als bij het eten van suiker. De energie, emotie of informatie die je krijgt moet in gezond balans staan met de energie, emotie en kennis die je er voor nodig hebt om het te kunnen consumeren.

Ons probleem is niet lichamelijke obesitas maar emotionele obesitas. Waar kennis, redenatie en geduld te weinig geconsumeerd wordt. Omdat onmiddellijke bevrediging zo verslavend is krijg je dit soort bewegingen steeds meer.

Dus, ontwikkel principes en discipline, vergaar kennis en wijsheid en verander jezelf i.p.v. een ander.

[Reactie gewijzigd door Macshack op 22 juli 2024 20:41]

Wat je zegt is waar en mooi Unfold, ervan uitgaande dat een techbedrijf als Apple of Facebook ook daadwerkelijk het "goede" wil doen. Bedrijven als Facebook hebben trouwens best veel psychologen in dienst, helaas niet met de intentie die jij hier uitspreekt. Op Netflix is aardige documentaire te zien over wat de gevaren zijn voor een beurs genoteerd bedrijf, welke afwegingen men maakt. Aanrader.
Je mist denk ik een groot punt in dit verhaal... Kan Apple de roze olifant op een andere manier verjagen?

Wat ik daar mee bedoel is dat Apple en met hen de rest van de wereld weet dat er zonder enige twijfel kinderporno materiaal in de iCloud opgeslagen staat en van daar uit verspreid wordt. Apple kan dat materiaal onmogelijk opsporen omdat ze nu eenmaal de bestanden niet in kunnen zien die op hun cloud staan opgeslagen.
Als een overheid of voor Apple de overheid (VS) besluit dat Apple daar iets tegen moet doen of zich zal moeten verantwoorden voor het verspreiden van kinderporno, als er een rechtszaak komt waarin naar voren komt dat Apple in middels wel erg veel kinderporno opslaat en distribueert met zijn iCloud service dan is dat een PR ramp voor het bedrijf. En kon het ze zeker in de VS nog wel eens torren hoge boetes opleveren.

Ook al ben ik het totaal oneens met het idee dat Apple alle foto's op het systeem van een gebruiker gaat scannen denk ik niet dat ze veel andere keuze hebben. Ze moeten het in ieder geval voorstellen en als het dan wordt neer geschoten door politiek, publiek etc dan heeft Apple een heleboel sterkere verdediging mocht iemand ze willen straffen voor de TB's aan beeldmateriaal van misbruikte kinderen die op hun servers hebben staan.
Lukt het wel dan is de kans levensgroot dat een volgende stap is beelden gelinkt aan door Amerika verboden organisaties zo als terreurorganisaties bijvoorbeeld. Immers men heeft de technologie al en de lijst met hashes uitbreiden kost helemaal niets voor Apple, al die foto's worden toch gescanned en de hashes worden toch naar de Apple servers verstuurd dus een extra set hashes toevoegen is geen enkel probleem.

Ik kan me niet voor stellen dat Apple veel anders kan doen. Het enige dat men zou kunnen doen is de lijst met hashes gebruiken om te weigeren deze gegevens op te slaan zonder dat ze ook hun (viespeuk) klanten bij de overheid aan geven voor viespeukerij. Dat is een leuk idee maar dat zal helemaal niemand accepteren omdat je dat immers technisch gezien op de hoogte bent van de kinderporno verzameling van je klant en dus de klant beschermt door hem of haar niet aan te geven iets dat vrijwel altijd ongeacht het land tegen de wet is.

Het is dus niet zo zeer een ethisch probleem dat Apple probeert op te lossen of een misdaad die het probeert te bestrijden het is simpel weg een poging om te voorkomen dat Apple, zeker met wetten waarbij de hoster verantwoordelijk kan worden gehouden voor het materiaal op haar servers, zelf in de problemen komt dankzij de viespeuken die misbruik maken van iCloud en de bijbehorende encryptie.
Dit is dus een van de redenen waarom een hoster niet verantwoordelijk gehouden zou moeten worden voor de data die gebruikers op de server plaatsen. Wel als de hoster instaat is de data te bekijken maar met dat de data niet zichtbaar is voor de hoster dan kun je de hoster ook niet verantwoordelijk houden voor de geuploade data. Dat is als zeggen dat de NS verantwoordelijk is voor alle wapens en drugs die er in de kluisjes op de verschillende stations te vinden zijn. Dat kan natuurlijk niet zo zijn dan kun je alle diensten die opslag van goederen bieden wel afschaffen (toch lastig al die container schepen en havens dat kan dan ook niet meer.

Het probleem dat ik hier zie is dat politici totaal geen idee hebben wat ze doen als het op digitale diensten aan komt en de wetgeving die daar betrekking op heeft. Om die reden worden bedrijven als Apple gedwongen dit soort extreem gevaarlijke technologieen te bedenken om maar te voorkomen dat ze door de zelfde politici als schuldige aangewezen worden voor een misdaad waar zij helemaal niets mee te maken hadden.
De politici zien encryptie veel al als een groot gevaar voor de samenleving maar snappen niet dat we zonder niet kunnen leven in steeds meer digitale wereld. Hoe moeilijker de politici het maken veilige diensten aan te bieden hoe meer van dit soort oliedomme oplossingen er zullen worden bedacht om te voorkomen dat de bedrijven die de diensten aanbieden worden bestraft voor de misdaden van hun gebruikers.
Dit is waarom het zo belangrijk is om menswetenschappers (ethici, ethnografen, sociologen, psychologen) in de tech- en startupwereld te krijgen. Zij zijn gespecialiseerd in het doorzien en wegen van deze risico's.

Waarom dan, wordt dit bericht altijd zo negatief hier geplaatst? Dit is de meest privacy vriendelijke implementatie van dit systeem (wat in veel landen verplicht is). Nergens wordt gemeld dat dit systeem uit staan als je iCloud niet gebruikt. Nergens wordt vermeld dat Apple dan niet meer je foto’s hoeft te scannen (en dus daarmee niet meer direct de foto’s moeten benaderen zoals alle andere cloud aanbieders doen).

Apple moet dit systeem implementeren. Sterker nog, het draait nu al in iCloud. Dit systeem zal er toch wel weer niet komen en ze zullen je foto’s in de cloud blijven scannen.
Even samenvatting:
  • De techniek staat alleen aan als je iCloud foto’s gebruikt. De scan, scant alleen foto’s dat naar iCloud foto’s wordt geüpload.
  • Alleen foto’s dat bekend staan in de database van onafhankelijke organisaties worden gebruikt als input voor het scannen.
  • Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
  • Jouw foto’s worden omgezet naar hash, omdat in de database geen foto’s staan, maar hashes van foto’s
  • Pas bij meerdere flags, dus dat jij meerdere kinderporno grafisch materiaal hebt, dan pas wordt er een signaaltje gestuurd naar de onafhankelijke organisatie. Hun zullen weer contact opnemen met de politie. We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom.
  • Bij de te veel flags, gaat een Apple medewerker als betrouwbare partij het controleren of het daadwerkelijk om kinderporno gaat.
  • Het systeem is er niet om net nieuwe kinder porno grafisch materiaal tegen te gaan, omdat deze nieuwe materiaal nog niet in de database staat. Maar juist om de verspreiding tegen te houden als het materiaal inmiddels wel toegevoegd is aan de database. Het houden en het verspreiden van kinderporno is illegaal in de meeste landen.
  • Google, Microsoft etc doen dit al, alleen dan in hun cloud omgeving. Apple was de laatste partij die het nog niet deed, alleen Apple heeft er voor gekozen om niet via hun cloud omgeving te doen.
  • Bij minder betrouwbare landen zoals China moet Apple hun sleutels van hun cloud omgeving al delen met de overheid. De overheid kan via hun cloud de foto’s al scannen van eindgebruikers. Er veranderd dus niks voor deze landen, want ze hebben al toegang.
FAQ vanuit Apple: https://www.apple.com/chi...ently_Asked_Questions.pdf
Apple is beursgenoteerde bedrijf, en mag niet onwaarheden vertellen. Doet het bedrijf dat wel, dan zijn de eindverantwoordelijke daar verantwoordelijk voor en kunnen een gevangenisstraf of geld boete voor krijgen. Dus we kunnen aannemen dat de bron klopt.

[Reactie gewijzigd door Xieoxer op 22 juli 2024 20:41]

Heel fijn, maar ik wil het gewoon niet. En blijkbaar ben ik niet de enige. :)
Het is gewoon wachten op de eerste mismatches die mensen onterecht gezeik opleveren en het eerste heimelijke misbruik van het systeem om héél andere dingen in kaart te brengen door wat extra hashes toe te voegen aan die databases of gewoon even een heel andere database te gebruiken. Nee, te ongecontroleerd.

So much for privacy, Apple.

Ik heb helemaal geen behoefte aan een tech-bedrijf dat mijn foto's wel even gaat controleren. Daarom zet ik ze dus ook niet in de cloud. En als ik me niet vergis, is het hele idee nou juist dat dit NIET alleen maar werkt in combonatie met iCloud. De foto's worden gescand op het device en de communicatie staat los van iCloud. Zakelijk gezien ook gewoon logisch, want als je dit systeem zou kunnen bypassen door iCloud uit te zetten, dan kan Apple rekenen op weglopende iCloud gebruikers. Niet allemaal, maar genoeg om schade aan te richten aan het Apple ecosysteem.

Als we een iPhone van een dode terrorist hebben, geeft Apple niet thuis en moeten we de diensten en producten van derden gebruiken om de boel te kraken. Maar nu is iederen iPhone gebruiker ineens verdachte van het verspeiden van kinderporno en staat Apple vooran om haar klanten te controleren in samenwerking met particuliere organisaties. Doesn't make sense. Hiermee draaien ze hun privacy-paradepaardje vakkundig de nek om.

[Reactie gewijzigd door Anoniem: 39993 op 22 juli 2024 20:41]

Precies dit. Straks volgen er hashes omtrent politiek, geloofsovertuiging, verkeersovertredingen, etc.

Tegelijk bekruipt mij het gevoel dat als je een kleine hebt en hier geregeld kiekjes van maakt (welke niet gedeeld zijn, of wat dan ook) dat deze opgroeit vanuit zijn/haar luierfase tot een 5-8 jarige jongen/meisje die dus geregeld in een zwembroekje of wat dan ook te zien is op de foto (want he, vakantiekiekjes aan het strand, in het zwembad, een foamparty in de badkamer, etc.) krijg je opeens een agent voor de deur te staan omtrent onderzoek naar kindermisbruik. Dit zijn erg gevaarlijke ontwikkelingen waarbij de professionele viespeuken toch niet gepakt gaan worden. Deze gebruiken geen icloud of iets dergelijks als ik de nieuwsberichten mag geloven dat de politie wederom een netwerk is binnen bedrongen via het darkweb....

Met verdere toevoegingen van hashes zoals politieke hashes is het net zo eng. Ben je iemand die het niet eens is met de politiek in je land, krijg je bezoek van meneer agent. Wellicht krijg je dan ook gelijk minpunten in je social-credit app... Waar gaan we in hemelsnaam naar toe met alle ontwikkelingen?
Dit zijn erg gevaarlijke ontwikkelingen waarbij de professionele viespeuken toch niet gepakt gaan worden. Deze gebruiken geen icloud of iets dergelijks

Dan heb je e.e.a. gemist. Naar aanleiding van dit bericht heeft Facebook verklaard dat ze dit niet on-device gaan doen, maar wél 4,5 miljoen viespeuken hebben gepakt aan de cloud-kant. Best een leuk aantal toch? https://www.macrumors.com...ef-discusses-controversy/

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

and that this is likely only a proportion of the overall number of offenders, by scanning for images with known matches for CSAM.
Tegelijk bekruipt mij het gevoel dat als je een kleine hebt en hier geregeld kiekjes van maakt (welke niet gedeeld zijn, of wat dan ook) dat deze opgroeit vanuit zijn/haar luierfase tot een 5-8 jarige jongen/meisje die dus geregeld in een zwembroekje of wat dan ook te zien is op de foto (want he, vakantiekiekjes aan het strand, in het zwembad, een foamparty in de badkamer, etc.) krijg je opeens een agent voor de deur te staan omtrent onderzoek naar kindermisbruik.
Even heel kort advocaat van de duivel: Dat scenario zou dus theoretisch niet kunnen voorkomen in het model van Apple. Wat zij doen is jouw fotos hashen (een code genereren op basis van je foto, de echte foto zullen ze dus nooit zien), en die hash vergelijken met de hashes die gemaakt zijn van bekende fotos van kindermisbruik. als er meerdere matches zijn tussen hun database en die van jou, dan pas gaan ze actie ondernemen. Jouw vakantiekiekjes van je eigen kind zullen dus nooit een match op gaan leveren, en dus word er geen actie ondernomen.
Totdat ze een combinatie draaien van hashes en AI die naakte kinderen herkend... Dit is toch wel heel gevaarlijk wat Apple doet en ik snap eigenlijk niet hoe dit überhaupt tot stand is gekomen. Hier hebben heel veel mensen zich over gebogen en toch hebben ze dit doorgezet?
Dan heb ik dat deel verkeerd begrepen, ik ging er van uit dat er hashes werden gegenereerd op basis van “ soortgelijke inhoud.”

Anderzijds met andere onderwerpen zoals politieke platen, satirische cartoons e.d. Zal er wel sneller een overeenkomst mogelijk zijn. vrij totalitair als je het mij vraagt.
Via de hash alleen kan dus niet bepaald worden wat er te zien is op de foto.
Welk type "perceptual image hashes" Apple van organisaties zoals NCMEC krijgt weet ik niet.

Maar in tegenstelling tot cryptografische hashes zouden "NeuralHash", "PhotoDNA" e.d. wel eens enigszins reversible (omkeerbaar) kunnen zijn en dus weer tot een "plaatje" leiden waarin sommige aspecten herkenbaar kunnen zijn, zie bijvoorbeeld https://towardsdatascienc...hes-with-gans-cc1be11f277.
Jouw vakantiekiekjes van je eigen kind zullen dus nooit een match op gaan leveren, en dus word er geen actie ondernomen.
Dit gaat er vanuit dat het bij kinderporno altijd om origineel materiaal gaat en niet om bewerkingen op van Facebook geplukte vakantiefoto's.
[...]


Dit gaat er vanuit dat het bij kinderporno altijd om origineel materiaal gaat en niet om bewerkingen op van Facebook geplukte vakantiefoto's.
Het is onzin om daar op te triggeren want om van Facebook geplukte vakantiekiekjes te photoshoppen, of om geanimeerde kinderporno te maken, hoef je geen kinderen uit te buiten.

Dan gaat het dus niet meer om opsporen van kindermisbruik maar om het seksualiseren van kinderen of kinderlijkheid.
Zoals Apple het nu heeft gecommuniceerd gebeurt het alleen als iCloud actief is. Reden hiervoor zijn:
- Apple kan de foto’s niet verifiëren als ze op je toestel staan
- Als je iCloud gebruikt staan je foto’s op Apple’s servers. Dat geeft ze dus enige verplichting om te borgen dat hun servers niet misbruikt worden voor criminele praktijken

Mijn grootste probleem is niet dat Apple dit doet. Google en Microsoft doen precies hetzelfde met foto’s op hun cloud omgevingen.

Mijn probleem zit hem in het feit dat ze dit doen op een manier die E2E encryptie doorbreekt. Dit opent de deur voor overheden om te zeggen: kijk! Het kan dus wel, dus zorg maar dat je het mogelijk maakt als wij een wet hiervoor ontwikkelen. Dus het hek is nu van de dam.

[Reactie gewijzigd door RobbieB op 22 juli 2024 20:41]

Zoals ik het begrepen heb, worden juist de foto's op je telefoon gecontroleerd omdat de foto's op iCloud versleuteld zijn .De controle zou plaats vinden net voordat de foto's naar iCloud worden gekopieerd.
Fotos op iCloud zijn encrypted met serverside sleutels, Apple kan hier dus gewoon bij.
Alleen bepaalde info zoals Apple Health, Payment info staan versleuteld met end-to-end.
Zie Apple info page
Maar ze scannen nu ook foto's die al op iCloud staan, net als Microsoft en Google dat ook doen. Dat de foto's versleuteld op hun omgeving staan wil niet zeggen dat ze er zelf niet bij kunnen.
Maar ze scannen nu ook foto's die al op iCloud staan
Dat betwijfel ik!

Het complete overzicht van alle CSAM meldingen in 2020

Totaal 21.447.786 meldingen
Een paar voorbeelden
  • Facebook 20.307.216 (de nummer 1)
  • Dropbox 20928
  • Adobe 1207
  • Apple 265
  • WeTransfer 82
  • LinkedIn 60
Als Apple al scant dan doen ze dat niet goed, onvolledig of Apple gebruikers zijn model burgers
Als je naar die cijfers kijkt is Facebook van alle social media dus overduidelijk "het" pedofielen netwerk naar keus.
Toch wel raar dat ze dan in alle berichtgeving praten over het scannen van foto's op de lokale storage van je apparaat. Hoe zou die fout nou in ál die artikelen terecht zijn gekomen? Ik geloof er geen klap van. Scannen in de cloud doen ze al lang, net als de andere tech-bedrijven.

Dit gaan ze NIET koppelen aan het gebruik van iCloud. Dat kost ze gewoon klanten, simpel zat. Natuurlijk is een hele groep "unawares" die nu klakkeloos alles de cloud in plempt en dat gewoon blijft doen (die gaan pas piepen als het bij henzelf misgaat, want dan had iemand ze moeten beschermen/waarschuwen). Maar er zullen er ook meer dan een handjevol zijn die dan gewoon gaan stoppen met iCloud.
Nogmaals uit de FAQ van Apple:

Does this mean Apple is going to scan all the photos stored on my iPhone?
No. By design, this feature only applies to photos that the user chooses to upload to iCloud Photos, and even then Apple only learns about accounts that are storing collections of known CSAM images, and only the images that match to known CSAM. The system does not work for users who have iCloud Photos disabled. This feature does not work on your private iPhone pho- to library on the device.

Bron: https://www.apple.com/chi...ently_Asked_Questions.pdf

Waar mis gaat is dat alle vorige artikelen en diverse websites het systeem niet goed snapte en deel van de waarheid hebben gepubliceerd. Inmiddels heeft Apple FAQ online gezet waarin alle vragen worden beantwoord. Apple heeft geen scan in hun cloud omgeving en kreeg juist daar kritiek op dat ze dat niet hadden geïmplementeerd. Alleen Apple heeft voor gekozen om juist via de telefoon te scannen, mogelijk omdat ze iCloud foto’s in de toekomst beter willen beveiligen waardoor een scan dan niet meer werkt?

[Reactie gewijzigd door Xieoxer op 22 juli 2024 20:41]

Maar.... is dit ongedateerde document de eerste stap terug n.a.v. kritiek.... of hebben ze er bij de PR afdeling van Apple gewoon een enorme puinhoop van gemaakt? Het eerste zou me niets verbazen, het tweede eerlijk gezegd wel want PR is een geöliede machine. Dit document is 4 dagen oud (9 augustus). Het is dus niet zo dat ze deze al uitgewerkt klaar hadden liggen. Created 9 augustus, modified 9 augustus.

Maar zelfs dit verandert niet veel aan de bezwaren. Zolang de scan lokaal op het device gebeurt, is het voor de gebruiker oncontroleerbaar wat de scan precies doet. Ze maken nu de eerste stap gewoon wat kleiner, omdat ze nu tegen een hindernis aanlopen. Als het systeem er eenmaal is en ze lokaal kunnen scannen, dan komt stap 2 vanzelf.

Scannen op de lokale storage van een end-user-device is gewoon "not done" in mijn ogen (tenzij de end-user je daar zelf om vraagt natuurlijk). Ik wil die scanner daar gewoon in zijn geheel niet hebben. Scan die foto's maar lekker in de cloud dan, net zoals de concurrentie.

[Reactie gewijzigd door Anoniem: 39993 op 22 juli 2024 20:41]

Waarom zou je de scanner liever in de cloud willen? Want dan weet je zeker dat ze je foto's kunnen inzien daar. (Weet zelf niet of ze dat sowieso kunnen, maar als ze de scans lokaal doen, dan hoeft dat niet te kunnen).

En wat betreft je opmerkingen over het document: ik heb niet de indruk dat er iets is veranderd vanaf het eerste naar buiten brengen. Mogelijk dat nieuws-sites bepaalde zaken wel verkeerd hebben geïnterpreteerd. Ik bedoel: als je iets leest over 'op het device scannen', dan is de aanname snel gemaakt dat ze dat voor alle foto's doen op je device, niet alleen iCloud foto's.
Lees even de eerste berichten over dit systeem. Daar stond dit ook al in. In de allereerst publicaties en diagrammen stond al dat de scan op je telefoon plaatsvindt op het moment van uploaden.
Of er iets in de interpretatie mis gaat hangt af van omstandigheden, die verschillen ook bij Apple.
Er zit vaak al verschil tussen beweren hoe het hoort te werken en de praktijk die bijvoorbeeld uitzonderingen heeft. Apple komt tot nu toe alleen met beweringen, niet met aantoonbare overwegingen of practisch mogelijkheid tot controle. De faq is meer een marketingverhaal dan duidelijke afweging van belangen. Laat staan het belang van klanten.
Natuurlijk, locale storage gaat niemand boeien maar iCloud storage wel?

Denk dat ze meer klanten zouden verliezen als dit gebeurde zonder iCloud.
Dan gaan ze toch lekker allemaal een Android toestel kopen waar precies hetzelfde wordt gedaan...
Google scant foto’s nadat ze op hun storage zijn gezet en gebruikt daarvoor hun eigen ressources.

Apple gaat foto’s lokaal op mijn telefoon scannen en gebruikt hiervoor mijn lokale resources.

En het vonkje om iCloud te disablen zou dan genoeg zijn om de foto’s niet te laten scannen. Geloof je het zelf?

Dus alle kinderporno terroristen die willen kijken of het vinkje ook echt werkt worden hiermee gepakt. De rest die het niet upload naar iCloud niet. Dat is zo volstrekt zinloos dat iedereen wel snapt dat het doel hierachter wat anders is toch?

Daarbij is mijn vertrouwen in iCloud nu al voor 100% weg. Als het mogelijk is om na wat scans, algoritmes en regeltjes de end to end encryptie te doorbreken om handmatig de foto’s te controleren is dat dus gewoon altijd mogelijk. Punt.

Het wachten is op het scannen van terroristische foto’s. Daarna staatsgevaarlijk, daarna exif info of je in de buurt was van een misdrijf, etc.. Oogkleppen af a.u.b.
Resources die je al gebruikt wanneer je iets naar iCloud gaat uploaden. Resources die er zijn, nee dit is gewoon zeuren om het zeuren.

Dat hashes eventueel op je telefoon wordt vergeleken voor ze geupload worden naar de iCloud of pas als ze erop staan maakt toch geen hol uit?

Waarom is het zinloos en wat is volgens jou het achterliggende doel dan?

En verder gebruik je dan maar een andere OS en cloudprovider die exact hetzelfde doet.
En het vonkje om iCloud te disablen zou dan genoeg zijn om de foto’s niet te laten scannen. Geloof je het zelf?
Of het nou klopt of niet, die is een begrijpelijke reactie. Mensen gaan er nu vanuit dat Apple van alles wil weten.

In werkelijkheid denk ik dat Apple zelf dit niet wil, maar dat het bijna niet anders kan vanwege politieke druk. Immers, Google, Dropbox, etc etc doen dit ook – en ook niet voor de lol natuurlijk. Daardoor is meewerken aan csam de industrienorm geworden.
Het woord scannen word veel gebruikt maar het is de onjuiste benaming er voor. Ze maken lokaal alleen hashes van de foto’s die je naar iCloud stuurt. Dus dit kost bijna tot geen resources. Daarna worden de hashes in de cloud vergeleken met de database.
En zinloos is het niet want het gaat er juist om dat ze willen voorkomen dat er illegaal materiaal op hun servers terecht komt. Ze zijn immers verantwoordelijk voor wat er gehost word. Niet wat er op jou telefoon staat.

[Reactie gewijzigd door Crp op 22 juli 2024 20:41]

Als je Android gebruikt en foto's maakt: sla je die alleen lokaal op of ook automatisch upload via de cloud van Google zoals Google Photo's of Drive?

Dan is het goed om te weten dat Google dit ook al heel lang doet met alles wat je automatisch upload.
In feite word je al dan op basis van deze techniek ook gescannend.
Ik upload bijna niets naar de cloud en al helemaal niet automatisch (privé dan, voor het werk TB's per week minimaal, encrypted).
Alle grote cloud providers / hyperscalers doen dit op hun cloud systemen. Ze zijn (deels) verantwoordelijk voor wat daar gebeurt. Daarom is het zakelijke stuk ook encrypted. Veel plezier met het hashen van encrypted file fragments.

[Reactie gewijzigd door Anoniem: 39993 op 22 juli 2024 20:41]

Ik denk echter dat voor de meeste mensen wel het geval is dat men al hun privé foto's naar de cloud pushen. Dus voor de meeste mensen die hier op tegen zijn, zijn vaak onbewust dat alles wat ze "gratis" gebruiken als cloud oplossing, dat deze kwestie al jaren in de regel al word toegepast.
En als ik me niet vergis, is het hele idee nou juist dat dit NIET alleen maar werkt in combonatie met iCloud. De foto's worden gescand op het device en de communicatie staat los van iCloud.
Daar vergis je jezelf dan inderdaad in. Heb je iCloud foto’s uit staan dan is deze nieuwe situatie niet op jou van toepassing.

Hashes worden alleen vergeleken voor de upload.
Voor nu

Niets houdt Apple tegen om deze functionaliteit sowieso te activeren bijv onder druk van eoa regering. Als de geest eenmaal uit de fles is…

En los daarvan, Apple introduceert dus een scanner die je uit kunt zetten als je icloud niet gebruikt. Nuttig.

[Reactie gewijzigd door badflower op 22 juli 2024 20:41]

Dat lijkt vooral de zorg van vele te zijn inderdaad "Ja maar wat als...", persoonlijk kan ik daar niet zoveel mee, zeker omdat de "wat als" vraag helemaal niet nieuw is voor dit onderwerp.

Alle doom scenario's die verzonnen worden zouden al kunnen op de cloud omgevingen en ook die van Apple. De verandering van "after upload" naar "pre upload" maakt daarin helemaal geen verschil. Als ze zouden willen samenwerken met “een regering” was dat al prima mogelijk.
Als iets technisch geïmplementeerd is dan wordt het vroeg of laat voor andere doeleinden ingezet.

ANPR-camera's anyone?
Behalve dan dat dat door de rechter is teruggevloten.

Kijk, ik zie deze nieuwe stap bij Aple ook niet zitten, maar laten we een beetje realistisch blijven. Als je er van uit gaat dat geen enkel bedrijf te vertrouwen is en je 100% privacy wil, kun je sowieos geen enkele computer meer gebruiken.
Maar ondertussen al illegaal gebruikt geweest…
Noem iets wat niet te misbruiken is :+

Nogmaals, ik ben tegen de plannen om foto's te gaan vergelijken door Apple (Google, Box, etc) en keur sowieso misbruik af, maar ik ben niet tegen (bijvoorbeeld) ANPR-camera's. Ik denk dat je er niet omheen kan een bepaald minimum aan maatregelen te nemen. Het argument dat ANPR etc het ten koste gaat van privacy is zoiets als stellen dat je van leven dood gaat. Administraties en een zekere mate van opsporing en mogelijkheid tot controle is noodzakelijk om de samenleving leefbaar te houden.
Alle doemscenario's komen ook een stap dichterbij, dus logisch dat die er bij betrokken worden.

De meeste tweakers die Apple proberen te verdedigen zullen er over klagen als de overheid het zou dan want wat is dan de volgende stap...

Dus ja nogal wiedes dan mensen die niet verblind zijn door hun liefde voor Apple daar ook nu meteen aan denken.
Alle doemscenario's komen ook een stap dichterbij, dus logisch dat die er bij betrokken worden.
Maar dat is dus niet zo. Dat was mijn punt een beetje. Als ze een van die zogenaamde doemscenario’s zouden willen doorvoeren had dat op de cloud ook gekund. Maakt geen verschil.

Verder is het voor een bepaalde doelgroep inderdaad weer een goeie reden om de “iemand die een andere mening heeft zal wel een fanboy zijn” kaart te trekken. Jammer want daarmee maak je jezelf direct ongeloofwaardig in een discussie als deze.

[Reactie gewijzigd door Donstil op 22 juli 2024 20:41]

Het wordt helemaal een feest als er meerdere databases aan elkaar worden gekoppeld. Als er ooit verkeerde jasjes in een van de databases terecht komt dan is dit een bever ending story. Er zijn ook voorbeelden van onschuldige mensen waarvan hun leven compleet verpest is doordat ze onterecht in een database van politie of justitie terecht zijn gekomen.
Alleen als dat jasjes van beverbont zijn dan toch?
Grrr, die autocorrect toch...
Klopt, maar dan heb je het over een dieper liggend probleem bij Justitie. Dat heeft niets met dit systeem te maken.
Is het niet zo dat Apple alleen verantwoordelijkheid draagt voor data die in iCloud staan, en niet voor data die lokaal op een iPhone staan? Het lijkt mij niet dat Apple deze vorm van controle gaat toepassen op lokale bestanden.
Volgens mij is daar een kleine uitzondering in de wetgeving op, dat puur hosting op gesloten delen je niet direct aansprakelijk bent.
Pas als je pertinent weigert om op te treden, of mee te helpen krijg je daar problemen mee.
Je bent fout geïnformeerd. Apple controleert je foto's helemaal niet. Apple controleert enkel of er tussen de foto's die upgeload worden naar iCloud bekende KP zit. MAW als jij KP maakt en die enkel voor jou houdt dan zal dit ook niet gedetecteerd kunnen worden. Dus nee er wordt niet op jou iPhone gezocht naar KP. Het gaat hier dus totaal niet over een inbreuk op privacy want de foto's die ze controleren staan er net bekend voor één van de grootste inbreuken om iemands privacy te zijn. Het zijn sowieso niet jouw foto's dus rechten heb je niet op die KP. KP kan je niet verdedigen met privacy. Er rust geen privacy op die foto's want die zijn algemeen goed geworden onder pedofielen.

Ook je voorbeeld over die terrorist raakt kant nog wal. Apple heeft zoals het dat verplicht is alle iCloud data overhandigt toen men hen daar voor verzocht. Het unlocken van een iPhone dat doet Apple niet en dat mag nu een terrorist of een pedofiel zijn. Wat op dat toestel staat is prive. Zolang het niet verstuurd is naar de iCloud servers heeft Apple totaal geen verantwoordelijkheid over de data van een gebruiker.
Lees het artikel (en de anderen nou gewoon nog eens). Je maakt mij niet wijs, dat in al die artikelen per abuis over het scannen op de lokale storage van je device gesproken wordt terwijl men eigenlijk bedoelde dat ze de techniek gaan toepassen op data in de iCloud. Want dat laatste.... doen ze al lang.

Dus nogmaals: ze gaan de foto's op je iPhone scannen, die in je iCloud scannen ze al. Waarmee je laatste zin dus gewoo niet klopt.

Dit staat los van iCloud, want dat zou voor Apple zakelijk gezien gewoon slecht zijn om het daaraan te koppelen. En als je de data op een iPhone op afstand kunt controleren..... hoef je hem ook niet te unlocken als de terrorist van de iPhone niet meewerkt of dood is. Want hey, als je foto's op het device kunt scannen zonder hem te unlocken, dan kan dat met alle andere aanwezige data ook! Maareh.... voor onze eigen bestwil hoor..... vooral gewoon verder slapen.
^ Dit ^

Ondanks dat ik meer vertouwen in de pricvacy / dataverzameling heb bij Apple, dan bij de andere techreuzen, snap ik het blinde vertrouwen maar vooral felle verdedigen van ( misschien) onduidelijke uitspraken van het bedrijf niet.

Soms lijkt men zo vol van zichzelf, dat ze de wijsheid in pacht lijken te hebben, ondanks dat men 'maar' een klant is.

Het is in 99% van de gevallen zo, dat men iCloud zelfs standaard gebruikt, omdat bij het instellen dit wel héél makkelijk gemaakt wordt. Dus men zit vrijwel zeker al in die cyclus :)

Als zelfs INTERN ( dus bij diegene die er meer bij betrokken zijn ) al ophef ontstaat, waarom zou je dit dan als externe 'liefhebber' nog willen tegenspreken, dat het een slecht idee is ?
Is dat omdat er (nu) naar KP-hashes wordt gekeken ?
Ben je dan geweldig omdat je er tegen MOET zijn ?
Door dit soort berichten zullen (potentiële) kindermisbruikers geen iPhone kopen/gebruiken.
Zo is de oplossing juist verder weg...
So much for privacy, Apple.
Ervan uitgaande dat Apple op CSAM moet scannen dan is is het wel de meest privacy vriendelijke methode

Maar het gegeven dat het hashen van je foto's en vervolgens vergelijken met de CSAM hashes op je device gebeurd voelt gewoon niet goed.

De controle verplaatsen naar de iCloud server mag misschien beter voelen maar technisch gezien is er geen verschil
De slechte oplossing is wel al je foto's op de server scannen zoals o.a. Facebook en Google dat al jaren doen.

btw Voorlopig speelt dit alleen in de US maar ook in de EU zijn plannen om het controleren op dergelijk content te verplichten.
Wat ik ook zo bizar vindt is dat als de overheid hetzelfde plan zou hebben met dezelfde voorwaarden het huis te klein zou zijn. Ik blijf erbij dat ze goede sier dachten te maken met iets waar niemand tegen kan zijn, namelijk kinderporno, maar zich lelijk verslikt hebben.

Ik denk dat er heel druk vergaderd wordt hoe ze zonder gezichtsverlies terug kunnen.....Bovendien vraag ik me nog steeds af wat ze precies doen. Aangifte? Bij wie dan? En op wlke gronden, met welk bewijs?

Juridisch kunnen ze volgens mij niet meer dan een tip geven aan opsporingsdiensten die vervolgens een huiszoekingsbevel moeten vragen op basis van een match met hashes op een iCloud?

[Reactie gewijzigd door gaskabouter op 22 juli 2024 20:41]

Niemand verplicht je om Apple te kopen...
Sowieso raar dat mensen dingen in de cloud zetten, als je zou zeggen we zetten al je foto's op internet, paniek... we zetten al je foto's gratis op internet, oeh gratis, altijd goed... we zetten al je foto's in de cloud en het kost geld, oh dan zal het wel goed zijn.
Of je data nou op jouw computer-met-internetverbinding staan, je huisserver-met-internetverbinding, je bedrijfsserver-met-internetverbinding of de server van een ander bedrijf.. Uiteindelijk gaat het om de controle. Je computer thuis is waarschijnlijk een stuk slechter beveiligd en makkelijker te hacken dan die van Apple.
Ging ook niet om of het veilig is of niet, maar om hoe mensen denken over internet. Je foto op internet is eng, maar je foto in de cloud niet, alsof je ergens een privé wolkje hebt waar niemand bij kan.

Nu willen ze dus met hun vingers in je wolkje gaan grabbelen naar foto's.
Het is niet raar. Sprekende als iemand die door diefstal ooit AL zijn gegevens incl backup is kwijtgeraakt: Stel jezelf de vraag:

Is het erger als potentieel iedereen aan jouw foto's en bestanden kan? (cloud hack)
Of is het erger als jij nooit meer aan jouw foto's en bestanden kunt? (diefstal, slechte backup, etc)

Voor mij is de tweede optie veel erger. Ik heb het namelijk meegemaakt. De inbreker werd bij wonder opgepakt (zeldzaam!) en ik kreeg mijn data terug. Sindsdien gaat alles netjes de cloud in want die foto's, en allerlei andere bestanden zijn voor mij onvervangbaar. (Ik doe ook aan 3-2-2 backup)

[Reactie gewijzigd door Division op 22 juli 2024 20:41]

We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent.
In een rechtsstaat zijn er ook voorwaarden waaran voldaan moet worden voor men een "huiszoeking" op je telefoon mag doen. Blijkbaar gelden die voor Apple niet...
Google, Microsoft etc doen dit al, alleen dan in hun cloud omgeving. Apple was de laatste partij die het nog niet deed, alleen Apple heeft er voor gekozen om niet via hun cloud omgeving te doen.
Ja, die doen dat inderdaad, in hun cloud omgeving.. in tegenstelling tot Apple, die het op jouw telefoon uitvoerd.
Lees de FAQ eens:
Does this mean Apple is going to scan all the photos stored on my
iPhone?

No. By design, this feature only applies to photos that the user chooses to upload to iCloud
Photos, and even then Apple only learns about accounts that are storing collections of known
CSAM images, and only the images that match to known CSAM. The system does not work for
users who have iCloud Photos disabled. This feature does not work on your private iPhone photo library on the device.
Wat wil je daar mee zeggen? Het wordt nog steeds op je telefoon gescanned, niet op de servers van apple.
Kan je me je precieze probleem of bezwaar eens uitleggen?

Dat hashes eventueel op je telefoon wordt vergeleken voor ze geupload worden naar de iCloud of pas als ze erop staan maakt toch geen hol uit?
Tja, als je geen bezwaar hebt dat men ongevraagt bestanden op jouw telefoon scant is er niks aan de hand...
Het is ontworpen om een specifiek maatschappelijk probleem aan te pakken, waar al jaren om wordt geroepen.
Er worden geen willekeurig bestanden gescant. Verder ben je pas "verdacht" als je meerdere matches hebt. Mocht je 1 afbeelding hebben die overeenkomt met de database die men gebruikt voor vergelijkingen gebeurt er niks.

Mocht de techniek uiteindelijk anders worden ingezet heb je een ander verhaal.

Verder dat je foto's op je telefoon al gescanned worden om personen, bomen, wolken en vele andere verschillende objecten te herkennen is schijnbaar geen probleem.
Ja, die doen dat inderdaad, in hun cloud omgeving.. in tegenstelling tot Apple, die het op jouw telefoon uitvoerd.
je doet alsof dat zo veel erger is, maar Apple raakt hier zelf je bestanden niet aan.
de controle gebeurt alleen bij bestanden die op icloud gezet worden, en de controle gebeurt niet door een medewerker of server in het beheer van Apple maar door de telefoon die je zelf in beheer hebt.
dit als teken dat Apple niet gaat rondneuzen in jouw icloud foto's, en dat Apple medewerkers hier niet bij kunnen(tenzij het systeem meerdere foute foto's detecteert, waarna alleen thumbnails van de gedetecteerde foto's in te zien zijn door Apple medewerkers)
Een huiszoeking is totaal niet te vergelijken met het hashen en lokaal checken tegen hashes van bewezen illegaal materiaal. Bij een huiszoeking komen vreemden je huis binnen en kijken daar alles na en weten vervolgens wat je in je huis hebt staan. Bij het systeem van Apple krijgen anderen helemaal niets te zien van wat je in de foto-verzameling hebt staan. Pas als er een match is met illegaal materiaal gaat er een balletje rollen.
Het is meer te vergelijken met iemand die met een Geiger-teller langs de huizen loopt en melding maakt bij een hoge rate wanneer er radio-actief materiaal in een huis ligt.
Geweldig. Juist nu begin ik me zorgen te maken. Criminelen gebruiken sowieso al niet de iCloud, dat was voorheen al vragen om problemen en dat gaat niet minder worden. Dus pakken ze hier alleen de betalende gebruiker die toch écht niks te verbergen heeft mee. Zoals veel DRM dat doet. Even verondersteld dat er geen enkele false positive de lijst zit, wat mij toch echt een Utopie lijkt. Afhankelijk van de techniek zal het veranderen van één enkele pixel mogelijk het verschil zijn tussen wel en niet gevonden/ontdekt worden. Verder wordt de lijst aangeleverd door externe partijen. Dat maakt een man-in-the-middle attack wel héél erg gemakkelijk.
Hoe pakt men dan de betalende gebruiker die niks te verbergen heeft hier mee? Als jij geen KP naar iCloud stuurt dan wordt er ook niks gecontroleerd. De enige die hier mee geraakt wordt is de pedofiel die zich achter de privacy maatregelen van Apple wil verschuilen. Denk je nu echt dat het Apple's plan is om haar eigen klanten en masse kwijt te raken door false positives?

Ik hoor veel als argument dat je geen weerwerk kan bieden bij een false positive maar heel de wereld zal de eerste false positive kennen en er zal weken over gepalaverd worden. Het is Apple nieuws dus het is voorpagina nieuws en al zeker als privacy features van Apple zich tegen hun gebruikers zouden keren.

Volgens mij zit de angst er gewoon in dat Apple het wel goed gaat doen en ja dat is natuurlijk een motivator om meer te gaan beginnen doen. Daarom vind ik het vreemd dat doemdenkers het vooral koppelen aan wat er allemaal kan misgaan. Ik snap de tegenstanders niet echt want als Apple echt de mist ingaat met dit project dan is het ook over en uit voor dit soort technologie.
Ik hoor veel als argument dat je geen weerwerk kan bieden bij een false positive maar heel de wereld zal de eerste false positive kennen en er zal weken over gepalaverd worden. Het is Apple nieuws dus het is voorpagina nieuws en al zeker als privacy features van Apple zich tegen hun gebruikers zouden keren.
Ik vraag me af of mensen in de krant willen komen als iemand die verdacht wordt van ko op zijn computer, vals alarm of niet. Dit moet in het verleden zijn voortgekomen gezien de grote aantallen foto’s en gebruikers op andere clouddiensten. Toch lees je daar nooit wat over.

Punt blijft dat je als gebruiker nooit kunt controleren naar welke hashes / foto’s gezicht wordt. Hoe weet je dat er niet naar bekende foto’s gezicht wordt, van heel andere zaken? Misschien hebben de Amerikanen wel familiefoto’s van Snowden en willen ze op die manier Edward Snowden proberen terug te vinden.

In zo’n scenario is Apple’s systeem simpelweg een gereedschap geworden om foto’s terug te vinden: Ze kennen de achterliggende foto’s niet maar faciliteren wel de zoektocht.

Dus ‘niets te verbergen’ en ‘als je geen kp hebt wordt er niets gecontroleerd’ dekken de lading niet bepaald.

Hiermee wordt een achterdeur gemaakt voor een foto-vergelijkingssysteem. Dat die deur alleen voor kp gebruikt gaat worden, is nu de (eenzijdige) afspraak, maar die is niet te controleren. En wie zegt dat die afspraak volgend jaar niet wordt veranderd?
Omdat er nu dus gescanned word op hashes met kinderporno, maar ook op 'illegale' media.
Je mag je divxjes van Friends ook niet op icloud zetten.
Whats next ?
Inderdaad, onder druk van de anti-vlees genootschappen is VW nu gestopt met de verkoop van hun curryworst, het meest verkochte artikel in hun fabrieken.

Als er maar genoeg lawaai komt over iets, gaat een bedrijf vanzelf overstag.
Zwarte piet, paashaas, kerst ... het zijn nog net niet het nieuwe roken ... maar minder en minder in het winkelbeeld terug te vinden, want social media maakt van je naam een scheldwoord.

ver weg , misschien maar wel het risico wat je loopt in onze "vrije" wereld
Omdat er nu dus gescanned word op hashes met kinderporno, maar ook op 'illegale' media.
Je mag je divxjes van Friends ook niet op icloud zetten.
En dat is server-side niet mogelijk?
Feit is dat zodra men op dergelijke content gaat controleren je niet meer terecht kunt bij commerciële storage providers
Hier ligt dus het probleem ook.
Het gebeurt al serverside ....

MS probeert het zoveel mogelijk te vinden, en heeft een max. filesize
Dropbox gebruikt naast deduplication ook dit soort dingen om misbruik tegen te gaan
Google Drive doet het ook serverside.

De grootste ophef ontstaat van het gedeelte dat met het OOK clientside al wil doen voor je gaat uploaden.
Dit is imho voornamelijk de aansprakelijkheid verleggen naar de klant.
Want als je het niet op jouw cloud laat zetten, EN ook nog eens na x aantal keer gaat melden, wordt het zoals aangegeven een kleine stap om mensen die van drop houden op te sporen, en te melden.
Dit is imho voornamelijk de aansprakelijkheid verleggen naar de klant.
Dat is natuurlijk onzin want de aansprakelijkheid ligt in het geval van overtreding altijd bij de klant
Want als je het niet op jouw cloud laat zetten, EN ook nog eens na x aantal keer gaat melden, wordt het zoals aangegeven een kleine stap om mensen die van drop houden op te sporen, en te melden.
Het is niet mogelijk om selectief foto's in je fotoalbums te syncen naar iCloud, het is alles of niets

btw Gebruikers profileren aan de hand van de geüploade foto's is nu al mogelijk, daarvoor heb je het Apple systeem niet nodig

[Reactie gewijzigd door Carbon op 22 juli 2024 20:41]

Hoe pakt men dan de betalende gebruiker die niks te verbergen heeft hier mee? Als jij geen KP naar iCloud stuurt dan wordt er ook niks gecontroleerd. De enige die hier mee geraakt wordt is de pedofiel die zich achter de privacy maatregelen van Apple wil verschuilen. Denk je nu echt dat het Apple's plan is om haar eigen klanten en masse kwijt te raken door false positives?
Blijkbaar vindt Apple die paar honderd tot paar duizend false positives geen probleem. Want dat er false positives gaan komen is een garantie.

Degenen die hier mee geraakt gaan worden zijn de onschuldige iCloud gebruikers die de pech hebben dat hun volledig ongerelateerde foto toevallig op dezelfde hash uit gaat komen. En met deze aantallen fotos is dat een garantie, geen "kans".
Precies dat. Mensen die kinderporno op hun telefoon hebben, hebben op een paar suffies na, waarschijnlijk allang de upload uitgezet. Dus al dit gedoe, levert alleen maar privacy issues op en kans op gedoe. Dus wat is nu uiteindelijk de winst? Dat Apple zogenaamd iets aan faciliteren van kinderporno doet?
de lijst wordt aangeleverd door 1 externe partij, de enige organisatie in Amerika die dit soort materiaal mag bezitten.
de gebruikte techniek is overigens dusdanig flexibel dat kleine aanpassingen nog steeds de zelfde fingerprint geven.

false positives zullen niet in de lijst zitten, het is geen automatisch gegenereerde lijst maar een zorgvuldig samengestelde lijst van bewezen afbeeldingen van misbruik.
daarom dat het een lijst is van maar 200000 afbeeldingen, terwijl er veel meer in omloop zijn.
de lijst wordt aangeleverd door 1 externe partij, de enige organisatie in Amerika die dit soort materiaal mag bezitten.
De lijst wordt aangeleverd door deze organisatie "En andere vergelijkbare organisaties". Dus zeker niet alleen die ene Amerikaanse organisatie.
de gebruikte techniek is overigens dusdanig flexibel dat kleine aanpassingen nog steeds de zelfde fingerprint geven.
Behalve dat er al bewezen is dat er mogelijkheden zijn in onzichtbare "micro-pixel" aanpassingen die het systeem kunnen omzeilen.
false positives zullen niet in de lijst zitten, het is geen automatisch gegenereerde lijst maar een zorgvuldig samengestelde lijst van bewezen afbeeldingen van misbruik.
daarom dat het een lijst is van maar 200000 afbeeldingen, terwijl er veel meer in omloop zijn.
False positives zullen er altijd zijn aangezien hashing geen 100% overeenkomst heeft. Een hash kan voor twee fotos gelijk zijn terwijl het plaatje geen enkele overeenkomst heeft. Die kans is klein maar we praten hier over een getal met heel veel nullen voor het aantal plaatjes. De enige conclusie die men kan trekken is dat false positives *gegarandeerd* zijn als we over dit soort aantallen praten.

Wat we hier aan het doen zijn is enkele tientallen tot duizenden mensen ter wereld onterecht als kindermisbruikers verdenken zonder enig bewijs. Dat is op geen enkele manier goed te praten!
de gebruikte techniek is overigens dusdanig flexibel dat kleine aanpassingen nog steeds de zelfde fingerprint geven.
false positives zullen niet in de lijst zitten,
Die twee quotes spreken elkaar tegen. Het hashing algoritme kan vals-positieven genereren, ook al heb je in je lijst alleen verdachte plaatjes. Het is natuurlijk een afwijking tussen het kunnen afvangen van zoveel mogelijke bewerkingen enerzijds, en het verkeerd vlaggen van plaatjes anderzijds. Daar hebben ze een keus moeten maken, maar ook al is de kans nog zo klein het aantal plaatjes in de iCloud is groot genoeg om altijd wel een of meerdere vals-positieven op te leveren.

Nu begrijp ik uit de FAQ dat je op basis van één hit niet direct als verdacht gemarkeerd gaat worden, daarmee verklein je natuurlijk de kans op misdetecties wel enorm.
"false positives in de lijst" is als de lijst met hashes een hash van een onschuldige foto bevat.
dat is wat anders dan een false positive in een match, wanneer een hash van een foute foto toevallig overeenkomt met die van een onschuldige foto.
maar mede omdat een false positive in een match mogelijk is hebben ze "fail-safes" in hun systeem gezet.
ten eerste een threshold die de kans op valse beschuldigingen exponentieel verkleint, en als die faalt is er de menselijke controle nog.
Criminelen gebruiken sowieso al niet de iCloud, dat was voorheen al vragen om problemen en dat gaat niet minder worden. Dus pakken ze hier alleen de betalende gebruiker die toch écht niks te verbergen heeft mee
Dit weet Apple ook best maar ws moeten ze het onder druk van de regering van de VS doen voor hun cloud diensten (net als alle andere cloud diensten) die helaas nou net encrypted zijn voor fotos.

Dat de betalende gebruiker niets te verbergen heeft is een gigantische misvatting. Post dan gewoon even hier je prive foto’s zou ik zeggen.

Echt niets weerhoudt een regering er van om van Apple te eisen ook te checken op een database van hashes van bijv Winnie de Poo, of religieuze spotprenten, of andere ideeen die ongewenst zijn, om maar wat te noemen.

Dit is ws ook de hoofdreden dat Apple dit implementeerd, onder druk van bijv China. Onder mom van KP introduceren is dan weer de bekende marketing truuk die we helaas voor Apple nu met zn allen door hebben.
Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
Dat is aantoonbaar vals.

Hier een artikel van een man die daadwerkelijk scant voor kinderporno:
https://www.hackerfactor....es/929-One-Bad-Apple.html
In the six years that I've been using these hashes at FotoForensics, I've only matched 5 of these 3 million MD5 hashes. (They really are not that useful.) In addition, one of them was definitely a false-positive. (The false-positive was a fully clothed man holding a monkey -- I think it's a rhesus macaque. No children, no nudity.) Based just on the 5 matches, I am able to theorize that 20% of the cryptographic hashes were likely incorrectly classified as CP.
En hier de verhalen van drie Nederlands met dickpicks:
reviews: Account geblokkeerd. Wat nu?

Lang verhaal kort, deze techniek is niet zo prefect als de markering machine jou doet geloven.

[Reactie gewijzigd door Eonfge op 22 juli 2024 20:41]

je quote alleen de verkeerde paragraaf.
de techniek die Apple gaat gebruiken werkt niet met md5 hashes.
1) zoals gezegd werkt deze techniek met MD5. Zoek eens naar “perceptual hashing”.
2) Dat artikel dat je linkt gaat over oa Microsoft en Google. Zij gebruiken machine learning op al je foto’s om zo te proberen nieuwe KP te vinden. Dat gaat vaak mis, zoals bijv bij foto’s van je eigen kindje in bad. Apple doet dat expliciet NIET en vergelijkt een hash enkel met een database van bevestigde KP.
Het grootste verschil is dat bij Google en Microsoft het vrijwel bekend is qua privacy.

Apple was voorheen best wel privacy aware, daarom hebben best wat mensen on mij heen bijvoorbeeld een iPhone.

En dat lijkt ineens te veranderen. Ja tuurlijk zal het pas bij meerdere flags etc tot gevolg leiden. Maar dat betekent dat er dus wel al een eerste flag dus ergens bekend wordt gemaakt.

Ik zie dit gewoon als een opening en ze gebruiken in dit geval kinderporno om mensen mee te krijgen. Een oud trucje wat vandaag de dag nog steeds prima werkt.

Edit: typo

[Reactie gewijzigd door marco-ruijter op 22 juli 2024 20:41]

We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom.
Wij wel ja. Nu. Maar dat kan zomaar veranderen, en geldt ook niet voor anderen over de hele wereld. Als een regime besluit dat Apple dit moet gaan gebruiken om andere zaken op te sporen (protesten, tekenen van oneens zijn met het regime, etc), hebben ze ineens weinig poten om op te staan wanneer ze zeggen dat het niet kan.

[Reactie gewijzigd door Aardedraadje op 22 juli 2024 20:41]

We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom.
Mag ik hier wel één rechtsbeginsel aan toevoegen waar we toch echt in mijn ogen in Nederland in ieder geval overheen gaan met verschillende wetten.

Je bent onschuldig tot je schuld bewezen is.

Met zowel de sleepwet als deze actie gaan we langzaam naar je bent schuldig tenzij je onschuld bewezen is.
Big Tech belooft wederom, We will do no Evil.
Precies.

…En daarom gebruik ik ook geen andere cloud services dan iCloud, voor mij geen Google, Microsoft, etc. Ik wordt er gewoon stront ziek van dat goed deugende mensen zonder kwaad in de zin altijd maar moeten bloeden onder die paar rotte appels. Pak die rotte appels en laat de rest met rust. Scan pas bij verdenking en een opsporingsbevel i.p.v. vooraf te scannen. De kans op false positives en de gevolgen van account blokkering is gewoon aanwezig.

Ah, u gebruikt iCloud? U bent verdachte van kinderporno bezit, we gaan uw foto’s even scannen.
Dank je wel, Apple! :(

…En nu gaat het om het opsporen van kinderporno, straks is het omdat iemand Winnie de Pooh memes maakt in China of iemand Aleksandr Loekasjenko foto’s van een Hitler snor voorziet. Oftewel Apple brengt zich met deze tool in een compromitterende positie om voor tirannieke leiders van minder vrije landen te gaan werken in de vorm van censuur, onder dwang van geen toegang meer tot de interne markt van dat land.

Apple: "Dat doen we niet!"
Ik: "Principes zijn flexibel wanneer het op centen aankomt."
Ah, u gebruikt iCloud? U bent verdachte van kinderporno bezit, we gaan uw foto’s even scannen.
Dank je wel, Apple! :(
De huidige situatie

Ah, u gebruiktFacebook? bent verdachte van kinderporno bezit, we gaan uw foto’s even scannen.
Dank je wel, Facebook! :(


Ah, u gebruikt Google Drive? bent verdachte van kinderporno bezit, we gaan uw foto’s even scannen.
Dank je wel, Google! :(
En nu gaat het om het opsporen van kinderporno, straks is het ...
Er is nets wat het Apple systeem mogelijk maakt wat nu nog niet kan!
Het enige wat Apple hier doet is een gedeelte van de procedure verleggen naar de client
Zo begint het.
Je hoeft niet bang te zijn en het is alleen via deze database.

Uiteindelijk ga je een stap verder. Database word zelf lerend want je wilt ook de nieuwe kinderporno snel pakken. En bijna niemand heeft daar problemen mee, want je pakt vieze personen aan die binnen de samenleving geen plaatshebben voor hun hersenafwijking.

Daarna gaat het systeem verder. Geweld willen wij ook minder hebben, dus pakt het systeem dat aan. Zinloos geweld. Vervolgens racisme/discriminatie en bepaalde politieke uitingen. En zo gaat het systeem en de controle steeds verder.

En wat met de fouten die alsnog gemaakt worden, als is het klein. Die data word ergens opgeslagen. Je hoort zo vaak. Data gegevens van bedrijf X ligt op straat wat als deze data naar buiten en de zogenaamde “pedo jagers” gaan op jacht en pakken die paar onschuldigen. Nee sorry. Kappen hiermee, wij hebben ooit verzuilde samenleving gehad in Nederland en er was ooit een controle samenleving in de DDR en laten wij daar alsjeblieft niet terug naar toe gaan.
Het is vooralsnog toch ook alleen in de VS?
Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
Dit vind ik dus al wel eng. Stel je nu voor dat de foto van je kind(eren), blijf en vrij zullen we maar zeggen, op een foute site opduikt. Een organisatie markeert deze foto. Dan hang je al.
Want hoe transparant is die organisatie?

Voorts denk ik dat dit soort dingen een glijdende schaal is.
Dan moeten er al 3 van jouw foto's in de database staan, bij één slaat ie niet eens aan. Staan er 3 foto's van jou in de database? Dan was er al lang bij je aangebeld want foto's worden alleen toegevoegd via de politiediensten (en daarna bevestigd door het NECMEC). Die politiediensten doen echt wel hun best om de bron van een foto te vinden als zij de foto's als KP bestempelen. En als jij die ooit zelf op social media hebt gezet is dat een koud kunstje.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno
Dus false positives zijn uitgesloten?
false positives kunnen gebeuren, maar een foto van jouw kind heeft evenveel kans op een false positive als een foto van een kopje koffie, een zonsondergang, of je nieuwe auto.

en 1 false positive doet niks, bij meerdere komt er pas enige vorm van echte privacy inbraak in de vorm van een controle op thumbnails.
Het gaat mij er om dat je woorden als nooit dus niet moet gebruiken...
"Pas bij meerdere flags, dus dat jij meerdere kinderporno grafisch materiaal hebt, dan pas wordt er een signaaltje gestuurd naar de onafhankelijke organisatie. Hun zullen weer contact opnemen met de politie. We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom."

Sorry maar ik wil niet in een maatschappij leven waar de hele dag je hebben en houden gescand wordt tot er iets verdachts gezien wordt en worden aangegeven bij de politie. Zelfs de politie mag niet zonder toestemming van van derden je huis doorzoeken maar een bedrijf gaan we dat gewoon laten toestaan?
Ergens is dat een loophole in de wetgeving. De politie wordt vrij strak gereguleerd maar bedrijven mogen met diensten die op hun hardware plaatsvinden (blijkbaar) al veel meer doen. Apple mag jouw fotos langer bewaren dan de politie (op zich is dat ook waar je voor betaalt). Blijkbaar mogen ze je foto's ook scannen op rare dingen (van de wet althans), en als ik deze discussie lees wordt dat misschien ook wel van ze vereist. En aangezien de politie dan weer het recht heeft om toegang te vragen (mbv een rechter) hoeft de politie ook niets meer te bewaren. Daarmee leg je dus aan de ene kant de politie aan banden om machtsmisbruik tegen te gaan, maar aan de andere kant leg je de taak die je net aan de politie verboden hebt bij bedrijven neer...
Dat is toch niet zo raar? Bedrijven mogen meer omdat jij ervoor kunt kiezen om geen zaken met dat bedrijf te doen. Jij kunt er niet voor kiezen om geen zaken met de overheid te doen.
Feitelijk klopt dat, gevoelsmatig niet.
Mijn voorkeur zou uitgaan naar een maatschappij waarin je niet alle kleine lettertjes hoeft te lezen voor om te voorkomen dat je informatie wordt uitgelezen en je bij overheden kan worden aangegeven. Alleen al het idee dat een commercieel bedrijf dat wil doen is vreemd in mijn ogen. Ik snap dat je bijvoorbeeld bij een bezoek aan een gelegenheid bij binnenkomst duidelijk de huisregels staan vermeld. Dat is een heldere mededeling die de meeste bezoekers op z'n minst zien en lezen. Vergeet ook niet dat er langzamerhand een grijs gebeid aan het ontstaan is waarbij het gebruik van een apparaat iets wat jouw eigendom is (bijvoorbeeld een telefoon) en een dienst (cloudopslag) voor de meeste consumenten niet meer van elkaar te onderscheiden is. Voor de gewone consument is het gewoon hun telefoon en hun camera, een gebruiksvoorwerp.
Zou jij het normaal vinden als een fotocamera alle foto's die jij maakt zou scannen of het wel door de beugel kan? Want dit is wel waar het in de praktijk op gaat uitkomen.
Alleen foto’s dat bekend staan in de database van onafhankelijke organisaties worden gebruikt als input voor het scannen.
En dit is het grootste probleem.

Deze lijst met hashes wordt door een 3e partij aangeleverd, en is absoluut niet te controleren door Apple (het is niet alsof die organisatie de daadwerkelijke foto’s aan Apple kan of mag leveren). Apple beweert dat ze de afbeeldingen controleren, maar ook dit mogen ze niet. Ze kunnen hooguit de hash nogmaals controleren, als het echt CSAM is mag dit alleen bekeken worden door iemand met opsporingsbevoegdheid.

Ik twijfel niet aan de goede bedoelingen van Apple, maar het systeem wat ze nu bedacht hebben is ontzettend makkelijk te misbruiken door dubieuze overheden.
Waar haal jij dat lijstje vandaan dat hier nu tamelijk authoritair als FP staat? Zomaar wat haken en ogen:
Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
Er wordt gebruik gemaakt van perceptual hashing waardoor een foto van je eigen kind wel degelijk een match zou kunnen opleveren en zelfs volkomen andere foto’s stomweg omdat die rekenkundig perceptueel matchen. Zouden ze exact matching gebruiken dan wordt het matchen van aangepaste of verkleinde foto’s erg lastig.
We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom.
Al eens Amerikaanse rechtssysteem bekeken? Daar staan ze iets anders tegenover de onschuldpresumptie.
Alleen foto’s dat bekend staan in de database van onafhankelijke organisaties worden gebruikt als input voor het scannen.
Wie beoordeelt deze foto’s? Er schijnen hele mappen foto’s van verdachten in deze databases te zijn verwerkt waardoor bijvoorbeeld ook lege badkamers of een bankstel een match opleveren. Niet erg? Mwoah, je foto gaat naar Apple ter beoordeling en er wordt alvast een vlaggetje gehesen.

Deze stap is je reinste Big Brother, geïntroduceerd met een nobel streven maar functional creep ligt op de loer - misschien niet bij Apple zelf maar er zullen nu al genoeg instanties kwijlend deze ontwikkelingen volgen: het eureka van het afluisteren van E2E: gewoon bij het beginpunt. En Apple kan dan de nodige druk en rechtszaken tegemoet gaan zien om deze functionaliteit voor andere toepassingen in te gaan zetten. Of dat nu nog te stoppen is? De geest is al uit de fles.
Even heel kort door de bocht, maar dit hele systeem is dus te ontwijken door 1 bit van de afbeeldingen te wijzigen? Tenminste, voor zover ik het begrijp veranderd dan de volledige hash van de afbeelding en dus maakt dat het hele systeem onbruikbaar.

Edit: Ik ga er hier natuurlijk vanuit dat de hash is van de afbeelding zelf, als ze de foto's zouden analyseren op bepaalde aspecten zoals wat er op de foto staat, kleur contrasten, en wat er dan ook interessant is en van de uitkomst van deze analyse een hash maken zouden een aantal manipulaties van de zelfde foto een zelfde analyse geven en de hash van deze analyse zou nog steeds een positief geven, maar dus geen idee of dat is wat Apple doet.

[Reactie gewijzigd door Kriekel op 22 juli 2024 20:41]

Niet hier. Het algorithme kan ook met aangepaste (bijvoorbeeld gespiegelde of naar zwart-wit omgezet) foto’s omgaan. Het is dus niet een simpele filehash.
Nee, zoek even naar Perceptual Hashing. Dan moet alles duidelijk worden. :) Het is niet op basis van md5 of SHA256 bijvoorbeeld.
Het is niet Apple's taak om zich hiermee bezig te houden. En ook al is het allemaal anoniem, dat is het du *niet*. Apple weet dondersgoed welke gebruiker welke foto, ehh, "hash" heeft geupload. Anoniem scannen bestaat niet bij een systeem waar je bij naam en toenaam bekend bent. Zo simpel is het.

"Nee hoor we weten echt niet bij welke user die foto hoort, want het is anoniem". Suuuuure, waarom scan je dan op illegaal materiaal als je niemand erop aan zegt te kunnen wijzen? Oh, dat kun je wel? Wat is er dan anoniem aan?!

Dat is exact hetzelfde als wanneer T.net "anoniem" ieder's reacties gaat screenen. En als er iets niet in de haak is, dan een OW naar zijn/haar e-mailadres sturen. Ja heel anoniem hoor. Dit is dus wat Apple beweert.

[Reactie gewijzigd door _Thanatos_ op 22 juli 2024 20:41]

het is anoniem tot de threshold bereikt is.
scans worden lokaal gedaan waardoor Apple niks krijgt tot je een match hebt.
bij een match wordt deze in een gecodeerde virtuele kluis gezet, Apple kan niet zien welke gegevens er in zitten.
wanneer er een aantal matches in de kluis zitten gaat deze pas open en kan Apple zien van wie de kluis is en thumbnails van de afbeeldingen die er in zitten bekijken.
“ Het is niet Apple's taak om zich hiermee bezig te houden.”

Dat is het dus wel, want ze zijn er wettelijk toe verplicht in de VS. De EU overweegt eenzelfde verplichting in te voeren.
Een bedrijf is wettelijk verplicht de versleuteling van de data van z'n klanten onklaar te maken teneinde zijn/haar privacy op (hun eigen) straat te leggen?

Het geeft maar weer aan waarom je noch zulke bedrijven, noch de overheden die zoiets achterlijks verzinnen, kunt vertrouwen en je je data maar beter in eigen beheer kunt houden. Maarja, pas als de massa dat ook gaat doen, wordt het interessant om daar weer allerlei wetjes en regeltjes op te gaan maken.

Heb je ondertussen een bron? Ik ben wel benieuwd welke EU-figuren hiervoor verantwoordelijk zijn, en waar ik dus niet op moet gaan stemmen.
Een bedrijf is wettelijk verplicht de versleuteling van de data van z'n klanten onklaar te maken teneinde zijn/haar privacy op (hun eigen) straat te leggen?
Niet helemaal, die data is niet end-to-end versleuteld bij de cloudboeren; dus het is zoeken in plain-text accessible data.
Maarja, pas als de massa dat ook gaat doen, wordt het interessant om daar weer allerlei wetjes en regeltjes op te gaan maken.
Als er een daadwerkelijk gebruiksvriendelijke én veilige manier was om het te doen... Dan was het waarschijnlijk een stuk populairder. De pest is dat bijvoorbeeld een NAS niet eens perse goedkoper is dan een cloudoplossing voor de gemiddelde consument plus die staat in huis waardoor het voor backups ook niet helemaal zaligmakend is... Je moet dan alsnog af en toe off-site encrypted kopietjes maken. Mensen willen er over 't algemeen helemaal geen werk aan hebben. :/
Wat je noemt is hoe het hoort te werken. Het probleem bij dit soort oplossingen is dat je extra risico's maakt. Nog naast het feit dat Apple het toestel van de gebruiker claimt.
Kennelijk zijn medewerkers van Apple zich daar van bewust.

1. Het zou alleen aan staan onder de voorwaarden van Apple, die Apple niet aantoonbaar maakt en gebruikers geen mogelijkheid geeft om daarop te kunnen vertrouwen.
2. Het is al meerdere malen gebeurd dat die databases 'vervuild' waren. Het is namelijk ook mensenwerk en het gaat om veel gegevens. De betrouwbaarheid is dus niet zomaar redelijk te noemen voor gebruikers als daar enorme gevolgen aan kunnen zitten.
3. In een rechtsstaat is het niet aan een bedrijf om op verkochte apparatuur rechten te gaan claimen om zonder inbreng van de klant een juridische mening te vormen en dat naar anderen door te sturen met alle mogelijke gevolgen.
4 Dat andere bedrijven ook controleren staat niet ter discussie. Klanten hebben een relatie met Apple. Daarbij maakt het een enorm verschil of ze dit op hun eigen apparatuur doen of de apparatuur van de klant claimen om zelf beter af te willen zijn.
5. Het kan erger is een zeer slecht argument. Het kan altijd erger. Het gaat er om of dit acceltabel is bij minder vergaand alternatief. Er is minder vergaand alternatief en Apple wil daar niet aan.

[Reactie gewijzigd door kodak op 22 juli 2024 20:41]

Die database wordt niet beheerd door een organisatie die onafhankelijk is of doorgelicht wordt.
Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
Pas bij meerdere flags, dus dat jij meerdere kinderporno grafisch materiaal hebt, dan pas wordt er een signaaltje gestuurd naar de onafhankelijke organisatie. Hun zullen weer contact opnemen met de politie.
Het is niet zo moeilijk om een scenario te bedenken waarin een onschuldig iemand met een techniek als deze voordeelt zou kunnen worden voor het verspreiden van kinderporno.

Stel een gescheiden vader maakt een stuk of 20 foto's met zijn iPhone van zijn jonge kinderen, bijvoorbeeld bij een dagje stand. Hij zet deze foto's online op Facebook of Instagram voor familie/vrienden. Een pedofiel die deze foto's ziet zet ze op een kinderporno website op het darkweb. Of stel de vader was niet zo dom om ze op sociale media te zetten, maar zet al zijn foto's waaronder deze op een clouddienst. Een pedofiele ICT medewerker van de clouddienst, struint door de foto's en pikt deze eruit, en zet ze op het darkweb.

Apple voegt nieuwe hashes toe van kinderporno websites die zijn gevonden op het darkweb, waaronder de site waar deze foto's op zijn gezet.

De vader wordt nu aangemerkt als kinderporno bezitter, met een stuk of 20 flags.

De autoriteiten worden gewaarschuwd. En de man wordt veroordeeld voor het maken, bezit en verspreiden van kinderporno, immers de foto's die hij onmiskenbaar gemaakt heeft zijn op een kinderporno website gezet. En hij wordt vervolgens uit zijn ouderlijke macht ontzet en gaat de gevangenis in.

Mede mogelijk gemaakt door Apple.

Apple komt met een nieuwsbericht dat hun systeem heeft gewerkt en de eerste pedofiel nu al veilig achter de tralies zit.

En er komen vele reacties op dat nieuwsbericht met de stelling dat mensen die kritiek hadden op het systeem van Apple nu toch echt een toontje lager moeten zingen, want het zou nu bewezen zijn dat het echt werkt om pedofielen op te sporen en te veroordelen.

Ondertussen kunnen en konden mensen als Epstein en zijn rijke vriendjes zoals prins Andrew stelselmatig jarenlang kinderen misbruiken, terwijl de helft van de wereld er van wist.

Gewone mensen worden heden ten dagen bij voorbaat aangemerkt als (potentieel) crimineel tenzij het tegenovergestelde bewezen is en staan onder constante surveillance. Terwijl de echte grote stelselmatige criminaliteit en kindermisbruik nooit wordt aangepakt. We leven in een wereld van steeds verdere totale klasse justitie.

Gewone mensen mogen onder het mom van de goeden moeten onder de (enkele) kwaden lijden onschuldig veroordeeld worden. Terwijl hoge heren waarvan we weten dat ze duizend maal erger doen, steeds buiten schot worden gehouden.

[Reactie gewijzigd door Jurrie79 op 22 juli 2024 20:41]

En waar trekken we dan echt de grens? Nu ligt dat kennelijk bij KP maar wat als Apple (en Google, gezien die Apple vrijwel altijd volgen met dit soort dingen) straks jouw apparaat gaat scannen op bijvoorbeeld lokale film, serie en muziekbestanden waarvan de bron niet geverifieerd kan worden? Gelijk maar een spoedbericht naar Brein en consorten? De techniek is er nu voor, en we zijn al jaren bezig met de goalpalen steeds verder te verschuiven op dit gebied.
Tot zover de harde beloftes en plannen van Apple over hoe ze, op dit moment, de nieuwe technologie willen gaan inzetten. Met de toezeggingen van van dit soort grote GAFAM bedrijven hebben we ondertussen helaas al de nodige ervaring opgebouwd.
Neem nog een appelsapje.
EN het gaat alleen op de iPhones van AMERIKAANSE gebruikers toegepast worden.
To help address this, new technology in iOS and iPadOS* will allow Apple to detect known CSAM images stored in iCloud Photos. This will enable Apple to report these instances to the National Center for Missing and Exploited Children (NCMEC). NCMEC acts as a comprehensive reporting center for CSAM and works in collaboration with law enforcement agencies across the United States.
Bron

[Reactie gewijzigd door Shark.Bait op 22 juli 2024 20:41]

En wie gaat dit handhaven...
Oh ja Apple zelf.

Dit zijn allemaal loze beloftes, natuurlijk gaat dit voor de eerste generatie gelden, maar over 5 jaar kan er misschien een heel iemand anders op de troon zitten bij Apple, en deze persoon heeft nul redenen om zich aan deze beloftes te houden.

Het probleem is niet wat de eerste versie gaat doen, het is in concept een slecht idee met honderden haken en ogen die nu worden weggelaten want "Apple belooft het niet te doen".

Oculus zou ook noooooooit een Facebook account verplichten, en kijk waar we nu zijn...
Dan vraag ik me af: Waarom zou je dat op het device doen en niet in de iCloud?
- Rekencapaciteit? Eh, die wil je op een mobiel besparen en boeit in de cloud meer.
- Mogelijkheid van uitbreiden naar meer files zonder iCloud... ai, nu niet, toekomst? geen idee.
Als (ik zeg als) je het end-to-end encrypted op de cloud zet is de foto alleen scanbaar door de telefoon. Ik heb geen flauw idee of dat de manier is waarop Apple data opslaat, maar op z'n minst willen ze ons dat hierdoor doen geloven.
Hopelijk zorgt de wet er voor dat dit er niet gaat komen. Apple verzamelt en reviewed met hun proces mogelijk kinderporno. Wettelijk gezien mag alleen de NCMEC dit doen. Mogelijk materiaal moet direct verstuurd worden aan de MCMEC en alleen de MCMEC mag reviewen.
The laws related to CSAM are very explicit. 18 U.S. Code § 2252 states that knowingly transferring CSAM material is a felony. (The only exception, in 2258A, is when it is reported to NCMEC.) In this case, Apple has a very strong reason to believe they are transferring CSAM material, and they are sending it to Apple -- not NCMEC.

It does not matter that Apple will then check it and forward it to NCMEC. 18 U.S.C. § 2258A is specific: the data can only be sent to NCMEC. (With 2258A, it is illegal for a service provider to turn over CP photos to the police or the FBI; you can only send it to NCMEC. Then NCMEC will contact the police or FBI.) What Apple has detailed is the intentional distribution (to Apple), collection (at Apple), and access (viewing at Apple) of material that they strongly have reason to believe is CSAM.
Bron: https://www.hackerfactor....es/929-One-Bad-Apple.html
Apple verzamelt helemaal niets, dat doet de gebruiker. Apple gebruikt de database van NECMEC dan ook, dat is was CSAM is… Apple is daarnaast wettelijk verplicht om dit soort scans uit te voeren.

Zelfs wat Microsoft doet, met Machine Learning door al je foto’s gaan om te zoeken naar nieuwe KP, is gewoon legaal. Het bedrijf scant immers user-content, maar verzamelt het zelf niet.
Nee, bij bepaalde threshold op een afbeelding (aantal keer dat die met CSAM hashes matched) wordt de afbeelding decrypted naar een lowres versie, en die gaat Apple eerst intern bekijken alvorens door te sturen naar de NCMEC.

De andere cloud providers sturen bij match het beeld gewoon door.

Wat Apple wil doen mag volgens de wet niet.
Wat Apple wil doen mag volgens de wet niet.
Het mag volgens de interpretatie van de wet van één schrijver niet. Dat is wat anders dan dat dit ook daadwerkelijk zo zou zijn. Zoals ik de wetgeving zie, ken en lees denk ik dat er juist wel degelijk ruimte is voor wat Apple doet; mede omdat het niet ongehoord is dat er controles plaatsvinden en ten tweede de technologie nu eenmaal niet 100% perfect is en Apple dus helemaal niet zeker kan weten dat het KP is; ze kunnen enkel een *vermoeden* hebben. Als ik enkel al dat citaat waar jij mee aankomt erbij pak:
18 U.S. Code § 2252 states that knowingly transferring CSAM material is a felony. (The only exception, in 2258A, is when it is reported to NCMEC.) In this case, Apple has a very strong reason to believe they are transferring CSAM material, and they are sending it to Apple -- not NCMEC.
1.) Apple doet het niet "knowingly". De perceptual hashing functie zorgt er immers louter voor dat er een (sterk) verhoogde kans is dat het KP is, maar Apple kan het absoluut niet 100% zeker weten, omdat het systeem dus niet onfeilbaar is en er soms false-positives kunnen plaatsvinden. Derhalve weet Apple voor moderatie dus helemaal nooit of het daadwerkelijk KP is. Derhalve is het op dat punt us helemaal niet "knowingly" en daarom gaan ze op dat moment juist uitvogelen wat het nou daadwerkelijk is. Op het moment dat ze het wél weten en het is bevestigd door de medewerker dat het KP is, en dat is dus pas ná moderatie: DAN is het "knowingly" en mogen ze er niets meer mee doen, maar moet het direct naar NECMEC en de autoriteiten. En dat is ook *exact* wat ze van plan zijn. ;) (Overigens nog even terzijde: ik vind "Apple is transferring it to Apple" ook een beetje vaag. Het was dus al in bewaring gegeven bij Apple, ze kijken er louter naar; het is niet zo dat het geduped wordt naar derde partijen ofzo... Maar afijn, maakt ook niet uit voor dit verhaal.)

2.) En dan dat "believing". De schrijver stelt vertaald: "Apple heeft een goede reden om te geloven dat ze CSAM-materiaal verzenden". Dat zou kunnen kloppen, maar er ontbreekt een woordje: "mogelijk". Apple heeft een hele goede reden om aan te nemen dat ze *mogelijk* CSAM-materiaal verzenden, namelijk omdat er dus matches zijn. Maar zeker weten doen ze het niet, daarom starten ze ook meteen een onderzoek. Pas als dat onderzoek heeft plaatsgevonden weten ze echt zeker dat het KP is of niet en is er geen sprake meer van "believing", maar van "knowing". En pas op *dat* moment, want bij "believing" is er nog geen schending van die wettekst, is Apple dus onderhevig aan de verplichtingen die de wet voorschrijft.

En er zijn ook zat voorbeelden van dat dit in de praktijk er ook zo aan toe gaat. Denk bijvoorbeeld ook aan notices bij providers. Die krijgen een melding binnen "er staat daar en daar KP". Die moeten toch echt controleren of dat zo is alvorens ze actie ondernemen; en dat is gewoon hun goed recht en ook logisch; anders zou je steeds allerlei servers offline moeten trekken, die in z'n geheel opsturen ter controle en dan weer terugkrijgen "want nee het was toch een vals rapport". :+ Dat mag je gewoon bekijken en dat is inclusief hot-copies maken om het offline te bestuderen. Uiteraard heb je daarna de verplichting om het naar NECMEC te sturen. En waarom mogen ze dat? Welnu, ze kunnen welisaar "goede reden hebben om te geloven" dat ze dus KP aan het transferren zijn, vanwege de melding. Maar omdat het een valse melding kan zijn, weten ze het niet zeker. Dus gaat de provider eerst kijken ipv linea recta de server offline te gooien en het hele ding naar NECMEC te verschepen. Blijkt de melding vals te zijn? Dan gebeurt er niets. Is de melding waarheid? *DAN* gaat die wettekst in en mogen ze het niet nog eens dupliceren/verzenden, behalve naar NECMEC, want dan zou het "knowingly" zijn: en dat is verboden.

Dus wat Apple wil doen kan volgens mij juist zeker weten wel binnen de kaders van die wetgeving en ik denk dat het citaat dat je poste te kort door de bocht was en de wet niet goed begrepen had. Maar afijn, dat is mijn interpretatie en hoe ik het ook in de praktijk bij abuse departments van grote internetproviders en cloudproviders heb zien werken... En dat was toch echt legaal.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 20:41]

Apple is beursgenoteerde bedrijf, en mag niet onwaarheden vertellen. Doet het bedrijf dat wel, dan zijn de eindverantwoordelijke daar verantwoordelijk voor en kunnen een gevangenisstraf of geld boete voor krijgen. Dus we kunnen aannemen dat de bron klopt.
Sorry, maar dit is redelijk naief...

In Nederland (en eigenlijk alle landen) hebben we ook wetten. Dat zijn door de overheid ingestelde regels waar iedereen zich aan hoort te houden, of anders een straf hoort te krijgen. Dit kan varieren van een geldboete, tot gevangenisstraf. Deze zijn afdwingbaar (in tegenstelling tot beloftes) en zijn absoluut niet goed voor het imago van een bedrijf. En toch gebeurd het keer op keer dat een (groot) bedrijf de wet overtreed. Dan word er een boete uitgedeeld en klaar.

Daarnaast hebben grote tech bedrijven wel vaker dingen belooft om te doen (of juist niet), om het uit eindelijk toch te doen. Een recent gevalletje hier in is bijvoorbeeld facebook die toch whatsapp data gaat gebruiken.

Beloftes zijn boterzacht en juridisch gezien vrij weinig waard. Het is naief om te denken dat ze dit blijven volhouden. Beter is dat ze er gewoon niet aan gaan beginnen
Doet Google dit inderdaad al dan? Heb ik helemaal gemist
Ow… dus omdat er MOGELIJK gevangenis kan staan op liegen.. is het te vertrouwen… tja.. wat als wetjes worden aangepast of nieuwe wetten worden aangenomen?
Let wel.. Apple gaat dit dus lokaal doen…
Echt, dat is heel naief gedacht. Beursgenoteerde bedrijven mogen misschien geen onwaarheden vertellen, maar dat is geen enkele garantie dat ze dat niet doen. Hetzij met opzet, hetzij met 'plausibele ontkenning', hetzij met risico-analyse op pakkans en opgelegde boete.

Kortom, je mag er niet vanuitgaan dat ze niet liegen. Zodra je dat accepteert, kun je de rest van je bullets schuiven onder 'Or so they claim', ofwel: Mooi verhaal, maar het is niet te controleren.
Apple is beursgenoteerde bedrijf, en mag niet onwaarheden vertellen. Doet het bedrijf dat wel, dan zijn de eindverantwoordelijke daar verantwoordelijk voor en kunnen een gevangenisstraf of geld boete voor krijgen.
De realiteit leert ons iets compleet anders.
Apple heeft NIETS en dan ook NIETS te zoeken in mijn PRIVÉ leven!!

Apple politie staat, nee dankje !!!

Denk ma voordat je jet zegt, Apple heeft totaal niets te zoeken op jouw telefoon, icloud of wat dan ook!!!
Tot zo ver de theorie...
[list]
• De techniek staat alleen aan als je iCloud foto’s gebruikt. De scan, scant alleen foto’s dat naar iCloud foto’s wordt geüpload.
tenminste dat hoop je... hoeveel van die "Oh sorry, door een foutje in het systeem met update 14.27 zijn er helaas ook gegevens..." meldingen heb je hier op Tweakers al voorbij zien komen?
• Alleen foto’s dat bekend staan in de database van onafhankelijke organisaties worden gebruikt als input voor het scannen.
Tenzij iemand die lijst hakt en er een foto van jouw kind op weet te zetten of het systeem false positives kan laten genereren - ik denk dat je ook daarvan de nodige voorbeelden daarvan al eens op Tweakers voorbij hebt zien komen...

Trouwens: wat dacht jij van die gemene terroristen: als jij een foto van een bom hebt is het natuurlijk handing als Apple die even aan de AIVD laat zien...
Als dit strict gebruikt word voor kinderporno en er nooit false positives zijn is het niet zo heel erg.
Maar....dat kan Apple niet garanderen, en dat willen ze waarschijnlijk ook niet, want dit is een tool die heel makkelijk voor andere doeleinden kan worden ingezet.
Ik denk niet dat Apple in dit geval beter or slechter is als alle andere Amerikaanse bedrijven.

Wat gaat er gebeuren met valse beschuldigingen? Als Apple het vlaggetje kinderporno aanzet, is er dan nog een gerechtelijke procedure, of ben je gewoon meteen permanent de l*l?
je moet meerdere foto's op icloud hebben die een match geven voor de procedure gestart wordt.
pas als je een bepaald aantal matches hebt gaat het vlaggetje omhoog.
vervolgens krijgt een team Apple medewerkers thumbnails van de matches te zien.
blijken het false positives te zijn dan gaat het vlaggetje omlaag, zijn het daadwerkelijk foute foto's dan sturen ze het op naar de correcte instantie die vervolgens de gerechtelijke procedures start.
Dat bepaalde aantal kan ook aangepast worden achteraf :) Misschien vinden sommige regimes N=1 wel handig.
één van die sommige regimes heeft nu al de icloud keys dus daar veranderd er niet zo heel veel
zoals ik begrijp dat het werkt kan dat niet zomaar achteraf.
als je 5 strikes uit 10 hebt en ze maken er 5 van dan nog kunnen ze niet bij die 5 die er al staan.
je matches worden in een gecodeerde kluis bewaard, deze kan pas gedecodeerd worden als het vooraf aangegeven aantal matches is bereikt.

ik weet niet hoe het precies werkt, maar je moet het zien als een kluis die meerdere sleutels nodig heeft om geopend te worden en met iedere match wordt 1 van de sleutels meegestuurd.
Het feit is en blijft dat Apple de technologie heeft om jou foto's te bekijken. Ze mogen dan wel zeggen "enkel indien x = ja en y = ja en z = ja, maar dat zijn gewoon woorden. Je privacy is gewoon weg, punt.
Het is WEL erg!!!
Het is ook ontzettend gevaarlijk!!!

Het WAAROM zou los van het debat moeten staan en ondertussen speelt Apple speelt in op JOUW EMOTIE !! Want wij gaan KP aanpakken!!!

Waarom wilt Apple ineens voor de politie spelen? Waarom willen ze ineens in onze privé data gaan zitten graaien.

Het debat zou moeten gaan of Apple überhaupt wel in jouw privé gegevens inzien en mag gebruiken. Het gebruikte techniek staat er los van !!!

Apple moet hier heel ver weg van blijven met het zoeken in PRIVÉ gegevens! Dit is een gevaarlijke ontwikkeling dat wij niet willen, maakt niet uit welk reden achter schuilt.
Deze regel is van kracht vanaf

iOS 15
iPad Os 15
Mac OS monterey
Watch os 8

Mogelijk wordt dit ook doorgevoerd op iedere Apple TV.
Apple gaat dit ook in andere landen uitrollen in samenwerking met andere instanties.
En US only
Geldt die iCloud photos scan/hash alleen voor bewoners in de USA?
Op dit moment wel. Maar het zou mij ten zeerste verwonderen als dit binnen bepaalde tijd niet uitgebreid wordt naar andere landen
Volgens mij is de EU juist tegen dit soort privacy-aantastende regels vanuit bedrijven.

Laten we hopen dat de EU dit dan ook gaat blokkeren.
https://www.euronews.com/...report-online-child-abuse

het ziet er niet naar uit dat de EU van plan is dit tegen te houden, ofwel interpreteer ik het artikel verkeerd
Kindermisbruik is vreselijk en walgelijk, maar wat ook walgelijk is is dat Apple en de EU nu child abuse gebruiken als een excuus om tussen privéfoto’s van mensen te zitten.

:|
WatchOS8 en tvOS15 uploaden echter geen foto’s dus daar zit dit niet in.

[Reactie gewijzigd door Donstil op 22 juli 2024 20:41]

Alles van Apple hangt toch in de cloud voor tegen diefstal zo ook een airtag ? Ik zou er niet op roepen. Bij Apple is dat toch 1 systeem ? ;)
Maar dat staat los van deze nieuwe scan techniek. Die gebeurt on device voor upload.
Apple nog geen half jaar geleden tijdens WWDC-2021:

“At Apple, we believe privacy is a fundamental human right,” said Craig Federighi, Apple’s senior VP of software engineering.
“We don’t think you should have to make a tradeoff between great features and privacy. We believe you deserve both.”​

ik probeer deze nieuwe surveillance software (welke standaard op álle iPhones komt vanaf iOS 15) te matchen met 'privacy is a fundamental human right.' Kan iemand mij hiermee op weg helpen?

[Reactie gewijzigd door _Bailey_ op 22 juli 2024 20:41]

Kan iemand mij hiermee op weg helpen?
Ja hoor. Vooropgesteld: ik ben er ook geen voorstander van. Dat hele gedoe in de VS met cloudboeren die content moeten scannen op KP en dergelijken is een niet al te beste ontwikkeling op privacygebied. Echter, op dit moment is dat nu eenmaal de situatie dankzij de wetgever. Dus moeten we er het beste van maken.

Naar mijn mening probeert Apple dat dan ook en beschermt je privacy zo goed mogelijk.
Waarom vind ik dat?

1.) Apple geneert enkel Perceptual Hashes en vergelijkt die met de CSAM-database van NECMEC op het moment dat je probeert deze foto's te uploaden naar iCloud. (Gebruik je geen iCloud, dan wordt er niets gescand. Heb je enkel 1 album in iCloud, dan wordt enkel dat gescand, de rest niet. Etc.) In deze database staan enkel hashes van bekende en geverifieerde kinderporno. Dit in tegenstelling tot bijvoorbeeld Microsoft en Google, die actief opzoek gaan dmv Machine Learning naar *mogelijke gevallen* van kinderporno; waarbij het al veelgehoord is dat mensen aangemerkt werden als zijnde in het bezit van KP puur vanwege foto's van bijvoorbeeld hun baby'tje in bad of rondrennend in de tuin. Apple doet dat niet.

2.) Door de manier van hashen kunnen false-positives ontstaan. Die kans is heel erg klein, maar hoe dan ook: de kans bestaat. Dat is een probleem. Apple heeft ervoor gekozen om niet bij slechts één match meteen al een inspectie te starten. Er moeten meerdere matches zijn. Onder normale omstandigheden is het extreem zeldzaam dat dit zou gebeuren als je *geen* KP op je iPhone hebt. De kans dat je meerdere false-positive matches hebt is astronomisch klein, dus de kans dat als je geen KP hebt er ooit naar je data wordt gekeken is evenredig klein.

3.) Ondanks dat: de kans bestaat dus dat dit wél zou gebeuren. Als er meerdere matches zijn, dan krijgt een moderator team van Apple anoniem toegang tot een low-res representatie van de foto's die gemarkeerd zijn als positive. (Dus NIET tot al je andere foto's). Die moeten zij beoordelen. Mocht blijken dat het false-positives zijn, dan discarden ze het onmiddelijk en gebeurt er verder *niets*. Er wordt geen melding gedaan bij NECMEC, je foto's blijven veilig, et cetera. Mochten het wél positieve matches zijn: dan heb je dus meerdere KP afbeeldingen geprobeerd te uploaden naar iCloud en is het volstrekt logisch dat je aangemeld wordt bij de autoriteiten. Anyway, er is dus een extreem kleine kans dat je privacy onterecht geschonden wordt door een opeenstapeling van false-positives; maar de violation is dan beperkt tot iemand van Apple's team die hierin gespecialiseerd is en waarschijnlijk allang blij is dat ze geen false-positive hebben. Dit wordt op een, onder de omstandigheden, zeer privacy vriendelijke manier uitgevoerd dus.


Dit alles resumerend:
- Apple moet dus die scans uitvoeren, dan is een compromis logisch. Die heeft Apple nu gebouwd;
- De manier waarop Apple deze scans uitvoert, zorgt voor een extreem lage kans dat er ooit naar je foto's wordt gekeken als er geen sprake is van KP
- Mocht die super lage kans dat je meerdere false-positives hebt tóch voorkomen, dan gaat er dus eerst een low-res kopietje (dus niet een full-res foto) anoniem naar een modteam. Blijkt er niets aan de hand te zijn: dan is daarmee de kous af. Er worden geen andere foto's bekeken. Als er dus al een privacy schending plaatsvindt door iets dat een super extreem lage kans heeft dat het uberhaupt voor gaat komen als je geen KP op je account hebt, dan blijft dat zeer beperkt tot enkel die foto's die positive gematched waren én dat wordt dan afgehandeld door een speciale afdeling en op geanonimiseerde wijze (voor de beoordelaar).

Door de compromis die Apple heeft gesloten, dus wel voldoen aan het moeten scannen: maar de meest privacy vriendelijke optie zoeken, vind ik dat ze wel degelijk geprobeerd hebben om, onder de omstandigheden, zoveel als redelijkerwijs mogelijk te voldoen aan "privacy is a fundamental human right". Ik denk niet dat je Apple er op aan kan kijken dat ze iets doen dat ze moeten doen. Anders zouden we Apple ook boos aan moeten kijken als een rechtbank eist dat van Pietje A de gehele inhoud van het iCloud-account overhandigd moet worden. Als je iets wettelijk verplicht bent: dan kun je het er oneens mee zijn, maar het is nu eenmaal zo. En onder die omstandigheden, vind ik dat Apple hoe zij het nu hebben ingericht echt wel hun best hebben gedaan om het zeer privacy vriendelijk te krijgen en de kans op een schending naar vrijwel nul te brengen.

Dus nogmaals: ik ben het er ook niet mee eens en ik vind dat de wet aangepast moet worden. Maar op dit moment is het nu eenmaal niet anders, en vind ik dat Apple onder de omstandigheden dus prima werk heeft geleverd om wél te scannen: maar de kans op een onterechte privacy inbreuk is extreem klein en ALS dat gebeurt is er ook nog een safety net waardoor je ook niet meteen aangemeld wordt bij de autoriteiten. Ik denk eerlijk gezegd niet dat dit veel beter ingericht had kunnen worden, al weet ik niet zeker waarom Apple dit niet server-side doet maar client-side. Echter, gezien de geruchten van E2EE-iCloud zou dat het een en ander kunnen verklaren, en dan is het ook logisch: want als Apple dat dan in zou voeren zónder dit systeem: dan verbannen de EU en de VS meteen E2EE(-storage) oplossingen. Dat proberen ze al geruime tijd en dit zou ze genoeg munitie geven om het te doen want "Think of the children!".

Enfin, dat is mijn visie en hoop dat het je op weg helpt.
En nogmaals ten overvloede voordat mensen weer gaan roepen dat het fanboyisme of iets dergelijks is: Neen. Ik ben het er ook niet mee eens. Ik vind het een slechte zaak en vind dat al jaren. (Microsoft en Google en dergelijken deden het al; en dat vond ik ook maar niets. (Gek genoeg bleef het daar behoorlijk stil over, zelfs toen er pas een artikel op Tweakers verscheen over dit onderwerp viel het aantal reacties wel mee vergeleken met deze ophef; terwijl die partijen veel verder gaan met oa Machine Learning. o0)) Maar ik vind wel dat Apple het beste van de situatie maakt en echt haar best doet om aan haar mission statement mbt privacy te voldoen met de manier waarop ze dit ingericht hebben. :) Zeker in vergelijking met Microsoft en Google.

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 20:41]

Thanks! Heldere en fijne uitleg
Je moet de foto dan nog wel accepteren (en je ziet een preview van de foto en de naam van wie het verstuurt), Dus je kan niet zomaar even een foto ontvangen als je AirDrop aan hebt staan voor iedereen ipv alleen contacten.
Sowieso accepteer je niks van een vreemde, en daarbij mocht je iets wat onder KP valt ontvangt mep je eerst de verzender in elkaar en ga je vervolgens aangifte doen.
The process is that Apple will manually review flagged images, and only if the review confirms abusive material will the company pass the details to law enforcement
Standaard staat AirDrop ingesteld dat alleen contacten jouw kunnen benaderen als het ware…
Een contact kan je net hetzelfde flikken.
Dan heb je foute contacten + jij kan het weigeren...
Ik snap niks van jullie mensen. Er wordt jaren door iedereen gehamerd dat big tech hier iets aan moet doen, implementeren ze iets wordt er volop op afgegeven.

Ik denk alleen maar, je hebt iets te verbergen.

Daarbij, stap je toch over naar een ander platform waar men precies hetzelfde doet.

Verder een samenvatting van hoe het inelkaar steekt uit een post hierboven
  • De techniek staat alleen aan als je ICloud foto’s gebruikt
  • Alleen foto’s dat bekend staan in de database van onafhankelijke organisaties worden gebruikt als input voor het scannen.
  • Jouw foto van jouw kind wordt nooit aangemerkt als kinderporno, tenzij jouw foto’s in de database van de organisatie staat.
  • Jouw foto’s worden omgezet naar hash, omdat in de database geen foto’s staan, maar hashes van foto’s
  • Pas bij meerdere flags, dus dat jij meerdere kinderporno grafisch materiaal hebt, dan pas wordt er een signaaltje gestuurd naar de onafhankelijke organisatie. Hun zullen weer contact opnemen met de politie. We leven in een rechtsstaat, waarin de overheid moet aankaarten dat jij schuldig bent, niet andersom.
  • Bij de te veel flags, gaat een Apple medewerker als betrouwbare partij het controleren of het daadwerkelijk om kinderporno gaat.
  • Het systeem is er niet om net nieuwe kinder porno grafisch materiaal tegen te gaan, omdat deze nieuwe materiaal nog niet in de database staat. Maar juist om de verspreiding tegen te houden als het materiaal inmiddels wel toegevoegd is aan de database. Het houden en het verspreiden van kinderporno is illegaal in de meeste landen.
  • Google, Microsoft etc doen dit al, alleen dan in hun cloud omgeving. Apple was de laatste partij die het nog niet deed, alleen Apple heeft er voor gekozen om niet via hun cloud omgeving te doen.
  • Bij minder betrouwbare landen zoals China moet Apple hun sleutels van hun cloud omgeving al delen met de overheid. De overheid kan via hun cloud de foto’s al scannen van eindgebruikers. Er veranderd dus niks voor deze landen, want ze hebben al toegang.
Ik denk alleen maar, je hebt iets te verbergen.
Mensen hebben inderdaad veel te verbergen. De implicatie dat dat wat ze te verbergen hebben per definitie kinderporno/terrorisme/misdadig is is een van de meest walgelijke argumenten die voorstanders van invasieve technologieën naar voren brengen in hun argumentatie.
Waarom wordt er dan volop met haat en nijd tegeningegaan?

Het is toch eenvoudig, de techniek is ontwikkeld om kinderporno te detecteren, dat is het enige wat het doet, "maar ik ben er op tegen want <vul hier maar een argument in>". Als je er zo vurig tegen bent moet je toch met feiten kunnen onderbouwen.

Het is ontworpen om een specifiek maatschappelijk probleem aan te pakken, waar al jaren om wordt geroepen.
Er worden geen willekeurig bestanden gescant. Verder ben je pas "verdacht" als je meerdere matches hebt. Mocht je 1 afbeelding hebben die overeenkomt met de database die men gebruikt voor vergelijkingen gebeurt er niks.

Mocht de techniek uiteindelijk anders worden ingezet heb je een ander verhaal.

Verder dat je foto's op je telefoon al gescanned worden om personen, bomen, wolken en vele andere verschillende objecten te herkennen is schijnbaar geen probleem.
Het is een principiele zaak. Niemand hoort bij mij thuis te kijken of in mijn gegevens te neuzen. Ook als het om een hash gaat. En misschien kan ik dat over mijn hart verkrijgen als dit echt iets gaat oplossen; maar ik vrees dat op een zeker moment er dan ook een Hash iets anders tussen komt. Misschien gaan ze dan ook texten doorzoeken.

Ik zou zeggen, put your money where your mouth is. Als dit ooit verder wordt doorgetrokken, of als onze privacy ooit verder wordt geschonden. Krijgen wij dan allemaal 20 jaarinkomens schadevergoeding? Als ze het 100% zeker zouden weten kunnen ze dat gewoon probleemloos doen. Die onafhankelijke partij die Apple zou zijn is ook niet zo onafhankelijk, vrij recentelijk nog heeft een medewerker iemands fotos gejat. En hoewel het bedrijf daar nite veel aan kan doen, moet je er wel rekening mee houden dat je medewerkers ook nietaltijd zuiver zijn. En dan kan je zeggen, dan had iemand zijn telefoon maar moeten leeggooien, maar niet iedereen is een Tweaker.

Die 20 jaar is misschien wat overdreven, maar de kostebatenanalyse is aan de eindgebruiker. Die zou moeten zeggen, dat een eventueel lek alleen acceptabel is in ruil voor x schadevergoeding.

[Reactie gewijzigd door klonic op 22 juli 2024 20:41]

Wat mij betreft is het meest steekhoudende argument dat er geen absolute garantie is dat er nooit een vals-positieve zal optreden. En dat kan nu nét die foto zijn die je te verbergen hebt.

Verder zie ik veel mensen die bang zijn voor een glijdende schaal. Als Apple dit kan implementeren is het toepassen van andere zaken een eitje. En aangezien niemand kan voorspellen welk regime er over tien jaar in het Witte Huis zit kun je ook niet voorspellen of dat wel of niet dubieuze vormen aan gaat nemen. Dat gezegd hebbende: het feit dat Apple dit kan implementeren betekent dat ze dat over tien jaar ook zullen kunnen.
Wat mij betreft is het meest steekhoudende argument dat er geen absolute garantie is dat er nooit een vals-positieve zal optreden. En dat kan nu nét die foto zijn die je te verbergen hebt.
Klopt, die garantie is er ook niet. Zoals ze zelf aangeven, bij 1 vals-positief is er niks aan de hand.
Verder zie ik veel mensen die bang zijn voor een glijdende schaal. Als Apple dit kan implementeren is het toepassen van andere zaken een eitje. En aangezien niemand kan voorspellen welk regime er over tien jaar in het Witte Huis zit kun je ook niet voorspellen of dat wel of niet dubieuze vormen aan gaat nemen. Dat gezegd hebbende: het feit dat Apple dit kan implementeren betekent dat ze dat over tien jaar ook zullen kunnen.
Welke kant het opgaat weet je niet dus dat blijft gissen.
Kijk maar naar landen als China, Turkije, Rusland… midden-oosten…
Als ik belangrijke functie zou bekleden dan zou mij worden verboden eigen toestellen mee te nemen naar China…

[Reactie gewijzigd door M3m30 op 22 juli 2024 20:41]

Het gaat nooit enkel om "waarvoor het ontworpen is", het gaat ook om hoe het mis-/ge-bruikt kan worden.

Dat kinderporno en terrorisme nog steeds erin kunnen gaan als zoete koek om een carte-blanche te krijgen is in mijn ogen nógal verbazend.

Als volgende foto's met "racistische en stuittende symbolen" en worden zonnefoto's met sterk contrastfilter aangezien voor de rising sun flag en whatnot?
Dat is ook zeker belangrijk, maar dan moet dat als argument worden aangedragen (zoals je nu doet). En niet alleen van ik wil niet/ik vind het belachelijk dat er gecontroleerd wordt op kinderporno want straks wordt de foto van mijn 18 jarige vriendin die er uit ziet als 15 gemarkeerd als kinderporno. Zo werkt het niet.
Het is inzake mijn opmerking over het demonizeren en intimideren van tegenstanders van dit onzalige plan niet relevant, maar je gelooft de apple propaganda wel héél erg op de blauwe ogen. Alleen al het geclaimde foutenpercentage van de techniek zou voldoende moeten zijn om de alarmbelletjes te doen rinkelen.

[Reactie gewijzigd door Anoniem: 57411 op 22 juli 2024 20:41]

Precies. In landen zoals China waar de overheid mee kan kijken met iedereen heb je alles te verbergen. Een verkeerde flag en je zit in een werkkamp. Kijkende naar hoe het met de westerse maatschappen is gesteld lijkt dit hier ook langzaam dichterbij te komen. Ik ben geen viespeuk, extremist, terrorist of wat dan ook maar het maken van politieke uitingen is een mensenrecht.
Wat als dit systeem wordt gebruikt om dissidenten op pakken?
Wat als.. als mn tante een penis had was het m'n oom..'

Als het daar voor gebruikt gaan worden heb je een andere usecase en zou het niet ingezet moeten worden.
Vergeet niet dat je FaceTime niet kan gebruiken in het midden-oosten en dat Apple de decryptiesleutel van de chinese iCloud servers aan de chinese overheid heeft gegeven.
Weet ik, maar als dat de voorwaarden zijn van een overheid om daar je diensen & producten te mogen aanbieden dan kan je daar of in mee gaan of er afstand van nemen.

Apple heeft ze blijkbaar niet aan de overheid gegeven maar zelf in beheer, echter zodra de authoriteiten toegang wllen moeten ze wel meewerken. Bron
Kan je al die stellingen onderbouwen, want ik heb niet het idee dat al die stellingen juist zijn. Het gaat mij vooral om de eerste en laatste twee stellingen.
De eerste twee bronnen gaan niet over Apple

Het gaat hier alleen om Apple gebruikers in China. Al moet ik toegeven dat ik er toch wat van schik. Apple zou er goed aan doen zichzelf buiten te sluiten.
Iedereen hamert al jaren lang dat privacy belangrijker is dan enkele pedofielen of enkele terroristen te vangen. Maar misschien leeft jij onder een rots waar dit niet zo is.
800 berichten op een aantal van 147000 werknemers is maar weinig. Dat klinkt eerder als enkele medewerkers ipv veel medewerkers.
De geniuses in de winkels en de mensen die in de fabriek de lopende band bedienen zitten niet op de bedrijfs-Slack hè? Het lijkt me aardig veilig om aan te nemen dat het hier gaat om developers, designers en andere bij de ontwikkeling betrokken mensen gaat. En dan is een lange discussie van 800 berichten and counting best fors.
Zover ik weet, heeft apple geen eigen fabrieken en is dat volledig in onderneming of opdracht van.

Daarnaast zijn 800 berichten niet hetzelfde als 800 personeelsleden.

Op een totaal van 12k mensen die werkzaam zijn op de campus van Cupertino is dat niet "veel".
Vind ik wel. 800 berichten op 12.000 mensen is een bericht per 15 medewerkers. Nou zullen een aantal medewerkers vast meer dan één bericht hebben geschreven, maar dat vind ik nog steeds aardig veel pushback. En de discussie is vast nog niet afgelopen.
800 berichten op 147 000 full times.
Dat alle andere 146 200 mensen geen bericht in de Slack hebben geplaatst wilt niet zeggen dat de zorgen van die andere 800 opeens niks waard zijn?
Na al mijn ervaringen met de democratie in het bedrijfsleven kan ik je vertellen dat het in het zo werkt. Het grootste deel van de medewerkers knikken alleen ‘ja en amen’ naar hun baas en praten alleen stoer over hun baas bij het koffieapparaat wanneer die er niet bijstaat. Laat staan dat ze aan durven geven dat hun baas een verkeerde keuze maakt!

Dus die 800 op 147 000 is veel, zeker voor Amerikaanse begrippen, want - bij wijze van spreken - als je haar verkeerd zit, kun je daar de laan al uitvliegen.
In een bedrijfsleven heerst er geen democratie.
Klopt. Het was ook sarcastisch bedoeld. Zodra je de deur binnenkomt op je werk, gaat de democratie de deur uit.
ja, want een geronomeerd persbureau als Reuters zal er vast een artikel aan besteden als de berichten kwamen van de koffiejuffrouw en schoonmakers binnen Apple...
Persbureau’s zijn kampioen in het opkloppen van berichten.
Kan me nog herinneren dat alle media in nederland schreeuwden dat 40% van alle aanhoudingen door de politie etnisch geprofileerd zou zijn. Als je het rapport ging lezen bleek dus 40% van een heel klein deel van alle aanhoudingen etnisch geprofileerd te worden en de conclusie van het rapport was dat niet-blanken niet significant vaker ten onrechte worden aangehouden. Het is niet de bedoeling om hier een discussie over te starten, maar het geeft aan hoe media iets gigantisch kunnen opkloppen.
Toch is het hier niet fair om te zeggen dat er bijna 150k medewerkers zijn die iets hadden kunnen zeggen en dat niet gedaan hebben. Die bedrijfs-Slack is vast gelimiteerd in wie er wel en niet op mag. Het lijkt me alvast aardig onaannemelijk dat er iemand van buiten de Campus in Cupertino op die Slack zit, dus dan zijn het ineens al maximaal 12k medewerkers die potentieel mee hadden kunnen doen. En ik wed dat niet al die 12k medewerkers Slack-toegang hebben.

Dus ja, ik denk dat Reuters hier wel degelijk de juiste context kent en die ook goed ingeschat heeft.
Om conclusies uit die aantallen te trekken heb je veel meer info nodig dan waar Reuters over beschikt.
Reuters trekt dan ook geen conclusies in dit verhaal.
Eh, als men zulke voorstellen doet voor de wereld buiten Apple, hoe strikt genomen kan je baan op de tocht staan als je kritisch bent? Ik denk dat velen zich meervoudig achter de oren krabben of ze wel of niet iets moeten delen, mogelijk op korte termijn nadelig voor een interne carrière. En of je terug kan komen omdat je je op dit moment hebt uitgesproken en enkele jaren later blijkt dat je het bij het rechte eind had? Onwaarschijnlijk.
De mensen die er nu werken en deze keuze kunnen maken, die zijn denk ik allemaal blij dat ze bij dit bedrijf kunnen werken, matige ontwerpen af en toe daargelaten. (En daarmee doel ik op de foto scan software die het onderwerp van de dag is.)
Ben wel benieuwd wat voor medewerkers dat zijn. Hebben deze medewerkers echt kennis van de techniek waar ze zich zorgen over maken? Of is Apple met 150.000 medewerkers gewoon een afspiegeling van de samenleving en zijn het dezelfde discussies als we hier op Tweakers voeren?
We zijn hier op Tweakers ook geen afspiegeling van de samenleving ;) Ik vermoed daarentegen ook wel dat het Apple personeelsbestand overeenkomsten zal hebben met het Tweakerspubliek.
We zijn hier op Tweakers ook geen afspiegeling van de samenleving
Hoezo niet? De gemiddelde Tweaker heeft niet veel meer of minder kennis van technologie dan de gemiddelde Nederlander. Tweakers is al lang niet meer alleen voor tech en er zijn echt heel veel mensen op GoT die duidelijk weinig verstand van technologie hebben maar gewoon een plek zoeken om iets te bespreken met andere Nederlanders, zo heel veel kwalitatieve Nederlandse fora zijn er niet meer.

Ik denk dat als de niet-IT afdelingen van Apple ook op die Slack zitten ze toch redelijk overeenkomen met het gemiddeld kennisniveau van de werkende mens (dus volwassenen onder de pensioensleeftijd), en dat dat op Tweakers ook het geval is.

[Reactie gewijzigd door Oon op 22 juli 2024 20:41]

Ik durf de bewering echt wel aan dat de gemiddelde Tweaker bovengemiddelde kennis heeft van technologie.
Ik denk dat een gemiddelde Nederlander er wel minder over nadenkt door de gebrekt van ict kennis en de mogelijke risico's. Ik verwacht dat 80% van de mensen in me omgeving niet beseft dat bijvoorbeeld apps meer data kunnen uploaden dan verwacht. Of dat ze niet precies weten wat cookies allemaal kunnen doen en dus gewoon alles accepteren. Ze zien de risico's niet omdat ze het gewoon niet weten. Of ze geven gewoon minder om privacy bijvoorbeeld. Of ze hebben niets te verbergen. Zelfs een bericht als dit zou alleen maar goed zijn omdat het tegen kindermisbruik gaat. En het is de Apple zelfs die dit doet dus moet wel veilig zijn. Nogmaals dit is hoe ik de mensen in mijn omgeving inschat ieder geval. Maar ik verwacht wel dat meer mensen zo zijn.

Hier op Tweakers lees je gewoon vaker dat sommige dingen misbruikt worden en zijn dus iets meer geoefend om dit te zien. En zelfs als je het niet zou zien is het meestal de eerste paar reacties lezen en je heb waarschijnlijk al een potentiële misbruik staan.
Zoals ik het begrijp gaat de kritiek en discussie niet over de techniek. De kritiek en discussie gaan over de mogelijkheden van misbruik door regimes. Als China de keuze geeft: jullie gaan voortaan scannen op X, anders mogen jullie in China niet meer verkopen, wat gaat Apple dan kiezen?
Zoals ik het begrijp gaat de kritiek en discussie niet over de techniek. De kritiek en discussie gaan over de mogelijkheden van misbruik door regimes. Als China de keuze geeft: jullie gaan voortaan scannen op X, anders mogen jullie in China niet meer verkopen, wat gaat Apple dan kiezen?
Je kunt de wat-als vraag altijd blijven stellen. Maar heeft dat zin? Als ik een auto koop stelt zich ook niemand de vraag: wat als hij de auto als wapen gebruikt? Maar het kán wel, ja dat klopt.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

Als je privacy belangrijk vindt, en als je het belangrijk vindt dat jouw telefoon jouw telefoon is met jouw content, dan is die wat-als vraag hier heel belangrijk. Prima als jij dat niet belangrijk vindt, maar ik vind dat wel belangrijk. En ik ben duidelijk niet de enige. De discussie dood slaan door te zeggen dat de techniek goed is, helpt niet als de discussie daar niet over gaat.
Ik sla geen discussie dood. Sterker nog, we voeren hem al een week heel intensief ;)
Apple wil iPhones gaan scannen op kindermisbruik

Het heeft alleen weinig zin om een wat-als vraag te blijven stellen. Ik heb mij er een tijdje zorgen over gemaakt dat een heer Biden en Poetin allebei een kastje hebben waarmee ze met 3 drukken op de knoppen de aarde kunnen vernietigen. Daar heb ik van wakker gelegen. Maar het slaapt toch fijner bij de gedachte: ik ga er maar vanuit dat ze de goede intentie hebben en de aarde niet vernietigen.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

Dat de diverse heersers niet als doel hebben om de aarde te vernietigen is heel leuk, maar helpt mij niet. Ik ga ervan uit dat er extra surveillance komt op basis van de technologie die met iOS 10.5 geintroduceerd wordt. Ik denk dat dat een redelijke aanname is. Wat gebeurt er als ik vervolgens naar de VS of China reis? Is mijn device uitgezonderd van deze technologie omdat ik Nederlander ben, of moet ik ervan uit gaan dat ik mijn device niet meer mee moet nemen op reis? Voor China is dat al het geval, dat je een burner phone moet meenemen. Gaat dat ook voor de VS gelden?
Je kunt een burner-telefoon nemen. Of foto’s in de iCloud uitschakelen, iets goedkoper en wat makkelijker. Of op iOS14 blijven, dan heb je er al helemaal niets mee van doen.

Maar als je al zo negatief over Apple denkt, je gaat er al vanuit dat ze aan extra surveillance gaan meewerken, waarom vertrouw je ze op dit moment dan wel? Ze zitten al in je telefoon, ze zij́n je telefoon….

[Reactie gewijzigd door Dennisdn op 22 juli 2024 20:41]

Het gaat mij niet om de foto's. Het gaat om de andere dingen die gescand kunnen gaan worden. En daarmee komen we weer terug waar onze discussie begon. De discussie gaat niet over de techniek, maar om de andere mogelijkheden die dit biedt als deze doos van pandora eenmaal geopend is. Ik ben nl. niet negatief over Apple. Ik ben negatief over staten die deze doos van pandora graag geopend hebben. Die staten eisen vervolgens van Apple (en van Google en alle anderen) dat die scans geheim zijn en dat Apple (en Google en anderen) niet mogen laten weten dat die scans plaatsvinden.

Op dit moment wordt er door diverse landen gescand binnen de informatie die in iCloud opgeslagen wordt. Ditzelfde gebeurt met data in de Google accounts. Apple probeert end-to-end encryption voor elkaar te krijgen voor iCloud. Om dat te mogen doen (volgens de wet in diverse landen moet er toegang zijn tot deze data), openen ze nu de data op de apparaten voor scans. Dus in plaats dat er scans plaatsvinden op een subset van mijn data, kunnen er ineens scans plaatsvinden op al mijn data.

Met deze verandering is de claim van Apple over de privacy van de gebruikers in één keer waardeloos. Apple gebruikt dit als een major selling point, iets waar ze anders zijn dan Google. Dat major selling point is per iOS 15 / MacOS Monterey weg. Dat is de kern van mijn bezwaar. De discussies op diverse sites laten zien dat ik niet de enige ben.
Maar als ze jou willen scannen op andere dingen…. Dan kunnen ze dat nu toch ook al? Je hele telefoon wordt gebackupt naar de iCloud waar hetzelfde systeem al jaren draait. Daar kunnen ze nu ook al in kijken als ze zouden willen. Ze verplaatsen het proces alleen van de deurmat áchter de voordeur naar de deurmat vóór de voordeur.
Security sensitive dingen worden b.v. niet gebackuped naar de iCloud.

Op dit item kan niet meer gereageerd worden.