IPhones en iPads gaan foto's controleren op kindermisbruik - update

Apple voegt functionaliteit toe aan iOS en iPadOS om foto's die Amerikaanse gebruikers op iCloud zetten te controleren op kindermisbruik. Dit gebeurt met behulp van hashes. Volgens Apple is er een kans van 1 op 1 biljoen op false positives per account.

Apple noemt drie nieuwe manieren waarop het bedrijf de verspreiding van zogenoemd child sexual abuse material of csam wil tegengaan en de methode om foto's te analyseren is daarbij het meest verregaand. Apple meldt csam-detectie toe te voegen aan iOS 15 en iPadOS 15 met behoud van de privacy van gebruikers, terwijl het zo informatie aan autoriteiten kan doorspelen over kindermisbruikfoto's op iCloud Photos.

In een technisch document beschrijft het bedrijf hoe de detectie werkt. Apple krijgt een database met hashes van foto's van kindermisbruik van organisaties die zich inzetten voor de bescherming van kinderen, zoals het National Center for Missing and Exploited Children. Apple gebruikt een systeem met de naam NeuralHash voor het omzetten van de afbeeldingen. Hierbij krijgen verschillende foto's verschillende hashes, maar afbeeldingen die licht gewijzigd zijn, zoals verkleind, uitgesneden of in zwart-wit zijn omgezet, krijgen een identieke hash.

Apple transformeert de NeuralHashes vervolgens nog met behulp van elliptischekrommecryptografie, waarbij de sleutel alleen bij Apple bekend is. Dit moet er voor zorgen dat gebruikers niets over de oorspronkelijke hashes te weten kunnen komen. De resulterende verhaspelde hashes plaatst het bedrijf in een database die op iPhones en iPads komt te staan.

De controle op de apparaten verloopt via een protocol dat Apple Private Set Intersection noemt. Afbeeldingen van gebruikers worden ook omgezet in NeuralHashes maar krijgen niet dezelfde transformatie met elliptic curve-cryptografie omdat de sleutel alleen bekend is bij Apple en niet aan het apparaat van de gebruiker. De match tussen de hash van een foto op het apparaat en die van de database vindt wel op het apparaat plaats.

Bij zo'n match verkrijgt de hash een cryptografische header en een sleutel op basis van de csam-hash om de payloaddata te versleutelen. Na het uploaden naar iCloud kan de Apple-server de header gebruiken en de encryptiesleutel achterhalen door gebruik te maken van de alleen voor Apple bekende sleutel voor elliptischekrommecryptografie. Zo kan het bedrijf de payload ontsleutelen.

Als er geen match is, is er ook geen correcte encryptiesleutel, dus kan de server niets te weten komen over afbeeldingen die geen match vormen, aldus Apple. Iphones en iPads zelf weten ook niets over het resultaat van een match, omdat daar de geheime server-side sleutel voor vereist is. Tenslotte gebruikt Apple een systeem met de naam Threshold Secret Sharing als waarborg. Dit maakt dat pas als het aantal matches van een enkel iCloud-account een bepaalde waarde overstijgt, de treshold, de details over matchende afbeeldingen beschikbaar komen. Dit moet garanderen dat Apple niets te weten komt over gebruikersfoto's als niet aan bepaalde criteria voldaan is. Volgens Apple vindt er met het systeem een op een biljoen keer een false positive per account plaats. Apple meldt verder handmatig controle uit te voeren voorafgaand aan meldingen over kindermisbruik.

De overige twee beschermingsmaatregelen zijn dat Messages gaat waarschuwen bij het delen van 'gevoelige content'. De monitoring en analyse van afbeeldingen vindt op het apparaat zelf plaats met behulp van machine learning. Ten slotte gaan Siri en de zoekfunctie waarschuwen en 'ingrijpen' bij het zoeken naar onderwerpen met betrekking tot kindermisbruik. De functies voor Messages, Siri en zoeken komen beschikbaar in iOS 15 en iPadOS 15 maar ook in watchOS 8 en macOS Monterey.

In de kleine letters meldt Apple dat de functies beschikbaar komen in de Verenigde Staten. Het bedrijf meldt verder het initiatief uit te breiden maar onduidelijk is of dit betekent dat het ook naar andere landen dan de VS komt.

Update, 09.50: Aanvankelijk stond in het artikel dat het risico was dat er 1 op 1 miljard keer false positives voorkomen, maar Apple schrijft dat het om 1 in 1 trillion keer gaat, wat 1 op 1 biljoen keer is. Dit is aangepast.

Update 2, 11.00: Toegevoegd dat de functies, in ieder geval initieel, alleen in de Verenigde Staten in gebruik genomen worden.

Kritiek op Apples systeem

Critici zoals het Center for Democracy & Technology waarschuwen voor de gevolgen van het systeem voor veiligheid en privacy van Apple-gebruikers. Volgens deze organisatie zet Apple een infrastructuur voor surveillance en censuur op, die kwetsbaar is voor misbruik wereldwijd. Ook stelt de DCT dat Apple hiermee een backdoor inbouwt.

Ook cryptograaf Matthew Green waarschuwt voor de mogelijkheden van de beschreven infrastructuur om uiteindelijk end-to-end-versleutelde content te kunnen scannen. "Stel je voor wat dit kan doen in de handen van autoritaire regimes." Ook wijst hij er op dat overheden wereldwijd al jaren 'vragen' om communicatie met end-to-end-versleuteling te kunnen scannen. In Nederland bracht minister van Veiligheid en Justitie Grapperhaus dit regelmatig naar voren. Ook had Nederland recent te maken met false positives vanuit de organisatie die gericht is op online kindermisbruik zelf. Door een menselijke fout werden afbeeldingen foutief als kinderporno aangemerkt en toegevoegd aan de database van HashCheckService. Tegen dit soort fouten in een voorafgaand stadium biedt Apples systeem geen bescherming.

Door Olaf van Miltenburg

Nieuwscoördinator

06-08-2021 • 08:44

568 Linkedin

Submitter: juliank

Lees meer

Reacties (568)

-15680545+1270+280+312Ongemodereerd214
Wijzig sortering
Binnen de Europese Unie is het laatste politieke woord hier nog niet over gesproken. Nu zijn deze technologieën toegestaan. Maar het botst wel met privacywetgeving.

Een interessant overzichtsartikel wat ik tegen kwam:
https://rm.coe.int/respec...utomated-techn/1680a2f5ee


Het privacy imago wat Apple aan het opbouwen was komt wat mij betreft wel wat op lossen schroeven te staan zo, want dit is gewoon massa surveillance. Dat het een deugdelijk doel dient, doet er niet toe.

[Reactie gewijzigd door laminaatplaat op 6 augustus 2021 10:25]

Maar het botst wel met privacywetgeving.
Ik snap niet zo goed hoe, eigenlijk. De kans dat zo'n hash het resultaat is van een niet-criminele afbeelding is 0,0000000001%, en dat is het enige scenario waarin het een probleem voor privacy oplevert. Maar mensen hebben niet het 'recht' op het houden van kinderporno, of dat nu privé is of niet. Dat één op een biljoen afbeeldingen een foute match kán zijn vind ik echt een overwinning, dat is beter dan veel van de systemen die op dit moment in gebruik zijn.

En zoals in het artikel ook wordt uitgelegd; Apple heeft geen inzage in de afbeeldingen. Dus hoe je van daar naar massa-surveillance kan gaan mis ik even.

[Reactie gewijzigd door Luminair op 6 augustus 2021 11:35]

Ik snap niet zo goed hoe, eigenlijk. De kans dat zo'n hash het resultaat is van een niet-criminele afbeelding is 0,0000000001%, en dat is het enige scenario waarin het een probleem voor privacy oplevert
Maar als dit mogelijk is, dan is het ook mogelijk om andere dingen controleren. Als je kan zoeken naar plaatjes van blote kinderen dan kun je ook wel zoeken naar religieuze of politieke symbolen. Of naar het gezicht van je politieke tegenstander.
Dat zit er nu vast nog niet in, maar het zal niet lang duuren voor de dictators van deze wereld zich bij Apple melden met hun eigen wensenlijst.
En Hollywood wil natuurlijk controleren of je geen films kopieert.
En de belastingdienst wil even controleren of je foto's van dure auto's hebt.
Waar is het einde?
Als er een keer één uitzondering is gemaakt, zoals hier, dan is het een stuk makkelijker om ook een tweede een een derde uitzondering te maken.

[Reactie gewijzigd door CAPSLOCK2000 op 6 augustus 2021 16:35]

Dat zit er nu vast nog niet in, maar het zal niet lang duuren voor de dictators van deze wereld zich bij Apple melden met hun eigen wensenlijst.
Is dit niet gewoon de 'slippery slope' fallacy? Ik bedoel, er is inderdaad veel mogelijk, maar je kan er niet zomaar vanuit gaan dat ze dat gaan doen. Apple is niet perfect, maar het is zeker geen Chinees bedrijf die alle berichten inzichtelijk maakt voor diens overheid.
Is dit niet gewoon de 'slippery slope' fallacy? Ik bedoel, er is inderdaad veel mogelijk, maar je kan er niet zomaar vanuit gaan dat ze dat gaan doen.
Niet iedere 'slippery slope' is een fallacy. In mijn ogen is het hier een 'echte slippery slope' omdat nu deze stap eenmaal genomen is er voortdurend druk zal zijn om nog een stapje verder te gaan.
Apple is niet perfect, maar het is zeker geen Chinees bedrijf die alle berichten inzichtelijk maakt voor diens overheid.
Weet je dat zeker? Een paar jaar geleden heeft China afgedwongen dat Apple alle Chinese data, inclusief de sleutels, in China moet bewaren en dat deze systemen beheerd moeten worden door overheidsmedewerkers. Volgens mij weet Apple zelf niet eens zeker wie er toegang heeft tot de sleutels.


En ik probeer met de post niet te zeggen dat Apple een afschuwelijk bedrijf is ofzo, het moet ook maar zien om te gaan met de problemen van deze wereld. Maar ze hebben wel stappen genomen waar ik niet blij van wordt.

[Reactie gewijzigd door CAPSLOCK2000 op 6 augustus 2021 16:55]

Is dit niet gewoon de 'slippery slope' fallacy?
De slippery slope bestaat gewoon, dus dit is geen fallacy.

Daar zijn verschillende redenen voor. Allereerst zijn harde principes veel makkelijker te verdedigen dan subjectieve grenzen. Wat is bijvoorbeeld staatsondermijnend activisme? Voor China is dat ook mensen die vragen om democratie.

Als je het principe huldigt dat men gewoon helemaal het recht niet heeft om in je prive te snuffelen, dan kom je ook niet in dat subjectieve gebied.
Maar hoe heeft dat zo ver kunnen komen?
Het probleem is de verwerkingsgrond die heeft Apple gewoon weg niet. Apple is geen overheidsinstantie die dit mag doen. Op dit ogenblik is enkel de politie en justitie die dit mag doen. Voor de rest is het wel zorgelijk dat prive instanties deze rol beginnen opnemen en op deze manier. Ieder systeem kan en zal misbruikt worden. Weer offeren wij een deel privacy op. Mensen gaan altijd kort door de bocht, maar kijken nooit naar het groter geheel. We gaan naar een maatschappij waar je de boete/straf krijgt voor je het misdrijf pleegde. Omdat je de gelegenheid had en uit je profiel blijkt dat je mogelijks ook de intentie hebt...
Zodra een nieuwe functie met kinderporno of terroristen bestrijding bestrijding wordt geïntroduceerd, gaan bij mij alle nekharen overeind staan.
Apple was een van de weinige die het spelletje niet mee speelde maar ook die lijken ze op de knieën te hebben gekregen.
Minority Report, goede film :)
Dus hoe je van daar naar massa-surveillance kan gaan mis ik even.
Dat komt doordat je nu alleen kijkt naar wat het doel van deze functionaliteit zou zijn en niet naar de technische mogelijkheden. Het probleem is dat deze client-side tool de end-to-end encryption van applicaties kan ondermijnen. Dat het nu om kinderporno zou gaan is heel nobel, maar zo'n hash is makkelijk te vervangen voor een hash van een document of een bericht waarvan een overheid niet wil dat het in handen komt van gebruikers.
Precies, neem een uitgelekt overheids document waarin de regering niet goed uit de verf komt. Nu kan de overheid niks doen, het document vliegt het Internet over, overal staan kopieen.
Straks is dat wel even anders. Ze leggen, al dan niet via de rechter, Apple op om dit doucment op te sporen. De infrastructuur omdat te doen heet Apple immers al aangelegd, nu hoeven alleen nog maar de NeuralHashes van je documenten vergeleken te worden met die van het uitgelekte document en voila, de overheid weet precies wie het doucment heeft.
Het grootste risico lijkt me dat een grapjas je verneukt door een foute afbeelding naar je op te sturen. Dan staat het dus in ieder geval tijdelijk op je telefoon, totdat je het ziet en kan weggooien. Dan zit je wellicht al in het verdachtenbankje en werkt dat verhaal van kans van "1 op een miljard dat het niet klopt" alleen maar tegen je.
[...]
Ik snap niet zo goed hoe, eigenlijk. De kans dat zo'n hash het resultaat is van een niet-criminele afbeelding is 0,0000000001%, en dat is het enige scenario waarin het een probleem voor privacy oplevert.
De kans op een false-positive is 0,0000000001%, maar dat gaat uit van een 100% correcte dataset. En of die dataset inderdaad correct is kunnen we nergens controleren. Tweakers geeft zelf al een voorbeeld waarbij een menselijke fout plaatjes aan de dataset toevoegde die er niet in hadden moeten zitten. Overigens met kleine maar daadwerkelijke schade tot gevolg.

Ook voor diensten als de FBI wordt het straks wel aantrekkelijk om "per abuis" wat verkeerde plaatjes aan zo'n database toe te voegen. Verschijnt er op Twitter een foto die een hoge pief in verlegenheid brengt? Voeg de foto toe aan zo'n database en Apple vertelt ze wie die foto heeft gemaakt.

Dat Apple de foto's zelf niet kan zien heeft de schaduwkant dat ze ook niet op dergelijk misbruik kunnen controleren.
Bijvoorbeeld Facebook is al járen bezig om hun algoritmes zo goed te krijgen dat zelfs maar een simpele blote tiet er betrouwbaar uitgefilterd wordt. Dat is nog steeds is dat niet gelukt. Daar zitten tig werknemers de hele dag afbeeldingen te beoordelen. Dus dit moet zich eerst naar eens bewijzen voor ik voor het waarheid aanneem.

Afgezien daarvan is het wel degelijk mass surveillance.

Ik sta echt met mijn oren te klapperen als ik dit bericht lees. Het staat haaks op het privacy beleid van Apple tot nu toe.

Wat is het volgende? Worden je bestanden door een ai bekeken of je geen rare ideeën hebt over de overheid? Hier zal dat wel loslopen, maar in Turkije, Rusland, China wordt dat een ander verhaal.
Worden je bestanden door een ai bekeken of je geen rare ideeën hebt over de overheid? Hier zal dat wel loslopen, maar in Turkije, Rusland, China wordt dat een ander verhaal.
Dat is maar de vraag. In de VS wordt er nu al op aanwijzing van de overheid door Twitter gecensureerd (er is een 'partner portal' waarmee de overheid aanwijzingen kan geven aan Twitter).

Bovendien wordt er grootschalig mensen gebanned of hun content verwijderd omdat ze een andere mening hebben over Corona. En dit gaat niet alleen om wappies, maar om wetenschappers. Zo zijn er mensen gecensureerd omdat ze dachten dat het waarschijnlijk of aannemelijk was dat het virus uit een Chinees laboratorium komt. Vrij recent hebben de Amerikaanse media daar een grote draai gemaakt en hun eerdere verhalen aangepast die beweerden dat dit tegen de feiten inging.

Overigens hebben we tijdens deze pandemie meerdere keren gezien dat de media en de tech-bedrijven een zwak onderbouwde bewering bombardeerde tot een keiharde waarheid die je niet mag betwisten, om vervolgens een grote draai te maken nadat deze waarheid helemaal niet zo hard bleek te zijn. Bijvoorbeeld de mening dat het gebruik van mondkapjes door burgers niet helpt, wat gepresenteerd werd als feit, wat plotseling veranderde in de 'keiharde waarheid' dat ze wel goed werken. Deze ommezwaai kwam niet doordat er plotseling nieuw bewijs opdook, maar puur omdat de elite van mening veranderde.

Dit gaat allemaal toch erg hard richting de manier waarop vrijheid van meningsuiting werkte in de Stalinistisch staat, waar je geen vraagtekens mocht zetten bij een subjectieve mening van de elite. Die elite veranderde ook regelmatig van mening, waarna men opeens verplicht werd om een mening te verkondigen die de dag ervoor nog verboden was, terwijl de mening die eerst verplicht was, nu opeens verboden werd.
Je hebt gelijk. Het westen is ook gevoelig op dit punt.
Heb je het artikel wel gelezen? Er wordt dus gewerkt met reeds gekende en gecontroleerde afbeeldingen waarvan een hash gemaakt wordt, en deze worden dan op je apparaat daaraan getoetst.

Dat is iets helemaal anders dan je voorbeeld over tieten-plaatjes. Die plaatjes zijn namelijk niet op voorhand gekend en hier kan dus ook helemaal geen hash van gemaakt worden ter controle.

Dus je bent je aan het opwinden over ... iets dat niet aan de hand is?
Heb je het zelf wel gelezen? Gaat niet alleen over bekende afbeeldingen.

Een stel tepels herkennen is 100x eenvoudiger dan bepalen of een minderjarige in compromitterende situatie vastgelegd is.

Maar dit zijn in feite nog bijzaken vergeleken met de grens die hier overschreden wordt: Foto’s van gebruikers zijn privé. Daar heeft de fabrikant van hun smart phone niets mee te schaften.

Als dit acceptabel is, wat is dan het volgende? Weigert je slimme autonavigatiesysteem straks door een tippelzone te rijden omdat Apple dat niet chique vindt? Wordt je iTunes platenverzameling gezuiverd van de vrouwonvriendelijke teksten van The Beasty Boys? Wordt dat gevloek in je vakantievideo automagisch uitgeBLIEPt?
Heb je het zelf wel gelezen? Gaat niet alleen over bekende afbeeldingen.
Volgens mij haal je een aantal dingen door elkaar. Het herkennen van bloot is puur voor ouderlijk toezicht en staat los van CSAM. Dat herkennen gebeurt puur on-device, en heeft dus niks met KP te maken. Dat is volledig opt-in voor ouderlijk toezicht.

Het 'herkennen' van KP is anders; dat matcht door hashes van CSAM. Ook dat gebeurt on-device, waarbij er na X matches pas een ping naar Apple gaat -- bij een enkele match is er nog niks aan de hand dus.

(Zie ook de comment van Argantonis hieronder)

[Reactie gewijzigd door Luminair op 8 augustus 2021 01:36]

Nee, dat is een van de drie methodes, er komt ook een machine learning algoritme die al je plaatjes onderzoekt.

De overigen:
De monitoring en analyse van afbeeldingen vindt op het apparaat zelf plaats met behulp van machine learning. Ten slotte gaan Siri en de zoekfunctie waarschuwen en 'ingrijpen' bij het zoeken naar onderwerpen met betrekking tot kindermisbruik.

[Reactie gewijzigd door svenk91 op 6 augustus 2021 13:07]

Nee, dat is een van de drie methodes, er komt ook een machine learning algoritme die al je plaatjes onderzoekt.
Ik heb niet het idee dat mensen de link van Apple zelf (https://www.apple.com/child-safety/) hebben gevolgd, maar alleen de wat warrige samenvatting van Tweakers.

Het machine learning stuk gaat over het versturen en ontvangen van berichten via Messages, met als doel kinderen te beschermen bij het gebruik van het apparaat. Dat staat verder los van het eventueel flaggen van materiaal als kinderporno. Dát gaat wel met known hashes.
Maar alle berichten op messages worden dus wel gescanned (met on device ML) en dit kan ook aan ouders worden verstuurd, ook worden afbeeldingen onbruikbaar gemaakt. Met een false positive kan dit een gezinsleven al aardig ruïneren. De initiële verdenking alleen al is een probleem, maar digibete ouders kunnen misschien niet helemaal begrijpen dat het een false positive is en handelen puur op het bericht dat hun kind kinderporno deelt/ontvangt.

Kinderporno moet zeker aangepakt en is een van de meest kwalijke zaken met hoe het een mensenleven totaal verpest (vaak meer dan een). Echter, het recht op een gezinsleven is ook een mensenrecht. Niet zo bekend in Nederland als vrijheid van meningsuiting of vrijheid van geloof, maar hij is ook niet minder belangrijk. Het is zelfs hét mensenrecht waar de Nederlandse staat keer op keer een onvoldoende scoort als de VN onderzoek doet naar de mensenrechten situatie in Nederland. Als deze controle een gezin opbreekt dan is Apple verantwoordelijk, het is erg glad ijs waar ze op gaan.

[off-topic]Opvallend is ook dat het recht op gezinsleven en het recht op privacy in het Europese verdrag voor de rechten van de mensen samen zijn genomen. Schending van privacy heeft immers vaak impact op een gezinsleven. Ondanks dat andere mensen misschien niet je foto's krijgen te zien wordt er toch door Apple door je foto's gegaan en kan dit je gezinsleven aantasten.[/off-topic]

Zelf heb ik er trouwens geen moeite mee dat dit systeem bij mij gebruikt wordt. Ik wordt liever tijdig beschermd tegen dit soort zaken. Waarschuw mij en blokkeer een verdacht bericht en dan ga ik er achter aan of dit een false positive is en waarom dit naar mij verstuurd is. Ik hoop ook zeker dat de feature er komt, maar dan met een opt-in of opt-out. Bij mij is het geen probleem omdat ik een familie en vriendin heb die kalm met zo iets om zouden gaan (los van het feit dat ik meerderjarig ben en Apple dus niks naar mijn ouders gaat sturen, ze zullen maar net toevallig de notificatie lezen op mijn apparaat), maar besef je heel goed dat dit een privilege is.
Het is ook niet echt knap. Als je maximaal 100 getallen neemt (hashes) dan is de kans best groot dat je overeenkomst hebt tussen 2 random gekozen getallen.

Mocht je dus een hele lange hash nemen is de kans veel kleiner. Echt unieke technologie hebben ze volgens mij niet toegepast. Alleen maar hashing van bestanden.
Mogelijk is dat de reden dat Apple het juist gaat controleren? Mogelijk faciliteren zij, onbedoeld, deze praktijken.
Met die logica zouden alle ISPs je versleutelde internet verkeer moeten gaan scannen want “mogelijk faciliteren zij, onbedoeld, deze praktijken”…
Er staan ook trajectcontroles en flitspalen langs de openbare weg. Ook nog ANPR camera’s e.d. Dus die logica is niet super gek eigenlijk…

Of is het juist gek dat we we die massale controle toelaten in de publieke ruimte?
Er staan ook trajectcontroles en flitspalen langs de openbare weg. Ook nog ANPR camera’s e.d. Dus die logica is niet super gek eigenlijk…
En ook die worden - dat is inmiddels al meerdere malen bewezen - misbruikt, voornamelijk door de politie, maar ook door de belastingdienst, en wie weet wie de gegevens allemaal nog krijgen (NSA, GQHC) ongeacht of ze er überhaupt iets mee doen.
Of is het juist gek dat we we die massale controle toelaten in de publieke ruimte?
Vanwege het bestaan van criminaliteit, en dat overheden dat willen tegengaan, deels vanwege de wens van de burger, deels vanwege dat diezelfde overheid daar ook door benadeeld kan zin (bv smokkelen) is dat een noodzakelijk kwaad. In de meeste landen is dit een lesser evil dan de criminaliteit die men wilt bestrijden, maar er zijn landen geweest waar het omgekeerde het geval was, de controle gericht was op zaken die volgens de wet wel crimineel waren, maar die wij als essentieel voor de samenleving achten en de massale controle zelf was voor die landen nog schadelijker dan datgene wat die de controle moest verhinderen. (Hongarije, Tsjecho-Slowakije, DDR), er zijn landen waar dit nu zo is, en ook onze westerse samenleving gaat geleidelijk maar onherroepelijk* die kant op.

* Ik schrijf onherroepelijk omdat we er niets aan kunnen doen, als burger niet, als overheid niet (al wilt onze overheid dat ook niet, die zwelgt op dit moment in de toegenomen mogelijkheden, en wil alleen maar meer, zogezegd omdat de criminaliteit toe neemt - wat waarschijnlijk ook het geval is), en als bedrijf niet (maar willen ook niet anders, want ze verdienen er aan) en we worden meegesleurd in deze sneeuwbal.
Dat weten wij niet, maar vooral: dat weet jij ook helemaal niet. En zo'n vraag waarin je zelf op een ludieke manier zelf een antwoord in verwerkt helpt deze discussie ook niet echt vooruit.
Je hebt volkomen gelijk hier. Het privacy imago van Apple is een wassen neus, ik schreef hier ook al eerder over op Tweakers: nieuws: Bloomberg: Face ID komt mogelijk 'binnen enkele jaren' naar Macs

Hoe je dit ook wend of keert, dit is massa surveillance. Het word hier mooi omkleed met technische hoogstandjes en zalvende woorden, maar dit is een godsgeschenk voor politiediensten en de heilige missie van minister Grapperhaus: https://www.internetconsultatie.nl/autoriteitkp

Uiteindelijk is dit allemaal te herleiden tot dit overkoepelende geheel:
https://www.justice.gov/o...leaders-regarding-use-end
Je kan dit dus ook zien als een knieval van Apple richting de diverse overheden. Hoogst zorgwekkende ontwikkeling en ik ben benieuwd hoe de EU zich gaan opstellen op termijn.
AFAIK worden de biometrische gegevens die voor Touch ID en Face ID worden gebruikt, alléén op het desbetreffende Apple apparaat als hash opgeslagen. Die hash is niet terug te vertalen, alleen als je jouw vingerafdruk of gezichtspatroon invoert, vergelijkt je device de hashes met elkaar. Apple heeft jouw biometrische gegevens dus niet, en zou er ook niks mee kunnen.
Je verwijst naar je comments in dat andere artikel (nieuws: Bloomberg: Face ID komt mogelijk 'binnen enkele jaren' naar Macs), maar daar werd je daar ook al op gewezen. ;)

Ik ben het verder met je eens dat het privacy imago van Apple vooral marketing is, dat het scannen van iCloud en opslag op de telefoon zelf een zeer zorgwekkende ontwikkeling is, en dat je vraagtekens kunt zetten bij het gebruik van biometrische gegevens an sich voor identificatie en authorisatie, maar specifiek Touch ID en Face ID hebben met deze kwestie weinig te maken.

[Reactie gewijzigd door Tc99m op 6 augustus 2021 18:50]

Bizar dit. Apple is niet onze Privacy-vriend. Ze zijn een megacorporatie die maar al te graag ons verrotscant om meer geld te verdienen en macht te krijgen.
Het privacy imago van Apple is een wassen neus,
Zolang er geen enkel bewijs is dat Apple iets doet met biometrische gegevens, anders dan ze zelf zeggen, op je eigen apparaat en verder niet, kun je dit niet beweren.
ik schreef hier ook al eerder over op Tweakers:
Ook daar staat niets nieuws.

Dat ze nu met dit plan komen, wil nog niet zeggen dat alles nep is.
Kortom Apple kan gewoon bij je bestanden , wat ze ook zeggen.
Euh, het besturingssysteem kan bij je lokale bestanden. Roep je dit ook over Microsoft dat ze bij alle bestanden op je PC kunnen?
Nee, dit gaat er over dat je data 'backed-up' word op Apple apparatuur zogenaamd 'end-to-end encrypted', maar uiteindelijk kan een Apple medewerker aan de andere kant van de wereld dus de bestanden uit jouw icloud inzien. Dat is -totaal- wat anders.
Nee, een Apple medewerker kan met dit systeem je bestanden die op iCloud staan inzien. Dit is heel iets anders.
Dan kan Apple nu ook al.
over hardware incryption of beveiliging, privacy die via hardware gaan heeft Microsoft weinig te zeggen.

Voornamelijk Intel en amd zijn hier verantwoordelijk voor.
BHet privacy imago wat Apple aan het opbouwen was komt wat mij betreft wel wat op lossen schroeven te staan zo, want dit is gewoon massa surveillance. Dat het een deugdelijk doel dient, doet er niet toe.
Dit deugdelijke doel vind jij zo. Voor mij als kinderporno handelaar maakt het het werk lastiger.

Wat ik wil aangeven is dat een “deugdelijk doel” een relatief iets is. In Hongarije is het een deugdelijk doel om homo’s op te sporen. China kan dit inzetten tegen Oeigoeren.

Ik vind het nogal wat. Natuurlijk, “iedereen” is tegen kindermisbruik maar om dat in te zetten om een dergelijk systeem in te zetten.
Voorbeeldje:
Als ik in de vs op vakantie ben en ik stuur vanuit het hotel een foto met mijn iPhone een foto naar mijn moeder dat mijn kind lekker in bad zit om te laten zien hoe goed we het hebben loop ik risico. Die badkamers in hotels zijn behoorlijk universeel, een bloot kind op een overzichtsfoto is redelijk universeel.

Ik ben geen expert in dit soort dingen (surveillance) maar heb wel mijn vraagtekens. Mijn foto’s kunnen alleen gecontroleerd worden als er toegang tot is. Dat wil ik niet, ik voel mij niet vrij in het gebruik van een door mij zelf betaald apparaat.
En jouw kind in bad, dat zal ook geen enkel probleem zijn. Het gaat om hashes en niet op inhoud.
Als er een kinderpornonetwerk opgerold wordt en er worden zeg maar 10.000 foto's aangetroffen dan komen de unieke hashes van die 10.000 foto's in de database gezet.

Zie dit artikel op Tweakers uit 2014 waarin nagenoeg hetzelfde qua inhoud wordt besproken: nieuws: Tool zoekt illegale beelden op basis van versleutelde database

Zodra er overeenkomsten in de hashes zijn komt er menselijk handelen aan te pas. Maar goed, dan is Apple nog geen justitiële instelling en heeft daarmee alleen een melding door te zetten naar de politie/justitie van dat desbetreffende land.

Ik ben verder geen expert in dit soort zaken, maar hier zitten nog een hoop haken en ogen aan hoe zoiets dekkend wordt ingericht.
Maar om je gerust te stellen, je mag je moeder gerust een foto sturen van je kiddo's in bad.

[Reactie gewijzigd door Dograver op 6 augustus 2021 12:26]

En stel dat jouw foto van kind in bad uitlekt en wordt verspreid? Dan ben je alsnog de sjaak.

Maar sowieso doe ik dat eigenlijk al niet, foto's en filmpjes maken van m'n kinderen in bad. Je weet nooit wanneer het ineens tegen je gebruikt gaat worden.
Als het je eigen kind is, of familie van je, dan heb je als nog geen probleem toch. Ook al komt de politie langs, dan kan je dat toch uitleggen en bewijzen?
Politie komt niet langs. Apple/Microsoft/Google sluiten gewoon je account en gooien je data weg, zonder verdere notificatie en specificaties.
Ja als je kind inmiddels al 5 jaar ouder is. Succes met dat te bewijzen. Veel baby's zien er hetzelfde uit.
Jij hoeft niets te bewijzen, de staat moet bewijzen dat je liegt in de rechtbank. Beyond reasonable doubt.
Waar staat dat Apple al je foto’s scanned?
Kun je dat voor me quoten uit het originele artikel: https://www.apple.com/child-safety/

Ben op recht benieuwd maar zie nu geen dingen waar Apple zegt alles te gaan scannen behalve met hashes.
Je hebt gelijk, het gaat niet om alle photos, maar wel alle content die met Messages wordt verstuurd, daar doelde ik op. Ik doelde op alle foto's gedeeld binnen Messages maar had dit beter moeten verwoorden.
Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit.
Daar meldt je dus voor aan en je kan het uitzetten. Er staat in het artikel een screenshot van het permissions scherm.
IDD, misbruik van kinderen mag niet, maar bespieden van andermans leven al helemaal niet. Je graait in ieders foto album opzoek naar mogelijk kindermisbruik, dus ook in die van jou met je wilde feesten… Als Rutte vandaag zou beslissen dit ook te gaan doen, dan barst de bom los.

Apple gaat de foute kant op!! Jammer.

[Reactie gewijzigd door sokolum01 op 6 augustus 2021 11:45]

Het privacy imago wat Apple aan het opbouwen was komt wat mij betreft wel wat op lossen schroeven te staan zo, want dit is gewoon massa surveillance. Dat het een deugdelijk doel dient, doet er niet toe.
Dat het een deugdelijk doel is, klopt helemaal, maar het is idd een zorgwekkende evolutie. Nu scant men enkel op kinderporno, maar het risico dat dit op termijn uitgebreid wordt naar andere “ongewenste” foto’s, video’s, enz lijkt me reëel.
Jep.
Aan de ene kant is het natuurlijk prachtig verwoord. We pakken kindermisbruik! Ieder wel denkend mens met een werkende moraal kompas zou hier gelijk ja tegen zeggen. Ik zou zelf gelijk hiervoor tekenen als het inhoud dat we misbruik eerder te pakken kunnen nemen.

Aan de andere kant zal ieder weldenkend mens ook gelijk verder moeten kijken. Dit is surveillance en nu is het kindermisbruik, straks is het een foto vanuit een rijdende auto, een gedownloade mp3 op je telefoon, een plaatje van Winnie de Poeh terwijl je in China bent etc.
En alleen al daarom zou ik het nooit accepteren, want er is geen enkele wijze waarop dit alleen maar hiervoor gebruikt gaat worden op de lange termijn.
Op basis van welke wettelijke verplichting gebeurt dit. Het is eigenlijk te gek voor woorden dat een bedrijf politieagent speelt. Me niet verkeerd begrijpen: kindermisbruik is naast vele andere misbruiken verwerpelijk en moet maximaal opgespoord en bestraft worden. Maar een bedrijf dat het initiatief neemt is onaanvaardbaar. Op die manier sluipt indoctrinatie door het tonen van gestuurde informatie onze maatschappij binnen. (Het is al moeilijk genoeg om media bedrijven in toom te houden om niet te sterk eenzijdig uit de hoek te komen)
botst? botst? het plan zoals Apple nu ontvouwt is geheel in strijd met de AVG.
Er zijn hier een aantal problemen mee:
  • In het verleden zijn er wel eens verkeerde hashes in een database beland. Dit kan per ongeluk, dit kan met opzet om een legaal afgedekte reden te bedenken voor gericht onderzoek. Zie ook het nieuwsbericht voor een voorbeeld waarin dit fout is gegaan.
  • Als het mechanisme werkt voor kinderporno in de VS, dan werkt het ook voor andere afbeeldingen waarvan een (andere) regering hashes aandraagt aan Apple. Denk bijvoorbeeld aan een afbeelding van een man die voor een tank staat.
  • Het gaat hier om apparaten in eigen bezit, niet om de servers van een ander. Apple gaat hiermee politieagent spelen op apparaten die zij uitgeven. Dat kan en mag (wettelijk gezien in de VS), maar gooit wel het privacy verkoopargument van Apple overboord.
  • Het is makkelijk te misbruiken door een ander. Een kwaadwillend persoon kan iemand (met end-to-end encryptie vanuit een land dat niets uitlevert) kinderporno sturen. Een politieonderzoek zal volgen. Mogelijk wordt de persoon dan als onschuldig bevonden, maar het stempel is al geplaatst. Immers wordt het slachtoffer door de politie als verdachte aangemerkt voordat die zelf de kans had om iets aan te geven, om een weerwoord te bedenken of om corrigerende maatregelen te treffen (bijvoorbeeld om de foto's te verwijderen en het verzendende account te blokkeren). In een ideale wereld is iemand onschuldig totdat het tegendeel is bewezen, maar de onderbuik bestaat en zorgt ervoor dat het geen ideale wereld is. Van dat stempel komt een slachtoffer niet meer af.
Daarnaast is het argument "think of the children" natuurlijk niet heel sterk om zoiets als dit door te voeren. Kindermisbruik is een probleem, maar het is niet een probleem waar iedereen onder hoeft te lijden.

[Reactie gewijzigd door The Zep Man op 6 augustus 2021 09:38]

Ik denk dat je stelling dat kindermisbruik een probleem is waar niet iedereen onder hoeft te lijden wat kort door de bocht is. Om zoiets te kunnen concluderen moet je weten wat de omvang van het probleem van kindermisbruik is, en wat de omvang is van het 'lijden van iedereen' bij dit systeem.
Ik denk dat je stelling dat kindermisbruik een probleem is waar niet iedereen onder hoeft te lijden wat kort door de bocht is. Om zoiets te kunnen concluderen moet je weten wat de omvang van het probleem van kindermisbruik is, en wat de omvang is van het 'lijden van iedereen' bij dit systeem.
Kindermisbruik is niet zo'n groot probleem om een mechanisme in te bouwen in alle apparaten om lokaal bestanden te analyseren, wat misbruikt gaat worden voor zaken die niets met kindermisbruik te maken hebben. Om een crimineel probleem op te lossen begin je niet met meer slachtoffers te maken.

Verder is het argument "het zou wel eens een groot probleem kunnen zijn" zwak. Het is aan degene die dat claimt om aan te tonen dat het probleem groot is.

[Reactie gewijzigd door The Zep Man op 6 augustus 2021 09:42]

Je bent heel stellig, maar je argumenten zijn discutabel. Er zijn veel voorbeelden van bevoegdheden die de politie heeft om zaken te onderzoeken waarvan achteraf blijkt dat het niet bijdraagt aan de opsporing van een strafbaar feit of de veroordeling van een verdachte. Je moet in het kader van opsporing vrijwel standaard meer informatie onderzoeken dan je uiteindelijk nodig hebt. Daarmee maak je altijd een inbreuk op mensen hun privéleven. Het is altijd zoeken naar een balans tussen het belang van het onderzoek en de mate waarin je daartoe inbreuk mag maken op de privacy.

Apple bouwt een functie in ivm kindermisbruik, en ik ga ervan uit dat Apple dat pas heeft gedaan nadat ze kennis hadden van de omvang van het probleem van kindermisbruik. Jij trekt die omvang in twijfel zonder daar kennelijk iets van te weten, en zonder die stelling te onderbouwen. Als jij het niet eens bent met het systeem van Apple, dat kennelijk over veel meer kennis beschikt dan jij over dit onderwerp, dan is het toch echt aan jou om met zinnige argumenten te komen.

Het klopt ook niet dat je zegt dat het niet aan te tonen is dat het probleem niet groot is. Dat gaat alleen op bij stellingen waarvan de waarheid evenmin valt aan te tonen, zoals: God bestaat. Je kunt niet aantonen dat God niet bestaat. Je kunt echter wel vaststellen hoe groot of klein het probleem van kindermisbruik is.
Je bent heel stellig, maar je argumenten zijn discutabel. Er zijn veel voorbeelden van bevoegdheden die de politie heeft om zaken te onderzoeken waarvan achteraf blijkt dat het niet bijdraagt aan de opsporing van een strafbaar feit of de veroordeling van een verdachte.
In dit geval gaat het niet om de politie, maar om Apple, en ongericht onderzoek (sleepnet). Verder gaat de politie niet elk huis af om te kijken of er iets illegaals in huis zou kunnen zijn. Er is een privésfeer die sterk beschermd wordt (in de VS en in Nederland). Digitaal bestaat hetzelfde equivalent.
Apple bouwt een functie in ivm kindermisbruik, en ik ga ervan uit dat Apple dat pas heeft gedaan nadat ze kennis hadden van de omvang van het probleem van kindermisbruik. Jij trekt die omvang in twijfel zonder daar kennelijk iets van te weten, en zonder die stelling te onderbouwen.
Jij gaat ervan uit dat Apple dat pas heeft gedaan nadat ze kennis hadden van de omvang van het probleem van kindermisbruik, zonder die stelling te onderbouwen.
Als jij het niet eens bent met het systeem van Apple, dat kennelijk over veel meer kennis beschikt dan jij over dit onderwerp, dan is het toch echt aan jou om met zinnige argumenten te komen.
Mijn argumenten zijn zinnig. Zelfs al zou het probleem groot zijn, dan is het niet zo groot dat het verantwoord is om het nog groter te maken.
Het klopt ook niet dat je zegt dat het niet aan te tonen is dat het probleem niet groot is. Dat gaat alleen op bij stellingen waarvan de waarheid evenmin valt aan te tonen, zoals: God bestaat. Je kunt niet aantonen dat God niet bestaat. Je kunt echter wel vaststellen hoe groot of klein het probleem van kindermisbruik is.
Het zwaartepunt om aan te geven hoe groot een probleem is ligt nog steeds bij de persoon die aankaart dat er een probleem is, niet bij anderen om dat te weerleggen. Een niet goed gedefinieerd probleem kan geen verdediging tegen opgebouwd worden.

In een ideale wereld waar niemand misbruik maakt van maatregelen tegen criminaliteit: mogelijk kunnen de middelen die tegen kindermisbruik ingezet worden efficiënter elders worden ingezet. Ook dat is nu niet meetbaar.

[Reactie gewijzigd door The Zep Man op 6 augustus 2021 09:53]

Jouw argument had geen betrekking op wie inbreuk maakte, maar op dat het gebeurde. Ik zie niet waarom je nu mijn reactie daarop afdoet met dat het hier om Apple gaat, en niet om de politie. Ik zeg verder ook niet dat de politie elk huis afgaat. Zoals ik aangaf is er altijd sprake van een weging tussen het belang van de opsporing en de inbreuk die wordt gemaakt. Elk huis controleren is een enorme inbreuk, dus dat weegt niet snel op tegen het belang.

Ik hoef niet te onderbouwen dat Apple naar ik verwacht de omvang van het probleem van kindermisbruik kent. Het is ook niet aan Apple om de omvang van dit probleem aan te tonen. Jij bent het niet eens met het besluit van Apple. En aangezien Apple het recht heeft om dit besluit te nemen en deze controle in te bouwen (het zijn immers haar servers), is het aan jou om te motiveren waarom niet. Jij motiveert dat beperkt, dus dan boet je stelling dat dit besluit niet oké is aan overtuigingskracht in.

Hoe kom je erbij dat het probleem niet goed gedefinieerd is? Op basis van dit nieuwsbericht van Tweakers? Je weet het niet, dus ga nou niet zeggen dat het niet goed gedefinieerd is. Ik snap wel dat je er geen onderzoek naar doet (dat doe ik ook niet), en het is prima om op basis van dit artikel een mening te vormen, maar dan is het wel goed dat je bewust bent van dat je mening dan inhoudelijk niet zoveel toegevoegde waarde heeft.
Jouw argument had geen betrekking op wie inbreuk maakte, maar op dat het gebeurde. Ik zie niet waarom je nu mijn reactie daarop afdoet met dat het hier om Apple gaat, en niet om de politie.
Jij haalt de politie erbij in je argumentatie, niet ik. De politie heeft meer rechten dan anderen, maar dat was niet het punt van discussie. Het punt was Apple, waardoor je vergelijking mank loopt.
Ik zeg verder ook niet dat de politie elk huis afgaat. Zoals ik aangaf is er altijd sprake van een weging tussen het belang van de opsporing en de inbreuk die wordt gemaakt. Elk huis controleren is een enorme inbreuk, dus dat weegt niet snel op tegen het belang.
Een smartphone is ook een onderdeel van dezelfde privésfeer als een eigen huis.
Ik hoef niet te onderbouwen dat Apple naar ik verwacht de omvang van het probleem van kindermisbruik kent. Het is ook niet aan Apple om de omvang van dit probleem aan te tonen. Jij bent het niet eens met het besluit van Apple.
Waar schrijf ik dat ik het oneens ben met het besluit van Apple? Ik geef aan dat er problemen mee zijn. Apple kan doen en laten wat die wil. Ik kan besluiten om wel of geen onderdeel te zijn van het Apple ecosysteem.
En aangezien Apple het recht heeft om dit besluit te nemen en deze controle in te bouwen (het zijn immers haar servers)
Het gaat niet om servers. Het gaat om smartphones in het bezit van gebruikers.
Hoe kom je erbij dat het probleem niet goed gedefinieerd is? Op basis van dit nieuwsbericht van Tweakers? Je weet het niet, dus ga nou niet zeggen dat het niet goed gedefinieerd is.
Waarom stel je eerst die twee vragen, om daarna te stellen dat jij weet wat ik (niet) weet? Dat lijkt nogal nutteloos.

Verder kan je een probleem pas inhoudelijk bespreken als de grootte bekend is. Ik heb gezocht, maar geen cijfers gevonden die het probleem zo groot maken dat het verantwoord wordt om iedereen met een (Apple) smartphone/tablet slachtoffer te maken van een inbreuk van de privésfeer.

Een gebrek aan grootte van een probleem is een gebrek aan transparantie, wat de deur openzet voor corruptie en illegitiem gebruik. Een gebrek aan transparantie is al een probleem op zich.

[Reactie gewijzigd door The Zep Man op 6 augustus 2021 10:29]

Oke, toch maar een inhoudelijke reactie.

Jouw oorspronkelijke stelling was deze: Kindermisbruik is niet zo'n groot probleem om een mechanisme in te bouwen in alle apparaten om lokaal bestanden te analyseren, wat misbruikt gaat worden voor zaken die niets met kindermisbruik te maken hebben. Om een crimineel probleem op te lossen begin je niet met meer slachtoffers te maken.

Je vergeleek daar twee zaken:
1. De omvang van het probleem van kindermisbruik.
2. De inbreuk in mensen hun privélevens door het inbouwen van een mechanisme.

Het ging bij jouw stelling dus over de relatie tussen het probleem en het middel dat werd ingezet tegen dit probleem, waarbij jij het niet eens was met het middel i.v.m. dat je de inbreuk op mensen hun privélevens te groot vond. Dat is een algemene stelling die niet gespecificeerd is op dat dit middel wordt ingezet door een privaat bedrijf, maar op de belangenafweging in het algemeen. Ik kon daarom prima een vergelijking maken met dat er wel vaker inbreuk wordt gemaakt op privélevens, bijvoorbeeld op grond van de rechten die de politie daartoe heeft. Vervolgens reageer jij dat het niet om de politie gaat, maar om Apple. Daarna leg ik nogmaals uit dat het op grond van jouw stelling niet gaat om wie de inbreuk mag maken, maar om dat de inbreuk wordt gemaakt. Daarna leg jij uit dat het wel om Apple gaat. Als je dat vindt, dan was je eerste stelling onduidelijk. Dan ben je het dus niet zozeer oneens met dat dit middel wordt ingebouwd tegen kindermisbruik, maar dat Apple het doet, en niet als het bijvoorbeeld ging om een bevoegdheid van de politie.

Een smartphone is inderdaad privé, net als een huis. Waar het hier om gaat is de vraag in welke mate iemand zijn privé-leven wordt geschonden. Een doorzoeking van een huis wordt in zijn algemeenheid als een ernstigere schending beschouwd dan een middel als dat Apple nu implementeert. Dat is niet mijn menig, dat is een feit. De schending van grondrechten wordt beoordeeld aan de hand van legitimiteit, proportionaliteit en subsidiariteit. Die laatste twee normen zijn er om te toetsen of de schending in verhouding staat tot het beoogde doel en of er geen ander middel is om het beoogde doel te bereiken.

Het gaat wel om servers. Het staat duidelijk in het artikel dat het gaat om foto's die worden geupload naar iCloud.

Jij geeft zelf aan dat je een probleem pas kunt bespreken als de grootte ervan bekend is. Je hebt geen goede cijfers gevonden, ergo je kunt het niet beoordelen. Bovendien heb je pas gezocht nadat ik er iets van zei, en niet voordat je je primaire conclusie trok.

Ik ga verder niet inhoudelijk meer op de discussie en je eventuele vervolgreactie reageren. Het is mijn indruk dat je het gewoon met al mijn stellingen oneens bent, en dat je de eerste gedachte die je daarbij hebt dan als argument daartoe opschrijft. Ik wil best discussiëren, maar dan wel graag op een volwassen manier.
Het gaat wel om servers. Het staat duidelijk in het artikel dat het gaat om foto's die worden geupload naar iCloud.
Uit het artikel:
De controle op de apparaten
De controle vindt daarmee plaats in het privédomein.
Jij geeft zelf aan dat je een probleem pas kunt bespreken als de grootte ervan bekend is. Je hebt geen goede cijfers gevonden, ergo je kunt het niet beoordelen.
Apple stelt dat kindermisbruik een probleem is, en kan dat niet verantwoorden. Ik stel dat gegevensmisbruik een probleem is, en kan dit aantonen (want Apple geeft aan dat dit gaat beuren).
Bovendien heb je pas gezocht nadat ik er iets van zei, en niet voordat je je primaire conclusie trok.
Aanname. Dat ik het pas vertel nadat jij er iets van had gezegd, houdt niet in dat ik het niet eerder gedaan heb.
Ik ga verder niet inhoudelijk meer op de discussie en je eventuele vervolgreactie reageren.
Dit geef je nu al twee keer aan, ondanks dat je twee keer inhoudelijk hebt gereageerd. Een reactie over dat je inhoudelijk niet meer gaat reageren is ook een inhoudelijke reactie over de discussie. :+

[Reactie gewijzigd door The Zep Man op 6 augustus 2021 14:23]

Ja maar die aanname is wel correct, en dat weet jij ook

Een reactie dat ik niet meer inhoudelijk ga reageren, is geen inhoudelijke reactie. Dat is een technische reactie. Het heeft betrekking op de vorm van de discussie, niet op de inhoud ervan.
Ja maar die aanname is wel correct, en dat weet jij ook
Helaas, die was incorrect.
Een reactie dat ik niet meer inhoudelijk ga reageren, is geen inhoudelijke reactie. Dat is een technische reactie. Het heeft betrekking op de vorm van de discussie, niet op de inhoud ervan.
Potato, potato. Wel leuk om te lezen dat je toch weer inhoudelijk (en technisch) reageert. :+
Ik vind dat jij wel erg veel vertrouwen hebt in een commercieel bedrijf waar jij, noch ik, nog niemand hier, alle ins en outs van weet. Natuurlijk verkopen ze het als het oplossen van een probleem, maar wie weet wat de echte achterliggende reden is? Dat weten alleen de topmensen bij Apple. Jouw hele mening is gebaseerd op (wellicht valse) aannames.

Ik ben het met @The Zep Man eens dat het inderdaad geen probleem is waar de gehele Apple community voor moet opdraaien. als het nou de gehele mensheid zou raken, dan had ik het wellicht een goed initiatief gevonden. Maar ik heb zelf niks met kinderporno van doen, dus ze moeten zeker met hun poten van mijn foto's afblijven, ook al zijn het geen gekke foto's. Daarnaast vind ik het inderdaad een taak van de politie/FBI/CIA/Interpol/gazomaardoor om dit probleem op te lossen. Niet van Apple.

Nu heb ik geen Apple producten, maar stel je bent single, hebt geen kinderen en ook niks met kinderporno. Dat zijn echt veel mensen. Waarom moet de privacy van deze mensen geschonden worden omdat Apple vind dat het kinderporno moet oplossen?

schoenmaker, hou je bij de leest.
En jouw mening is gebaseerd op (wellicht onterecht) wantrouwen.

De privacy van mensen wordt niet geschonden. Want zolang er geen match is op een hash ziet niemand wat deze mensen voor foto's uploaden naar iCloud.
Gewoon die Icloud uitzetten als je al zo slim bent om foute foto's te maken met een IPhone of IPad ben je bij deze voldoende gewaarschuwd

[Reactie gewijzigd door D.J. Fixer op 6 augustus 2021 21:32]

Je privacy wordt wel geschonden. Want op basis van een niet democratisch gecontroleerde database, op initiatief van een prive organisatie, wordt besloten of jij verdacht bent of niet. Vervang de CSAM database met een “Door de overheid van het land waar we actief zijn aangeleverde database” en zie je dan wel het probleem?

Ik zie twee grote problemen:

1: het openzetten van de deur; dit is een hellend vlak. Als de technische middelen er niet zijn om alle gebruikers te controleren, kan er geen misbruik gemaakt worden. Apple zet hier nu zelf een deur open waarna het lastig wordt om te blijven controleren wat er door die deur gaat.

2: De oorsprong van de database. Er is geen controle op de database, ergo, de database is niet te vertrouwen. Zo zwart/wit is het imho.
Apple voegt functionaliteit toe aan iOS en iPadOS om foto's die Amerikaanse gebruikers op iCloud zetten te controleren op kindermisbruik.
Het gaat om fotos in de icloud dus hun servers, niet apparaten die in eigen beheer zijn.

Server beheerders zijn dan ook verantwoordelijk voor alles wat op de server staat. Apple zou eigenlijk strafbaar zijn wanneer zij kinderporno, of andere illegale foto's, filmpjes op hun servers hebben.

[Reactie gewijzigd door RobertPeterson op 6 augustus 2021 12:54]

De problemen die je ziet lijken mij meer spijkers op laag water zoeken:
In het verleden zijn er wel eens verkeerde hashes in een database beland. Dit kan per ongeluk, dit kan met opzet om een legaal afgedekte reden te bedenken voor gericht onderzoek. Zie ook het nieuwsbericht voor een voorbeeld waarin dit fout is gegaan.
Met het argument 'in het verleden zijn er wel eens' kan je elke menselijke activiteit tot dodelijk gevaar verklaren, van in de buurt van een vliegveld gaan wonen tot zwemmen in een natuurbad en voorzieningen als gasleidingen en het 220 volt net in woningen hebben 'in het verleden' zelfs regelmatig doden gekost. Maar dat is een kwestie van afwegen of de voordelen van vliegen, elektriciteit in huis en checken op kinderporno op je mobiel opwegen tegen de nadelen.
Als het mechanisme werkt voor kinderporno in de VS, dan werkt het ook voor andere afbeeldingen waarvan een (andere) regering hashes aandraagt aan Apple. Denk bijvoorbeeld aan een afbeelding van een man die voor een tank staat.
Die hashes moeten wel via Apple. Gelukkig doet Apple vooral veel voor het geld en de finaciele- en reputatieschade als gevolg van het bekend worden dat Apple iets dat expliciet bedoeld is tegen kindermisbruik ook gebruikt voor minder fraaie doelen is vele malen groter dan de schade door een verkoopverbod in een land die om zoiets vraagt. Dat gaat dus niet gebeuren.

Daarnaast is deze software bedoeld voor Amerika waar ze andere grenzen en wetten hebben dan hier Veel Amerikanen zouden onze regering en artsen levenslang willen geven omdat ze euthanasie toestaan en zien dat toestaan als eerste stap waardoor op den duur iedereen boven een bepaalde leeftijd een spuitje krijgt. Gelukkig beslissen landen zelf over dat soort zaken.
Er zijn hier een aantal problemen mee:
Het gaat hier om apparaten in eigen bezit, niet om de servers van een ander. Apple gaat hiermee politieagent spelen op apparaten die zij uitgeven. Dat kan en mag (wettelijk gezien in de VS), maar gooit wel het privacy verkoopargument van Apple overboord.
Voor zover ik de verklaring van Apple heb gelezen worden foto's gescand en van een tag voorzien op het moment dat ze naar iCloud gestuurd worden en een dienst waarvoor Apple verantwoordelijk is dus onderdeel wordt van het opslaan of verspreiden van kinderporno. Apple controleert dus niet wat er op jouw telefoon staat maar wat er naar hun iCloud wordt gestuurd.
Het is makkelijk te misbruiken door een ander. Een kwaadwillend persoon kan iemand (met end-to-end encryptie vanuit een land dat niets uitlevert) kinderporno sturen. Een politieonderzoek zal volgen. Mogelijk wordt de persoon dan als onschuldig bevonden, maar het stempel is al geplaatst. Immers wordt het slachtoffer door de politie als verdachte aangemerkt voordat die zelf de kans had om iets aan te geven, om een weerwoord te bedenken of om corrigerende maatregelen te treffen (bijvoorbeeld om de foto's te verwijderen en het verzendende account te blokkeren). In een ideale wereld is iemand onschuldig totdat het tegendeel is bewezen, maar de onderbuik bestaat en zorgt ervoor dat het geen ideale wereld is. Van dat stempel komt een slachtoffer niet meer af.
Om op je eerste opmerking terug te komen: heb je een voorbeeld waarin dit kwaadwillig opsturen 'in het verleden wel eens' is gebeurd en iemand er zwaar door gedupeerd was? Als je iemand kwaadaardig van kindermisbruik wil beschuldigen is er een veel makkelijker manier: Facebook, Twitter, WhatsApp, vooral als je er nog wat satanische praktijken en het drinken van bloed in verwerkt. Dat werkt bewezen veel en veel beter dan een makkelijk na te trekken verhaal over opgestuurde kinderporno.

Ik vind eerlijk gezegd ook dat Apple hier over de rand gaat en hoop dat de EU het hier verbiedt. Maar dat is meer gevoelsmatig en niet vanwege de argumenten die jij hier aandraagt.
Hoe kunnen afbeeldingen die licht gewijzigd zijn, een zelfde hash opleveren?
Er wordt volgens sommigen geen gebruik gemaakt van exacte hashes maar fuzzy hashes. Hierdoor worden ook foto’s die lijken op de oorspronkelijk gehashte foto’s herkend.En er is een flink risico van mismatches: 1 op 1 miljard (per foto) is een best hoge kans: er staan al snel duizenden foto’s op je telefoon of in je iCloud.

De NCMEC hash database staat niet zo heel goed bekend. Inderdaad moet je je zorgen gaan maken over je kind in bad. Zelfs sommige CD-covers zijn al problematisch (Nirvana, Scorpions). Maar er zijn ook verhalrn dat een lege bank, een lege badkamer en een kat een positieve hit oplevert.

Zo’n positieve hit is op zich niet rampzalig: de foto gaat dan naar bv NCMEC voor handmatige controle waarna eventueel de autoriteiten in het betreffende land ingelicht kunnen worden. Dus die foto van je kindje in het badje kan zomaar worden doorgestuurd naar zo’n bureau - wil je dat echt?

Waar ik me meer zorgen over maak is die hash-database: wie verzorgt die en vooral op welke gronden - de wetgeving verschilt per land. En wie controleert dit? Wie zegt ons dat dit systeem op termijn niet gebruikt gaat worden voor andere toepassingen? Denk aan andere vormen van opsporing maar ook spionage, afluisteren journalisten, afdwingen censuur. Ik kan me ook zo voorstellen dat sommige dictators zullen proberen om hashes in het systeem te krijgen om zo dissidenten in eigen land en misschien ook buitenland op te sporen waarbij een team van diezelfde dictator de matches beoordeelt.
Ja even snel een sommetje... 1 op 1 miljard triljoen suggereert een alpha van 0,0000000001. Eens? Gaan we even uit van 20000 foto's per gebruiker.

Dan is de complementaire alpha bij berekening van de kanskapitalisatie 1 - (1 - 0,0000000001)^20000 = 0,000001998001432.

Oftewel de kans per gebruiker is dan bijna 2 op 1.000.000. Nu ben ik geen statisticus dus corrigeer mij als ik het mis heb...

EDIT: update met update van miljard naar triljoen. Thanks badnews... die factor 1000 maakt wel veel verschil. Vraag blijft wat doen ze met de 2 op een miljoen fouten... want op de populatie van Apple-gebruikers is de kans groot dat een aantal gebruikers onterecht aangemerkt zullen worden.

[Reactie gewijzigd door Infor40 op 6 augustus 2021 10:56]

Er zijn wereldwijd 900 miljoen iphones in gebruik, dus zeg 1800 mensen die onterecht worden beschuldigd. Lijkt niet veel maar ik denk toch dat dit erg vervelend kan uitpakken.

En dat is aangenomen dat die door Apple genoemde 1/1biljoen daadwerkelijk klopt. Er is hen veel aan gelegen om dit getal zo gunstig mogelijk neer te zetten dus het zou me niet verbazen als het in werkelijkheid wat minder waterdicht is. Dan heb je zo duizenden en duizenden false positives.

En sowieso: Pleur op van mijn telefoon. Als ik een foto wil maken van mijn eigen kind die vrolijk in bad met een eendje aan het spelen is dan doe ik dat. Daar heeft een Amerikaans bedrijf helemaal niets mee te maken. Ik koop een Apple zodat niet alles constant wordt getracked en het niet voor externe instanties beschikbaar is. Dan wordt de kinderporno kaart weer gespeeld en zit de gemiddelde gebruiker weer met de gebakken peren...
Er zijn wereldwijd 900 miljoen iphones in gebruik, dus zeg 1800 mensen die onterecht worden beschuldigd. Lijkt niet veel maar ik denk toch dat dit erg vervelend kan uitpakken.
Ja, dat klopt. Maar voor de duizenden kinderen die worden misbruikt pakt dat ook erg vervelend uit. Ik noem het dan maar collateral damage. Het is natuurlijk aan de instanties hoe ze omgaan met de informatie. Ze moeten natuurlijk niet om 04:00 met een AT je voordeur in komen beuken. Dit soort zaken moet je heel erg voorzichtig aanpakken, want je wilt inderdaad niet iemand vals beschuldigen op een zodanige manier dat iedereen het weet.
Maar je moet ook weer niet niets doen omdat je dat risico loopt. Misbruikte kinderen hebben er hun hele leven last van. Het kan echt je hele leven verzieken; sommigen plegen zelfmoord, relaties zijn moeilijk, noem maar op. Dan vind ik een persoon die porno op zijn mobiel heeft die voor kinderporno wordt aangezien en daarvoor een uurtje op het politieburo moet doorbrengen niet zo heel erg.
Want wachten totdat de mensen zelf hun kinderporno komen aangeven bij de politie is ook geen optie.
Dat uurtje op het politiebureau kan nog wel eens verregaande gevolgen hebben voor o.a. visumaanvragen en bepaalde sollicitaties, of het nou onterecht was of niet. En wat zal je partner denken als jij naar het bureau mag op verdenking van kinderporno? Dat drukt toch een niet te vergeten stempel op je relatie. Plus je mag nog eens gaan meerwerken aan je eigen (niet-)veroordeling omdat je de betreffende foto's moet openbaren, ook al weet je niet eens welke het zijn omdat je niks fout hebt gedaan. Of, tsja, de vraag is in hoeverre je kan meewerken aan je niet-veroordeling, want het is lastig te bewijzen dat je iets niet hebt. Als de politie jou aanhoudt vanwege een claim "hij heeft foto's met kinderporno" en jij zegt "kijk deze paar foto's zijn het niet" gaat de politie gewoon verder zoeken totdat ze alles gezien hebben. Dat is dus niet alleen je telefoon (wie weet heb jij ze snel verwijderd) maar ook alle andere apparaten in jouw huis en ook die van je huisgenoten/gezin die er nog minder mee te maken hebben. Wellicht zijn ze niet eens van jou, maar al dan niet opzettelijk naar jou gestuurd en automatisch gedownload door een app. En daarna mag je ook nog bij Apple de boel weer unlocked zien te krijgen, met geen enkele garantie dat je niet binnen een paar uur weer dezelfde beschuldiging aan je broek hebt.

Los van emotie gezien is jouw post een perfect voorbeeld van waarom "think of the children" zo goed werkt. Het is moeilijk om emotieloze, logische tegenargumenten te noemen zonder daarbij de indruk te wekken het bestaande probleem te bagatelliseren of dat ik iets te verbergen zou hebben. Natuurlijk is er een probleem, de vraag is alleen of het probleem groot genoeg is om in verhouding te staan met de hier voorgestelde maatregelen en daaruit mogelijk voortvloeiende gevolgen voor onschuldigen. Plus nog maar de vraag of je hier een noemenswaardig aantal mensen mee gaat pakken, die zullen gewoon wegblijven van Apple en andere software gebruiken, vrij van dit soort surveillance. Die software is voldoende, vrij en gratis beschikbaar.
Dat uurtje op het politiebureau kan nog wel eens verregaande gevolgen hebben voor o.a. visumaanvragen en bepaalde sollicitaties, of het nou onterecht was of niet.
Ik denk niet dat zoiets daar invloed op heeft. Zolang je niet gearresteerd wordt, is er geen permanent record van je verblijf op het buro. Je hebt immers op dat moment nog niets verkeerd gedaan.
En als je echt helemaal niets gedaan hebt in de richting van kinderporno, kun je met het volste vertrouwen aan je partner uitleggen dat het system een false positive had. Je wordt er immers ook niet voor vervolgd.

Ik snap dat think of the children misschien soms wel te gemakkelijk als excuus wordt gebruikt, maar het is inderdaad een kwestie van belangen afwegen. En, wat ik steeds blijf aanhalen als het gaat om digitale surveillance door de politie/overheid: wat verwachten wij van justitie. Als wij verwachten dat zij hun werk moeten doen met één hand op de rug omdat ze niemands privacy mogen schenden en ook niet per ongeluk denken dat je iets fouts hebt, moeten wij die verwachting bijstellen. De politie mag ook niet zomaar je huis binnen komen om te zoeken naar kinderporno, dat lijkt mij duidelijk. Maar hoe willen we dan dat de poltie het handhaaft? Zoals ik al zei: wachten tot ze het zelf komen aangeven op het buro is geen optie.

Je moet dus eigenlijk maar wachten op een lucky catch. En de burger moet de verwachtingen ten aanzien van de politie en de handhaving van deze vorm van misbruik bijstellen. Want als 'think of the children' geen geldig argument meer is, moeten die duizenden kindekens wiens leven hierdoor verruïneerd wordt maar lijden. Want hún lijden is minder erg dan het potentiëel lijden dat een handvol ten onrechte verachte mensen. Zo kun je dat prima uitleggen denk ik.
Ik denk niet dat zoiets daar invloed op heeft. Zolang je niet gearresteerd wordt, is er geen permanent record van je verblijf op het buro. Je hebt immers op dat moment nog niets verkeerd gedaan.
Heb je ooit visumaanvragen gedaan voor "moeilijke landen"? Ook al is er waarschijnlijk/hopelijk* geen permanent record, een aantal landen heeft vragen als "ben je ooit verdachte geweest voor een misdrijf waar minimaal X jaar op staat" op een visumaanvraag, en daar moet je op dat moment gewoon ja op antwoorden met dus de kans dat je visum wordt afgewezen, zeker als je daarna aan moet geven dat het voor kinderporno was. Daar mag je dan ook nog documentatie van je onschuld bij gaan verstrekken die officieel vertaald is (denk aan makkelijk 100 euro per A4tje). Als je daar over liegt en ze komen er dmv eoa screening toch achter, wordt je visum sowieso afgewezen en dan kom je bij nog meer andere landen gewoon in de shit op de vraag "is er ooit een visumaanvraag van je afgewezen vanwege liegen" ofzo. En dan moet je ook nog maar hopen dat niemand een fout heeft gemaakt bij het "onterecht markeren" op je dossier. Dus allemaal directe en indirecte invloed.
En als je echt helemaal niets gedaan hebt in de richting van kinderporno, kun je met het volste vertrouwen aan je partner uitleggen dat het system een false positive had. Je wordt er immers ook niet voor vervolgd.
En toch zien we zo ongelofelijk vaak "waar rook is, is vuur". Als je later ooit een verkeerd grapje maakt, of een verspreking, of verkeerd kijkt naar een kind, zit toch die verdenking direct weer vers in de herinnering. En veel succes in de voogdijzaak bij een mogelijke scheiding. Dat wordt dan gewoon weer aangedragen hoor. En dan is het verweer niet meer zomaar "ja maar ik ben vrijgesproken", nee, dan is het van de partner "ik heb het gezien maar heb voor onze relatie gelogen tegen de politie, en dit is de reden dat we nu scheiden".

Surveillance door de overheid ging vroeger ook niet zo ver dat iemand permanent in je huis zit mee te kijken met of wat je doet allemaal wel okee is en of je niet toevallig achter gesloten deuren vindt dat "hij moet oprutte" of "Grapperhaus is een engerd". Zeker niet een privaat bedrijf zonder enige opsporingsbevoegdheden. Maar zoals je zelf zegt, de politie mag inderdaad niet zomaar je huis binnen komen om te zoeken naar kinderporno, waarom mag een groot bedrijf dan wel zomaar je telefoon binnen komen om te zoeken naar kinderporno? En wat als andere grote bedrijven dat voorbeeld gaan volgen, zodat je er bijna niet aan kan ontkomen?

Ja, je moet misschien wachten op een lucky catch. Of op de vele andere manieren waardoor opsporingswerk gedaan werd en gedaan wordt. Overigens zien we met het hele sleepnet-gebeuren alsnog weinig resultaat, behalve iets te vaak (vind ik) berichten zoals "verdachten waren bekenden van politie" en "alle informatie was in de vorm van onversleutelde sms al beschikbaar ruim voordat de aanslag gepleegd werd". We leven hier nou eenmaal in een staat waarin is gekozen voor het principe van onschuldig tot het tegendeel bewezen wordt, veel mensen willen dat graag zo houden maar een klein deel probeert daar aan te tornen met surveillance. Dan zou ik persoonlijk het voorstel doen om in een staat te gaan wonen waar zulke surveillance alomtegenwoordig is, als je dat liever hebt.

Als "think of the children" wel leidend is voor onze wetgeving doet dat helemaal niks aan die kinderlevens die nog geruïneerd gaan worden. Het niet implementeren van dit soort surveillance of verregaandere wetgeving gaat niet voor extra geruïneerde kinderlevens zorgen ten opzichte van de situatie van nu. Dat gebeurde al en dat blijft gewoon gebeuren. Net zo min als deze Apple-surveillance impact gaat hebben op daders, hebben verregaandere wetten dat ook niet of nauwelijks. Het zorgt er alleen voor dat de daders hun sporen nog beter gaan verbergen, voor zover ze dat niet al deden. Door bijvoorbeeld geen Apple-producten te gebruiken. Het probleem wordt niet bij de bron aangepakt. En om dan maar nog meer mensen te laten lijden onder gevolgen ervan, is misschien niet de beste aanpak. Je zou het willen minimaliseren, lijkt me. Er hoort in ieder geval een balans te zijn, en meer dan een miljard mensen screenen om er misschien een paar duizend te vinden is dat wat mij betreft niet. Dat duikt al gauw onder de duizendsten van een procent.

[Reactie gewijzigd door DataGhost op 6 augustus 2021 14:45]

Allemaal prima. Maar dan gaat mijn verhaal over onze verwachtingen bijstellen vwb het aanpakken van misbruik van kindekens alsnog op. Als we dit soort dingen niet willen, moeten we ook geen wonderen verwachten van de overheid. Het is het één of het ander.

Ik probeer in dit soort discussies altijd een beetje de advocaat van de duivel te spelen. Er zijn heel veel valide argumenten voor en tegen te bedenken. Je moet daarin dan een afweging maken over wat je wel en niet wil. Maar dan wél van de beslissing de consequenties accepteren. Dat is dan ook wel zo eerlijk. Ik zeg niet dat het een of het ander moet, maar ik wil wél dat mensen nadenken. Want voorlopig roept het Telegraaf volk net zo makkelijk dat de politie toch niets doet.
Allemaal prima. Maar dan gaat mijn verhaal over onze verwachtingen bijstellen vwb het aanpakken van misbruik van kindekens alsnog op. Als we dit soort dingen niet willen, moeten we ook geen wonderen verwachten van de overheid. Het is het één of het ander.
Nee, het is niet zwart-wit.

Een aantijging van kinderporno/kindermisbruik is bijzonder zwaar met ingrijpende consequenties en zal met de benodigde voorzichtigheid moeten worden gedaan.

De vraag is of en hoe een oncontroleerbare derde commerciële partij hier een rol in mag spelen.

Daarnaast, als ik een kopie van the Anarchist Cookbook download, word ik dan straks in het hokje terrorist geduwd?
Ik bedoel ook niet persé dat het dit idee is of helemaal niets, maar over het algemeen zijn er eigenlijk geen opties die niet iets met privacy schenden of valse beschuldigingen opleveren. Klikken bij de politie levert ook wel eens een onterechte beschuldiging op. Dus je moet ergens voor kiezen. Ik weet ook niet wat een goede manier is, maar ik weet wél dat je iets moet doen. En als we bij elke opsporingsmethode gaan piepen over privacy en Orwell citeren, kunnen we de politie net zo goed opdoeken. Dat is uiteraard gechargeerd, maar het is anders verdomd moeilijk om iets zinvols te doen tegen deze vorm van misbruik. Ze vindt voornamelijk (eigenlijk exclusief tegenwoordig) digitaal plaats dus als je daar gaat grutten naar die figuren, kom je automatisch in het grijze gebied terecht.
Ik snap ook wel dat je niet zomaar iedereen mag bespioneren en ook niet random mensen moet oppakken, maar verzin maar eens iets. Het valt niet mee denk ik. En ik denk dat Apple met dit verhaal probeert om draconische maatregelen van de overheid voor te blijven. Dat is ook nog een mogelijkheid.

Dus vandaar dat ik zeg: we moeten een keuze maken. Accepteren dat dit soort misbruik plaatsvindt, of een bepaalde mate van inbreuk op de privacy toestaan. In feite geef je die al min of meer op als je internet op gaat, want er zijn op talloze plaatsen logboeken en sporen van jouw digitale activiteit. En je meot wel heel erg goed je best doen om annoniem te zijn. Dat is vrijwel onmogelijk. Ja, er zijn dingen als VPN's en TOR network, maar als jij op een of andere manier verdacht bent van iets als terrorisme, betekenen die dingen ineens niets meer en kunnen ze alsnog achterhalen waar je bent geweest en wat je hebt gedaan.
Ik denk niet dat zoiets daar invloed op heeft. Zolang je niet gearresteerd wordt, is er geen permanent record van je verblijf op het buro. Je hebt immers op dat moment nog niets verkeerd gedaan.
Ofwel ben je op het buro omdat je gearresteerd bent. Dat kan even later weer rechtgezet worden, maar permanent record.
Ofwel wordt je uitgenodigd naar het buri, je wordt sowieso verhoord (ze hebben je immers uitgenodigd), dus weer permanent record. Die gegevens blijven vele jaren bewaard.
Het onschuldig tot het tegendeel is bewezen is een ideologie, niet altijd de praktijk. De belastingtoeslagen affaire is een voorbeeld van hoe het niet altijd zo gaat, iedereen die via EU-recht (op basis van het Europees verdrag voor de rechten van de mens) probeert zijn niet-EU partner/familie-lid naar Nederland te halen wordt automatisch aangemerkt als staatsgevaar en mag dan zijn onschuld bewijzen bij het IND (en vaak laat de IND het tot een rechtszaak komen, want onze overheid heeft een ontmoedigingsbeleid betreffende het mensenrecht op een gezinsleven). Dan praat ik nog over overheidszaken, als openbaar komt dat er een verdenking/onderzoek is betreffende kinderporno dan kan je als publiek figuur doei zeggen tegen je carrière of je privésfeer wordt verpest. Dit gebeurd vaak als er verdenking/onderzoek/claim is van sexueel misbruik zonder dat kinderen er bij betrokken zijn, als het om kinderen gaat dan lopen emoties nog veel verder op.

Je moet dus heel voorzichtig zijn voor je mensen überhaupt gaat verdenken en/of onderzoeken. Dit kan hun privéleven aantasten en dan schend je al snel mensenrechten.
Er word niet onterecht beschuldigt, de foto word daarna handmatig gecontroleerd.
Om een of andere reden heb ik daar geen vertrouwen in... reviews: Account geblokkeerd. Wat nu?
Ik koop een Apple zodat niet alles constant wordt getracked en het niet voor externe instanties beschikbaar is.
Dan zit je bij Apple al niet goed. iCloud is bijvoorbeeld niet E2E encrypted onder druk van de FBI.
Hm goed punt... Totaal off-topic hoor, maar heb je tips om contacten, foto's en dergelijke wél privacy-bestendig maar toch gebruisvriendelijk op te slaan? Is zelf hosten op een NAS met bijbehorende app dan het beste?

Apple is altijd goed in het slecht laten werken van alternatieve software die ingebakken iOS functionaliteit omzeilt...
Ik gebruik zelf geen iOS. Maar je kan wel syncen met andere diensten zoals CardDev volgens mij. Ik denk dat je met iets als NextCloud/OwnCloud een eind komt.

Zelf doe ik mijn foto's met Cryptomator op OneDrive. Cryptomator regelt de versleuteling. De meeste andere documenten op mijn OneDrive zijn ook zo versleuteld. De contacten en emails staan wel onge-encrypt op mijn O365 accounts maar daar is ook niet zo heel veel geheims aan. En de emails komen toch in plain text langs hun servers, dat is het principe van email nou eenmaal.
Het is tegenwoordig toch wel erg gesteld met begrijpend lezen. Waarom zeg je "Als ik een foto wil maken van mijn eigen kind die vrolijk in bad met een eendje aan het spelen is dan doe ik dat"? Dat heeft in de verste verte niets met wat er in dit artikel besproken wordt te maken.

De basis van dit systeem is dus een database met hashes van reeds bekende kinderporno afbeeldingen, die beheerd wordt door een externe organisatie. Apple gebruikt deze database om op hun manier hashes te vergelijken op iPhones met deze database.

Wat jou foto van je kind in je bad met heel dit systeem te maken heeft dat ontgaat me.

[Reactie gewijzigd door Shaidar op 6 augustus 2021 13:39]

Dat zijn dan dus per definitie gedownloade foto's die dan ook nog upgeload moeten zijn naar
Icloud ... Denk dat het wel mee gaat vallen zolang ze het sleepnet niet stiekem aanpassen
Text is aangepast, het is een factor 1000 meer.
Dus 2 op 1.000.000
De kans maakt toch niet uit, het gaat er om dat er misbruik van gemaakt kan worden.
Op Internet zwerven genoeg afbeeldingen rond die geen KP zijn, maar wel een positieve hit opleveren.

Wat nou als een grapjes, bedenkt om die afbeeldingen rond te sturen of op een website te zetten waar jij langs komt. Dan staat de afbeelding op je telefoon.
Als 1 op de 50 miljoen iCloud gebruikers een foto heeft die door een derde partij gecontroleerd moet worden is er niets aan het handje. Zolang dat maar goed gebeurt, controlerende partij krijgt geen persoonsgegevens, na controle en blijkt het een false positive te zijn, alle referenties worden direct verwijderd. Als die false positives echter worden bijgehouden met persoonsgegevens en zoiets lekt uit, heb je weer een heel andere poppenkast...

Hier is echter een hoop tijd voor beschikbaar om het goed te doen en Apple heeft er ook het geld voor om het goed te doen. Dus kunnen ze kiezen om het goed te doen.
Leuk, die controles in gebieden waar de standaard niet is zoals hier.

Die foto's van je eigen kindje in bad kun je zelf wel beschouwen als normaal, zonder enige hint naar verkeerd gebruik, maar daar denken ze elders misschien anders over.

In de VS (bijvoorbeeld) kunnen ze erg extreem zijn op dit soort dingen en die drie grappige bad-foto's kunnen samen ineens worden gezien als kinderporno. Je staat daar op een lijstje, maar binnen NL wordt er niets mee dat lijstje gedaan: dit kan prima zo, zolang je het maar niet verspreid in de verkeerde kringen. Ga je een paar jaar later nietsvermoedend op vakantie naar de overwegend veilige VS, wordt je aan het vliegveld even naar achteren geroepen voor een extra controle. Want jouw naam staat op een lijstje. Niet cool.

Oh ja: dan ook nog: in een aantal landen niet ver hier vandaan, is de minimum leeftijd voor porno 16 jaar. Hier en in de VS 18 jaar. Kom je uit een dergelijk land waar 16 de norm is, ga je naar de VS, ben je plotseling in het bezit van kinderporno. Ook niet cool.

[Reactie gewijzigd door Waterbeesje op 6 augustus 2021 12:04]

De vraag is of de kans op een false positive gaat over 'per foto' of 'per device'. Per foto, dan klopt je berekening wellicht, maar dan moet je ook nog rekening houden met de threshold. Bij één matchende foto word je er namelijk nog niet uitgepikt, dat gebeurt pas bij x foto's. Hoe hoog is x? Dat is de vraag, maar aangezien er een x is, zal dat niet 1 zijn. Dus dan moeten er al minstens 2 en misschien wel tien matches zijn. Als je dan je voorbeeld doorrekent met een false positive van 1 op de biljoen per foto, dan is de kans dat een persoon er valselijk wordt uitgepikt wel extreem klein, zelfs al heb je 100.000 foto's op je device.
Goed punt. Threshold zal de kans aanzienlijk verkleinen. Dan zou het netjes zijn dat ze theoretisch de threshold zo definiëren dat de kans doorgerekend per foto en per gebruiker over de hele populatie klein is.

Het zou mooi zijn als we bij zulke precaire onderwerpen ook minima definiëren. En dan zouden tech bedrijven dus niet de kans per foto moeten rapporteren maar de kans met correctie op de populatie van gebruikers. Dan weet je waar je het over hebt.
Zo’n positieve hit is op zich niet rampzalig: de foto gaat dan naar bv NCMEC voor handmatige controle waarna eventueel de autoriteiten in het betreffende land ingelicht kunnen worden. Dus die foto van je kindje in het badje kan zomaar worden doorgestuurd naar zo’n bureau - wil je dat echt?
Nee absoluut niet. Ik kan me niet anders voorstellen dan dat de enige mensen die zich vrijwillig aanmelden om de hele dag foto's van mogelijke kinderporno te controleren en te beoordelen hier zelf geen zuivere reden voor hebben.

Maar je kan er lastig omheen. Ook de kiekjes in bad wil je toch gewoon in je back-up hebben, en ze doen het inmiddels allemaal, dus dan moet je er maar vanuit gaan dat het allemaal netjes volgens de regels gebeurt..
Ik kan me niet anders voorstellen dan dat de enige mensen die zich vrijwillig aanmelden om de hele dag foto's van mogelijke kinderporno te controleren en te beoordelen hier zelf geen zuivere reden voor hebben.
Die zullen er ook vast tussen zitten, maar ik verwacht dat die er ook vrij snel van te voren uit worden gevist. Er zijn zat mensen die dit doen omdat ze dit de wereld uit willen helpen. Vaak zijn ze er zelf direct of indirect mee in aanraking geweest als slachtoffer of familie van een slachtoffer.

Ik zou er niet aan moeten denken om dat allemaal te moeten zien. Maar ik zou bv. zelf ook niet in de zorg willen werken, alle respect voor de mensen die dat wel willen/kunnen.
Ook de kiekjes in bad wil je toch gewoon in je back-up hebben, en ze doen het inmiddels allemaal, dus dan moet je er maar vanuit gaan dat het allemaal netjes volgens de regels gebeurt..
Zolang die kiekjes in je bad niet via een kinderpornonetwerk worden verspreid (en er dus een hash van bestaat in een of andere database) hoef je je geen zorgen te maken.

En, advocaat van de duivel, zolang je OC KP hebt die je niet verspreid zal er ook geen hash van bestaan dus daar kan je vrolijk mee verder. Niet dat ik het goedkeur, maar het gaat 'm echt om foto's waarvan al een hash is - dus iets dat vanaf het internet komt, of op het internet verspreid wordt.
Je pakt met dit soort maatregelen hooguit de 'sukkels' niet de makers/verspreiders van kinderporno.

Zoals hierboven ook aangegeven dan is het nog maar de vraag of het kinderporno is. Dat verschilt per land en per cultuur nogal. Een foto van met je kinderen in bad, of een foto van een bad met kinderen waar seksuele handelingen mee worden verrricht. Dat laatste is vrijwel overal duidelijk kinderporno, dat eerste is helemaal afhankelijk van de/een wetgeving .

Dat onschuldige foto's regelmatig op kinderpornonetwerken verschijnen is een feit. Evenals onschuldige foto's en videos van (naakte) mannen en vrouwen op tal van prostitutie en sex sites. Deze foto's dan ook maar controleren?

Dus waarom alleen m.b.t. kinderen, waarom controleren we ook niet alle foto's met wapens, of met bepaalde reglieuze gewaden of waarom analyseren we niet alle foto's van iedereen? Wie weet levert het wat op m.b.t. andere misdaden of terrorisme. U heeft ten slotte toch niets te verbergen.

Apple, facebook en meer van dit soort 'VS digitale overheden' zijn tegenwoordig het sociale en morele geweten. En het meest enge is ze krijgen daar om de bekende redenen alle ruimte voor van uw gekozen volksvertegenwoordigers.
Maar stel nu dat die kiekjes wel op een kinderpornonetwerk terecht zijn gekomen?
Zijn ze dan ook kinderporno?
En ben ik dan strafbaar?
Is een baby van 5 maanden naakt in bad kinderporno? Bij kinderporno denk ik eerder aan erotische foto's van kinderen van bv 10 jaar ofzo.

Wanneer een kind een bepaalde leeftijd heeft lijkt het me niet langer nodig of wenselijk om overhaubt naaktfoto's te maken (ook niet privé)

[Reactie gewijzigd door 12345j op 6 augustus 2021 11:27]

Minder porno is helaas meer dan alleen kinderen van 10. Dat kunnen ook baby’s van een paar maanden zijn.

Het is heel ziek, maar het bestaat wel. Deze mensen kicken op hele andere dingen dan “normale” mensen helaas.

Wapen hier tegen door platformen om verspreiding tegen te gaan juich ik wel toe. Ik vraag me alleen af wat dit ons gaat kosten. Ik heb een baby van 7 maanden daar staan nu ook foto’s van in bad gaan op iCloud.

Daarnaast onze oudste zoon gaat in bad met onze dochter. Ook daar hebben we foto’s van. Er zijn tal van voorbeelden waar in de privé sfeer kinderen naakt op de foto gezet kunnen worden onschuldig.

[Reactie gewijzigd door To_Tall op 6 augustus 2021 11:46]

Ik kan me niet anders voorstellen dan dat de enige mensen die zich vrijwillig aanmelden om de hele dag foto's van mogelijke kinderporno te controleren en te beoordelen hier zelf geen zuivere reden voor hebben.
Da's een beste aanname zeg... Zullen ze blij mee zijn, die mensen die hun psyche op het spel zetten om kinderen te redden.
Aan de andere kant... ik heb jaren geleden bij Team High Tech Crime mogen kijken en ze hadden ook een aantal banen in de aanbieding. Een daarvan was inderdaad grofweg "kinderporno kijken en in PV's vastleggen wat er te zien is". De sollicitatieprocedure daarvoor zou minimaal acht maanden in beslag nemen, met screenings van jouzelf, familie en vrienden door de AIVD, meerdere psychologische tests e.d., dus niet iets waar je zomaar in komt zonder zuivere redenen. Ook iets waar je mentaal behoorlijk sterk voor moet zijn. Ik heb bedankt. Maar de zwaarte van de procedure geeft wel aan dat ze verwachten dat er een bovengemiddeld hoog aantal mensen met slechte bedoelingen op zal solliciteren, mede omdat het inderdaad voor de meeste "normale mensen" geen heel aantrekkelijk beroep is als het niet vanuit een diep ideologisch standpunt komt. Maar om te zeggen dat ze allemaal niet zuiver zijn gaat wel ver.
Het artikel geeft het al aan die database is het grootste probleem. Je kan er straks iedere willekeurige foto in stoppen. Dat kan voor bepaalde regimes maar ook onze "democratische"regimes heel handig zijn om zaken op te sporen.
Je komt een afbeelding tegen op een telefoon van een verdachte en hup toevoegen aan de database om te kijken wie die afbeelding nog meer heeft.

dit is dus een deur die nu op een kier staat en waar eindigt deze ?
En er is een flink risico van mismatches: 1 op 1 miljard (per foto)
1 op de biljoen blijkt het te zijn, dus als heel NL 100.000 foto's per persoon zou hebben, kom je nog niet op 2 valse positieven.

Maar goed even met reële cijfers, met een marktaandeel van 40%, 15 miljoen mensen van ouder dan 10 en 10.000 foto's op: dat zijn 60 miljard foto's.

Dus zelfs zonder de genoemde threshold en de door jou genoemde 1:1 miljard zou je het in NL dan 60 valse positieven hebben, dat noem ik niet veel.

Anyway, wat mij niet duidelijk is, scannen ze nou de foto's op je device, of pas zodra ze de cloud in gaan (ben geen Apple gebruiker, geen idee hoe dat werkt)
>>Dus die foto van je kindje in het badje kan zomaar worden doorgestuurd naar zo’n bureau - wil je dat echt?
Geen gebruik maken van iCloud/Photostream. (schiet toch al niet op als je maar 5GB hebt)
Of gebruik een ' ouderwetse' DSLR camera, die vaak ook nog mooiere foto's maakt.

Als alternatief gebruik ik mijn Synology NAS icm DSPhoto app: af en toe de app opstarten en je foto's worden automatisch geüpload.

Over oneigenlijke toepassingen maak ik me ook zorgen. Wordt je als potentiële ECO terrorist aangezien als je een foto van een windmolen plaatst. Big brother komt zo wel steeds dichterbij.
Het is toch van de zotte. Dat je een iPhone met iCloud storage als backup koopt, de privacy voorwaarden goed doorneemt en daar akkoord mee gaat. Foto’s en video’s zijn enkel en alleen voor jou zichtbaar. Een maand later zijn er ineens wél andere mensen die jij totaal niet kent jouw foto’s van jouw kinderen in jouw bad kan bekijken. En je kunt hier helemaal niets tegenin brengen. Enige wat je kunt doen is migreren naar een ander platform.

Je zult maar een huis met prive tuin kopen, waar de gemeente van de één op de andere dag ineens besluit dat er een controleur een sleutel van jouw huis krijgt om door jouw tuin te lopen, omdat 1 op de 1.000.000 mensen een giftig middeltje gebruikt om van onkruid af te komen.

Natuurlijk ben ik tegen kindermisbruik, maar hier zitten teveel haken en ogen aan.

[Reactie gewijzigd door Sluuut op 6 augustus 2021 12:33]

En dan nog een extra: NCMEC is een stichting in de Verenigde Staten. Dat land heeft NIETS, maar dan ook echt NIETS met mijn foto's van onze kinderen te maken.

Het is duidelijk. Privacy bij Apple komt ook in het geding, waar ik voorheen Apple altijd prees om hun statements op dat vlak.

Laat ik voorop stellen: ik ben zeker tegen kinderporno of de uitbuiting van kinderen, 100%, maar ik ben het met dit systeem dan weer totaal oneens. Het resulteert erin dat ik maar mijn foto's weghaal van iCloud en ze elders ga opslaan... ik ga maar weer een NAS aanschaffen denk ik.
Zorgelijk verhaal, ik zie inderdaad niet hoe apple deze techniek kan ontwikkelen zonder het risico voor andere toepassingen omdat een overheid dat wil/eist.

Wel is het verhaal iets beter geregeld dan jij nu schetst.
Een foto is pas te decrypten nadat een account een threshold (niet gespecificeerd) overschrijd, een enkele hit betekend dus niet dat iemand je foto gaat bekijken. Nou heb ik wat moeite met het feit dat die threshold niet verder lijkt toegelicht maar het lijkt de manier waarop foto's van je kinderen in bad dus niet meteen door een bureau beoordeeld worden. De uitleg hiervan door Apple is wel verdomt slecht.
Using "threshold secret sharing," Apple's "system ensures that the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content," the document said.
bron: https://arstechnica.com/t...hild-sexual-abuse-images/
Het idee dat je al zoek naar een gaatje in de wet geding is al een gevaarlijk idee. Blijf uit andermans PRIVE leven!!
Door een hash niet op de de klassieke manier te genereren maar meer op basis van wat je op de foto ziet. Dit zal natuurlijk in beperkte mate werken.
Doordat ze niet een hash maken van de data, maar een hash maken op basis van vormen in de afbeelding.
Door een foto in stukken op te delen en dan die stukken te analyseren en een hash te creeren op basis van vormen en kleuren etc, kunnen ze ook als je bijvoorbeeld de foto cropt, resized, of draait nog redelijk betrouwbaar achterhalen om welke foto het gaat.
Als je in depth wil weten hoe het werkt raad ik aan om "perceptual hashing" te googlen, er zijn best veel bronnen die er heel diep op in gaan.
Hoe goed kan het dan onderscheid maken?
Foto's van baby's eerste badje zullen vaak ongeveer dezelfde vormen bevatten.
Muah, het kan wel aardig precies, maar het gaat ongetwijfeld ook een zooi false positives opleveren gezien de hoeveelheden die waarschijnlijk door het icloud ecosysteem heengaan.
Zoals ik het een keer ergens gelezen heb wordt er een raster van hashes gemaakt op basis van zichtbare componenten. Een gewone afbeelding kan je dus opdelen in een raster van hashes naar de ratio van de afbeelding. Hiermee kan je dus berekeningen doen; je kan dus een match vinden als een afbeelding geschaald is maar ook als een afbeelding gedraaid is. Daarna kan je simpele of omkeerbare wijzigingen ook makkelijker detecteren; een foto-negatief van een afbeelding kan je ook als hash opslaan en je kans zelfs berekeningen doen om simpele manipulatie van een afbeelding te herkennen (lijstje er om, watermerk, lokale blur) en alsnog een match te maken.

Maar de basis is een raster van hashes in plaats van een enkele hash over de gehele afbeelding.
Het is niet een klassieke hash, hier staat meer uitleg: https://www.microsoft.com/en-us/photodna, ik weet niet of ze dat gebruiken maar het zo zoiets zijn.
Sommige vergeten dat Microsoft, Facebook en Google dit al voor jaren doen.
https://protectingchildren.google/intl/en/

Apple komt hier best laat mee.
Verschil is, volgens mij, wel dat je op Facebook niet de gehele content van je telefoon dropt (althans... ik ga ervanuit dat mensen geen foto's van hun kinderen in bad delen op Facebook).

Mogelijk zien we nu alleen maar de impact op privacy, maar elk gered kind is natuurlijk uiteindelijk één.
Uiteraard is elk gered kind er één. Maar, het feit dat een Apple- of NCMEC medewerker, bij een vals-positieve melding een foto zouden kunnen decrypten en bekijken, waar mijn kind in bad zit of een zwembad zonder kleding, vind ik dat absoluut geen prettig idee. Hoe klein de kans ook is, maar ze zullen mij niet vertellen dat ze een foto van ons hebben "bekeken". En wat doen ze daarna met die foto?...

[Reactie gewijzigd door Godjira op 6 augustus 2021 11:24]

Inderdaad. Voor mensen in die rol die toevallig ook pedofiel blijken te zijn of contact hebben met een pedofiele club is dit een bron van waardevolle "informatie" (lees: beeldmateriaal).

--edit--
nu ga ik er vanuit dat de mensen voor deze rol gescreend worden, maar je weet het nooit zeker.

[Reactie gewijzigd door PdeBie op 6 augustus 2021 11:30]

Het zou netter zijn, als ze dit alleen met iCloud foto's doen die met anderen gedeeld worden. Ze zeggen immers dat het is om de verspreiding van kinderporno tegen te gaan. Veel van wat op iCloud staat zijn foto's die niet met anderen gedeeld worden, en iCloud dient slechts als backup of archief omdat men niet genoeg storage op diens iPhone heeft.

Is het trouwens zo, dat iCloud foto's die niet publiekelijk, maar met selecte iCloud gebruikers worden gedeeld alleen maar geencrypteerd worden opgeslagen, en die sleutels enkel met die selecte gebruikers worden gedeeld? In dat geval zou iCloud inderdaad wel eens een populair medium kunnen zijn voor het delen van kinderporno.
Zo nee, dan zullen de pedo's die zich hier mee bezighouden toch nooit zo stom zijn om het te gebruiken?
En we hebben ook al gezien hoe goed dat gaat: reviews: Account geblokkeerd. Wat nu?

Belangrijk verschil hierbij is wel dat zover ik weet Microsoft, Facebook en Google dit op hun online diensten doen. Dat kan ik goed begrijpen, als je iets upload naar hun dienst (ook al is het dan niet perse openbaar voor anderen) heb je te houden aan hun voorwaarden waaronder de eisen voor foto's/video's. Wat Apple hier echter gaat doen is foto's op het apparaat van de gebruiker controleren, die dus niet naar een bepaalde online dienst geüpload zijn (en waarop dus niet de voorwaarden van een dienst van toepassing zijn). Ook de foto's die je bewust privé houdt kunnen nu dus ter controle van je apparaat gehaald worden. Zonder dat je het door hebt (als het een false positive zou zijn) kan het dus zijn dat iemand jou of je kind naakt heeft gezien vanwege een foto die ENKEL op jouw privé toestel staat.

Begrijp me overigens niet verkeerd. Ik vindt (ik hoop net als iedereen) dat kindermisbruik aangepakt moet worden, maar dit lijkt me niet de juiste manier. Dat Apple dit toe zou passen op bestanden die geüpload zijn naar iCloud lijkt me begrijpelijk (als ze dat niet al doen), maar voor je privé toestel vindt ik dit op zijn minst zeer bedenkelijk.
Apple doet dit alleen met foto's die naar iCloud zijn geupload. Dus vergelijkbaar.
Nee, ze zijn ook voornemens om content op je device te scannen.
Op zich is het blokkeren van accounts niet eens het probleem. Je account krijgt een rotschop van een automatisch systeem, mwoah. Mailtje met toelichting en weer gaan met die banaan, toch?

Dat er totaal geen mogelijkheid is om in contact te komen met de desbetreffende bedrijven is het absurde. Er wordt zelfs niet eens kenbaar gemaakt waarom je account een automatisch nekschot krijgt. Daar zit het nare in deze verhalen; niet dat je account een blokkade krijgt, maar dat je niet te horen krijgt waarom EN dat je geen response krijgt op verzoeken tot deblokkering.
Opvallend dat alle foto's gescand wordt, ook als er nog geen verdenking is.

Daarnaast zorgt deze techniek er ook voor dat Apple alle foto's van alle klanten onderling kan vergelijken en matchen. En dus de relaties tussen alle klanten wereldwijd in kaart kan brengen.
Nee dat gebeurd on-device apple heeft geen centrale onversleutelde kopie van al je foto's om te vergelijken met andere apple users.

Van alle zorgen die dit verhaal oproept is dit er geen.
Ze hebben hier toch ook geen onversleutelde versie van nodig? Als ze de hash vergelijken met de hashes van foto's van andere gebruikers kan het toch ook?
Ik begreep dat de 'NeuralHash' met de foto samen naar iCloud gaat en dat die hash in het http-header wél centraal wordt verwerkt (bijvoorbeeld door Palo Alto).
Het kan zijn dat die http-headers als meta-data en niet als persoonsgegeven wordt geïnterpreteerd en aldus zo verwerkt wordt.

Uiteraard is de NeuralHash een persoonsgegeven aangezien het een unieke (kans is 1 op 1 biljard op duplicaten) samenvatting is van een foto, die ook modificaties van die foto herleidt tot die ene foto.

Ik denk dat het realistisch is aan te nemen dat Apple gebruikers in het algemeen al hun foto's automatisch naar iCloud laten gaan. En dus dat Apple van al die foto's de NeuralHash centraal verwerkt.

[Reactie gewijzigd door djwice op 6 augustus 2021 12:24]

Daar kan je dit aan toevoegen:
https://twitter.com/sjmurdoch/status/1423397219491852291

Het uitbreiden is zo gebeurd.
Het Nederlandse Transip doet het ook, bij de instellingen van je hostingpakket is er een optie om de inhoud van je site geautomatiseerd te scannen op dit soort inhoud.

Ik heb geen idee of ze Stack storage ook scannen maar dat zou me niet verbazen.

[Reactie gewijzigd door oef! op 6 augustus 2021 11:02]

Ik vergeet dat niet, ik gebruik zelf dan ook het uitstekende Cryptomator bovenop mijn OneDrive.

Deze heeft tegenwoordig ook een auto-foto-upload functie zoals de OneDrive client zelf (en is een stuk stabieler dan OneDrive :') ).

Ik vind dat er veel tegen KP gedaan moet worden hoor. Maar daar hebben we gericht onderzoek voor. Bij iedereen over de schouder meekijken in het foto album voor het geval ze er iets van hebben vind ik veel te ver gaan. Geautomatiseerd of niet.

[Reactie gewijzigd door GekkePrutser op 6 augustus 2021 12:13]

klopt jaren geleden had ik een foto op fb gezet voor mijn dochters en van mijn dochters toen ze 1 en 3 jaar waren in bad fb vond het een pornografische foto. ik vind dat er iets tegen pornogravie gedaan moet worden maar ze moeten niet gaan overdrijven zoals in mijn geval
Waarom je dat uberhaupt al op facebook zou posten is mij dan weer een raadsel :+
ik vind dat er iets tegen pornogravie gedaan moet worden maar ze moeten niet gaan overdrijven zoals in mijn geval
Kijk, dit is dus die glijdende schaal. Nu moet er ook alweer iets tegen pornografie gedaan worden?

Kinderporno is slecht ja en daar moet wat tegen gedaan worden. Of mensen zelf gewone porno willen kijken (of maken), moeten ze helemaal zelf weten.
Mijn vaderhart wordt in eerste instantie blij van dit soort nieuws. Mijn technologiehart geeft rode alarmbellen af bij dit soort nieuws.

Het probleem is gewoon dat false positives niet te voorkomen zijn en de gevolgen voor de persoon bij een foutieve labeling desastreus kunnen zijn.

Mag ik nu geen foto's en fimpjes van mijn dochters eerste badje meer maken?
Nee. Beeldmateriaal dat daadwerkelijk kinderporno is en bekend is, heeft een unieke hash gekregen. Die hash wordt vervolgens vergeleken met jouw foto en aangezien ze niet overeenkomen is er niets aan de hand.

Ook als je “nieuwe” kinderporno zo uploaden, die nog nergens bekend is, zal er niets gebeuren, aangezien er geen hash is om mee te vergelijken. Ook als je exact een foto “na zou maken” blijft dit een unieke foto met een hash die niet in de database staat.

Als ik zie hoe Apple hier mee omgaat en welke extra stappen ze hebben ingebouwd en het feit dat er kans is van 1 op 1 miljard om een false positive te hebben, kan ik niet anders dan dit te omarmen.
Maar eigenlijk doe je het hele systeem dan ook teniet, toch? Een database met 200.000 foto's is dan wel heel erg klein... zou de hitrate dan niet veel te laag zijn?
Aan de ene kant zijn er maar 200.000 afbeeldingen, aan de andere kant hoef je er maar 1 van te hebben voordat er alarmbellen af gaan. Als je verzamelaars van Formule-1-plaatjes op zou willen sporen dan kom je ook al een heel eind met een paar honderd elk van Max Verstappen, Lewis Hamilton, en Michael Schumacher.
Niet helemaal waar het systeem dat apple heeft gebouwd werkt met een account threshold, een enkele foto lijkt dus niet voldoende.

bron: https://arstechnica.com/t...hild-sexual-abuse-images/

Using "threshold secret sharing," Apple's "system ensures that the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content,"
Ik ken NeuralHash niet en hoe dit werkt. Maar de dienst van Microsoft, PhotoDNA is 'zelflerend' en je kan inderdaad je account kwijtraken als je zelf een foto maakt van je koter in bad en deze synced met Onedrive.
Sterker nog, je weet niet eens om welke foto het gaat om dat Microsoft daar niet inhoudelijke op in wil gaan. Het kan dus ook een foto zijn die 'lijkt' op kinderporno van die ene WhatsApp-groep die we allemaal wel hebben. Zie ook dit artikel: reviews: Account geblokkeerd. Wat nu?
Je weet gewoon dat het uitgebreid gaat worden naar andere materialen. Daarom moet je dit niet willen. Het wordt gebracht onder het mom van de "kinderen beschermen" omdat niemand daar tegen kan zijn. Je ziet het hier ook met het steeds moeten kwalificeren van comments met: "ik ben niet voor...." etc.

Als je denkt dat niet zo is moet je even terugzoeken naar de berichten over de kentekenplaat scanners en andere dingen waarvan: "ze nooit ondeugdelijk zouden worden gebruikt".
De volgende stap is natuurlijk terrorisme. Of complotdenken.
Als ik zie hoe Apple hier mee omgaat en welke extra stappen ze hebben ingebouwd en het feit dat er kans is van 1 op 1 miljard om een false positive te hebben, kan ik niet anders dan dit te omarmen.
Ik vind dit echt extreem naief en ik snap niet hoe mensen zich zo makkelijk laten wijsmaken dat een systeem als dit niet tot absurd onrecht zouden kunnen leiden. Denk iets verder dan je neus lang is zou ik je aanraden.

Om maar even een paar voorbeelden te geven:

- Apple doet ook zaken in minder frisse landen zoals China en Saudie Arabie, waar ze kinderporno een stuk minder interessant vinden dan andere dingen. In China bijvoorbeeld kritiek op de overheid, of in Saudie-Arabie gay porn foto's. Nu kun jij wel zeggen "ja maar Apple kijkt alleen maar naar kinderporno foto's", maar ben je je er ook van bewust dat Apple speciaal voor China aparte iCloud infrastructuur heeft waar de CCP controle op kan uitvoeren? Was gewoon een voorwaarde om zaken te doen daar, dus dan doet Apple dat. Ik gok dat de CCP een hele andere database van hashes zal prefereren dan 'think-of-the-children!' Amerika.
- Er zal vast en zeker een hele kleine kans op false positives zijn, maar iemand kan ook zonder dat jij het weet jouw babyfoto's doorsturen (gestolen apparaten/media dragers bijvoorbeeld, of gewoon een 'vieze foute oom' in de familie chat) zodat ze in een pedofilie netwerk terecht komen, en dan ben jij en al je familie waar je ze ook mee gedeeld hebt ineens 'verdacht'. Kan jij wel zeggen 'ja maar Apple gaat het handmatig controleren' (leuk dat ze dus blijkbaar zomaar in jouw foto's kunnen trouwens), maar voor een pedofiel is zo'n 'baby in bad foto' waarschijnlijk precies het soort materiaal waar ze naar zoeken, dus hoe kan Apple dan concluderen dat jouw 'baby in bad' foto een onschuldig familiekiekje was?
- Wat al door anderen is gezegd, zal je waarschlijk gelijk gerapporteerd worden aan de autoriteiten en gaat Apple echt niet eerst contact met jou zoeken om te vragen waar al die blote baby foto's vandaan komen. Zo gaat het toch bij alle vormen van verdachte criminele activiteit? Als jij denkt dat iemand kinderen misbruikt in zijn garage ga je toch ook niet eerst even bij hem langs om te vragen of dat zo is? Wederom naief als jij denkt dat dat hier wel zo zal zijn.
- Iets waar niemand het over heeft is dat dit soort perceptual hashes er om bekend staan dat ze vrij eenvoudig te tricken zijn door middel van adversorial images. Een plaatje van een banaan dat zo geconstrueerd is dat de perceptual hash identiek is aan een kinderporno plaatje uit de database, om maar een voorbeeld te noemen. Dit is al zo vaak aangetoond. Als iemand jou dus willens en wetens schade wil toedoen (iemand die een hekel aan je heeft, of een overheid), dan lijkt het me vrij eenvoudig om met wat social engineering wat 'onschuldige' bananen plaatjes op je device terecht te laten komen, die volgens de database kinderporno zijn. Bedenk dat in iCloud ook je backups van whatsapp en andere applicaties zitten, en dat dit waarschijnlijk ook zal worden uitgebreid naar macOS waardoor de hele inhoud van je iCloud drive zou kunnen worden 'gescand op kinderporno'.

Ik vind het nogmaals verbazingwekkend hoe makkelijk mensen hun schouders over dit soort dingen ophalen, precies hetzelfde zie je met de steeds verdergaande corona maatregelen overal ter wereld. Het is gewoon de kikker in het opwarmende water, inmiddels vinden we het al doodnormaal dat er allerhande restricties gelden (nog meer dan een jaar geleden) en de trein van nieuwe 'maatregelen' maar gewoon blijft doordenderen zelfs nu 80% of meer mensen gevaccineerd zijn en er juist in die delen van de wereld die de restricties invoeren amper nog mensen overlijden. Want 'Corona bestrijden = goed', dus daar mogen we best wat voor inleveren toch? Een paar jaar later weten we al niet eens meer waarom we het allemaal ook al weer deden, maar alle infrastructuur is in place en in gebruik, dus die kan mooi voor andere doelen gebruikt worden. Denk ook even aan al het security theater op de vliegvelden, en hoe je je vingerafdrukken verblijfadres thuisadres foto etc. elke keer mag afgeven en zonder reden gedwongen kan worden je laptop af te geven voor 'onderzoek' als je de VS inreist, want 'terroristen'. Dit soort privacy schendingen uit naam van 'kinderporno bestrijden' zijn het zoveelste voorbeeld...

[Reactie gewijzigd door johnbetonschaar op 6 augustus 2021 10:41]

Ik ben het qua digitale "kikker in het hete water" enorm eens met je. Maar jouw vergelijking en beeldvorming over de coronamaatregelen frustreren mij enorm. Wat jij hier voorschotelt is dat ze een extra agenda handhaven die buiten het doel van coronabestrijding dient, en dat is vals en emotioneel doortoeteren van wat er op geenstijl geciteerd wordt door "professionals" met irrelevante expertises. (economen, huisartsen en psychologen zijn grotendeels irrelevante expertises)

Om op jouw nummers in te gaan: momenteel zijn geen 85% van de "mensen" gevaccineerd, maar 60% van de volwassenen. Want enkel een volledige vaccinatie telt dat > 90% bescherming biedt tegen ernstige gevolgen van de ziekte en voorkomt veel beter het infecteren van anderen. Huidig percentage is dus nog ver onder het percentage dat nodig is voor "groepsimmuniteit" en om het aantal ziekenhuisopnames consistent laag te houden. Bij de alpha variant was al een percentage van minimaal 65% berekend (inclusief kinderen), om het virus volledig te bedwingen, dit is bij de delta variant uiteraard hoger. Maar met een bereidheid van 90% van de volwassenen om zich volledig te laten vaccineren gaan we er dus wel komen om de ernstigste gevolgen en ziekenhuisopnames te bedwingen. En aangezien de patiënten in het ziekenhuis die de afgelopen weken opgenomen zijn vrijwel allemaal ongevaccineerd zijn of een enkele prik hebben gehad, is geen enkele reden om te denken dat dit doel ongefundeerd is of dat we daar momenteel van afwijken.

Want dit is altijd het doel van het OMT geweest, en om ondertussen de slachtoffers zo laag mogelijk te houden met maatregelen die weliswaar onze omgangsnormen trotseren. Want "corona bestrijden=goed" is ook daadwerkelijk goed en iets waar we wat voor moeten inleveren. We hebben nog steeds de ballen verstand van wat er in mensen gebeurd die geïnfecteerd zijn. En wat daar de langdurige gevolgen van zijn. Dus elke vergelijking met langdurige gevolgen van de maatregelen (levensjaren verloren/kosten) gaat al volledig mank want we kunnen enkel nog de gevolgen van de ziekte onderschatten (en daarom zijn die zogenaamde “professionals” irrelevant, als ze met hun mooi uitgerekende nummertjes aan komen zetten).

De meeste mensen beseffen dat een pandemie/virus geen drol geeft om onze normen en waarden, en dat we over het hervinden van onze waarden pas kunnen praten als we een mate van controle hebben bereikt, of een dood einde wat maatregelen betreft. En deze mensen zijn niet de makke schapen die schouders ophalen zoals jij hier zegt, maar mensen die luisteren naar de experts. Iets dat wij hoger opgeleiden wel eens vaker mogen doen, en al helemaal mogen opzoeken. Want ik hoor veel hoger opgeleiden in mijn omgeving wel vragen stellen bij beleid, zoals geenstijl goed kan, maar weinig initiatief om te zoeken/luisteren naar de experts die het proberen uit te leggen, en eerder het “tegengeluid” opzoeken.

Jouw vergelijkingen met de fotoscan, de patriot act en vingerafdrukken gaan ook mank, ondanks dat ik het eens ben met de manier waarop die er doorheen gedrukt zijn. Die maatregelen hebben totaal geen dagelijkse, zichtbare, gevolgen. En heeft dus inderdaad het profijt van laconieke/conflictontwijkende psyche van de maatschappij (en in jouw voorbeelden ook van burgers in de VS). Maar corona maatregelen verstoren het dagelijkse leven van iedereen, elke dag. Dat jij hier verkoopt dat de burger nog steeds laconiek is tegenover de corona maatregelen gaat gewoonweg niet op. Ik denk juist dat de meeste mensen deze afgelopen anderhalf jaar heel goed hebben leren relativeren wat belangrijk is dat de "leiders" verkopen. Maar nog belangrijker, dat onze leiders mensen zijn en fouten maken in tijden van onzekerheid, en om diezelfde fouten op hun waarde te schatten.

Tl;dr: vergeet niet kritisch op de kritiek te zijn, en alles is genuanceerd, want zo zit het leven in elkaar.
1 op 1 miljard is echt zo groot niet als je bedenkt hoeveel foto's we elke dag allemaal tesamen maken.
Op The Verge: “ allowing apple to target an error rate of one false alert per trillion users per year”. https://www.theverge.com/...canning-hash-system-ncmec

Dat is een biljoen, niet miljard. Scheelt een factor 1000. Lijkt me hier op Tweakers niet goed vertaald?

-edit- ook de Apple specs hebben het over trillion: https://www.apple.com/chi...ion_Technical_Summary.pdf

@Olaf ik zou dit aanpassen dus

[Reactie gewijzigd door Frank-NL op 6 augustus 2021 09:26]

Voor degene die verward zijn hierdoor.

Dit komt omdat er een kort en lang systeem is. In het korte systeem is het million, billion, trillion, ... Respectievelijk 6, 9 en 12 nullen.
Wij hebben het lange systeem geleerd en dat gaat als volgt (in het Engels): million, milliard, billion, billiard, ... Respectievelijk 6, 9, 12 en 15 nullen.

Een billion in het korte systeem is een 1 met 9 nullen, een billion in het lange systeem is een 1 met 12 nullen.

Leuke video van Numberphile hierover (10 minuten): https://www.youtube.com/watch?v=C-52AI_ojyQ

[Reactie gewijzigd door Grim op 6 augustus 2021 09:41]

Ja en omdat ze in de VS dus vrijwel altijd het korte systeem gebruiken kunnen we hier dus stellen dat ze het hebben over een 1 met 12 nullen. Dat is dus een serieus getal en een factor 1000 hoger dan wat hier in het artikel staat. Ze hebben het namelijk over "trillion", want in het lange systeem helemaal een groot getal is.
Grrr, miljaar :(. klassieke fout waar ik normaal toch scherp op let. Trillion is biljoen inderdaad, billion is miljard. Dank voor het melden. Het is aangepast.
Volgens de BBC gaat het alleen (voorlopig) over Amerikaanse gebruikers..

Misschien is het handig dat er ook even bij te melden!?

https://www.bbc.co.uk/news/technology-58109748
Dat staat inderdaad in de kleine lettertjes onderaan de pagina. Lekker duidelijk weer Apple. Het feit dat ze dit niet heel nadrukkelijk in de tekst naar voren laten komen, doet me vermoeden dat ze er vanuit gaan dat het internationaal in gebruik genomen gaat worden. Daarvoor moeten ze dan per land samenwerken met verschillende organisaties zoals in Nederland het Expertisebureau Online Kindermisbruik.
Ook heeft het men in de docs over false positives per aantal accounts, niet per aantal foto's:
The threshold is selected to provide an extremely low (1 in 1 trillion) probability of incorrectly flagging a given account.
Dat impliceert dat de kans per foto nog een stuk lager ligt?
Een erg kleine kans voor jou als individu die door de miljarden foto's in iCloud toch af en toe vals positieven zal opleveren.
Apple meldt verder handmatig controle uit te voeren voorafgaand aan meldingen over kindermisbruik.
Vind ik dan ook een cruciale stap in het proces.
Ik snap niet dat mensen "handmatige controle" zien en dan niet realiseren dat Apple's constante verhaal over hoe "pro-privacy" zij wel niet zien een compleet lulverhaal is als zij bij elke privéfoto van elke gebruiker kunnen.
Dat is niet zo. Alleen bij foto’s die gematched zijn wordt de payload door Apple encrypted verstuurd. Alleen die kunnen dus bekeken worden.
Dus Apple kan privéfoto's van gebruikers inzien. Einde verhaal.
Het ligt natuurlijk wel wat genuanceerder, want over wie zijn privé-foto's hebben we het? Er wordt vergeleken op basis van hashes in een bestaande database. De kans dus dat de foto in kwestie gemaakt is door de eigenaar van de telefoon is nihil, anders stond ie om te beginnen al niet in deze database.

Dit even terzijde, ik vind het persoonlijk een slechte ontwikkeling, ik hoef niet niemand te hebben die MIJN toestel gaat controleren op inhoud. De enige manier om dit te omzeilen is door je toestel niet te updaten. Deze techniek gaan ze dus implementeren in de nieuwe versies van iOS, iPadOS & MacOS.
Ikzelf heb geen Apple-producten meer dus persoonlijk heb ik er op dit moment niks mee van doen, ik stoor mij alleen weer mateloos aan Apple's virtue signaling terwijl als het hun uitkomt ze om privacy minder geven dan ze iedereen willen laten geloven.
Nee. Alleen de foto’s die gematched zijn EN als er een bepaalde hoeveelheid van jou gematched is. Een kans op 1 vals positive is 1 op de biljoen. Dus een aantal daarbij is de kans nog kleiner en zal dus in de praktijk zijn dat van niemand de privé foto’s bekeken kunnen worden. Alleen als het een collectie kinderporno is.
Ten eerste, ik neem die "1 op 1 biljoen" niet zomaar op hun woord. Apple verbloemt constant en gebruikt altijd marketinggezwets dus blind varen op wat zij zeggen is een no-go voor mij.

Ten tweede, zoals al door meerdere andere mensen is aangegeven, hoe kan Apple garanderen dat die database altijd correct is en dat er geen mogelijkheden zijn om het te manipuleren door bijvoorbeeld malefide overheden.
Lekker anti Apple gezwets bedoel je. Hou maar op met je meningen en hou het bij de feiten.

Apple krijgt die database van de betrouwbare organisaties. Niks schimmigs aan. En als je denkt dat Apple de database gaat manipuleren dan vertrouw je Apple niet. Maar dan kan Apple net zo goed de sleutel hebben van al je bestanden. Slaat dus nergens op.

Je wijkt trouwens af van je stelling dat Apple al je privé foto’s kan bekijken. Dat klopt dus niet.

En mijn mening is dat Apple dit niet zou moeten doen, maar dat is maar een mening.
Apple krijgt die database van de betrouwbare organisaties.
Zoals?
En als je denkt dat Apple de database gaat manipuleren dan vertrouw je Apple niet.
Apple manipuleert zelf niks. Dat betekent niet dat andere partijen de database niet kunnen bespelen.
[...]

Zoals?
“Apple krijgt een database met hashes van foto's van kindermisbruik van organisaties die zich inzetten voor de bescherming van kinderen, zoals het National Center for Missing and Exploited Children.”
[...]

Apple manipuleert zelf niks. Dat betekent niet dat andere partijen de database niet kunnen bespelen.
Daarom is die database zelf ook geencrypt door Apple. Zodat die niet uitgelezen of gemanipuleerd kan worden. Misschien moet je eerst het artikel en de white paper lezen ipv de meningen van anderen.

Ik bedoel als een overheid in staat zou zijn om de database te manipuleren dan worden de foto’s alsnog encrypted naar Apple gestuurd. En als ze zo goed zijn de database te kunnen manipuleren dan kunnen ze vast de hele telefoon en je foto’s wel hacken. Maar dat is maar mijn mening.

Ik wil Apple niet verdedigen in wat ze doen want ik vind het verkeerd. Ik wil alleen aangeven dat het wel veilig is gedaan en dat ze dus niet door je foto’s kunnen struinen. Ik vind het wel een glijdende schaal.

[Reactie gewijzigd door SoloH op 6 augustus 2021 12:21]

Het blijkt dat jij niet de moeite hebt genomen om de reacties te lezen in deze comment-section want dat had je een veel beter idee gehad wat ik bedoel als ik het heb over manipulatie.

Trouwens, jij claimde dat Apple die databases krijgt van betrouwbare organisaties. Meervoud.
Wat zijn de andere dan? En kan Apple garanderen dat ze altijd, in elk land waar ze dit systeem willen gaan gebruiken, databases hebben die niet te misbruiken zijn. Stel ze rollen dit uit in de EU, wat van database gaan ze dan gebruiken? Per land? Dat moet je niet willen met landen als Hongarije en Polen.

Nee, dat kunnen ze niet, want met dit soort databases zijn in het verleden ook al dingen misgegaan door bijvoorbeeld foutieve hashes.
Dat is wanneer ze bekeken worden.

Maar dat Apple je privé foto's kan lijkt me een open deur.
Je geeft ze immers zelf aan Apple door ze op je iDevice of iCloud te zetten.
Ik begrijp niet wat je bedoelt. Kan je wat context geven?
Ja maar.. "do it for the children...." (KP) en "do it for safety" (terrorisme) en .... nuja glijdende schaal natuurlijk.

En Apple die gaat bepalen waar ze op checken? Paar overheden die het daar vast binnenkort niet meer mee eens zijn...

In Hongarije: recente LGBTI-wetgeving
In China: Oeigoeren
In Wit-Rusland: journalisten
In Duitsland: joden (sorry dit was flauw, iets met oude koeien uit de gracht halen)
Jouw stelling was dat ze bij Apple 'bij elke privéfoto van elke gebruiker kunnen' en dat ontkracht SoloH hier.
Elke foto kan worden geflagged, hoe onwaarschijnlijk ook, dus elke foto kan inzichtbaar worden gemaakt voor Apple.

Dit is niets anders dan een verkapte backdoor in mensen hun privé foto's.
Ik snap niet helemaal wat je bedoelt. Bedoel je dat er af en toe per ongeluk een foto ten onrechte wordt geflagd? Dat is nog steeds niet 'elke foto', maar alleen de ten onrechte geflagde foto's (en dan ook nog alleen als het er zoveel zijn dat ze de treshold overschrijden). Of bedoel je dat Apple opzettelijk onjuiste hashes in de database zet om specifieke privéfoto's te kunnen bekijken?
Als Apple dat zou doen dan is dat een heel omslachtige manier. Dan kunnen ze net zo goed geen encryptie gebruiken of zelf een privé sleutel hebben. Wat ze niet hebben natuurlijk.
Ik snap niet dat mensen "handmatige controle" zien en dan niet realiseren dat Apple's constante verhaal over hoe "pro-privacy" zij wel niet zien een compleet lulverhaal is als zij bij elke privéfoto van elke gebruiker kunnen.
Naja, ik zie ook veel mensen die het verkeerd interpreteren. Ik ga mee in Apple's privacy verhaal niet omdat ik geloof dat er met Apple apparaten niemand ergens bij kan en je privacy 100% gewaarborgd is maar ik weet wel dat Apple goed bezig is op het gebied van privacy tegenover third parties. Dat laatste is waar ik mij meer druk om maak dan Apple zelf.

Het is aan ieder voor zichzelf om de afweging te maken wie ze meer vertrouwen natuurlijk maar dat is hoe ik altijd alle privacy marketing van Apple interpreteer. Ik ben me er zeker wel bewust van dat Apple nog steeds wel het één en ander verzameld, daar ga ik bewust mee akkoord wetende dat andere bedrijven het wel moeilijk hebben om mijn data te vergaren tenzij ik ze daar toestemming voor geef.

En zo blijkt ook uit dit artikel, Apple zelf heeft wel manieren om bij data te komen of technieken zoals dit te implementeren. Ik vind het persoonlijk dan ook geen goede zaak en een grote slippery slope die mij wel aan het denken zet of ik verder wil met het Apple ecosysteem.
...en dan niet realiseren dat ...
Waarom ga je er vanuit dat ik me dat niet realiseer?
Oke, dan laat ik het anders stellen.

Jij vindt het dus oke dat Apple de privacy van al hun gebruikers nu gaat schenden?
Eerst en vooral lijkt het me noodzakelijk om jouw vraag om te draaien: Wie gelooft er werkelijk dat je privacy 100% gewaarborgd werd vóór deze nieuwsflash? Je lijkt aan te geven dat iOS-gebruikers sowieso volledig meegaan in het privacyverhaal en geloven dat ze 100% anoniem zijn t.o.v. Apple. Dat is natuurlijk niet zo.

Verder: Hoewel dit enigszins ingaat tegen hun privacy-beleid (De handmatige controle op false positives dan), hoeft het ook niet meteen te betekenen dat het complete privacy-beleid meteen volledig teniet gedaan wordt.

Er zit een flinke afstand tussen "pro-privacy" en "compleet lulverhaal", maar het geeft zeker een knauw aan dat eerste.

Ik kijk met een dosis argwaan naar deze ontwikkeling (wat met dit onderwerp altijd moeilijk, het is de ideale stok om bepaalde ontwikkelingen door te drukken). Die argwaan gaat dan eerder over "wat in de toekomst met onderwerpen die grote culturele verschillen hebben".

[Reactie gewijzigd door Dashter op 6 augustus 2021 09:57]

Je lijkt aan te geven dat iOS-gebruikers sowieso volledig meegaan in het privacyverhaal en geloven dat ze 100% anoniem zijn t.o.v. Apple.
Er zijn meer dan genoeg die dat daadwerkelijk denken omdat ze onkritisch geloven wat Apple ze vertelt.
Maar dat maakt niet dat dat er ook 1 op 1 miljard direct als pedofiel gevlagd wordt. Stel dat je het op één of andere wijze hebt klaargespeeld een kirnderpono foto up te loaden naar iCloud die bekend staat in de database als kinderporno dan ga je nog ook nog niet gevlagd staan als pedofiel. Pedofielen beschikken over massa's foto's.
1 foto is bij de concurrentie genoeg om je account te verliezen. Het hoeft dus niet zonder gevolg te blijven omdat het er maar 1 is.
Ik wil dat toch wel eens in de praktijk zien en we zullen het dan ook wel direct zien want we spreken hier over toch bijna 1 miljard gebruikers.Ik kan me moeilijk voorstellen dat er tussen die gebruikers niet een duizendtal zitten die een ongewenste foto kregen toegestuurd en waar zo'n foto onbewust in hun iCloud is terecht gekomen. Zou slechte PR opleveren dus ik ben heel benieuwd wat Apple hier in de praktijk mee doet.
Het gaat niet om 1 op de miljard foto’s die gemaakt worden maar om 1 op de miljard meldingen.
Ook dat niet eens, het gaat om 1 op 1 miljard tests uitgevoerd door de NeuralHash dienst. Een melding hoeft niet per se te leiden tot een test natuurlijk.

CC: @Blokker_1999: Met bovenstaand in het achterhoofd hoeft een gemaakt foto niet per se direct gecontroleerd te worden natuurlijk, wanneer het in eender welke cloud wordt gestald.

[Reactie gewijzigd door CH4OS op 6 augustus 2021 09:20]

Ik lees toch dat elke foto gehashed wordt en dus getest.
Als elke foto van elke gebruiker gehashed en gecontroleerd wordt, krijgt dit systeem het nog zwaar te verduren. Met de hoeveelheid foto's en afbeeldingen die gemaakt worden gaat dit niet zomaar realtime gechecked kunnen worden. Wil je dat wel, zul je dusdanig veel resources ervoor moeten inkopen dat het gewoonweg bijna niet te doen is en je steeds meer resources nodig bent, omdat er steeds meer foto's en afbeeldingen geüpload worden. Kosten lopen dan best hoog (en steeds verder) op, terwijl er (verhoudingsgewijs) steeds minder dat soort materiaal geüpload wordt... Dat gaat dus ook niet werken. Ook ben je dan bij voorbaat eigenlijk al verdacht en gaat je 'innocent until proven guilty' eigenlijk ook de deur uit.
Real-time hoeft ook niet. We zien nu al bij de concurrentie dat het soms dagen of weken later is. Maar bedrijven zoals Apple hebben datacentra vol met rekenkracht om dat te doen.
Dat weet ik dat zij dat hebben, maar als dit er extra bovenop komt, hebben ze simpelweg echt wel meer resources nodig, terwijl diegenen die zich er schuldig aan maken echt wel slimmer zijn dan om het onversleuteld online te gooien. Zo ontketen je alleen maar een weinig effectief kat-en-muis spelletje. Zou je dit niet real time aanpakken, is het kwaad toch ook al geschied (en voor het slachtoffer natuurlijk sowieso geen nut, die toch al getekend is voor het leven).

Ik zie het ergens wel gebeuren dat over een paar jaar een bericht komt dat Apple hiermee stopt, omdat het systeem teveel kost en te weinig oplevert.

[Reactie gewijzigd door CH4OS op 6 augustus 2021 10:30]

De foto’s op iCloud worden niet getest. Dat kan ook niet want die zijn encrypted. De foto’s die je van je telefoon of van je iPad upload worden lokaal eerst getest met de neuralhash voordat ze geüpload worden. Dus realtime.

Het rijst mij ook de vraag waarom deze effort. Wie gaan ze ermee pakken? Niet de makers in ieder geval. En ook niet de gehaaide pedofiel.

[Reactie gewijzigd door SoloH op 6 augustus 2021 10:43]

Foto's op iCloud zijn weliswaar versleuteld, maar niet end-to-end. Apple heeft gewoon de sleutel en kan dus foto's bekijken.
Totdat de foto van jou dochter in bad per abuis in een kinderporno database beland. Dan is alsnog het leed niet te overzien....
Dat leed is prima te overzien want als er daadwerkelijk een "positieve" hit is en ook nog eens de "treshold" overschreven wordt, dan zal een medewerker gaan bekijken. Die ziet vervolgens dat de foto geen kinderporno betreft en zal er verder niets gebeuren. Indien dit wel zo is zal dit gewoon gemeld worden aan de opsporingsinstanties die vervolgens verder gaan kijken.

Het feit dat mensen serieus denken dat je een inval in je huis gaat krijgen omdat je toevallig een foto van je kind in bad op je telefoon hebt staat is lachwekkend en triest tegelijk.... 8)7
Die inval is al gedaan, in je telefoon, de inspecteur is al binnen, neemt waar en rapporteert zelfs. Hoe nobel het doel ook is, dit schept een precedent om meer te gaan doen in de toekomst. Wanneer gaan ook berichten van o.a. WhatsApp, Telegram, Signal 'gehashed' worden? Wat zijn daar dan de criteria en consequenties van?

Dat de communicatie naar buiten (iCloud Photos, iMessage) gescand worden en wellicht ook het verkeer van WhatsApp kan ik nog in komen (niet dat dat een goed idee is). Dan heb je als gebruiker nog steeds de keuze om hier geen gebruik van te maken. Ofwel de apps of diensten die buiten je (huis) telefoon links te laten liggen. De methode van Apple doet toch wel mijn keuze voor hun platform te heroverwegen.

In het begin zal het ook allemaal niet zo'n vaart lopen en kunnen we allemaal zacht verder slapen. Dat is het vervelende er van, je voelt of ruilkt het niet. Totdat het op een dag een keer gaat tegen je gaat werken. Omdat je een andere mening hebt, ge-target bent om welke reden dan ook of door een dom geintje van een vriend die je wat obscene foto's heeft geappt omdat die weet dat je een iPhone hebt. Je mist je vrijheid pas als je die kwijt bent.

Eerlijk gezegd, zou ik heel graag willen dat Apple een goed werkende en privacy gerichte oplossing heeft bedacht. Ik hoop dat mijn angst voor misbruik van deze systemen ongegrond is, maar ik heb er een hard hoofd in.
Nee er is geen inval gebeurd op je telefoon. Men heeft je locker op iCloud gecontroleerd op verboden spullen. En als we zeggen gecontroleerd moeten we zeggen dat ze de deur van je locker open en dicht hebben gedaan en totaal niet hebben gekeken naar je spullen omdat verboden spul onmiddellijk oplicht. En dat geintje van je vriend maakt hem een crimineel want hoe komt hij aan een kinderporno foto die hij je dan gaat sturen? Heel die scheme die je verzint brengt enkel je vriend in problemen want wie stuurt er nu kinderporno naar iemand met een iPhone? Komt direct na het verzenden helicopters boven het huis van je vriend neergestreken. Nope met Apple gebruikers zou ik geen grapjes uithalen die hun beveiliging is op orde :+
Nee er is geen inval gebeurd op je telefoon.
Die logica ontgaat mij compleet, er draait code mee in je telefoon die foto's hasht met als doel ongewenst materiaal of gebruikers op te sporen. Hoe is dat niet 'intrusive', 'binnen dringend' of anders gezegd een inval? Als er een agent in je huiskamer komt staan die onder bepaalde voorwaarden (drempel waardes) je spullen (bv een messen collectie) gaat rapporteren dan vind ik dat wel een behoorlijke inval.

Verder zijn er tal van mogelijkheden te bedenken om iemand obsceen materiaal te versturen zonder tussenkomst van een iPhone. Denk aan desktop versie van WhatsApp, Telegram of Signal. Via een one-time-use linux instantie, via VPN of een tor-verbinding.

Misschien moeten we om die reden ook maar gelijk alle communicatie van de telefoon gaan screenen. "Dan weten we zeker dat we niet een onschuldig persoon beschuldigen". Dat is toch wel een van de kritieke punten die ik in een hoop reacties hier terug zie komen. Deze technologie ondermijnt het vertrouwen in het platform, door de techniek zelf en vooral de mogelijke gevolgen er van.

Nogmaals hoop ik er naast te zitten en kunnen we allemaal zacht slapen en grapjes over invallende politie blijven maken. Het is allemaal leuk en grappig, totdat het niet meer zo is. ;)

[Reactie gewijzigd door Xion op 6 augustus 2021 11:17]

Dat je niks begrijpt van die logica is omdat je blijkbaar ook niet begrijpt waar het over gaat Er komt niets op je telefoon dat je foto's gaat doorzoeken. Dat is gewoon pure desinformatie. Wat je upload naar iCloud waar gescreend op kirnderporno. Dat is een heel groot verschil. Dit systeem gaat niet op zoek naar pedofielen. Dit systeem houdt het opslagen van kinderpornografie op iCloud tegen.
Je zit er inderdaad helemaal naast met je interpretatie van hoe die kinderporno filter werkt.
Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the unreadable set of known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. Private set intersection (PSI) allows Apple to learn if an image hash matches the known CSAM image hashes, without learning anything about image hashes that do not match. PSI also prevents the user from learning whether there was a match.
iCloud is de uiteindelijke eindverantwoordelijke voor de content die op de servers wordt opgeslagen. Dus wat een pedofiel doet met zijn iPhone dat doet er niet toe zolang die zijn stuff maar niet op iCloud opslaat. Dat het on device gebeurt is nodig om privacy te beschermen van niet pedofielen Moet de controle aan de andere kant gebeuren dan moeten ze wel al je foto's doorzoeken.
want wie stuurt er nu kinderporno naar iemand met een iPhone?
Nog simpeler, als je een hekel hebt aan een iPhone bezitter dan stuur je hem een foto.
Maar serieus, je zit een potentieel lek systeem te verdedigen. Elke foto op je toestel wordt gescabd en bij twijfel gaat de foto naar Apple ter controle. Al net zo'n stiekum systeem als al die siri meeluisteraars destijds. Ook daar deet men pas iets na wereld wijde kritiek.
Het feit dat mensen serieus denken dat je een inval in je huis gaat krijgen omdat je toevallig een foto van je kind in bad op je telefoon hebt staat is lachwekkend en triest tegelijk
Zijn anders genoeg threads te vinden waarbij mensen zonder enige melding hun account zijn kwijtgeraakt. Vele hebben hun account gekoppeld aan verschillende devices en het kost veel moeite om enigszins te horen waarom je account geblokkeerd is.

Vind eerder bizar dat mensen serieus hier gebruik van maken en het normaal wordt gevonden dat Apple, Microsoft en Google dit doet.

[Reactie gewijzigd door vali op 6 augustus 2021 09:22]

Groot verschil tussen account kwijt en de bewuste inval door instantie X die MazeWing benoemt denk je ook niet?
Ik weet niet wat tegenwoordig erger is. Je zou maar je office365 account verliezen (in dit geval je Apple account) zonder reden. Vele kunnen dan niet meer werken en bij hun contact gegevens van hun klanten.

Ik zal in ieder geval nooit dat soort privé gegevens naar de Cloud duwen. Zijn genoeg oplossingen voor een gemiddelde IT-er om het veilig zelf te realiseren.

[Reactie gewijzigd door vali op 6 augustus 2021 09:41]

Tja en dat de hele buurt weet dat je bent gearresteerd door een AT omdat je zogenaamd een kinderpornonetwerk runt is minder erg. Ja die data ben je kwijt maar bij zo'n inval is de kans dat je gehele leven voorbij is aardig groot. Niemand zal je 100% geloven meer. Er zal altijd over je gesproken worden. Al je data op een plek is natuurlijk nooit handig.
Laat die threads dan eens zien. Want wat jij beschrijft lijkt me een family account waar iemand niet op de hoogte is dat er een pedofiel gebruik maakt van hun family account. En dan snap ik dat het moeilijk te achterhalen is wat er is gebeurd want je wil geen helpdesk medewerker horen zeggen dat je gevlagd staat voor kinderporno. Zo'n gesprek wil niemand voeren. Is er een pedofiel aanwezig op die family account dan zullen ze daar door de juiste instanties van ingelicht worden.
reviews: Account geblokkeerd. Wat nu?

Microsoft account vergrendeld / geblokkeerd

Dit soort initiatieven zijn angstaanjagend omdat de gewone persoon niet op kan tegen Goliath (Apple, MS, etc) in het geval van een false positive. Hoe mooi de cijfers ook zijn, die gebeuren toch altijd vaker dan voorspeld.
Beetje raar he , wat jij nu wil zien. Apple moet er nog mee beginnen. In tegenstelling tot de andere "grootmachten ".


Was reactie op monojack

[Reactie gewijzigd door Knijper1962 op 6 augustus 2021 12:32]

Het is geen uniek hash per foto, maar voor onderdelen van de foto eigenlijk zoals oa ook NFI het doen en zijn software verkoopt. We weten uit het verleden al dat foto's van minderjarige in weinig kleren of naakt reden zijn tot onderzoek en dus een aantekening. We zijn hier al een keer geweest met PhotoDNA, maar ook toen oa Hema, Blokker en AH oa foto-ontwikkeldiensten gingen aanbieden en oa Duitsers niet gecharmeerd waren van Nederlandse kinderen naakt op het strand of in de achtertuin.

De gedachte dat een medewerker uit een andere cultuur, of met angstcultuur voor alles met kinderen of naakt, niet de call gaat maken om een onderzoek naar je te laten starten door de overheid is niet reëel. Silicon Valley heeft een sterke pappa en mamma cultuur gekregen sinds ze woke zijn gegaan en dus hun normen en waarden opleggen zonder controle en uitleg.
dan zal een medewerker gaan bekijken
Dan gaan mensen dus ook foto's bekijken om te checken of het kinderporno is? So much voor privacy vriendelijk Apple.
omdat je toevallig een foto van je kind in bad op je telefoon hebt staat is lachwekkend en triest tegelijk
Op de stoep misschien niet maar het zonder pardon en definitief afsluiten van je account wél. Ga maar eens even na hoeveel moeite, geld, gegevens en foto's er ondertussen in een Apple ID is opgeborgen.
Je mag op op zijn minst verwachten dat je uitleg krijgt over het afsluiten en dat je weerwoord mag geven. Guilty until proven, toch?
Dat leed is prima te overzien want als er daadwerkelijk een "positieve" hit is en ook nog eens de "treshold" overschreven wordt, dan zal een medewerker gaan bekijken.
Dus Apple krijgt dan toegang tot privéfoto's, iets wat hun hele "Wij zijn zo pro-privacy" verhaal volledig onderuit haalt.
Apple krijgt toegang samen met authoritaire overheden tot de data op jou mobiel voor zoverre dat dit niet al het geval is. Immers in China past men nu al andere encryptie toe dan in de rest van de wereld, dit is niet zonder reden.

Als je daadwerkelijk begaan bent met jou privacy gebruik je specifiek geen Chinese iPhone.
Nee dat is niet zo. Foto's die jij hebt genomen kunnen geen hashes bevatten die overeenkomen met reeds bekende kinderporno. Waar men op screent zijn op kopieën, en wel op specifieke kopieën. Dus nee je dick pics worden niet gescreend zelfs al heb je die naar duizenden vrouwen gestuurd, ook dan zal op hun toestel die niet gescreend worden want die komt niet overeen met een database van kinderporno die gedeeld werden door pedofilie netwerken. Dus men screent op foto's die onmogelijk prive foto's kunnen zijn.
Op dit moment staan er (voor zover bekend gemaakt) alleen hashes van bekende kindermisbruik. Morgen staan er fotos in van Thierry Baudet, en overmorgen worden wordt de threshold verruimd en alle afbeeldingen inzichtelijk.
Er zijn genoeg andere mensen die de gaten in dat argument hebben uitgelegt.

Dat neemt ook wederom niets weg van het feit dat Apple hierdoor toegang krijgt tot privéfoto's en dat zoiets als dit het hek van de dam haalt.
Nogmaals, Apple krijgt geen toegang tot je prive foto's. Je prive foto's behoren niet tot die database. Waneer je een pakket verzend wordt het altijd gecontroleerd. Men bekijkt of het pakket volledig is aangekomen. Controle van wat je verzend naar iCloud zal er altijd zijn, zo werkt het internet nu eenmaal. Daar zit nu een controle bovenop of dit pakket origineel is of dat dit pakket reeds bekend is. Is het origineel (wat je prive foto's zijn) dan gaat het door zonder problemen of verdere controle maar is dit pakket bekend als toebehorend aan een kinderporno foto, enkel dan wordt er gevlagd voor controle. Dit doet echt niets af aan je privacy. Ok als je een pedofiel bent dan is er inderdaad een probleem met je privacy maar daar heb je als pedofiel die kinderporno deelt zelf weinig respect voor dus nee. Het hek van de dam wordt juist gedicht.
Hoe garandeer jij dan dat die database altijd correct is en nooit kan worden misbruikt door er foutieve hashes in te stoppen?
Precies het is vaak genoeg aangetoond dat dit soort bronnen ook vervuild kunnen raken -- de definitie van wat men in de US kinderporno vindt is een glijdende schaal
Omdat die database gecontroleerd wordt. Die wordt regelmatig ververst. Er is een organisatie die zich hier mee bezig houdt. Er bestaat ook nog zoiets als manuele controle en foutieve hashes zullen snel opgemerkt worden dus nee ook daar zie ik geen probleem. Het is niet zo dat als zo'n hash overeenkomt met jouw foto van je kat er automatisch een ban in actie treed. Iemand gaat dan kijken of die foto overeenkomt met kinderporno. Degene die zich daar controle op doen zullen plots een dramatische stijging in false positives zien wat direct zal aangeven dat de database gecompromitteerd is.
Omdat die database gecontroleerd wordt
Door Apple. De slager keurt zijn eigen vlees.
Omdat die database gecontroleerd wordt. Die wordt regelmatig ververst. Er is een organisatie die zich hier mee bezig houdt.
Oke, dus dan wordt jouw privacy volledig bepaalt en ben jij compleet afhankelijk van een of andere organisatie.

Iemand die gaat kijken naar jouw privéfoto's is gigantische privacyschennis.
Maar als ik het goed begrijp zoekt het algoritme naar specifieke foto's, niet naar 'gelijksoortige' foto's. Dus jouw privéfoto's worden door niemand bekeken. Nu is er wel een maar, want er is een kans van 1 op biljoen dat er een false positive gegenereerd wordt. Dit komt doordat de specifieke foto's geen exacte match hoeven te zijn, zodat het systeem niet omzeild kan worden door een filter over een foto heen te gooien.
Ik ga eerder akkoord met jouw verhaal dan het zwart-wit waarin Exhonor redeneert.

Aan de andere kant moeten we wel toegeven dat het wél iets afdoet aan je privacy vanaf het moment dat je foto als false positive wordt gemarkeerd en doorgestuurd wordt ter controle. Je kan onmogelijk beweren dat het enkel privacyschending is indien het achteraf een true positive blijkt te zijn (Wat nog de meest gerechtvaardigde case zou zijn).

Als deze post inderdaad klopt, is de situatie toch kwalijker voor gewone gebruikers dan het technisch document beschrijft.

[Reactie gewijzigd door Dashter op 6 augustus 2021 10:31]

Als het niet overeen kan komen met hashes in de database is er geen enkele reden medewerkers handmatig te laten kijken, als de techniek perfect is werkt deze perfect.
Apple geeft dus zelf ook al toe dat de techniek fouten maakt (zowel letterlijk met volgens hun 1 op 1 trillion als indirect met dat ze handmatig het nalopen).

Dat doet niets aan het feit dat Apple dus gewoon toegang heeft/kan krijgen tot je data op je telefoon, ongeacht de reden is het hele 'privacy' verhaaltje van Apple dan wel voorbij.
Nee hoor.
De A.I. op je iPhones/iPads 'bekijken' en verwerken alle foto's op je apparaat lokaal.
Er gaan geen foto's naar Apple, enkel als er 1 of meer hashes positief zijn geflagged. Sterker nog: ook de A.I. 'resultaten' blijven lokaal op je toestel en er wordt niets gesynct naar je iCloud of Photo's op je Mac. Kijk maar hoe het ook gaat met gezichtenherkenning in je foto's (en andere zaken zoals hond/kat); dat gebeurt op elk Apple apparaat apart en opnieuw, want het wordt niet onderling uitgewisseld.

Hoe elegant dit werkt wil ik best uitleggen aan de buurman en tante Klaartje, maar tweakers weten dit toch wel want het is razend interessant.
Dit alles in tegenstelling van bepaalde andere merken (FB, Google, alle Chinese merken) die deze taken door eigen servers laat doen, hetzij omdat de telefoons niet krachtig genoeg zijn, hetzij handig want… data!
Client versus server processing de activiteit blijft exact hetzelfde en je hebt geen enkele garantie dat er geen undocumented "feature" op de client staat die wel resultaten deelt met Cupertino -- zolang het nooit ontdekt wordt kan Apple blijven wapperen met haar commerciele "privacy" flag -- volgende stap, Apple gaat op de iPhone zoeken naar zaken met een terroristische signatuur ... moet kunnen toch?

Ik geloof best dat Apple wat technologische window dressing wilt doen waarmee ze wat mensen kunnen overtuigen van hun "goede intenties" ... maar je hebt geen enkele garantie.
Gezond wantrouwen, prima. Maar we hebben het over tech dat door Apple behoorlijk uit de doeken is gehaald, ook in detail door derdepartijen besproken.

Kan je je de shit storm voorstellen als 'n bedrijf A beweert maar het tegenovergestelde B doet? Van sommige bedrijven kan ik het mij prima voorstellen, echter is de trackrecord van Apple, bij mijn weten, totnogtoe behoorlijk solide.
Dat is het punt “bij jou/ons weten” er gebeurt erg veel dat nooit het daglicht zal zien — privacy is voor Apple een commerciële afweging niet een ethische
Nee dat lijkt zo. En als dat zo is dan is dat wel een afgang voor apple wat mij betreft. Maar als ik het goed lees dan worden alleen de gematchde foto’s geüpload zodat 🍎 ze kan zien.
Dat iets cultureel als normaal wordt gezien in een bepaalde regio zoals een foto van je kind in bad (of bloot rennend door de watersproeier in de tuin op een hete zomer dag?) kan door iemand met een andere culturele set van waarden compleet anders worden gezien.

Krijg je een inval, nee waarschijnlijk niet (want dat wordt wel door lokale bevoegde instanties beoordeeld). Kan je daardoor jouw account en alle data die daar aanhangt kwijt raken. Ja dat is heel makkelijk.
Geloof me: de definitie van kinderporno is wereldwijd praktisch hetzelfde.

Er is een verschil van een kind dat echt "in bad zit" en hetzelfde kind dat in bad zit en op een erotische manier poseert of zelfs seksuele handelingen (bij zichzelf) uitvoert.
Ter info: er zijn elk jaar naar schatting 12 miljoen kindhuwelijken. Die zijn doorgaans ook tegen de wet maar worden gedoogd door de autoriteiten (doorgaans door religieuze druk). Het is een praktijk die bij een heel groot deel van de wereldbevolking dagelijkse kost is. De definitie van de wet en ze afdwingen zijn twee heel verschillende zaken.
En als over 4 jaar Amerika veranderd in een handmaid's tale achtige samenleving (is het zo waar al ) wat is dan de definitie ? Die definitie kan zo worden aangepast
Trust me toen er op YouTube een video over Japan in de jaren 80 een beeld voorkwam waarbij de vader met zijn 4 jarige dochter het bad inging schreeuwden alle Amerikanen dat de man een pedofiel was.

Culturen verschillen.
Groot verschil tussen echt kinderen en tieners. De laatste groep wordt ook doodleuk onder de noemer kinderporno gegooit terwijl het voor 16+ jarigen zeker normaal is om seks te hebben met leeftijdsgenoten. Maak eens foto's van elkaar en boem.

In genoeg landen is the age of concent 16 jaar (zoals Nederland) of zelfs 14 of 12. De leeftijd dat je sexueel volwassen wordt beschouwd.
Haha sorry hoor maar wat een dikke plank heb jij voor je kop. Stel dat deze hypothese waar is. Denk je werkelijk dat Apple dat persoonlijk gaat controleren nee er zal een melding worden gemaakt naar de autoriteiten daarna zal meteen je account geblokkeerd worden. En het is gewoon een glijdende schaal natuurlijk moet die soort misdaad koste wat kost worden voorkomen en dit soort viespeuken keihard worden aangepakt. denk je nu werkelijk dat deze Apple gebruiken en de iCloud nee dat soort ongure typen zitten allemaal achter tor netwerken ondertussen word de privacy van 1,4 miljard naar de kloten geholpen.
Ja, Apple zal daadwerkelijk moeten controleren om vast te stellen of het daadwerkelijk om kinderporno gaat. Je kunt niet zomaar (automatisch) meldingen naar de autoriteiten maken. Je zult toch echt concreet bewijs moeten hebben.
Voor autoriteiten ben ik niet bang, ik weet dat er geen kinderporno tussen mijn foto's zit en dat het door een false positive komt. Voor Apple ben ik wél bang want ik denk niet dat Apple een proces van hoor en wederhoor gaat optuigen. Dat is handmatig werk en kost hun veel geld, dus ze nemen liever in de voorwaarden op dat je account elk moment kan worden geblokkeerd zonder opgaaf van redenen. Als mijn Apple account wordt geblokkeerd ben ik foto's, backups, muziek, betaalde apps en meer kwijt. Zie ook reviews: Account geblokkeerd. Wat nu?
Is allemaal nogal cultureel bepaald. Wat volgens de Nederlandse normen OK is vinden ze niet overal OK. Voorbeeldje van een tijdje terug; een Deen die een foto van zichzelf en zijn dochter in bad op Facebook heeft gezet:
https://www.thelocal.dk/2...bath-pic-with-2-year-old/

Eens dat volgens het systeem van Apple de kans erg klein is dat je in de problemen komt met een foto van je kind in bad. Grote probleem is natuurlijk ook hier weer de glijdende schaal. Het begint met overduidelijke kinderporno (wie kan daar nu tegen zijn?) en wordt dan stapje voor stapje uitgebreid naar meer 'verwerpelijke' content. Thought police here we come.

Positief dat dit alleen iets doet als je upload naar iCloud, iCloud was sowieso al bijzonder lek. Alle content die daarop staat is door Apple te bekijken. Pricacy/security lijkt gewaarborgd te blijven zolang je iCloud niet gebruikt.
Het beleid van facebook is natuurlijk wat anders dan de wereldwijde opvatting van kinderporno.
Het gaat daar niet eens over het beleid van Facebook maar meer over het feit dat het überhaupt opzienbarend is dat zo'n foto wordt geplaatst en verder zijn vooral de reacties op deze actie interessant. Voor zover ik weet heeft Facebook niets met de foto gedaan.
Daar gaat het niet om. Maar dat dan automatisch een blokkade van alle diensten word opgelegd waar het heel erg moeilijk is al dan niet onmogelijk om van af te komen.
Niemand heeft het hier over inval van politie. Als je het nieuws laatste tijd hebt gevolgd of de threads hier op Tweakers dat heb je kunnen meelezen dat jouw 20jr oude account zomaar afgesloten kan worden met alle gevolgen van dien.
Het probleem met de tegenwoordige informatievoorziening is dat er van alles aan elkaar gekoppeld is en als je dus ooit ergens een vals vlaggetje met kindermisbruik hebt gekregen dat je dit op allerlei onverwachte momenten weer parten kan spelen. Ook al is je naam gezuiverd, je komt er niet meer van af.
Je reist naar de VS en je komt het land niet in omdat je naam in een systeem opduikt. Er hebben hierdoor mensen maanden in een cel gezeten.
Dan krijgen we dat zelfde probleem weer als bij Facebook, wie wil er moderator worden en al die "positieve" hits gaan bekijken of het wel echt kinderporno is? Die mensen moeten permanent in therapie.
Net zo lachwekkend als het artikel op Tweakers van laatst dat diversen cases omschreef waarin een Google of Microsoft account precies om de "mijn kind in bad" foto redenen zijn gesloten, zonder herstel of geld terug van store aankopen of dergelijken? Ik denk dat die mensen er niet om lachen, en het ook niet met je reactie eens zullen zijn.

Die zijn namelijk vanwege dit soort praktijken soms al honderden euro's kwijt, alle foto's van hun kinderen (want cloud backups zijn "veilig"), en wie weet wat ze nog meer aan onvervangbare data zijn verloren.
Dus als er foto’s van je kinderen zijn gestolen en in die database belanden moet je eerst je eigen onschuld aantonen nadat je wordt beschuldigd van kinderporno?

Als je ziet hoe slecht deze systemen vaak werken, en hoe veel impact ze hebben omdat veel opsporingsdiensten etc klakkeloos de computer geloven, en mensen hun oordeel meteen klaar hebben zou dit nooit verzonnen mogen zijn.

Laatst nog was de database van de politie vol met wordpress-iconen omdat iemand de verkeerde dataset had geüpload.
Nogmaals: bij een positieve hit, die voorbij de treshold komt (dus het moet al meerdere foto's betreffen) dan wordt er door een medewerker gekeken of het daadwerkelijke kinderporno betreft. Indien dit het geval is zal dit doorgegeven worden aan de opsporingsdiensten die er verder mee gaan.

Maar ook die diensten zullen eerst daadwerkelijk bewijs willen zien voordat ze actie gaan ondernemen. Daarnaast gaan ze niet achter de gebruiker aan met 1 foto, maar achter de grote jongens met duizenden en duizenden van dit soort beeldmateriaal.
dan wordt er door een medewerker gekeken of het daadwerkelijke kinderporno betreft.
Wacht, dus er gaat iemand die ik totaal niet ken, waar ik de achtergrond niet van weet, en zonder dat ik dat bewust door heb op het moment dat ik de foto maak, kijken naar een foto van mijn (*) naakte kind in een badje die op mijn eigen toestel staat? In welke wereld is dat een goed idee? Er hoeft maar één medewerker tussen te zitten met verkeerde bedoelingen en mijn privé foto is gestolen. Met een beetje pech komt ie (de hash van de foto) dan juist terecht in deze database, en ben je helemaal de sjaak.

Uit ander nieuws van vandaag blijkt wel hoe goed werknemers met data te vertrouwen zijn: https://www.nu.nl/tech/61...-wegens-datamisbruik.html

(*) Ik heb zelf geen kinderen, dus even voor de beeldvorming :+
Zou daar ook niet gewoon aan gedacht zijn? Dus dat de betreffende medewerker wordt gescreend, het kopiëren van foto’s niet mogelijk en dat bv slechts een deel van de foto en de foto in de database worden getoond, voor het maken van de vergelijking?
Dus een Apple-medewerker gaat door mijn foto's heen, lijkt me al punt 1 wat je niet moet willen en wat geenszins te verifiëren valt. Doorgeven aan de politie is nog tot daaraantoe.

Daarnaast is bezit grotendeels bewijs, maakt niet uit hoe je er aankomt (doorgestuurd bijvoorbeeld).

Zoiets zou nooit door een privaat bedrijf gedaan mogen worden, de HEMA valt toch ook je huis niet binnen om te kijken of je foute foto's in je fotoboek hebt geplakt? Dat zouden we belachelijk vinden maar dit is het exacte digitale equivalent.


Om ook maar meteen op je andere reactie te reageren. Als er foto's van je kinderen bijvoorbeeld in bad digitaal worden verspreid door derden(gehackt danwel vrienden/kenissen/familie met verkeerde intenties) dan staan die foto's toch ook nog op je eigen telefoon? Als die foto's door derden worden verspreid op het internet en dat wordt opgerold staan ze in die database. Dan wordt met dit systeem het slachtoffer als verdacht aangemerkt, terwijl ze er misschien niet eens weet van hebben dat er foto's circuleren. Daar is een tijd terug op de NPO nog een docu over geweest, mensen die erachter kwamen dat foto's van hun kind op zo'n site staan.
Zonder het systeem te kwalificeren, zoals jij het omschrijft zitten er nog wel wat mitsen en maren aan. Vooral het feit dat een medewerker gaat beoordelen of het kinderporno is of niet zet ik mijn vraagtekens bij. Ik denk namelijk niet dat iemand voor 100k+ per jaar in Cupertino op Apple HQ de hele dag potentiele kinderpornofoto's gaat zitten kijken. Ik vermoed eerder dat er een laagbetaalde medewerker in de Filipijnen in een callcentersetting de hele dag foto's moet beoordelen. Dan wordt kans dat een foto een onterechte stempel krijgt wel groter dan 1 op 1 Triljoen.

En bij de Amerikaanse techbedrijven zal ik er ook niet zo snel vanuit gegaan dat je niet geblokkeerd wordt voor inbreuk op hun gebruikersvoorwaarden. Misschien is de kans niet zo groot dat het gebeurd, maar als het gebeurd moet jij het tegendeel bewijzen en zullen ze niet inhoudelijk reageren tenzij jij het bedrijf in kwestie voor de rechter weet te slepen.
Ja dus als jouw verzameling kinderfotos gehackt wordt en verspreid worden onder de pedofielen dan kan je ervan uit gaan dat er nogal wat hits bij jou vandaan komen. Geen idee wanneer er een hash wordt opgeslagen, hoe ernstig die foto moet zijn natuurlijk.

Ander ding vind ik dat ze erg ver gaan terwijl het dus alleen gaat om foto’s die dan gedownload worden? Of zouden ze zo ook achteraf kunnen zien of een pornografische foto op welke telefoon gemaakt is?
Wut?! Er worden foto's van je kinderen gestolen en die worden in de database gestopt? 8)7

Geloof je het nu echt zelf? Er zal toch echt eerst handmatig vastgesteld moeten worden dat deze "gestolen" foto's kinderporno zijn en dan in de verschillende databases gezet worden.

De enige manier waarop jou verhaal kan kloppen is dat je zelf kinderporno hebt vervaardigd en de beelddrager gestolen is en in handen is gekomen van de autoriteiten die het vervolgens in de database hebben laten plaatsen. In dat geval is het je verdiende loon en heeft het systeem precies gedaan waarvoor het gemaakt is!
Je hebt nu wel heel veel vertrouwen in het systeem, waarbij je er vanuit gaan dat alle hashes in de database daadwerkelijk valide zijn. In het (zeer recente) verleden is al gebleken dat je daar absoluut niet 100% zeker van kan zijn, met alle gevolgen van dien: nieuws: TransIP pauzeert HashCheckService na onterecht verwijderen van afbeel...

Over dat het handmatig controleren van privé foto's onwenselijk is, zie mijn andere reactie (voor in de toekomst, je kunt je reactie ook bewerken i.p.v. een dubbele reactie plaatsen ;) )
Dan moeten de foto’s eerst gestolen zijn, vervolgens moeten ze nog in een circuit terechtkomen en daarna moet iemand van justitie jouw onschuldige foto’s nog als kinderporno aangemerkt hebben.
Dat nog los van dat er een beoordeling plaatsvindt na een melding van het systeem.
Ik was skeptisch, maar eigenlijk begin ik door jouw comment te denken hoe makkelijk zoiets juist kan gaan. Op Facebook een onschuldige foto van je kind plaatsen op het strand die in verkeerde handen toch als 'erotisch' betiteld kan worden en in de collectie van bepaalde types terecht komt.

Onze hersenen werken anders, wij zien waarschijnlijk de lust-potentie niet in. Maar veel foto's kunnen daardoor toch in die kringen belanden en jou op die weg misschien wel veel gedoe bezorgen.
Het gaat om misbruikfoto’s, niet om iedere foto die mogelijk bij pedofielen opwinding kan veroorzaken.
Denk je? De schaal gaat zeer snel schuiven -- kun jij vantevoren aangeven waar een pedofiel we;/niet opgewonden van wordt?

"Misbruikfoto's" is lekker breed, het kan van alles, maar dan ook echt van alles zijn -- weet jij wat er in die database zit? Denk aan die Deense vader en zijn dochter.
Wat ik wil zeggen is dat de opgewonden pedofiel niet de maatstaf is. Die kan ook opgewonden worden van spelende kinderen in een speeltuin, maar dat is geen misbruik en zo'n foto's zitten ook niet in de database want dan zou nu 75% van de inwoners van de VS vervolgd worden.
Er is controle op wat er aan de database wordt toegevoegd, maar dan wel volgens Amerikaanse maatstaven. Dat kan natuurlijk botsen met Europese maatstaven, maar daarvoor wordt er nog altijd een menselijke check uitgevoerd.
En de menselijke check is dat iemand zonder jouw toestemming een foto mag bekijken? De database is ook faalbaar … het is een slecht idee.
Je hebt wel toestemming gegeven voor het inzien van de foto's via de gebruiksvoorwaarden van de cloud. Als Apple vermoedt dat er onwettelijke praktijken plaatsvinden mogen ze je foto's checken.
Ja, de database is feilbaar maar dat is het hele justitiële apparaat ook. Dan kun je geen enkele opsporing meer legitimeren omdat er ergens wel iemand kan falen.
De vergelijking van jouw foto met de "kinderporno database" gebeurt, indien niet nu, dan wel in de toekomst, met AI op basis van de bestaande referentiedatabase. En dit blijft ongetwijfeld niet beperkt tot kindermisbruik ..

Big Brother is watching you!!! Het excuus begint altijd met "kinderporno", "terrorisme", enz.. Het is ALTIJD voor je eigen bestwil. Intussen wordt je van alle kanten besnuffeld. Bedrijven en overheden willen ons permanent in de gaten houden om ons tegen onszelf te beschermen ...

Een verkeerd woord en je wordt opgepakt, dat is de toekomst. Tenzij we er met z'n allen iets tegen doen.
Zucht... ALLE foto's die worden toegevoegd zijn handmatig bestempeld als kinderporno (even los van foutieve uploads die heel snel weer verwijderd worden).

Dit soort databases zijn ooit in het leven geroepen om bestaand beeldmateriaal van kinderporno te herkennen en te voorkomen dat hetzelfde materiaal over en over bekeken moet worden. Ook om de betreffende rechercheurs te beschermen, aangezien het kijken van dit soort materiaal ook op hun een behoorlijke impact gaat hebben.

Mocht een rechercheur (uit welk land dan ook) "nieuwe" kinderporno vinden dan zal er door de verschillende instanties (zoals ational Center for Missing and Exploited Children) van de betreffende foto een nieuwe hash gemaakt worden en dit toegevoegd worden aan de database.

[Reactie gewijzigd door MazeWing op 6 augustus 2021 09:27]

De persoon waar je op reageert spreekt over een (hypothetische) toekomst, dan hoef je het apple systeem niet nogmaals uit te leggen. Microsoft gebruikt al wel een AI om zonder hashes KP op te sporen, dus zo gek is de gedachte ook niet.
Ik voorzie een markt voor nieuwe afbeeldingen. Apple-proof kinderporno, nu voor maar 1 bitcoin per gigabyte!
Dat hoeft helemaal niet de toekomst te zijn. Dat weet je niet en die stelling is nergens op gebaseerd.
Nee we hebben nog nergens eerder meegemaakt dat fotos voor een bepaald doel worden gebruikt en later toch voor een doel worden ingezet waarvan initieel werd aangegeven dat dat NOOIT zou gebeuren? Belastingdienst en politie anyone???

Als ze op een gegevenmoment AI gaan gebruiken voor het herkennen van dit soort stuff en dat is de toekomst dus dat kan ik je bijna op een plaatje geven, ga je hier hetzelfde krijgen als met content op youtube en twitter en al dat gedoe. Wij als bedrijven vinden iets ook al kan je aantonen dat het niet zo is of wel vrijheid van meningsuiting is of wat dan ook voor basisrecht, fotos van je baby die je in bad doet voor de eerste keer, je hebt onze regels overtreden, dus we kicken je van onze dienst.

Ik zie dit soort dingen dus echt niet zitten, je de insteek is goed, maar er komen altijd schrijnende gevallen uit voort waarbij onschuldigen als schuldig worden weggezet en dat niet meer terug kunnen draaien.
Het is nooit anders geweest dat het met iets kleins begint en het steeds verder uitgebouwd wordt. Zie bijvoorbeeld DigiD. Aanvankelijk zou dat zijn voor inloggen bij de overheid. Maar intussen heb je het ook nodig voor bijvoorbeeld jouw verzekeringen zoals pensioen en zorgverzekering.
En wat is er mis mee dat digid wordt gebruikt op andere platforms? Op een laagdrempelige manier kun jij wel inzien wat jouw pensioenrechten zijn. Ook van een werkgever van 30 jaar geleden.
Ik zeg niet dat er iets mis mee is, al vind ik wel dat men zich aan hun woord moet gaan houden. :)
Zo zie je ook dat diverse gemeentes er achter komen, dat containers te chippen zijn. Dan wordt dat eerst gedaan onder het mom van 'we willen inzicht krijgen in gebruik van containers en de stroomlijning van het ophalen van het afval'. Een jaar of twee later is het dan opeens 'We willen per opgehaalde container centjes vangen, want duurder geworden (nadat er bezuinigd is...). Maar wacht eens, de containers zijn al gechipped, dus er is niets nodig, uw gegevens hebben we toch ook al*'. :) Ook een gevalletje van de hand nemen, nadat de vinger verkregen is.

* Hier zou je prima weer kunnen betwisten waarom adresgegevens gekoppeld zijn aan de RFID chip, als in eerste instantie alleen de chip gebruikt is voor het bepalen van de statistieken en het verfijnen van de ophaaldienst. Je zou dus best kunnen zeggen dat men twee jaar daarvoor al wist dat men per opgehaalde container in rekening wilde brengen, maar dat niet gelijk zo rigoureus wilde doen en langzaamaan mensen wilden laten wennen.

[Reactie gewijzigd door CH4OS op 6 augustus 2021 12:39]

Volgens mij is het van begin af aan al het doel geweest van DigiD om uiteindelijk ook bij niet/semi overheidsorganisaties te kunnen identificeren, alleen is het door de jaren heen stapsgewijs uitgerold.

Je hebt gelijk dat er soms sprake is van een 'slippery slope' (zoals je in je andere reactie met de vuilcontainers benoemt), maar ik denk niet dat DigiD daar het juiste voorbeeld van is (dat zou het wel zijn als DigiD op termijn ook een manier wordt om bijv. bij je supermarkt een bestelling te kunnen plaatsen - en ik hoop van harte dat het nooit zo ver komt).
Volgens mij is het van begin af aan al het doel geweest van DigiD om uiteindelijk ook bij niet/semi overheidsorganisaties te kunnen identificeren, alleen is het door de jaren heen stapsgewijs uitgerold.
Zo is het destijds echter niet aangekondigd. ;)
Hmm, ik herinner me het zelf anders, maar het is ook alweer best een tijd geleden. Ik kan er zo snel ook geen nieuwsberichten o.i.d. over terugvinden.
Sterker nog, op Wikipedia staat zelfs dat het systeem zelfs nu nog bedoeld is om in te loggen bij de overheid. Over DigiD en niet-overheid (wat een verzekering is...) schrijft men het volgende:
Met de komst van het burgerservicenummer, dat per 26 november 2007 het sofinummer verving, kunnen in theorie ook andere overheidsorganisaties zich op DigiD aansluiten, bijvoorbeeld zorgverzekeraars, onderwijsinstellingen en zorginstellingen. Er zijn diverse organisaties die nadenken over het gebruik van DigiD voor identificatie en authenticatie. Op dit moment mag DigiD daarvoor formeel niet worden gebruikt, omdat DigiD alleen op basis van het burgerservicenummer de authenticatie kan uitvoeren. Alleen bestuursorganen van de overheid mogen dergelijke informatie gebruiken en alleen aan hen mag DigiD 'het resultaat van de authenticatie' melden.
Ik betwijfel dat zorgverzekeraars, pensioenfondsen etc. en masse gebruik mogen maken van DigiD zonder wettelijke basis. Het gaat er om dat zij een wettelijke taak uitvoeren, en dat daarom DigiD voor identificatie mag worden ingezet (zie https://www.digid.nl/wat-is-digid/wie-doen-mee/).

De paragraaf in dat Wikipedia-artikel vind ik ook niet echt helder geformuleerd hierover (en heeft ook geen bronvermelding o.i.d.).
Wat @janbaarda volgens mij probeert aan te geven is dat het een glijdende schaal is. Omdat meer en meer digitaal gebeurt, is het voor opsporingsdiensten lastiger om te vinden wat ze zoeken.
Daarnaast is het wel degelijk zo dat terrorisme en kinderporno aangezwengeld worden om zaken er door heen te krijgen. In de VS is het aantal doden van terrorisme heel laag maar toch wordt daar de aanval op geopend, en niet zaken met hogere doodsoorzaken (guns, obesitas, etc).

En hoewel je misschien niet gelijk opgepakt wordt, een eerder artikel op Tweakers vertelde dat accounts afgesloten worden als er per ongeluk iets gevonden word. Dan ben je dus alles kwijt. Ik vind dat heel ver gaan.
Na 1 minuut googlen:
https://www.duic.nl/algem...valcontainers-te-spotten/
https://nos.nl/nieuwsuur/...n-nieuw-wapen-de-scanauto
https://www.ad.nl/rotterd...n-tegen-te-gaan~a72c18ab/

De scanauto's van de gemeentes zouden in eerste instantie alleen bedoeld zijn om voor parkeerboetes te controleren. Ondertussen willen gemeentes ze voor steeds meer zaken inzetten. Daar stuiten ze soms tegen juridische bezwaren (omdat sommige burgers ze daar gelukkig op wijzen), maar ze blijven de rand opzoeken.

Toen ik laatst tijdens een inspraakavond over betaald parkeren vroeg hoe het zat met de gegevensverwerking van de scanauto, stond de ambtenaar met zn mond vol tanden. Het is soms niet eens opzettelijk wetgeving overtreden, veel ambtenaren hebben gewoon weinig kaas gegeten van privacywetgeving en digitale zaken. Door het gebrek aan kennis en kunde kan dit gigantisch uit de hand lopen.
Zelfs in gemeentes waar er wel kennis van zaken is, moet de privacy-verantwoordelijke steeds opboksen tegen andere afdelingen die continu met de argumenten "veiligheid" en "inkomsten" (vanuit parkeertarieven en boetes) wapperen. Tel daar bij op dat veel gemeentes krap bij kas zitten, relatief weinig inkomstenbronnen hebben en gekort zijn door de rijksoverheid. Dan zijn inkomsten uit parkeerplekken en boetes vaak een welkome aanvulling op de begroting, en is men ook sneller geneigd een oogje toe te knijpen op het gebied van privacywetgeving (met de hoop dat er niet al te veel burgers aan de bel trekken).

Nu wil ik niet zeggen dat je die auto's voor niets anders mag gebruiken dan foutparkeerders op te sporen, maar ik vind het behoorlijk eng dat er inmiddels ook hier meerdere keren per dag zo'n auto door de straat rijdt en ik als bewoner niet weet wat er allemaal met die beelden wordt gedaan, hoe lang ze worden bewaard, en waaraan ze nog meer worden gekoppeld.

[Reactie gewijzigd door Tc99m op 6 augustus 2021 18:40]

Ik dacht zelfs dat Apple niet in je foto's kon/wilde zien omdat het privacy super belangrijk was. En dan bedoel ik medewerkers van Apple die met systemen normaal aan je gegevens kunnen. Niet de database admins die rechtstreeks in de code/data kunnen.

Complex en gevaarlijk zulke dingen. Iedereen wil dat de terroristen en kinder porno van de wereld is maar niemand wil onterecht mensen beschuldig hiervan. Ik vraag me ook af hoe dit verder gaat evalueren.
Het is onduidelijk waar ze de een op een miljard op baseren.
Dit gaat niet alleen om hash collisions maar ook om menselijke fouten om verkeerde gegevens in de database te zetten, daarin te houden, dat een medewerker van Apple verkeerde beslissingen kan maken waar je als klant geen zeggenschap over hebt. De kans die Apple hier noemt lijkt dus meer op marketing zodat het acceptabel klinkt. Het hoort een waarde te hebben waarvan duidelijk is dat die redelijk tot stand is gekomen en wat de praktische gevolgen zijn.
"Het is onduidelijk waar ze de een op een miljard op baseren"

Apple is een kei in marketing ... waar denk je dat ze het anders op baseren? Lekker een groot nummer uit je duim zuigen, wellicht komt het uit hun "bionic" chip
Ik verwacht eerder dat ze het baseren op waarschijnlijkheidsberekening van hash collision.
Maar dan nog is daar transparantie over nodig. Het gaat er namelijk niet alleen om dat Apple een inschatting maakt, maar dat de klanten die inschatting kunnen controleren en daar kritisch over kunnen zijn voordat gezien de mogelijke gevolgen voor de klanten. Er is nu zelfs niet duidelijk waarom de bewering van Apple zou kloppen of redelijk is. Dat is als mee doen aan een loterij zonder te weten of je de organisator wel kunt vertrouwen terwijl die zowel de controle over de inleg als de uitkomst heeft.
Het is onduidelijk waar ze de een op een miljard op baseren.
Klopt. In het brondocument wordt trouwens ook over "one trillion" gesproken. Wat nog 3 nulletjes meer is. Maar het blijft onduidelijk.
Los van hoe dit werkt, ik denk niet dat dergelijke lui (hoe verachtelijk het ook is...) hun bestanden niet meer zonder encryption online gooien. Dan kun je leuk zulke hashes hebben van illegaal materiaal, als de boel versleuteld is heb je nog weer een andere hash en zul je de inhoud letterlijk nooit kunnen vinden.

Dus hoewel dit goed bedoeld is van Apple, vraag ik mij af hoeveel vruchten het zal afwerpen, ik denk eigenlijk vrij weinig, dergelijke lui zijn ook niet op hun achterhoofd gevallen en zullen dergelijke content eerst versleutelen voordat men het naar welke cloud dan ook uploadt.

In het ergste geval mondt dit dus uit op een kat en muis spelletje.

[Reactie gewijzigd door CH4OS op 6 augustus 2021 09:22]

Klopt, je gaat hiermee vooral de naievelingen mee pakken, maar dat zijn er toch heel veel. Hier op Tweakers weet iedereen wat je wel en niet op je telefoon en in de cloud moet doen, maar in het “wild” zijn er nog steeds heel veel mensen die er geen flauw benul van hebben.
Ik snap dat die mensen er zijn, maar ik denk niet dat dat lui zijn dit ook dit soort zaken (willen) bewaren. Dergelijke 'communities' (en ja, die zijn er, spijtig genoeg!) helpen elkaar simpelweg, net zoals wij hier mensen helpen met hun computers, als zij problemen hebben. ;)
Maar in die communities zal het eerste advies zijn: zet dit materiaal NOOIT op je iphone of in de cloud.
Precies en daarbij zal alles wat ze willen beschermen encrypted zijn -- doei doei met je hash
Dat is toch precies wat ik zeg... lees even de hele subthread door...
Nou ja, denk dan eerder nooit onversleuteld. ;)
Lijkt me ook dat de georganiseerde misbruik-scene hier grotendeels buiten schot blijft. Die zitten op dark-net fora, en uploaden echt niet naar iCloud.
Maar ook de mensen die diep verscholen te werk gaan (Dark-net) hebben regelmatig een iPhone, wie weet dat zo iemand een keer per ongeluk een "foute" USB stick aan z'n iPhone hangt en een upload triggered. Dan krijg je wel gelijk een hele hoge match rating en zie je dat er iets aan de hand is. Iedereen maakt ICT fouten, ook de misbruikers.
iCloud gebruikers werken sowieso over het algemeen met een Apple, er zullen vast ook gebruikers zijn op Windows of Linux, maar het overgrote deel zal denk ik wel een Apple device gebruiken. De beveiliging daarop is wel beter en ook Windows doet standaard niet meer zomaar alles uitvoeren vanaf de USB stick.

Dat er direct een upload start nadat een USB stick in de computer is gestoken, zie je echt alleen nog in films. ;)
kan ik niet anders dan dit te omarmen.
Want?

Even serieus he. Dit werkt alleen tegen bestaand pornografisch materiaal wat door een organisatie als CSAM is aangemerkt. Nieuw materiaal (wat je dus zelf met je iPhone schiet valt hier onder). Als je dit eenmaal in iCloud hebt staan en het daarna publiceert is de vraag of het dan daarna ook gemarkeerd wordt, want de check wordt maar eenmalig uitgevoerd lijkt het.

Het gaat alleen over iCloud en de sharingservices die er aan hangen. Lokaal op je apparaat hebben is an sich geen probleem. Ben je dus iemand die hier echt in meedraait dan dus geen iCloud meer gebruiken dus. Simpel zat.

Ik ben normaal behoorlijk fan van Apple en haar privacy features, maar dit doet mij echt denken aan een "think about the children". Niks houd iemand tegen nieuw materiaal te maken <insert shot on iphone meme>, maar iedere foto die jij en ik nu maken wordt door zo'n hashing algoritme getrokken om te checken tegen GEPUBLICEERD materiaal.

Ik ben daar best wel huiverig voor.

edit: Nog maar even zwijgend over de auto download van veel applicaties. Whatsapp zet fotos direct door naar iCloud dus iedereen kan mij een foto sturen met kinderporno en die wordt automagisch gescanned, getagged, en gemeld. Thanks!

[Reactie gewijzigd door supersnathan94 op 6 augustus 2021 09:41]

Whatsapp zet fotos direct door naar iCloud dus iedereen kan mij een foto sturen met kinderporno en die wordt automagisch gescanned, getagged, en gemeld. Thanks!
WhatsApp zet geen foto's door naar iCloud. WhatsApp kán binnenkomende foto's automatisch opslaan in je filmrol (als die functie op jouw telefoon aan staat) en je iPhone kán foto's in je filmrol automatisch uploaden naar iCloud (als die functie op jouw telefoon aan staat). Als een van beide opties uit staat (of allebei) heb je hier al geen last van. Als je betrouwbare vrienden hebt ook niet.

Overigens: als je echt daadwerkelijk in zo'n situatie verdachte zou worden, gaan ze natuurlijk ook uitzoeken hoe je aan die foto bent gekomen en is de verzender ook meteen verdacht. Niet zo slim dus om dit soort foto's bij wijze van grap of pesterij aan anderen te sturen.

In Nederland is bezit van kinderporno trouwens per definitie illegaal, ook als je het hebt gekregen. Als je het daar niet mee eens bent (wat ik me best kan voorstellen), moet je dus eerder bij de wetgever zijn dan bij Apple.
Nu wordt er alleen gekeken naar hashes, maar het is zo makkelijk om de waarde van een pixel aan te passen en de hash klopt niet meer. Gaan ze dan de foutmarge vergroten of alleen de database met hashes uitbreiden met de nieuwe hashes? En wat als je een foto maakt van een heel ander onderwerp, maar met een hash uit de database?

Wat mij meer stoort is dat je geen melding krijgt met de vraag of je het kan uitleggen/aangeven waarom Apple fout zou zitten. Je account wordt gelijk gesloten, zonder mogelijkheid om dit aan te kaarten/aan te vechten. Als de kans zo klein is dat het fout gaat kan Tim Cook het dan niet persoonlijk komen oplossen, of komt het toch vaker voor en kost dit teveel FTE's?
Heb je het artikel uberhaupt gelezen?

Het systeem is zo gemaakt dat foto's ook herkend worden als ze licht gewijzigd zijn.

In het Tweakersartikel staat verder niets over het sluiten van accounts. In het oorspronkelijke bericht van Apple staat daar wel iets over, namelijk:
Apple then manually reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated.
Mag ik nu geen foto's en fimpjes van mijn dochters eerste badje meer maken?
Het wordt op dit moment alleen vergeleken met bekende kindermisbruik-foto's. Daar is een database met hashes van die nu ook al door opsporingsambtenaren gebruikt wordt.
En daarin zit dus het probleem: er is geen transparante controle om te voorkomen dat gegevens over onschuldige fotos in die vergelijking komen. Er is nu al geen duidelijke controle op.
Waarop baseer je dat? Heb je daar een bron van? Zover ik weet wordt er door mensen beoordeeld welke foto’s wel en niet in die database thuishoren volgens bepaalde richtlijnen.
Het antwoord zit in je vraag. Omdat er geen transparantie is kan geen bron aangewezen worden die transparantie geeft.

Als we willen weten of dit systeem wel redelijk is dan is het aan de makers en ondersteuners ervan om dat duidelijk aan te tonen. Het is de omgekeerde wereld dat klanten maar zelf de bewijslast hebben om over iets waar ze geen inzicht in hebben, geen controle over hebben, maar wat wel tegen ze kan werken.

Apple stelt hier dat ze op basis van gegevens op de verkochte apparatuur van klanten bewijs tegen klanten mogen verzamelen. Dan is het niet redelijk om de verdediging over dat systeem bij de klant te leggen als die bezwaar heeft.

[Reactie gewijzigd door kodak op 6 augustus 2021 10:54]

Maar heb je nu een bron dat de database van het National Center for Missing and Exploited Children niet objectief is samengesteld en dat er geen controle is op de inhoud?
Waarom blijf je de vraag omdraaien dat de klant maar met een bron moet komen dat Apple een behoorlijke controle doet?
Ik draai niets om. Apple omschrijft prima hoe ze te werk gaan en dt beoordeling plaatsvindt op basis van een database van een bevoegd instituut. Jij beweert vervolgens dat daar van alles mee mis is en ik vraag om een bron voor die bewering.
Als klant heb je een relatie met Apple. Daar koop je het apparaat waar zij achteraf iets mee willen, onder eenzijdige voorwaarden, onder wat Apple goed uit komt.
Het is dan niet redelijk om te stellen dat je hun woorden dan zomaar accepteert als waarheid, dat dient te blijken uit wat ook voor de eigenaar acceptabel is. Jij kunt van mening zijn dat je Apple wel graag vertrouwd terwijl je er verder geen controle over hebt, maar dat klinkt niet verstandig bij de mogelijke gevolgen.
Daarnaast is het je goed recht om te vertrouwen in leveranciers van een bedrijf dat iets op jou apparatuur wil, maar daar gaat dit niet alleen om. Het gaat ook om hoe apple gegevens van de leverancier gebruikt, hoe ze vergelijken, wat er bij die leveranciers en apple mis kan gaan en hoe die gevolgen meegewogen zijn en voor wie die gevolgen zijn. Het is mensenwerk, mensen maken fouten, dan klinkt zomaar vertrouwen omdat het je nu goed uit komt niet verstandig en zelfs niet redelijk.
Je beweerde “er is geen transparante controle om te voorkomen dat gegevens over onschuldige fotos in die vergelijking komen. Er is nu al geen duidelijke controle op.”

Volgens de specificatie van Apple is die controle er dus wel. Van jou wil ik dus weten waar je het op baseert dat die controle er niet is.
Het gaat niet om het vertrouwen in Apple maar om jouw stelligheid dat die controle ontbreekt. Het zou kunnen dat Apple liegt maar dan zou ik daar een bron van willen zien en geen insinuaties.
De specificatie van Apple is niet de specificatie die ik kan accepteren.

Ten eerste omdat Apple de grens tot enkele technische zaken beperkt.
Ten tweede omdat een systeem meer is dan de techniek.
Ten derden omdat Apple geen openheid geeft wat hun keuzes zijn geweest om bepaalde specificaties wel en andere te betrekken op wat ze aan klanten vertellen.
Ten vierde omdat zelfs de specificaties die ze wel geven geen duidelijke overwegingen tonen waarom het volgens hun redelijker is om te accepteren.

Als je dat soort specificaties van Apple wil accepteren dan is dat wel degelijk een kwestie van vertrouwen. Je hecht kennelijk meer waarde aan de stelligheid van Apple dan van bezorgde klanten die eigen eisen hebben waar Apple niet aan wenst te voldoen.
Nee, daar gaat het niet om. Jij doet ongefundeerde uitspraken. Dat je Apple niet gelooft is prima, maar je insinueert van alles dat je niet hard kan maken.
Kritisch zijn als je als klant vooral onacceptabele nadelen ziet, samen met gebrek aan gehoor van je mening krijgen door een bedrijf dat iets van je gekochte apparaat eist is niet hetzelfde als iets onredelijks stellen. Omgekeerd geef ik diverse voorbeelden dat het onredelijk is waar jij vanuit gaat, waar je kennelijk liever niet op in gaat.
Wil je vervelend doen, stuur je een aantal foute foto’s via Whatsapp.
Komen automatisch ergens in je library te staan ook al verwijder je ze in WhatsApp , dus als je dan even niet oplet, heb je een probleem
Ik zat al te wachten op dit antwoord. Dan moet je handmatig de optie “Voeg toe aan filmrol” uitzetten in je whatsapp settings. Maar ja…. die optie staat dus standaard aan en het gros zal hem dan kennende niet uitzetten.

Kan dus nog wel eens een probleem worden.
Dan moet je wel zelf hebben aangegeven dat die foto’s van die chat in je photo library opgeslagen moeten worden. Zelf heb ik dat alleen van de familiechat aan staan.
Dit zit standaard aan toch? Veel mensen weten niet dat je dit uit kunt zetten.
Nee, staat standaard uit op de iphone.
Tuurlijk mag, maar ik zou ze niet meer uploaden naar iCloud of Google photos, Onedrive want dan zou je wel eens aangemerkt kunnen worden.
Ja, dat is wel het lastige van alles verschillende moralen, ik weet niet of apple de foto's automatisch upload
maar daar zal je snel genoeg achter komen als ze het wereldwijd gaan invoren na de test.
Mijn dochter nu 8 wil nog steeds samen douchen en in bad met papa, als je dit tegen een amerikaan
zegt kijken ze je raar aan, zoiets doe je daar niet meer als ze 3-4 jaar oud zijn.

Mijn dochter liep ook altijd naakt rond in huis omdat ze dat fijn vond, dat houd wel in dat
als ik naar de VS wil reizen ik eerst een andere SD kaart moet kopen voor mijn camera,
en beter mijn laptop thuis kan laten....
Ik snap je angst maar als je leest hoe het werkt heb je niks te vrezen. Je foto zal dan niet in de cloud database staan waar gevlagde content staat. Dus er zal dan ook geen match komen.
Tsja om eerlijk te zijn ga ik zelf altijd voorzichtig om van foto's waarop mijn jonge kinderen naakt zijn. Ik vind naaktheid helemaal prima, ook als ze al wat ouder zijn, maar als ik daarvan foto's zou hebben, dan zou ik die niet op een sd meenemen op reis. Geen zin in dat die kwijtraakt of gestolen wordt.
Ik denk dat hier een groot gevaar schuilt, namelijk de verpreutsing van de maatschappij. Normaal gedrag wordt straks als abnormaal gezien. Normaal naakt, zal straks kinderporno zijn. Wat normaal is, heeft met cultuur te maken.

Onze kinderen worden vrij opgevoed. We gaan met het gezin naar de sauna en naakt rondlopen is heel normaal. Geen schaamte. Ik weet ook dat het bij andere gezinnen heel anders kan zijn.
Ook in Nederland zijn er verrassend veel ouders die gewoon helemaal niet met hun kinderen durven te douchen, of kinderen die al praten en dan voor het eerst vragen stellen over het geslachtsdeel van papa omdat ze die nog nooit hebben gezien. Is dus zeker niet iets dat alleen in Amerika gebeurt.

Maar toch wel een heel raar idee inderdaad dat foto's van je eigen kinderen waar helemaal geen andere bedoelingen achter zitten je op een of andere lijst kunnen laten belanden..
Nee, zo werkt het dus juist niet bij iCloud foto's. Ze hebben een lijst met foto's waarvan ze bijvoorbeeld uit een opgerold kinderporno netwerk komen, daar maken ze hashes van en vergelijken die met de hashes van de foto's op je telefoon. Ze gaan niet zelf de foto's van je kinderen waar ze toevallig bloot op staan markeren als kindermisbruik.

De kans dat je instagram foto van je lunch of koffie een false positive geeft is net zo groot als een privé foto van je kleine kids.

Ik weet zelf niet goed wat ik hiervan moet vinden. Aan de ene kant is het goed, maar aan de andere kant zet dit wel de deur op een kier om dezelfde techniek te misbruiken om erachter te komen wie een bepaalde foto op hun telefoon hebben staan. Hoe gaat Apple waarborgen dat dat alleen maar gaat om beelden van kindermisbruik?
Het hele punt was toch dat Apple eco-systeem zo veilig was(is) nu ga je dus dit tegenwerken.
Hoe veilig dit is zal in de praktijk moeten blijken. Als het correct werk, zoals het beschreven is is dit gewoon handhaving van iets dat bij wet verboden is, zonder dat privacy aangetast wordt.
Als nu alle foto’s van je geindexeerd zouden worden, had je een punt gehad.
Natuurlijk mag dat, maar je kan dit niet aan een derde partij/dataverwerker toevertrouwen. Zeker wanneer dit "gratis" wordt aangeboden. (tot 5 GB blijkt de iCloud gratis te zijn)

[Reactie gewijzigd door Soggney op 6 augustus 2021 08:55]

Gratis of niet maakt het verschil niet. Zelfs betalend moet je het niet doen.
De foto’s worden vergeleken met hashes van bekende misbruikfoto’s. Een privéfoto staat als het goed is niet on die database.
Het systeem controleert alleen op bekende foto's van kindermisbruik, dus die zijn gevonden door opsporingsdiensten. Je eigen foto's zullen waarschijnlijk niet worden aangemerkt. Ik zeg waarschijnlijk omdat er dus een 1 op 1 miljard false positive kans is.

"[T]he system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child-safety organizations" (CSAM Detection, Technical Summary, p. 4)
Tja die 1 op 1 miljard bekt wel lekker. Maar dat betekent dat er op de schaal van Apple meerdere mensen per dag hun foto's begluurd gaan worden zonder dat dat nodig was geweest.
Ik denk dat die rode alarmbellen onterecht zijn. Als jij die foto's van je kindje in bad niet gaat delen met andere vaders die foto's van hun badende kinderen delen is er geen enkel probleem.

Het probleem is dat de iPhone dankzij zijn privacy features een veilige plaats is geworden voor pedofielen. Ik heb er dan ook geen enkel probleem mee dat Apple pedofielen de deur wijst. Wat je nu gaat zien is dat alle pedofielen met een iPhone onmiddellijk al hun shit gaan verwijderen en op zoek moeten op de zwarte markt naar een ander systeem.

Waneer pedofielen hun foto's naar iCloud sturen wordt iCloud een verzamelplaats voor kinderporno. Ik ben heel privacy minded maar ik ben dat geworden omdat technologie werd gebruikt om mij in te zetten als een geldmachine. Dat technologie mijn foto's scant naar kinderporno daar heb ik eigenlijk totaal geen probleem mee. Ik ga door deze technologie niet misbruikt worden. Integendeel die technologie zorgt ervoor dat kinderen niet misbruikt worden.
Het probleem is dat de iPhone dankzij zijn privacy features een veilige plaats is geworden voor pedofielen.
Ongelofelijk wat apple marketing allemaal voor elkaar krijgt.
Ben het eens met je, maar wat ikzelf een beetje krom vindt, wij hier zijn vrijer in de omgang dan de Amerikanen en dan gaan hun ons bepalen wat wel of niet kan? Beetje hypocriet niet? Zeker als je ziet wat er allemaal in dat land kan en normaal is.
Mijn vaderhart wordt in de eerste instantie bedroefd van dit soort nieuws.
De wereld waarin mijn kinderen (nu 15 en 12) terecht zijn gekomen is zo enorm afhankelijk van bigtech, controle-, deugdrang en regulering dat ik me afvraag waar de individuele vrijheid en verantwoordelijkheid is gebleven.

Natuurlijk ben ik tegen kinderporno/-misbruik maar dit soort "technology" gooit er steeds een discutabel scheutje bovenop.
Mag ik nu geen foto's en fimpjes van mijn dochters eerste badje meer maken?
Dit vind ik zo'n gekke reactie telkens. In het artikel staat:
Apple krijgt een database met hashes van foto's van kindermisbruik van organisaties die zich inzetten voor de bescherming van kinderen, zoals het National Center for Missing and Exploited Children.
Dus tenzij er foto's van jouw dochters in bad op pedosites rondcirculeren, zal je niet gevlagd worden. Is dat wel het geval dan lijkt het me als vader alleen maar prettig als je daarvan op de hoogte gesteld wordt.

En wat de fout positieven betreft: ik denk dat als Apple 1 van je foto's (verkeerd danwel correct) vlagt er geen actie ondernomen zal worden. Ik kan me goed voorstellen dat als kindermisbruik je jazz is dat je dan wel een meervoud aan foto's zal hebben, wat het voor Apple prima te doen maakt om een ondergrens hoger dan 1 aan matches te hanteren.
En als die foto’s dat dus wel doen kun je naast het trauma van foto’s van je kind op zo’n website ook nog je onschuld gaan bewijzen door een aanklacht die via een amerikaans bedrijf gaat (en wie weet waar die ‘flag’ overal blijft hangen).

Je ziet nu al talloze posts ook hier op tweakers over afgesloten cloudopslag met het vermoeden dat het flags van kinderfoto’s zijn, kan je voorstellen wanneer ook je hardware op slot gaat en er meteen aan de politie wordt doorgegeven dat je verdacht bent?
Mag ik nu geen foto's en fimpjes van mijn dochters eerste badje meer maken?
Volgens mij is jouw filmpje van jouw dochters geen bekende hash, en zal hij dus nooit aangemerkt worden als kindermisbruik.
Ik heb hetzelfde. Maar mijn vaderhart overheerst toch meer in dit geval. Er wordt naar mijn idee nog veel te weinig gedaan tegen kindermisbruik en kinderporno. Het is afwachten hoe dit uitpakt maar als 1 op 1 miljard false is neem ik dat graag voor lief.
Het is afwachten hoe dit uitpakt maar als 1 op 1 miljard false is neem ik dat graag voor lief.

Dat is een mooi statement als je geen last hebt van de problemen.

Het kan dus ook betekenen dat een kwaadwillend iemand jou "voor de lol" shit gaat opsturen via whatsapp oid. Wat dus automatisch in jouw filmrol en icloud terecht komt. En vervolgens ben jij jouw account kwijt met alle gevolgen van dien (al jouw eigen data staat daar ook in).

En ja, dat is een extreem voorbeeld. Maar dergelijke acties gebeuren gewoon. Er lopen een hoop gekken rond.

De vraag is even hoe betrouwbaar de database blijft. Of gaan we met een paar jaar een algoritme zelfstandig laten bepalen of iets kinderporno is? (aangezien we nogal algoritme geil aan het worden zijn). Dan is het hek helemaal van de dam. Een menselijke review is leuk, maar in de praktijk weinig meer dan een "computer says no" en jij bent maanden of misschien wel langer bezig met je onschuld bewijzen.

1 op 1 miljard is gigantisch, als de potentiele gevolgen dat ook zijn. En gezien de soms nogal spastische houdingen rondom elk vermoeden van (kinder)misbruik (ook als er niks bewezen is) zijn de gevolgen in potentie gigantisch.
Mijn whatsapp media komt niet in iCloud, tenzij ik daar specifiek voor kies. Dus die exploit zit er niet in :). En mocht dat wel het geval zijn kun je dat aantonen.

Daarnaast wordt het nog door een persoon gecheckt voordat je meteen de cel in gaat voor bezit van kinderporno. Als het zo makkelijk gaat worden er echt wel aanpassingen gedaan.

Ik ben er niet zo bang voor, ook al gaat in dit in EU nog wel even duren gok ik gezien andere regelgeving.
Niet te vergeten Neurale netwerken kan je trainen.

Dus dat netwerk moet wel een paar miljard fail-safes hebben,
bv:
een foto van een kind in 5 lagen winterkleding als KP wordt geflagd.
omdat het netwerk zo is getraind om allen de verkeerde foto's te flaggen. en niet de foto's die daadwerkelijk KP zijn
Laat ik voorop stellen: kindermisbruik zou ten allen tijden voorkomen moeten worden.

Maar wat zijn exact de consequenties wanneer Apple dergelijk materiaal op je telefoon vindt? Dit doet me namelijk denken aan het probleem met Microsoft accounts die, weliswaar zonder de reden te delen, gesloten worden omdat er, vermoedelijk, foto's van eigen kroost in bad op het account staan.
Ik zie het al helemaal voor me: FBI die binnenvalt omdat je een foto van je kind in bad op je iCloud hebt staan. Natuurlijk werken ze met hashes, maar dat heeft Microsoft kennelijk ook niet weerhouden.

Om maar niet te spreken over het feit dat Apple de privacy van de gebruiker infiltreert.

[Reactie gewijzigd door Martinez- op 6 augustus 2021 10:43]

Voor zover ik weet worden de foto's alleen vergeleken met foto's die bewezen kinderporno zijn. De foto's van jouw kinderen in bad zullen dus geen positieve matches opleveren.
Dus voor die paar pedo`s en andere viespeuken, moeten we met z`n allen maar dit toelaten dat men mijn hardware checkt wat er op staat? Gaat heen zeg, laat het opsporingsapparaat aan justitie over en niet aan fabrikanten. En wil justitie in mijn telefoon/tablet/laptop kijken, dan gaarne wel eerst goedkeuring door de rechter. Privacy moet gewaarborgd worden, ondanks dat er een paar viespeuken rondlopen en niet andersom.
Ik heb het artikel even vluchtig doorgelezen, maar als ik het goed heb wordt er een hash gemaakt en die vergeleken met een bestaande database. Komt zo'n hash tot stand adhv pixel-info? Is het dan niet erg makkelijk te omzeilen door een afbeelding te croppen of simpelweg 1 of meer pixels anders te kleuren?
Ik heb het artikel even vluchtig doorgelezen...
Lees het nog eens wat rustiger door, staat er letterlijk in ;) Afbeeldingen die licht gewijzigd zijn, zoals verkleind, uitgesneden of in zwart-wit zijn omgezet, worden gewoon herkend.
Bedankt! Scheelt mij weer lezen :p
Daar dacht ik ook aan.
Kinder porno moet je natuurlijk niet willen. Maar ik heb ook genoeg foto's van mijn dochters toen ze klein waren in bad e.d.
Dat zijn gewoon prive foto's.

Ik zou het op zich niet erg vinden als je account gelocked wordt.
Als je maar eerst iets van een waarschuwing krijgt of de mogelijkheid om hier tegen in te gaan.
Van jouw privéfoto’s bestaan als het goed is geen hashes in een database van bekende misbruikfoto’s dus het risico dat een privéfoto wordt aangemerkt als misbruikfoto lijkt me klein.
Ik vraag me meer af welke moraal er gaat gelden. In de VS ismen zo preuts dat bepaalde platenhoezen al als kindermisbruik worden gezien of het werk van menig fotograaf uit Europa of Japan wat hier als kunst wordt gezien en in de VS als een vorm van kinderporno.
mogelijk dat apple daar iets slimmer mee omgaat dat MSFT.
Maar als je het mijn account is vergrendeld topic van MSFT bekijkt dan schrik je wel.

Ik bedoel met AI kan er veel.
Google photos herkend ook personen. Weet op welke fotos ik bier drink.
En wat paarden en honden zijn etc.

Maar dit soort techniek ziek ook een klein kind in bad en weet niet of die van mij is.
of dat ik gewoon foto;s verzamel van kinderen in bad?
In het artikel staat duidelijk dat er een vergelijk plaatsvindt met bekende foto’s. Als er een match is volgt er een melding. Het systeem gaat dus niet foto’s op inhoud controleren en op basis daarvan een melding doen.
Exact - wanneer er met redelijkheid het e.e.a. besproken kan worden, dan is het een ander verhaal. Dat zorgt er echter voor dat personen met een ander motief ook de mogelijkheid krijgen om hun afbeeldingen 'te verdedigen'.
In het artikel gaat het om het detecteren van bekende foto’s/slachtoffers. Justitie heeft lijsten met hashes van bekende foto’s. De foto’s op iCloud gaan tegen die lijsten getoetst worden.

Normaal gezien staan de hashes van je privéfoto’s dus niet in die lijsten.

(( disclaimer: bovenstaande is erg versimpeld uitgelegd, en denkt niet de volledige lading van wat Apple allemaal doet ))
Ooit support gecontact? Apple is dan nog wel ok. Google, Facebook? Maak maar een nieuw account
Als ik het correct heb begrepen, gaat het om hashes van bestaande, bekende kinderporno-afbeeldingen, niet een AI die probeert te kijken wat er op de foto staat.

Een foto die bekend is als zijnde kinderporno heeft een bepaalde hash. Als een afbeelding diezelfde hash heeft na encryptie, gaat die op de stapel en bij genoeg positieven, de treshold, gaat er dus ergens een belletje rinkelen.

Waar ik benieuwd naar ben: als mensen die dit soort materiaal bezitten en verkopen de afbeelding minimaal aanpassen (rode stip in de rechter bovenhoek bijv.), of dan de hash van het origineel nog steeds bruikbaar is?

Edit: Blijkbaar over het stukje heen gelezen waar bovenstaande punt wordt uitgelegd. Echter kunnen ze natuurlijk geen oneindig aantal aanpassingen van te voren berekenen, dus er gaat vast wel een persoon zijn die een manier vindt om te zorgen dat foto's andere hashes krijgen.

[Reactie gewijzigd door RVervuurt op 6 augustus 2021 09:04]

Het is niet ondenkbaar dat iemands privéfoto's op het web terecht zijn gekomen en dus zijn aangemerkt als kinderporno. Buiten dat feit om schept het natuurlijk ook een gevaarlijk precedent. Een AI die alle foto's controleert is een logische volgende stap als de infrastructuur er toch al is. Ook kan het programma gemakkelijk worden misbruikt om op hele andere dingen te controleren.
De AI's die ik tot nu toe foto's heb zien beschrijven, zijn verre van goed, dus het gaat nog wel even duren voordat we een AI aan de slag laten gaan.
Dat staat ook in het artikel. Aanpassingen aan foto’s kunnen bij het hashen genegeerd worden.
Hierbij krijgen verschillende foto's verschillende hashes, maar afbeeldingen die licht gewijzigd zijn, zoals verkleind, uitgesneden of in zwart-wit zijn omgezet, krijgen een identieke hash.
Deze techniek kan NOOIT alle kleine wijzigingen voorspellen, dus het wordt waarschijnlijk een kat-en-muis-spel tussen het aanmaken van nieuwe hashes en mensen die manieren vinden om een afbeelding genoeg aan te passen zodat deze een nieuwe hash creëert.
Dat kan, maar ik ben benieuwd wie via trial and error gaat uitproberen welke wijzingen wel en niet tot een match gaan leiden. Daarnaast gaat het Apple niet om een pakkans van 100% maar om een hulpmiddel. Als je dat soort foto’s in een cloud gaat zetten, heb je sowieso geen benul van IT. Er zullen weinig mensen zijn die hun fotocollectie gaan aanpassen zodat ze ze in de cloud kunnen zetten.
Dit is exact waar ik nu ook een beetje bezorgd om ben. Ik heb namelijk nog best veel foto's van de week dat mijn dochtertje vorig jaar geboren is waar ze niet altijd even charmant op staat. Zelf vind ik dat dit heel normale foto's zijn om te bewaren (net als dat er bij mijn ouders een fotoboek ligt met dit zelfde type foto's van mij net na mijn geboorte). Moet ik deze foto's nu van mijn telefoon halen en ergens offline opslaan, of kan ik deze foto's gewoon bewaren op mijn telefoon?

(ik heb ze expres nog niet op mijn pc gezet aangezien ik nog geen externe schijf heb liggen om ze op te zetten. Heb geen zin dat ze op one-drive komen en ik mijn xbox account weg kan gooien...)
Dan zet je ze in een folder die niet gesynced wordt door onedrive?
Nee hoor, daarvoor hoeft je niet bang te zijn. Er wordt alleen gekeken of jouw foto's overeenkomen met bestaande, bekende kinderpornofoto's.
Exact dit. Ook ik ben uiteraard tegen kinderporno. Laat daar geen twijfel over bestaan.

Mijn hele idee om mijn foto's op iCloud te zetten was:
1. Altijd voor mij overal bereikbaar
2. Belangrijker nog, lijkt me dat een veel veiligere backup

Maar account blokkade omdat mijn kind in een badje op een foto staat maar toch dat ik me toch onveiliger voel over punt 2.
En als zo'n account opkomt zal er denk ik toch handmatige controle uitgevoerd moeten worden op de foto's. Wat als ik gewoon een jonge vrouw heb en hou van spannend in de slaapkamer wat opnemen. Dit kan alleen maar fout gaan qua privacy.

En wat is de volgende stap?
Straks foto's/videos automatisch deleten op devices als ze als verdacht gemarkeerd worden?
En dan de volgende stap ook met andere media waarvan iemand vindt dat jij het niet mag hebben om andere redenen?
Klinkt allemaal dramatisch als ik het zo breng, maar vergeet niet dat dit soort argumenten over privacy en controle weggeven ooit ook gegeven zijn door tegenstanders van cloudservices en nu zien we het toch gebeuren met wat Apple nu gaat doen.

[Reactie gewijzigd door dangerpaki op 6 augustus 2021 10:40]

Een kan van 1 op de miljard lijkt welliswaar klein voor een individuele gebruiker, maar als je het wereldwijd trekt...

Volgens apple zijn er momenteel 1,65 miljard ios apparaten in gebruik. Ik denk dat 1 foto per dag een lage schatting is, dus laten we zeggen dat die gemiddeld 2 miljard foto's per dag maken. Dan zou dus elke dag twee mensen ten onrechte worden aangemerkt als kindermisbruiker waardoor waarschijnlijk hun hele leven onder een grote loep word gelegt door de authoriteiten en er is bijna altijd wel iets te vinden.

En dan zeggen ze ook nog niets over enige maatregelen vanuit apple zelf, grote kans dat ze gewoon je account op slot gooien (om bewijsmateriaal veilig te stellen) en je geen enkele mogelijkheid krijgt om ergens in beroep te gaan.
Het gaat om 1 op de miljard foto's waar hashes matchen, niet 1 op de miljard foto's.
En er vind een handmatige controle plaats na een positieve match.
Vooral dat laatste, dat ze je account op slor gooien en je nergens zinnig in beroep kan gaan ergens is gewoon niet correct. Zet dan een lock op de beelden die hey betreft dan weet je zelf namelijk ook over welke afbeeldingen het gaat en kan je dus inhoudelijk het gesprek aangaan.

Beter nog is om deze functie niet uit te rollen. Big tech gaat steeds meer op de stoel van opsporingsdiensten en censuur zitten en dat is in mijn ogen pertinent onjuist en geen gewenste ontwikkeling.
Ah de klassieke "we moeten je privacy schende omwille van de kinderen". Zielig om te zien dat de mobiele gigant welk zich op privacy prijst zo makkelijk omdraait.
Met het klassieke reacties van vele naïevelingen, van ojee Kinderen, ja dat is erg, dus ik geef mijn privacy daar graag voor op, zonder na te denken over eventuele verdere gevolgen.
Voor een probleem dat absoluut erg is, maar hoe vaak komt dat nu echt voor in de praktijk, en op welke schaal.

Als het nu scheer en inslag was, ja dan kan ik er wel meer achter staan, maar ik kan me niet voorstellen echte misbruikers, en ook terroristen (wat ook een graag gebruikte reden is voor dit soort systemen) nu echt dit soort apparaten gebruiken voor hun criminele activiteiten, en het voornamelijk mensen zijn die gewoon foto's nemen van hun kroost in privésfeer die door dit soort systemen worden gepakt.

Gezin : "Kijk Jan, onze dochter zit uit haar eigen in bad gekropen, met haar eendje, heb je een foto gestuurd.."
Apple : Misbruik, gerapporteerd.
Misbruiker : Kijk heb weer lading KP foto's gemaakt, echt niet ik die online zet zomaar, wil je ze hebben stuur maar een bericht, dan spreken we af.
Apple : We hebben niets fouts geconstateerd

Dit is wat ik tegen dit soort systemen heb.
Gewone mensen hebben er last van en worden beschuldigt, de echte criminelen pakken gewoon een alternatief.

Het is alsof je met een kanon een mug uit de lucht wil knallen, misschien hele kleine kans dat je eens wat raakt, maar de bijkomende schade is enorm.
Mijn vriendin (34) is ongeveer 3 turfen hoog en bijzonder tenger. Ik kan me best indenken dat een matig algoritme dit verkeerd intrepreteerd. Dus met andere woorden is er in mijn opinie een hoge kans op vals positief waardoor fotos die bijzonder prive zijn ineens onder ogen komen van een stel goornekken bij Apple.

Typisch een geschifte invasie van privacy met de hysterische reden: "denk toch aan de kinderen".

En natuurlijk heb je meteen een mooi antwoord op mensen met kritiek, stelletje viespeuken zijn dat.

Wie de propaganda van Apple slikt dat ze pro-privacy zijn moet toch eens achter de oren krabben.

En wat levert het echt op? Zijn de echte viespeuken niet ook handig met encryptie?

[Reactie gewijzigd door Hemingr op 6 augustus 2021 10:27]

>> Mijn vriendin (34) is ongeveer 3 turfen hoog en bijzonder tenger. Ik kan me best indenken dat een matig algoritme dit verkeerd intrepreteerd

Onmogelijk. Apple gebruikt geen algoritme om vergelijkbare foto's te vinden. Het moet daadwerkelijk een match zijn met afbeeldingen in de huidige CSAM database, dus tenzij de foto van je vriendin in de database staat, gebeurd er niets. Bron: https://www.apple.com/chi...ion_Technical_Summary.pdf

Dit betekend echter niet dat ik het eens ben met wat Apple geïmplementeerd heeft.

[Reactie gewijzigd door gerwim op 6 augustus 2021 17:17]

Ron Gongijp

Veel mensen weten niet dat elke kleurenprinter van dit moment zijn serienummer print op elk stukje lichter papier. Als jij een vierkante centimeter hebt van een moderne kleurenprinter geprint papiertje, dan zit er op die vierkante centimeter het serienummer van die printer. In gele stipjes gedrukt. Dat betekend dat je met elk stukje geprint papier wat je in handen hebt terug kunt naar de eigenaar van die printer. En de KLPD zegt al dat gebruiken wij dankbaar om mensen op te sporen die een stukje papier geprint hebben. ...

... In andere landen wordt dat al gebruikt om dissidenten op te sporen. Wat zegt een printerfabrikant als HP of Epson of wie dan ook op het moment dat de Chinese overheid zegt van dit stukje papier hier, daarvan willen wij weten wie het geprint heeft. Zeggen ze dan nee sorry? Nee natuurlijk zeggen ze niet nee sorry. Ze willen de Chinese markt niet kwijt


Een goedemiddag, met overheid X. Die kinderporno detectie is leuk enzo maar wij willen graag detectie van Y en Z om bepaalde mensen/dingen op te sporen. Dit blijft niet bij kinderporno en gaat ons in de toekomst wel een en ander kosten aan vrijheid. Systemen zoals dit moet je niet bouwen want de mensheid is niet in staat om er geen misbruik van te maken.
Nu een nog controle op hashes, maar je telefoon(en cloud opslag) gebruikt ook al Deep Learning algoritmes om je foto's te sorteren. So what's next? Straks worden al je foto's gecontroleerd en wanneer er iets tussen zit (wat volgens deze bedrijven) niet door de beugel kan, dan krijg je problemen. Dit gebeurd nu al regelmatig op Facebook en andere social media. Daar worden soms foto's verwijderd of accounts geblokkeerd vanwege bloot. Het soort bloot die wij in Nederland vaak als onschuldig zien (zoals je kind in een bikini of zwembroek). Dus deze christelijke moralistische praktijken uit de USA krijgen wij hier ook steeds meer opgelegd. Het begint altijd met goede bedoelingen, maar vergeet nooit: "de weg naar de hel is geplaveid met goede bedoelingen"

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



1 2 3 ... 9

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee