Apple gaat alleen misbruikbeelden scannen die in meerdere landen zijn gemarkeerd

Apple reageert deze week op kritiek op zijn plannen om iCloud te scannen voor foto's van kindermisbruik. Het bedrijf laat onder andere weten dat het alleen afbeeldingen gaat markeren die in minimaal twee verschillende databases voor kinderveiligheid voorkomen.

Apple hoopt dat dit het aantal false positives van deze feature tegen child sexual abuse material of csam tegengaat. Het bedrijf zegt daarbij dat deze databases in meerdere landen moeten staan. "De on-device versleutelde database voor kindermisbruik bevat alleen gegevens die onafhankelijk van elkaar zijn ingediend door twee of meer kinderveiligheidsorganisaties, die in afzonderlijke rechtsgebieden staan, en dus niet onder controle van dezelfde overheid vallen", schrijft Apple in een rapport over de komende veiligheidsfunctie.

Dit moet er in theorie voor zorgen dat landen er niet voor kunnen zorgen dat beelden zonder kindermisbruik gemarkeerd kunnen worden door het systeem van Apple. Het bedrijf laat verder weten dat de techgigant pas een iCloud-account zal markeren als het systeem dertig of meer afbeeldingen als kindermisbruik identificeert. Deze drempel zou gekozen zijn om een 'drastische veiligheidsmarge' te bieden, ter voorkoming van foutieve positieven. Deze drempel kan op termijn worden gewijzigd, naarmate de prestaties van het systeem in de echte wereld worden geëvalueerd.

Apple CSAM-scans
Afbeelding via Apple

Voordat deze drempel van dertig beelden wordt overschreden, kan Apple naar eigen zeggen geen gegevens ontcijferen en is het niet mogelijk voor Apple om het aantal matches voor een bepaald account te controleren. Nadat de drempel van dertig beelden wordt overschreden, kunnen Apple-servers alleen vouchers ontcijferen die overeenkomen met de positieve overeenkomsten. De servers krijgen geen informatie over andere afbeeldingen. Deze vouchers zouden toegang bieden tot een visuele afgeleide versie van een positief gemarkeerde afbeelding, zoals een versie met lage resolutie. Deze worden vervolgens menselijk beoordeeld, voordat de techgiganteen account afsluit en doorstuurt naar een kinderveiligheidsorganisatie.

Apple zou het verder mogelijk maken voor derde partijen om de csam-database te auditen. "Een auditor kan voor elke gegeven root-hash van de versleutelde csam-database in het Knowledge Base-artikel of op een apparaat bevestigen dat de database alleen is gegenereerd uit een kruising van hashes van deelnemende kinderveiligheidsorganisaties, zonder toevoegingen, verwijderingen of veranderingen." Veiligheidsorganisaties hoeven geen gevoelige materialen te delen om zo'n audit te faciliteren, meldt Apple.

Apple kondigde eerder deze maand aan dat het een csam-detectie functie zou toevoegen aan iOS 15 en iPadOS 15. De feature wordt gebruikt om foto's die gebruikers op iCloud zetten te scannen voor kindermisbruik, waarbij gebruik wordt gemaakt van databases met hashes van kinderveiligheidsorganisaties, zoals het National Center for Missing and Exploited Children in de VS. De feature wordt voor alle landen in iOS 15 en iPadOS 15 geïntegreerd, maar vooralsnog alleen ingeschakeld in Noord-Amerika. De techgigant schrijft dat het niet zal scannen naar onbekende afbeeldingen, die niet in csam-databases voorkomen.

Bij aankondiging hadden verschillende partijen kritiek op Apples plannen. Volgens het Center for Democracy & Technology zet het bedrijf hiermee een infrastructuur voor surveillance en censuur op die kwetsbaar is voor misbruik wereldwijd. Apple beloofde daarop de fotoscanfunctie alleen te gebruiken voor het opsporen van kindermisbruik. Apples softwarehoofd, Craig Federichi, erkende dat het bedrijf verwarring heeft gecreëerd met de aankondiging, maar de techgigant blijft bij de update. Het bedrijf heeft zijn uitrolplannen voor de feature niet veranderd na de kritiek.

Door Daan van Monsjou

Nieuwsredacteur

14-08-2021 • 10:10

337

Lees meer

Reacties (336)

336
327
170
34
2
100
Wijzig sortering
Het is jammer, en slim, dat ze kinderporno als onderwerp hebben gekozen. Dat polariseert de discussie, en het leidt af van de crux: de techniek en privacy.
Ongeacht het onderwerp dat ze zouden kiezen gaat dit onderwerp veel tegenkanting krijgen. Het is uiteindelijk een ernstige inbreuk op de privacy wanneer je afbeeldingen gaat scannen zonder dat mensen daarvoor kunnen kiezen.

Het grootste probleem voor mij is dat dit op het toestel zelf gebeurd en dat jij niet kunt kiezen om het niet te doen. En dan zeggen de voorstanders dat het enkel gebeurd als je sync hebt aanstaan met iCloud, maar we weten allemaal dat er wel eens configuratiefoutjes gebeuren, ook bij grote bedrijven, waardoor functionaliteit wel eens anders werkt dan datgene waarvoor het ontworpen is.

En ik snap nog altijd de noodzaak niet van Apple om dit te doen.
Het hele probleem en waar het om draait is dat apple nu een infrastructuur heeft die het mogelijk maakt foto's van jou telefoon te scannen.
Nu gaat het nog om kinderporno maar stop een foto van crimineel x in een database. Iemand upload foto vandaag genomen van persoon x in de database en hup een hit.

Gebruikers worden op deze manier verlengstuk van overheden die al dan niet goede of kwade bedoelingen hebben. In China kan en zal apple gewoon gedwongen worden mee te werken met het regime. Niet meewerken betekend vertrekken uit die markt.
Zou je deze infrastructuur niet hebben dan kun je ook niet meewerken als er niets is.

Apple heeft zich met dit systeem kwetsbaar gemaakt voor regimes die apple kunnen dwingen hun infrastructuur in dienst te stellen van dit soort regimes.
Het hele probleem en waar het om draait is dat apple nu een infrastructuur heeft die het mogelijk maakt foto's van jou telefoon te scannen.
Exact! en dat is waar de meeste media (bewust of onbewust) geen aandacht aan schenken. Grapperhaus achtige figuren zullen nu gelijk denken, waarom passen we dit van apple ook niet toe op tal van andere criminele activiteiten...als het voor kinderporno kan, kan het systeem ook gebruikt worden om foto's met bepaalde criminele kenmerken op te sporen (foto's met wapens bijv.) of regenboogvlaggen, of die met bepaalde religieuze symbolen.

Daarnaast komt nog het belangrijkste: je gaat hier de productie van kinderporno totaal niet mee afremmen laat staan stoppen.

Wat doe je als apple overigens als een Saudische man met zijn 14 jarige vrouw in bad zit en dit door een of andere organisatie in de VS als kinderporno wordt aangemerkt, maar in Saudi Arabie is dat religieus en maatschappelijk totaal toegestaan.
Toch lijkt het mij vrij lastig. De techniek die er nu gebruikt word scant geen foto's maar maakt hashes van de afbeeldingen. Dan moeten de afbeeldingen wel goed overeen komen moet het tot een match komen.
Unieke foto's die gemaakt zijn door de gebruiker zelf, en dus nergens anders voor komen of bekend zijn in de database zullen niet resulteren in een match van de hashes. En zonder match krijgt er niemand inzage in de afbeeldingen waar het om gaat.
De foto's moeten niet goed overeen komen, maar moeten identiek zijn. Het kleinste verschil betekent al een andere hash-waarde.
Nee dat hoeft niet, als een afbeelding bijv. een kleinere resolutie heeft, gecropped is of in spiegelbeeld is, dan zorgt NeuralHash er voor dat deze een hash krijgt die overeenkomt met de originele afbeelding in de database. Dus de afbeelding moet wel lijken op dat wat er in de database staat, maar mag bijv wel een andere resolutie, grootte of zelfs kleur hebben dan het origineel.
The main purpose of the hash is to ensure that identical and visually similar images result in the same hash, and images that are different from one another result in different hashes. For example, an image that has been slightly cropped or resized should be considered identical to its original and have the same hash.
https://www.apple.com/chi...ion_Technical_Summary.pdf
is dan geen hash meer maar een geïnterpreteerde hash, is nog erger eigenlijk.'
Want wie heeft dan gelijk de foto of het algoritme ?
Het is perceptual hashing en wie er gelijk heeft wordt dus bepaald door een moderator als meer dan 30 afbeeldingen die je naar iCloud probeert te uploaden een hash match hebben met de databases. Het maakt dus eigenlijk niet uit wie er gelijk heeft. De kans dat 30 van je afbeeldingen onterecht als bekende en geverifieerde KP worden geïdentificeerd is overigens bijzonder klein.
Aan WhatsappHack

Ik wens niet dat "een moderator" dat beoordeelt. Dit is ongelofelijk oncontroleerbaar. En zo zijn er veel meer nadelen.

Ik erken alleen de instanties die wij in de staat Nederland de macht hebben gegeven om de burgers en bedrijven te controleren en sancties op te leggen. Dat is een macht die we in Nederland langs democratische weg hebben weggegeven en die we ook weer kunnen afpakken.

De nadelen waar we nu over discussiëren, zijn allemaal terug te voeren op het feit dat Apple een gigantisch commercieel bedrijf is uit de USA. De hele discussie is meteen opgelost en afgelopen als we dit gewoon, net als altijd, overlaten aan de staat die Nederland heet.

Deze weg van Apple is ongehoord en ik zal me er tot het uiterste tegen verzetten. Het is anti-democratisch en gevaarlijk voor een goed werkende samenleving. Lees er eens een paar goede boeken over en lees de artikelen in de betere kranten (niet gratis dus). Dan krijg je wat extra ideeën over de keerzijde van deze ontwikkeling.

Zie ook mijn andere post (ca 15 minuten geleden).
Andere techbedrijven doen dit ook al langer. Op een andere manier maar komt op hetzelfde neer: schuldig tot het tegendeel is bewezen, in de schoenen van de lokale overheid staan en jouw content filteren op ongewenste elementen. Google, MS, Facebook, Twitter doen het. Ik hoop dat Apple en de andere bedrijven die dit ook doen uiteindelijk bereid zijn te vertrekken uit landen waar ze gedwongen worden deze systemen op een door corrupte overheden gewenste manier in te zetten, maar het lijkt me niet erg waarschijnlijk.
Aan SMRF

Vanochtend op BNR radio zei de bekende advocaat Inez Weski:

"In Nederland ben je tegenwoordig vanaf je geboorte al verdachte. Schandalig".

DAT bedoel ik. :( Ik laat geen opsporing toe op mijn privé spullen door Apple en alle andere Big Tech. Ook niet een beetje. Dat zou niemand moeten toelaten. Ik wens niet dat zij mij (en iedereen) op voorhand verdacht maken.

Dat is sowieso al onacceptabel. Maar bovendien doen zij dat om de foute redenen, namelijk eigenbelang, commercie en macht.

Een bedrijf zoals Apple probeert zo veel mogelijk buiten de democratische structuur te blijven die wij normaal vinden in Nederland. Het trekt zich nergens wat van aan. Dat is de hoofdreden dat ze schadelijk zijn en gevaarlijk voor een goed werkende maatschappij.

Het moet bovendien nooit zo zijn dat mensen bang moeten worden voor hun eigen spullen die overal in huis liggen en overal worden meegenomen. Dit plan van Apple is gif.

Het argument dat elke eigenaar van een toestel de Algemene Voorwaarden accepteert, is alleen theoretisch correct. In de realiteit moet je ze wel accepteren, anders heb je helemaal niets. Veel zaken merk je bovendien pas of worden je pas gevraagd als je eraan bent begonnen (het is een fuik, ze weten heel goed dat dit niet deugt). Het is dus een schijnheilig argument.

Deze BNR-uitzending zal nog wel herhaald worden. Ik zag het niet op de website maar misschien moet ik beter zoeken.
Helemaal eens, wat Apple nu doet is een slippery slope waar ze ver vandaan hadden moeten blijven. Ik dacht dat ik bij Apple juist wel goed zat qua privacy. Helaas. Mijn punt is niet dat het niet verkeerd is, dat is het wel, maar meer dat Apple nu helaas het pad volgt dat andere techbedrijven al langer bewandelen. Ik zal de uitzending opzoeken, dank.
Dan lijkt het mij simpel om gewoon een paar pixels, die voor ons bloot oog nauwelijks zichtbaar zijn, te veranderen en de foto geeft geen match meer? 8)7

Daar zullen ze snel achterkomen die criminelen.
Het hele probleem en waar het om draait is dat apple nu een infrastructuur heeft die het mogelijk maakt foto's van jou telefoon te scannen.
Nu gaat het nog om kinderporno maar stop een foto van crimineel x in een database. Iemand upload foto vandaag genomen van persoon x in de database en hup een hit.

Gebruikers worden op deze manier verlengstuk van overheden die al dan niet goede of kwade bedoelingen hebben. In China kan en zal apple gewoon gedwongen worden mee te werken met het regime. Niet meewerken betekend vertrekken uit die markt.
Zou je deze infrastructuur niet hebben dan kun je ook niet meewerken als er niets is.

Apple heeft zich met dit systeem kwetsbaar gemaakt voor regimes die apple kunnen dwingen hun infrastructuur in dienst te stellen van dit soort regimes.
Als toevoeging hierop: Apple geeft zelf aan dat ze ook imessage berichten kunnen scannen met dit systeem, dit hint erop dat ze dus makkelijk alles kunnen scannen wat ze maar willen. Dit mechanisme is inherent anti-privacy.

De beste verdediging die Apple had tegen medenplichtigheid was onwetendheid. Immers als alle data encrypted is voor het je telefoon verlaat en op iCloud terecht komt kan Apple ook niet verantwoordelijk gehouden worden.

De belangrijkste vraag is dan ook: Waarom besluit Apple ineens om een systeem als dit in te voeren? Niemand heeft hier naar gevraagd (zover ik weet) En ik heb moeite om te geloven dat Apple echt zo naif is om te denken dat ze geen extra druk gaan ondervinden van overheden om dit systeem te misbruiken.
Wellicht is het andersom, ze hebben al druk van overheden om zo’n systeem in te voeren omdat ze nu te dicht zijn.

Voorlopig blijft het bij ‘bekende’ foto’s van kindermisbruik identificeren en niet foto’s interpreteren. Dus foto’s blijven privé, alleen de hash wordt gechecked op twee verschillende lijsten. Welke lijsten dat zijn is dan weer vaag, als overheid(organisatie) X en Y samenwerken en veel foto’s er op zetten, terwijl overheid A de betrouwbare overheid is en een veel beperktere lijst hanteert, wat dan?
Apple hoeft niet gedwongen te worden; het loopt straks zelf te koop met 's werelds grootste ANPR- en gezichtsherkenningssysteem. Da's een enorm groot en goed businessmodel, want iedereen loopt met zo'n ding rond met HD camera vóór en achter...
Benieuwd welk land de eerste klant wordt.
Je kan met dit systeem geen ‘surveillance’ uitvoeren omdat het geen gezichten/foto’s herkent, maar alleen de afgeleide. Je kan dus niet op zoek naar een mens, maar alleen naar specifieke beelden die al eerder in je database zijn gezet.

Dus wat wel kan:
- Geef mij een lijst van alle devices waarvandaan n foto’s uit database x zijn geüpload naar iCloud photo library

Wat niet kan:
- Geef mij een lijst van alle devices waarop een foto staat van gebeurtenis y of persoon z.

Als je op zoek wil naar een specifiek persoon is het waarschijnlijk slimmer om dat aan Google te vragen...
Het grootste probleem dat Apple heeft, is dat het illegaal is wat ze doen.
The laws related to CSAM are very explicit. 18 U.S. Code § 2252 states that knowingly transferring CSAM material is a felony. (The only exception, in 2258A, is when it is reported to NCMEC.) In this case, Apple has a very strong reason to believe they are transferring CSAM material, and they are sending it to Apple -- not NCMEC.

It does not matter that Apple will then check it and forward it to NCMEC. 18 U.S.C. § 2258A is specific: the data can only be sent to NCMEC. (With 2258A, it is illegal for a service provider to turn over CP photos to the police or the FBI; you can only send it to NCMEC. Then NCMEC will contact the police or FBI.) What Apple has detailed is the intentional distribution (to Apple), collection (at Apple), and access (viewing at Apple) of material that they strongly have reason to believe is CSAM. As it was explained to me by my attorney, that is a felony.
Bron: https://www.hackerfactor....es/929-One-Bad-Apple.html
Dank voor het delen van deze blogpost. Ik had deze nog niet eerder gezien en met belangstelling gelezen.

Wat volgt is een aantal punten die ik hier graag bespreekbaar maak. Ik behandel niet elke zin uit de blogpost. Sommige spreken voor zichzelf, maar misschien zijn er ook noemenswaardige segmenten die ik - met mijn op sommige vlakken wat gelimiteerde technische kennis - over het hoofd zie.
Ik stel het op prijs als andere die dan zouden aanvullen.
If it encounters any CSAM content, it will send the file to Apple for confirmation and then they will report it to NCMEC. (Apple wrote in their announcement that their staff "manually reviews each report to confirm there is a match". They cannot manually review it unless they have a copy.)
Zoals ik het begrepen heb, heeft Apple bewust gezocht naar een technische oplossing die niet alleen zorgt dat een enkele match niet genoeg is om een handmatig onderzoek in gang te zetten, maar tevens moet voorkomen dat er geen gegevens inzichtelijk zijn over de daadwerkelijke hoeveelheid matches en van welke foto's totdat een vooraf ingestelde drempelwaarde bereikt is.
In de context van deze blogpost doet het verder geen afbreuk aan de stelling en zie ik het meer als semantiek. Ik heb het hier gemeld ter kennisgeving.
Apple claims that there is a "one in one trillion chance per year of incorrectly flagging a given account". I'm calling bullshit on this.
Ik kom deze kans herhaaldelijk tegen in reacties en er blijkt nogal veel onduidelijkheid over te zijn. Ongetwijfeld voortkomend uit de summiere beschrijving en gebrek aan toelichting die Apple er zelf initieel over naar buiten bracht.

De auteur trekt in mijn optiek echter te snel de conclusie dat die kans op een foutpositief voortkomt uit het testen van Apples NeuralHash algoritme op 1 biljoen foto's.
Zoals ik het lees en begrijp, heeft die kansberekening betrekking op de kans dat een account onterecht voor CSAM distributie gemarkeerd wordt, niet een individuele foto. Zo zou het NeuralHash algoritme best in 1% van de beoordeelde foto's een foutpositief resultaat kunnen opleveren, maar als echter de drempelwaarde 6 matches vereist, is de kans op een foutpositief gemarkeerd account 1 op een biljoen.

In de reacties op de blogpost wordt op dit scenario verder ingegaan en wordt ook een interessante situatie aangehaald waarbij een serie foto's van eenzelfde moment eenvoudig voor meerdere foutpositieven zou kunnen zorgen en hoe daar ook mogelijk rekening mee is gehouden en een oplossing voor is bedacht.
As noted, Apple says that they will scan your Apple device for CSAM material. If they find something that they think matches, then they will send it to Apple. The problem is that you don't know which pictures will be sent to Apple. You could have corporate confidential information and Apple may quietly take a copy of it. You could be working with the legal authority to investigate a child exploitation case, and Apple will quietly take a copy of the evidence.

To reiterate: scanning your device is not a privacy risk, but copying files from your device without any notice is definitely a privacy issue.
Dan raakt de blogpost tot de kern van het onderwerp en de stelling die @Anoniem: 9278 aanhaalt.
En het doet mij heel erg twijfelen aan of ik het wel allemaal zo goed heb begrepen, aangezien ik mij absoluut niet op hetzelfde kennisniveau schaar als de auteur.

Van het proces wat Apple wil implementeren om CSAM distributie via hun iCloud server tegen te gaan, heb ik tot nu toe begrepen, dat iOS nadrukkelijk niet de gehele lokale opslag of zelfs alleen de gehele lokale bibliotheek scant op zoek naar CSAM.
Enkel nieuw aangeboden foto's voor de iCloud bibliotheek zouden vanaf de implementatie met het NeuralHash algoritme worden getoetst tegen de NCMEC hash database en bij een match wordt een - wat Apple zo noemt - versleutelde safety voucher meegestuurd naar de server, welke pas leesbaar gemaakt kan worden als het aantal safety vouchers afkomstig van een valide match¹ de drempelwaarde overstijgt.

Maar als dat het geval is, dan zijn een goed deel van zijn argumenten om zijn stelling te onderbouwen gestoeld op een onjuiste aanname. Het initiëren van een iCloud upload en daarmee een eventuele CSAM match kan dan niet gezien worden als een distributie of verzamel verzoek vanuit Apple, maar moet je in mijn optiek zien als een handeling van de gebruiker, niet anders dan de voorbeelden die hij noemt binnen zijn eigen bedrijf en welke hij juridisch wel verantwoord acht.

Enige waar ik niet zeker van ben is zijn argument dat Apple zich schuldig zou maken aan het bekijken van CSAM materiaal tijdens de handmatige beoordeling van een account met het aantal matches boven de drempelwaarde. Misschien dat iemand hier daar meer over kan vertellen.
Maar ik kan mij niet voorstellen dat Apple niet de juridische kennis in huis heeft om deze implementatie zelf niet te toetsen.

¹) Valide als in gematcht met de NCMEC database, niet per se non-foutpositieven. Ook de synthetische match vouchers om het werkelijke aantal te verhullen tellen niet mee.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Volgens mij levert jou voorbeeld van 1% false positives met een vereiste van 6 matches geen kans op van 1 op de biljoen, maar een kans van 1 op de 600. Of ik maak een denkfout.

Stel ik heb een verzameling van 1000 foto’s. Bij een kans van 1% zullen volgens mij zo’n 10 van deze foto’s false positive zijn, dus ben ik de sjaak.

De kans op false positives moet dus zelf al ontzettend klein zijn. Omdat het aantal dat vereist is slechts lineair schaalt.
Ik heb met dezelfde twijfel gezeten en het zou zomaar kunnen.

Toch doet het geen afbreuk aan de kritiek die ik lever op de aanname van de auteur, die de drempelwaarde niet meeneemt in totstandkoming van de kansberekening.

De 1% foutpositief waarde en de drempelwaarde zullen wellicht anders zijn (was sowieso al een hypothetisch voorbeeld), de uitkomst van die twee waarden zouden moeten leiden tot een kans op een onterecht gemarkeerd account van 1 op 1 biljoen per jaar.
Hoe kun je iets naar iemand zenden als je het zelf eerder niet hebt gehad? Wellicht dat Apple’s verweer is dat ze het hebben gezien bij iemand en er nu een foto van naar de instantie sturen.

Het is een ingewikkelde discussie aangezien het zowel sympathiek is als ongemakkelijk door de verdere toepassingen van een dergelijk systeem.
ik zag die term CSAM nu al een paar keer voorbij komen, moest het opzoeken, en blij toe dat ik niet eens op de hoogte ben van deze afkorting :+

Verder OT het is een zorgwekkende ontwikkeling waar de tech giganten een steeds bredere rol proberen in te nemen.
“ states that knowingly transferring CSAM material is a felony.”

Alleen zal Apple het nooit “knowingly” verzenden. Een “strong reason to believe” is niet hetzelfde als “knows for a fact”… In de verste verte niet.

Ten eerste uploadt de user iets naar iCloud, dat doet Apple niet zelf. Ten tweede: als er een match is, is het VERMOEDELIJK csam-materiaal, maar ivm mogelijke false-positives is het niet ZEKER csam-materiaal. Derhalve is er nog altijd geen sprake van “knowingly” op dat punt, enkel van “suspected”.

Als blijkt dat het inderdaad KP is, dan verstuurt Apple het naar NECMEC; en dat is volgens de wet dus expliciet toegestaan. Maar er wordt naar niemand anders dan NECMEC “knowingly” materiaal doorgestuurd.

Dus voor zover je al zou kunnen beargumenteren dat Apple iets verspreidt, wat denk ik niet enkel niet klopt vanwege punt 1 maar ook niet ómdat het ná upload door gebruiker al in hun bezit is (ze ontvangen, doen niet zelf aan de transfer), is het nooit daadwerkelijk “knowingly” totdat een moderator zelf heeft kunnen zien dat het geen false-positive is.

Apple voldoet dus voor zover ik kan zien in de gehele linie van het proces aan die geciteerde tekst.
Ze uploaden het naar hun eigen omgeving voor review. Dat is niet toegestaan.

Daarbij komt dat jij niet kunt zien welk beeldmateriaal naar Apple gaat voor handmatige review en je geeft er geen toestemming voor. Je zou dat diefstal kunnen noemen. Iets uploaden naar jouw eigen encrypted omgeving is iets anders dan wanneer het zonder toestemming naar andere servers gaat.
Dat is niet toegestaan.
Dat is niet toegestaan als het *knowingly* gebeurt. Het gebeurt alleen niet "knowingly", dus mag het wel.
Daarbij komt dat jij niet kunt zien welk beeldmateriaal naar Apple gaat voor handmatige review en je geeft er geen toestemming voor. Je zou dat diefstal kunnen noemen. Iets uploaden naar jouw eigen encrypted omgeving is iets anders dan wanneer het zonder toestemming naar andere servers gaat.
Het is nooit "jouw encrypted omgeving" geweest, iCloud is plain-text accessible voor Apple. Daarnaast geef je er toestemming voor middels de servicevoorwaarden voor iCloud en iOS. Dit doe je bij alle cloudproviders overigens, bij Google Drive, Microsoft OneDrive, DropBox, etc. kom je er ook niet onderuit en die gaan nog veel verder dan Apple met o.a. Machine Learning en AI.
We gaan het zien in de rechtbank.
Dat lijkt me stug, want dan hadden we dat de afgelopen jaren al veel vaker moeten zien met de andere cloudboeren die het doen en samenwerken met NECMEC. Bovendien, heeft het Amerikaanse OM al aangegeven dat ze Apple willen aanklagen hierom dan? Want civielrechtelijk kan je Apple niet aanklagen wegens een overtreding van federale wetgeving dunkt mij. Zo neen, hoe kom je er dan bij dat dit in de rechtbank gaat spelen? Oprecht benieuwd, heb blijkbaar ergens iets gemist dat ze aangeklaagd worden :)
Ik kan ook beargumenteren dat "Knowingly" is wel degelijk van toepassing is.
Volgens Apple heeft het algoritme een foutmarge van 1 op biljoen. Ze zijn er dus vrij zeker van dat als iets als KP wordt aangemerkt, het ook KP is ("They know it is CP"). Op het moment dat je zo zeker bent, en dan toch die informatie niet direct naar de juiste instantie doorstuurt, maar naar je eigen server, ben je in overtreding.

Het zal zeker zijn gang naar de rechtszaal vinden, aangezien Apple nog nooit zoiets heeft gedaan.

Volgens hun privacy statement wordt alles op iCloud encrypted met een key die bepaald is door jouw device. Jij gaat er mee akkoord dat jouw informatie naar een beveiligde omgeving gaat waar jij alleen toegang toe hebt. Je gaat er niet mee akkoord dat bepaalde foto's naar een andere omgeving worden gestuurd waar jij A geen toegang toe hebt en B je niet weet welke info jouw apparaat verlaat.

Maar goed. Dit zijn slechts argumenten en daar zullen experts zich wel over buigen.
Ik vraag me ook nog eens af of de effectiviteit van deze maatregel wel opweegt tegen de inbreuk. Ik ken de cijfers omtrent arrestaties door zulke foto's bij clouddiensten niet. En, of daar veel vervolgwerk uit vloeit doordat er andere afbeeldingen aangetroffen worden waarmee ze verder kunnen. Ik verwacht eigenlijk niet dat dit een hele effectieve manier is. Doordat het informatie haalt uit een reeds bestaand database en dit zal het dus alleen maar matches maken met reeds bestaande troep. Nieuw materiaal wordt dus niet opgespoord en kan dus nog steeds gemaakt worden.

Je vist er dus alleen de echt domme personen tussenuit en red er dus niet direct kinderen mee. Echter is deze techniek in potentie voor zoveel andere dingen in te zetten en uit te buiten dat je je wel zou moeten afvragen of je hier aan zou moeten beginnen. Glijdende schaal? Terrorisme en Auteursrechten zijn er twee die meteen in gedachte schieten.
Het is nog erger. Juist omdat bekende foto's nu worden opgespoord komt er een vraag op gang naar nieuw materiaal. Hoe goed bedoeld ook, deze maatregel werkt dus het misbruik dus juist in de hand. Nog los van alle andere kanttekening die je bij de maatregel kan hebben.
Je bent hoogstens aan het 'blussen' en met een klein pisstraaltje als apple zijnde, je voorkomt hier geen nieuwe productie van kinderporno mee. Bovendien zullen zelfs de grootste sukkels want die zetten dit soort materiaal (openlijk) in the cloud nu denken van dat apple is helemaal niet zo privacy safe als ze pretenderen te zijn
Tegelijk krijgt justitie het ongelofelijk druk. Met zaken die niets toevoegen.
Facebook leverde vorig jaar 20 miljoen (!) rapportages aan. Mensen doen dit dus wel. En waarschijnlijk kan je bij die mensen weer materiaal vinden om de database mee uit te breiden.
Edit: bron toegevoegd

[Reactie gewijzigd door m_a_rnix op 22 juli 2024 19:43]

Dat niet alleen ik zet mijn kanttekening bij het menselijk beoordelen van kinderporno. Zijn zij opgeleid in het beoordelen ervan want anders kunnen er flinke doen worden gemaakt waarbij een onschuldig persoon ten onrechte wordt beschuldigd met alle gevolgen van dien. Wat mij nog meer zorgen maakt is dat Apple zegt "account afsluit en doorstuurt naar een kinderveiligheidsorganisatie" dat betekent gewoon dat Apple zich schuldig maakt aan het verspreiden dan wel vervaardigen van kinderporno. Nederlands strafrecht is een misdrijf. Denk dat Apple niet goed heeft nagedacht hierover. Wat zij het beste kan doen is onderkennen en direct desbetreffende instantie/autoriteit waarschuwen en die handelen het verder af. Zij zijn tenminste in Nederland daarvoor opgeleid gecertificeerd en weten hoe je het mag verplaatsen.
En ik snap nog altijd de noodzaak niet van Apple om dit te doen.
Nochtans is de noodzaak heel duidelijk: Privacy en noodzaak. MacOS en iOS gaan gebruikers onzichtbaar maken op het internet of dat is toch het einddoel. Dat maakt dat Apple toestellen ideaal worden voor criminele activiteiten. De stap die Apple nu zet is heel belangrijk om van Apple geen deep web te maken. Kinderporno is hier ideaal voor. Kinderporno is overal illegaal en zeer gemakkelijk op te sporen omdat het over foto's gaat die reeds bekend zijn. De manier om ze op te sporen is poepsimpel.

Hier is echt goed over nagedacht. Ook de backlash die er nu is lijkt me ingecalculeerd. Niemand zal na de lancering van iOS15 en MacOS 12 nog durven beweren dat Apple met haar privacy schild een verzamelplaats voor criminelen heeft gecreëerd. Apple is de kritiek op haar privacy schild gewoon voor. Apple zal niet geportretteerd kunnen worden als het merk waar alle vieze mannetjes zich achter verschuilen. Vergeet niet dat een heleboel marketing/reclame bureaus zitten te wachten om Apple's nieuwe privacy features onder vuur te nemen.

Waarom wordt dit niet voorgesteld op een keynote?! Men laat nu alle wappies even uitrazen en als het september is heeft men al de wappie theorieën doorgespit en krijgen we een marketing stukje te zien waarna iedereen een iPhone met pedo detector wil. :+
MS / Goog / FB / ADBE .... allemaal scannen ze je images server side, dus zodra je dat aanzet fingerprinten ze AL je afbeeldingen. Bij Apple doen ze het op device, als je zelf met je kind in bad zit levert dat geen "match" op. Als je geen CSAM afbeeldingen op je telefoon hebt is er dus NIETS dat naar Apple gestuurd wordt. Dus veel beter in mijn opinie, maar eigenlijk doet mijn mening er niet toe, het probleem is dat verkeerde idee al gevormd is en perception is reality. (en het zit enkel in de iCloud image pipeline dus als je zelf dat niet wil, sla jeje beelden enkel lokaal op, wat je ook moet doen op ieder ander platform)
Volgens mij wordt er lokaal op de telefoon een hash berekend, en die wordt vergeleken met hashes in een database. Het is niet zo dat er naar een foto gekeken wordt (in eerste instantie), dan wel door een computer, dan wel door een persoon, er is geen algoritme (volgens mij) dat probeert te zien of iets kinderporno is, het is volgens mij voornamelijk gebasseerd op de berekening van een hash.

Een hash verandert op het moment dat 1 pixel anders is. De kans dat per ongeluk vakantie fotos van kinderen in badkleding aangemerkt wordt is nihil.

Dat het nu in 2 landen in een database moet voorkomen is meer een PR verhaal dan dat het technisch noodzakelijk is denk ik.

De techniek kan wel misbruikt worden, maar dat kan nu ook al. Op deze manier is het alleen makkerlijk te verpakken/verkopen en rechtvaardigt het een aanpassing van het privacy beleid. Daarbij komt, ze moeten wel iets, de grote tech bedrijven staan allemaal onder druk om "iets" te doen. Ze moeten ergens mee komen.

[Reactie gewijzigd door Sander2000 op 22 juli 2024 19:43]

Een hash verandert op het moment dat 1 pixel anders is.
Dat zou kloppen als er cryptografische hashes zouden worden gebruikt, of zelfs niet-cryptografische foutdetectie "checksums" zoals CRC (gebruikt op ethernet en bijv. in ZIP bestanden).

Bij de jacht op CSAM wordt echter heel anders "versneden" (gehasht), met als resultaat een NeuralHash of PhotoDNA hash, ook bekend als een "perceptual image hash" of "fuzzy hash".

Het bijzondere aan dit soort hashes is dat in zo'n hash een klein aantal bits wijzigt bij sommige eenvoudige bewerkingen op plaatjes (zoals de resolutie verlagen, wat ruis toevoegen, croppen, kleuren wijzigen etc). Daardoor kun je dit soort hashes bitsgewijs van elkaar "af trekken" (de Hamming distance bepalen) en concluderen dat het bij "kleine" verschillen (beneden een instelbare grenswaarde) tussen de hashes om hetzelfde bronplaatje moet gaan.

Ook al kan het percentage zeer laag zijn, deze manier van hashen levert extreem veel meer false positives op dan een ongekraakte cryptografische hash zou doen.

Hoe conceptual image hashes werken wordt (m.i.) helder uitgelegd door Cloudflare, meer technische uitleg vind je hier, info met meer wetenschappelijke achtergronden en info over enkele risico's van dit soort algoritmes vind je bijv. hier.
Wat ik niet begrijp...
De csam hashes gemaakt mbv de photodna algoritme (van MS) is toch niet gelijk aan de ontwikkelde neuralhash, de ontwikkelde algoritme van Apple?
Dit zou toch betekenen dat er twee verschillende hashes (berekend op dezelfde foto) uitkomen die niet met elkaar vergeleken kunnen worden omdat MS's photodna algoritme vs. Apple's neuralhash algoritme verschillende hashes als uitkomst berekenen?
De csam hashes gemaakt mbv de photodna algoritme (van MS) is toch niet gelijk aan de ontwikkelde neuralhash, de ontwikkelde algoritme van Apple?
Uit Apple's Security Threat Model Review of Apple’s Child Safety Features (PDF) blijkt duidelijk dat Apple zelf niet over de CSAM plaatjes beschikt, en NeuralHashes van organisaties ontvangt die wel over dat beeldmateriaal beschikken.

Dan zijn er twee drie mogelijkheden:

1) Apple heeft een eigen algoritme ontwikkeld dat zij aan die derde partijen (met CSAM materiaal) geeft met het verzoek van alle beelden (naast eerder geproduceerde PhotoDNA hashes) NeuralHashes te produceren;

2) Om wellicht marketingtechnische redenen wil Apple het woord PhotoDNA vermijden en gebruikt voor PhotoDNA hashes de term NeuralHash.

Ik vermoed het laatste (maar dat is een gok).

(begin toevoeging 23:16)
3) Apple lijkt een manier te hebben gevonden om, met weinig of geen verlies aan nauwkeurigheid, afgeleiden (onomkeerbaar) van PhotoDNA-hashes te maken, en noemt deze afgeleiden NeuralHashes. Sterker, 1 NeuralHash lijkt te matchen op meerdere PhotoDNA hashes met onderling kleine Hamming distance; uit Apple's "CSAM Detection - Technical Summary" (PDF):
The main purpose of the hash is to ensure that identical and visually similar images result in the same hash, and images that are different from one another result in different hashes. For example, an image that has been slightly cropped or resized should be considered identical to its original and have the same hash.
(einde toevoeging 23:16)

Los van jouw vraag: voor geïnteresseerden :9 , hieronder aanvullende info die ik ondertussen vond.

De "innovatie" van Apple lijkt vooral te zitten in het "privacy maximaliserende" "Apple private set intersection (PSI) protocol" (PDF met zware wiskundigd kost), mede ontwikkeld door prof. Dan Boneh, een bekende cryptograaf van stanford.edu.

De introductie in A Concrete-Security Analysis of the Apple PSI Protocol (PDF) van prof. Mihir Bellare (van ucsd.edu) zou wel eens beter leesbaar kunnen zijn voor niet-cryptografen (het daarin genoemde "UC security" staat voor Universally Composable security).

De bedoeling van dit protocol lijkt onder meer dat de straks op elk Apple device (wereldwijd) aanwezige database met CSAM hashes voor niemand inzichtelijk wordt (dus niet auditable is) en dat het aantal als CSAM "herkende" beelden op user-devices voor iedereen (ook bij Apple) onbekend blijft totdat een (door Apple ingestelde) grenswaarde wordt overschreden.

M.i. interessante discussie hierover op Hacker News.

Dat waarschijnlijk oerdegelijke cryptografie wordt gebruikt, lijkt vooral in het belang van Apple (het vermijden van aansprakelijkheid, zij weten immers bijna niks) doch allesbehalve in het belang van Apple gebruikers, vooral van onterecht als pedofiel aangemerkte personen. Zie er maar eens achter te komen op basis van welke plaatjes dat is gebeurd... (als die niet meteen zijn verwijderd, iets waar Arda Gerkens, directeur van het Expertisebureau Online Kindermisbruik (EOKM), voor pleit, d.w.z. niet jagen op de -helaas vele- kijkers, maar zoveel mogelijk verwijderen van CSAM van internet).

De reden dat Apple nu op end-user devices gaat scannen, zou wel eens tot sterkere bewijslast kunnen leiden; dat hufters (o.a. via phishing) toegang konden krijgen tot iCloud accounts van o.a. celebreties hebben we meermaals gezien.

Nb. om te voorkomen dat je wordt afgeperst nadat jouw smartphone of ander Apple device (vooral bij zwakke lock-screen beveiliging) in foute handen is gevallen ("als je niet betaalt uploaden we CSAM vanaf jouw device naar iCloud"), kon het wel eens verstandig zijn om zo'n verlies onmiddellijk bij Apple te melden, jouw iCloud account te blokkeren en aangifte te doen bij de politie.

Edit 23:16: een derde mogelijkheid toegevoegd die ik vanmiddag nog voor onmogelijk hield. :?

[Reactie gewijzigd door Anoniem: 1576590 op 22 juli 2024 19:43]

een derde mogelijkheid...

Eerder hierboven (LarBor,14 augustus 2021 12:01) werd een blog-link doorgegeven:
https://www.hackerfactor....es/929-One-Bad-Apple.html
daar in vermeld dat tie 't (óók) heeft reversed enginered:

" Since NCMEC was treating PhotoDNA as a trade secret, I decided to reverse engineer the algorithm using some papers published by Microsoft. (No single paper says how it works, but I cobbled together how it works from a bunch of their marketing blurbs and high-level slides.) I know that I have implemented it correctly because other providers who have the code were able to use my hashes to correctly match pictures.

Perhaps there is a reason that they don't want really technical people looking at PhotoDNA. Microsoft says that the "PhotoDNA hash is not reversible". That's not true. PhotoDNA hashes can be projected into a 26x26 grayscale image that is only a little blurry. 26x26 is larger than most desktop icons; it's enough detail to recognize people and objects. Reversing a PhotoDNA hash is no more complicated than solving a 26x26 Sudoku puzzle; a task well-suited for computers. "

Mocht je derde mogelijkheid dus zo zijn, dan maakt dat nu 2 platformen die nu lookalike photodnahashes kunnen namaken.

Neemt Apple geen risico de code/algoritmes voor de neuralhash berekeningen op elke iphone te plaatsen (ivm reverse engineren)?
https://www.hackerfactor....es/929-One-Bad-Apple.html
daar in vermeld dat tie 't (óók) heeft reversed enginered:
Dank voor deze link, die pagina van deze auteur had ik nog niet gelezen.

Dat een PhotoDNA-"hash" uit een relatief lange reeks bytes (vergeleken met een cryptografische hash) bestond vermoedde ik al op basis van wat onder de "windmill" plaatjes in deze Microsoft sheets staat, maar 26x26 is aanzienlijk.

Bij miljoenen foto's zou dat meer dan 1GB opslag kosten op elk draagbaar Apple device. Devices waarbij je voor meer gegeugen véél meer geld kwijt bent en er dus waarschijnlijk veel stampvolle exemplaren van in gebruik zijn.
Neemt Apple geen risico de code/algoritmes voor de neuralhash berekeningen op elke iphone te plaatsen (ivm reverse engineren)?
In elk geval lijkt Apple te willen (waarschijnlijk moeten) voorkomen dat de database met PhotoDNA hashes terug te vinden is op elk iDevice (en natuurlijk ook een versleutelde versie met de sleutel ernaast "verstopt onder de mat").

In theorie zou iOS/iPadOS en MacOS van elke naar iCloud te uploaden foto:
1) eerst een PhotoDNA hash kunnen maken;
2) van een N aantal variaties daarop (met kleine Hamming-distance) relatief korte, min of meer cryptografische, hashes maken;
3) elk van die hashes versleutelen met de public key en checken of het resultaat voorkomt in de (eveneens met die public key versleutelde) hashes in de database.

Daarmee weet je, in de basis, niet wat de inhoud was van de oorspronkelijke NMCEC database met PhotoDNA hashes, en ken je zelfs niet de NeuralHashes, want die zijn en blijven versleuteld (asymmetrische cryptografie: wat je met een public key versleutelt, kun je alleen met de bijpassende private key ontsleutelen, en vice versa).

Echter, zo kan het haast niet werken, die database zou veel te groot worden. Maar wie weet heeft Apple daar weer iets op gevonden.

Mocht het ongeveer zo werken, dan kun je er wél op wachten tot de algoritmes worden ge-reverse-engineered en in verkeerde handen vallen.

Met als doel het vinden van CSAM is dat wellicht niet zo erg, zolang de database met PhotoDNA-hashes maar geheim blijft. Maar met kennis van de algoritmes zou het wel eens eenvoudiger kunnen worden om semi-random (non-CSAM of lijkend op CSAM) plaatjes te genereren die door iOS etc. als CSAM worden "herkend" (om personen onterecht te beschuldigen).

En uit Security Threat Model Review of Apple’s Child Safety Features (PDF):
only the user's device knows which vouchers are synthetic; Apple's servers do not and cannot determine this number, and therefore cannot count the number of true positive matches.
Daarom zou het mij niet verbazen als op een gegeven moment bekend wordt hoe je kunt achterhalen hoe hoog de teller (inclusief false positives) op jouw iDevice staat, iets wat Apple vindt dat jij dat niet moet weten. Ook kun je dan wellicht achterhalen om welke foto's het gaat.

M.b.t. de door mij doorgestreepte "true positive matches": ook dit document bevat flinke tegenstrijdigheden.

Uitgaande van voorafgaande tekst in dat document:
We empirically assessed NeuralHash performance by matching 100 million non-CSAM photographs against the perceptual hash database created from NCMEC’s CSAM collection, obtaining a total of 3 false positives, as verified by human inspection.
[...]
The threat model explicitly takes into account the possibility of NeuralHash image-level false positives by imposing a required threshold of simultaneous matches for a given account before Apple's iCloud Photos servers can decrypt any vouchers.
[...]
As the system is initially deployed, we do not assume the 3 in 100M image-level false positive rate we measured in our empirical assessment. Instead, our conservative assumption builds in a safety margin that is two orders of magnitude stronger. Specifically, we assume a worst-case NeuralHash image-level error rate of one in one million, and pick a threshold that safely produces less than a one-in-one-trillion error rate for a given account under that assumption. Building in an additional safety margin by assuming that every iCloud Photo library is larger than the actual largest one, we expect to choose an initial match
threshold of 30 images.
[...]
Er klopt m.i. niets aan deze redenatie. Om te beginnen is 3:100M niet "two orders of magnitude" minder dan 1:1M.

Als Apple, veiligheidshalve, uitgaat van gemiddeld 1 op de miljoen false positives en kiest voor een ondergrens van 30 matches, heb je gemiddeld bij elk account met 30 miljoen plaatjes een hit, zonder dat er sprake is van ook maar 1 CSAM plaatje. Hoe Apple op 1 trillion (1E12) uitkomt is mij een raadsel.

Daarbij: bepaalde soorten foto's zullen meer false positives geven, wellicht heel donkere of onscherpe opnames. Onschuldigen komen dus veel eerder bij door Apple ingehuurde reviewers (pay peanuts get monkeys?) terecht, die op basis van een plaatje met lage resolutie gaan bepalen of het om CSAM gaat of niet.

Terug naar die door mij doorgestreepte tekst: ik begrijp niet waarom daar "true positive matches" staat als Apple elders volstrekt duidelijk maakt dat false positives gewoon gaan voorkomen.

Dit is geen objectief threat model maar een slecht marketingverhaal.

[Reactie gewijzigd door Anoniem: 1576590 op 22 juli 2024 19:43]

Interessant, bedankt voor de uitleg, ik heb het gelezen, dat verandert mijn mening aanzienlijk. Ik begrijp nu ook waarom er 30+ resultaten moeten zijn voordat er gekeken wordt. Als er zoveel nodig zijn lijkt het me aannemelijk dat de resultaten "Erg" fuzzy zijn.
ik mijn telefoon niet om er maar wat hashes van allerlei data te laten maken.
Het inkomen van Apple komt niet uit reclame, maar uit hardware en de app store. Ik denk dat de druk om wat te doen zo groot geworden was, dat ze wel moesten. Kinderporno is breekijzer om de boel open te gooien. Het is zeker verschrikkelijke troep, maar ik ben benieuwd naar de effectiviteit van het scannen. Hoeveel is er daadwerkelijk opgespoord door het scannen van Google en Microsoft?
apple geeft hiermee aan dat ze als 'digitale overheid' voor rechter spelen en bepalen wat wel en niet mag m.b.t. privacy gerelateerd materiaal (hoe smerig dit ook is) Nu is het kinderporno, volgende zijn afbeeldingen van wapens of religieuze symbolen en de daarop volgende foto's van mensen met spandoeken die door politie of militaire dienst op verzoek van... ter controle zijn 'aangeboden.'

Daarnaast nogmaals:
de productie ga je er niet mee voorkomen
je creeert hier een precedent mee
Ik vind het ook geen goed plan, maar mijn reactie ging puur om de redenen voor dit te doen. Jouw reactie heeft daar naar mijn idee geen verband mee. Ik snap even niet waarom je op mij reageert.
De reden is dat ze voor overheid willen spelen, net als facebook.
Ze kunnen er dus wel voor kiezen. Je bent niet verplicht je foto's naar de iCloud te sturen.
Het gaat er om dat zelfs zonder die keuze te maken er foto's gescanned kunnen worden. Apple had ervoor moeten kiezen de scan op iCloud te doen. Nu kan er ook op de telefoon gescand worden zonder dat je iCloud hebt aanstaan, bijvoorbeeld omdat iemand een foutieve configuratie gebruikt voor de scanner bij een update.

En dan kan je het wel wegsteken als: oeps, foutje. Had niet mogen gebeuren. Maar het is dan wel weer gebeurd.

Of Apple kan er strategisch voor kiezen op termijn om de scanning in te schakelen zelfs als je geen iCloud sync hebt aanstaan omdat de scanner toch al op de telefoon staat. Of een overheid kan Apple ertoe verplichten het te doen, eventueel met een aanpgeaste database want de technologie staat toch al op de telefoon.

Zoveel redenen om het dus niet op de telefoon te doen.
Ze kunnen nu veel tijd steken in een Cloud-based oplossing, maarja, als ze ooit E2E-versleuteling willen invoeren is dat natuurlijk zinloos. En ja, het motief om het überhaupt te doen is mij onbekend. Maar aangezien eigenlijk alle grote jongens dit doen lijkt me dit haast wel een verplichting.

Maar om het maar eens heel bot te stellen; Als je zo bang bent voor fouten in de configuratie of een 'alternative motive' dan kun je maar beter geen Smartphone gebruiken. In ieder geval niet voor gevoelige (persoonlijke) zaken.

Of maak dan geen foto's met je mobiel 👍 Voila. Back to basic.
Ze kunnen nu veel tijd steken in een Cloud-based oplossing, maarja, als ze ooit E2E-versleuteling willen invoeren is dat natuurlijk zinloos.
Je kan ook gewoon helemaal niet scannen, dan heb je nooit privacy gezeik.

Het grote probleem met dit soort techniek is dat het er bij voorbaat al van uitgaat dat iedereen verdacht is. Stel je voor dat de politie in ieder huis camera's wil ophangen, met de belofte dat de beelden alleen bekeken worden als er een ernstig misdrijf is gepleegd. Zou iemand dat accepteren ?

Het nut hiervan ontgaat me sowieso, want denk je nu echt dat mensen die CSAM hebben dit in iCloud gaan opslaan ? Je zal hier wellicht een handjevol hele domme mensen mee pakken, ten koste van de privacy van al je gebruikers.
je zegt "dat het er bij voorbaat al van uitgaat dat iedereen verdacht is"

In mijn post gaf ik aan dat dit plan van Apple schadelijk is voor een goed werkende maatschappij. Dit (wat jij nu noemt) is een prima voorbeeld.

Ik word langzamerhand bang voor mijn eigen toestellen in huis, er kan zomaar wat op komen wat door die uiterst machtige Apple als "verdacht" wordt beschouwd. De gevolgen kunnen enorm zijn en ik heb er NUL grip op. Apple sluit zich (net als de rest van Big Tech) zo veel mogelijk af voor al het normale contact. Dat is de praktijk. Is dat wat men wenst? Alleen de Nederlandse staat hoort aan opsporing te doen, niet een internationaal techbedrijf met vooral eigenbelang dat zich buiten de democratie van mijn eigen staat plaatst. Zie mijn andere 2 posts van zonet.
Zo lust ik er nog wel een paar. Dit is gewoon een inbreuk op je privacy. Ik vraag me af of het überhaupt mag op basis van de GDPR. Scannen OP iCloud NA opslag daar zou nog enigszins te billijken zijn, maar ook dan is dit vragen om problemen.
Het gebeurt toch ook (nog) niet in Europa? We gaan zien of ze het überhaupt hier uit gaan rollen en zo ja, in welke vorm.
Nee dat moeten we niet gaan "zien". Dit moet je vooraf en actief bestrijden.

Ik vind dat de ICT-commissie van de Tweede Kamer er iets van moet vinden en actief bestrijden.
Het gebeurt toch ook (nog) niet in Europa? We gaan zien of ze het überhaupt hier uit gaan rollen en zo ja, in welke vorm.
Deels, bij bijvoorbeeld transip kan je vrijwillig je gehoste wordpress site laten scannen op kinderporno. Het is een kwestie van tijd voordat dat verplicht wordt.

En van Dropbox en Google weet ik ook dat ze scannen en melden.

Het probleem nu is vooral: apple doet het voor ze (publiekelijk) gedwongen worden. Misschien is dit een 'als jullie dit nou doen, op een manier die privacy technisch nog koosjer is voor jullie, dan laten we jullie op een ander punt met rust'. Als dit nou wet zou zijn zouden we de EU bijvoorbeeld voor het mensenrechten hof kunnen slepen (niet de eerste keer, of laatste keer, en ze worden nog wel eens teruggefloten door het hof). Dat wordt nu lastiger.

Even los van het; als de capaciteit eenmaal bestaat is een kwestie van tijd voor een bad actor dingen gaat doen die je echt niet wil.
De reden dat ze het op het toestel doen is net omdat als je het serverside doet elke foto moet doorzocht worden. Omdat het op het toestel gebeurt weet de scanner bijvoorbeeld welke foto's het niet moet doorzoeken zoals foto's die zijn getrokken met het toestel.

Ja wat als de scanner verkeerd staat ingesteld? Dan treed er nog steeds een error op want wat valt er te rapporteren? Er wordt niks upgeload naar iCloud. Wat jij beschrijft lijkt op een met opzet geschreven fout. Apple moet nog wel eerst de foto's kunnen verifiëren of het echt over KP gaat dus in heel dat scenario moet de scanner dus foutief scannen en vervolgens de KP ook nog naar iCloud sturen. Dat lijkt me toch al een beetje ver gezocht voor iets dat gewoon verkeerd staat ingesteld.
Klopt, Ik heb het bij mij uitstaan dat er een kopie van de foto's gemaakt wordt in icloud omdat ik dropbox gebruik.
Maar bijna alle iphones maken een reservekopie en hier staan de foto's ook nog eens in. Hier ben ik toevallig deze week achter gekomen omdat de reserve kopie zo groot begon te worden en ik amper apps op m'n iphone heb.
Dit kan je wel uitschakelen maar ik denk dat de meeste niet zo ver zoeken.
Ja ok, maar die reservekopie loopt niet via iCloud Photos bij mijn weten. En dat staat wel heel specifiek in hun tech docs. Dus die vorm zal weinig uitmaken.

Dropbox doet trouwens iets vergelijkbaars. Dus of dat veel beter is..

[Reactie gewijzigd door eric.1 op 22 juli 2024 19:43]

Klopt, Ik heb het bij mij uitstaan dat er een kopie van de foto's gemaakt wordt in icloud omdat ik dropbox gebruik.
dan worden je foto's al door dropbox gescand.
Alles wat je noemt is in de huidige tijd redelijk cruciaal om te hebben, nagenoeg een must. Foto's in de Cloud is dat niet, verre van. Het is handig, niet noodzakelijk.

Beetje flauwe vergelijking.
Backups zijn noodzakelijk, en iCloud is ook een backup oplossing.
Nu haal je wel twee dingen door elkaar. Namelijk Sync en Backup. iCloud Photos (waar het hier om gaat) is een Sync oplossing, geen backup.
iCloud foto’s en iCloud Drive zitten in een abonnementen dan kan je niet los van elkaar nemen.

En internet is ook niet cruciaal zogenaamd maar maatschappelijk gezien wel, want je bent enorm gehandicapt als je er geen toegang tot hebt en zo is dat met iCloud ook.
Maar je kan iCloud foto’s wel uitzetten.
Apple verteld niet of ze het met iCloud Drive niet doen. Of het alleen geld voor iCloud photos.. ik zou het in ieder geval dom vinden als ze zoiets maken en dan zo makkelijk maken om te omzeilen.
Uit het document van Apple zelf (de eerste zin van het document, bold van mij):
CSAM Detection enables Apple to accurately identify and report iCloud users who store
known Child Sexual Abuse Material (CSAM) in their iCloud Photos accounts.
Omzeilen is toch net zo makkelijk als iCloud Drive wel wordt gescand? Zet het op een plek die niet in de cloud staat. Een deel van deze mensen wordt toch gepakt op deze manier, aangezien Facebook in 1 jaar 20 miljoen foto's heeft gerapporteerd.
Backups kan je prima encrypted opslaan op de icloud toch?
Sja, kinderporno wordt wel meer bij de introductie nieuwe technologien / methoden als doel gebruikt want wie is er nou tegen het opsporen van kinderporno?

Apple scant overigens al jaren lokaal op de telefoon. Zoek in Photos maar eens op fiets, bloem of auto. Dat kan soms best handig zijn en daar was destijds weinig weerstand tegen.

Ik vind het wel gevaarlijk aangezien je van anderen foute plaatjes via bijv. Whatsapp toegestuurd kan krijgen. Als die je ingesteld hebt dat media direct in Photos gezet wordt dan ben je ineens een verdachte met alle problemen van dien. Kijk de film Jagten waar dat toe kan leiden. Niet okay…
Ze hebben ook een onderwerp gekozen dat desastreus is voor een mensenleven bij een false positive, het is dus ook gevaarlijk voor Apple.
Op papier lijkt het dat ze de nodige maatregelen genomen hebben om te zorgen dat het niet zover komt. Maar de artikels/getuigenissen van overheidsspecialisten die zo'n beelden moeten beoordelen schetsen toch wel een beeld dat het vaak niet alleen ook voor mensen moeilijk is om het verschil te maken tussen porno en onschuldig naakt, maar dat het ook psychologisch belastend is.
Of Apple zijn personeel genoeg gaat opleiden, opvolgen en psychologisch begeleiden stel ik toch wel zeer in vraag. Aangezien Apple het puriteins gedeelte van Amerika vaak volgt in zijn policies ben ik niet overtuigd dat ze uit de problemen gaan kunnen blijven. Gezien de beelden na hun interne verificatie naar andere organisaties doorgesluisd worden ter bevestiging, kan het natuurlijk ook zijn dat ze het dure gedeelte van deze alomvattende controle doorsluizen naar de overheidsinstanties...
Als reactie op je eerste regel:
  • Ze checken je foto op een hash in de hashdatabas van land 1 en land2
  • Pas wanneer je de foto in beide landen als kinderporno is bestemmeld wordt dat door apple ook zo getagt
  • Vervolgens wachten ze totdat (op dit moment) 30 foto's vinden op je account die als kinderporno zijn getagd (dus heb je bv 10 foto's (hoort ook niet) dan komt Apple dus nog niet in aktie.
  • Kom je over de huidige limiet van 30 foto's, dan krijgt een fysieke medewerking toegang tot die getagde 30+ foto's in lage resolutie om met een mensen ook te checken of de het klopt dat je kinderporno hebt.
  • Klopt dit dan pas wordt je case doorgegeven aan de instanties.
Je moet wel heel veel ongeluk hebben om na al die checks toch nog voor kinderporno te worden opgepakt. Ze hebben namelijk 30 foto's gevonden die in 2 landen als kinderporno worden aangemerkt en een mens heeft dat nog na gecontroleerd.
Dus het false/positive verhaal is m.i. goed gedekt.

Vervolgens kom je met een tegenstelling hoe psychologisch verzwarend het zou zijn als ze hiermee doorgaan (dus impliciet ze moeten dus hier niet mee doorgaan).
De link naar puriteins Amerika begrijp ik helemaal niet, Apple heeft juist een trackrecord om niet met de overheid mee te werken en is gevestigd in in van de meest verlichte staten van Amerika, ze stemmen al meer dan 20 jaar voornamelijk op de Democraten, zijn begaan met LBHT-community.
Zoals je de laatste zin schrijft, insinueert je dat Apple "natuurlijk" om geld te besparen iets over de muur gooit naar de overheid.
Maar wat moet Apple volgens jou dan doen? De Apple politie / SWAT daarheen sturen en de "verdachte" eventueel doodschieten ?

Ik dacht juist dat (zeker in Democratische landen) de politie ervoor is om een verdachte op te pakken, het OM om de verdachte te proberen te vervolgen en de rechter om een oordeel te vellen of de verdachte daadwerkelijk schuldig is.
Je moet wel heel veel ongeluk hebben om na al die checks toch nog voor kinderporno te worden opgepakt.
Dus het false/positive verhaal is m.i. goed gedekt.
Omdat het systeem zo veilig zou zijn op papier, en vals positieven vrijwel zouden zijn uitgesloten in de theorie.

Maakt dat het dan niet alleen maar moeilijker voor iemand, om alsnog zijn onschuld te bewijzen bij een vals positieve melding?
Waardoor hetzelfde probleem dat onschuldigen mensen hiermee worden veroordeeld blijft bestaan.

Apple kon vervolgens claimen het systeem heeft gewerkt om kinderporno verspreiders achter de tralies te krijgen. Maar hoe kunnen we ooit weten hoeveel van deze mensen onschuldig waren?

Immers een veroordeeld persoon (of hij nu schuldig of onschuldig was) wordt altijd gezien als een rechtvaardiging voor het toepassen van deze techniek, en nog meer van dit soort technieken in de toekomst.

Waardoor het feitelijke probleem in werkelijkheid zal blijven toenemen, dat steeds meer onschuldigen mensen zullen worden veroordeeld, door steeds meer gebruik van dit soort technieken.

Daarnaast wordt het voor een kwaadwillende hacker (b.v. ingehuurd door een overheid om iemand van de politieke oppositie weg te werken) heel makkelijk, om iemand achter de tralies te krijgen. Door via een telefoon hack wat bekende CSAM naar de iCloud te sturen. En wanneer dat is gebeurt, hoe kan die persoon dan überhaupt nog zijn onschuld bewijzen?

Het probleem is dat er met technieken als deze massaal wordt gezocht bij mensen die geen verdachten zijn (, wat een fundamentele ondermijning van onze rechtsstaat is), waardoor hoe goed de techniek op papier ook lijkt te zijn, er iets kon worden gevonden bij onschuldige mensen, die daardoor in de problemen komen.
Ik denk dat als de CIA, NSA, FSK of andere machtige clubje jouw wil onder de trein willen gooien ze echt niet aan het wachten zijn tot dit projectje afgerond is....

Ja de techniek wordt inderdaad gebruikt om mensen die geen verdachten zijn verdacht te maken, what's new? Als niet verdachte, word/werd ik ook regelmatig gecontroleerd of apart geroepen op Schiphol. Vind het zelf niet leuk, maar ik begrijp het idee er achter en ik zie zelf geen andere oplossing.
Tegenwoordig staan overal camera's van de overheid en particulieren continue onschuldige mensen te filmen (ja, dat gaat tegen de privacy) de andere kant van de medaille is wel dat wanneer een advocaat en een journalist worden vermoord, de politie heel snel de daders heeft.
Aan Jurrie79

Ik citeer je laatste alinea: "Het probleem is dat er met technieken als deze massaal wordt gezocht bij mensen die geen verdachten zijn (, wat een fundamentele ondermijning van onze rechtsstaat is), waardoor hoe goed de techniek op papier ook lijkt te zijn, er iets kon worden gevonden bij onschuldige mensen, die daardoor in de problemen komen. " En dit is nog maar 1 nadeel, maar wel principieel onjuist en ernstig.

Prima post. Je noemt allemaal zaken waar in de afgelopen tientallen jaren langdurig over is nagedacht, door weldenkende mensen die bezig waren om de juiste wetten op te stellen en een structuur op te bouwen die deugt. Vervolgens is er over gestemd en we hebben zaken goedgekeurd en afgewezen.

Dit heet "democratische rechtsstaat". Daar is alles allang in geregeld wat er nu wordt aangevoerd, door allerlei posts, aan voordelen en nadelen. Apple moet dit helemaal niet opnieuw doen.

Ik heb nog een aanvulling: van grote bedrijven is bekend dat ze uitgebreid psychopathisch gedrag vertonen. Ze zijn dus niet zoals jij en ik. Ze zijn ijskoud en glashard. Ze besluiten vrijwel niet op basis van emotie of empathie, maar vanuit winst, aangestuurd door aandeelhouders. Individuele werknemers die iets weigeren te doen, krijgen minpunten en uiteindelijk ontslag. Er is dus weinig geweten. Het gaat ze helemaal niet om de goede zaak, nee het gaat ze om kansen en macht.

Ze willen binnendringen in de wereld van opsporing. Net zoals Google die heeft verklaard dat ze willen binnendringen in de medische wereld. Ik wil door Apple niet gescand worden, nooit en te nimmer. Niet als ze op macht en geld uit zijn. En voor medische problemen ga ik naar mijn huisarts. Wees niet naief.
Je lijkt deze techniek te verdedigen waar wat als jij een iPhone hebt met iCloud, en iemand stuurt om je om je leven te verzieken expres 30 CSAM plaatjes toe, die in de database bekend zijn.

Dan mag jij voor de rechter verschijnen, en daar ben je het blijkbaar mee eens, wat je lijkt te insinueren dat je het er mee eens bent dat jij (en ieder ander) al bij voorbaat een verdachte is, of een potentiele crimineel is.

En daar ligt precies het gevaar van de ondermijning van de rechtstaat, massaal zoeken naar crimineel bewijs tegen mensen die geen verdachten zijn, lijkt per definitie tot veroordeling van onschuldig mensen.

Hoe groot het percentage is van veroordeelde mensen die onschuldig waren, zullen we nooit kunnen achterhalen. Iedereen die veroordeeld wordt (ook als was hij of zij onschuldig) zal worden bestempeld als crimineel die berecht is, en een schijnbare rechtvaardiging voor de toepassing van meer van dit soort technieken.
1. Die foto’s gaan niet vanzelf in iCloud photo library, dan moet je ze eerst opslaan
2. Als iemand jou CSAM stuurt kan je diegene ook aangeven
3. Als er plotseling CSAM opduikt in jouw data, terwijl die er daarvoor niet was (Apple weet immers wanneer de boel werd geüpload, dus klooien met EXIF-data helpt niet), heb je een aardig verhaal om jezelf te verdedigen.
Leuk maar van al de genoemde limieten kun je niet verifiëren of dat echt zo is en Apple laat geen externe audit toe — de databases zijn feilbaar, immers foutjes in de ene worden net zo makkelijk naar de andere gekopieerd — ook zijn de keuzes arbitrair bij 29 foto’s niets aan de hand bij 30 wel? Het systeem rammelt aan alle kanten. Privacy is voor Apple een commercieel belang — zolang Apple roept dat ze officieel niet met overheden werken kan dat onofficieel natuurlijk nog wel.

Apple fanboys drinken de kool aid die Apple hun serveert.

[Reactie gewijzigd door R3M1 op 22 juli 2024 19:43]

Als de term Apple fan boy voor mij bedoeld is, ik heb 1x een Apple laptop gehad voor de mooi en daar meteen Windows op geïnstalleerd :)

Ok, laten we het over een andere boeg gooien:
1. De samenleving heeft bedacht dat kinderporno niet goed is
2. We willen deze mensen vinden, berechten of in ieder geval afschrikken
3. Hoe gaan wij dit doen ?
4. Sommige tech-bedrijven zoals Apple hebben ideeën om dit aan te pakken (zie artikel).
5. Nu kan je 3 dingen doen:
A. roepen dat Apple "evil" is, onder druk staat, dat het niet deugt, dat hun idee misbruikt gaat worden of ze doen "the righ thing"om de verkeerde redenen. Kortom het idee vam de andere afkraken.
B. toejuichen dat iemand tenminste het probleem probeert op te lossen en zijn best probeert te doen
C. zelf met een goed idee komen om het kinderporno probleem tegen te gaan
(wees echter wel voorbereid, dat ook bij jou veel mensen op positie A gaan zitten ;) )

Zelf vind ik het een goed idee, omdat ik zelf geen 1-2-3 een beter alternatief heb om dit soort mensen te vervolgen. Maar als jij een beter idee hebt, ga ik wellicht met jouw mee of steun ik jullie allebei.
Het is niet de taak van Apple of Samsung om zich bezig te gaan houden met de informatie die een gebruiker op zijn/haar telefoon heeft staan —

wat de samenleving wel/niet goed vindt is een glijdende schaal — kinderporno wordt als trojaans paard gebruikt om surveillance te implementeren —

er zijn andere instanties die zich met het opsporen en bestrijden van kinderporno zonder de privacy van miljoenen te schenden, de echte kinderporno sickos ga je hiermee niet vangen … Apple zegt zelf dat het hebben van 29 kinderporno foto’s geen probleem is, ik denk dat men er wereldwijd verschillend over denkt — sinds wanneer is Apple juridisch bevoegd om dat besluit te nemen?

Apple evil zegt niemand volgens mij, maar dat Apple hiermee de deur openzet voor misbruik door zichzelf of anderen of via procyclisch is evident

En waarom is dit nu opeens een probleem? Kinderporno bestaat al zeer lang, Apple heeft zich nog nooit dan ook nooit ingezet om kinderporno te bestrijden. Nu opeens wel? Denk je dat Apple opeens het licht heeft gezien anno 2021 dat kinderporno slecht is … nee, de enige reden is dat wij collectief vinden dat kinderporno slecht en Apple daarmee het perfecte Trojaans paard biedt om surveillance te implementeren .,, want ja, wie is er niet tegen kinderporno? Ka-ching.
Het is niet de taak van Apple of Samsung om zich bezig te gaan houden met de informatie die een gebruiker op zijn/haar telefoon heeft staan
Doen ze ook niet, ze bemoeien zich met de data die jij op HUN servers zet.
Hebben ze ook niet te doen. Die servercapciteit huur jij af. Zou jij het OK vinden als je huurbaas je appartement te pas en te onpas binnenkomt om te zien wat je er hebt hangen? Ook al zou hij je het appartement gratis ter gebruik lenen zolang je alleen in zijn supermarkten gaat winkelen?
Maar dat is het juist, ze controleren niet wat er op de servers staat. Ze controleren wat er naar de servers gaat. Voordat jij de iCloud sync doet bepaald het systeem of het om kp gaat of niet.
Je kan dit beter vergelijken met de detectiepoortjes bij de ingang van een hotel ;)
Aan de ingang van je woning dan...
Op hotel heb je veel minder persoonlijke dingen staan, op hotel heb je veel meer andere regels te volgen...
Niemand zou accepteren dat je je woning niet binnen mag zonder jezelf en iedereen die je meeneemt eerst te moeten uitkleden voor de huurbaas... Elke keer je binnen en buiten gaat _/-\o_ but fair pointt.
Dus omdat niemand een goed idee heeft moet iedereen z'n privacy maar inleveren voor een oplossing wat niet meerbaar is en waar bewust geen cijfers worden uitgegeven.

Apple zou telefoons ook niet kunnen verkopen aan landen waar kindhuwelijk is toegestaan. Makkelijk meetbaar en direct resultaat.
Als Europa dit toestaat is het echt tijd om te verhuizen :z


Imo sterk staaltje thoughts and prayers

[Reactie gewijzigd door sjongenelen op 22 juli 2024 19:43]

Het goede idee is dat de overheid infiltreert in die netwerken. Het is een slecht idee om een zeer zware maatregel te nemen waarmee je een gigantisch lage Signal to noise ratio hebt, een maatregel die door mensen die niet gepakt willen worden (je doelgroep), ook perfect te omzeilen is. Tenzij je je bevolking gaat verplichten om enkel nog door de overheid met spywareachtige geinfiltreerde oplossingen, zoals deze, te mogen kopen.

Dit is als een atoombom op Rusland droppen in de hoop alle malariamuggen in Afrika te doden.
"C. zelf met een goed idee komen om het kinderporno probleem tegen te gaan"

Ok, je vraagt om een andere aanpak/zienswijze, maar mijn antwoord zal waarschijnlijk totaal niet in jouw beeld van de wereld passen. Maar kennis nemen van andere zienswijzen zou moeten kunnen. Vandaar mijn (voor jou) controversiële antwoord, waarmee ik wel off-topic ga. Maar ook een bredere context geef en op het laatst waar deze nieuwe techniek van Apple in dit beeld van de wereld past.

Om kindermisbruik in de wereld te te bestrijden zou je dienen te beginnen bij het daadwerkelijk aanpakken van het bekende grootschalige structurele kindermisbruik in de wereld. Zoals bij figuren als Epstein, die jaren en jaren de facilitator was van kindermisbruik, voor zijn rijke / machtige vriendjes als prins Andrew, Bill Gates, etc.

Het probleem is dat een deel van de leiders van de wereld tevens degenen zijn die betrokken zijn bij stelselmatig kindermisbruik.

Om daadwerkelijk aanpak van dit soort mensen en praktijken te bereiken, zou je op andere mensen kunnen stemmen die geen onderdeel zijn of meegaan met de plannen van deze kliek, mensen die geen grote concessies doen, maar daadwerkelijk een andere politiek voor staan.

Zoals Trump (ja ik weet het dit doet waarschijnlijk pijn voor je om te horen), onder zijn administratie is Epstein waarvan iedereen al jarenlang wist wat hij deed eindelijk in de gevangenis terecht gekomen. Je kan dus stemmen op mensen als Trump die geen onderdeel zijn van de kliek van globalisten die de ganse wereld willen beheersen, en tevens grootschalige pedofiele sektes erop na houden of gedogen.

En daarbij zou het helpen om niet mee te gaan in het sprookje dat Biden met de meeste stemmen ooit op een eerlijke manier de verkiezingen zou hebben gewonnen, de daadwerkelijk bewijzen van fraude zijn overweldigend.

En in Nederland is het probleem er ook, neem als voorbeeld Demink die kinderporno bezat en seks had met minderjarigen. Maar toch altijd de hoogste ambtenaar van justitie bleef.

Ook in Nederland kan je stemmen op partijen die echt de politiek willen veranderen, de democratie (met referenda) willen versterken, en de corruptie en de kliek van globalisten willen bestrijden, zoals het FvD.

Je kan dus stemmen op mensen die opkomen voor de gewone mensen en die de grootschalige leugens en corruptie onder de huidige wereldleiders willen aanpakken. In plaats van stemmen op de leiders die steeds meer (mondiale) controle willen uitoefen over de burgers, zie ook de corona-aanpak.

Ook deze nieuwe techniek van Apple valt in het straatje van (wereldleiders die) meer controle willen uitoefen over de burgers. Iets wat we zeker niet zouden moeten willen mijn inziens. Terwijl in het oog springende criminaliteit bij de "hoge" heren niet wordt aangepakt.

We zullen moeten leven met het feit dat we niet alle criminaliteit of (i.v.m. corona) ziekte kunnen bestrijden, iedereen voor altijd testen, surveilleren of bij verdenking opsluiten is geen oplossing. Maar leidt er toe dat onschuldige gewone mensen slachtoffers worden, en we in een totale (orwelliaanse) surveillance staat terecht komen.

[Reactie gewijzigd door Jurrie79 op 22 juli 2024 19:43]

Wellicht dat het dan weer niet in jouw straatje past dat wij allemaal onder controle staan van de illuminatie, en dat er al eeuwen deze groep met de wereld bestieren en onderdrukken :)

Het feit dat Apple en anderen dit soort dingen doet vind ik zelf lekker out-of-the-box denken.
Vroeguh deden ze dat niet en ze moeten dus nu ook niet beginnen hiermee, want....
De perfecte manier om vooruitgang tegen te houden!

Epstein werd al tijdens de Obama regering al aangepakt. En tijdens de presidentschap van Trump ook.
Dat de politie en het OM zijn werk doet is m.i. niet direct toe te schrijven aan een president.
Bill Gates schijnt "vrienden" te zijn geweest met Epstein, betekent dit meteen dat hij met bv. minder jarige sex heeft gehad ?
Bij Prince Edward idem dito? Al vindt ik dat hij als Royal zijn vrienden wel beter moet screenen.
Min persoonlijke mening is dat prins Edward niet helemaal de waarheid spreekt, bewijzen kan ik het niet.
Ik trek niet in twijfel dat mevrouw Virginia Roberts Giuffre misbruikt is door Epstein en c.s., maar met zoveel machtige en rijke mensen zijn er toch meer waar ze een rechtzaak tegen kan spannen ?

Zelf geloof ik niet dat er structurele (politieke) elite is die alles wat slecht is onder het tapijt veegt. Enne.. waarom zouden mensen structureel slechte dingen doen en zou "de elite" juist niet goede dingen doen.
Waarom moeten we met dingen leren leven, mijn insteek is dat we juist zoveel problemen mogelijk moeten proberen op te lossen in deze wereld en indien mogelijk je naasten helpen.

Initieel was ik ook benieuwd hoe Trump als frisse wind de boel beter ging aanpakken dan bv. Obama,
echter ik ben niet overtuigd geworden. FvD vond ik in het begin ook verfrissend er gebeuren elke keer van die dingetjes, waarvan ik bij rook is er vuur.
Bij de andere partijen, moeten ze opstappen bij dit soort akkefietjes.

Als je fouten maakt moet je het toegeven. Je kan vervolgens zeggen sorry ik ga mijn leven beteren.
Wanneer (als de heren Trump en Baudet) steeds dingen ontkent of zegt dat het andere liegen of dat het gewoon niet waar is (terwijl er bewijzen zijn) dan ben je niet betrouwbaar.
Niemand kan 100% eerlijk zijn, maar als je zo vaak in opspraak komt vind ik dat er iets niet klopt.

In het algemeen klopt er een heleboel niet in de wereld, maar eerst moeten we de problemen erkennen en dan oplossen en ik vind dat we dat transparant moeten doen en dat lukt steeds meer.
Mijn persoonlijke filosofie is dat het goede op de wereld net een rivier is, je kan (tijdelijk) een dam plaatsen, het water weer naar boven pompen, maar uiteindelijk zal het water (de goedheid) weer een manier vinden, waardoor de rivier weer zal doorstromen.
Ik respecteer je over het algemeen genuanceerde mening, maar toch ben ik het er grotendeels niet meer eens.

“Epstein werd al tijdens de Obama regering al aangepakt. ”

Over de zaak Epstein en zijn vrienden/klanten vind ik je naïef. Toen Epstein in 2008 onder Obama werd “veroordeeld” kreeg hij een nep strafje, een aantal maanden huisarrest, met de belofte erbij dat hij nooit meer voor dezelfde/dergelijke zaken zou kunnen worden veroordeeld. Ook arrestaties van klanten van Epstein bleven uit. De zaak werd dus in een doofpot gestopt.

Het was daarvoor (en natuurlijk zeker daarna) al heel lang bekend dat Epstein zijn grote vermogen had vergaard door seksuele diensten met minderjarigen aan te beiden aan de elite van de wereld. En ook een sekseiland, behorend tot de maagdeneilanden, bezat waar minderjarigen werden geprostitueerd, die hij in 1998 had gekocht. Waarvan ook bekend is dat Bill Clinton er regelmatig naar toe vloog, met de zogenoemde lolita expres.

Mensen als prins Andrew, Bill Gates en Bill Clinton die bevriend met hem waren, en vaker of zelfs geregeld met hem omgingen, deden dit natuurlijk om geen andere reden dan om van zijn diensten gebruik te maken. De reputatie van de man was wereldwijd bekend, en Epstein was ook de hele dag met kinderhandel en kindermisbruik bezig. Het is onmogelijk dat mensen die vaker met hem omgingen dit niet wisten en niet merkten, nee ze kwamen natuurlijk naar hem toe voor juist dit doel.

Mensen als prins Andrew, weten zich echter onaantastbaar, en ook de media die in bezit is van de elite heeft de zaak al vaak verhult, en onderzoek en documentaires tegengehouden.

“Waarom moeten we met dingen leren leven, mijn insteek is dat we juist zoveel problemen mogelijk moeten proberen op te lossen in deze wereld en indien mogelijk je naasten helpen.”
Eens maar niet door een Orwelliaanse surveillance staat op te tuigen wat nu steeds meer lijkt te gebeuren. Dat doet veel meer kwaad dan goed.

“FvD vond ik in het begin ook verfrissend er gebeuren elke keer van die dingetjes, waarvan ik bij rook is er vuur.”
Het is steeds weer dezelfde nonsens uitgebraakt door een zeer bevooroordeelde media, die in een totaal andere politieke agenda gelooft, dat FvD fascistisch en antisemitisch zou zijn. Terwijl het tegenovergestelde waar is, ze zijn een van de weinige partijen die voor meer echte democratie zijn, met o.a. referenda over alle onderwerpen waar genoeg mensen belang aan hechten.

Maar de media blijft steeds dezelfde onzin herhalen, steeds weer homeopathische verdunning van de samenleving (een enkele uitspraak van lang geleden die uit zijn verband is getrokken). Het gebruik van het woord Boreaal in zijn overwinningsspeech, wat gewoon noordelijk halfrond wereld betekent, feitelijk gewoon een betere benaming dat het steeds weer gebruikte zogenaamde Westen dat niet in het Westen ligt. En toen was het weer maanden en maanden gezever over een paar schijnbaar gelekte rare appje uit een privé app-groep, die onder een vergrootglas werden gelegd, waar FvD zijdelings bij betrokken was. En toen een retweet van Baudet van een 5 mei protest plaatje, met als insteek dat we door de coronaregels onze vrijheid zijn kwijtgeraakt, tot een niveau dat feitelijk op punten zelf uitstijgt, boven de bezetting in de Tweede Wereldoorlog.

Terwijl het een feit is dat Baudet een Joodse verloofde heeft, en alleen al om die reden geen antisemiet kan zijn. Je ziet hetzelfde bij Wilders, iemand de sterke banden met Israël heeft, wellicht wel de meest hechte van alle Kamerleden. Toch wordt ook hij om de haverklap door de valse media leugenachtig als een soort antisemiet weggezet.

Mensen die met het FvD zijn gebroken, zijn vooral mensen die niet willen inzien hoe erg we door de wereldwijde elite, met al zijn gecreëerde of politiek uitgebuite crisissen na crisissen in de maling worden genomen.

Crisissen die nooit echt worden opgelost, want dat is immers niet het doel ervan. Neem bijvoorbeeld het Nederlandse klimaatbeleid, dat jarenlang grotendeels bestaat/bestond uit het kappen van bomen om die onder het valse mom van zogenaamde groene/duurzame biomassa te verbranden. Als je gelooft in het grote door de mens veroorzaakte CO2 verhaal, kan je bijna niks schadelijkere bedenken dan over te stappen naar massale bomenkap en -verbranding als nieuwe gesubsidieerde energievorm.

Hoe dit kan bestaan, is omdat mensen zich vergissen dat wereldleiders, ook wel globalisten elite genoemd, de mondiale crisissen willen oplossen. Nee ze creëren of misbruiken de crisissen om hun agenda van globalisatie, ofwel steeds verdere controle op de bevolking en (MKB) bedrijven te verwezenlijken, kort samengevat werelddictatuur.

Omdat mensen als Baudet dit politieke theater (zijn gaan) doorzien, en dit ook willen aankaarten in de Kamer, zijn er mensen van zijn partij weggelopen, ook met valse beschuldigen dat Baudet een fascist o.i.d. zou zijn. Deze mensen willen deze waarheid niet onderkennen en schoppen aan tegen de boodschapper. Het Fvd is zowat de enige partij in Nederland die daadwerkelijk strijdt tegen de plannen van de globalisten, dus tegen een nieuw mondiaal fascisme / een orwelliaanse werelddictatuur. En krijgt om die reden van de media de meeste verbale stront over zich heen gegoten, want de media is er op gericht de plannen van de globalisten te promoten.

Om terug te komen op het artikel en deze nieuwe techniek van Apple, Apple heeft nu weer een nieuwe tool geïntroduceerd om de wereldbevolking mee te kunnen surveilleren, precies in lijn met wat de globalisten willen.

[Reactie gewijzigd door Jurrie79 op 22 juli 2024 19:43]

Ik zal het kort houden ;)
Wellicht heb je gelijk dat Epstein rijker geworden is door jonge vrouwen te misbruiken. Ik vermoed echter dat de basis van zijn rijkdom ontstaan is als handelaar van een van de grootste banken van Amerika. Daarnaast heeft hij ook zijn eigen Trust Company gehad met rijke klanten, dus ik denk dat hij daar ook veel geld mee heeft verdient.

Op zich heb ik geen probleem met Baudet c.s., Trump etc. Ik krijg altijd het idee dat ze nooit fouten maken.
Het is meestal iemand anders zijn schuld. Ik ben nog nooit iemand tegengekomen die geen fouten had of fouten maakten. Baudet en Trump zijn zo vaak in het nieuws geweest, ik kan me niet herinneren dat er ooit volgens hun, onder hun leiding iets fout is gegaan of dat ze aangeven, dat ze initieel fout waren.
Als mensen bij ze weggaan dan zijn het "verraders", de media verdraait alles en iedereen die met kritiek komt is tegen hun.

Juist door "ik weet alles beter", raken dit soort mensen hun geloofwaardigheid kwijt.
Ik denk dat deze heren best wat kunnen toevoegen aan de samenleving, maar als bv. een Baudet inderdaad nooit fouten maakt, dan kunnen we beter de democratie afschaffen en hem president of zelfs koning maken.
Ik ben een groot apple fanboy maar zeer sterk tegen deze feature.
Point taken 😉
het is meer een bug dan een feature.een feature is gewenst over het algemeen.
Laat al de anderen maar al uw foto's server side scannen, kunnen ze ook ineens targeted advert sturen. En laten we maar hopen dat de database niet lekt, want dan wordt het helemaal leuk voor je.
Ik vraag me af wat de meerwaarde is van dat de hash in databases van 2 landen moet voorkomen. Kan me goed voorstellen dat veel West-Europese landen hun databases (of hashes) uitwisselen.
Daarnaast dacht ik dat het systeem momenteel enkel voor de US was, dus hoe komen ze dan aan databases van 2 verschillende landen?

Ivm je laatste paragraaf: spijtig genoeg is het rechtsbeginsel heel wat minder bij kinderporno en pedofilie. Vaak wordt dit ook al in de media gevoerd en is iemand dan al direct schuldig bevonden door de publieke opinie en een rechtzetting komt niet of heeft weinig impact.

Edit: ook het optrekken van de limiet naar 30 vind ik raar. Beide zaken lijken op een paniekreactie. Wat me nog minder vertrouwen geeft: als 1 van de rijkste bedrijven van de wereld deze reacties niet kon voorspellen, heb ik niet het gevoel dat ze er goed over nagedacht hebben. Het is niet zoiets als een naam voor een auto model bedenken die dan ergens in de wereld een foute connotatie heeft. Dit was perfect voorspelbaar.
Geeft me (weer) zo'n gevoel dat men bij Apple een serieuze echo kamer heeft.

[Reactie gewijzigd door Chris_147 op 22 juli 2024 19:43]

Jij komt met een goed argument. Hoe zorgen dat "bevriende" landen hun hashen inderdaad niet uitwisselen, zodat het toch 1 grote gelijke database wordt ?

Wellicht dat nu dit probleem gekend is er ook een oplossing voor is.

Ik ben echter niet eens met je laatste op merking. Het rechtsbeginsel is NIET anders bij kinderporno en pedofilie.
Als verdachte kan je vervolgt worden, waarna je onschuldig of schuldig wordt bevonden.

Media en publieke opinie heb je altijd, ook bij een "brute roofoverval", een afrekening, zinloze geweld, beroving van een supermarkt, oplichters (meerdere programma's op TV), iemand aanrijden, stalken,....
Dit is niet specifiek gericht op kinderporno en pedofilie.

Slecht nieuws of nieuwe waarover we verontwaardigd zijn verkoopt nou eenmaal beter dan goed nieuws.
Natuurlijk heeft het geen nut om naar bestaande foto’s te gaan zoeken, en zeker niet als het om grote hoeveelheden gaat.
In de eerste geluiden ging het om misbruik, maar dat heeft vele vormen.
Nu gaat het om bekende kinderporno, die maar sporadisch gevonden gaat worden na aankondiging.
En daarbij worden honderden miljoenen mensen op voorhand verdacht en gescand.
Totaal belachelijk.
Dan vergeet jij het feit dat FaceTime/Imessage etc NIET beschikbaar zijn in het midden-oosten, China de encryptiesleutel van de Chinese iCloud servers heeft...
Tenzij een kwaadwillende 30 foto's naar je stuurt.
En daarom moet je dit dus aan de rechtsstaat overlaten.

Die hebben een structuur ontworpen waar door allerlei deskundigen jarenlang over is nagedacht en waar Nederland de juiste wetten voor heeft aangenomen. Er is zelfs voor gevochten en velen hebben hun leven gelaten.

Een techbedrijf met keihard winstoogmerk, bezit hiervoor per definitie niet de mogelijkheden. Het is zinloos en leidt tot fouten als ze nu opnieuw proberen te doen waar Nederland allang de juiste structuur voor heeft bedacht. Apple moet hiermee stoppen. De anderen van Big Tech ook.
Ach het is een gratis feature en zorgt voor een veiligere en betere wereld zal Steve Jobs wel aangeven en je geeft er wat privacy voor op. Ach dat deed je wellicht ook al met whatsapp, Facebook of andere gratis diensten diensten.

Wat ik wel weet dat ik zolang andere mensen mijn email, adres en telefoonnummer hebben opgelsagen en foto's van mij online plaatsen dat ze al een profiel van me hebben. Dat dit verkocht wordt geloof ik meteen als ik zie dat ik voor mijn werkcomputer facebook heb en dus op dat e-mail adres aardig wat spam krijg en voor whatsapp heb ik een pre-paid nummer en sinds ik vorig jaar weer begonnen ben met Whatsapp op mijn telefoon in een werkprofiel wordt ik daar regelmatig op dat nummer gebeld vanuit de UK, Onbekende nummers en allemaal gebrekkig Engels en dat zegt al genoeg. Dit nummer is dus ook alleen maar bij whatsapp bekend.

Het geeft meteen ook al aan of je nu wel of niet sociaal media gebruikt of diensten. Je bent al snel een slachtoffer van deze diensten.

[Reactie gewijzigd door Noresponse op 22 juli 2024 19:43]

Het probleem is dat het zorgt voor een minder veilige wereld. De techniek kan misbruikt worden, en bepaalde regimes zullen het daarvoor inzetten of Apple daartoe dwingen.

Op het moment dat een deur op een kier staat, zal iemand hem opengooien.
Ik geloof al dat sociaal media misbruikt wordt om mensen te onderdrukken, nog sterker er zijn aanwijzingen dat zelf een Amerikaanse Visum mede bepaald wordt door je sociaal media gedrag. En zo zijn er wel meer voorbeelden , helaas.

Ik heb het losgelaten en zo zat dik twee jaar geleden mijn familie en paar vrienden nog op BBM en had ik nooit issues qua reclame ,calls etc. Nu met whatsapp en Google merk ik dat ik al paar keer van e-mail ben gewisseld. Ik heb dus ook aparte mail adressen voor bepaalde dingen en dat gaat beter.

Ik weet wel dat ik de grote bedrijven (Amazon, Apple ,etc. ) en sociaal media diensten steeds meer macht krijgen over wat mensen doen en dit ook meer kunnen sturen. Het is absurd dat een facebook bepaald berichten uit experimenten wel laat zien en welke niet en bekijken hoe je daarop reageerd. Zo komen ze erachter wat bij jou wel werkt en wat niet. Dit doen ze ook met foto;s , kleur, merk, eten en noem maar op.

Als ik alleen naar mijn vrouw kijk die tijdens eten, spelletjes aan tafel en noem maar op dat mobieltje moet bekijken dan is dat pure drang/verslaving, ik heb zo vaak dat ik mijn mobiel een heel weekend niet zie en berichten heb gemist en nog gekker als vrienden even willen bieren dan berichten ze mijn vrouw of ik even de deur uit mag :) Ik heb geen mobiel nodig besef ik meer en meer en ben altijd bereikbaar thuis op mijn vaste lijn of via de vrouw :)

[Reactie gewijzigd door Noresponse op 22 juli 2024 19:43]

als mijn vrouw tijdens het eten uitgebreid op d'r mobiele zit te spelen, flikker ik er sowieso uit. dan doet de rest er niet meer toe toch,
Dit nummer is dus ook alleen maar bij whatsapp bekend.
Is het ooit in je opgekomen dat bijna alle 06 nummers in nederland al in gebruik zijn en dat dat prepaid 06 nummer in alle waarschijnlijkheid al meerdere keren door vorige klanten is gebruikt?
Aint no such thing als een "nieuw" 06 nummer.

[Reactie gewijzigd door telskamp op 22 juli 2024 19:43]

ik heb dat nummer al meer dan 7 jaar en nooit issues mee gehad tot ik vorige jaar in mei 2020 besloten had om whatsapp te installeren. Dit nummer gebruikt ik voorheen voor mijnwerk om bedrijfscodes te krijgen om in te loggen en het was het nummer waarop ze me konden bereiken.
Heel eerlijk zie ik maar weinig polarisatie ontstaan vanuit de genoemde noodzaak voor controleren van upload materiaal.

De polarisatie die ik veelal tegenkom, ontstaat voornamelijk wanneer een discussie gestoeld wordt op drogredenering. Het zijn vaak vruchteloze discussies die ontzettend afleiden van wat er werkelijk toe doet en nodig is om deze implementatie te verbeteren/tegenhouden.

Daar op attenderen wordt weinig gewaardeerd en dat is dan meestal ook wel terug te zien aan dat ze ergens onderaan de threads belanden en maar weinig mensen bereiken. Kan de polarisatie vrolijk doorgaan.
KP is nu eenmaal het gebied waar er enorme databases van zulke hashes van beschikbaar zijn. Ik ken geen ander soort materiaal waarbij dit toegepast wordt.
Aan LarBor,

Je zegt "Het is jammer, en slim, dat ze kinderporno als onderwerp hebben gekozen. Dat polariseert de discussie, en het leidt af van de crux: de techniek en privacy."

Helemaal juist.

Het idee is op de eerste plaats taktiek. Apple zit in de USA, een totaal verdeeld land. Waar hardheid de norm is. Een land waar de doodstraf nog steeds wordt opgelegd, ondanks het feit dat diverse mensen onschuldig waren en nog steeds zijn.

Waar gevangenissen vooral bedoeld zijn om aan te verdienen, en niet om veroordeelden weer goed in de maatschappij te krijgen. Dat laatste is in Nederland wél de bedoeling. Bewezen is ook dat het de beste aanpak is, en het is zelfs de goedkoopste aanpak.

Polarisatie. Harde maatregelen.

Wat ik hier noem is 1 van de 5-10 argumenten die ik gemakkelijk kan aanvoeren, tégen dit krankzinnige plan van Apple. Vergeet ook Microsoft niet. Die scant je persoonlijke cloud, diezelfde cloud waar Microsoft je bijna onontkoombaar naar toe stuurt.

Het zijn allemaal voorbeelden van activiteiten van idioot grote bedrijven met een dubbele agenda die op de eerste plaats gericht zijn op wat de aandeelhouders eisen: winst maken en concurrenten uitsluiten. Echter, ik erken en accepteer uitsluitend wat de Nederlandse staat doet aan opsporing en andere "strafmaatregelen". Dat is onderdeel van de goede werking van een democratische rechtsstaat, waaraan mensen tientallen jaren hard hebben gewerkt en waarvoor honderdduizenden hun leven hebben gelaten. Alleen die rechtsstaat hoort zijn burgers te controleren. Dat gebeurt alleen door politie en OM, en de rechter. Dat zijn instanties die langs democratische weg zijn aangewezen om de burgers te controleren, en die macht kan ook weer worden afgepakt.

Bijna iedereen in Nederland steunt dit principe, ook de bedrijven. Zij zijn dus bereikbaar voor reacties, voor klachten, en zij zijn vatbaar voor een aangifte bij de politie, voor de werking van het OM en de rechter is een gewone Nederlandse rechter. Deze relatie is laagdrempelig en tegelijk streng. Iedereen heeft gelijke kansen. Maar multinationals zoals Apple, Microsoft en ook Google en Facebook hebben daar helemaal geen zin in. Zij werken dat actief tegen. Het is ongehoord.

Hun bedrijven zijn een staat op zichzelf, dat is intussen al regelmatig duidelijk gemaakt, waar burgers juist zo MIN mogelijk kunnen doen wat in de staat Nederland normaal is. Ik heb wel eens contact gehad met Youtube over een volledig normale kwestie, maar je wordt onderuit gehaald, vertraagd en niet geholpen, door een soort AI die om te huilen is, zo slecht. De reden? Youtube (Google) WIL helemaal geen contact en overleg over problemen. Intussen hebben ze wél de macht om je per direct te blokkeren. De reden hoeven ze niet eens te geven. Dit wangedrag is in een normale staat ondenkbaar.

Het verraderlijke is dat dit stap voor stap doorgaat. De mensen worden murw gemaakt.

Het is altijd verhelderend als je een vergelijking maakt met het gewone leven. Ik geef 2 voorbeelden. Als Ikea zou besluiten: "u kunt een boekenkast bij ons kopen, maar wij gaan dan wel kijken wat u er in zet" of als Blokker zou zeggen: "u kunt een brievenbus bij ons kopen, maar wij gaan dan wel kijken welke post u ontvangt", dan zou de wereld te klein zijn. Maar omdat deze scans onzichtbaar zijn EN omdat gewone consumenten van nature niet graag kritiek hebben op iets waar ze net 800 of 1200 euro voor hebben neergelegd, dáárom staat de massa dit toe.

En inderdaad, LarBor, je hebt gelijk. Ze durven niet veel te zeggen, vanwege het onderwerp. Het gaat om kinderporno.

Mijn conclusie is: de privacycrisis is écht bezig. Het is een feit. Dit is het bewijs. Ik heb er al eerder wat over gepost.

Ik las op Tweakers in de afgelopen dagen diverse posts van ICT-ers. Echter die gaan vaak over "tjonge misschien moet het iets minder streng, of misschien moeten ze het door 2 mensen in plaats van 1 laten controleren". Maar dat zijn details. Daar hoort het helemaal niet over te gaan. Zoals gewoonlijk denken veel ICT-ers graag over regeltjes (alsof het programmacode is). Ze zouden wat meer principes moeten hebben.

Edit: 2 zinnen

[Reactie gewijzigd door Farmeur op 22 juli 2024 19:43]

"Jij gebruikt Android dus bent potentieel pedo" is nu de subtekst.
Anoniem: 1351930 14 augustus 2021 10:22
Deze tech bedrijven blaffen hardop dat ze een privé bedrijf zijn en mogen doen wat ze willen als het gaat om mensen te weren op hun platform of het web/app store, maar ze gedragen zichzelf steeds meer als een overheidsorgaan, op het moment dat dit door de AVG komt en ze dit toelaten in de EU gaat mijn iPhone in de vuilnisbak. Wie denken ze wel niet wie ze zijn?????
Wat is het gebruiksvriendelijke alternatief?

Ik wil ook!
Ik doe niet mee aan chantage, je betaald een hoop geld voor een Telefoon en je bent eigenaar van jou privé gegevens, zou je in een auto gaan rijden waarvan de de maker zegt ik installeer een camera en microfoons om te kijken of er met de auto geen overval mee wordt gepleegd of dat de auto niet wordt gebruikt als vluchtauto bij moord of dat er geen drugs mee wordt vervoerd. Het einde is zoek.
Anoniem: 1351930 @mr.loepie14 augustus 2021 11:15
Dat bedoel ik, ze gaan steeds verder als er niet wordt ingegrepen.
Maar wat is ons alternatief?

Google volgt met Android in de toekomst, waar gaan we dan heen? Een of ander Chinees merk waar de CCP alles kan meelezen?

Ik vind het maar een enge evolutie en twijfel nu al oprecht of ik nog een nieuw apple toestel ga aanschaffen eender of het wel of niet in Europa uitgerold word.

Wie kan er nu tegen KP zijn? Europa is meestal de schoothond van de VS.
Android met een custom ROM.
Dan ook geen gapps installeren natuurlijk.
we kunnen altijd nog naar de "nieuwe" nokia 3310 :D
Maar maak me daar ook wel zorgen over ja, want waar houd het op ?
Ik twijfel nu heel erg of ik wel verder ga met Iphone.
Wat een wereld is dit geworden...
Zeg dat wel ! in één woord... TRIEST! en dan druk ik het nog heel zacht uit. Maar geloof me we zijn er nog lang niet, het word nog veel erger.
Ik heb jarenlang SailfishOS gebruikt. Gericht op privacy en behoorlijk compleet. Helaas is het niet het meest complete systeem. En je moet nog wel eens Tweaken on dingen voor elkaar te krijgen. Ik zou dolgraag een (europees) alternatief willen gebruiken.

Mocht ie iets tegenkomen dan hoor ik het graag.
Ik zou HEEEEL graag een soort forum of Community lezen waarop we bij kunnen houden wat wel of niet werkt buiten Google en Apple om. Ik ben zeer benieuwd of bv Graphene OS een optie is of Sailfish of weet ik veel wat. Alle linkjes en suggesties zijn welkom. Ik ben het echt spuugzat nu.
Dat zou ik ook graag zien, welke alternatieven zijn er zowel qua hardware als software en wat werkt er wel en wat niet.

Zo denk ik er zelf aan mijn Foto's via Plex te laten lopen, maar ook om voor E-mail, DNS en bestandsopslag zelfvoorzienend te worden.

[Reactie gewijzigd door Anoniem: 113730 op 22 juli 2024 19:43]

Met een zelfbouw NAS kan je zoiets wel regelen. Als je echter iets wil hebben waar je relatief weinig aan hoeft in te stellen kan je beter een Synology NAS kopen, dan kan je alles relatief eenvoudig zelf hosten. Je zult echter wel altijd iets moeten inleveren op gebruiksgemak.
Een goed upload snelheid is dan natuurlijk wel wenselijk, want als je foto's en video's wilt bekijken moet dat wel eerst naar je mobiel gestuurd worden, dus upload vanuit huis.
Hier kan Tweakers echt een enorme rol in spelen!

Geef ons de data en alternatieven liefst gisteren aub
Dat impliceert dat gebruiksvriendelijkheid altijd boven privacy gaat.

Ik heb een NAS die lokaal synchroniseert. Werkt prima (ook voor dummies), maar vergt net iets meer dan 2 keer klikken.

Maar aangezien de meeste mensen van de afdeling 'ik heb niks te verbergen' zijn (ignorence is bliss), zullen er weinig zijn die het (willen) snappen.

Dit is hetzelfde als de postbode die al jouw post opent (en leest) voordat ie het door de brievenbus gooit. Als je dat prima vind, kun je ook in China gaan wonen toch?
Maar aangezien de meeste mensen van de afdeling 'ik heb niks te verbergen' zijn (ignorence is bliss), zullen er weinig zijn die het (willen) snappen.
Je vergeet de groep die geen content op hun telefoon zetten die belangrijk genoeg is om verborgen te houden.
Mijn pincode, salarisstrook, wachtwoorden en kabouterfoto's staan niet op mijn telefoon, dus so far so good.
Waar ik een probleem mee heb, is het blijven verzamelen van data onder valse voorwendselen.
Want ondanks dat Apple er geen verdienmodel van gemaakt heeft, verzamelen ze wel degelijk data over wat, hoe en wanneer je iets gedaan hebt.
Lapmiddelen als de instelling 'don''t follow me' is alleen maar tegen buitenstaanders, hun findmy gaat met regelmaat terug naar het HQ, Siri 'weet' waar je bent om een restaurant aan te bevelen.

Het is niet 'ik heb niets te verbergen' maar eerder 'ik kan toch niet zelf bepalen WAT ik deel' in dit soort acties
Dat impliceert dat gebruiksvriendelijkheid altijd boven privacy gaat.
Dat is het niet precies; Het gaat erom dat de gemiddelde persoon geen computer nerd is zoals ik (en mensen hier op tweakers) en je dus niet kan verwachten dat iedereen even hun android root, bootlocker opent en een andere OS gaat installeren om vervolgens ermee te tweaken om alle functionaliteiten terug te krijgen.

Het is niet genoeg als alleen "nerds" overstappen naar een niche Android variant als vervolgens de meerderheid die dat niet voor elkaar krijgt alsnog massaal gebruik gaan maken van "gewone" iOS en Android.

Als je echte veranderingen wilt, moet je ervoor zorgen dat de toetredingsdrempel laag genoeg zit voor de meerderheid van mensen.
Dit hoef je niet zelf te doen, e/os verkoopt telefoons. Ik weet niet hoe goed ze zijn ivm privacy, maar ze maken wel reclame.
Mooi ...stap 1.
Kun je een nas aanbevelen?
Mooi ...stap 1.
Kun je een nas aanbevelen?
Synology is een van de meest gebruiksvriendelijke interfaces. Ze hebben op hun website redelijk goede info over welke setup ze aanbevelen afhankelijk van je behoeftes. Als je wilt kun je er ook nog gewoon een eigen OS op flashen dus dat scheelt. Er is ook een redelijk grote community die je op weg kan helpen :)
Dankjewel. Ik ga er serieus naar kijken.
Dit is een echte PR-ramp. Ze hebben juist een heel imago mbt privacy flink vernield in korte tijd (althans, in mijn ogen). De enige manier om het te herstellen is dit hele plan niet door te voeren.
Het hek is dan van de dam, overheden en dergelijke kunnen gewoonweg afdwingen om dit systeem voor andere doeleinden te gebruiken. Theoretisch voorbeeld: China zegt tegen Apple - je dient deze database met Oeigoren te uploaden en te vergelijken want dit zijn “vrijheidsstrijders”. Doe je dat niet, dan volgt er een verbod op iPhones.
Aangezien Apple al hun privacy in China heeft veranderd aan “lokale” wetgeving en de encryptie heeft verzwakt plus de omzet niet kan missen… tada.
Of wat te denken van de US en hun most wanted lists. Even op alle telefoons ter wereld de database laten vergelijken. Dat scheelt heel wat surveillance.
Laat duidelijk zijn: ik vind kinderporno verfoeilijk en dat dient aangepakt te worden. Is dit de manier? Ik denk van niet, want ondanks dat de technische uitleg an sich niet helemaal verkeerd klinkt is met name de implicatie en vervolgens de uitbreiding vooral het probleem van deze oplossing. Afgezien van het feit dat Apple je hierin weinig keus geeft (afgezien van iCloud niet meer gebruiken).

Edit: kindermisbruik moest zijn kinderporno

[Reactie gewijzigd door South_Styler op 22 juli 2024 19:43]

Het hek is dan van de dam, overheden en dergelijke kunnen gewoonweg afdwingen om dit systeem voor andere doeleinden te gebruiken. Theoretisch voorbeeld: China zegt tegen Apple - je dient deze database met Oeigoren te uploaden en te vergelijken want dit zijn “vrijheidsstrijders”. Doe je dat niet, dan volgt er een verbod op iPhones.
Google, Amazone, Facebook en Microsoft scannen al jaren alle geuploade foto's ook op kinderporno. Hoe weet jij of China die bedrijven niet allang heeft gedwongen die foto's gelijk ook te scannen op 'vrijheidsstrijders'?? Niemand heeft enig idee hoe en wat er gescand wordt.

Bij Apple worden alleen de foto's gescand die je upload naar iCloud. En omdat de hash-tabel onderdeel is van iOS en voor ieder land gelijk kan je die als land niet even vragen om veranderen of toevoegingen verandering zonder dat iedereen dat direct ziet, En het is daardoor mogelijk die hashtabe onafhankelijk te controleren, iets wat bij de clouddiensten van Facebook, Micorosoft en Google onmogelijk is.
[...]


Google, Amazone, Facebook en Microsoft scannen al jaren alle geuploade foto's ook op kinderporno. Hoe weet jij of China die bedrijven niet allang heeft gedwongen die foto's gelijk ook te scannen op 'vrijheidsstrijders'??
Wat impliceer je nu dan? Dat het geen slecht plan is omdat andere aanbieders het ook doen?
Gezien het grote aantal CSAM meldingen in 2020 lijkt het scannen effectief

Probleem van Apple's aanpak is dat je eigen device faciliteert in het detectie proces en dat voelt gewoon niet goed.

Anderzijds is Apple's methode technisch gezien privacy vriendelijker dan botweg al je geüploade foto's te scannen.
Anderzijds is Apple's methode technisch gezien privacy vriendelijker dan botweg al je geüploade foto's te scannen.
Apple gáát al je 'geüploade' foto's scannen. Je kan niet alleen de kwalijke foto's scannen, je moet ze immers allemaal scannen om te weten welke de kwalijke zijn. Geüploade tussen quotes omdat het grote verschil is dat Apple het scannen vóór het uploaden gaat doen, technisch gezien zijn ze dan dus nog niet geüpload.
Maar dat doen ze zoiezo al (wettelijk verplicht) nu gaan ze het gewoon al reeds op de telefoon uitvoeren.
Dat alle aanbieders dit moeten doen maar Apple het nét iets anders gaat doen dan de anderen. Juist omdat Apple denkt dat scannen op device privacy-vriendelijker is dan in de cloud. Daar kun je zelf prima twijfels over hebben en overstappen naar een partij die het wel in de cloud doet.

En theorie zou Apple zelfs verantwoordelijk gehouden kunnen worden voor verspreiding als ze het pas in de cloud doen, aangezien de foto’s dan al gesynchroniseerd kunnen zijn van iPhone naar iPad.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 19:43]

Ik vind het altijd zon dramatische conclusie. Als je het niet eens ben met een bepaalde ontwikkeling van een technologie, stap dan maar over naar de concurrent.. Ik wil me iPhone houden, werkt top. Maar dat betekent toch niet dat ik geen kritiek kan uiten op nieuwe ontwikkelingen?

En aangezien er zo veel kritiek is, niet alleen van consumenten maar ook privacy organisaties, lijkt het mij dat apple eerder moet overstappen naar een meer privacy vriendelijke model.
Er is veel kritiek. Maar bij 49% daarvan lees ik argumenten waaruit blijkt dat critici zich niet hebben verdiept in wat Apple precies gaat doen, andere 49% van de critici blijft de wat-als vraag stellen die compleet zinloos is. Blijven er 2% critici over de met redelijke argumenten komen. En voor die 2% heeft Apple de afgelopen dagen de vragen beantwoord in de Q&A’s.

Het enige wat dan nog rest is bedenken waar je je fijner bij voelt, scannen in- of voor de cloud en een leverancier zoeken bij je antwoord.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 19:43]

Die kritiek is volkomen terecht. Het is niet de taak van Apple om voor FBI te spelen. Apple gaat alle foto's scannen op MIJN device, gebruikt daarvoor opslagruimte waar IK voor betaald heb (om de hashes op te slaan) en doet dat met door MIJ betaalde energie.

Mocht de scan constateren dat er iets mis is met mijn foto's, dan gaat Apple ZONDER mij op de hoogte te stellen, de FBI/politie/whatever inschakelen. Die staan dus op een gegeven moment aan mijn deur, zonder dat ik ook maar enig idee heb wat er aan de hand is. Bij false positives is dat bijzonder vervelend, leg het maar eens uit aan je partner/buurman/kinderen. Maar er gaan zeker ook randgevallen ontstaan waarbij de gebruiker dacht dat hij normale porno had gedownload maar het model later toch minderjarig bleek. Je kunt dus gepakt worden zonder dat je enig idee hebt waar het om gaat.

Waarom stuurt Apple jou niet eerst een bericht/notificatie dat er foto's op je device zijn aangetroffen die niet deugen, met het verzoek deze snel te verwijderen? En desnoods het delen onmogelijk maken? Mocht je deze waarschuwingen negeren en ze moeten je keer op keer nieuwe waarschuwingen sturen, dan kunnen ze je altijd nog aangeven. Maar dan weet je tenminste waarom de politie voor de deur staat.

En dat staat allemaal natuurlijk nog los van het principe dat je apparaat jouw privacy niet hoort te schenden en mogelijk verder misbruik van de functie door overheden.
Je hebt het stukje gemist dat het systeem zoekt naar bestaande hashes en wat daar heel erg op lijkt.
Je hebt gemist dat iCloud niet van jou is, maar slechts een service.
Je hebt gemist dat er 30 (false) positives uit minimaal 2 databases moeten zijn wil er een belletje gaan rinkelen. En je hebt gemist dat NCMEC alle foto’s beoordeeld die Apple markeert.

Als ze een notificatie zouden sturen aan de gebruiker…. Kan de gebruiker het systeem gaan testen om te kijken hoe erg een foto veranderd moet worden om de besmetting kwijt te raken.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 19:43]

Als ze een notificatie zouden sturen aan de gebruiker…. Kan de gebruiker het systeem gaan testen om te kijken hoe erg een foto veranderd moet worden om de besmetting kwijt te raken.
Ik had begrepen dat de gebruiker - in geval van overstijgen van de drempelwaarde met een manueel onderzoek als gevolg - te maken krijgt met een geblokkeerd account en de mogelijkheid om de markering te disputeren.

Dat zou de zorg van @PhilipsFan voor onverwachts bezoek van autoriteiten in ieder geval ontnemen.

EDIT:
Nu ik mijn eigen reactie terug lees, denk ik niet dat een geblokkeerd account ook meteen betekent dat dat gepaard gaat met een verklaring van oorzaak. Wat dat betreft tast je op dat moment - in het geval van een onterecht gemarkeerd account - alsnog in het duister.
Wellicht dat de mogelijkheid tot disputeren dat wel biedt.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Ik heb helemaal niks gemist. Apple heeft er goed over nagedacht en maatregelen getroffen om zo weinig mogelijk false positives te krijgen, dat is op zich een goede zaak als je zo'n techniek gaat gebruiken. Maar ondanks de maatregelen zullen er toch false positives komen. Weinig misschien, maar niet nul.

Maar daar gaat het nog niet eens om. Apple zou zich helemaal niet met mijn foto's moeten bemoeien. Die zijn van mij en daar heeft verder niemand wat mee te maken.
99% van je reactie is een mening, de 1% is "Er is veel kritiek".
83% van mezelf vind dat je je mening probeert te onderbouwen met statistieken die niet gestaafd zijn. Volledig een mening dus, net zoals de mijne.
Waar precies tref je mijn mening dan? Ik heb mijn mening over wat Apple gaat doen zelf nog helemaal niet gevonden, ik kan hem dus ook nog niet verdedigen. Ze hebben bij mij vooralsnog wel het voordeel van de twijfel. Ik zoek naar argumenten die mij kunnen overtuigen en reageer in de discussie alleen op aantoonbare onwaarheden.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 19:43]

Daar kun je zelf prima twijfels over hebben en overstappen naar een partij die het wel in de cloud doet.
Totdat je niet meer kunt overstappen omdat het een industriestandaard is. Dit is de Libertarische aanpak en die werkt niet. :)
Ik kan er niet bij met mijn hoofd dat mensen hier Apple kunnen verdedigen. Alleen foto's worden gescanned waarbij het vinkje aanstaat dat ze geupload gaan worden. Ze hebben nu dus letterlijk de benodigdheden om dit aan te passen als er druk vanuit een overheid komt. En dan heb je praktisch alleen maar digibeten bij de overheden, en die gaan nu dus zeggen tegen Google, Microsoft of welke partij dan ook: jullie moeten dit ook implementeren.

Je kunt wel met het argument komen dat andere bedrijven ook scannen, maar die scannen op iets wat hun bezit is, en je moet er (vaak) handmatig een stap voor doen om daar naartoe te uploaden. Jij koopt een telefoon, maar je mag er opeens niet alles meer mee doen wat je wilt, dat is het tergende van wat Apple hier doet. Je zou maar eens een BMW kopen, en vervolgens zegt BMW: we gaan je bij de politie melden als je te veel het knipperlicht voor een bocht niet gebruikt.

Het is letterlijk een vermomde vorm van een backdoor op je telefoon, en niemand die goed kan controleren wat het allemaal doet op je telefoon.

Zie ook https://www.youtube.com/watch?v=9ZZ5erGSKgs.
Volgens mij hoeft china dat niet eens op die manier te doen.
Hashes injecteren in bestaande databases hoeft niet eens kinderporno te zijn!
En klaar
En volgens mij hoeft China zelfs dat niet te doen.

De implementatie vergelijkt foto's die in de wachtrij staan om naar de iCloud te worden geüpload.
Diezelfde iCloud waar China geen client-side CSAM poortwachter voor nodig heeft om in te zien.

De hele drogredenering over 'wat als China...' is in mijn ogen dan ook zinloos en leidt alleen maar af van de werkelijke zorgen omtrent deze implementatie.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Dit hele onderwerp heeft niets met China van doen. Het gaat over spionage van een Amerikaans bedrijf: Apple.

Ik begrijp echt niet waarom China er altijd met de haren bij gesleept wordt. Er zijn voldoende voorbeelden van ongewenste afluisterpraktijken in eigen land. Nederland is kampioen in aftappen en voor negatief profileren hoef je alleen maar het uitkeringsschandaal en/of de kredietregistratie te noemen.
@Chintzy @janbaarda
Ging mij ook niet specifiek over China hoor.
Het ging mij om het herkennen van beelden via hashes.
Iedereen die hashes kan toevoegen aan de databases (legaal of niet) kan het systeem misbruiken.
Er is geen mens die kan zien wat de hash nu voor iets was, kinderporno of wat anders.
En dat op zich is een terechte zorg en ook goed dat dat blijkbaar dus opgepakt is door Apple als ik het artikel zo lees.
Besef je dat het vreemd is dat eerst wereldwijde kritiek moet komen voordat Apple gaat nadenken over een plan. Dat wekt alleen maar meer wantrouwen.
Nog los can het feit dat slechts een deel van de kritiek aangepakt wordt.
Het blijft zeer bedenkelijk dat Apple op jouw eigen apparaat ern beoordeling doet.
Wat ik mij besef is dat ik veel, heel veel reacties voorbij zie komen die voornamelijk gaan over wat een mogelijke vervolgstap is van de implementatie en maar bar weinig discussie gevoerd over wat werkelijk technisch wordt voorgesteld door Apple.

De zorg omtrent mogelijk toevoegen van materiaal aan de hash database buiten de scope van CSAM was daar één van.

Ik zou graag zien dat in de gehele kritiek aan het adres van Apple meer gediscussieerd wordt over wat anders/niet moet aan de implementatie zoals voorgesteld.

In plaats daarvan zie ik alles ondergesneeuwd worden door reacties die;
- vooral gaan over hellend vlak drogredenen gepresenteerd alsof het al geschreven staat in steen
- technische kenmerken van de twee verschillende implementaties¹ door elkaar halen
- de materie helemaal niet lijken te begrijpen of hebben gelezen en vooral vanuit de onderbuikgevoelens zorgen uiten
- uitgaan van slechte intenties van Apple

In mijn ogen is dat zonde, omdat het enkel afleidt van een werkelijke vruchtbare discussie en onderbouwde kritiek aan Apple. Iets wat ze dan inderdaad kunnen gebruiken om aan te pakken.

¹) iCloud uploads matchen tegen een CSAM hash database en een uitbreiding van Ouderlijk Toezicht op sensitief materiaal in Messages

EDIT: 4e voorbeeld van reacties toegevoegd.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Wat ik mij besef is dat ik veel, heel veel reacties voorbij zie komen die voornamelijk gaan over wat een mogelijke vervolgstap is van de implementatie en maar bar weinig discussie gevoerd over wat werkelijk technisch wordt voorgesteld door Apple.

De zorg omtrent mogelijk toevoegen van materiaal aan de hash database buiten de scope van CSAM was daar één van.

Ik zou graag zien dat in de gehele kritiek aan het adres van Apple meer gediscussieerd wordt over wat anders/niet moet aan de implementatie zoals voorgesteld.

In plaats daarvan zie ik alles ondergesneeuwd worden door reacties die;
- vooral gaan over hellend vlak drogredenen gepresenteerd alsof het al geschreven staat in steen
- technische kenmerken van de twee verschillende implementaties¹ door elkaar halen
- de materie helemaal niet lijken te begrijpen of hebben gelezen en vooral vanuit de onderbuikgevoelens zorgen uiten
- uitgaan van slechte intenties van Apple

In mijn ogen is dat zonde, omdat het enkel afleidt van een werkelijke vruchtbare discussie en onderbouwde kritiek aan Apple. Iets wat ze dan inderdaad kunnen gebruiken om aan te pakken.

¹) iCloud uploads matchen tegen een CSAM hash database en een uitbreiding van Ouderlijk Toezicht op sensitief materiaal in Messages

EDIT: 4e voorbeeld van reacties toegevoegd.
Dat is een goed punt dat je daar naar voren brengt. Ik ben wel benieuwd naar je visie/mening in deze zaken om de discussie op gang te brengen.
@South_Styler
Mijn kijk hierop is:

Ik heb een aantal jaar geleden de overstap gemaakt van Android naar iPhone. Simpelweg omdat ik technisch niet goed genoeg onderlegd ben om bepaalde zaken die niet standaard aanwezig waren op m'n Android telefoons makkelijk voor elkaar te krijgen. Na de zoveelste mislukte poging om via het XDA forum dat wat ik voor ogen had voor elkaar te krijgen, heb ik die strijd simpelweg opgegeven en gekozen voor iPhone met het idee dat als de mogelijkheid niet wordt aangeboden, dan kan het ook niet. Eventjes frustrerend, maar wel makkelijker te accepteren. Ik ben er content mee.

Die overstap was nog voordat Apple de hele voorvechter van privacy narrative op de voorgrond bracht, maar met alle berichtgevingen over privacy afbreuk van de laatste jaren wel een welkome ontwikkeling en ik merk dat ik mij sindsdien steeds meer ben gaan instellen op die mogelijkheden, met als hoogtepunt de iCloud+ toevoegingen vanaf iOS15 die een aantal maanden terug zijn verkondigd.

Daarom dat het ook voor mij behoorlijk schrikken was toen de eerste berichtgevingen en uiteindelijke publicatie vanuit Apple over deze implementaties naar buiten kwam. Maar ondanks dat ik geen achtergrond heb in de IT, vind ik het wel leuk om met een maat van mij een paar keer per week 's avonds verschillende IT onderwerpen uit te diepen en afgelopen week was een mooi moment om te proberen dit onderwerp te begrijpen.
Toegegeven, sommige technische terminologie en uitleg ging mij de pet te boven, maar veel werd mij wel al een stuk duidelijker.

Wat voor mij voorop blijft staan is, wat ik in mijn andere comment ook tussendoor heb aangestipt;
Uitgaande van juiste intenties en in geval van een gegronde noodzaak, zie ik graag dat Apple er alles aan doet om privacy te waarborgen en tegelijk een groter doel hiermee mogelijk maakt, te weten het toevoegen van iCloud fotobibliotheek aan het rijtje van end-to-end encrypted onderdelen in de iCloud.

En waar Apple te kort schiet in het uitwerken van de implementatie, hoop ik dus dat de community dat weet aan te vullen.
Dat is in mijn ogen het meest efficient als de discussie draait om wat de implementatie daadwerkelijk technisch gezien omvat.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Waar het werkelijk om gaat is dat Apple openlijk toegeeft dat zij meer controle hebben over je telefoon dan jezelf.
Er was altijd wel een vermoeden en een zekere achterdocht. Nu Apple het zelf zegt bestaat er geen twijfel: de iPhone is niet van jouw, Apple bepaalt wat er op mag en wat niet.
N.B. ik ben mij er van bewust dat Apple niet de enige is. Wel is het zo dat bij Apple HW en SW in een hand zijn.
Het technisch verhaal van Apple is pure window dressing — je hebt garantie tot aan de home button — de techniek verandert zo snel dat wij uiteindelijk nooit echt zullen weten hoe het eea in elkaar steekt. Het is bijzonder naïef om dit soort zaken meer dan face value te geven.
Naïef of verspilling van energie. Tijd zal het leren.

In mijn optiek heeft een hellend vlak minimaal twee gerelateerde meetpunten nodig om enigszins conclusies eruit te kunnen trekken die bijdragen aan een zinvolle discussie.

Dat je geen zicht hebt op wat er werkelijk wordt uitgevoerd binnen iOS en dat je dus maar moet vertrouwen op wat Apple zegt, ben ik met je eens.

Maar als je dat niet wilt - en dus opereert volgens m'n 4e punt in bovenstaande voorbeelden van reacties - valt er van een dergelijke discussie nooit te winnen, daar je met die reden alles in twijfel kunt brengen.
Bovendien, als er slechte intenties aan de orde zijn bij deze implementatie, dan zijn die er dus - met of zonder deze implementatie.

Ik zie vooral een ongebruikelijke implementatie van een systeem die vanuit een interne motivatie¹ ipv vanuit de gebruiker is ontwikkeld, waarvan ik persoonlijk wil geloven dat het gedaan is om server-side data zoveel mogelijk zero-knowledge te laten zijn. Vooralsnog dan misschien enkel zodat het eigen personeel zo min mogelijk noodzaak - en dus mogelijkheid - heeft om bij die data te kunnen en misschien op termijn dan ook end-to-end encrypted terwijl er toch wordt voldaan aan het tegengaan van CSAM distributie. Ook hier geldt, de tijd zal het leren.

Neemt niet weg dat het nodig is om vooraf alle gegronde kritiek op de implementatie aan te pakken en op te lossen voordat het daadwerkelijk wordt ingevoerd.

¹) Hetzij vanuit ethiek, hetzij vanuit overheidsdruk, hetzij *onbekend*

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Er zijn diverse technische analyses van apples plan. Met name het feit dat men een heldere grens over wil gaan door op jouw telefoon te scannen.
Er zijn diverse technische analyses van apples plan. Met name het feit dat men een heldere grens over wil gaan door op jouw telefoon te scannen.
Met het risico op het klinken als een gebroken klok:
Een mening verkondigen als een feit, draagt helaas niks bij aan het verbeteren van de situatie.
Hier staan geen meningen maar feitelijke vaststelling. Als je die niet uit elkaar kunt houden begrijp ik je verwarring over dit onderwerp.
Ik zal je helpen hier.
Feit:
Apple scant lokaal, dus op jouw telefoon, je afbeeldingen voordat je ze upload op de cloud.
De scan genereert een hash die vergeleken wordt met een door Apple aangeleverde database..

[Reactie gewijzigd door SED op 22 juli 2024 19:43]

Hier staan geen meningen maar feitelijke vaststelling. Als je die niet uit elkaar kunt houden begrijp ik je verwarring over dit onderwerp.
Dan excuseer mijn verwarring, maar het enige wat ik zie staan is een stelling ("Er zijn diverse technische analyses van apples plan.") zonder verwijzing noch onderbouwing en een mening ("Met name het feit dat men een heldere grens over wil gaan door op jouw telefoon te scannen.") verkondigd als een feit.

Ik ben met je laatste zin overigens wel benieuwd naar welke verwarring je op doelt. Oprecht, want ik zie zo snel even geen commentaar waarin ik aangeef verward te zijn over dit onderwerp.
Of je moet doelen op mijn standpunt van juiste intenties en bij de voorgestelde implementaties te bijven. Maar dan nog is dat misschien een kwestie van meningsverschil, maar oogt het nu meer als onnodig op de man spelen / ad hominem aanval.
Het is geen mening dat Apple hier een grens over gaat. Dat is ongekend op je eigen apparaat.
(ken jij anderen die dit doen?)
De technische analyses zijn al in eerdere stukken aangehaald en gelinkt. Sterker, apples reactie op die analyses ligt weer aan de basis van dit stuk.
Je samenvatting van wat jij als probleem verwoord oogt verward (mening).
@SED
Het is geen mening dat Apple hier een grens over gaat. Dat is ongekend op je eigen apparaat.
(ken jij anderen die dit doen?)
De technische analyses zijn al in eerdere stukken aangehaald en gelinkt. Sterker, apples reactie op die analyses ligt weer aan de basis van dit stuk.
Je samenvatting van wat jij als probleem verwoord oogt verward (mening).
Ik ga eerlijk met je zijn; ik weet niet of het voor mij verstandig is om deze discussie op deze manier door te blijven voeren.

Jij komt met een stelling zonder onderbouwing, zonder verwijzingen. Vervolgens krijg ik het gevoel dat het persoonlijk wordt (maar licht je dat gelukkig nu in ieder geval nog toe). En in je laatste reactie leg je nota bene de bewijslast bij mij neer.

Daar komt bij dat ik mij technisch helemaal niet gekwalificeerd genoeg voel om op dat niveau de discussie aan te kunnen.
Niet voor niks heb ik mij buiten de technische discussies gehouden waar dat dat mijn niveau overstijgt.
De discussie die ik onder dit artikel voer, heeft grotendeels te maken met de manier waarop de algehele discussie plaatsvindt.

EDIT: spelling

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Dan laten we het daarbij, geen probleem.
Er is geen mens die kan zien wat de hash nu voor iets was, kinderporno of wat anders.
En daarom volgen er nog twee handmatige controles, de eerste bij Apple en (mits positief) daarna nogmaals bij NCMEC

[Reactie gewijzigd door Carbon op 22 juli 2024 19:43]

Zo, dus Apple en NCMEC weten nu dat er iets met jouw (telefoon) niet in de haak is.

Het maakt dit in mijn ogen niet beter.
Omdat China een perfect voorbeeld is van wat kan gebeuren in de extreemste vorm als deze systemen misbruikt worden door een overheid misschien? :)

On Topic: Lijkt me niet slim van Apple om dit te doen .... apple had inderdaad het etiket privacy zeer hoog te hebben staan en als het systeem er eenmaal is dan is er gewoon een te grote kans ( zie China ) dat het door overheden gebruikt wordt om hun bevolking te onderdrukken.

[Reactie gewijzigd door Zyphlan op 22 juli 2024 19:43]

Ik begrijp echt niet waarom China er altijd met de haren bij gesleept wordt.
Omdat 'iedereen' direkt gelooft dat china dat doet, en iedereen vindt dat dat niet zou moeten kunnen (als china het doet). Als je het over NL/EU/een ander westers land hebt, dan is de kans groot dat er mensen zijn die zullen reageren dat het hier wel meevalt, en dat 'wij' (onze regering) het alleen zullen doen als het echt nodig is, etc. etc.
Er zijn voldoende voorbeelden van ongewenste afluisterpraktijken in eigen land. Nederland is kampioen in aftappen
Nu heb ik een vermoeden dat dat 'kampioen' ook wel meevalt. Waar wij in NL vooral heel erg goed in zijn, is om alles zo veel mogelijk eerlijk te registreren en te melden (ik zeg overigens niet dat dat altijd gebeurt). In andere landen wordt dat allemaal veel meer onder de tafel gehouden, omdat ze (terecht) bang zijn voor negatieve pers. Dan is het niet moeilijk om als land in de top te eindigen als je alles wél goed registreert.

Ter illistratie van hetzelfde fenomeen: er was een tijdje geleden een video op Youtube, met de strekking dat het zinloos is om te pogen inkomensongelijkheid te verminderen. Het argument was dat nederland, waar we dat wel proberen, toch het meest ongelijke land ter wereld is... Ze keken dan niet naar inkomens, maar naar 'wealth' (rijkdom/vermogen ?). Dat is natuurlijk baarlijke nonsens, en het 'probleem' schijnt te zijn dat bij ons alles netjes geregistreerd en geteld wordt, zodat van iedereen bekend is hoeveel ie bezit. Terwijl geloof ik de pensioenspaartegoeden weer niet meegerekend werden. In andere landen is dat precies andersom, dus was NL volgens de officiële geregistreerde cijfers ineens het meest ongelijke land. Nu zijn we beslist niet het meest gelijke land, maar dat we in de top van ongelijkheid zouden scoren gelooft niemand die een beetje kennis van de wereld heeft.
Spionage? Hoe dan?
Dit hele onderwerp heeft niets met China van doen. Het gaat over spionage van een Amerikaans bedrijf: Apple.

Ik begrijp echt niet waarom China er altijd met de haren bij gesleept wordt. Er zijn voldoende voorbeelden van ongewenste afluisterpraktijken in eigen land. Nederland is kampioen in aftappen en voor negatief profileren hoef je alleen maar het uitkeringsschandaal en/of de kredietregistratie te noemen.
De reden dat ik China als voorbeeld nam heeft te maken met de manier van classificeren. Je hebt gelijk dat Nederland zelf ook genoeg verkeerde signalen afgeeft en problemen creeërt. Ik trek wel je voorbeelden in twijfel in deze context: ik zie niet in hoe hashes van foto’s bij kredietregistratie en/of uitkeringsschandaal gerelateerd zijn. Ja, dat zijn grote maatschappelijke problemen, maar zijn niet relevant in deze context.
Ik heb specifiek de Oeigoren gepakt vanwege de context en illustratie van hoe dit systeem gebruikt kan worden om een hele groep mensen te classificeren. Dat is van een heel andere lading dan de maatschappelijke problemen die je aankaart. Ook het aftappen, wat op stelselmatige manier gebeurd is niet in verhouding tot Amerika, China of Noord Korea of Turkije (volgens mij), maar goed dat kan ik niet beoordelen.

Naast China gaf ik ook een voorbeeld van criminelen dat weliswaar nuttig is, maar ook behoorlijk ver gaat. Mocht je een ander voorbeeld willen dan China met de Oeigoren, dan pak ik er eentje uit de geschiedenis om het probleem op dezelfde manier te illustreren.
Met deze techniek hadden de Duitsers Joden kunnen identificeren en laten oppakken in de jaren 40 zonder consent van de burgers of zonder hun medewerking.

Overigens zie ik het niet zozeer als spionage. Ik zie het meer als een manier van classificeren (in dit geval kinderporno) waar ik onvrijwillig - zonder enige vorm van consent - aan bijdraag. Er wordt iets van mij gebruikt (de telefoon) dat mogelijk conflicteert met mijn ethische normen en waarden zonder dat ik een goede manier heb om te weigeren behalve de dienst niet af te nemen. Nu zou die dienst weigeren niet zo erg zijn, mits dat deze niet zo essentieel was in veel zaken. Via iCloud maak je o.a. backups dat vind ik toch een vrij essentiële dienst.

[Reactie gewijzigd door South_Styler op 22 juli 2024 19:43]

Apple en nobel doel????
Commercieel doel ligt meer voor de hand: koop een iPhone voor je kinderen. Wij van Apple zorgen dat het " veilig" is.

Bij privacy bewuste tweakers valt dit verkeerd. Dus volgt er een campanje om het weer goed te praten.
Het worden geen separate databases die zomaar geüpdatet kunnen worden. De database wordt onderdeel van het OS-image dat (deels versleuteld en gesign-ed) door Apple wordt gedistribueerd.
Het updaten gaat dus niet zoals bij bijvoorbeeld virusdefinities. Het updaten van de database betekent dus een IOS-update.

De discussie gaat m.i. een vreemde kant op. Ik snap enerzijds de zorgen van de privacy-community maar deels. Als je privacy belangrijk vindt gebruik je geen smartphone voor zaken waar je 'last' van kunt krijgen. Of het nu gaat over porno, journalistieke vrijheid, of anders.

Daarnaast wil je wel dat kindermisbruik wordt aangepakt. Tegelijkertijd wil je niet dat onschuldige vakantiefoto's ervoor zorgen dat je geflagged wordt als verdachte.

Ik vind de oplossing van Apple eigenlijk wel een nette. Ze moeten het nu al doen op iCloud (net zoals alle techbedrijven) ook de EU wil dit al enkele jaren invoeren/verplichtstellen. Door het naar het apparaat te brengen zou evt. kunnen betekenen dat Apple bezig is om E2E voor foto's in iCloud in te gaan voeren. Je bent iig wel flink wat discussies op die manier voor in de Amerikaanse senaat dat kinderporno niet meer opgespoord kan worden met e2e. Houden we alleen nog terrorisme en andere zware criminaliteit over.

Details over hoe Apple het wil oplossen staan in dit document: CSAM Security Threat Model Review of Apple Child Safety Features

[Reactie gewijzigd door Ferruginous Hwk op 22 juli 2024 19:43]

Een bijkomend probleem is dat het nu niet meer uitmaakt of Apple het doorvoert of niet. Het signaal richting de politiek is al gegeven dat dit mogelijk is, en die zal dat wereldwijd dan ook ten volste proberen te benutten. Of het een "democratie" is of een autocratie maakt daarbij niet echt meer uit.

Ik hoop dat ik ernaast zit, maar het lijkt steeds meer op een dystopie a la Black Mirror.

[Reactie gewijzigd door Jeanpaul145 op 22 juli 2024 19:43]

China dwingt heden ten dage afwijkende hardware matige beveiliging af, lokale servers en lokale app store. Hoewel Apple zegt dat de overheid geen toegang heeft is dit heel onwaarschijnlijk.
En dit is nog maar het begin van wat mogelijk is, nu de Pandora's Box eenmaal geïnstalleerd is zullen er nieuwe toepassingen bedacht blijven worden.

Paar zaken waar ook op gescand zou kunnen worden op verzoek overheden:
- Verboden vlaggen / artifcaten (in Photos)
- Verboden woorden in berichten / documenten (in iCloud)
- Verboden contactpersonen (in Contacts)
- Bluetooth data mbt nabijheid andere personen (via Sensor)

Nu Apple laat zien dat er mogelijk tot het inbouwen van surveillance zijn is het een kwestie van tijd tot bepaalde overheden de druk gaan opvoeren of Apple botweg dwingen de scanfunctionaliteit meerdere datasets te voeren of uit te breiden naar andere delen van de apparaten.
Dit is een echte PR-ramp.
'There is no such thing as bad publicity'.

Al deze aandacht zal enkel de verkoop van iPhones en andere Apple apparatuur nog harder boosten want hoe kun je het hier nou mee oneens zijn? En die paar procent Tweakers die bedenkingen hebben en hun privacy heel belangrijk vinden, wat gaan die doen? Er is toch geen alternatief. Android is geen optie.
Nou ik denk dat ook niet tech savy mensen, niet bepaald staan te wachten dat je eigen telefoon je gaat verlinken. Het een verkeerd idee vinden en ook bang zijn dat ze perongelijk vals positieve te maken krijgen met justitie ofzo.
Wellicht maar de grote meerderheid is hier niet eens van op de hoogte. En wat ik zeg er is toch geen alternatief. Het is kiezen tussen de pest en cholera.
No such thing as bad publicity? Zeg dat maar tegen Buckler Bier.
Buckler bier is geen religie net als Apple.
Dit is een echte PR-ramp...Afgezien van het feit dat Apple je hierin weinig keus geeft (afgezien van iCloud niet meer gebruiken).
Los daarvan, wie zegt dat ze niet alsnog gewoon je telefoon kunnen scannen zelfs als iCloud sync uit staat? Dat is het lastige met deze move, Apple geeft hier al aan dat ze hun principes overboord kunnen gooien, wanneer komt de volgende stap?
I repeat:

Het is natuurlijk alleen maar goed dat er hard tegen kindermisbruik gestreden wordt. Maar voor mn gevoel wordt dit nu heel listig / strategisch ingezet om de fotoscanfunctionaliteit te legitimeren. Want hoe kan je nou tegen het opsporen van misbruik zijn…?
Apple maakt nu misbruik van de algehele publieke opinie mbt kindermisbruik om de functionaliteit te implementeren. Dat is next level manipulatie imo…
en het gedeelte van ''Craig Federighi (SVP software engineering bij Apple) acknowledges confusion around Apple Child Safety Features '' is niks meer dan gastlighting naar een nieuw level brengen natuurlijk

[Reactie gewijzigd door _Bailey_ op 22 juli 2024 19:43]

Dat is natuurlijk bijna altijd zo, dat er een 'goed excuus' is, maar komt dit echt vanuit Apple zelf of is het onder druk van vanuit de Amerikaanse overheid en / of anderen? Dit is namelijk niet bepaald de eerste keer dat kindermisbruik het excuus is: Er is al jaren een hele database / systeem met hashes. Dat wordt al jaren gebruikt om hosting en opslag te filteren.

Jaren geleden had je al vergelijkbare situaties met terroristen. De Amerikaanse opsporingsdiensten willen altijd al een 'achterdeur' en komen altijd met 'ja maar terroristen / kinderporno / bankovervallers'.

En veel bedrijven hebben daar in het verleden ook al aan toegegeven, zie ook Snowden. De druk op Apple wordt daardoor nog groter als ze bijvoorbeeld het laatste grote bedrijf zijn wat niet meedoet aan csam.
Dit is precies wat ook hier gezegd wordt: https://www.youtube.com/watch?v=9ZZ5erGSKgs. Nu kun je dus de mensen die erop tegen zijn afstempelen als mensen die voor kindermisbruik zijn. Terwijl dat helemaal niet het geval is.
Precies. Net zoals mensen die voor privacy zijn altijd worden afgeschilderd alsof ze dus wel wat te verbergen zouden hebben.

Zeer hellend vlak deze ontwikkeling.
Afgezien van de privacy is een filter zoals deze ongetwijfeld niet feilloos. Transip heeft ook zoiets en heeft onlangs besloten om de dienst te pauzeren na teveel false positives.

nieuws: TransIP pauzeert HashCheckService na onterecht verwijderen van afbeel...
Anoniem: 1576590 @Robbie T14 augustus 2021 15:16
Dank voor die link!

Uit Apple's Security Threat Model Review of Apple’s Child Safety Features:
The first protection against mis-inclusion is technical: Apple generates the on-device perceptual CSAM hash database through an intersection of hashes provided by at least two child safety organizations operating in separate sovereign jurisdictions – that is, not under the control of the same government.
Uit het vervolgartikel op Tweakers van 1 dag later:
Gerkens: "We kregen in april een nieuwe toeleverancier van hashes, de Canadese politie. [...]"
Als allerlei landen hashes uitwisselen is deze "mitigerende maatregel" dat dus niet.

Adult porno is verboden in bijv. Indonesië en de UAE, dus hashes van door die landen ongewenst beeldmateriaal kunnen in Apple's database met CSAM neuralhashes terechtkomen. De onderliggende technologie wordt al gebruikt (door anderen dan Apple) voor het opsporen van Jihadistisch beeldmateriaal (hoe goed dat ook klinkt, je kunt zo ook allerlei foto's als illegaal beeldmateriaal classificeren, zoals van een ongewapende student die een tank tegenhoudt, van een naakt meisje met brandwonden dat vlucht na een bombardement met ontbladeringsmiddel napalm, of andere voor overheden belastend fotomateriaal).

Uit eerdergenoemde Security Threat Model Review of Apple’s Child Safety Features:
The perceptual CSAM hash database is included, in an encrypted form, as part of the signed operating system. It is never downloaded or updated separately over the Internet or through any other mechanism. This claim is subject to code inspection by security researchers like all other iOS device-side security claims.

Since no remote updates of the database are possible, and since Apple distributes the same signed operating system image to all users worldwide, it is not possible – inadvertently or through coercion – for Apple to provide targeted users with a different CSAM database.
Die human reviewers bij Apple zouden het best wel eens druk kunnen krijgen...

Totdat landen gaan eisen dat op devices ontdekte verdenkingen niet door Apple medewerkers, maar voortaan door hun eigen "bevoegd gezag" beoordeeld moeten worden.

[Reactie gewijzigd door Anoniem: 1576590 op 22 juli 2024 19:43]

Is de term "Beelden scannen" niet een beetje misleidend? Er worden toch geen beelden gescand (lees:naar het plaatje gekeken) maar puur gekeken naar de hash van de afbeelding zelf?

Overigens is de hele technologie een beetje een wassen neus. Door een simpele, al dan niet geautomatiseerde, conversie of kleine aanpassing van een afbeelding kan je de hash al wijzigen waardoor deze niet meer overeenkomt met de hash in de database.
Wat is het verschil? Ze controleren je privédata op iets wat terecht illegaal en zeer verwerpelijk is.
Het enige probleem is dat wat verwerpelijk is, nogal subjectief is en afhankelijk van de cultuur/tijd. Er zal altijd volk te vinden zijn die vinden dat wat zij verwerpelijk vinden, illegaal gemaakt moet worden en baddaboemboem de natte droom van de CCP is realiteit... (al zijn ze zelf al goed bezig, ze hebben geen hulp nodig in het ombouwen van hun menselijke bevolking naar robotten).

Ga je er mee akkoord dat ze hashes trekken van je privé-gesprekken (je hebt toch altijd een microfoon bij die alles kan opslagen wat je zegt), dit om ze te vergelijken met databases of er dingen in voorkomen waarvan bepaalde mensen vinden dat het verwerpelijk is? Los van de false positives en de (hopelijk) zeer lage signal to noise ratio is dit een oplossing voor een probleem die veel energie, geld en privacy kosten met zich meedraagt dat men zich kan afvragen of er hier niet meer schade gecreeërd wordt dan er opgelost wordt.
Maar is het illegaal? Hoe verwerpelijk kindermisbruik ook is, elk land heeft zijn eigen regels daarvoor. In nl is dat in principe jonger dan 12 jaar, in de VS is dat gewoon alles jonger dan 18. Het is niet aan Apple om te beslissen wat wanneer strafbaar is en waar. Apple hoort niet op de stoel van de politie, om of wetgever te gaan zitten en dat doen ze op deze manier wel.
Nee, er worden wel degelijk beelden bekeken door de software. Het is geen bit voor bit vergelijking van de afbeelding maar een beoordeeling van wat er op de afbeelding staat. Dit om te voorkomen dat het bijsnijden of lichtjes vervormen van een afbeelding voldoende is om hem onherkenbaar te maken voor deze technologie. Je hebt dus een algoritme dat moet gaan bepalen wat er op te zien is.
Ah, dan is dit dus meer dan een eenvoudige hashcheck. Thanks!
Ah, dan is dit dus meer dan een eenvoudige hashcheck. Thanks!
Het klopt ook niet wat hij zegt, zie ook Argantonis in 'nieuws: IPhones en iPads gaan foto's controleren op kindermisb...
Dat op zich is in mijn ogen niet eens het probleem waar zoveel weerstand uit naar voren komen. iOS werkt al jaren met verschillende technieken om beelden client-side te herkennen.

Het verschil dat deze vorm van beeldherkenning met zich meebrengt, is dat voor het eerst het resultaat ervan - in het geval van een match - wordt gedeeld met Apple.

En hoewel het erop lijkt dat Apple veel aandacht heeft besteedt aan alle privacy implicaties van deze werking¹ blijft dit natuurlijk een systeem wat niet in het belang van de gebruiker wordt geïmplementeerd² en tevens haaks staat op de privacy narrative welke Apple de laatste jaren steeds sterker verkondigd.

¹) Wat zich vooral uit in dat pas na het bereiken van een x aantal matches de zaak voor Apple inzichtelijk wordt, dus ook bij x-1 kan Apple niet (onder dwang) een beeld krijgen van een iCloud gebruiker.
²) Tenzij dit toekomstige mogelijkheden biedt om wel end-to-end encrypted iCloud fotobibliotheek te faciliteren, maar dat is geen gegeven.

[Reactie gewijzigd door Chintzy op 22 juli 2024 19:43]

Nee, er worden wel degelijk beelden bekeken door de software. Het is geen bit voor bit vergelijking van de afbeelding maar een beoordeeling van wat er op de afbeelding staat. Dit om te voorkomen dat het bijsnijden of lichtjes vervormen van een afbeelding voldoende is om hem onherkenbaar te maken voor deze technologie. Je hebt dus een algoritme dat moet gaan bepalen wat er op te zien is.
Dat klopt dus niet. Dat herkennen van beelden gaat dus NIET om met matchen met die database van kinderporno. Dat kan ook niet, tenslotte hebben ze daar alleen de hashes van dus ze kunnen slim gaan doen wat ze willen maar ze hebben niks om die afbeelding op je telefoon mee te vergelijken.

Wél hebben ze een functie die dat type materiaal gaat herkennen, maar dat heeft weer niks met die bestaande kinderpornodatabase te maken, en gaat ook niet om het flaggen van iemand maar om een waarschuwing te kunnen tonen bij versturen en ontvangen van berichten.

Ook hier al gezegd, met source: Argantonis in 'nieuws: IPhones en iPads gaan foto's controleren op kindermisb...
Dit lijkt me toch wel een deel van de kritiek in te dammen. Het is niet waterdicht, maar goed. Een enkel obscuur land zal dus niet zomaar iets kunnen doen.

Tevens moet je dus 30! gemarkeerde afbeeldingen de iCloud inschieten voordat je account als geheel wordt gemarkeerd en ze de getriggerde afbeeldingen controleren. De kans dat er 30 false-positives optreden lijkt me wel erg summier en bijna verwaarloosbaar. Dus die vlieger gaat (voorlopig) ook niet meer op.

Het blijft wel een "what if later....", maarja. Dat kan je altijd en overal over roepen.
De ‘what if later’ is over het algemeen de kern van discussies omtrent privacy, de implicaties zijn nú prima te overzien.
Het blijft wel een "what if later....", maarja. Dat kan je altijd en overal over roepen.
Ja, laten we nu roepen dat we niets te verbergen hebben, en even aankijken wat al die CCTV ons oplevert
Onze wetgeving er op inregelen en vervolgens over 10 jaar er achter komen dat dat toch wel onhandig is gebleken, omdat de koppeling met ANPR en OV chipkaart betekend dat je nergens zomaar naartoe kan.
Gebruik iCloud dan niet voor je foto's. Een beetje privacy-minded gebruiker deed dat toch al niet zonder de data zelf eerst te versleutelen.

Tevens weet je dat PhotoDNA al jaren (geloof sinds 2009) draait op Bing, OneDrive, Gmail, FB, Outlook e.d. met hetzelfde doel? Het is niet nieuw. Apple is geen marktleider oid. Dus heel eerlijk snap ik de huidige ophef maar beperkt.

[Reactie gewijzigd door eric.1 op 22 juli 2024 19:43]

Dat andere het ook doen betekent niet dat het goed/gewenst is.
Gebruik iCloud dan niet voor je foto's. Een beetje privacy-minded gebruiker deed dat toch al niet zonder de data zelf eerst te versleutelen.

Tevens weet je dat PhotoDNA al jaren (geloof sinds 2009) draait op Bing, OneDrive, Gmail, FB, Outlook e.d. met hetzelfde doel? Het is niet nieuw. Apple is geen marktleider oid. Dus heel eerlijk snap ik de huidige ophef maar beperkt.
De beste oplossing :|
En ook de Apple oplossing ;) "you're using it wrong"
( en vervolgens de veldsterkte metingen vertragen, zodat het lijkt te zijn opgelost :+

Zolang ik er geen controle op heb, is het een onsecure oplossing, of het nu opslag is van een foto, of stalling van mijn caravan in de winter in een opslagruimte.
Je weegt het risico af tegen het gemak of de mogelijkheid.
Cloud opslag is een virtuele USB stick, op elk moment kan je hem verliezen
Geen van die anderen scant op jouw eigen persoonlijke zelf aangeschaft extreem privacy gevoelig device!
Als Apple de foto's zou scannen in iCloud zou ik je nog gelijk geven dat het niet gebruiken van iCloud dan een oplossing kan zijn. Maar dat doen ze in dit geval dus niet. Ze scannen reeds op je toestel. Er staat dus een stuk software dat in staat is je privacy te schenden op je toestel zonder dat je daar ook maar enige controle over hebt.

Al die andere diensten die je noemt doen het in de cloud, niet op de devices zelf voordat het naar de cloud gaat. Dat had Apple hier ook noeten doen. Dan zou dat excuus opgaan. Nu niet. Al is het excuus van "ja, maar zij doen dat ook" altijd al een zwak excuus geweest.
Het punt is niet dat foto's worden gescand nadat je ze naar de cloud upload.

Het punt is dat de foto's op je telefoon zelf worden gescand. Apple claimt dat ze alleen fotos scannen die worden geüpload en apple claimt dat ze alleen scannen op bepaalde hashen maar er is geen enkele manier om dat te controleren.

Technisch is er 0 reden dat dezelfde techniek niet op elke foto op een telefoon toegepast kan worden ook als je ze niet upload naar iCloud. Net zoals we geen enkele reden is dat de database met hashes niet kan worden uitgebreid met materiaal wat land X niet acceptabel vind.

Dus als China morgen besluit dat Apple elke foto moet scannen op door de overheid aangeleverde hashes dan is iedere iOS gebruiker in China de klos want Apple gaat geen nee zeggen tegen bv de Chinese overheid.

En dat is het probleem. Iedereen met een beetje verstand weet dat zodra dit is geïmplanteerd het misbruikt zal worden omdat Apple wel moet doen wat een overheid eist. Voor de bühne zullen ze er in sommige landen wel een hoop herrie over maken, ongetwijfeld in landen waar de rechtstaat en politiek goed gescheiden zijn, maar in landen waar dat niet het geval is (en waar privacy juist het meest nodig is) gaat dat niet gebeuren.
China...dat argument is zo zinloos. Waarom? iCloud in China wordt aangeboden via....een 'government owned firm'. Laat dit gewoon achterwege. China kan alle foto's op de Chinese iCloud al ongehinderd inzien.
De cloud ja. Niet de foto's op een device zelf. Wat Apple gaat doen maakt het mogelijk om iedere foto te scannen ook als je ze NIET upload naar de cloud.
waarom een 'on device scanning software' inbouwen als dat niet eens écht nodig is? Kan toch prima in de iCloud en de iCloud alleen?
Of is het simpelweg onmogelijk om in de iCloud foto's te scannen zonder eerst een on device surveillance software in te bouwen?
Mijn gok; omdat ze iCloud-brede E2E-encryptie willen implementeren. Dan kan dat natuurlijk niet meer. En met deze methode wel.

Tevens snap ik niet waarom dit uitmaakt? Is het in de cloud scannen zoveel beter dan?
Ja, dan blijf je van jouw eigen device af. Daar heeft niemand iets te zoeken. Als jij het op een externe dienst neerzet mag die grenzen stellen en bewaken.
on device; dat is op mijn iPhone.
in de iCloud; is niet van mij, is een 3e partij waar ik een dienst van afneem.

Om nog maar niet over vertrouwen te spreken; Apple vraagt ons het volste vertrouwen in deze kwestie, mag wellicht ook wederzijds dan.
En met deze standaard surveillance software op élke iPhone wek je wat mij betreft alles, behalve vertrouwen in je klant.

[Reactie gewijzigd door _Bailey_ op 22 juli 2024 19:43]

Wie zegt dat je zelf deze afbeeldingen upload naar je iCloud? Er komt dus een ‘onafhankelijk’ mechanisme om verdachte foto’s te detecteren. Er zullen altijd wel mensen/organisaties/overheden zijn die daar misbruik van willen maken om mensen te compromitteren. Ik herinner me een uitspraak uit een ver verleden: cloud is fout.
Sjah, wat zal ik zeggen, iCloud Photos doet geen magie uit zichzelf.
Nu.nl heeft zojuist een artikel geplaatst waarin het een en ander aan experts wordt voorgelegd:

https://www.nu.nl/tech-ac...ilemmas-met-zich-mee.html
Arda Gerkens, directeur van het Expertisebureau Online Kindermisbruik (EOKM) komt hier aan t woord:

Een verplichte meldplicht bij de vondst van kinderporno, zoals die in de VS geldt, werkt bovendien averechts, stelt Arda Gerkens, directeur van het Expertisebureau Online Kindermisbruik (EOKM) in gesprek met NU.nl.

Ze wijst erop dat Apple apparaten gaat scannen op materiaal dat al bekend is bij de autoriteiten. "Stel je voor wat tienduizenden meldingen per jaar betekent voor de werkdruk van de politie. Die moeten onderzoek doen, een huiszoeking en het in beslag nemen van gegevensdragers. En het is niet zo dat één rechercheur daarmee bezig is.
Je gaat er geen slachtoffers mee redden en ook geen daders mee vinden

Ondertussen komen op andere online plekken duizenden mensen samen om kinderporno uit te wisselen. De politie kan die tijd veel beter gebruiken om die netwerken op te sporen. Daar zitten de echte daders en slachtoffers.", aldus Gerkens.
Hoe meer ik zie hoe Apple reageert, hoe (voor mijn gevoel) meer het ongeloofwaardiger word..
Waar ik meer naar benieuwd ben is waarom ondanks alles ze het alsnog op 1 of een andere manier willen doorpushen.

En dan ben ik benieuwd naar de echte reden, niet de "PR variant".

Zelf heb ik gemengde gevoelens hierover, en de vraag is meer hoeveel mensen met kinderporno materiaal er alsnog onderuit komen, want niet iedereen plaatst met een "big smile" al die foto's op z'n iPhone, sowieso niet nu dit bekend is en vrijwel iedereen ervan weet dat Apple hierop wil gaan controleren.

Bovenstaande terzijde, alleen het feit al dat ze dit toepassen voor kinderporno materiaal, gooit de deur wijd open voor andere toepassingen die al eerder genoemd zijn door andere mensen.

En Apple kan roepen wat ze willen, je opent de doos van Pandora hiermee, goed bedoeld of niet straks kan deze techniek voor andere dingen gebruikt worden, dan wel door overheden.

[Reactie gewijzigd door Mizgala28 op 22 juli 2024 19:43]

Als het argument kinderporno van stal wordt gehaald weet je eigenlijk al dat het ergens anders om gaat.
Het is goed mogelijk dat de VS gewoon gaat afdwingen dat ze een achterdeur krijgen, maar Apple dat niet goed kan verkopen aan hun volgelingen. Het kinderporno-argument is een manier om het acceptabel te laten lijken dat ze jouw data volledig wegegeven aan welke overheid dan ook.
Bij o.a. China is dat een feit, maar anderen sluiten gewoon aan.

Wat op de iPhone staat, blijft bij de overheid.
ik zie alleen maar meer brandjes die ze moeten gaan blussen op deze manier ....

voorbeeld : opslag(ruimte) is een premium bij Apple, het prijsverschil tussen twee iPhones is significant te noemen.
En nu willen ze dus op elk device een tweetal databases plaatsen ?

Ik kan me nog wel een U2 album indenken die gratis gegeven werd ;)
Wordt tijd dat we de grote jongens de rug toekeren. Ik zou willen dat ik een waardig alternatief kan gebruiken. Jarenlang een Sony icm SailfishOS gebruikt. Helaas lever je net teveel aan gebruiksgemak in om het als dagelijkse telefoon te gebruiken.

Maar dit soort acties jaagt me weer terug…..
ik gebruik voornamelijk Photosync ( app op IOS )
Een lijstje met 'toegestane' WiFi waarna er automatisch een sync plaatsvind ( NAS )

Dat werkt vooralsnog prima ( ondanks dat ik nog altijd iCloud gebruik, als backup )
Wordt tijd dat we de grote jongens de rug toekeren. Ik zou willen dat ik een waardig alternatief kan gebruiken. Jarenlang een Sony icm SailfishOS gebruikt. Helaas lever je net teveel aan gebruiksgemak in om het als dagelijkse telefoon te gebruiken.

Maar dit soort acties jaagt me weer terug…..
De Volla Phone met Ubuntu Touch is een aardig goed werkende smartphone, me vader gebruikt hem nu 1 maand en hij doet het aardig goed, alles wat hij gebruikt is hardwarematig, de vinger print scanner werkt ook goed, de video plater doet het goed, de camera werkt heel goed met foto's maken en video's maken, de browser die er bij komt (Morph Browser) draait soepel, YouTube doet het er goed op en de rest ook, bellen en sms'en doet het ook goed, als je KeePass gebruikt heb je ook een App die Keeweb heet, en die doet het ook goed, de YouTube App doet het al goed, alleen je kan er nog niet in inloggen, de GPS navigator App (uNav) werkt goed, heeft me vader al gebruikt, en vaal meer dingen die goed werken, dus je hebt al een keuze, alleen is niet alles nog uit voor de Volla Phone met Ubuntu Touch, maar woord iedere dag aan gewerkt door vrijwillige die je een donatie kan geven, je kan ook de Pixel 3a flashen met Ubuntu Touch, dan heb je een aardig modern (2019) snelle Smartphone, waar zo goed als alles op werkt met Ubuntu Touch.

Ik wil in ieder geval geen Andoid of IOS smartphone meer gebruiken/kopen als die van mij te langzaam woord of de accu stuk is, of misschien wel eerder.

Je kan zien hier OpenStore, welke Apps er al uit zijn voor Ubuntu Touch.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 19:43]

Ik denk dat je dan beter SailfishOS kan proberen. Dat timmert al 7 jaar aan de weg en heeft veel meer apps. Daarnaast heb je Android support waarmee je praktisch alle Android apps kan draaien.

Ik zal eens kijken of ik UT op een device kan installeren om te proberen, vindt de keuze wel fijn on te hebben.
Die hash-databases worden natuurlijk niet lokaal opgeslagen.
Die hash-databases worden natuurlijk niet lokaal opgeslagen.
De on-device versleutelde database
Het staat LETTERLIJK in de 2e zin van het artikel ....
on-device = is 'Op het toestel zelf'

[Reactie gewijzigd door FreshMaker op 22 juli 2024 19:43]

ik neem aan dat er 1 op je apparaat staat.
en die bestaat alleen uit hashes die in 2 of meer lijsten staan die apple heeft gekregen.
Tja, aannames ...... :+

Maar het blijft een database die je ongewenst op je toestel hebt gekregen natuurlijk
nvm

[Reactie gewijzigd door Crp op 22 juli 2024 19:43]

Het zal weer een foute vertaling in de kop zijn, maar alleen misbruik melden scannen is natuurlijk onzin. Die zijn al gescand. Woordje OP vergeten?
Wat is überhaupt de motivatie van Apple om dit te gaan doen? Er zijn heus geen gebruikers die daarom gevraagd hebben...
Druk van de FBI.

Google en Facebook scannen alle uploads reeds op CSAM-materiaal
MS ook. Maar in al die gevallen gaat het ook effectief om uploads, data waarvoor je zelf kiest deze te uploaden naar een dienst.

Apple wil scannen op het toestel zelf. En dat is, wat mij betreft, veel gevaarlijker. Apple zegt dan wel dat ze het enkel doen als je iCloud sync hebt ingeschakeld, maar dan kun je je al snel de vraag stellen: waarom scan je dan niet op iCloud ipv op het toestel?

Want door op het toestel te scannen heb je ineens ook de mogelijkheid om te scannen zonder dat er een sync naar iCloud is. Je kan wel zeggen dat je dat niet doet, maar een fout is snel gemaakt.
Ik denk dat het goedkoper is om te scannen op de telefoon omdat het waarschijnlijk toch cpu intensief is. Het scheelt weer een flinke uitbreiding in je datacenter.
Omdat ze straks misschien end to end willen encrypten?

Ik snap soms niet helemaal waarom Tweakers wel gelijk hun mond opentrekken over privacy ed. maar enigszins begrijpend lezen is afwezig. Als je het artikel van Apple had gelezen is overduidelijk aangegeven dat Apple scannen on device wilt doen met foto’s die naar iCloud zouden moeten gaan. Geen andere foto’s, geen andere rotzooi waar je opt-out hebt ipv opt-in.
JA, natuurlijk. #METOO willen die vrouwen ook niet zelf naar voren komen. Zelf vinden de hantastelijkheden namelijk wel meevallen.
Ze worden onder druk gezet door enkele extreme mannenhaters,

Waarom kan het nooit zijn dat binnen een bedrijf mensen zitten die een bijvoorbeeld tegen kinderporno zijn en intern binnen dat bedrijf proberen te faciliteren om kinderporno tegen te gaan ?

Jouw mening is toch ook niet de mening van jouw werk ?
En als jij op het werk niet ergens mee eens ben, dan probeer jij dat natuurlijk als goede werknemer niet te saboteren.

Op dit item kan niet meer gereageerd worden.