'Apple rapporteert veel minder kindermisbruikbeelden dan concurrenten'

Apple heeft in 2023 slechts 267 gevallen van vermeend kindermisbruikmateriaal op zijn platforms gerapporteerd. Dat meldt de Britse kinderbeschermingsorganisatie Nspcc. Andere techgiganten rapporteerden in hetzelfde jaar miljoenen gevallen van csam.

De Nspcc beweert dat Apple veel minder gevallen van child sexual abuse material oftwel csam rapporteert dan andere techgiganten. Dat meldt The Guardian. Zo maakte de iPhone-maker in 2023 slechts 267 keer melding van kindermisbruikmateriaal op zijn platforms bij het National Center for Missing & Exploited Children in het Verenigd Koninkrijk. Onder meer Meta en Google rapporteerden in datzelfde jaar juist veel meer gevallen waarbij mogelijk sprake is van csam.

Facebook- en Instagram-moederbedrijf Meta rapporteerde vorig jaar bijvoorbeeld rond de 30,6 miljoen gevallen van csam. Ongeveer 1,4 miljoen van de meldingen hadden betrekking op WhatsApp. Bij Facebook ging het om zo'n 17,8 miljoen meldingen en bij Instagram om circa 11,4 miljoen meldingen. Google rapporteerde in 2023 ruim 1,47 miljoen gevallen. Ook TikTok en Snapchat rapporteerden dat jaar meer dan een half miljoen gevallen van vermeend kindermisbruikmateriaal. Tot de bovengenoemde aantallen behoren mogelijk ook beelden die door detectiesystemen onterecht als verdacht worden gezien.

Bovendien zegt de Nspcc dat Apple in Engeland en Wales alleen al betrokken was bij meer geregistreerde gevallen van kindermisbruikbeelden dan het totale aantal dat Apple wereldwijd rapporteerde. Dat Apple gebruikmaakt van end-to-endencryptie kan het volgens de organisatie moeilijker maken om op csam te controleren, maar alsnog hebben andere e2ee-diensten aanzienlijk meer gevallen van vermeend kindermisbruikmateriaal gerapporteerd.

Apple heeft niet gereageerd op de beschuldigingen, maar heeft The Guardian doorverwezen naar een verklaring die het bedrijf eerder aflegde. Het bedrijf zei toen dat het prioriteit geeft aan de veiligheid en privacy van gebruikers. In 2021 kondigde de iPhone-maker aan dat het afbeeldingen zou scannen voordat ze naar iCloud worden geüpload. Op die manier zouden de beelden vergeleken kunnen worden met bekende csam-afbeeldingen van de Ncmec en andere organisaties. Daarop kwam veel kritiek, waardoor Apple in 2022 de stekker uit de detectietool trok.

De National Society for the Prevention of Cruelty to Children (Nspcc) is een Britse organisatie die zich inzet voor het beschermen van kinderen tegen misbruik en verwaarlozing. Het National Center for Missing & Exploited Children (Ncmec) is een Amerikaanse organisatie die helpt bij het opsporen van vermiste kinderen en zich inzet tegen seksuele uitbuiting van kinderen.

Door Sabine Schults

Redacteur

22-07-2024 • 20:39

197

Reacties (197)

197
190
78
3
0
81
Wijzig sortering
Dat Facebook, TikTok, en Snapchat zoveel meldingen maken, verbaast me niks. Telegram ook niet per se, berichten daarop zijn natuurlijk niet versleuteld, net als de meeste diensten van Google.

WhatsApp en iMessage zouden end-to-end-versleuteld moeten zijn. Als deze partijen weten wat er op je foto staat, hebben ze hun belofte verbroken of is er handmatig gerapporteerd door iemand in de groep/chat waar het geplaatst wordt, of werkt de beveiliging niet goed.

Eens in de zoveel tijd klagen partijen als deze dat versleuteling het moeilijk maakt om terroristen en pedofielen op te sporen, en worden er allerlei 1984-oplossingen voorgesteld. De laatste was het scannen op het apparaat zelf: alles wat je op je telefoon doet wordt met een geheime database van de overheid gematcht, en wordt gerapporteerd als er iets illegaals op lijkt te staan. Die database mag je natuurlijk niet inzien (want die zit vol illegaal beeldmateriaal). Voor zover bekend is, is het met de bestaande database triviaal voor een kwaadwillende om de scanner af te laten gaan op een onschuldige foto om jou(w chatgroep) als pedofiel/terrorist te laten markeren.

Im vind het heel mooi wat deze organisaties proberen te doen, maar ik ben het pertinent met hun wensen oneens op digitaal vlak. Zodra je een overheid een vinger geeft, nemen ze de hele hand. Nu is het kindermisbruik en terrorisme, maar wie zegt wat er over twintig jaar in die database staat? China zou het censureren van de welbekende Tank Man maar al te graag uitbesteden aan algoritmes als deze en ook westerse overheden hebben tot niet zo heel lang geleden gejaagd op alle inhoud die "te communistisch" was.

Waar mogelijk moet die troep natuurlijk allemaal gerapporteerd worden, maar op platformen waar redelijke privacy zou moeten kunnen verwacht, zou grootschalige melding van dit soort inhoud niet moeten gebeuren.

Ik ben zeer benieuwd waar al die WhatsApp-meldingen vandaan komen. Ik wist niet dat WhatsApp foto's op die manier analyseert, dus het verbaast me enigszins dat ze zoveel meldingen versturen.
Die database mag je natuurlijk niet inzien (want die zit vol illegaal beeldmateriaal). Voor zover bekend is, is het met de bestaande database triviaal voor een kwaadwillende om de scanner af te laten gaan op een onschuldige foto om jou(w chatgroep) als pedofiel/terrorist te laten markeren.
Dat was bij Apple's voorstel nou juist net niet de bedoeling. Bij een positieve match met de CSAM-database werd er een low-res van de foto ter beoordeling naar een cloudsysteem doorgestuurd die met een ander algoritme nogmaals dezelfde CSAM-check uitvoerde. Als daar ook een positive uitkwam, wat heel erg lastig is bij foto's die speciaal engineerd zijn om het andere (eerste) algoritme om de tuin te lijden, dan werd de low-res vervolgens anoniem ter beoordeling bij een medewerker van een speciaal team bij Apple neergelegd. Als die ook bevestigen dat het inderdaad om CSAM gaat, dan zou er meteen een melding uitgaan naar de daarvoor bedoelde instanties. Bleek daar echter dat het een dubbele false-positive was? Dan werd de foto weer weggegooid en dat was dat.

Er moest dus wel heel verrekte veel misgaan en om de tuin geleid worden wilde je daar met een speciaal ge-engineerde foto iemand in de problemen mee krijgen. De checks & balances waren daar behoorlijk goed. Een false positive was bijna onmogelijk en zelfs dan was er nog een menselijke check. De privacy en beveiliging is tot op zeer grote hoogte goed geregeld met de juiste checks & balances. Ik snap wel dat men er tegen was omdat alsnog iedereens foto's constant gescand werden bij een poging deze te uploaden naar iCloud, maar van al dit soort systemen was dit vrij elegant en goed uitgedacht. Zeker in vergelijking met de tools van Google en Microsoft die geheel geautomatiseerd zijn en tal van onschuldige slachtoffers maakt. (Ik snapte de outrage bij het idee van Apple dan ook niet helemaal terwijl niemand kraait naar de systemen van Google en Microsoft. Blijkbaar is toestemming vragen niet zo'n slim idee en moet je het gewoon doen, op een veel minder goed uitgedachte manier. Dan kom je er wel mee weg. :+)

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 23:24]

Het blijft lastig. Dezelfde foto die in het vakantiealbum van een gezin volledig onschuldig is, kan in de verzameling van een pedo, tussen vergelijkbare onschuldige foto's een heel andere lading krijgen.
Dat is het probleem waar je volgens mij eeuwig tegenaan zal lopen: De context waar die foto tussen wordt gevonden en waar die oorspronkelijk thuishoort. Naast jouw voorbeeld kennen we natuurlijk ook de beoordeling door een arts, indien er een probleem met de huid van een kind geconstateerd is.
Een veel betere oplossing is om een lijn te trekken tussen gecontroleerde en ongecontroleerde chatapps. Hou je kinderen gewoon op de bekende apps die geen E2E gebruiken en laat veilige chat apps met rust. Pedofielen vinden toch altijd een manier om hun zaken voort te zetten. En dat proberen te stoppen werkt alleen de gewone mensen en hun privacy tegen.
Dit gaat niet om (potentiële) misbruikers die kinderen benaderen via chatapps, maar om het verspreiden en uitwisselen van beeldmateriaal waarin kinderen (seksueel) worden misbruikt via chatsapps en clouddiensten.
Ja en dat werkt dus niet want ze vinden altijd wel een manier om dat te doen. Dus is de enige andere reden die overheden kunnen gebruiken is om de kinderen zelf beschermen, en daar gaat mijn comment dus om.
Ik begrijp helemaal wat je bedoelt, maar dat is puur theorie. De praktijk is dat kinderen massaal beelden met vriendjes en vriendinnetjes uitwisselen, waarvan het merendeel van de ouders geen weet hebben. Afgezien dat die vriendjes en vriendinnetjes weleens beelden delen met anderen heb je ook dat er soms onbekenden tussen zitten die die beelden verzamelen als porno.
Daarnaast zetten ook ouders weleens onbewust de foto's van hun nog jonge kinderen op internet. En wat ik bedoel met onbewust is dat ze niet verwachten dat binnen hun kennissenkring weleens mensen kunnen zitten die verkeerde intenties hebben.
Kortom: jij hebt spijtig genoeg de oplossing niet en ik zeker niet.
Net zoals met alles heb je een harde kern en 'amateurs'. Die harde kern zal je hier inderdaad niet mee pakken. De amateurs (die zich op termijn misschien wel opwerken naar de harde kern) zullen vaker normale kanalen gebruiken voor het verzamelen en verspreiden.
Je slaat hier de plank echt volledig mis. Het gaat er niet om dat kinderen bepaalde apps gebruiken, het gaat er juist om dat er materiaal tussen volwassenen word uitgewisseld.

En die foto's/video's komen niet alleen van kinderen die via chat apps zelf materiaal hebben uitgewisseld maar ook van mensen die kinderen van de straat geplukt hebben en ze ergens in een kelder houden om zelf beeld materiaal te produceren.

En jou oplossing hier voor is tegen deze mensen zeggen, als je deze lijst van chat apps gebruikt dan word je in elk geval nooit gepakt? Meteen ook die lijst naar andere criminelen sturen, die zullen deze ook graag hebben.

Ik ben het met je eens dat er ergens een lijn moet zijn ivm privacy, maar je kunt nu eenmaal niet een vrijbrief geven aan mensen die graag misdrijven plegen. Ik denk dat je dat heel snel zult merken, en niet alleen op die chat apps.
Ben jij een ouder?
Helemaal eens dat je kinderen moet helpen, begeleiden en bewust moet maken van online handelen. Je kunt niet vroeg genoeg beginnen met het aanleren van online vaardigheden, zeker als die te maken hebben met het beschermen van privacy en je eigen veiligheid. Hier schiet de basisschool waar mijn kinderen in zitten ook nog in te kort (ik ga uit van onwetendheid i.c.m. razendsnelle ontwikkeling van de digitale en online omgeving).

Maar ze aanraden om minder beveiligde apps te gebruiken lijkt me nooit een goed idee! Ik leer mijn kinderen dat in de basis niemand mee hoeft te kijken en dat je dat anders duidelijk afspreekt waarbij je wederzijds de grenzen aangeeft.

Ik geloof niet dat ik mijn kinderen bescherm door een bedrijf of overheid de optie te geven om mee te kijken. Net als dat ik niet geloof dat het handig is om ze geen autogordel om te doen omdat dat makkelijker is voor de brandweer in het geval dat...
WhatsApp en iMessage kunnen natuurlijk prima client side hun checks uitvoeren. E2EE begint pas in de clients, ze kunnen prima een hash maken ter verificatie buiten de e2ee om en die enkel controleren zonder de hele foto door te sturen naar een server. Daarom is e2ee ook niet een garantie op privacy als je geen controle hebt over de clients aan beide einden.
Een hash heeft weinig zin, 1 bitje aanpassen en een foto is "nieuw" qua hash en identiek voor de mens. Iets dat geautomatiseerd speciaal voor dit doeleinde een fluitje van een cent zou zijn.

[Reactie gewijzigd door nullbyte op 22 juli 2024 23:36]

Die perceptuele hashes hebben een nog veel groter risico op collisies. Waarmee onschuldige foto's plots als crimineel gemerkt worden.
Klopt. Ik reageerde enkel op de foute perceptie dat je door 1 bit te veranderen dit soort detectie algoritmen om de tuin kan leiden.
Het is niet toevallig dat het gros van de videos op tiktok nu gespiegeld is - het is dus blijkbaar niet zo moeilijk om de detectie algoritmes om te tuin te leiden.
Hangt er volledig af welke algoritmes je gebruikt. Voor zover ik weet zijn er geen algoritmes zonder zwakheden, en dat rlijk me logisch omdat in verschillende contexten het idee van wat dezelfde afbeelding is anders is. Maar gespiegelde afbeeldingen kunnen absoluut 100% heel makkelijk gedetecteerd worden door perceptual hashing, dat is echt super makkelijk: als je simpelweg spiegeling wilafvangen moet je hashing algoritme simpelweg de spiegeling "normaliseren": je neemt de bron afbeelding, kijkt naar bvb de gemiddelde luminantie van de linker en rechter helft, en spiegelt die indien L groter is dan R. Na deze preprocessing zijn het origineel en een spiegeling identiek. Je kan hetzelfde nogmaals ondernemen met de boven en onderkant om verticale spiegeling af te vangen.

Dus ja: dat afvangen kan, en hetzelfde kan je bedenken. Voor dingen zoals zwarte of witte banden om een afbeelding, schaling, ruis, of kleur aanpassingen zijn er gelijkaardige preprocessing stappen. De vraag is welke dingen je hashing algoritme wel en niet ondersteunt.

Wat je dus als developer moet doen is vooral onderzoeken welke use cases je wilt afvangen: welke transformaties (spiegeling, rotatie, schaling, banding, ruis toevoegen, color shift, negatief,...) wil je allemaal afvangen? Op wat voor afbeeldingen ha je werken (cgi, echte fotos, of misschien iets met veel tekst?) Enkel als je dat weet kan je op zoek gaan naar een juist algoritme. En neen, je kan echt niet zeggen "ik wil dat mijn algoritme met alle soorten afbeeldingen en met alle soorten transformaties werkt". Dan krijg je hele slechte perceptual hashes (met heel veel ongewenste collisions)

Hier is een interessante paper waarin een framework wordt beschreven waarmee je hashing algoritmes kan vergelijken adhv je use case. Dit is echt een grote hulp voor wie de juiste keuze wil maken.

[Reactie gewijzigd door kiang op 23 juli 2024 14:34]

Precies! Daarnaast kun je ook Adversarial Noise tegenaan gooien totdat het een valse positieve resultaat oplevert als het niet per ongeluk is, dan wel expres iemand weg te pesten onder het mom van CSAM!

[Reactie gewijzigd door Minimise op 23 juli 2024 01:49]

Kan me vergissen maar ondanks encryptie wordt data gechecked via CSAM op CP en is het reden te meer dat Apple ondanks honderden miljoenen gebruikers zo weinig content vindt. Het is dan ook niet voor niets dat een organisatie gespecialiseerd in CP dit aanhaalt. Dat Apple misschien minder kanalen heeft waar content wordt verzonden, blijft het desalniettemin erg laag, verontrustend laag zou ik zelfs zeggen dat Apple dit blijkbaar niet serieus neemt.
Dat Apple misschien minder kanalen heeft waar content wordt verzonden, blijft het desalniettemin erg laag, verontrustend laag zou ik zelfs zeggen dat Apple dit blijkbaar niet serieus neemt.
Ik zou het woordje "blijkbaar" veranderen in "schijnbaar", omdat je aan de hand van deze berichtgeving geen definitieve conclusies kan trekken. Al hebben ze de schijn tegen, natuurlijk. :)

En dat Apple minder vindt dan er werkelijk is, dat is zeker. Dit is wat er letterlijk in het artikel staat daarover:
Bovendien zegt de Nspcc dat Apple in Engeland en Wales alleen al betrokken was bij meer geregistreerde gevallen van kindermisbruikbeelden dan het totale aantal dat Apple wereldwijd rapporteerde.
Apple mag zich in ieder geval flink achter de oren krabben voordat ze weer zoiets gaan publiceren.
Dat Apple misschien minder kanalen heeft waar content wordt verzonden, blijft het desalniettemin erg laag, verontrustend laag zou ik zelfs zeggen dat Apple dit blijkbaar niet serieus neemt.
ik vind het prima dat Apple dit niet serieus neemt. Ik wordt een beetje moe van het argument namelijk. Wordt te pas en te onpas gebruikt om allerlei privacy infracties maar weer door te duwen.

En wat wordt er mee gedaan? 30,6 miljoen meldingen van Meta. Daar gaat niemand met de hand doorheen, en niemand wordt er voor opgepakt.
Wat is de false positive rate (lijkt mij echt gigantisch met deze aantallen)?
Hoe wordt de juistheid van het algoritme blijvend getoetst?
Wat wordt er gedaan met de false positives die niet goed zijn afgehandeld (wat soms echt desastreuze gevolgen heeft voor data van families)?


Wat levert het nu uiteindelijk op? Worden er daadwerkelijk 30 miljoen Meta leden opgepakt (ik weet vrij zeker van niet)? Wordt het materiaal van het internet verwijderd?

Dagelijks zijn er dus bijna 100.000 meldingen. Je gaat mij niet wijsmaken dat er elke dag 100.000 pedofielen via Meta apps zoals Facebook CP zitten uit te wisselen. Als die netewrken echt zo groot zijn hebben er een hele hoop politiekorpsen enorm liggen te slapen met de extra uitgebreide bevoegdheden die ze de afgelopen 20 jaar hebben verkregen.

Nog meer redenen om nee te zeggen tegen nieuwe wetsvoorstellen om de privacy verder in te perken (zoals verbod op E2E encryptie op chatapps waar over gesproken wordt).

Gelukkig denk ik dat de cijfers heel erg vertekenen.
https://www.hln.be/buiten...videos-gevonden~aabe99ac/

Over het algemeen zijn er maar een paar mensen betrokken bij operaties van honderdduizenden foto's, daar zijn dan dus ook helemaal niet zoveel meldingen voor nodig. Dus dat er 30 miljoen meldingen zijn geweest betekent dat er maar een paar van dat soort groepen actief zijn (wereldwijd).

Heel eerlijk, maar daar ben ik niet voor bereid om daar alles maar voor op te moeten geven. zelfde bij terrorisme. Keer op keer is het weer een bekende van de Politie, maar zijn ze te laat of hebben ze het genegeerd. Ga eerst maar eens wat doen met datgene wat je nu hebt en ga dan verder kijken naar doelmatigheid.
Buiten dat kunnen gebruikers zelf natuurlijk ook een foto rapporteren. Als je die hash opzoekt in je database zul je er al best veel illegaal materiaal uit filteren zonder dat je het allemaal hoeft te bekijken. En als je het dan toch moet bekijken, heb je als WA/Meta een gegronde reden om nader onderzoek te doen vóór versleuteling of na ontsleuteling client side.
Maar dit is ook precies het argument wat GertMenkel inbrengt.
Ze worden vergeleken met een geheime database (van hashes).

Dus als de overheid ook wat gevoelige niet csam afbeeldingen er inzet (b.v. tankman in China, of anti Israël, of pro Israël, om maar even wat gevoelige topics te noemen) dan kan de overheid makkelijk dissidenten er uit vissen.

Dus ook het cliënt side scannen is ongewenst, tenzij de database openbaar is. (Wat met csam 100% ongewenst is).
Maar ervan uitgaande dat er hashes gebruikt worden, lijkt me dat niet ongewenst, het is niet alsof het materiaal zelf beschikbaar wordt gesteld.
Maar als enkel de hashes openbaar worden gemaakt, valt er niet te controleren dat een overheid het niet misbruikt om afbeelding die de overheid niet bevalt er in te doen. Dat is het probleem wat ik in mijn eerdere reactie juist wou aangeven.

Mijn conclusie is dan ook dat clientside scannen daarom niet kan.
Dus ook het cliënt side scannen is ongewenst, tenzij de database openbaar is.
Ik ben het met je eens dat dit ongewenst is, maar de database openbaar maken is nog ongewenster. Het werkt alleen maar nog meer polarisatie in de hand.
Eens. De manier waarop de Nspcc dit verwoord klinkt alsof ze een wedstrijdje willen maken van wie het meeste data kan prijsgeven.

Meta heeft wel 30 miljoen meldingen gedaan, jullie maar een paar honderd. Stuur eens wat meer data!
Ik ben het volledig met je eens.
Het idee is nobel, maar de echte pedofiele netwerken worden er niet mee gepakt. Die versleutelen de content gewoon zelf voordat ze die verzenden. Resultaat is dat die scan op "verboden beelden" vooral foto's en filmpjes tegenhoud die helemaal niet als kinderporno zijn bedoeld.
De echte kinderporno netwerken worden nog steeds met de oude vertrouwde recherche methoden in kaart gebracht en opgerold.
Maar hoe komen die grote netwerken aan het licht? Vaak door iemand aan de rand, die nog nieuw is, die een stomme fout begaat. Zoals bv vergeten een VPN aan te zetten of een foto in een map te plaatsen die automatisch gedeeld wordt (of het automatisch delen van nieuwe mappen niet uitzetten), etc.
Tot nu toe zijn het meestal aangiften, of min of meer toeval.
Er is altijd wel een lid van een kinderporno netwerk die niet alleen digitaal aan zijn bevrediging komt, maar ook op andere vlakken actief is. Daarbij kunnen ze dus ook tegen de lamp lopen, of er wordt aangifte tegen hen gedaan wegens een seksueel getint misdrijf. Als dan tijdens het onderzoek een computer vol zooi wordt aangetroffen heeft men weer een draadje naar een netwerk.
Alle gevallen die in het nieuws komen zijn op die manier opgespoord.

Wat het succes van de scan op kinderporno is, is nergens terug te vinden.
In Nederland is de zedenrecherche chronisch onderbemenst. Als je iets aan kindermisbruik wil doen zou ik daar beginnen ipv allerlei verregaande bevoegdheden op mensen hun apparaten.
Alsof méér gelijk staat aan béter. Heel raar verhaal, wat imho totaal nietszeggend is. Meta en Google zijn andere bedrijven die andere diensten leveren. Welke aantallen zij rapporteren, heeft dan ook geen enkele relatie met wat Apple zou rapporteren. Daar komt dan nog bij dat het volume van de meldingen eveneens nietszeggend is. True positives, false positives, false negatives, voor "het gemak" worden deze essentiële cijfers maar even weggelaten.

Zeg dan niks wanneer je niks te melden hebt.
Zo'n raar verhaal is het niet. Apple slaat veel foto's van gebruikers op. Als zij nog geen 250 meldingen doen, en Google doet er bijna 1,5 miljoen, terwijl ook ander techbedrijven er miljoenen doen, dan heeft Apple duidelijk niet de juiste norm of het goede controle mechanisme. Zo'n groot verschil kan niet worden verklaard met dat andere techbedrijven kennelijk miljoenen valse meldingen doen. Kinderporno is een enorm en groeiend probleem wereldwijd. Denk maar niet dat Apple devices hiervoor slechts 250x zijn gebruikt het afgelopen jaar.
Diensten van Google overstijgen die van Apple. Apple doet storage, berichten dienst (zoals beschreven end-to-end)… google doet storage, hosting, berichten (ook end-to-end?), search engines voor tekst, afbeeldingen, videos, web crawling, videodiensten (youtube)… en ga zo maar door en laatst genoemden zoals de search engine heeft toegang tot het hele WWW, een discutabele afbeelding op site x kunnen ze ook melden…

Ongetwijfeld vergeet ik er een paar bij beiden maar ze staan in schril contrast als het neer komt op vooral vergaarde data en het verwerken/tonen ervan… bij Apple is naar weten alles afgeschermd omwille van privacy, google kan het open web afstruinen. Facebook en x zijn hoe dan ook dumpster fires voor alles wat niet hoort (tot iemand het report)… ik vind het een lastige zaak iig om deze techreuzen naast elkaar te zetten op basis van meldingen

[Reactie gewijzigd door ultimasnake op 22 juli 2024 21:58]

akkoord dat google meer kan en doet, maar een factor 6000 is toch wel heel extreem of het gebruik van apple hardware tov google software zou echt belachelijk laag moeten zijn. Moesten er wereldwijd 2 miljoen apple devices zijn, dan zouden er 12 miljard google-gebruikers moeten zijn.

Waar het verschil in zit is waarschijnlijk het feit dat pedo's daar goedkopere burners voor gebruiken, maar dat wil daarom niet zeggen dat apple-users heiliger zijn dan de paus.
Of de derde optie: de false positive rate ligt boven de 99.9%. Het artikel, of de bron, zegt niets daar over (of wil daar niets over zeggen).
Zelfs dat mag met de nieuwe DSA wetgeving, ze mogen dan gewoon een vinkje zetten dat het totaal ontransparante algoritme zei dat het CSAM was, jouw account even blokkeren, waardeloze interne bezwaarprocedure opzetten die in zeker 4 van de 5 gevallen faalt en een toezichthouder die doodleuk in 100% van de gevallen niks doet, en daar bovenop domme rechters zetten die bedrijfsgeheimen van grote bedrijven belangrijker vindt dan jouw fundamentele rechten!

[Reactie gewijzigd door Minimise op 23 juli 2024 01:57]

dan heeft Apple duidelijk niet de juiste norm of het goede controle mechanisme
Of die van Google en Microsoft bijvoorbeeld zijn veel te agressief, wat zou verklaren waarom er heel veel klachten zijn van mensen die opeens hun account (incl. alle aankopen en eventueel resterend saldo) kwijt zijn omdat ze een foto hebben gemaakt van hun kind op het strand.

Let op dat het gaat om meldingen van vermeend CSAM. Dat wil niet zeggen dat het dat ook daadwerkelijk was. Daarnaast wisselen Google en META diensten ontiegelijk veel en veel meer data en foto's uit dan Apple's diensten.
Zo agressief mag dus zelfs met de nieuwe DSA wetgeving, ze mogen dan gewoon een vinkje zetten dat het totaal ontransparante algoritme zei dat het CSAM was, jouw account even blokkeren, waardeloze interne bezwaarprocedure opzetten die in zeker 4 van de 5 gevallen faalt en een toezichthouder die doodleuk in 100% van de gevallen niks doet, en daar bovenop domme rechters zetten die bedrijfsgeheimen van grote bedrijven belangrijker vindt dan jouw fundamentele rechten!
Dat kan je dus niet zeggen want je weet niet hoeveel van die 1.5 miljoen juiste meldingen zijn. En hoe veel dubbele meldingen er bij zitten.

250 klinkt laag, maar 1.5 miljoen klinkt dan ook weer ontzettend hoog.

En het kan ook simpelweg zijn dat dit soort mensen gewoon geen Apple gebruikt. Voorbeeldje: komt net uit de VS en faciliteit bezocht waar men ontzettend veel burner phones verscheept (denk aan tienduizenden per week). Zit weinig Apple tussen, vooral Androids, want stukken goedkoper. Gemiddelde (drugs)crimineel gebruikt dus vooral diensten van Google. Kan met dit soort foto's net zo zijn.
Uiteraard is het contrast groot, maar dat is dan ook het enige wat dit verhaal te bieden heeft. Verder is het gebakken lucht. Google stuurt 1.5 miljoen meldingen. Hoeveel daarvan waren er terecht? Dat vertelt het verhaal niet, waardoor die 1.5 miljoen dus geen enkele waarde meer heeft. Stel even dat daar 10 meldingen correct waren. Apple stuurt slechts 267 meldingen, en daarvan zijn er ook 10 correct. Dan doet Apple het toch juist héél veel beter?

Nu kom jij met de mening "dan heeft Apple duidelijk niet de juiste norm of het goede controle mechanisme.", zonder dat je de cijfers hebt om jouw mening te onderbouwen! Het is een onderbuikgevoel zonder enige fundering.

Dat geldt ook voor jouw gevoel dat kinderporno een groeiend probleem is, dat is jouw aanname. Alleen is er niks om mee te vergelijken... Ik zou het echt niet weten, ik heb geen cijfers, dit artikel presenteert geen cijfers. Dus het enige wat we weten, het enige feit dat hier op tafel ligt, is het feit dat we het niet weten.
of ze houden bewijsmateriaal achter om zelf niet in de problemen te komen, als we dan toch mogen flamen en idiote stellingen mogen poneren. 8)7
Het is ook allemaal alleen maar nieuws zodat mensen steeds meer gaan denken ''Oh misschien moet de overheid/overheden wel meer toegang krijgen tot dat soort systemen!"

Beetje prelude tot ''Als je toch niets te verstoppen hebt'' gevoel krijg ik van dit soort berichten.
Van de aantal meldingen, hoeveel waren er terecht?
Hoeveel van de meldingen, kwamen van hoeveel personen?

Hoeveel mensen, zijn er on te recht, in de problemen gekomen?
Het gaat erom dat Apple te weinig rapporteert. Ook al zouden anderen al-dan-niet teveel rapporteren.

"Apple in Engeland en Wales alleen al betrokken was bij meer geregistreerde gevallen van kindermisbruikbeelden dan het totale aantal dat Apple wereldwijd rapporteerde"

Liever een false positive, dan een false negative.
Wat gebeurt er eigenlijk als je wordt verdacht van een false positive, je praat er lekker makkelijk over
Dan kijken ze naar het plaatje, zien dat het een halfvolle vrachtwagen met grind is ipv "fout materiaal", er je komt er nooit achter.
Hoe kom je daar nu bij? Volgens mij wordt in zo’n geval gewoon je account bij google/microsoft/whatsapp geblokkeerd.

Er zijn genoeg gevallen van bekend dat mensen ineens niet meer bij hun account kunnen door dit soort dingen.
Yup, zelfs dat mag met de nieuwe DSA wetgeving, ze mogen dan gewoon een vinkje zetten dat het totaal ontransparante algoritme zei dat het CSAM was, jouw account even blokkeren, waardeloze interne bezwaarprocedure opzetten die in zeker 4 van de 5 gevallen faalt en een toezichthouder die doodleuk in 100% van de gevallen niks doet, en daar bovenop domme rechters zetten die bedrijfsgeheimen van grote bedrijven belangrijker vindt dan jouw fundamentele rechten!
Of ze komen met zwaailampen aan al je electronica in beslag nemen.
En dat heeft zeer zeker sociale gevolgen, ook als het loos alarm is.
Wat voor sociale gevolgen? Dat ze belasting geld verspillen?
De samenleving denkt al heel snel “waar rook is is vuur”. Iemand die onschuldig is verklaard in een zaak m.b.t. kinderporno krijgt het heel moeilijk. Vrienden keren zich vaak tegen je, op je werk krijg je het lastig. Een beschuldiging van een zedenmisdrijf maakt je kapot, ook al word je vrijgesproken.
Hmm, volgens valt dat onder niet vergoedbare schade.
Ach ja, even iemand zijn leven kapot maken. Ik bedoel, wat geeft dat nou.

Ben benieuwd hoe je er over denkt als jou dit overkomt, en ja het kan ook jou overkomen ondanks dat je niks te verbergen hebt. Want false positive.
False positive overkomt me meerdere keren per jaar. Maakt me meer paranoia! Keer op keer: meer backups! Meer volledige encryptie in plaats van eind-tot-eind encryptie! Meer gegevens wissen! Meer juridische kennis opdoen! En opnieuw! En opnieuw!

[Reactie gewijzigd door Minimise op 23 juli 2024 18:03]

Dan bekijken ze het plaatje en zien ze je eigen kind naakt in bad.... Have fun. :(
Als Apple z'n beloftes nakomt, zou het helemaal niks te rapporteren hebben. Ik snap ook niet waar al die rapporten vandaan zouden moeten komen, voor zover ik weet moeten mensen dit bij partijen als WhatsApp en Apple handmatig repareren.

Deze partij roept al vaker op om een einde te maken aan end-to-end-versleuteling, dit lijkt gewoon weer een poging om Apple zwart te maken voor het bieden van privacy.

[Reactie gewijzigd door GertMenkel op 22 juli 2024 21:26]

Als Apple z'n beloftes nakomt, zou het helemaal niks te rapporteren hebben.
Ik gok zomaar dat er pedo groepjes zijn die iCloud gebruiken om data uit te wisselen. Als iemand de link rapporteert en dit blijkt inderdaad CSAM te bevatten, dan zal Apple daar melding van maken. Bestanden die een publieke link krijgen vallen buiten de end-to-end versleuteling, immers moet iedereen die je de link geeft het kunnen openen.
Nou nee, hun belofte is dat het automatisch scannen en rapporteren van de baan is. Als een gebruiker iets zelf rapporteert moet Apple daar gewoon gevolg aan geven. Apple heeft nooit beloofd meldingen van gebruikers naast zich neer te leggen. Dat mogen ze ook helemaal niet.
Dat is natuurlijk helemaal waar, maar het lijkt me sterk dat de mensen die dit soort inhoud verspreiden hun verzamelingen zomaar vindbaar maken voor mensen buiten hun cirkel. Ik vind de getallen die Apple daarin toont een stuk waarschijnlijker dan de getallen die WhatsApp toont als het om menselijk rapporteren gaat.
Het gaat niet om hele verzamelingen. Kinderen sturen elkaar tegenwoordig ook kinderpornoplaatjes. Niet alleen van henzelf maar ook uit smerige verzamelingen. Kan goed zijn dat die ouders dit soort dingen melden.
Liever een false positive, dan een false negative.
Nee, false positives zijn niet ok.
Definieer te weinig.
Ik weet niet of het te weinig is, jij weet niet of het te weinig is.
Daarom wil ik best wel eens DE cijfers zien.

https://www.missingkids.o...s/2023-reports-by-esp.pdf heeft het enkel over het aantal gerapporteerde csam matches.

En voor iets, waarvoor ze straks de telefoon en chat berichten willen scannen, wil ik toch echt wel weten wat de false detectie is. Zoals elke kindermisbruik 1 te veel is, is ook elke false verdenking 1 te veel.

hebben we het over 10% van de gebruikers, die KP verspreid of hebben we het over 0.0001% van de gebruikers. Dit is allemaal van belang hoe we er verder mee gaan.
Dat is toch niet de vraag waar dit artikel over gaat?
Met name de vraag "Hoeveel van die meldingen waren terecht?" is interessant.

Wie zegt dat 69% ervan niet nep zijn of zijn gemeld door pesters om iemand van het platform af te krijgen?

Wie zegt dat 17,8 miljoen meldingen over 17,8 miljoen unieke beelden gaan? Waar is de lijst met URLS en/of hashes van die beelden dan?

Ik vind door dit gegoochel met grote getallen in de berichtgeving van Nspcc en Ncmec haast BREIN-achtig aan doen.
Neppe meldingen als pesten? Waarom zou Google neppe meldingen doen bij de autoriteiten?
Gewoon goedkoper voor ze om aan de wetgeving te voldoen door niet alle meldingen te controleren! Bij DSA geldt bijvoorbeeld voor spam een uitzondering dat het dan zonder tekst en uitleg geblokkeerd mag worden, wat lekker goedkoop en geautomatiseerd kan, maar voor veel andere redenen van wel tekst en uitleg nodig is, wat duur is wat betreft personeelskosten!

[Reactie gewijzigd door Minimise op 23 juli 2024 02:04]

Google doet niet de neppe melding, iemand doet een neppe melding bij Google en Google geeft deze melding door.
Dit zijn meldingen van Google zelf. Niet van gebruikers die een melding hebben gedaan.
Een melding is een hit op de ‘hash’ van de foto in de database. Niet een melding van iemand die een foto van een wortel niet OK vind. Dus pesters kunnen niet zo veel, tenzij zij jouw accountgegevens hebben en een foto proberen te uploaden.

En wat bewijst een lijst van urls of hashes waar jij toch niet bij kan?
Een melding kan ook door een andere gebruiker gedaan worden.
Ik zou jou hier (onterecht) kunnen melden voor het verspreiden van aanstootgevend materiaal. Bij Tweakers zal er dan iemand kijken waar ik het over heb, waarna ík waarschijnlijk een waarschuwing krijg. Bij een bedrijf als Google of Meta, met miljarden gebruikers is het ondoenlijk om alle meldingen door een persoon te beoordelen en zal de kans dat mijn onterechte melding als terecht wordt gezien een stuk groter zijn. Zeker wanneer ik een groep mensen weet de mobiliseren die dezelfde onterechte melding doen.
Maar een melding van een gebruiker wordt niet direct doorgezet. Dan komt juist het automatische systeem in actie,
Meldingen maken bij mega heeft echt totaal geen zin. Heb je dat wel eens geprobeerd? Ik doe het regelmatig bij bv advertenties die dingen zeggen die niet kloppen en bij accounts die overduidelijk fake zijn (en vaak positieve berichten bij vage advertenties achterlaten). Die worden bijna allemaal binnen minuten afgekeurd.
Ongeveer 1,4 miljoen van de meldingen hadden betrekking op WhatsApp.
Dit zou betekenen dat WhatsApp al lang clientside scanning gebruikt?
Precies wat ik eerste instantie dacht, maar je kan ook foto’s/berichten als gebruiker rapporteren
De organisatie in de bron heeft het erover dat criminelen iMessage/iCloud/FaceTime gebruiken voor het verspreiden en bewaren van misbruikmateriaal, het lijkt me sterk dat pedo's elkaars inhoud gaan lopen rapporteren op zo'n schaal als wat men van WhatsApp beweert te ontvangen.
Misschien komt men her en der in een verkeerde groep al googlend? Of juist een verkeerde in een ‘normale’ groep ie iets deelt wat niet kan?
Misschien, maar anderhalf miljoen meldingen vind ik toch wel veel voor toevallig gevonden links.
Oh ik eigenlijk niet… google heeft naar schatting 400 biljoen documenten gescanned… en naar schatting worden er 99.000 queries per seconden opgevraagd. Dan vind ik 1.5 miljoen meldingen ook kijkend naar het aantal gebruikers die ‘googlen’ enorm weinig.

(https://zyppy.com/seo/goo...index%20size%20in%202020.)
Er was laatst nog een artikel over jongeren die steeds vaker kindermisbruikmateriaal delen "voor de kick." Specifiek werd ook een stickerpack op WhatsApp genoemd die men naar hartelust deelde. Kan me voorstellen dat dat nog wel eens voor een report zorgt.
Er wordt toch altijd gezegd, niemand kan je whatsapp gesprekken zien, end to end etc. Hoe zit dit dan vraag ik mij af. Als er een positieve scan is dan kunnen ze het wel inzien?

Ik stuur mijn vriendin ook wel eens een foto van onze peuters als ze in de blote kont in de tuin aan het spelen zijn. Zou zo'n scan daar op aanslaan?
Zou zo'n scan daar op aanslaan?
Geheid, kijk maar eens naar de issues met mensen met een Microsoft en google accounts niet te lang geleden ... ;)

Doe je kids een gunst, en laat die foto lekker zien als je vriendin thuis is? dit soort dingen hoor je simpelweg niet online via een 3e partij te delen

[Reactie gewijzigd door JWL92 op 22 juli 2024 21:18]

Als ik mijn huisarts raadpleeg voor bijvoorbeeld een uitslag/vreemde plek, ongeacht de plek, vraagt de assistente eerst om een foto.

Dankzij de semi-geforceerde/zeer opgedrongen integratie van diensten staat deze foto ook automatisch in jouw icloud/onedrive/googledrive/etc zonder dat je het door hebt.

/welkom in de echte wereld van een gewone gebruiker.

Doe jezelf een plezier en werk mee dat big tech/bedrijven hun verantwoordelijkheid nemen bij het pushen van allerlei "handige" integraties. In plaats van andere te kleinere.

[Reactie gewijzigd door Caayn op 22 juli 2024 21:22]

Dankzij de semi-geforceerde/zeer opgedrongen integratie van diensten staat deze foto ook automatisch in jouw icloud/onedrive/googledrive/etc zonder dat je het door hebt.
Wat je altijd nog eerst heb moeten accepteren.... en daarbij die verantwoording toch echt bij jou ligt.
Waar heb ik X jaar geleden ookal weer "ja" tegen gezegd.
Want dat is ook het eerste waarbij iemand aan denkt bij het bellen en/of maken van een foto in zo'n situatie.

[Reactie gewijzigd door Caayn op 22 juli 2024 21:31]

maar als dat al JAREN zo ingesteld staat, ben je je daar toch enigsinds bewust van? 8)7
Waarom zouden mensen zichzelf er van bewust moeten zijn dat Microsoft en Google zomaar besluiten dat onschuldige foto's van hun kind (of directe familie; eg: ouders die een foto van hun kind op het strand delen met opa & oma; waarbij opa & oma opeens getagd worden als pedo's) gelijkstaat aan kinderporno en daarom het hele account, met werkelijk alles erop en eraan (incl. aankopen, gekoppelde diensten, mailboxes, etc.), weggegooid wordt zonder manier om daar bezwaar tegen te maken?

Ik denk niet dat weldenkende mensen die een foto van hun kindje op het strand naar familie sturen denken "oh jeetje, deze foto is ook automatisch gekopieerd naar Google Photo's die me nu geheid als pedo gaan zien omdat ik een foto van m'n eigen kindje heb gemaakt". :+ Als ze überhaupt al weten dat het naar Google Drive/Photos gaat...

Je zegt hier verderop dat mensen moeten weten over CSAM-detectie vanwege 1 of 2 nieuwsartikelen, voornamelijk op gespecialiseerde websites zoals Tweakers of op bijvoorbeeld security groepen op Reddit en andere online fora. Ik denk dat 99.9% van de mensen die je het vraagt niet eens weten waar CSAM voor staat en als je het uitlegt dan weet denk ik nog steeds 95%, als het niet veel meer is, niet dat cloudproviders actief al hun shit zit te scannen en ze enorme risico's lopen met hun account omdat ze hun smartphone voor familiedoeleinden gebruiken. En dan moet je er nog vanuit gaan dat ze weten dat het naar de cloud gaat.

Ik ben voorstander van het scannen op (mogelijke) CSAM. Ik vond de Apple methode ook een geweldig idee, want die had een hele goede balans tussen veiligheid, privacy en meerdere beveiligingslagen in de vorm van menselijke interventie (Microsoft/Google is 100% automated.), het is echt jammer dat het gesneuveld is omdat de meeste mensen totaal niet begrepen hoe het werkte en daarom moord en brand schreeuwde. Maar de manier waarop Microsoft en Google zichzelf opstellen richting ouders die normale foto's van hun kind maken is ronduit schandalig en ik vind het nogal makkelijk om te zeggen dat dat hun eigen schuld is "want dat hadden ze kunnen weten". :X
Google Photo's die me nu geheid als pedo gaan zien omdat ik een foto van m'n eigen kindje heb gemaakt"
hele foute aanname dat google ook zou weten dat t om jou kind gaat? tenzij je zijn privacy al helemaal om zeep heb geholpen ...
lijkt mij eerder n "wij wille niet instaan voor misbruik van onze diensten"
Je zegt hier verderop dat mensen moeten weten over CSAM-detectie vanwege 1 of 2 nieuwsartikelen, voornamelijk op gespecialiseerde websites zoals Tweakers of op bijvoorbeeld security groepen op Reddit en andere online fora.
https://www.nu.nl/tech/61...n-van-kindermisbruik.html
niet echt n tech site toch en zeker geen reddit ;)
Maar de manier waarop Microsoft en Google zichzelf opstellen richting ouders die normale foto's van hun kind maken is ronduit schandalig en ik vind het nogal makkelijk om te zeggen dat dat hun eigen schuld is "want dat hadden ze kunnen weten". :X
"normale foto's" ... juist als je iets verder in die artikelen dook waren dat niet je gewone gezin foto's
hele foute aanname dat google ook zou weten dat t om jou kind gaat? tenzij je zijn privacy al helemaal om zeep heb geholpen ...
Dat staat er niet, dus is ook geen aanname. Maar stel dat neem ik wel mee in de redenering, dan vind ik het ook niet relevant... Een normale foto van een kindje op het strand is toch geen CSAM? Maakt het dan nog uit of het jouw kindje is of die van je zoon/dochter/broer/zus/goede vriend/whatever? Ben je al verdacht als je een van die plaatjes van Anne Geddes als achtergrond hebt en die naar Google Photo's hebt gesynct? Is Oma verdacht als ze de foto's van haar kleinzoon/dochter die ze toegestuurd krijgt bewaard en verdient ze het om daarom haar volledige account kwijt te raken?

(Overigens denk ik dat wanneer je alle foto's naar een Google of Microsoft clouddienst stuurt dat ze heel goed weten dat het hoogstwaarschijnlijk jouw kindje is a.d.h.v. de metadata. Voor de ontvangers is dat mogelijk een ander verhaal. Maar ook dan: als het normale foto's zijn, zou het niet uit moeten maken. (Al is het natuurlijk wel heel héél erg creepy als het allemaal foto's zijn van kinderen die de persoon helemaal niet kent.)
https://www.nu.nl/tech/61...n-van-kindermisbruik.html
niet echt n tech site toch en zeker geen reddit ;)
Slecht voorbeeld, gezien dat een compleet ander systeem is dat totaal niet werkt zoals dat van Microsoft en Google, andere consequenties heeft en daarnaast ook nog eens niet tot uitvoer is gekomen maar terug is getrokken - wat eveneens in het nieuws is geweest. If anything heeft dat er juist voor gezorgd dat mensen misschien denken dat het nu dus niet gebeurd óf iig niet als ze een iPhone gebruiken; ondanks dat ze misschien synchroniseren met OneDrive/Google Photo's ipv iCloud.

Het merendeel van de mensen weten echt niet wat CSAM is noch dat de foto's die ze uploaden constant gescand worden noch denken ze (terecht) dat ze iets verkeerd doen als ze normale foto's van hun eigen kinderen maken en die (onbewust) syncen.
"normale foto's" ... juist als je iets verder in die artikelen dook waren dat niet je gewone gezin foto's
Wat versta je precies onder "niet je gewone gezin foto's"?

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 02:57]

Slecht voorbeeld - wat eveneens in het nieuws is geweest
was dat niet t punt dat t dus wel onder de mainstream benoemd is.... met je eerdere stelling?
If anything heeft dat er juist voor gezorgd dat mensen misschien denken dat het nu dus niet gebeurd óf iig niet als ze een iPhone gebruiken; ondanks dat ze misschien synchroniseren met OneDrive/Google Photo's ipv iCloud.
zou mooii zijn als die dan juist gepakt worden..
Het merendeel van de mensen weten echt niet wat CSAM is noch dat de foto's die ze uploaden constant gescand worden noch denken ze (terecht) dat ze iets verkeerd doen als ze normale foto's van hun eigen kinderen maken en die (onbewust) syncen.
Ik weet ook niet in welke Amerikaanse staten ik geen open vuurwapen mag dragen..... 8)7
Maar de manier waarop Microsoft en Google zichzelf opstellen richting ouders die normale foto's van hun kind maken is ronduit schandalig en ik vind het nogal makkelijk om te zeggen dat dat hun eigen schuld is "want dat hadden ze kunnen weten". :X
Wat versta je precies onder "niet je gewone gezin foto's"?
Lees die artikelen en bronnen zelf ff terug zouk zeggen....
die specifieke foto voor de huisarts is toch ff andere koek dan dat je met je peuter staat te vissen, een patatje zit te eten of op t strand ligt, met een zwembroek AAN!

[Reactie gewijzigd door JWL92 op 23 juli 2024 10:03]

Als dat al jaren is ingesteld zal menigeen dat ondertussen voor lief nemen en er totaal niet over nadenken tot het te laat is.

Zelfs ik merk dat ik regelmatig niet doorheb wat elektronica/mijn telefoon/intergraties werkelijk doe(t/n) . Laat staan dat een gewone burger dit door heeft.

Dit vindt ik hartstikke eng en super glad ijs. Zeker wanneer onze levens steeds meer afhankelijk beginnen te raken van big tech. (betalingen/communicatie/etc.)

[Reactie gewijzigd door Caayn op 22 juli 2024 22:06]

en er totaal niet over nadenken
bingo.
welkom in 2024 :+
Wat je altijd nog eerst heb moeten accepteren.... en daarbij die verantwoording toch echt bij jou ligt.
Als tech mensen kunnen we soms best een vertekend beeld van wat realistisch is hebben. Laten we eens op een rijtje zetten wat je van mensen vraagt hier:

- Dat ze altijd actief bewust blijven van hun backups, ondanks dat de pop-up misschien jaren geleden is
- Dat ze zich er bewust van zijn dat ze deze bestanden over het internet naar de cloud versturen
- Dat ze zich er bewust van zijn dat "de cloud" eigenlijk servers van Google/Apple zijn
- Dat ze weten dat grote techbedrijven geautomatiseerd scannen naar csam
- Dat deze algoritmes het niet altijd bij het juiste eind hebben en soms false positives genereren
- Dat gigantische techbedrijven niet werken als gewone bedrijven en niet bereikbaar zijn om je situatie even aan uit te leggen als er iets aan de hand is

Natuurlijk weten wij dit allemaal, wij zitten op Tweakers. Maar dit is een keten die lang niet iedereen helder in hun hoofd heeft, en ook echt niet verwacht kan worden van mensen dat ze dat wel hebben. Dit zijn grotendeels details over hoe techniek werkt en de specifieke bedrijfsvoering van techbedrijven. En als je ook maar van 1 van deze stappen een iets verkeerd idee hebt dan heb je geen idee dat je jezelf hier tegen moet beschermen.

Je kan dit niet zomaar verwachten van Henk en Ingrid, en met "tja, eigen schuld" komen als het wel gebeurt. Dit is compleet oninzichtelijk voor het gros van de mensen.

[Reactie gewijzigd door jaxxil op 22 juli 2024 22:08]

- Dat ze altijd actief bewust blijven van hun backups, ondanks dat de instelling misschien jaren geleden is
~periode van 4 jaar? gezien gemiddelde levensduur telefoon tegewordig, als je dan dingen terug zet daaruit, moet je toch bewust zijn. of gewoon doen zonder nadenken....
- Dat ze zich er bewust van zijn dat ze deze bestanden over het internet naar de cloud versturen
yep, want je zal toch data gebruiken, en dan gaat t vaak toch wel vlotjes met video, tenzij je je n onbeperkte bundel heb of altijd maar thuis zit... maar waar is die cloud backup dan voor nodig als je t ouderwets met kabel naar lokale pc kan halen?
- Dat ze zich er bewust van zijn dat "de cloud" eigenlijk servers van Google/Apple zijn
Lijkt me toch verdomde logisch wanneer je al dan niet bewust een van hun services daarvoor gebruikt?
- Dat ze weten dat grote techbedrijven geautomatiseerd scannen naar csam
Met hoe Apple in t nieuws is geweest? hoe google seach results moet blurren tenzij etc....
Geloof daar weinig van tbh. tenzij die mensen echt uit de loep zijn .. maar hoe gebruik je dan je smartphone uberhaupt? En voor de oma die een kinder foto wil... Dat gewoon met kleren toch? ;)
- Dat deze algoritmes het niet altijd bij het juiste eind hebben en soms false positives genereren
eens.
- Dat gigantische techbedrijven niet werken als gewone bedrijven en niet bereikbaar zijn om je situatie even aan uit te leggen als er iets aan de hand is
Helaas ook dat te veel "gewone" bedrijven beter te bereiken zijn via social media dan n ouderwetse email of telefoontje...


Misschien tijd om te pleiten voor n smartphone diploma? :+
Nee hoor. Jij kunt rustig al je shit op orde hebben met een eigen domeinnaam, eigen server, encrypted opslag e.d. Maar zodra jij jouw foto verstuurt naar bijv. de huisarts en die vrolijk Microsoft- of Google-mail gebruiken, dan staat jouw foto gewoon in de cloud. Heb je niks voor hoeven accepteren.
Zoals eerder door een ander aangehaald.... iets met zorg portalen... als je dat zelf naar zijn of haar gmail/hotmail zend, Doe je dat zelf.....
Als die zelf die fotos op zn mail zet heb je geen zuivere arts... :)
Ja, als het duidelijk is dat het gmail o.i.d. is wel. Maar zakelijk kun je gewoon e-mail afnemen bij Google en/of Microsoft (en nog wel meer), zonder dat de verzender weet dat het van die bewuste partij is. En dat heeft niets met een zuivere arts te maken. Is het e-mailadres in de strekking van huisartsbaldijk@hotmail.com, dan heb je gelijk.
Ja, je moet alles acepteren, en iedere maand moet je opnieuw op accepteren klikken omdat er iets veranderd is in een legalese eula van 900 pagina's die niemand leest.

Je bent hiervoor als gebruiker echt zelf verantwoordelijk om dit te lezen.
:+

Gellukig kan iedereen die dit altijd netjes leest en het er niet mee eens is heel makkelijk nog bij zijn data zonder het te accepteren. En is het migreren naar een eigen/opensource hosting solution tegenwoordig zo makkelijk dat iedereen dat kan en zich er bewust van is.

/sarcasme als het nodig is om dat te zeggen
Gellukig kan iedereen die dit altijd netjes leest en het er niet mee eens is heel makkelijk nog bij zijn data zonder het te accepteren. En is het migreren naar een eigen/opensource hosting solution tegenwoordig zo makkelijk dat iedereen dat kan en zich er bewust van is.
je weet dat je gewoon n usb in je telefoon kan doen? t hoeft niet te ingewikkeld...
Ja, heel leuk die kabel.

Maar je hebt er zo weinig aan als ze automatisch je foto's van je telefoon verwijderen om ruimte te besparen. En ze dus nu online staan. En tja, om online te kunnen, moet je toch eerst die voorwaarden weer accepteren die net veranderd zijn.

(gellukig is dit enkel een standaard instelling die een normale gebruiker uitzet, net zoals ze de eula lezen en backups hebben op een eigen server. )
Betwijfel het, er zijn namelijk hiervoor zorgportalen. Gekoppeld aan je BSN, en die kunnen dan je data ophalen via het landeijke schakelpunt (LSP).

Een Whatsapp foto zou ook beteken dat je foto dus niet 'geregistreerd' wordt (voor je huisarts of later andere artsen indien nodig).
Ja, leuk dat je die foto veilig bij de huisarts kan krijgen, maar mijn iPhone en die van vele anderen upload fijn alle foto's direct naar iCloud. Dat is wat @Caayn bedoelt met 'semi opgedrongen' diensten.
Zouk toch overstappe op n android als apple je nooit n optie gegeven heeft om dat te weigeren....
Je kan dat zeker weigeren, maar het is niet mogelijk dat 'per foto' te doen. Of je hebt alleen een lokale bibliotheek, of je synchroniseert alles. Als je niet synchroniseert heb je ook niet de voordelen van een online bibliotheek (over al je devices, makkelijk deelbaar) dus 'even' uitzetten betekent daarna alles hersynchroniseren.
K doe m dus ook juist andersom, ipv auto ALLES online te backuppen, ben ik selectief wat ik naar google fotos of direct naar youtube gooi...
Je kan dat uitzetten of gewoon end-to-end encryptie inschakelen op je iCloud. Dan is alles op je iCloud geheel E2E versleutelt met een sleutel die je zelf in bewaring neemt.
Ja dat kunnen we, maar 95% van de gebruikers zijn zich hier niet eens bewust van.

En bij zo een instalation wizzard klikt iedereen gewoon door en drie keer raden welke instelling groot aangeraden in beeld staat.

Als je zegt dat je het niet wilt Krijg je vaak zelfs nog een melding dat dit niet aangeraden wordt. En potentieel onveilig is omdat je je data kwijt kan raken. Tja drie keer raden wat tante Toos dan doet.
Detectie
Om de seksuele uitbuiting van kinderen nog verder tegen te gaan, vertrouwt WhatsApp op alle beschikbare niet-versleutelde informatie, waaronder gebruikersmeldingen, om dit soort misbruik te detecteren en te voorkomen, en we verbeteren deze detectietechnologie doorlopend.
Onze detectiemethoden omvatten het gebruik van geavanceerde geautomatiseerde technologie, waaronder foto- en videomatching, om niet-versleutelde informatie proactief te scannen, zoals profiel- en groepsfoto's en gebruikersrapporten voor bekende CEI. Daarnaast beschikken we over technologie om nieuwe, onbekende CEI te detecteren binnen deze niet-versleutelde informatie. We gebruiken ook criteria voor machinaal leren om enerzijds tekstoppervlakken zoals gebruikersprofielen en groepsomschrijvingen te scannen en anderzijds groepsinformatie en verdacht gedrag dat duidt op het delen van CEI te evalueren.
Naast proactieve detectie moedigt WhatsApp gebruikers ook aan om problematische inhoud aan ons te melden. Gebruikers kunnen individuele accounts of groepen altijd blokkeren of melden. Ga naar ons Helpcentrum voor meer informatie over hoe je veilig kunt blijven op WhatsApp.
Met behulp van deze technieken onderneemt WhatsApp elke maand actie tegen honderdduizenden accounts die verdacht worden van het delen van CEI.
Waarom dit wordt ge"-"t is mij een raadsel, het is letterlijk het statement van WhatsApp. Super relevant lijkt mij.
offtopic : meestal word dan ook de source gelinked
De source is vrij duidelijk, maar fair enough.
Het is inderdaad end-to-end beveiligd, maar ontvangen of verzonden foto's staan gewoon zichtbaar op je telefoon. De app kan daar gewoon bij (je hebt immers toestemming gegeven aan de app om bij je foto's te kunnen) en een on-device content check doen.
Ze scannen de groep profiel beelden en omschrijving.

WhatsApp is ook veel meer geschikt voor grote groepen. iMessage houd de boot af door de groepen klein te houden.
Zouden ze daar werkelijk veel hits op krijgen? Gebruikers die een groep aanmaken met de naam 'Pedo's United' en een profielfoto van een minderjarige leuter? Dan kan je jezelf net zo goed meteen aangeven bij de politie.
Los van het feit dat je weet (of zou moeten weten) dat deze informatie ook onversleuteld bij Meta terecht komt, is het ook zichtbaar voor mensen die toevallig jouw telefoon in hun handen krijgen.
Geen idee, misschien doen ze proactief ook web search naar de groepen om meer data te verzamelen?

PS. ik zie het al, de backup E2E encryptie staat niet default aan.

[Reactie gewijzigd door Pinkys Brain op 23 juli 2024 12:37]

Dat gaat waarschijnlijk over gerapporteerde foto’s. Op scholen gaan foto’s rond van leerlingen die iemand een keer in vertrouwen naar een vriendje of vriendinnetje hebben gestuurd, de meeste kinderporno wordt tegenwoordig helaas vooral door kinderen zelf gemaakt. Ouders en medeleerlingen rapporteren het vervolgens.
Daar zie ik inderdaad wel in dat er 200 of zo berichten per jaar voor de verschillende platforms komt dit tot iets meer/minder dan duizend incidenten. Waar komen die andere 30M vandaan voor de VK? En wie stelt onderzoek in naar al die plaatjes? Ik denk dat er veel over-gerapporteerd wordt van ‘hier zijn alle foto’s met blote mensen zoeken jullie het maar uit’ wat dus gewoon verspilling van tijd en geld voor de instanties die deze dingen aanpakken.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 13:11]

Bor Coördinator Frontpage Admins / FP Powermod @ONiel22 juli 2024 21:20
Je doet hier nogal een statement. Zou je dat ook kunnen onderbouwen met objectieve bronnen? Ik ben erg benieuwd.
PRISM. Zoek het op.
Nu leg je het werk bij ons, je mede-Tweakers.
Echter, niet wij, maar jij bent verantwoordelijk voor jouw statement, dat nu terecht naar -1 gemod wordt.

Als je dat wil onderbouwen deel je bronnen, leg je uit welke informatie daarin ten grondslag ligt aan jouw statement en waarom die bronnen betrouwbaar zijn.

Er zijn nu twee keuzes:
1. Je doet iets om de dingen die jij weet, en die belangrijk voor anderen zijn, te delen met de wereld;
2. Je roept "jullie WILLEN het niet zien" en zet een alu-hoedje op.

Ik ben oprecht geinteresseerd, maar als ik alles waarbij iemand "KIJK DAN!" roept moet bekijken kan ik m'n baan wel opzeggen. En m'n relatie erbij.

[Reactie gewijzigd door kakanox op 23 juli 2024 12:28]

Het feit dat mensen zelf niet onderzoek en denken is de reden dat iedereen maar instemt met deze vrijheid-berovende initiatieven van de overheid.

Maar goed:
Wikipedia: PRISM

Klik even door op “The program” en dan scrollen naar “overview”. Amerikaanse overheid heeft toegang tot chats, foto’s (ja ook de strandfoto’s van jouw kinderen), emails,… van alle grote tech-companies (facebook, whatsapp, google, apple,…)

Als je dan weet dat er klokkenluiders zijn geweest die aankaarten dat er niet altijd “heel professioneel” met die foto’s zijn omgegaan - als je weet wat ik bedoel - moet je misschien maar eens nagaan of het het echt waard is dat we al onze privacy op het spel zetten voor de zogezegde “veiligheid”
Bor Coördinator Frontpage Admins / FP Powermod @ONiel23 juli 2024 19:30
Klik even door op “The program” en dan scrollen naar “overview”. Amerikaanse overheid heeft toegang tot chats, foto’s (ja ook de strandfoto’s van jouw kinderen), emails,… van alle grote tech-companies (facebook, whatsapp, google, apple,…)
Dat staat daar helemaal niet? Er staat zelfs uitdrukkelijk "The exact type of data varies by provider".

Daarnaast mag je uitleggen hoe ze die toegang hebben bij bv goed geïmplementeerde e2e encryptie.

Waarom zet je veiligheid tussen quotes? Wat probeer je hiermee te insinueren?

[Reactie gewijzigd door Bor op 23 juli 2024 19:32]

Lees een boek

Staat er duidelijk wel toch? Lees bv het boek van Glenn Greenwald en het PRISM programma staat erin beschreven. Zoek het op op Wikileaks en het staat precies beschreven hoe het volledig programma werkt? Of blijf je liever op je roze wolkje zitten dat de overheid het goed voor heeft met je privacy.

En client-side bestaat er geen e2e encryptie. Als ik over je schouder meelees boeit de e2e encryptie niet. Idem met schermopnames

[Reactie gewijzigd door ONiel op 24 juli 2024 02:00]

Bor Coördinator Frontpage Admins / FP Powermod @ONiel24 juli 2024 08:06
Het staat er duidelijk wel? Waar dan onder "overview"? Wat je aanhaalt lees ik daar namelijk niet. Lees je de hele tekst wel?
En client-side bestaat er geen e2e encryptie. Als ik over je schouder meelees boeit de e2e encryptie niet.
Klopt echter is dat volgens jouw eigen link niet hoe Prism lijkt te werken. De exacte werking van Prism (en de exacte features) zijn niet openbaar. Onduidelijk is hoe en of het systeem op dit moment functioneert. Wat bekend is gemaakt komt vooral uit lekken, analyses en dat soort zaken.

[Reactie gewijzigd door Bor op 24 juli 2024 08:07]

Maar een platform als Facebook, Instagram of TikTok waar voornamelijk beeldmateriaal geplaatst wordt is toch totaal niet te vergelijken met diensten die Apple aanbied, dus imho niet geheel vreemd.
Waarom zijn die diensten niet vergelijkbaar met een iMessage groep of delen van iCloud?
Heb je het wel eens gebruikt??
Ja zeker. Ik zit in meerdere groepen in telegram, whatsapp en iMessage en daar worden best veel foto’s en filmpjes uitgewisseld. Ik heb zelfs een groep waar alleen maar foto’s worden uitgewisseld.
Ook op OneDrive en iCloud worden regelmatig bestanden geshared, waaronder hele foto albums.

Heb jij het wel eens gebruikt? Of stuur jij er alleen maar berichten van 180 tekens?
Als je het gebruikt hebt weet je wat het verschil is tussen de platformen.
juist, dan weet je dus ook dat imessage en icloud ook gebruikt worden voor beelduitwisseling met anderen. Daar gaat dit om. En geloof me, er gaat heel veel beeldmateriaal door imessage heen. Hoe denk je dat Whatsapp aan die getallen komt? Die is niet zo heel verschillend van imessage, of wel?
Mijn vraag is dan vooral: WELKE diensten van Apple gaat dit over?
Want men vergelijkt het hier met social media/messengers en de gigant Google (zoekmachine, messenger, social media etc.).
De enige diensten van Apple die ik ken die user-generated content faciliteren zijn iMessage (e2e encrypted), iCloud (e2ee is mogelijk), en FaceTime (ook e2e encrypted).


iMessage is e2e encrypted en wordt in Europa überhaupt amper gebruikt.
FaceTime is zoals gezegd e2e encrypted maar ook real-time, en het lijkt me sterk dat Apple alle videogesprekken live monitort.
En iCloud maakt het mogelijk foto's te backuppen, en is slechts voor de eerste 5GB gratis. En ook daar is e2e encryptie mogelijk. En ik denk persoonlijk dat iemand die dit soort content verspreid toch wel zo slim is om iCloud back-ups uit te zetten. En als ze het al gebruiken en er eventueel voor betalen lijkt het me wel dat ze dan e2e encryptie aanzetten.

Voor de rest weet ik niet op welke platformen van Apple dit soort content verspreid zou kunnen worden.
Anoniem: 1301524 22 juli 2024 21:59
Facebook- en Instagram-moederbedrijf Meta rapporteerde vorig jaar bijvoorbeeld rond de 30,6 miljoen
Je gaat me toch niet zeggen dat dat allemaal pedofielen zijn. Lijkt me meer gevallen van foto's van de kinderen in zwembad, of bad, genomen door de ouders voor in een fotoboek achteraf.

Laat je toch denken dat in de cloud er toch veel gebeurd met je data. Misschien https://ente.io/ toch een kans geven... Kan je zelf ook hosten op je NAS.
Zonder dat de cijfers vermelden wat de false-positives zijn, zeggen deze getallen eigenlijk niks. Als 99,9% van de Google/FB csam's uiteindelijk fout blijkt, en bij Apple blijken er 267 van de 267 te kloppen, dan heeft Apple zijn zaakje toch beter voor elkaar.
Fijn om te lezen dat Apple zo secuur met de data van zijn gebruikers omgaat.

Nu is het kinderporno, straks is het ondersteunend materiaal bij een misdaad op een bepaalde locatie waar jij toevallig in de buurt een foto hebt gemaakt. Welke privacy?

De overheden hebben nooit genoeg, dus het is goed dat er ergens heel beperkt meegewerkt wordt. Misschien zet dit mensen tot nadenken aan (ijdele hoop…).
Privacy boven veiligheid.
Bor Coördinator Frontpage Admins / FP Powermod @ONiel22 juli 2024 21:22
Dat is ook de wens van de personen die bezig zijn met de zaken die zo vaak worden aangegrepen als reden om juist maatregelen te nemen; terroristen, pedofielen etc. Dit mis snijdt heel hard aan twee kanten.
Ahja want terroristen en pedofielen gebruiken enkel Whatsapp en Facebook? Die gaan niet even de moeite nemen een stapje verder te denken waardoor al deze privacy-invasieve maatregelen ALLE burgers treft.
Bor Coördinator Frontpage Admins / FP Powermod @ONiel23 juli 2024 07:25
Ahja want terroristen en pedofielen gebruiken enkel Whatsapp en Facebook?
Dat zegt hier toch iemand? Je doet een heel brede en nogal sterke uitspraak die op veel gebieden van toepassing is maar die ook absoluut grote nadelen kent. Met zo'n opmerking zet je bv indirect vrijwel alle mogelijkheden tot opsporing buitenspel. Dit is zeker een mes dat aan twee kanten snijdt.
zet je bv indirect vrijwel alle mogelijkheden tot opsporing buitenspel
En ik ben degene met buitensporige uitspraken? Wat is er gebeurd met zoeken van getuigen? Vragen stellen aan directe omgeving? Eventueel opsporen a.d.h.v robotfoto? DAT is opsporen en is veel efficienter dan de sleepnet-techniek om data te verzamelen over alles en iedereen.
Bor Coördinator Frontpage Admins / FP Powermod @ONiel23 juli 2024 09:46
Het een sluit het ander niet uit. Hoe is hier sprake van een sleepnet techniek? Het artikel geeft geen absolute duidelijkheid over hoe de beelden zijn geïdentificeerd. Dat kan bijvoorbeeld ook door meldingen van gebruikers zijn. Dat heeft dan weer niets met een sleepnet te maken.
Privacy en veiligheid moet altijd een afweging blijven van geval tot geval welke de doorslag geeft.
Bor Coördinator Frontpage Admins / FP Powermod @CivLord23 juli 2024 12:50
Precies. Een opmerking als
Privacy boven veiligheid.
lijkt niet goed doordacht en in sommige gevallen ronduit dom. Je kan dat simpelweg niet zo eenvoudig stellen. Er is altijd een afweging te maken. Wanneer je privacy altijd boven veiligheid (van personen etc) laat gaan wordt je blind voor een heel groot aantal (en soms afschuwelijke) zaken.

[Reactie gewijzigd door Bor op 23 juli 2024 19:32]

Op dit item kan niet meer gereageerd worden.