Een groep van 2680 slachtoffers van kindermisbruik klaagt Apple aan. De groep doet dat omdat Apple zijn geplande detectiesysteem voor kindermisbruikmateriaal in iCloud heeft geschrapt. Met de zaak is mogelijk een totaal van 1,2 miljard dollar aan schadevergoedingen gemoeid.
De slachtoffers hebben de aanklacht op zaterdag ingediend bij een rechtbank in Californië, schrijft The New York Times. De groep stelt dat Apple zijn beloftes rondom het beschermen van kindermisbruikslachtoffers niet is nagekomen. De aanklacht stelt dat Apple een systeem had ontwikkeld om beelden van kindermisbruik te identificeren, verwijderen en rapporteren aan autoriteiten, maar dat uiteindelijk niet heeft geïmplementeerd. De klacht stelt dat Apple in plaats daarvan toeliet dat het materiaal zich verder verspreidde.
Het techbedrijf zou hierom een 'defect product' hebben geleverd dat slachtoffers van kindermisbruik schaadde, stelt de aanklacht. Apple introduceerde volgens de slachtoffers kortstondig 'een alom aangeprezen verbeterd ontwerp gericht op het beschermen van kinderen', maar 'verzuimde vervolgens die ontwerpen te implementeren of maatregelen te nemen om materiaal over seksueel misbruik van kinderen te detecteren en beperken'. De aanklacht eist een beleidswijziging van Apple en vraagt compensatie voor de slachtoffers. Onder de wet hebben slachtoffers van kindermisbruik recht op minimaal 150.000 dollar per persoon. Volgens The New York Times kan het totaal in deze zaak oplopen tot 1,2 miljard dollar, met oog op 'de typische verdrievoudiging van gevraagde schadevergoedingen'.
De aanklacht draait om Apples geplande NeuralHash-systeem. Dat was een detectiesysteem voor kindermisbruikbeelden dat bedoeld was voor Apples iCloud-cloudopslagdienst. De tool zou geüploade beelden van iPhone- en iPad-gebruikers omzetten in hashes en die vergelijken met een database van kindermisbruikbeelden die bekend zijn bij de autoriteiten. Apple heeft die functionaliteit uiteindelijk geschrapt om veiligheidsredenen, mede na kritiek van privacyactivisten en beveiligingsonderzoekers. Apple zei later dat het onder andere bang was voor feature creep, waarbij bepaalde landen Apple onder druk konden zetten om de functie in te zetten voor andere doeleinden, zoals surveillance of het toepassen van censuur.
Apple zegt in een verklaring tegenover The New York Times dat 'kindermisbruikmateriaal afschuwelijk is', en dat het bedrijf 'zich inzet om de manieren waarop misbruikers kinderen in gevaar brengen te bestrijden'. "We zijn dringend en actief aan het innoveren om deze misdaden te bestrijden zonder de veiligheid en privacy van al onze gebruikers in gevaar te brengen." De woordvoerder verwijst onder meer naar nieuwe functies die het verspreiden van nieuw gemaakt materiaal moeten beperken, zoals features in de Berichten-app die kinderen waarschuwen voor ontvangen naaktbeelden en mensen de mogelijkheid bieden om schadelijk materiaal te melden bij Apple.