Apple reageert deze week op kritiek op zijn plannen om iCloud te scannen voor foto's van kindermisbruik. Het bedrijf laat onder andere weten dat het alleen afbeeldingen gaat markeren die in minimaal twee verschillende databases voor kinderveiligheid voorkomen.
Apple hoopt dat dit het aantal false positives van deze feature tegen child sexual abuse material of csam tegengaat. Het bedrijf zegt daarbij dat deze databases in meerdere landen moeten staan. "De on-device versleutelde database voor kindermisbruik bevat alleen gegevens die onafhankelijk van elkaar zijn ingediend door twee of meer kinderveiligheidsorganisaties, die in afzonderlijke rechtsgebieden staan, en dus niet onder controle van dezelfde overheid vallen", schrijft Apple in een rapport over de komende veiligheidsfunctie.
Dit moet er in theorie voor zorgen dat landen er niet voor kunnen zorgen dat beelden zonder kindermisbruik gemarkeerd kunnen worden door het systeem van Apple. Het bedrijf laat verder weten dat de techgigant pas een iCloud-account zal markeren als het systeem dertig of meer afbeeldingen als kindermisbruik identificeert. Deze drempel zou gekozen zijn om een 'drastische veiligheidsmarge' te bieden, ter voorkoming van foutieve positieven. Deze drempel kan op termijn worden gewijzigd, naarmate de prestaties van het systeem in de echte wereld worden geëvalueerd.
/i/2004533774.png?f=imagenormal)
Voordat deze drempel van dertig beelden wordt overschreden, kan Apple naar eigen zeggen geen gegevens ontcijferen en is het niet mogelijk voor Apple om het aantal matches voor een bepaald account te controleren. Nadat de drempel van dertig beelden wordt overschreden, kunnen Apple-servers alleen vouchers ontcijferen die overeenkomen met de positieve overeenkomsten. De servers krijgen geen informatie over andere afbeeldingen. Deze vouchers zouden toegang bieden tot een visuele afgeleide versie van een positief gemarkeerde afbeelding, zoals een versie met lage resolutie. Deze worden vervolgens menselijk beoordeeld, voordat de techgiganteen account afsluit en doorstuurt naar een kinderveiligheidsorganisatie.
Apple zou het verder mogelijk maken voor derde partijen om de csam-database te auditen. "Een auditor kan voor elke gegeven root-hash van de versleutelde csam-database in het Knowledge Base-artikel of op een apparaat bevestigen dat de database alleen is gegenereerd uit een kruising van hashes van deelnemende kinderveiligheidsorganisaties, zonder toevoegingen, verwijderingen of veranderingen." Veiligheidsorganisaties hoeven geen gevoelige materialen te delen om zo'n audit te faciliteren, meldt Apple.
Apple kondigde eerder deze maand aan dat het een csam-detectie functie zou toevoegen aan iOS 15 en iPadOS 15. De feature wordt gebruikt om foto's die gebruikers op iCloud zetten te scannen voor kindermisbruik, waarbij gebruik wordt gemaakt van databases met hashes van kinderveiligheidsorganisaties, zoals het National Center for Missing and Exploited Children in de VS. De feature wordt voor alle landen in iOS 15 en iPadOS 15 geïntegreerd, maar vooralsnog alleen ingeschakeld in Noord-Amerika. De techgigant schrijft dat het niet zal scannen naar onbekende afbeeldingen, die niet in csam-databases voorkomen.
Bij aankondiging hadden verschillende partijen kritiek op Apples plannen. Volgens het Center for Democracy & Technology zet het bedrijf hiermee een infrastructuur voor surveillance en censuur op die kwetsbaar is voor misbruik wereldwijd. Apple beloofde daarop de fotoscanfunctie alleen te gebruiken voor het opsporen van kindermisbruik. Apples softwarehoofd, Craig Federichi, erkende dat het bedrijf verwarring heeft gecreëerd met de aankondiging, maar de techgigant blijft bij de update. Het bedrijf heeft zijn uitrolplannen voor de feature niet veranderd na de kritiek.