Apple heeft de tool die het ontwikkelde om beelden van kindermisbruik op te sporen in iCloud geannuleerd, omdat het bang was voor 'feature creep'. Apple vreesde dat bepaalde landen zouden eisen dat het ingezet zou worden om censuur te plegen.
Apple geeft nu een veel uitgebreidere argumentatie. Zo was Apple bang dat criminelen misbruik zouden kunnen gaan maken van het systeem. "Het zou ook kunnen leiden tot een hellend vlak van onbedoelde gevolgen. Het scannen op één type inhoud zet bijvoorbeeld de deur open voor bulkbewaking en zou de wens kunnen wekken om andere versleuteldeberichtensystemen te doorzoeken op inhoudstypen, zoals afbeeldingen, video's, tekst of audio en inhoudscategorieën. Hoe kunnen gebruikers er zeker van zijn dat een hulpmiddel voor een bepaald type surveillance niet opnieuw is geconfigureerd om andere inhoud te surveilleren, zoals politieke activiteiten of religieuze vervolging?"
Dat zou negatieve gevolgen hebben voor de vrijheid van meningsuiting en de democratie, zo redeneert Apple. "Bovendien zou het ontwerpen van deze technologie voor één regering toepassingen voor andere landen kunnen vereisen voor nieuwe gegevenstypes. Scansystemen zijn ook niet onfeilbaar en er is gedocumenteerd bewijs van andere platforms dat onschuldige partijen zijn meegesleurd in dystopische sleepnetten die van hen slachtoffers hebben gemaakt terwijl ze niets hebben gedaan."
Apple heeft de beslissing om te stoppen met de ontwikkeling van de tool uitgelegd in een brief aan Heat Initiatieve die Wired online heeft gezet. De iPhone-maker kondigde de tool om lokaal op iPhones te scannen naar bekende beelden van kindermisbruik in 2021 aan, maar annuleerde die eind vorig jaar. Destijds was de uitleg relatief beperkt.
