Apple heeft in 2023 slechts 267 gevallen van vermeend kindermisbruikmateriaal op zijn platforms gerapporteerd. Dat meldt de Britse kinderbeschermingsorganisatie Nspcc. Andere techgiganten rapporteerden in hetzelfde jaar miljoenen gevallen van csam.
De Nspcc beweert dat Apple veel minder gevallen van child sexual abuse material oftwel csam rapporteert dan andere techgiganten. Dat meldt The Guardian. Zo maakte de iPhone-maker in 2023 slechts 267 keer melding van kindermisbruikmateriaal op zijn platforms bij het National Center for Missing & Exploited Children in het Verenigd Koninkrijk. Onder meer Meta en Google rapporteerden in datzelfde jaar juist veel meer gevallen waarbij mogelijk sprake is van csam.
Facebook- en Instagram-moederbedrijf Meta rapporteerde vorig jaar bijvoorbeeld rond de 30,6 miljoen gevallen van csam. Ongeveer 1,4 miljoen van de meldingen hadden betrekking op WhatsApp. Bij Facebook ging het om zo'n 17,8 miljoen meldingen en bij Instagram om circa 11,4 miljoen meldingen. Google rapporteerde in 2023 ruim 1,47 miljoen gevallen. Ook TikTok en Snapchat rapporteerden dat jaar meer dan een half miljoen gevallen van vermeend kindermisbruikmateriaal. Tot de bovengenoemde aantallen behoren mogelijk ook beelden die door detectiesystemen onterecht als verdacht worden gezien.
Bovendien zegt de Nspcc dat Apple in Engeland en Wales alleen al betrokken was bij meer geregistreerde gevallen van kindermisbruikbeelden dan het totale aantal dat Apple wereldwijd rapporteerde. Dat Apple gebruikmaakt van end-to-endencryptie kan het volgens de organisatie moeilijker maken om op csam te controleren, maar alsnog hebben andere e2ee-diensten aanzienlijk meer gevallen van vermeend kindermisbruikmateriaal gerapporteerd.
Apple heeft niet gereageerd op de beschuldigingen, maar heeft The Guardian doorverwezen naar een verklaring die het bedrijf eerder aflegde. Het bedrijf zei toen dat het prioriteit geeft aan de veiligheid en privacy van gebruikers. In 2021 kondigde de iPhone-maker aan dat het afbeeldingen zou scannen voordat ze naar iCloud worden geüpload. Op die manier zouden de beelden vergeleken kunnen worden met bekende csam-afbeeldingen van de Ncmec en andere organisaties. Daarop kwam veel kritiek, waardoor Apple in 2022 de stekker uit de detectietool trok.
De National Society for the Prevention of Cruelty to Children (Nspcc) is een Britse organisatie die zich inzet voor het beschermen van kinderen tegen misbruik en verwaarlozing. Het National Center for Missing & Exploited Children (Ncmec) is een Amerikaanse organisatie die helpt bij het opsporen van vermiste kinderen en zich inzet tegen seksuele uitbuiting van kinderen.