Amazon ontdekte vorig jaar honderdduizenden beelden van kindermisbruik in trainingsdata die bedoeld is om kunstmatige intelligentie op te trainen. De beelden zijn verwijderd voordat de data gebruikt zijn voor AI-training.
Het techbedrijf maakt volgens Bloomberg steevast melding van beelden bij het Amerikaanse National Center for Missing and Exploited Children. Het Ncmec is een non-profitorganisatie die kindermisbruik bestrijdt en vermiste kinderen opspoort. Er worden echter geen gegevens gedeeld over de herkomst van de beelden, wat verder onderzoek zou verhinderen. Volgens Amazon zijn deze gegevens niet beschikbaar.
De hoeveelheid kindermisbruikmateriaal in AI-gerelateerde producten dat gemeld werd in 2025 is vijftien keer zo hoog vergeleken met het jaar daarvoor. Het overgrote merendeel daarvan blijkt meldingen van Amazon te zijn.
Het is niet duidelijk waarom specifiek Amazon zoveel kindermisbruikmateriaal detecteert in trainingsdata en AI-gerelateerde gegevens. Het Ncmec stelt dat vergelijkbare bedrijven slechts 'een handvol' meldingen deden en meer informatie over de herkomst van de beelden konden delen.
AI-bedrijven scannen, maar voorkomen slechts deels problemen
Alle AI-bedrijven met een eigen model hebben grote hoeveelheden data nodig om hun product te trainen. Het is daarbij gebruikelijk om deze gegevens te scannen op kindermisbruikmateriaal en andere ongewenste inhoud. Door de data eerst te filteren voorkomen bedrijven dat hun AI uiteindelijk dit soort ongewenst materiaal gaat reproduceren.
Ook als trainingsdata eerst gefilterd wordt, kan het misgaan. Zo krijgt het xAI-model Grok de afgelopen weken veel kritiek vanwege de mogelijkheid om afbeeldingen van mensen te bewerken, bijvoorbeeld door kleding van een afbeelding van een kind te verwijderen.