De algoritmes die Facebook heeft gemaakt om verboden content op te sporen, werken beter op Facebook zelf dan op Instagram. Dat blijkt uit cijfers die het bedrijf naar buiten heeft gebracht. Daardoor zien gebruikers procentueel veel meer verboden content op Instagram.
De cijfers van Facebook tonen aan dat 99,5 procent van de verwijderde kinderporno door algoritmes worden gevonden. Op Instagram is dat percentage 94,6 procent. Het bedrijf verwijderde de rest van de content na meldingen van gebruikers. Op andere gebieden is hetzelfde beeld te zien. Algoritmes waren verantwoordelijk voor het spotten van 98,5 procent van de terroristische propaganda op Facebook, waar dat bij Instagram 92,2 procent was. De cijfers gaan over de maanden juli, augustus en september van dit jaar.
Facebooks algoritmes zijn duidelijk beter in het spotten van bepaalde dingen. Bij het opsporen van pesten en intimidatie was het aandeel van algoritmes 16,1 procent, en veruit de meerderheid van verwijderingen naar aanleiding daarvan kwam dus door meldingen van mensen.
Het bedrijf verwijderde de afgelopen maanden na meldingen van gebruikers 5,1 miljoen nepprofielen. De algoritmes spotten er nog eens ongeveer 1,7 miljard voordat een menselijke gebruiker een melding had gedaan, vermoedelijk toen softwaretools nepaccounts aan het aanmaken waren.
De algoritmes zijn belangrijk, omdat na meldingen van mensen medewerkers van Facebook of partnerbedrijven moeten kijken naar die foto's en video's. Dat heeft vaak psychische problemen bij zulke medewerkers tot gevolg.
De cijfers spreken ook over het aantal keren dat overheden gegevens opvragen bij Facebook. Belgische overheidsinstanties vroegen gegevens op over 1033 accounts, in Nederland was dat 864 accounts. Dat aantal is nauwelijks veranderd afgelopen anderhalf jaar.