Bij een nieuw programma dat Facebook heeft opgezet om wraakporno tegen te gaan, beoordelen medewerkers van het bedrijf zelf, en niet algoritmes, de naaktfoto's die gebruikers hiervoor moeten uploaden. Vervolgens wordt er een hash aangemaakt.
De menselijke beoordeling van de ongecensureerde naaktfoto's, die gebruikers vrijwillig uploaden voor het project, is nodig om te bepalen of er sprake is van wraakporno bij berichten van andere gebruikers. Dat laat een woordvoerder van Facebook weten aan The Daily Beast. Het moet onder andere voorkomen dat legitieme foto's verwijderd worden.
Eerder deze week berichtte onder andere ABC over een test van Facebook en een Australische overheidsinstantie, waarbij gepoogd wordt de verspreiding van naaktfoto's of seksueel getinte afbeeldingen tegen iemands wil tegen te gaan. Hiervoor dienen gebruikers in contact te komen met de e-safety-commissie van de Australische overheid waarna ze gevraagd zou worden de intieme foto's die mogelijk uitlekken naar zichzelf te sturen via Facebook Messenger.
Facebook zou vervolgens het bestand hashen en die hash gebruiken om eventueel te kunnen matchen met de afbeeldingen die als wraakporno te bestempelen zijn, om het uploaden van de foto's door een derde te blokkeren. Volgens Juli Inman Grant, commissielid van e-Safety, zou Facebook de afbeelding verder niet opslaan en kunstmatige intelligentie gebruiken bij het matchen. Facebooks hoofd van de beveiligingsdivisie, Antigone Davis, sprak van cutting-edge-technologie.
Facebook laat aan The Daily Beast weten dat het materiaal wel 'een bepaalde periode' bewaard wordt 'voor een kleine groep medewerkers' om te controleren of het beleid juist wordt toegepast, maar dat bij deze stap blurring wordt toegepast. Voor de eerste beoordeling worden wel de foto's in originele staat bekeken.