Er zitten vooroordelen in een algoritme van Twitter, dat ontdekten onderzoekers tijdens een algorithmic bias bounty-competitie op Defcon. Zo worden onder meer foto's van ouderen en mensen met een beperking weggefilterd in Twitters croptool.
Een aantal weken geleden kondigde Twitter aan tijdens hackersevent Defcon een wedstrijd te organiseren waarbij bezoekers op zoek moesten gaan naar vooroordelen in de algoritmes die het platform gebruikt. Twitter was onder meer op zoek naar bewijs voor ingeslopen vooroordelen in diens croptool voor het automatisch bijsnijden van foto's in de tijdlijn. Twitter heeft tijdens Defcon vijf winnaars uitgeroepen van de wedstrijd, die naar huis gaan met een geldprijs.
Zo ontdekte een student van een Zwitserse hogeschool, Bogdan Kulynych, dat schoonheidsfilters het interne scoresysteem van het croppingalgoritme in de war kan brengen. Kulynych gebruikte StyleGAN2 om niet-bestaande gezichten te produceren en deze steeds een beetje jonger, lichter en warmer van kleur te maken. Hij toont daarmee aan dat het algoritme duidelijk een voorkeur heeft voor slanke, jonge en lichtgekleurde gezichten en gezichten met overduidelijk vrouwelijke trekjes. Kulynych won met zijn eerste plek 3500 dollar.
Dat wordt bevestigd door de tweede en derde plaats tijdens de wedstrijd. De Canadese AI-startup HALT AI, ontdekte een vooroordeel richting mensen met wit of grijs haar, wat zou duiden op leeftijdsdiscriminatie. En onderzoeker Roya Pakzad ontdekte dat het croppingalgoritme de voorkeur geeft aan Engelse tekst ten opzichte van Arabisch schrift.
Naast de top drie erkent Twitter ook het onderzoek dat laat zien dat het algoritme een voorkeur heeft voor lichtgekleurde emoji in foto's en onderzoek van een anonieme deelnemer die het algoritme in de war kon brengen door een micropixel aan afbeeldingen toe te voegen.
Tijdens de wedstrijd moesten deelnemers zich houden aan een lijst strenge regels over wat ze wel en niet mochten doen met het algoritme. Zij kregen vervolgens punten toegewezen als ze bijvoorbeeld bedoelde en onbedoelde stereotypering, foute herkenning, wissen en andere schade konden aantonen. Ook speelden de waarschijnlijkheid dat een vooroordeel een gebruiker bereikt en de mogelijkheid om dit vooroordeel te misbruiken een rol in de uiteindelijke scoretelling. De vooroordelen werden getoetst door een panel van machinelearningexperts, onder andere van de stichting OpenAI.
Het is de eerste keer dat Twitter een geldbedrag tegenover het vinden van vooroordelen in een algoritme zet. Het was wel al langer bekend dat de croptool van Twitter bevooroordeeld kan zijn. Dat bevestigde Twitter in mei dit jaar opnieuw na intern onderzoek.