Het Facebook-team dat verantwoordelijk was voor een omstreden experiment waarbij de emoties van gebruikers werden gemanipuleerd, kon jarenlang vrijwel ongestoord zijn gang gaan. Inmiddels is het team aan striktere regels gebonden.
Het data science-team bij Facebook kreeg tot het onderzoek over emoties nauwelijks beperkingen opgelegd, schrijft The Wall Street Journal. Een medewerker van het team kon zonder dat er vragen werden gesteld een test opzetten, waarvoor de Facebook-gebruikers zonder dat ze dat wisten als onderzoekspopulatie werden gebruikt. Er werden zelfs zoveel tests uitgevoerd, dat onderzoekers bang waren dat de deelnemers aan de onderzoeken aan meerdere onderzoeken tegelijk deelnamen.
In één geval kregen duizenden Facebook-gebruikers de mededeling dat ze waren uitgesloten van Facebook, omdat het sociale netwerk vermoedde dat ze robots waren of nepnamen gebruikten. Om weer toegang te krijgen tot Facebook moesten ze hun identiteit aantonen. In werkelijkheid dacht Facebook helemaal niet dat ze robots waren of valse namen gebruikten, maar wilde het bedrijf zijn maatregelen tegen fraude testen. Andere tests van het team hadden bijvoorbeeld betrekking op de onderlinge communicatie van families, de oorzaak van eenzaamheid en de manier waarop gedragsnormen zich door het sociale netwerk verspreiden.
Sinds begin dit jaar moet een panel van interne experts op het gebied van onder meer privacy en beveiliging zich buigen over onderzoeken, zodra die verder gaan dan simpele tests. Het bedrijf overweegt nog verdere maatregelen. Overigens krijgt Facebook ook lof voor zijn onderzoek: zo prijzen externe onderzoekers het feit dat Facebook veel van zijn onderzoeken deelt in wetenschappelijke bladen.
Het datascienceteam van het sociale netwerk kwam afgelopen week plotseling in het nieuws, nadat het een paper had gepubliceerd over een omstreden experiment. Daarbij werd het aantal berichten met een positieve of negatieve ondertoon in de timeline van de gebruiker vermeerderd, om te onderzoeken wat voor effect dat op de gebruiker had. In de praktijk bleek die van meer positieve berichten in zijn eigen berichten ook positiever te zijn; hetzelfde geldt voor negatieve.
Facebook heeft inmiddels zijn excuses aangeboden voor de 'slechte communicatie' rond het onderzoek. Mogelijk wacht het bedrijf een onderzoek van de Britse en Ierse privacywaakhonden.