Het algoritme van YouTube beveelt zelf video’s aan die indruisen tegen de eigen communityrichtlijnen. Dat stellen onderzoekers van Mozilla in een studie. Zij analyseerden met behulp van een browserextensie die gegevens verzamelt, de werking van het algoritme.
Uit het onderzoek blijkt dat van alle video’s die bestempeld werden als ‘betreurenswaardig’, 71% werd aanbevolen door het eigen algoritme van YouTube. De onderzoekers stellen bovendien dat aanbevolen video’s 40 procent meer kans hadden om als ‘betreurenswaardig’ bestempeld te worden in vergelijking met de door de gebruiker opgezochte video’s.
Uit de studie blijkt ook dat in landen waar Engels niet de primaire taal is, het aandeel van bestempelde ‘betreurenswaardige’ video’s 60% hoger ligt in vergelijking met landen waarin het Engels wel de primaire taal is. Van alle gerapporteerde ‘betreurenswaardige’ video’s werd volgens de onderzoekers 9 procent effectief van het platform verwijderd nadat ze samen 160 miljoen views hadden verzameld.
"Ons onderzoek bevestigt dat YouTube niet enkel video’s host die indruisen tegen zijn eigen communityrichtlijnen, maar deze zelf ook aanbeveelt", zegt Brandi Geurkink van Mozilla. "Het platform moet toegeven dat het algoritme zo is ontworpen dat het mensen misinformeert en schade berokkent", klinkt het.
De onderzoekers kregen data aangeleverd via de RegretsReporter-browserextensie. Met deze open source-extensie kunnen mensen YouTube-video’s met een ongepaste inhoud rapporteren aan de onderzoekers van Mozilla. Volgens het bedrijf hebben meer dan 37.000 vrijwilligers deze extensie geïnstalleerd en hebben 1662 mensen minstens één zo’n video met een ongepaste inhoud gerapporteerd. Ongeveer 3300 meldingen kwamen uit 91 landen.