Uit onderzoek onder ruim tien miljoen Facebookers lijken vooral de gebruikers de filters van hun eigen content te zijn en niet zozeer de algoritmes van de site. Toch kunnen de algoritmes in de toekomst schadelijk voor de democratie zijn als ze gebruikers te veel afschermen van standpunten.
Dat schrijven onderzoekers van Facebook donderdag in het tijdschrift Science. Het klikgedrag van de gebruikers zelf lijkt op dit moment een belangrijker reden te zijn waardoor artikelen die van de zienswijze van een Facebook-gebruiker verschillen, minder gezien worden dan de algoritmes van de sociale-mediagigant. De algoritmes van de site die proberen te voorzien wat een gebruiker 'leuk' zal vinden en dat presenteren, kunnen echter wel degelijk in de toekomst zorgen voor mogelijke schade aan het democratisch systeem omdat mensen te veel afgeschermd worden van alternatieve ideeën. Daarom is het belangrijk dat begrepen wordt hoe dergelijke gepersonaliseerde websites werken in vergelijking tot traditionele media.
Om erachter te komen hoe het nu staat met de veelgehoorde klacht van het bestaan van 'filterbubbels' en 'echoputten van de eigen mening', gebruikten de onderzoekers geanonimiseerde data van 10,1 miljoen Facebookgebruikers uit de Verenigde Staten die tussen 7 juli 2014 en 7 januari 2015 werden verzameld. Daarbij werd gekeken naar hoe de gebruikers omgaan met sociaal gedeeld nieuws. De gebruikers die werden onderzocht, hadden allen publiek hun politieke voorkeur opgegeven: liberaal of conservatief. Van deze gebruikers werd gekeken wat voor nieuws dat door de vrienden van de betreffende gebruikers gepost werd, de gebruikers ook daadwerkelijk bereikte via de algoritmes van de site.
Daarna keken de onderzoekers op welke inhoud de gebruikers uiteindelijk ook klikten. Hieruit bleek dat het nieuwsstroomalgoritme er over het algemeen voor zorgde dat er een procentpunt verschil zat in de hoeveelheid nieuws die tegen de politieke kleur van de gebruiker inging, bij de gebruiker terechtkwam. Het klikgedrag van gebruikers zelf resulteerde echter weer voor vier procentpunt minder klikken op 'uitdagende' inhoud. Dat laatste lijkt er nu op te wijzen dat Facebook mensen een bredere nieuwsstroom levert dan het gemiddelde, gekleurde nieuwsmedium, zoals het in het onderzoek gebruikte, conservatieve Fox News tegen de liberale Huffington Post. De kans is op Facebook namelijk groter dat gebruikers worden geconfronteerd met andere denkbeelden.
De hele dataset was potentieel goed voor ongeveer 3,8 miljard unieke, individuele vertoningen, 903 miljoen nieuwsstroomvertoningen en 59 miljoen clicks. Het rankingalgoritme zorgt er uiteindelijk voor dat conservatieven ongeveer vijf procent minder ideeën-overschrijdende content te zien krijgen dan zonder het algoritme en dat liberalen het met acht procent minder andersoortige idealen moeten doen. De uiteindelijke click rate op harde nieuwsverhalen was gemiddeld slechts zeven procent, dus conservatief of liberaal: beide kampen klikken weinig op hard nieuws.
Facebook bestaat voornamelijk uit netwerken van vrienden en familie, waardoor de gebruikers gemiddeld rond de twintig procent aan contacten hebben die er een andere mening op nahouden. Dit is niet vergelijkbaar met andere sociale netwerken, zoals Twitter, die om andere groepen draaien, zoals groepen met eenzelfde interesse.
Een begeleidend Perspectives-artikel van David Lazer in het tijdschrift trekt het onderzoek wat breder. Volgens hem staan we nog slechts aan het begin van sociale algoritmes. De sociale algoritmes die gebruikt worden, zijn zo complex dat geen enkel persoon ze volledig kan begrijpen, iets wat volgens Lazer wordt bewezen door het feit dat nota bene onderzoekers van Facebook zelf de impact van Facebookalgoritmes onderzoeken.
Ook al lijkt dit onderzoek nog te onderschrijven dat Facebook een plek is waar mensen toch enigszins van elkaars interesses kunnen proeven, is dat misschien na de introductie van een andere manier van het vullen van de nieuwsstroom op 21 april van dit jaar, veranderd. Sinds die tijd probeert Facebook updates van 'mensen waar je om geeft' in ieder geval door te geven. Mensen om wie je geeft zijn waarschijnlijk ook de mensen met wie je ideologisch meer gemeen hebt.
Er is praktisch geen vergelijking te maken met de wereld voor de komst Facebook en andere sociale media. De hoeveelheden data zijn niet vergelijkbaar. En ondanks gedegen onderzoeksgroepen van het bedrijf zelf, moet niet vergeten worden dat onderzoek ook van buiten gedaan moet kunnen worden, iets wat sinds 30 april 2015 lastiger geworden is doordat de data die applicaties van andere partijen kunnen opvragen, drastisch is verminderd.