Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties

Uit onderzoek onder ruim tien miljoen Facebookers lijken vooral de gebruikers de filters van hun eigen content te zijn en niet zozeer de algoritmes van de site. Toch kunnen de algoritmes in de toekomst schadelijk voor de democratie zijn als ze gebruikers te veel afschermen van standpunten.

facebook tweakersDat schrijven onderzoekers van Facebook donderdag in het tijdschrift Science. Het klikgedrag van de gebruikers zelf lijkt op dit moment een belangrijker reden te zijn waardoor artikelen die van de zienswijze van een Facebook-gebruiker verschillen, minder gezien worden dan de algoritmes van de sociale-mediagigant. De algoritmes van de site die proberen te voorzien wat een gebruiker 'leuk' zal vinden en dat presenteren, kunnen echter wel degelijk in de toekomst zorgen voor mogelijke schade aan het democratisch systeem omdat mensen te veel afgeschermd worden van alternatieve ideeën. Daarom is het belangrijk dat begrepen wordt hoe dergelijke gepersonaliseerde websites werken in vergelijking tot traditionele media.

Om erachter te komen hoe het nu staat met de veelgehoorde klacht van het bestaan van 'filterbubbels' en 'echoputten van de eigen mening', gebruikten de onderzoekers geanonimiseerde data van 10,1 miljoen Facebookgebruikers uit de Verenigde Staten die tussen 7 juli 2014 en 7 januari 2015 werden verzameld. Daarbij werd gekeken naar hoe de gebruikers omgaan met sociaal gedeeld nieuws. De gebruikers die werden onderzocht, hadden allen publiek hun politieke voorkeur opgegeven: liberaal of conservatief. Van deze gebruikers werd gekeken wat voor nieuws dat door de vrienden van de betreffende gebruikers gepost werd, de gebruikers ook daadwerkelijk bereikte via de algoritmes van de site.

Daarna keken de onderzoekers op welke inhoud de gebruikers uiteindelijk ook klikten. Hieruit bleek dat het nieuwsstroomalgoritme er over het algemeen voor zorgde dat er een procentpunt verschil zat in de hoeveelheid nieuws die tegen de politieke kleur van de gebruiker inging, bij de gebruiker terechtkwam. Het klikgedrag van gebruikers zelf resulteerde echter weer voor vier procentpunt minder klikken op 'uitdagende' inhoud. Dat laatste lijkt er nu op te wijzen dat Facebook mensen een bredere nieuwsstroom levert dan het gemiddelde, gekleurde nieuwsmedium, zoals het in het onderzoek gebruikte, conservatieve Fox News tegen de liberale Huffington Post. De kans is op Facebook namelijk groter dat gebruikers worden geconfronteerd met andere denkbeelden.

De hele dataset was potentieel goed voor ongeveer 3,8 miljard unieke, individuele vertoningen, 903 miljoen nieuwsstroomvertoningen en 59 miljoen clicks. Het rankingalgoritme zorgt er uiteindelijk voor dat conservatieven ongeveer vijf procent minder ideeën-overschrijdende content te zien krijgen dan zonder het algoritme en dat liberalen het met acht procent minder andersoortige idealen moeten doen. De uiteindelijke click rate op harde nieuwsverhalen was gemiddeld slechts zeven procent, dus conservatief of liberaal: beide kampen klikken weinig op hard nieuws.

Facebook bestaat voornamelijk uit netwerken van vrienden en familie, waardoor de gebruikers gemiddeld rond de twintig procent aan contacten hebben die er een andere mening op nahouden. Dit is niet vergelijkbaar met andere sociale netwerken, zoals Twitter, die om andere groepen draaien, zoals groepen met eenzelfde interesse.

facebook friends

Een begeleidend Perspectives-artikel van David Lazer in het tijdschrift trekt het onderzoek wat breder. Volgens hem staan we nog slechts aan het begin van sociale algoritmes. De sociale algoritmes die gebruikt worden, zijn zo complex dat geen enkel persoon ze volledig kan begrijpen, iets wat volgens Lazer wordt bewezen door het feit dat nota bene onderzoekers van Facebook zelf de impact van Facebookalgoritmes onderzoeken.

Ook al lijkt dit onderzoek nog te onderschrijven dat Facebook een plek is waar mensen toch enigszins van elkaars interesses kunnen proeven, is dat misschien na de introductie van een andere manier van het vullen van de nieuwsstroom op 21 april van dit jaar, veranderd. Sinds die tijd probeert Facebook updates van 'mensen waar je om geeft' in ieder geval door te geven. Mensen om wie je geeft zijn waarschijnlijk ook de mensen met wie je ideologisch meer gemeen hebt.

Er is praktisch geen vergelijking te maken met de wereld voor de komst Facebook en andere sociale media. De hoeveelheden data zijn niet vergelijkbaar. En ondanks gedegen onderzoeksgroepen van het bedrijf zelf, moet niet vergeten worden dat onderzoek ook van buiten gedaan moet kunnen worden, iets wat sinds 30 april 2015 lastiger geworden is doordat de data die applicaties van andere partijen kunnen opvragen, drastisch is verminderd.

Moderatie-faq Wijzig weergave

Reacties (31)

In welke zin zijn de gebruikers de filters van hun eigen content? Ik heb het idee dat ze hier de feiten proberen te verdraaien. Klikgedrag is volgens mij iets anders dan het uiten van een mening, laat staan het actief niet uiten van een mening ("filteren"). Uiteindelijk interpreteert een algoritme die informatie gewoon zoals Facebook dat wil zien.
Maar goed, waar je mee omgaat wordt je mee besmet zegt men toch? Je mening laten voorspiegelen en vormen door een bedrijf oid is iets waar je zelf voor kiest.
De gebruikers (mensen) zijn zelf altijd al bezig geweest met 'censuur': zoeken naar groepen waartoe je je het meest voelt aangetrokken. Desmond Morris beschreef dit gedrag al in zijn The Naked Ape in 1967 (was ooit een IKON-serie op TV). Heel simpel gezegd: De grootste groep is 'mens', daarna kun je onderverdelen in clubjes (bijvoorbeeld sekse/religie/haarkleur/etniciteit/beroep), clubjes kunnen weer andere clubjes overlappen (christenen kunnen kruisen met de club vrouwen, Groningers of autobezitters).

Je sluit je aan bij de club die jou het meeste aanspreekt en zal doorgaans altijd je eigen clubje voortrekken (ingebakken 'racisme', wat voortkomt uit je oerinstincten -alles wat vreemd is als vijandig beschouwen-). Ervan uitgaande van dat simpele oerinstinct, en de diezelfde oerdrang, bij een club aan te sluiten (veiligheid, saamhorigheid, minder incidenten en kracht) zul je ook altijd geneigd zijn dezelfde kant op te denken en dezelfde soort beslissingen te nemen.

Dat Facebook en Google dit menselijke oersysteem middels een algoritme kunnen voorspellen is, als je het vanuit Desmond Morris' standpunt ziet, totaal niet verwonderlijk. We filteren continu, met alle input die onze hersens krijgen, films die we kijken, boeken die we lezen, muziek wat we luisteren, voedsel wat we eten. Om het censuur te noemen vind ik te ver gaan, je kunt de informatie immers wel degelijk vinden. Je moet er wel voor open staan (en dat staan de meesten toch niet: Eens een Republikein, altijd een Republikein).

Dat we minder in aanraking komen met alternatieve denkbeelden op internet vind ik minder problematisch dan de systematische 'duw-de-massa-die-kant-op'-berichtgeving van kranten zoals bijvoorbeeld de Telegraaf, of nog erger: Het censuurbureau Noviafacts, die alle commentaren van lezers van oa het AD, NRC en Telegraaf 'beoordelen' (ooit opgevallen hoeveel gelijkgestemde commentaren er zijn op berichtgeving in die kranten? niet vreemd als alles door hetzelfde kleine team wordt beoordeeld...).
Ik filter alles op mijn Facebook. Weer een onzinnig filmpje over een aap of een plaatje dat eigenlijk alleen maar tekst is en ook nog eens van de pagina 'Radio xx.xx Babylon" komt? Hup, ik klik op "Alles verbergen van..." en mijn nieuwsoverzicht is weer wat schoner. Het leek een lange tijd dweilen met de kraan open, maar ik doe het nu een paar maanden en er staat echt zoveel minder troep in mijn overzicht...
Weergeven wat ik leuk zou vinden? Bij mijn weten kan ik enkel filteren tussen 'Meest recent' en 'Topverslagen'. En om de zoveel tijd vindt FB het nodig om mijn voorkeur 'Meest recent', het meest logische, te veranderen naar 'Topverslagen', totaal irrelevante weergaven voor mij. Erg storend eigenlijk.
Tip
Verander je Facebook snelkoppeling in : https://www.facebook.com/?sk=h_chr
En je hebt altijd meest recent.
/Tip
Zelfs 'meest recent' wordt flink gefilterd. Klik maar eens wat Facebookvrienden aan met wie je minder contact hebt. Grote kans dat ze regelmatig updaten zonder dat je er iets van hebt meegekregen. Ook al heb je aanstaan dat je ze volgt. Heel irritant.

Hetzelfde geldt voor de pagina's die je liket. Klik links op 'pagina's' en je ziet alle updates.

[Reactie gewijzigd door BarôZZa op 8 mei 2015 08:17]

Totaal mee eens! Gister (of eergister?) had ik in de app ineens de optie om te kiezen, maar die is weer weg. :(

Als ik naar de testdata kijk zie ik duidelijk dat ze puur Amerikaanse data gebruikt hebben, maar dat het wel een best grote dataset is.
Het zegt echter vrij weinig, er huppelen cijfers rond dat je maar 7% van de updates van je vrienden ziet als je er veel hebt. Je zit dus in een bubbel. En ik zie inderdaad bij sommigen dat het juist moet zijn, ik zie zelden updates terwijl ze zeer vaak posten.
Op iOS staat de Meest Recent onder: Als je Android/Windows hebt ga ik er vanuit dat het ongeveer op dezelfde plek zit.

- Streepjes rechtsonder
- Overzichten
- Meest recent

Wat ik zelf heb gedaan is een Favoriet maken van m'n Meest recent, en dan staat hij bij de 'Streepjes rechtsonder' altijd boven aan. (scheelt weer een klik en een scroll/swipe).
Grootste irritatie op Facebook anno 2013, 2014, 2015. De WP app had dit nog vrij lang niet, maar sindsdien is de app ook gekelderd naar 3/5 sterren.

Het is vooral gedaan voor bedrijven (waar doorgaans meer likes en reacties op komen) om die berichten wat meer populariteit te geven. Maar punt is dus: iedereen die niet populair is, zie je daar vrijwel nooit. En een heleboel mensen hebben het niet eens door.

Het blijft raar dat men hier niet meer controle over biedt, want het staat al langer op de verlanglijst van menig Facebooker.
No worries! Facebook bestaat binnen 3 jaar toch niet meer!
Zelfs mocht het zo zijn (wat ik betwijfel) blijft het concept van Facebook (algeheel concept van social media) bestaan. Is het niet in Facebook zelf dan zal het zitten in andere producten. Dezelfde discussie zal dus blijven draaien.
"Dat schrijven onderzoekers van Facebook donderdag in het tijdschrift Science."

Dus.. Facebook vindt dat Facebook niet de oorzaak van censuur is?
Sinds wanneer is fb een wetenschappelijk erkend instituut en wat zijn de credentials van de onderzoekers? Een bedrijf dat zichzelf onderzoekt? Pardon?
op zich is science wel een redelijk gewaardeerd tijd schrift in de wetenschappelijke wereld. Nu wil ik daar niet mee beweren dat we het dan maar klakkeloos moeten geloven, maar er is wel degelijk een credibiliteit aan dit geheel te bevestigen zonder daar direct onderzoek naar te doen.

Een onderzoeksgroep kan niet zomaar even een artikel plaatsen in dergelijke bladen dus er zal altijd een broncontrole plaatsvinden.
Dat blijkt nogal mee te vallen in de praktijk. Heb ik wel eens wat over gelezen op sciencedaily. Maar ik heb de bron niet gecontroleerd. Er wordt nogal wat aangerommeld in de wereld. En niet in het minste in de wetenschappelijke.
Wij van WC-eend.....
Het enige wat ik er stelselmatig uitfilter zijn die ellendige spelletjesupdates... Irritant gedoe.
Het irritante bij Facebook is dat alles wat je leuk vind ook gevolgd wordt, waardoor zonder filtering je hele wall vol crap staat. Nagenoeg alles wat ik like ontvolg ik daarna, behalve de paar dingen die ik ook interessant vind om te volgen.
Maar als je een melding maakt van iets dat echt niet kan, rascisme bijboorbeeld dan krijg je een standaardmelding terug dat Facebook niets heeft kunnen vinden...
Maar misschien komt dat doordat ik de taalsettings op Engels heb staan, dat m'n melding ook naar engels moderators gaat die niets van het Nederlands begrijpen?
Ik wil niet oud/retro overkomen, maar... <ouwekoeuitslootalert> ik vond dát juist het mooie van Hyves, dat je gewoon álles zag van groepen en berichten. Niet een of ander algoritme. Dat is ook waar ik velen zich over hoor ergeren, dat je op je mobiel, pc en mobiele browser (gewoon of in chrome desktopweergave) volledig verschillende berichten en 'meest recent' voor bij zie komen. Je mist veel, of moet door vaker geziene berichten heen scrollen. Het wachten is echt op een nieuw netwerk, geen G+ of dat simpele en een week populair geweest facebook-alternatief waar ik de naam alweer van kwijt ben.
Na de zoveelste End-user license agreement aanpassing heb ik mijn account gewist, eerst handmatig en daarna het account opgezegd. Ze herschrijven de agreement iedere keer zo dat je op een gegeven moment gewoon geen privacy hebt, aangezien we in Europa leven trekken ze zich niks aan van onze privacy. zie En nee, jij,ik een meeste mensen hebt wél iets te verbergen, en daar bedoel ik geen criminaliteit mee.
Ik filter ook aardig wat op Facebook. Ik hoef geen spelletjes, geen instragram en geen like-acties te zien. Verder verkrijg ik mijn nieuws wel via Twitter. Daardoor hou ik alleen berichten over van mensen waar ik oprecht van wil weten waar ze mee bezig zijn of wat ze hebben meegemaakt.

Ik denk dat iedereen zo zijn eigen manier heeft om op Facebook actief te zijn, maar voor mij werkt het zo het beste. Mijn Twitter-feed gaat meestal harder dan dat ik het echt kan lezen (of tijd aan wil besteden), dus daar mis ik redelijk wat. Toch maakt het me dat minder uit, want die relaties zijn minder krachtig.

Sinds mijn moeder actief is op Facebook, merk ik ook wat voor effect het heeft nu het filter "populaire berichten" standaard actief is. Ze krijgt vrij weinig reacties van haar vriendenkring, vooral omdat ze het gewoon niet zien. Ze krijgt ook vaak reacties als ze over dr content praat met anderen, dat het ze gewoon niet duidelijk is en ze het maar raar vinden. En dat geeft meteen aan waarom Facebook gewoon niet zo populair meer is als eerst. Andere netwerken hebben die rare trekjes niet en worden weer populairder.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True