Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Britse en Ierse privacy-autoriteiten onderzoeken of Facebook illegaal heeft gehandeld door onderzoek te doen naar het manipuleren van emoties van gebruikers zonder voorafgaande toestemming. Facebook verdedigde eerder het onderzoek.

De Britse privacy-autoriteit kijkt naar de zaak en de Ierse 'privacy commissioner' heeft al schriftelijk vragen gesteld over het onderzoek, schrijft The New York Times. Dat is nog geen officieel onderzoek, hoewel het wel het startschot daarvoor kan zijn.

De privacy-autoriteiten gaan bekijken of Facebook vooraf gebruikers om toestemming had moeten vragen om het onderzoek te doen. Facebook beriep zich aanvankelijk op de eigen gebruikersvoorwaarden, maar de clausule voor toestemming om mee te doen aan onderzoek voegde Facebook volgens Forbes pas na het onderzoek toe. Bovendien is het de vraag of het gebruikers automatisch laten deelnemen aan het onderzoek niet in strijd is met privacyregels in diverse landen.

Facebook bekeek bij het onderzoek of gebruikers die relatief veel positieve of negatieve posts zien, daardoor worden beïnvloed in hun eigen posts. Er bleek inderdaad een verband te zijn: wie meer positieve posts zag, was in zijn eigen posts positiever; het omgekeerde was eveneens waar. Het onderzoek vond in 2012 plaats onder bijna 700.000 gebruikers, waarvan Facebook de Nieuwsfeed aanpaste.

Moderatie-faq Wijzig weergave

Reacties (50)

Hup aanpakken dat bedrijf. Facebook zoekt hier de grenzen op en gaat en naar mijn mening zelfs overheen door berichten te manipuleren.
Als ik het goed begrepen heb werden er geen posts gemanipuleerd, er werd alleen gerommeld in de feed. (Kunnen ze nu niet meer, de feeds zijn een bende, maar dat terzijde.)
Alle berichten stonden gewoon waar ze hoorden, alleen moest je naar de pagina's van de personen gaan.

Het zou inderdaad netter geweest zijn om eerst toestemming te vragen, ook zonder de reden en doel te noemen.
Het doelgericht manipuleren van informatie die je aangeboden wordt t.o.v. anderen vind ik op zich al een ernstige fout. Stel nu een veel erger scenario voor:

Het uitsluitend aanbieden van positieve nieuwsberichten versus het aanbieden van uitsluitend negatieve nieuwsberichten.

Een beetje een voorbeeld wat over the top is, maar het illustreert wel de keuzevrijheid of vrijheid an sich die zwaar beperkt wordt en daardoor iemands levensloop tijdelijk/permanent kan beÔnvloeden.

Misschien overdrijf ik hoor, maar dat kan ook liggen aan het feit dat ik het echt niet vind kunnen dat FB zo'n onderzoek "eventjes" uitvoert. Eerder dit jaar heb ik nog gezegd tegen maten van me dat ik dit jaar nog mijn FB-pagina zou verwijderen. Ik denk dat dit de druppel is geworden.

Edit: mij -1 modden omdat ik mijn mening geef? Welke bevooroordeelde knaap voelt zich hier nu door beledigd dan...

[Reactie gewijzigd door Limeroundup op 3 juli 2014 10:08]

Nou je overdrijft helemaal niet... iedereen met een verleden van depressieve klachten, angststoornissen en aanverwanten zal kunnen onderstrepen dat nieuws e.a. berichtgeving heel sterk de stemming kunnen beÔnvloeden. Het is dan meestal niet bepalend voor je stemming, maar het werkt wel versterkend en wat dat betreft heeft Facebook best een gevaarlijk spelletje gespeeld.

Het lijkt er ook sterk op dat Facebook daar geen rekening mee heeft gehouden waardoor de resultaten van hun onderzoek wat mij betreft al direct in de prullenbak kunnen, je zal toch eerst een baseline moeten hebben en in dit geval is dat de emotionele weerbaarheid van de personen die je onderzoekt. En dat kan je alleen maar weten door het eerst netjes te vragen... of hebben ze dat ook bepaald middels je 'profiel'? Ik zet er grote vraagtekens bij dat een dergelijke organisatie de pseudo psycholoog uit loopt te hangen want dat kan geen enkel maatschappelijk belang dienen, alleen dat van hun eigen portemonnee.

Persoonlijk krijg ik er enorme de kriebels van en er schieten mij allemaal dystopieŽn uit films door mijn hoofd die met onderzoeken van dat soort bedrijven wel eens een verschrikkelijke waarheid kunnen worden... dat soort lui moeten niet proberen in de hoofden van mensen te kruipen.

Facebook is wat mij betreft enorm over de schreef gegaan, met moeite kan ik mij onthouden wat ik persoonlijk vind hoe ze moeten worden aangepakt... kort en bondig hoop ik dat ze door de mangel worden gehaald als geen ander bedrijf ooit, laat de recordboetes maar komen.

[Reactie gewijzigd door MicGlou op 2 juli 2014 18:39]

Ja, stel dat Facebook allemaal posts met zelfmoord erin liet zien aan een groep mensen en de andere groep posts met drugsgebruik.
Kijken wat er dan gebeurd?
Niet elk experiment is ethisch juist.

[Reactie gewijzigd door Soldaatje op 2 juli 2014 18:42]

Stel dat, maar dat hebben ze niet gedaan dus is een beetje nutteloos om daar een argument van te maken.
A/B testen worden op het internet voortdurend uitgevoerd, zowat alle informatie die je te zien krijgt is op de 1 of andere manier voorgefilterd.
Bij Google is het duidelijk dat dit zelfs een zeer sterk punt is, de resultaten die Google mij voorschotelt zijn aan mij aangepast.
Maar ook Facebook kent veel gebruikers met honderden actieve vrienden, waardoor het dus simpelweg niet meer mogelijk is voor een persoon om al het nieuws te bekijken.
Het voortdurend success van Facebook hangt dus zoals bij Google net af van het zo goed mogelijk kunnen filteren van die informatie naar je wensen.
A/B testen met als doelstelling om te kijken of er een significant effect ontstaat op emotie zonder dat de gebruiker hier op word geattendeerd dat is een beetje mijn probleem (het emotie gedeelte).

Ik snap je vergelijking met Google, maar dit gaat om emoties, niet om bepaalde content zoals abstracte informatie.
Op zich zou je daar bezwaar tegen kunnen hebben, alleen had je dezelfde test ook lineair ipv parallel kunnen uitvoeren. Dus eerst een periode iedereen negatievere berichten voorschotelen, en daarna een periode iedereen positievere berichten voorschotelen. Dat zou het onderzoek statistisch vermoedelijk net wat moeilijker maken, maar het word dan wel heel moeilijk om er iets tegen in te brengen.

Overigens zeg jij dat het bij Google niet om emoties gaat, maar hoe ga je dat bewijzen? Wat als Google gelijkaardig onderzoek gedaan heeft en heeft opgemerkt dat positief gestemde gebruikers vaker terugkomen? Of dat negatief gestemde gebruikers vaker op advertenties klikken?

Vermits een belangrijk tegenargument voor dit onderzoek de potentiele gevolgen op depressieve mensen zijn, vraag ik me of Facebook (en andere sites) nu actie moeten ondernemen nu de resultaten bekend zijn.
Geen actie ondernemen bekend namelijk dat deze mensen depressiever blijven dan wat mogelijk is, positievere berichten voorschotelen kan dus mensenlevens redden!

[Reactie gewijzigd door Adion op 2 juli 2014 18:58]

Is het manipuleren, of is het filteren?

Als je die 2 dingen namelijk op een hoop gooit, dan was Facebook, en ook Google al zwaar manipulatief bezig. Zowel een search index als een news feed filteren op basis van honderden variabelen wat je wel en niet ziet.
Ik vind niet dat je overdrijft. Zeker niet als ik bedenk wat er kan gebeuren als je een belangrijk nieuwsbericht wordt onthouden in zo'n onderzoek. Je mist misschien iets wat voor jou van vitaal belang is... Vind ik onverteerbaar.
Als je iets via facebook mist wat van vitaal belang is, moet je misschien gaan nadenken over waarom je via facebook berichten krijgt die van vitaal belang zijn.
FB heeft een soort SpamAssassin voor posts gemaakt. Woorden met een negatieve betekenis kregen een -1 en met een positieve betekenis een +1.

In deze test, heeft FB bij een bepaalde groep juist de posts met hogere negatieve/positieve score getoond. Om vervolgens naar de score te kijken van de betreffende doelgroep of die mee ging in de posts die ze voor geschoteld kregen.

Deze test had FB niet mogen doen, maar wel begrijpelijk dat FB deze test gedaan heeft.
Facebook manipuleert de berichten helemaal niet, maar zoals hieronder ook al wordt gezegd is het gewoon een A/B test met de volgorde van berichten in de feeds.
Dat maakt het niet goed wat ze deden. Zonder toestemming van de juiste commissies wetenschappelijk onderzoek doen op mensen is een zware straf waard. Zeker in het geval van een bedrijf met een dergelijke positie op het relevant onderwerp, in dit geval social networking.
Lijkt me sterk, wij doen bij onze klanten ook regelmatig onderzoek naar bijvoorbeeld welke homepage meer conversie oplevert, met dit A/B testen kunnen je ook inspelen op emotie.
Dat is anders. In jouw geval testte je de natuurlijke reactie van mensen op een eigen ontwerp, das een kwestie van simpele marktwerking: vinden ze dit leuker, of dat? Facebook heeft actief de emoties van proefpersonen zonder hun weten (informed consent) en toestemming (explicit permission) gemanipuleerd. Nou weet ik niet precies de regeltjes, maar toen ik nog aan de RUG studeerde was de wetgeving wat betreft proeven op dieren extreem strict. Whatever je doet met dieren, je moet toestemming hebben van de juiste instanties. En dat was met mensonderzoek, no matter wat voor onderzoek dan ook, tig keer stricter.

Facebook is hier 100% zeker weten over de streep gegaan en mag hier keihard voor gestrafd worden.
Ik werk voor een bedrijf met 4,000,000, klanten. Er wordt zo vaak een populatie geselecteerd om een onderzoek mee te doen zonder toestemming van de klant.
Vervolgens als het goed voor het bedrijf uitpakt, dan rollen we het uit richting de hele populatie of een specifiek deel van de populatie.

Als we dit zouden publiceren, dan zou dit vallen onder lekken van bedrijfsgeheimen cq veel geld opbrengen voor concurrenten. Dat zou wel mogen, maar vanaf het moment dat ik zou aangeven in een onderzoek dat ik op basis van anoniem verzamelde gegevens zou beweren dat vooral twintigers in zijn voor x of y onder voorwaarde van a en b, dan zou ik daarvoor langs allerhande commissies moeten.
.....
Tuurlijk, er zijn ergens grenzen, maar niets verbiedt mij om aan bepaalde groep klanten als proefpersonen te gebruiken.
Of je zou je als gebruiker kunnen overwegen om geen zaken meer te doen met zo'n bedrijf. Overheden kunnen wel blijven aanpakken, om dŠŠr vervolgens weer kritiek op te krijgen. Je hebt als consument/gebruiker ook een verantwoordelijkheid. Nu lijkt echter de norm om maar op "accept" te rammen. Als de consument er eens - wellicht tegen peer pressure in - vaker voor zou kiezen om A.V.'s niet te accepteren als deze te ruim of ondoorgrondelijk zijn, dan zouden dit soort acties van Facebook misschien nooit gebeuren.
Hoe is dit anders dan A/B testen?
Exact, jij snapt het! Dit is gewoon een A/B-test, maar dan nťt wat anders. Het is heel goed mogelijk dat een standaard A/B-test juist ook effectief is doordat deze emotioneel anders werkt bij de gebruiker. Bijvoorbeeld dat commerciŽle effectiviteit juist hoger is doordat deze een verslavend/negatief gevoel oproept waardoor mensen langer blijven hangen of eerder op advertenties klikken.

Juist het onderscheiden van standaard effectiviteit van emotionele effectiviteit kan alleen als dit soort onderzoek wordt uitgevoerd.

Dat mensen hier zo fel op reageren laat vooral zien hoe ontzettend veel onwetendheid er is op dit gebied...
Wat is een A/B test en wat vind jij ervan dat Facebook stiekem zo'n psychologisch onderzoek uitvoert?
Een A / B test houdt in dat je ťťn set gebruikers een optie presenteert en een tweede set gebruikers een tweede optie. Vervolgens kijk je wat het beste resultaat geeft.

Tweakers heeft dit afgelopen maand nog gedaan voor ťťn van hun iteraties plan: Development-round-up - Iteratie #52

In principe zou je in dit geval ook door kunnen trekken dat de gebruikers die minder informatie konden inzien ongelukkiger werden dan de gebruikers die dat wel konden.
Ja, precies. Laten we Tweakers ook even aangeven bij de autoriteiten omdat hun A/B-tests mogelijk ook mensen minder gelukkig hebben gemaakt!!!

Want dat komt eigenlijk op exact hetzelfde neer als bij wat Facebook heeft gedaan. Een standaard A/B-test die puur de commerciŽle effecten verbetert zou zelfs een stuk slechter kunnen zijn dan een A/B-test die gericht is op het vinden van puur emotionele effecten, omdat er bij de commerciŽle test alleen wordt gekeken naar omzetverhoging en niet naar andere effecten.
http://en.wikipedia.org/wiki/A/B_testing
Ik vind het prima. Mijn mening kun je verder prima afleiden uit mijn reactie geloof ik?
Volgens mij doen ze dit wel vaker, alleen is dit de eerste keer dat ze het toegeven! Maar de schaapjes blijven het toch gewoon gebruiken :P
Tja, het enige alternatief is Google+, dus het is niet vreemd dat men bij Facebook blijft.
Nee, er zijn twee alternatieven.
1. Google+
2. Geen van beide
Geen van beide is geen alternatief, bij een alternatief wordt het doel nog steeds bereikt, maar dan op een andere manier. Een alternatief zou bijvoorbeeld Diaspora kunnen worden (als ze ooit eindelijk eens live gaan...) Of je bouwt je eigen homepage, met like knopjes ;)
ok, ik loop weer achter de feiten aan... my bad :+

_edit_

"JoinDiaspora.com Registrations are closed"

toch niet dus

[Reactie gewijzigd door Alxndr op 3 juli 2014 11:56]

bij JoinDiaspora kan je inderdaad niet meer registreren.

Wel bij andere "pods" Zie daarvoor http://podupti.me/
Ben ik gek of worden naar mijn idee om heel onbenullige dingen juist heel veel commotie gemaakt. Terwijl bij heel belangrijke zaken die de privacy van iedereen aantastten hoor je "ach wat doe je eraan, ach ik heb toch niks te verbergen, ach jihadisten zijn gevaarlijk dus offer ik mijn eigen privacy op" ?
informatie over jou vind je hetzelfde als jouw emoties proberen te sturen?
Als jouw emotie te besturen door het wel of niet laten zien van bepaalde content kun je beter je PC/smartphone door het raam naar buiten kieperen en ergens in een hutje op de hei gaan wonen.

Ik vind eerlijk gezegd ook dat er teveel ophef is rondom dit hele onderzoek. Genoeg zaken die belangrijker zijn maar die afgedaan worden als 'daar doe je niks aan'.

Natuurlijk moet Facebook op z'n vingers getikt worden voor het stiekem onderzoeken van zijn bezoekers, maar ik kan me niet voorstellen dat het onderzoek daadwerkelijk impact zal hebben op de 'getroffenen'. Nu valt heel de wereld erover alsof Facebook weet ik veel wat gedaan heeft.
Het is omdat mensen denken dat hun eigen posts mogelijk zijn aangepast voor het onderzoek en dat vinden ze niet kunnen.
Maar er zijn geen posts aangepast, facebook heeft bij willekeurige mensen op de nieuwsfeed een filter gezet: vooral de positieve berichten laten zien of misschien als eerste in beeld laten zien of juist vooral negatieve berichten of als eerste de negatieve berichten.
Ik vind het inderdaad totaal geen spannend onderzoek en weinig privacy gevoelig ofzo. Ik kan 1001 dingen opnoemen die ik wťl een aantasting vind van de privacy, maar dan wordt er door anderen de schouders opgehaald of geroepen dat je een aluminium hoedje moet gaan dragen...
Volgens mij had facebook ergens moeten benoemen dat dit was om terroristische aanslagen te voorkomen of om pedofielen op te sporen en dan deed er niemand moeilijk.
Volledig mee eens, je slaat de spijker op zijn kop!

:)
Blijf het krom vinden dat Europa een privacy autoriteit heeft. Gezien het feit is dat elk land het volk tot op de meter volgt.
'overigens was dit onderzoek in opdracht van het pentagon gedaan. die willen weten hoe je het volk stil kan houden als je weer een olie oorlog wil beginnen'..

a) op welke bron baseer je dit ?
b) ik ben het er mee eens dat er geopolitieke spellen worden gespeeld m.b.t. grondstoffen (ertsen, energie, e.d..) maar het zou wel prettig zijn als je dit soort straffe uitlatingen onderbouwt...
Gelukkig wordt hiernaar gekeken, want dit zou Facebook dus cart blanche geven om iedereens newsfeed zomaar aan te passen en zo massaal invloed uit te oefenen.

Dus bijvoorbeeld alle newsfeeds in Duitsland bewust een bepaalde sfeer geven, of alleen feeds over vakantie's laten zien (lijkt me goed voor de vakantiemarkt) onder het mom van 'onderzoek'.
Ik zou meteen vooraf weigeren mee te werken, maar ik denk eerlijk gezegd dat ze weinig hebben aan mijn data gezien de hoeveelheid posts die ik lees :P
Publieke en commerciele omroepen bijv. doen dit standaard. Tijdens verkiezingen, tijdens nieuws-items. Wat is het probleem?
Juist dat :P
Uiteraard gebeurt het, en als Facebook het ook wilt doen dan moeten ze dat gewoon netjes melden. Echter onder het mom van 'onderzoek' kunnen ze het nu heel extreem maken zonder het vooraf te melden.

Als gevolg dan dit onderzoek had ik bijvoorbeeld lange tijd met een slecht humeur kunnen rondlopen omdat FB besloot mij alleen negatieve posts te laten zien... ik heb liever dat ze dat ff melden vooraf.
En nog dom ook, de geld-geile-junk hebberds... rupsjes nooit genoeg..

Had 3 euro geboden voor een maand of zo. Zeg dat je er 'maar' 600.000 wil testen, dat vinden velen gaaf, uitverkoren en zo...

Kost ze 1,8 miljoen en nog wat ivm het dan wel benodigde paypal, bitcoin e.d.

Nodig marketing figuren en (sociale-) wetenschappers uit of ze de uitkomsten/data willen bekijken, maar dan wel gratis hun bevindingen in return voor FB.

Dan zijn ze open en de deelnemers op de hoogte.
Nu is het ware gezicht gewoon weer zwart....
ze stellen wel vragen bij wat facebook doet, maar wat de NSA doet is maar te verzwijgen.
Dit najaar in de aanbieding:

Facebook Happy, voor slechts § 10 per maand brengt facebook je alleen nog maar positief nieuws.
Voor gebruikers van de gratis versie hebben we een speciale aanbieding voor Prozac.

facebook stelt zich niet aansprakelijk voor depressies en/of erger...

Ontopic;
Kan iemand er theoretisch achter komen of hij/zijn in de testgroep zat en ze aansprakelijk stellen voor een depressie? Er staat in het artikel dat de voorwaarden achteraf zijn aangepast...
Nee, maar wel of je er niet in zat. Het zou enkel gaan om Engelstalige gebruikers (Amerika, Engeland, Canada, AustraliŽ, Ierland etc.).
Als ze iedereen een toestemming voor hun onderzoek moeten vragen, dan kunnen de gebruikers het onderzoek manipuleren omdat ze het weten, nietwaar?

De resultaten van onafgekondigd onderzoeken zijn (denk ik) veel beter dan aangekondigd onderzoeken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True