Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties
Submitter: icratox

Facebook heeft een experiment uitgevoerd onder honderdduizenden gebruikers. Een team van medewerkers keek hoe mensen reageerden op een nieuwsfeed waar positieve of negatieve posts de boventoon voerden. De gebruikers waren niet op de hoogte van het experiment.

Een wetenschappelijke verslaglegging van het uitgevoerde experiment verscheen in het tijdschrift PNAS. Facebook deed zijn studie onder in totaal 689.003 personen, die daar niet van op de hoogte waren en willekeurig zijn geselecteerd. De medewerkers van Facebook experimenteerden met de weergave van posts in de nieuwsfeed van de gebruikers die in de studie waren opgenomen.

Er werden twee experimenten tegelijkertijd uitgevoerd: één waarbij de hoeveelheid negatieve posts in de nieuwsfeed van een individuele gebruiker werd verminderd en één waarbij de hoeveelheid positieve posts in de nieuwsfeed werd verminderd. Negativiteit en positiviteit werden gemeten aan de hand van steekwoorden, waarvoor speciale software werd gebruikt.

Beide experimenten kenden een controlegroep om een vergelijking te kunnen maken. Als uitkomstmaat werd de negativiteit of positiviteit genomen van de posts die de gebruiker zelf op Facebook plaatste. Zo wilden de onderzoekers kijken of er een verband bestaat tussen de emotie waaraan iemand wordt blootgesteld en het humeur van de desbetreffende persoon.

Uit de resultaten blijkt dat er sprake is van wat Facebook emotionele besmettelijkheid noemt. Als iemand wordt blootgesteld aan negatieve posts, die niet per se aan de gebruiker gericht hoeven zijn, dan is de kans groter dat die persoon zelf ook negatief reageert. Datzelfde effect treed omgekeerd ook op: bij meer positiviteit reageerde de gebruiker zelf ook positiever. Volgens Facebook toont het experiment aan dat emoties onbewust 'besmettelijk' kunnen werken.

Moderatie-faq Wijzig weergave

Reacties (96)

Erg interessant en dit doet me denken aan een TED presentatie van 4 jaar geleden: http://www.ted.com/talks/...luence_of_social_networks

Ik maak me wel een beetje zorgen over de gevolgen van dit experiment.

Grote informatie bedrijven hebben de neiging om de filter bubbel te creeren zodat mensen alleen horen wat ze willen horen en daarmee beter klanten bewaren: http://www.ted.com/talks/...are_online_filter_bubbles

Dit kan een wedloop starten om op die informatie netwerken met een algoritme meer positief- en minder negatief nieuws door te laten en daarmee raakt de gebruiker afschermd van de realiteit. De extreme variant is een dystopia, waar je negatief uitlaten bestraft wordt, omdat het zogenaamd schadelijk is voor de samenleving.
redactie: dient er niet minimaal een kleine kanttekening bij de etische kanten van dit experiment geplaatst te worden?! http://www.forbes.com/sit...ers-emotions-for-science/

[Reactie gewijzigd door BCC op 29 juni 2014 10:16]

Het onderzoek is gedaan zonder informed consent. Je zou kunnen zeggen dat met informed consent het onderzoek niet zou kunnen slagen, maar als dat werkelijk de reden is, had fb de getroffen gebruikers direct na het experiment moeten informeren.

Onderzoek doen om je dienstverlening of bedrijfsvoering te verbeteren is noodzakelijk, maar dat is vaak geen wetenschappelijk onderzoek. Dat de bevindingen van dit onderzoek in een wetenschappelijk blad worden gepubliceerd, is hier het probleem. Fb lijkt mee te helpen aan de wetenschap, maar eigenlijk helpt het ethische codes om zeep, die o.a. opgesteld zijn om gruwelijke onderzoeken zoals die tijdens ww2 plaatsvonden te voorkomen. Ook daar had de staat belang bij de resultaten en de macht om de onderzoeken uit te voeren - maar wetenschappelijk was het niet acceptabel.
Mag zo'n psychologisch onderzoek zomaar? Zonder toestemming van de deelnemers?

In (wetenschappelijk) onderzoek met mensen moet er vaak uitgebreid "informed consent" worden gegeven... Het artikel staat full text online, dat doorscannend kom ik ethic* niet tegen. Normaal gesproken krijg je een artikel zonder ethical aprovel niet gepubliceerd. Dit om Milgram (1963) experimenten te voorkomen.

Edit: verduidelijking

[Reactie gewijzigd door cryinson op 29 juni 2014 08:49]

Daar is nu uitgebreide discussie over, die mist in dit artikel van tnet.
http://www.forbes.com/sit...ers-emotions-for-science/

[Reactie gewijzigd door BCC op 29 juni 2014 10:14]

Wacht... hadden ze dit niet gewoon veel makkelijker kunnen doen door een DISLIKE knop in te voeren?... je weet wel, zoals menig FB gebruiker al sinds jaar en dag aan het pleiten is?...

Leuk hoor al die algoritmes van ze om te berekenen wat voor zooi ik op mijn nieuwsfeed zou willen hebben maar als ze mij nou eens gewoon een dislike knop zouden geven dan kan ik in een week FB duidelijk maken wat ik wel en niet wil zien, iets wat het huidige systeem na 8 jaar nog steeds niet duidelijk is als ik mijn nieuwsfeed zo bekijk. :|
En mensen vinden het maar vreemd waarom ik geen Facebook gebruik (heb) 8)7

Dit nog veel meer redenen heb ik waarom ik ook NOOIT Facebook of Twitter of andere sociale network gebruik.
Als jij al je persoonlijke info en gedachtes tezamen met een behoorlijke fotocollectie op een social media platform zet, dan geef je je inderdaad compleet over aan hun grillen. Maar dit is dus iets waar mensen zelf verstandiger mee om moeten gaan.

Ja ik gebruik Facebook, alsmede Twitter, maar wel met zo min mogelijk persoonlijke info en vooral om op de hoogte te blijven van wat andere mensen/organisaties uitspoken dan dat ik mijzelf in de etalage zet. Ik zie weinig kwaad in mijn aanpak, het is vooral handig.
Ik vind het best bizar.

Mijn ma is zwaar depressief, maar gebruikt facebook juist om af en toe wat leuke berichten langs te zien komen. Je moet er toch niet aan denken dat facebook iemand zoals dat toevallig met hun "random" selectie er uit pikt en dan haar nog eens gaat voorschotelen met een zooi negatief nieuws en bijna niets positiefs meer.
Voor t zelfde geld hebben ze hier misschien wel iemand tot zelfmoord gedreven.

Je gaat niet zomaar een experiment op mensen doen om hun stemming te beinvloeden zonder dat ze het weten en er goedkeuring voor hebben gegeven. Dit is spelen met vuur imho als er iemand tussen zit die al niet helemaal stabiel is kan het totaal verkeerd aflopen.

Stelletje idioten daar bij Facebook.
Mensen die gevoelig zijn voor negatief nieuws kunnen beter geen Facebook gebruiken. Vaak genoeg worden er ook ongevallen ed gedeeld in de nieuwsfeed. Ik denk dat deze mensen meer geholpen zijn met echte contacten ipv virtuele vrienden, maar da's mijn mening. ;)
Maar ja, ze is er bij inschrijving wel mee akkoord gegaan, en zo zullen er nog wel meer dijgen zijn waar mensen niet bij stilstaan en maar gewoon ja en akkoord klikken. Helaas.

als iemand echt zelfmoordneigingen heeft lijkt het mij nuttiger die persoon niet alleen te laten en intensief te laten begeleiden. Een legitiem nieuwsbericht of in qinekl zien van je ex oid kan dan ook de druppel zijn...
Er is een verschil tussen mensen hun posts gebruiken, en opzettelijk proberen hun gemoedstoestand te verslechteren. Als ze het alleen met positief proberen te beinvloeden hadden gedaan dan was het imho minder erg geweest. Maar om nou bij mensen die ze niet van tevoren uitgebreid hebben onderzocht hun gemoedstoestand negatief proberen te beinvloeden vind ik gewoon erg riskant, en dat zou ook wat mij betreft gewoon wettelijk verboden moeten zijn.

Wie weet waarom we de laatste maanden zoveel van schietpartijen in de VS horen, misschien zijn ze wel net ff door facebook over het randje geduwd... :X
Sommige mensen hebben net ff dat ene negatieve berichtje nodig om over de rand te worden geduwd.

[Reactie gewijzigd door VNA9216 op 29 juni 2014 10:52]

Als zoiets niets mag kom je echter wel snel in een hellend vlak.
Alle nieuws-sites moeten een keuze maken tussen het nieuws dat wel en niet gepubliceerd word. (Het zou me niets verbazen dat op dit moment de grote koppen op de eerste pagina van algemene kranten en nieuws-sites overwegend negatieve berichten zijn)
Ga je dan quota opleggen dat een website minstens x% positieve berichten moet plaatsen, omdat je anders mensen hun gemoedstoestand negatief zou kunnen beinvloeden?
En daarbij kies je voor het nieuws dat je publiceert voor alle lezers. Hier kies je er voor publicaties te verbergen of naar de voorgrond te halen om bij wijze van expiriment de stemming van specifieke gebruikers te proberen te beinvloeden. Nogal een verschil.

Een nieuws website/krant heeft gewoon vaak zijn eigen stijl in wat ze publiceren op basis van wat de mensen achter de website belangrijk vinden. Daar kiest de lezer zelf voor.

In het geval van deze actie van FB worden doelbewust positieve dingen voor een selectie aan gebruikers verborgen en dat is doelbewust gedaan om te kijken of ze de stemming van gebruikers kunnen beinvloeden.
Ik heb nog geen enkele krant of nieuws website er op kunnen betrappen specifieke personen te hebben geprobeerd te beinvloeden door de content die ze te zien krijgen daarop aan te passen.
Maar ja, ze is er bij inschrijving wel mee akkoord gegaan
Ik kan jou schriftelijk toestemming geven om me te doden, maar je gaat dan toch echt de cel in voor moord. Dat is een extreem voorbeeld, maar het geeft wel aan dat zelfs expliciete toestemming, laat staan een in de algemene voorwaarden verstopte toestemming die je nooit gezien hebt omdat de voorwaarden iedere paar weken veranderd worden, echt niet zonder meer geldig zijn. Sterker nog, bepaalde rechten kunne wettelijk gezien niet afstand van doen. (Het zogenaamde dwingend recht).

Akkoord? Nee dus.
Nu ben ik het er mee eens dat er om toestemming van de deelnemers gevraagd moet worden (vanuit ethisch oogpunt), maar vaak is informed consent geen realistische mogelijkheid bij psychologische experimenten. Dit omdat kennis van de 'triggers' (of andere details) het gedrag van de deelnemers kan veranderen, en daardoor het hele onderzoek nutteloos kan maken.

Ongerelateerd: deze conclusie an sich is natuurlijk niet nieuw; de theorie van 'besmettelijke emoties' wordt al lange tijd gebruikt door bijvoorbeeld overheden en bedrijven om 'sockpuppets' te creëren (al dan niet onder de vlag van 'marketing'), om zo de publieke opinie te beïnvloeden.
OK, maar je kunt op zijn minst toestemming vragen aan mensen voor je ze als proefkonijn gebruikt, zonder iets van de triggers te vertellen. Dat is natuurlijk geen informed consent avant la lettre, maar iig wel consent.

Trouwens: iemand in een negatieve "mood" brengen door facebook heeft natuurlijk ook zijn effecten buiten facebook; IRL.
Absoluut. Wat mij betreft zou het absolute minimum een balkje zijn geweest met "Facebook is bezig met een wetenschappelijk onderzoek naar emoties op internet. Wil je hieraan mee doen? J/N"
Originele artikel:

"The experiments took place for 1 wk (January 11–18, 2012). Participants were randomly selected based on their User ID,"

Geen consent oid, wel 2 jaar geleden (toch moeite met publiceren?). Nu 2 jaar later vraag ik me af wat voor onderzoek ze in die tijd nog meer hebben gedaan.

[Reactie gewijzigd door cryinson op 29 juni 2014 09:35]

Een wetenschappelijk paper is erg intensief en een working paper wordt erg vaak bekritiseerd, bijgeschaafd alvorens publicatie van het daadwerkelijke artikel.

Ik ben trouwens wel benieuwd hoe je aan de hand van het aantal woorden kunt afleiden wat de emotionele stemming van de betreffende persoon is, dan wel hoe zuiver de methode is.
Niet aan het aantal woorden, maar aan het soort woorden.
Maar neem je dan een vast aantal woorden die een bepaalde emotie beschrijven en meet je daaraan de emotionele staat? Lijkt me erg manipulatief. Met taal kun je enorm spelen, dat is kwantitatief gewoon moeilijk te onderzoeken. Als het al echt goed onderzoekbaar is, ben ik benieuwd welke controlevariabelen zijn gebruikt.
Dat staat ongetwijfeld in het onderzoek: http://www.pnas.org/content/111/24/8788.full

Posts were determined to be positive or negative if they contained at least one positive or negative word, as defined by Linguistic Inquiry and Word Count software (LIWC2007) (9) word counting system, which correlates with self-reported and physiological measures of well-being, and has been used in prior research on emotional expression (7, 8, 10).
Je bent al akkoord gegaan in de algemene voorwaarden waar in staat dat Facebook mag experimenterenbvoor eigen en wetenschappelijk onderzoek, dus dat balkje is onnodig.

ik zou het wel nodig vinden achteraf mensen te informeren overigens.
Klopt, ze mogen dit doen maar achteraf een melding was netjes geweest.

Overigens hoeven Nederlanders zich geen zorgen te maken. De software is gebaseerd op Engels en er zullen dus enkel Amerikanen/Engelsen hebben meegedaan. (onbewust)
Ik post 99,99% in het Engels, omdat dat de meest algemene taal is in mijn vrienden en kennissen kring. (Mijn vriendin is Brits ook).
Toch zal Facebook eerder selecteren op nationaliteit dan in welke taal je post. Je bent namelijk in de minderheid.
Voor goed onderzoek moet het een willekeurige steekproef zijn, aselectief, dat is het niet meer dan, omdat alleen bepaalde typen mensen op ja klikken.
Who cares? Als ik iets op Fakebook lees, heeft het dezelfde waarde als een artikel in de Story.
Daar gaat het helemaal niet om. Svens voorstel was om mensen eerst te vragen of ze mee willen doen. Dan krijg je dus dat bepaalde type mensen ja zeggen en andere type nee. Je onderzoekt dan alleen het type mensen die ja zeggen, en je weet eigenlijk niks van die groep die nee zegt en hoeveel die verschillen van die anderen. Dat heet missing not at random en dat geeft problemen met generaliseerbaarheid van een onderzoek. Dit staat trouwens helemaal los van de ethische kwestie of het door de beugel kan wat Facebook deed, maar statistisch/methodologisch gezien is het ideaal: een volledige random sample zonder uitval en dat participanten niet weten dat ze meedoen.
Proefkonijnen verdienen nog iets aan de experimenten (zie elke week wel in de metro of spitsblade proefkonijnen gevraagd ), FB doet t weer sneaky
Niet te vergelijken vanwege de medische risico's. Ik zie dit onderzoek van Facebook meer als een ongevraagde enquête. Je weet dat de persoonlijke data en gedrag op sociale netwerken voor dergelijke doeleinden gebruikt kan worden. Dat staat gewoon in hun algemene voorwaarden.
Niet te vergelijken vanwege de medische risico's. Ik zie dit onderzoek van Facebook meer als een ongevraagde enquête. Je weet dat de persoonlijke data en gedrag op sociale netwerken voor dergelijke doeleinden gebruikt kan worden. Dat staat gewoon in hun algemene voorwaarden.
Enquete? Totaal niet dus!

Een enquete valt onder observerende metingen. In het FB experiment is werkelijk gemanipuleerd met variabelen waarna verschillende groepen met bijbehorende resultaten vergeleken werden.

Opzich een kwalijke zaak van FB als je het mij vraagt, onbewust manipuleren. Je wilt niet weten hoe makkeijk een mens is te beinvloeden. Het was compleet anders geweest als ze gewoon een correlatie studie tussen een positieve/negatieve ondertoon van berichten van je vrienden en die van jezelf zouden doen.

Nu heeft men zonder expliciete toestemming de stemmingen van mensen gemanipuleerd, iets dat overigens zeer gemakkelijk gaat.
Voor iedereen die vindt dat ik me aanstel; verdiep je eens in psychologie, decision making e.d. Zelfs met een simpele default/standaard/nudge kan men een enorme invloed hebben op je (onbewuste) keuzes. Om maar een voorbeeldje te noemen: in Duitsland ben je standaard geen donor, resultaat = 12% is donor. in Oostenrijk is men dat standaard wél, resultaat 99% is donor. Iets waarvan men zegt het belangrijk te vinden en bewust te kiezen (of niet) is zo eenvoudig te beinvloeden door een simpel vinkje.
Ik vind er zelf weinig reden toe, het staat facebook toch vrij om te kiezen hoe de nieuwsfeed getoond word.
A/B testen zijn heel gebruikelijk op zowat alle websites, zelfs degene waar je helemaal geen toestemming geeft.
(Een aantal gebruikers krijgen versie A van een nieuw ontwerp, andere gebruikers versie B, en men analyzeert aantal kliks, tijd op de website etc...)
Als je de algemene gebruiksvoorwaarden van Facebook hebt gelezen (dat heb je toch gedaan, hè?) dan staat daar in, dat je feitelijk alles wat je daar post van jezelf, opgeeft en vrijgeeft ter leeringh ende vermaeck van Facebook. Wil je dat niet, moet je Facebook niet gebruiken.
Dat je als gebruiker toestemming aan Facebook geeft neemt niet weg dat de overheid ook een oordeel over dit onderzoek mag hebben. Als je toestemming vraagt voor dit onderzoek zou de overheid misschien iets zeggen als, zullen we voor de zekerheid niet beperken tot 5000 mensen, en misschien is een meer gecontroleerde omgeving wat beter, om tot een betrouwbaar resultaat te komen? Uiteraard moet het voor bepaalde onderzoeken ook mogelijk zijn dat de overheid zegt "Tuurlijk geen probleem."

In de marketingwereld mag je mensen op de verkeerde been zetten. Maar onder het mom van wetenschap moet je zorgvuldig zijn waar het gaat om onderzoek met mensen.
En voor bepaalde onderzoeken (veeeeel!) kan het belangrijk zijn dat de overheid zich er niet mee bemoeid. Een etische commissie van de universiteit wellicht, maar de overheid? Nee bedankt!!!
Met overheid bedoel ik inderdaad ook de ethische commissie van de universiteit. Die indirect is ingesteld is door de overheid. Deze commissie moet wel onafhankelijk opereren van Den Haag. Maar volledig onafhankelijk zijn ze natuurlijk niet. Als de ombudsman vindt dat ze te makkelijk toestemming geven, dan zullen ze het wel merken.
Ze kunnen ook het recht op diefstal in hun voorwaarden opnemen. Dit betekent nog niet dat stelen mag.
De algemene gebruiksvoorwaarden moeten leesbaar, redelijk en begrijpelijk zijn, en het bedrijf moet zich aan zijn eigen regels houden.
Ik ben zelf een van de weinigen die de meeste voorwaarden wel leest, maar dat doe ik uit interesse. Ondanks mijn ervaring begrijp ik ze vaak niet helemaal. Omdat voorwaarden redelijk moeten zijn, zou je het ook niet per se hoeven doen.
Een bedrijf met vreemde voorwaarden komt daarmee vaak negatief in het nieuws, zoals Facebook.
Ik heb mijn account verwijderd. Let op, slechts inactiveren is nog geen verwijderen.
Volgens het artikel op nu.nl staat er in de voorwaarden dat je automatisch instemt mee te doen aan experimenten.

Quote: "Het onderzoek werd mede geleid door Adam Kramer, data-onderzoeker bij Facebook. Iedereen die zich inschrijft bij Facebook, gaat automatisch akkoord met onder meer data-verzameling en de mogelijkheid om voor een experiment gebruikt te worden, in dit geval wetenschappelijk, maar soms ook voor Facebook zijn eigen doeleinden."

Weet niet of dat wereldwijd geldt.
Ik hoef niet eens te kijken, om te weten of dat zo is. Je kan er tegenwoordig gewoon van uit gaan, als je informatie genereert dat omgezet kan worden in geld, dan zal dat ook zo gebeuren. In het geval van facebook is dat zeker zo.

In het geval van de vele runkeeper/runtastic-achtige gezondheidsapps, moet je es dit lezen: http://www.ft.com/intl/cm...eabdc0.html#axzz363Sdvfli

hierin wordt je gezondheidsinfo gewoon verkocht aan o.a. verzekeringsmaatschappijen. dus als je ze gebruikt, ga er maar van uit dat je info ook voor andere, soms dubieuze dingen, gebruikt wordt.
Ja, ik denk het wel, FB mag bijna alles doen met de data die je op Facebook zet. Dus het onderzoek opzich mag wel. Nadeel is alleen dat je tegenwoordig voor een onderzoek met proefpersonen een schriftelijke verklaring van die personen nodig hebt dat ze hebben meegedaan. Dit o wetenschap fraude te voorkomen en dat een onderzoek kan worden geverifieerd. Dit tweede wordt een stuk lastiger. Anders zou iemand gewoon een uitkomst kunnen verzinnen en zeggen dat ze dit onderzocht hebben.

Dus naar mijn mening mag dit onderzoek wel, maar is het geen wetenschappelijk onderzoek conform de regels die daar voor opgesteld zijn..
In Nederland zijn de regels voor medisch onderzoek zelfs wettelijk vastgelegd (nu is Facebook natuurlijk grenzeloos) maar in Nederland zou dit niet zomaar kunnen. Maar het voldoet volgens mij niet aan de internationaal geldende Good Clinical Practice/GCP principes.

Het is natuurlijk razend interessant, maar verder snap ik niet dat PNAS het zonder meer gepubliceerd heeft. Het is geen klein obscuur blaadje met een impact factor van 9.737.

Nog een reden geen FB te gebuiken
Het experiment is hier het zien van bepaalde nieuwsberichten wel of niet. We zien elke dag bepaalde nieuwsberichten wel of niet.

Het is niet zo dat FB met je hersenen aan het knoeien is geweest of zo.

Ethisch is er volgens mij weinig aan de hand. En wanneer je het vergelijkt met andere akties van FB is dit nog erg onschuldig.

Daarnaast heb je toestemming gegeven dat FB zowat alles mag met de data op je pagina én ook is je naam bbij hen bekend (tot op zekere hoogte) dus wat is het probleem ?
Nou, voor mensen in een instabiele fase kan dit nog best gevaarlijk zijn. Iemand moet maar net in een behoorlijke depressie zitten, op Facebook kijken, en een abnormaliteit aan positieve berichten zien. Die persoon zou zomaar zelfmoord kunnen plegen.
Kom op zeg... Mensen in een depressie drukken en tot zelfmoord aanzetten...

Overdrijf je nou niet ?

Kijk eens een gemiddeld journaal op TV. Daar wordt je ook niet vrolijk van. Ga je de NOS nu ook van dood door schuld beschuldigen ? Natuurlijk niet.

Mensen die niet tegen slecht wereldnieuws kunnen moeten gewoon het nieuws niet volgen of alleen via speciale positieve pagina's.

En FB is zo'n speciale pagina in elk geval niet !

[Reactie gewijzigd door T-men op 29 juni 2014 15:25]

Het gaat hier echter niet om wereldnieuws, maar om berichten uit je eigen sociale kringen. Dan is de invloed veel groter.

En ook al gaat het niet om 'mensen die massaal depressief raken of zelfmoord plegen', als er maar 1 gebruiker op wat voor manier dan slechter van is geworden was het ethisch kennelijk niet verantwoord.
Er zullen toch ook wel dagen zijn waarop er (veel) meer positieve dan negatieve berichten verschijnen, dan zou dit ook al kunnen gebeuren?
Tja dan heb je ook wel hele rare vrienden. Daarbij als je depressief bent moet je gewoon niet het intrernet op gaan, je komt namelijk van alles tegen.
Dit is geen medisch onderzoek, maar psychologisch. Dat is totaal iets anders.
Dit is geen medisch onderzoek, maar psychologisch. Dat is totaal iets anders.
Psychologie is een tak van de medische wetenschap. Derhalve kun je daar niet zomaar je gang gaan. In de USA misschien wel (alhoewel de FDA niet voor de poes is), maar in de EU heb je toch te maken met pittige regels op dat vlak.
Dat maakt opzich niet uit, heel veel sociale studiegebieden zoals psychologie, sociologie, criminologie etcetera hebben allemaal ethische codes waaraan voldaan moet worden.

Het verbaast mij dan ook heel erg dat PNAS het zomaar geaccepteerd heeft..
Ook binnen de psychologie gelden strenge ethische codes en die worden ook getoetst voordat je het onderzoek uit mag voeren. Dit onderzoek zou zeer waarschijnlijk niet aan die regels voldoen alleen al door het ontbreken van vrijwillige toestemming vooraf en een grondige debriefing achteraf. Vraag is echter wel wie het initiatief heeft genomen om dit onderzoek uit te voeren.

Namen de onderzoekers het initiatief en werkte Facebook alleen mee of was het andersom? Was Facebook toch al van plan om met verschillende filters te experimenteren en hebben ze de onderzoekers alleen ingeroepen om de data te analyseren? Als dat het geval is, is er natuurlijk sprake van een grijs gebied; mag je als wetenschapper data bestuderen die wellicht niet geheel ethisch verkregen zijn?

En Facebook heeft natuurlijk ethisch gezien veel meer speelruimte; zij zijn alleen gebonden aan de wet en hun eigen EULA. Aangezien ze je news feed toch al filteren, is het de vraag of het tweaken aan de algoritmes zoveel verder gaat...

Maar het is goed dat de discussies hierover gevoerd worden. Ook Google filtert de zoekresultaten voor je en dat kan nadelige gevolgen hebben. Dat filteren (of tenminste rangschikken) nodig is staat buiten kijf. Hoe je het 'goed' kunt doen is echter nog wel een open vraag. Het is belangrijk dat mensen zich gaan realiseren dat bedrijven deze keuzes voor hen maken en dat zij daar weinig invloed op kunnen uitoefenen. Consumenten moeten wat dat betreft ook scherper worden en meer openheid gaan eisen.

[Reactie gewijzigd door Morrar op 30 juni 2014 10:44]

dit zal wel ergens in de nieuwe voorwaarden staan van facebook.
Facebook heeft dat ongetwijfeld ergens dichtgespijkerd in de voorwaarden. Anders zouden ze nu een rechtzaak van epische proporties op hun bord hebben.
Idd, dit was ook het eerste wat ik me af vroeg.

FB heeft zeer waarschijnlijk, die mensen niet in het echt gevolgt. Dus of ze tijdens het expriment, naar een arts zijn gegaan, voor bijvoorbeeld anti depressie middelen of juist minder zijn gaan gebruiken ivm met voornamelijk positieve posts.

Overigens, toestemming vragen was een heel stuk netter geweest.
Legaal is het maar ethisch is het dat echt niet.

Wanneer je je aansluit bij Facebook geef je Facebook de toestemming om zoiets te doen. Maar ik vind het er erg over gaan als je zonder medeweten een proefkonijn bent.
Mag zo'n psychologisch onderzoek zomaar? Zonder toestemming van de deelnemers?
If it's free, you're the product.

Je bent er mee akkooord gegaan in de TOS (terms of service) dat in principe alles met je data gedaan mag worden.
Involuntary crowdsourcing? ≈ Slavernij :o :+

Seriously though, je kan hier opzich niet verbaasd over zijn. En ik denk dat andere methoden in het verleden al zijn toegepast voor commerciele doeleinden.

[Reactie gewijzigd door McBrown op 29 juni 2014 20:12]

Daar bestaan algemene voorwaarden voor :) niemand leest het en ze worden telkens veranderd.
Emoties bespelen is een essentieel onderdeel van adverteren en marketing. Als je dit niet aanstaat moet je eens nadenken op hoeveel andere manieren je wordt bespeeld.
Het wordt link als dat spelletje gespeeld wordt door een organisatie die kennis heeft van (een deel van) je sociale leven. In theorie is het met dergelijke methoden mogelijk om groepen tegen elkaar op te zetten en die ook tot het uiterste te drijven. Dit is dus een potentieel wapen.

[Reactie gewijzigd door blorf op 29 juni 2014 09:28]

Mja.... als je op die toer gaat kan je in principe ook roepen dat eten met veel suiker een 'wapen' is om mensen lui en dik te maken. Zo is alles wel op een bepaalde manier te misbruiken. Volgens mij is dit best een leuk experiment waarbij je toch wel best interessante observaties kan vinden ☺
Toevoegen van extra suiker en groter maken van porties zijn inderdaad dezelfde soort technieken door dezelfde soort mensen.
Ik zou het nog sterker stellen, en zeggen dat marketing gewoon manipulatie is, met een specifiek doel van grootschalig eigengewin.
nasty! ben blij dat ik gestopt ben met facebook...

even toelichten:

ben dus een maandje of 2 geleden tegelijk met mn vriendin gestopt met facebook en ben dus nu om meerdere redenen blij:

- ik ben niet graag ongewild deelnemer van zo'n expiriment

- aan de uitkomst te zien wordt je dus moody als mensen om je heen negatieve dingen posten en dat was voor ons de reden om sowieso de stekker uit ons fb account te trekken.

de grap is dat je de "kennissen" daarmee verder naar de achtergrond drukt en de "echte vrienden" ineens vaker gaat bellen/appen/afspreken. was dus n duidelijke win-win.

[Reactie gewijzigd door redecal op 29 juni 2014 09:29]

Same here.

Social media is meer asociaal media.
Mensen zitten bij elkaar op een feestje. Maar niet kletsen met elkaar, allemaal met de neus in de smartphone.
Je hebt elkaar ook niet meer veel te vertellen als je alles al op Facebook hebt gelezen. Terwijl als je met elkaar erover praat, je meestal veel leukere gesprekken krijgt.
psies! we waren laatst bij het concert van Prince in Ziggodome, geen FB meer dus ook niet echt een reden om je telefoon te pakken.

Sowieso was het bereik binnen compleet ruk, dus we zaten echt verbaasd te kijken hoeveel mensen aan het button-bashen waren om maar die ene foto alsnog te twitteren/instagrammen/facebooken. Was ook echt een eye opener. Mis je zelf de opening van een concert omdat je niet aan je "vrienden" kan delen dat je op t concert bent 8)7
Zal wel gestoord zijn, Prince wil helemaal geen opnames.
klopt! werden we ook voor gewaarschuwd van te voren, maar bij de opkomst wilde iedereen "nog even" dat ene shot maken.
achja, zo zijn er ook genoeg verhalen waar het wel positieve gevolgen heeft... Het scheelt gewoon een hoop per persoon...
Is het niet logish dat je reageert op iemand die een feestje geeft met 'Joepi' en iemand die een been heeft gebroken met " :( " ??

edit, wil maar zeggen dat je meestal positief reageert op positief nieuws en op minder goed nieuws negatief, volgens mij is dit dit medeleven en niet altijd 'emotionele besmettelijkheid' Iets wat langer al gekend is. Ik mis wat extra over dit onderzoek

[Reactie gewijzigd door Boborc op 29 juni 2014 09:04]

Waar het hier om gaat is niet de reacties op berichten, maar de algemene emotionele insteek die je er op na houdt, dus ook búiten die post dat iemand zijn been gebroken heeft. Als je constant blootgesteld wordt aan enkel negatieve berichten, dan leidt dat er niet alleen toe dat je negatief gaat reageren, maar ook dat je zelf negatieve dingen gaat posten, in je eigen posts.
de vraag is echter of dat daar persé een onderzoek voor nodig was op deze schaal zonder enige vorm van aankondiging aan de proef personen.
Maakt de reclame wereld hier al niet tientallen jaren gebruik van?
dit is zeker waar, maar voor de computer gebruiken ze cookies.
ik bezoek om iritante reclame weg te halen gewoon voor ongeveer 10 minuten verschillende paginas van mycom, alternate, en andere electronica zaken, hierdoor veranderen de irritante reclame's in meer verdraagbare reclames. die niet knipperen, pop-uppen, door de teksten heen gaan,

en als dit alsnog niet werkt heb ik altijd nog addblocker, die je ook handmatig adds laat blokkeren
Twijfelachtig of het door de beugel kan, maar ik vind het wel interessant.

Waarschijnlijk hebben ze daarom ook die 'moods' optie toegevoegd bij het plaatsen van een FB-update ("Feeling Wonderful :D "), want hoe meet je anders of gebruikers een positief of negatief bericht plaatsten?
Op die manier is het wel logisch dat de meest recente sortering nooit werkt als ze het gewoon bewust verkloten steeds. Ik zit in de betagroep, iedereen vraagt om meest recente, maar ze negeren het gewoon.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True