Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties

Een onderzoeker van Facebook verdedigt een sociaal experiment waarbij posts met positieve of juist negatieve emoties werden verborgen, om de gevolgen voor het humeur van gebruikers te kunnen meten. Tegelijkertijd lijkt de onderzoeker bedenkingen te hebben.

Facebook LogoOver Facebooks onderzoek uit begin 2012, waarbij de emotie van gebruikers zonder hun medeweten werd gemanipuleerd door berichten met een positieve of juist negatieve ondertoon te verwijderen, ontstond enige ophef. Zo vroeg een privacy-activist af of het knoeien met emoties door Facebook depressieve mensen tot zelfmoord had kunnen bewegen.

In een post op Facebook schrijft een van de onderzoekers, Adam Kramer, dat zij het belangrijk vonden om te onderzoeken of het zien van veel positieve content op Facebook mensen een negatief gevoel kan geven, bijvoorbeeld als ze het gevoel krijgen dat leuke dingen aan hen voorbij gaan. Tegelijkertijd, schrijft Kramer, wilde Facebook onderzoeken of veel negatieve posts ervoor zorgden dat mensen Facebook zouden vermijden. De onderzoekers wilden niemand van streek maken, schrijft Kramer, die verder aantekent dat hij zich achteraf afvraagt of het onderzoek de ophef die het heeft veroorzaakt rechtvaardigt.

Facebook bekeek bij het onderzoek of gebruikers die relatief veel positieve of negatieve posts zien, daardoor worden beïnvloed in hun eigen posts. Er bleek inderdaad een verband te zijn: wie meer positieve posts zag, was in zijn eigen posts positiever; het omgekeerde was eveneens waar.

Moderatie-faq Wijzig weergave

Reacties (125)

Ik ben gisteren begonnen aan de Terms of Service. Ik heb nog niet alles gelezen, maar kwam al relatief vroeg het volgende tegen, waarvan bepaalde woorden toch wel direct in het oog zouden moeten springen:

"Hoe gebruiken we de informatie die we ontvangen?
  • voor interne bewerkingen, zoals probleemoplossing, gegevensanalyse, tests, onderzoek en verbetering van service."
Zie: https://www.facebook.com/about/privacy/your-info

De ToS is best lang, maar de taal is vriendelijk te noemen; de woorden zijn begrijpelijk, (nog) geen buitenaards jargon (tegen gekomen). Ik kwam echter al snel verschillende alinea's en zinnen tegen waar je van zou kunnen denken (zoals de quote hierboven): Ruimte voor "interpretatie". Interessant vond ik hier de volgende paar regels, onder hetzelfde kopje als hiervoor:

"Je blijft de eigenaar van al je gegevens, zelfs al geef je ons toestemming de gegevens die we van je hebben te gebruiken. Jouw vertrouwen is belangrijk voor ons en daarom delen we gegevens over jou niet met anderen tenzij we:
  • je toestemming daarvoor hebben;
  • je hiervan op de hoogte hebben gesteld door je bijvoorbeeld te informeren via dit beleid;"
Hoe na´ef een persoon misschien ook is geweest om zo'n ToS blindelings te accepteren, geeft dat mensen het recht om elkaar te misbruiken? Wetenschappelijk onderzoek mag toch niet ten koste gaan van ethiek?

Of mensen nou na´ef zijn of niet, men mag mensen niet misbruiken. Stel hier gerust vragen bij. Ik zie echter niet in waarom ik hierover in discussie zou moeten gaan.

Wat voor PhD moet je behalen om te begrijpen dat mensen emotionele wezens zijn? Wat voor studie moet je gevolgd hebben om te begrijpen dat mensen be´nvloed worden door datgene dat ze meemaken in hun omgeving? Wie heeft bedacht dat uitgezocht moet worden of mensen blij worden als ze negatieve berichten lezen? Ik vind het maar raar.

Edit: Correcties ten behoeve van duidelijkheid.

[Reactie gewijzigd door snesie op 30 juni 2014 12:06]

Interessante quote uit de post van de onderzoeker bij Facebook:
we were concerned that exposure to friends' negativity might lead people to avoid visiting Facebook.
Ofwel, Facebook heeft belang bij het tonen van specifieke content van gebruikers?? :/
In feite kan Facebook je mood bepalen, en je mening subtiel bijstellen. Best een eng idee.
Filter bubble nummer 2

[Reactie gewijzigd door YaPP op 1 juli 2014 08:51]

Ik denk het wel, YaPP. Happy people Facebook more, lijkt me. Ik geloof ook dat je gelijk hebt. Facebook kan inderdaad middels tweaking (ranking algoritme) content bepalen.

Bedankt voor de link. Echt heel cool dat je die gepost hebt. Belangrijk. Wou dat ik je +3 kon geven.
ik merkte al vaker dat mijn neutraal tot negatieve of depressieve berichten "niet gezien werden"
wanneer je geen feedback krijgt wanneer je dat op zo'n momenten wel nodig hebt, of dat nou positief of negatief is, is dat in mijn ogen en geval alleen maar meer reden om facebook uit je leven te laten
het kan zelfs psychologisch gevaarlijk zijn en mensen de indruk geven negeerd te worden
op die manier houden ze wel een groep overenthousiaste consumenten over terwijl anderen het zien voor wat het is
dat is duidelijk wat gaande is

de verbogen/valse positieve schijn en het valse "genot" wat facebook zo geeft ten opzichte van de realiteit is de reden waarom veel mensen op facebook blijven kijken
want wanneer ze hun ogen van het scherm afwenden is alles plotseling minder rooskleurig
en dit word alleen maar erger wanneer mensen zich op facebook overmatig "enthousiast" of "positief" voordoen om geliked te worden en er bij te horen
verder zie ik mensen enorm veranderen omdat ze aan de extreme "facebook norm", "in het echt" willen voldoen

ik vind het een walgelijk iets
mensen zouden zich beter met de realiteit bezig moeten houden in plaats van op een dergelijk verbogen manier een schijnleven online te onderhouden en in het echte leven niet meer zonder schijn te kunnen

houd je met je kids bezig, leer ze praten spelen begrijpen
in plaats van foto's maken voor op facebook om te doen alsof je dit alles werkelijk goed doet
want je zit alleen met je vette aars voor het scherm zo'n 10 uur per dag |:(

[Reactie gewijzigd door 500749 op 30 juni 2014 12:27]

ik merkte al vaker dat mijn neutraal tot negatieve of depressieve berichten "niet gezien werden"
wanneer je geen feedback krijgt wanneer je dat op zo'n momenten wel nodig hebt, of dat nou positief of negatief is, is dat in mijn ogen en geval alleen maar meer reden om facebook uit je leven te laten

het kan zelfs psychologisch gevaarlijk zijn en mensen de indruk geven negeerd te worden
FB probeert de feeds overzichtelijk, engaging en entertaining te maken en houden. Echter, wat is "relevant" en wat niet? Het is een lastige kwestie, ik hoor duidelijk wat je zegt, Stealthy. Ik dacht namelijk hetzelfde.

Het algoritme dat FB gebruikt om jou en anderen de feed voor te schotelen is volgens mij niet perfect en neigt denk ik meer naar het positieve. Dat laatste is zonder meer goed voor Facebook natuurlijk. FB's findings inzake het onderzoek zijn online gepubliceerd. Met betrekking tot hoe de feed wordt samengesteld kwam ik het volgende tegen:

On Facebook, people frequently express emotions, which are later seen by their friends via Facebook’s “News Feed” product. Because people’s friends frequently produce much more content than one person can view, the News Feed filters posts, stories, and activities undertaken by friends. News Feed is the primary manner by which people see content that friends share. Which content is shown or omitted in the News Feed is determined via a ranking algorithm that Facebook continually develops and tests in the interest of showing viewers the content they will find most relevant and engaging. One such test is reported in this study: A test of whether posts with emotional content are more engaging.

Zie: http://www.pnas.org/content/111/24/8788.full

Ik begrijp dat overzichtelijkheid belangrijk is. Als je een aanzienlijke vriendenkring hebt, waarvan meer dan de helft 3 of meer berichtjes per dag post, dan loop je uiteindelijk tegen een "probleem", tenzij je alle berichten chronologisch in je feed laat verschijnen (wat vast kan). Wat als je 500 vrienden hebt, waarvan 300 elke dag 2 of meer berichtjes posten/Liken?

Het lijkt mij dat er een balans gezocht moet worden. Er zou geen voorkeur moeten zijn voor positieve berichten. Het beste zou zijn een 50 - 50 verhouding. Dat lijkt mij, persoonlijk, eerlijk(er). Hoe zou het anders moeten / kunnen? Facebook gaat voorlopig niet opdoeken, denk ik. Mijn vraag is dan echter: Hoe bewerkstellig je dat? Wat voor algoritme gebruik je? In dat opzicht zijn de vrij onlangs ge´ntroduceerde "moods" misschien een uitkomst hier. Men kan duidelijk aangeven hoe men zich voelt.

Edit: Zeer kleine correcties ten behoeve van de duidelijkheid. Ook verscheen er telkens een smiley in mijn comment. Aangepast.

[Reactie gewijzigd door snesie op 30 juni 2014 13:15]

Was natuurlijk wel te verwachten, facebook gaat niet zeggen dat ze fout zaten, maar blijf me afvragen of dit soort geknoei met emoties zomaar mag?...
En het tot zelfmoord aanzetten is dan wel weer het uiterste, maar het is zeker iets wat ze hadden moeten bedenken voordat ze ermee begonnen, nu geeft facebook de indruk dat ze tijdens de koffiepauze op een idee voor een onderzoek kwamen en daar 5 minuten later aan begonnen...
Wat ik me afvraag: hadden ze hetzelfde onderzoek ook kunnen doen zonder de tijdlijn van mensen de manipuleren? Door de (bijv.) Sentiment Analsys scores van de niewsfeed posts te vergelijken met die van de gebruikerspost zonder de posts met positieve/negatieve scores te filteren zou je toch ook een correlatie moeten kunnen vinden? Het effect zal misschien niet zo sterk zijn maar is dan wel meer gebaseerd op een realistisch scenario.

Daarbij lijkt het me met de dataset van Facebook groot genoeg is om zelfs zonder manipulatie van de tijdslijn significante resultaten te boeken. Maar goed, ik ben geen sociaal wetenschapper :+.
Dat had wellicht gekund, maar als je een mix van positieve en negatieve berichten hebt is het lastiger verbanden te leggen. Je zult dan veel preciezer moeten meten hoe posts en reacties elkaar opvolgen.

Maar goed, het is sowieso nog maar helemaal de vraag wat hier precies gevonden is. Er wordt gesproken over emotionele besmetting (http://en.wikipedia.org/wiki/Emotional_contagion), maar daadwerkelijke emoties zijn niet gemeten. Kun je dan wel stellen dat het om convergerende emoties gaat?

Stel iemand post "Balen!! Mexico uitgeschakeld in het WK..." en een ander reageert daarop met "Ja wel lullig voor jullie hoor!". Betekent deze reactie dat de ander zich ook daadwerkelijk negatief voelt? De ander kan ook overwegend blij zijn dat Nederland door is en gewoon zijn medeleven betogen (wellicht naar zijn Mexicaanse vriend). Medeleven kan affectief zijn (je hetzelfde voelen als een ander), maar dat hoeft niet per se. Het kan ook cognitief zijn; je baalt zelf niet, maar begrijpt wel dat een ander baalt. De reactie komt dan wellicht voort uit beleefdheid.

Kortom, zonder emoties daadwerkelijk te meten is het lastig te bepalen of er emotionele besmetting in het spel is.
Dat had wellicht gekund, maar als je een mix van positieve en negatieve berichten hebt is het lastiger verbanden te leggen. Je zult dan veel preciezer moeten meten hoe posts en reacties elkaar opvolgen.
Ah ja, zo had ik het nog niet bekeken. Thanks ook voor het stukje over cognitief/effectief: zo leer ik nog eens wat :).
Eigenlijk doen ze het of ze het nu sturen of niet; als zij het zelf niet doen, dan doen je 'vrienden' het wel, bewust of niet. 'Facebook envy' is een bekend fenomeen, wordt veroorzaakt omdat mensen op facebook vaak alleen de leuke dingen op facebook zetten (wel de foto's van het feestje na de voetbalwedstrijd, niet het filmpje van de gast die gisteravond luidruchtig bij ons op de buurt zat te kotsen).
Emoties be´nvloeden gebeurt overal en iedereen doet het.
De groentenboer die zijn waren buiten in het zicht zet, de poelier die zijn grill buiten zet om mensen met de geur van gebraden kip te verleiden, vrouwen die wat meer decolletÚ laten zien als ze iets van je gedaan willen.
Vaak is dit zo subtiel dat men niet eens doorheeft dat zijn of haar emoties in een bepaalde richting geduwd worden.
Wat doet facebook nu dat wij met zijn allen niet doen?
Omdat je verwacht dat de groenteboer z'n beste/duurste producten vooraan zet in het zicht.
Je verwacht niet dat facebook je emoties beinvloedt door de berichten en updates van je vrienden (facebook vrienden, maar toch...) te tonen of niet te tonen gebasseerd op toon.
Als je vrienden ineens alleen negatieve berichten plaatsen kan je dat ook negatief beinvloeden.

(Overigens werd ik allang niet vrolijk van de facebook posts, foto's van eten, driekwart reclames en hier en daar een update die wel leuk was...)
En het tot zelfmoord aanzetten is dan wel weer het uiterste
Het klinkt misschien als een uiterste, maar ik garandeer je, als deze test in de negatieve richting is uitgevoerd op de verkeerde persoon op het verkeerde moment, is zoiets zeker weten gebeurd. Sociale druk kan zware gevolgen hebben, zeker als je depressief bent. Het lijkt misschien niet zo, maar onbewust wordt je enorm hard be´nvloed door wat andere mensen zeggen. Als je dan alles wat positief is eruit gooit, is dat vragen om problemen.
Was natuurlijk wel te verwachten, facebook gaat niet zeggen dat ze fout zaten
Van het bedrijf Facebook was dit inderdaad niet te verwachten, zei denken boven de wet staan.

Maar het zou een bedrijf sieren dat ze ook hun fouten toegeven.
maar blijf me afvragen of dit soort geknoei met emoties zomaar mag?...
Ik ken de wetten van de VS niet. Maar volgens mij zou dat in Nederland niet mogen als je de gebruiker niet eerst toestemming gevraagd hebt.
door facebook te gebruiken geef je toestemming, het staat in de voorwaarden zoals in het eerdere nieuws bericht te lezen is.
Voorwaarden staan onder (dwingend) regelgeving. Je kunt van alles beweren in algemene voorwaarden, maar wat niet mag dat mag niet, al zet je het in 10 voorwaarden.
In Europa speelt dwingende regelgeving die rol ja, in de USA amper. Welke wetten zijn van toepassing op Facebook?
Beiden. Door het zich richten op Nederlandse gebruikers is facebook onderhevig aan Nederlandse wetgeving. Tevens heeft facebook hier sinds 2011 een kantoor in amsterdam.

Daardoor zijn voorwaarden en overeenkomsten die op een of meerdere punten in strijd zijn met de Nederlandse en Europese wetgeving volledig ongeldig.

[Reactie gewijzigd door Nieknikey op 30 juni 2014 11:13]

Ah ok. Maar zijn er ook Europese gebruikers betrokken geweest hierbij? Ik kan me niet herinneren daar iets over hebben zien staan. Kan best dat ze het alleen gedaan hebben in de US.
Facebook deed zijn studie onder in totaal 689.003 personen, die daar niet van op de hoogte waren en willekeurig zijn geselecteerd.
Uit het eerdere artikel. Je hebt een goed punt, maar gezien het woord "willekeurig" zonder verder enkele verduidelijking over andere eigenschappen van de steekproefpopulatie ga ik ervan uit dat er niet enkel binnen de landsgrenzen werd gekeken. (dit zou dan namelijk vermeld moeten woorden, omdat het het onderzoek minder betrouwbaar zou maken)

Als dit wel het geval is, maar het wordt nergens vermeld, kun je aan de validiteit van het onderzoek enkele vraagtekens plaatsen. Ze meten dan namelijk niet wat ze willen meten (emotioneel effect van emoties op social media op gebruikers) maar ze meten dan : Emotioneel effect op emoties van Amerikaanse sociale media gebruikers.

Het lijkt er dus sterk op dat gebruikers vanuit alle landen meededen, dat zou de enorme steekproefpopulatie (689.000) ook verklaren.
Ja daar heb je gelijk in, maar je geeft zelf al twijfel gevallen aan.

Het gebeurd heel weinig dat berichtgeving over een onderzoek het juist weergeeft. Dat soort details over wie er nou precies proefpersonen waren zijn meestal onduidelijk weergegeven of helemaal fout, net als het resultaat zelf vaak ook verkeer weergegeven wordt trouwens.

De validiteit van wereldwijd t.o.v. USA is nou typisch ook zoiets wat bij veel onderzoeken over het hoofd gezien wordt. Zeker als het niet echt wetenschappers zijn, en het is maar de vraag of facebook hier wetenschappers bij betrokken heeft.

Dus het aantal wat je noemt is eigenlijk het enige waarop je kunt inschatten wat ze werkelijk gedaan hebben. Nou is 700.000 best veel, maar zou nog wel binnen de USA kunnen. En hoewel ik vermoed dat wetenschappers niet of amper betrokken waren bij het onderzoek, kun je er bij grote bedrijven zoals Facebook meestal wel van uitgaan dat de legal department er bij betrokken was. En die zullen qua wetgeving toch wel voorzichtig zijn denk ik.

Al met al te weinig duidelijke informatie om te weten of we ons er nou druk over moeten maken in Nederland ;-)
Ja daar heb je gelijk in, maar je geeft zelf al twijfel gevallen aan.
Inderdaad, zeker is het niet. Ik ging ervan uit gezien de woordkeus, maar je hebt gelijk in dat ik het oorspronkelijk nieuwsartikel citeer, ik heb het onderzoek zelf niet ingezien. (is dat openbaar gemaakt?)
Nou is 700.000 best veel, maar zou nog wel binnen de USA kunnen.
Uiteraard zou het voor binnen de USA kunnen. Het leek mezelf alleen wat veel voor alleen die populatie.
De validiteit van wereldwijd t.o.v. USA is nou typisch ook zoiets wat bij veel onderzoeken over het hoofd gezien wordt. Zeker als het niet echt wetenschappers zijn, en het is maar de vraag of facebook hier wetenschappers bij betrokken heeft.
Ik denk zelf dat het vooral een aangelegenheid is geweest van analisten. Daar zal Facebook een flinke expertise in hebben.
.....kun je er bij grote bedrijven zoals Facebook meestal wel van uitgaan dat de legal department er bij betrokken was. En die zullen qua wetgeving toch wel voorzichtig zijn denk ik.
Dat denk ik ook, toch is een fout snel gemaakt, vooral als je te maken hebt met zoveel verscheidene jurisdicties. Ook binnen de EU is de privacy wetgeving vaak enkel een set richtlijnen en verschillen die qua interpretatie tussen lidstaten.

Een fout is dan snel gemaakt, helemaal met redelijk kleine landen zoals Nederland. De kans is groot dat men zich heeft gericht op de EU richtlijnen, en een enkele lidstaat zoals Nederland over het hoofd ziet.
Al met al te weinig duidelijke informatie om te weten of we ons er nou druk over moeten maken in Nederland ;-)
Aan de hand van het oorspronkelijke artikel trok ik deze conclusie, je hebt gelijk dat het nieuwsartikel het onderzoek onvolledig kan hebben uiteengezet. Misschien dat er de komende dagen nog wat vragen en toelichtingen komen.
Daardoor zijn voorwaarden en overeenkomsten die op een of meerdere punten in strijd zijn met de Nederlandse en Europese wetgeving volledig ongeldig.
Niet geheel waar. Alleen die bepalingen waar ongeldige zaken in staan, de rest blijft staan.
Ik snapte je vraag eerst niet helemaal. Maar als je bedoelt of Facebook wel of niet ondergeschikt is aan het Nederlandse recht, dan is dat Ja. Facebook valt onder het Nederlandse recht wanneer het om Nederlandse gebruikers gaat, of servers die in Nederland staan, of servers die in de VS staan maar Nederlandse gebruikersdata verwerken.

Willen ze daaronder weg komen, dan zullen ze hier geen servers/kantoren moeten plaatsen, geen pagina hebben die aan Nederlandse gebruikers is gericht (geen.nl extensie, geen Nederlandse taalskin, of zelfs regionaal registratie/functionaliteit helemaal beperken (zoals veel sites doen).

Wanneer een gebruiker dan middels een proxy contact maakt met een buitenlandse server zich op een Engelstalige pagina, met een buitenlandse domeinextensie registreert zal deze inderdaad niet onder onze regelgeving vallen.
Ik ken de wetten van de VS niet. Maar volgens mij zou dat in Nederland niet mogen als je de gebruiker niet eerst toestemming gevraagd hebt.
Als het in Nederland niet mag dan horen we dat snel genoeg. Facebook heeft zich immers ook aan de Nederlandse regelgeving te houden bij Nederlandse gebruikers.
Als het in Nederland niet mag dan horen we dat snel genoeg.
Is dit een grapje sarcastisch bedoelt?

IMO komt een protest nooit vanuit Nederland, Nederland en bescherming van Privacy gaan IMO niet samen. Als we hier een protest horen is dit meestal vanuit de EU.
IMO zijn we beter af met de EU dan de Nederlandse regering, zeker de provincies buiten de randstad.

[Reactie gewijzigd door worldcitizen op 30 juni 2014 11:49]

Nederland en bescherming van Privacy gaan IMO niet samen. Als we hier een protest horen is dit meestal vanuit de EU.
Hoezo? We gebruiken toch Amerikaanse bedrijven voor ons electronisch patiŰnten dossier? Privacy is een grotesk prioriteit binnen Den Haag.

OkÚ dat was sarcastisch, dat eerste overigens niet, maar protest kan ook komen vanuit particuliere groepen die zich hiervoor inzetten, of misschien zelfs vanuit een Nederlandse Eurocommissaris/parlementslid etc.
Normaal onderzoek met een logische uitkomst. Eigenlijk geen nieuws dus, behalve misschien de zeurende amerikanen, maarja dat is tegenwoordig ook stiekem geen nieuws...
Dit onderzoek zou door geen Ethische Commissie van welke Nederlandse universiteit dan ook komen. Dit heeft te maken met het niet duidelijk informeren van participanten over de deelnemen en de opzet van het onderzoek. Legaal: ja, ethisch: nee.

[Reactie gewijzigd door afraca op 30 juni 2014 09:39]

Maar door mensen te informeren over het onderzoek zou je toch het hele nut ervan om zeep helpen?
Dat hoeft niet per se zo te zijn
Nee, controle groep, 50% krijgt aanpassing van berichten 50% niet, maar de deelnemers weten alleen dat ze meedoen, niet of ze ook daadwerkelijk aangepaste berichten krijgen.
Je hoeft ze waarschijnlijk niet tot in detail uit te leggen wat er gaat gebeuren.

Mensen echter de keus voorleggen of ze met een onderzoek mee willen doen (zonder te vermelden wat er gaat gebeuren en waarom), en pas bij toestemming de timeline beinvloeden is natuurlijk wel een nettere manier.
Dat hoeft niet per se. Je kunt de groep blinderen door de intentie van het onderzoek niet geheel naar voren te brengen. Of, de inhoud van het onderzoek niet naar volledigheid aan de onderzoeksdeelnemers laten doorschemeren.

De vraag is, of dit door een ethische commissie zou komen. Hedendaags is het ''volledig'' informeren van participant meestal wel noodzakelijk, mits er geen schadelijke gevolgen zijn van het ''niet volledig informeren''. Vaak komt het niet volledig informeren van de participant wel ten goede van het onderzoek doordat de resultaten niet worden bevuild met de invloed van de kennis op de keuzes en zijn dus de uitkomsten potentieel minder beinvloed.

Echter, enige ''informed consent'' voor deelname aan een onderzoek en het doel ervan zou, in mijn ogen, toch zeker wel noodzakelijk zijn geweest...

De vraag die bij mij opkomt, en wat ook in het nieuwsbericht wordt gezegd: kan het niet informeren hebben geleid tot een toename aan zelfmoorden? De daadwerkelijke relatie zal natuurlijk zeer moeilijk zijn om aan te tonen, maar het zet je wel aan het denken bij dergelijke onderzoeken.

Ik spreek uit ervaring als PhD die zelf patientgebonden onderzoek uitvoert ;)

[Reactie gewijzigd door keanu_ op 30 juni 2014 10:27]

De onderzoekers hadden echter een hypothese die net omgekeerd was van de uitkomst
...dat zij het belangrijk vonden om te onderzoeken of het zien van veel positieve content op Facebook mensen een negatief gevoel kan geven, bijvoorbeeld als ze het gevoel krijgen dat leuke dingen aan hen voorbij gaan.
Uit de resultaten blijkt dat er sprake is van wat Facebook emotionele besmettelijkheid noemt. Als iemand wordt blootgesteld aan negatieve posts, die niet per se aan de gebruiker gericht hoeven zijn, dan is de kans groter dat die persoon zelf ook negatief reageert.
Dus de uitkomst is niet vanzelfsprekend.

Nu de resultaten bekend zijn hoop ik echter dat ook tweakers hier iets mee doet. Te veel negatieve nieuws-items zouden het humeur van iemand negatief kunnen beinvloeden. Het zou dus beter zijn als tweakers de negatieve berichten over gehackte databases, privacy-schending, NSA etc... achterwege liet. Ik zou het als redactie niet op mijn geweten willen hebben dat een depressief persoon door dit soort berichten net over de rand geduwd word.
"Nu de resultaten bekend zijn hoop ik echter dat ook tweakers hier iets mee doet. Te veel negatieve nieuws-items zouden het humeur van iemand negatief kunnen beinvloeden."

Zolang die negatieve berichten een afspiegeling zijn van de werkelijkheid moet je ze koesteren.
Het probleem van selectief censureren van negatieve dingen is dat je dan geen idee hebt van hoe erg de werkelijkheid is. Hierdoor zul je minder snel iets ondernemen om die werkelijkheid te corrigeren. Je komt dus in een positieve bubble terecht die jouw weerhoudt problemen op te lossen.
Het probleem is dat je niet weet wat er achtergehouden was door de censuur (want dit is in feite een vorm van censuur).
Je zou mensen mischien een keuze moeten geven. Wil je nu een pret-selectie of wil je de werkelijkheid zien? Dan kan iedereen op dat moment kiezen voor een positieve selectie maar weet van het bestaan van een gebalanceerdere werkelijkheid en heeft daar ook toegang toe.
Ik denk dat de meeste redacties nieuwsberichten selecteren op basis van wat zij denken dat voor hun lezers interessant is, niet op basis van de afspiegeling van de werkelijkheid.
(Zelfs als je dat zou willen, welke criteria kies je om te bepalen wat een afspiegeling van de werkelijkheid is? Een gebeurtenis is vaak nieuwswaardig net omdat ze vrij uniek is, maar daarmee geen goede weerspiegeling is van de werkelijkheid. Ten opzichte van het aantal personen die dagelijks met een auto rijden zouden dodelijke auto-ongevallen denk ik nauwelijks nieuwswaardig genoemd mogen worden. Toch verschijnen ze regelmatig in de krant)
Mee eens dat elke nieuwsredactie hiermee speelt.
Alleen zit facebook in een persoonlijkere context en kan dus dieper ingrijpen in de psyche van de gebruikers. Ze weten bijvoorbeeld veel beter waar je allemaal gevoelig voor bent of wat je 'triggers' zijn. Daarmee kunnen ze veel meer macht uitoefenen dan een doorsnee nieuwsoutlet.
Normaal onderzoek met een logische uitkomst.
Lijkt me geen normaal onderzoek. Je kan toch geen reacties gaan verwijderen zonder de gebruiker dit te laten weten.
Wat als de volgende stap is dat ze reacties manipuleren? Is dat ook een normaal onderzoek?
behalve misschien de zeurende amerikanen, maarja dat is tegenwoordig ook stiekem geen nieuws...
Dat is helemaal geen gezeur. Je hebt een account op Facebook met gebruikersnaam en password al je reacties worden gezien als jouw reacties. Dan kan Facebook de reacties niet zomaar verwijderen.

Mogelijk vind je dat op internet iedereen vogelvrij is.
Post wel of niet laten zien is een beslissing die FB continue voor jou neemt, dat is voor veel nou juist de kracht waarom FB interessant blijft. Veel gebruikers zoudennde stortvloed aan posts niet aankunnen als FB niet zou filteren, doordat hun algoritme zo goed in elkaar zit merkenrecht meeste users hier ook niets van.
Persoonlijk zou IK liever de mogelijkheid zien om hier zelf wat aan de knoppen te kunnen draaien.
Dit experiment is waarschijnlijk gewoon een kleine bijstelling in het algoritme geweest, door gebruik te maken van FB accepteer je ook het gebruik van dit algoritme, ongeacht wat FB ermee doet.
Door gebruik te maken van FB accepteer je wel de gebruikersovereenkomst, maar die staat niet hoger dan de wet, als de wet zegt dat iets niet mag, dan kan facebook wel doodleuk in de overeenkomst zetten dat ze je mogen inhuren als huurmoordenaar, maar dan gaat de overheid toch echt zeggen dat dat niet mag :P
Of het in dit geval dan ook echt verboden is, lijkt me wel, je kan namelijk niet zomaar onderzoeken uitvoeren zonder de deelnemers/patienten op de hoogte te stellen en de keuze voor te leggen om wel of niet mee te doen.
Volgens mij verwijderen ze geen reacties, ze kiezen enkel welke berichten wel of niet in je nieuws-feed komen.
Ga je specifiek naar de pagina van een persoon neem ik aan dat je gewoon al zijn berichten en reacties ziet.
Volgens mij verwijderen ze geen reacties, ze kiezen enkel welke berichten wel of niet in je nieuws-feed komen.
Ik denk dat ze er daardoor ook mee weg kunnen komen: door te stellen dat hun algoritme om 'Top Stories' te bepalen gewoon vaag is.

Als je je newsfeed dus op 'Most Recent' zou zetten, dan gok ik dat je alles ziet.
Is het onderzoek gedaan met willekeurige mensen op Facebook of met een geselecteerde groep mensen? Ik snap alleen niet zo goed waarom Facebook wil experimenteren met uitingen van gebruikers. Het filteren van humeur op basis van berichten is juist een expressie die iemand zelf moet maken.

Edit: Ik zie dat deze mensen niet op de hoogte waren van het feit dat Facebook dit deed.

[Reactie gewijzigd door SideSwipe op 30 juni 2014 09:36]

Edit: Ik zie dat deze mensen niet op de hoogte waren van het feit dat Facebook dit deed.
Vandaar dat een hoop mensen er kwaad over zijn, het hele experiment lijkt meer een poging om te zien of facebook kan manipuleren dan dat het een echt nuttig onderzoek is.
Ik snap op mijn beurt dan weer niet dat men er kwaad over is. Facebook doet niets anders dan manipuleren. Elke "like" is een vorm van manipulatie. Evenals alle reclame op Facebook. Reclame van het bedrijf met de diepste zakken.

Misschien dat men zich eerst eens moet gaan verdiepen in de motieven van Facebook.
Mensen zijn kwaad omdat deze 'manipulatie' potentieel kan leiden tot bepaalde schadelijke gevolgen. De deelnemers dienen hiervan om de hoogte te zijn dat de moderatie invloed mogelijk invloed kan hebben op hun emotionele gemoedstoestand.
En dan met name of mensen Facebook links laten liggen bij veel positieve of negatieve posts. Zo kunnen ze dus de bezoekersaantallen gaan be´nvloeden door te bepalen dat er minder negatieve posts te zien zijn.
Ik snap de ophef hierover wel. Sociale media speelt een hele grote rol bij depressie et al - hoe zou jij je voelen als iedereen om je heen ontzettend negatief doet, of je juist alleen maar ziet hoe fantastisch hun het hebben. Natuurlijk hoeft niet iedereen er last van te hebben, maar er zijn genoeg mensen (vooral adolescenten en mensen die emotioneel minder sterk zijn) die last krijgen van psychische problemen.

Ik wil er verder niet te diep op ingaan maar zoek maar eens op "Social Media Addiction". en die trend. Heb er een onderzoekverslag voor moeten schrijven laatst en het probleem is groter als dat je denkt.
Het belangrijkste is hier dan ook dat zij doelbewust hebben gemodereerd om het effect op stemming te evaluaren. Het was hier dus noodakelijk om de deelnemer te informeren, aangezien stemming kan leiden tot allerlei negatieve gevolgen en mogelijk zelfmoord tot gevolg.
Dit lijkt extreem, maar in elk onderzoek moet rekening worden gehouden met de mogelijke gevolgen. In medicijn onderzoek houd je ook rekening met adverse- (bijv. een kleine huidreactie) en serious adverse events (bijv. dood).
Dat heet geloof ik censuur. Omdat een bericht emotioneel niet word aangestaan door een bepaalde comitÚ of zelfs een persoon. Ik snap de beweegredenen best wel, als iedereen berichten post over hoe gelukkig ze zijn of hoe trots en tevreden ze zijn terwijl een vriend van hen een wat mindere dag heeft snap ik wel dat dit soort berichten worden gewist.. Alleen snap ik niet zo goed hoe ze dit dan hebben gekoppeld aan mensen in de vriendenlijst. Betekend dit dan concreet dat elk bericht op "openbaar" heeft gestaan of is er gewoon stiekem meegelezen door de onderzoekers en is heel het privacy ding vergeten?
"Dat heet geloof ik censuur. Omdat een bericht emotioneel niet word aangestaan door een bepaalde comitÚ of zelfs een persoon. "

Hah!,.., Computer bedoel je..,
Je denkt toch niet dat ze bij facebook dit soort dingen met de hand doen. Dit soort 'features' worden ontworpen om volledig geautomatiseerd te laten plaatsvinden.
En dat vind ik eigenlijk nog veel erger.
Beetje bizarre manier van moderatie. Door bepaalde posts weg te laten van vrienden in news feeds heeft men geprobeerd om de stemming van iemand te be´nvloeden. Maar wat ze totaal schijnen te vergeten, is dat ze totaal geen weet hebben van de werkelijke emotionele toestand van de gebruiker. Daarnaast geven ze bepaalde berichten niet weer in de newsfeed, die je misschien wel had willen zien. Ze scannen op woorden, die een emoties in zich hebben en passen dan een soort prioritering toe. En checken dan middels diezelfde scanning of die persoon meer of minder positieve/negatieve woorden gebruikt in opvolgende content plaatsing.. Dus in feite wordt je gewoon keihard gemanipuleerd.

Ik vind een bedrijf als Facebook, als sociale platform, al tijden een heel eng fenomeen. Dit bevestigd maar weer eens voor mij, waarom ik blij ben, daar nooit een account te hebben aangemaakt.
Eens. Ze kunnen nooit weten hoe belangrijk het voor een bepaalde persoon is een reactie te krijgen. Ik heb iemand eens heel erg boos zien worden toen ze zag dat haar vriendje niet getagged was. Haar conclusie was dan weer dat anderen hem niet getagged hadden op het moment dat de foto gemaakt werd omdat zij niet zou hebben mogen weten dat hij daar was. Of zoiets dacht ze dan. Mensen kunnen soms conclusies trekken aan de hand van zo'n vrij simpele handeling die wel of niet gedaan is.
Iemand kan jou wel beloofd hebben te liken en als dat dan toch niet gebeurt omdat facebook de boel zit te manipuleren kun je wel denken dat die ander het expres niet gedaan heeft.
Zou ik op facebook zitten, dan zou het mij verder niet uitmaken, maar er zijn nou eenmaal mensen die daar wat gevoelig voor zijn.

Laten ze zich bezighouden met verschijnselen als Project X uit Haren om die te bestrijden. Ik las dat de oorspronkelijke uitnodiging al lang verwijderd was, maar dat anderen het feest met vrijwel gelijke namen overnamen op facebook. Dat moeten ze toch eenvoudig kunnen stoppen. Als wij het kunnen vinden, kunnen zij dat ook en dan kunnen ze het ook verwijderen. En ga dan niet mekkeren over censuur of dat ze er niet verantwoordelijk voor zijn. Nu hebben ze tenslotte ook censuur gepleegd.
Het lijkt me aangeraden voor Facebook om de namen van die 689.003 personen niet te publiceren. Stel dat ÚÚn van die personen tijdens de periode van het experiment effectief zelfmoord pleegde...? Je kunt natuurlijk nooit bewijzen dat het daardoor komt. Door een paar negatieve postjes op je wall ga je als gezond mens natuurlijk nooit zelfmoord plegen. Maar mensen die effectief tot de daad overgaan balanceren psychologisch gezien uiteraard al veel langer op een fijn koordje, mogelijks zijn een hoop negatieve posts nu net de spreekwoordelijke druppel...
Maar los van het feit of Facebook er al dan niet iets mee te maken heeft zou de media er ongetwijfeld als een wild beest op los springen om de wildste theorieŰn in het lang en het breed uit te smeren! Zelfs nu zijn de reacties reeds allesbehalve positief.
Vreemd dat ze zeggen dat mensen zich positiever voelen omdat ze zelf positieve berichten gaan posten. Mensen kunnen ook prima andere na-apen om diverse redenen en een neutraal gevoel hebben. Het zegt dan dus niks over hoe men zich voelt. In de onderzoek methodes lees je vaak dat als je gevoelens wil meten diepte-interviews of groepsessies hiervoor geschikt zijn. Er is nu nergens gevraagd hoe voel je bij dit bericht maar slechts gekeken naar hoe het mensje beweegt. Omdat een aap blij kijkt zegt nog niet dat hij blij is. |:(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True