Meta stopt met werkgroep die negatieve gevolgen van Meta-producten onderzocht

Meta heeft het team dat onderzoek deed naar de mogelijk negatieve gevolgen van Meta-producten ontbonden. Het 'responsible innovation team' bestond uit ontwikkelaars en ethici die samenwerkten met productontwikkelaars en privacydeskundigen.

Een woordvoerder van Meta laat tegenover The Wall Street Journal weten dat de circa twintig medewerkers van het team elders binnen Meta aan de slag gaan, al krijgt niet iedereen van het team 'gegarandeerd een nieuwe baan'. De werkzaamheden van het team worden volgens de woordvoerder niet op een andere manier ingevuld. Meta denkt dat het ontwerpen van goede, veilige, en ethische producten ook bereikt kan worden door teams die een specifiek probleem aanpakken.

Meta is al meerdere malen in opspraak gekomen voor het niet waarborgen van de veiligheid van zijn gebruikers. Het grootste schandaal was dat met Cambridge Analytica in 2018, waarbij gegevens van tientallen miljoenen Facebook-gebruikers onrechtmatig werden gebruikt voor gerichte advertenties.

De pagina over 'responsible innovation' van Meta is nog wel steeds in de lucht. De woordvoerder van Meta benadrukt dat de doelen voor verantwoord innoveren belangrijk zullen blijven voor het bedrijf.

Door Robert Zomers

Redacteur

12-09-2022 • 13:15

55 Linkedin

Submitter: Silent7

Reacties (55)

Wijzig sortering
“So we ran this new algorithm by the ethics committee and they said is was unethical. So, we fired the ethics committee”
Reageer
Dat klinkt als een quote van Cave Johnson (Portal 2), maar ik weet het niet helemaal zeker.
Reageer
Het past in ieder geval goed bij het personage :D
Reageer
Leven we in een nieuwe Black Mirror episode?
Reageer
Als ze op die responsible innovation pagina nou eens groot zetten.
ALLE META MEDEWERKERS HEBBEN ALLE AFLEVERINGEN VAN BLACK MIRROR GEZIEN.
Dat zou iets goeds zijn... niet veel, maar iets goeds..

Also, de originele pagina: wil je koekjes -> essential only -> wil je koekjes -> essential only -> wil je koekjes... :+
Reageer
Alleen Javacakes en in mindere mate Pims zijn Essential Cookies!
Reageer
Publication bias, waarom zou ik onderzoek beschrijven als de uitkomst me niet bevalt?
Reageer
Ze lieten dan ook vooral negatieve geluiden te horen.
Reageer
In dat geval kan Meta zelf ook stoppen: ze laten vooral negatieve geluiden horen.

Ergens snap ik het wel: zo'n werkgroep is negatieve publiciteit. Als je als buitenstaander weet dat er een structurele groep is die misstanden onderzoekt binnen een organisatie en andere organisaties hebben zo'n groep niet, dan is dat reden om te denken dat er structureel iets mis is in zo'n onderneming.
En dat is er ook. Meta lost dat niet op met een werkgroep van zo'n twintig personen. Dat zal veel meer voeten in de aarde moeten hebben en wat mij betreft is het mosterd na de maaltijd.

We zijn veel te lief voor Facebook/Meta en andere bedrijven die consumenten misleiden voor eigen gewin. Ik ben daar ondertussen heel resoluut in: het zou niet erg zijn als een Meta/Facebook failliet zou gaan. Misschien jammer voor wat opgebouwd is, maar ook goed om te laten zien dat zulke misstanden geen recht/kans op overleven zouden hebben.
Reageer
Als je als buitenstaander weet dat er een structurele groep is die misstanden onderzoekt binnen een organisatie en andere organisaties hebben zo'n groep niet, dan is dat reden om te denken dat er structureel iets mis is in zo'n onderneming.
Op zich ben ik het best met je reactie eens, maar ^dit is vrij kort door de bocht. Het hebben van zo'n werkgroep zie ik juist als iets positiefs: het bedrijf neemt haar verantwoordelijkheid serieus. Iets als een vertrouwenspersoon voor grensoverschrijdend gedrag is wellicht een iets meer alledaags voorbeeld dat er wel wat op lijkt. Als er geen vertrouwenspersoon is, zegt dat niet dat er geen misstanden zijn, alleen maar dat je nergens heen kan als het je overkomt.

Wat het bij facebook/meta problematisch maakt, is dat ze veel bevindingen van deze werkgroep geheim houden en weinig tot geen actie lijken te ondernemen om de gevonden problemen op te lossen. Dan is zo'n groep er alleen voor de sier. En als er dan later alsnog bevindingen uitlekken, is dat slechte pers en wordt zo'n groep blijkbaar gewoon opgedoekt. Dan neem je dus bewust beslissingen die slecht zijn voor de wereld en na het opdoeken van de groep, dezelfde slechte beslissingen maar zonder dat het intern gekwantificeerd wordt.
Reageer
[...]


Op zich ben ik het best met je reactie eens, maar ^dit is vrij kort door de bocht. Het hebben van zo'n werkgroep zie ik juist als iets positiefs: het bedrijf neemt haar verantwoordelijkheid serieus. Iets als een vertrouwenspersoon voor grensoverschrijdend gedrag is wellicht een iets meer alledaags voorbeeld dat er wel wat op lijkt. Als er geen vertrouwenspersoon is, zegt dat niet dat er geen misstanden zijn, alleen maar dat je nergens heen kan als het je overkomt.

Wat het bij facebook/meta problematisch maakt, is dat ze veel bevindingen van deze werkgroep geheim houden en weinig tot geen actie lijken te ondernemen om de gevonden problemen op te lossen. Dan is zo'n groep er alleen voor de sier. En als er dan later alsnog bevindingen uitlekken, is dat slechte pers en wordt zo'n groep blijkbaar gewoon opgedoekt. Dan neem je dus bewust beslissingen die slecht zijn voor de wereld en na het opdoeken van de groep, dezelfde slechte beslissingen maar zonder dat het intern gekwantificeerd wordt.
Begrijp me niet verkeerd, het erkennen van een probleem en er actief iets mee doen zie ik als positief. Maar vanuit de gedachtegang van Meta/Facebook gezien, kan ik me best voorstellen dat ze de werkgroep opheffen. Ik kan er een hele discussie over houden, maar wat mij betreft komen alle eindjes op één punt uit: het maakt niet meer uit. Voor mij is het al lang te laat, dit had 5~10 jaar terug al gebeurd moeten zijn. Ook al is er de oprechte intentie om dingen recht te zetten, is het voor mij te laat. Facebook heeft zoveel "kapot" gemaakt dat Meta het binnen vijf tot tien jaar gaat goedmaken.

Facebook is hét bedrijf wat hun klanten als middel gebruikt(e) om data te verzamelen en heeft er mede voor gezorgd dat meer bedrijven ons in zulke mate spioneren en dat overheden daar een graantje van mee willen pikken en zelfs zo ver gaan in de mismanagement van gegevens, dat een heel kabinet heeft moeten opstappen. Facebook is voor mij een maatschappelijk probleem en heeft wat mij betreft hun kaarten verspeeld.
Reageer
Naar mijn idee heeft het verdienmodel van Facebook een parasitaire kant, ook al merk je er aanvankelijk - en soms heel lang - niets van. Onze samenleving bleek niet opgewassen tegen de datahonger en tot op heden merk ik ook weinig van resoluut ingrijpen om het individu te beschermen. Naar mijn idee is FB inderdaad een maatschappelijk probleem, of beter gezegd, een kwaadaardig gezwel.

Er zijn zeker zichtbare voordelen aan het gebruik van Facebook, echter kan ieder individu - naar mijn idee dus - de weging t.o.v. de maatschappelijke last gewoon niet behoorlijk maken en onze overheid doet het niet veel beter.
Reageer
Wat het bij facebook/meta problematisch maakt, is dat ze veel bevindingen van deze werkgroep geheim houden [...]
Daar ben ik het niet helemaal mee eens. Als zo'n interne groep bestaat, dan is het marketing technisch logisch dat de bevindingen ook binnenshuis worden gehouden. Het zelf zoeken naar problemen is om ze op te lossen voordat het schade toebrengt, in welke vorm dan ook. Het naar buiten brengen van die problemen levert schade op en zou een deel van de functie van het team om zeep helpen. Zo brengen bedrijven fouten over het algemeen niet naar buiten, terwijl ze intern wel worden beoordeeld en aangepakt. Als dat laatste niet wordt gedaan, dan lekt het ergens door boze medewerkers of omdat een fout een keer grote negatieve gevolgen heeft en men dan gaat graven.
Bijvoorbeeld; De groep stelt dat techniek A onbedoeld Meta in staat brengt om X te doen en daarom worden er veiligheidsmaatregelen getroffen om dit te voorkomen. Als dat publiek wordt gemaakt wordt dat door media vertaalt als 'Meta kan X'..
[...] en weinig tot geen actie lijken te ondernemen om de gevonden problemen op te lossen.
Dat weten we dus niet, want dat wordt niet openbaar gemaakt. Wat mij eerder het probleem lijkt, is dat een specifieke groep naar alle ethische dilemma's moet kijken, maar dan ook álle achterliggende techniek moet begrijpen. Anders is men afhankelijk van het rapport wat het team dat de techniek maakt heeft geschreven en dan mis je waarschijnlijk wel negatieve aspecten. Zeker als je als team aan het einde van het productieproces nog even wordt afgerekend op ethische aspecten, dat moet eigenlijk al vanaf het begin een onderdeel zijn.
Diezelfde negatieve aspecten worden vanaf nu sowieso gemist, dus ik zeg niet dat het beter is, alleen dat ze blijkbaar niet in staat zijn om überhaupt de ethische problemen op te sporen, laat staan er een degelijke oplossing voor te vinden.
Reageer
Wel eerlijk blijven. Meta gebruikt hoe dan ook onethische methoden om haar produkt 'aan te bieden'. Daarom heeft de werkgroep idd geen zin. De uitkomst is letterlijk het advies: stoppen met wat FB doet.
Reageer
Op zich ben ik het best met je reactie eens, maar ^dit is vrij kort door de bocht. Het hebben van zo'n werkgroep zie ik juist als iets positiefs: het bedrijf neemt haar verantwoordelijkheid serieus.
Nee hoor:
Meta denkt dat het ontwerpen van goede, veilige, en ethische producten ook bereikt kan worden door teams die een specifiek probleem aanpakken.
We hadden al geconstateerd dat ontwikkelteams onethische producten creëren. Wat de resultaten van de werkgroep dan ook zijn, we weten in elk geval dat de verantwoordelijkheid niet bij die teams wordt gedragen en dit nooit als advies kan hebben gestaan in de conclusie. Anders is het geen ethische commissie.

Dit is dus een gevalletje marketing we zijn ethisch bezig maar gaan gewoon op de oude voet door...
Reageer
Ergens snap ik het wel: zo'n werkgroep is negatieve publiciteit.
Deze werkgroep is het gevolg van negatieve publiciteit, als werktuig om criticasters de mond te snoeren, en als blijk van goede wil bij het zoveelste verhoor door Congresleden. "Kijk, wij hebben deze werkgroep die onze producten onderzoekt, en als die echt zo slecht zijn als jij beweert dan nemen we maatregelen". Pure windowdressing natuurlijk, maar het heeft (althans voor Meta) wel gezorgd voor relatieve rust.

In die zin heeft de werkgroep zijn rol vervuld; niet om echt te doen wat Meta zegt dat het moet doen, maar om weerwoord te kunnen bieden aan kritiek. En daarmee is de houdbaarheid nu dus ook verstreken. Bij het volgende schandaal kan Meta namelijk niet gaan schermen met het bestaan van deze werkgroep, want dat zou dus meteen duidelijk maken dat die niet functioneert.

Dus hopelijk snappen overheden inmiddels hoe door-en-door cynisch deze bedrijven werken, en laten ze zich de volgende keer inderdaad niet wéér met een kluitje het riet insturen.
Het probleem daarbij is natuurlijk dat (met name Amerikaanse) politici hun zetels voor een belangrijk deel te danken hebben aan alles wat objectief gezien verdorven is aan de algoritmes van Meta c.s., dus het zou van enorm veel lef getuigen als ze deze bedrijven echt durven aan te pakken.
Reageer
Ik kan dit eigenlijk wel begrijpen, waarom ergens geld in steken dat je slecht in het daglicht zet.

Dat ze dit stop zetten spreekt eigenlijk al genoeg woorden over de gevonden resultaten.
Slechte zaak dit.
Reageer
Vooral het feit dat men de resultaten en redenen om de groep op te heffen niet openbaar maakt is tekenend.

Blij dat ik onlangs met social media gestopt ben, maar ik vind het nu wel heel erg lastig om mijn artwork en exposities snel en makkelijk te delen met mijn (voornamelijk internationale) connecties..
Reageer
Omdat juist dit je in een goed daglicht zet.

Overigens kan dit ook de conclusie zijn van de werkgroep dat het moet bij het project.
Reageer
Dat op zich is geen argument, iedereen binnen Meta kon op zijn klompen aanvoelen wat zo'n werkgroep op zou werpen. Maar dat gaf niet, Meta stond onder grote druk om íets te doen, niks doen was geen optie. Dus kwam deze werkgroep er, en op papier zal die heus wel wat hebben kunnen bereiken maar ik geloof er geen drol van dat het bestaan van deze werkgroep enig effect heeft gehad op het functioneren van welk Meta-product dan ook.

Als ze dit goed gedaan zouden hebben, dan hadden ze misschien ook durven luisteren naar wat zo'n werkgroep inbrengt, om daarmee de producten ook daadwerkelijk minder onveilig te maken.

Maar dat deze werkgroep er bepaald niet voor de eeuwigheid zou zijn, dat was vanaf het begin al zonneklaar.
Reageer
Ik kan dit eigenlijk wel begrijpen, waarom ergens geld in steken dat je slecht in het daglicht zet.
Dit is hetzelfde argument dat voor elke vorm van interne kwaliteitscontrole geldt: omdat slecht doordachte/onethische producten lanceren je publiekelijk in een slecht daglicht zet.
Reageer
Ik kan dit eigenlijk wel begrijpen, waarom ergens geld in steken dat je slecht in het daglicht zet.
Misschien was er in het begin de hoop dat het team dingen zou aandragen die gebruikt kunnen worden om Meta extra te laten groeien.
Reageer
Serieus, de arrogantie ook gewoon. Ze geven niet eens een reden op waarom deze werkgroep ontbonden wordt. Tenminste, dat kan ik niet uit dit artikel halen.

Niemand die ziet dat dit bedrijf met de tijd steeds dominanter en arroganter wordt? En daar geven we met gemak al onze data aan af |:(

[Reactie gewijzigd door Yzord op 12 september 2022 14:07]

Reageer
Serieus, de arrogantie ook gewoon. Ze geven niet eens een reden op waarom deze werkgroep ontbonden wordt. Tenminste, dat kan ik niet uit dit artikel halen.
Ik denk dat de bevindingen van de groep veelvuldig erg negatief waren en Meta zich daaraan niet wil aanpassen.

Als de bevindingen positief waren, dan zou er veelvuldig naar de pers 'gelekt' zijn.
Reageer
Dat waar je niet naar zoekt is er ook niet toch? :+
Reageer
Meta 'producten' (feitelijk ben jij als gebruiker het product) zouden allang verboden zijn als het uit elk land kwam dat niet binnen de directe invloedsfeer van de VSEU zou liggen.

Dat alleen al zou voldoende waarschuwing moeten zijn, naast dit soort berichten.
Reageer
Tiktok is toch ook nog steeds toegestaan?
Reageer
Vergelijking tussen TikTok en facebook(derivaten) is niet heel goed te maken. Losstaande dat TikTok onder een vergrootglas ligt. Wat wel goed te vergelijken is, dat bij TikTok ook geldt dat bij een (tijdelijk) verbod dit enorme electorale gevolgen heeft.
Reageer
Lol ik vraag me af of het wordt ontbonden werkgroep zelf voor negatieve gevolgen had, onder het mom van "zie je wel ze doen alles om maar niet in negatief in het nieuws te komen"
Reageer
Ze doen wel iets maar mogen het niet vrij geven.


Facebook heeft al aangetoond dat ze geen normale gesprekspartner zijn,
https://www.washingtonpos...-are-the-facebook-papers/
For example, Zuckerberg testified last year before Congress that the company removes 94 percent of the hate speech it finds before a human reports it. But in internal documents, researchers estimated that the company was removing less than 5 percent of all hate speech on Facebook.
Facebook draagt bij aan extremisme en de rekening komt voor de samenleving inclusief talloze opstootjes en erger;
During the run-up to the 2020 U.S. presidential election, the social media giant dialed up efforts to police content that promoted violence, misinformation and hate speech. But after Nov. 6, Facebook rolled back many of the dozens of measures aimed at safeguarding U.S. users. A ban on the main Stop the Steal group didn’t apply to the dozens of look-alike groups that popped up in what the company later concluded was a “coordinated” campaign, documents show.
By the time Facebook tried to reimpose its “break the glass” measures, it was too late: A pro-Trump mob was storming the U.S. Capitol.
Weer iets wat opvalt;
According to one 2020 summary, the vast majority of its efforts against misinformation — 84 percent — went toward the United States, the documents show, with just 16 percent going to the “Rest of World,” including India, France and Italy.
Though Facebook considers India a top priority, activating large teams to engage with civil society groups and protect elections, the documents show that Indian users experience Facebook without critical guardrails common in English-speaking countries.
In andere landen gaat het dus veel extremer.


En facebook is hier niet alleen in,
meest recente is Twitter;

daar weten de bestuurders 100% dat er heel veel kindermisbruik en kinderporno op hun netwerk zit,
https://www.theverge.com/...content-problem-elon-musk
Before the final go-ahead to launch, though, Twitter convened 84 employees to form what it called a “Red Team.” The goal was “to pressure-test the decision to allow adult creators to monetize on the platform, by specifically focusing on what it would look like for Twitter to do this safely and responsibly,” according to documents obtained by The Verge and interviews with current and former Twitter employees.

What the Red Team discovered derailed the project: Twitter could not safely allow adult creators to sell subscriptions because the company was not — and still is not — effectively policing harmful sexual content on the platform.
Een relatief klein team dat bakken interne informatie stroomlijnt en rapporteert, waar vervolgens niks mee gedaan wordt.


Van de overheden en journalisten hoef je niks te verwachten,
dit soort bedrijven zijn to big to fail geworden en kunnen eindeloos trekken om vervolgens met een schikking weg te komen.
Reageer
Als je geen werkgroep meer hebt dan heb je ook geen negatieve geluiden meer toch?
Reageer
Want als je het niet weet, dan is het er niet!
Zo. Makkelijk opgelost.
Reageer
Don't shoot the messenger.
Reageer
Mocht er ooit een groot probleem aankomen voor FaceBook/Meta dan kunnen ze nu weer doen alsof hun neus bloed, als je een taskforce hebt die juist problemen onderzoekt dan kan je namelijk niet meer zeggen dat je van niets weet.
Reageer


Om te kunnen reageren moet je ingelogd zijn

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ.

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee