Reuters: Concurrenten X hebben 'aanzienlijk' meer moderators - update

X, voorheen Twitter, heeft aanzienlijk minder moderators dan andere platforms, zoals YouTube en TikTok, schrijft Reuters op basis van een niet met name genoemd lid van de Europese Commissie.

X heeft in totaal 2510 moderators in de Europese Unie. Ongeveer 2294 daarvan hebben Engels als de primaire taal. Vergeleken met het voormalige Twitter hebben de andere bedrijven die een rapport hebben ingeleverd, aanzienlijk meer moderators, schrijft Reuters. Zo heeft volgens het EC-lid dat het persbureau heeft gesproken, YouTube 16.974 en Google Play 7319 moderators. TikTok zou 6125 moderators in dienst hebben.

De informatie zou afkomstig zijn uit rapporten van X en andere grote techplatforms die in september zijn ingeleverd bij de EC. De Commissie wil inzicht krijgen in het aantal moderators op de platforms om te kunnen achterhalen of de bedrijven voldoen aan de Digital Services Act. Die eist onder meer dat online platforms voldoende actie ondernemen tegen schadelijke en illegale content. In april werden 19 platforms met meer dan 45 miljoen dagelijkse actieve gebruikers aangewezen om als eerste te voldoen aan de DSA, die in augustus van kracht is geworden.

De leden van de Europese Commissie hopen dat X de druk zal voelen om het aantal moderators te verhogen om zijn rivalen in te halen, zegt de ambtenaar. "Er is een belangrijk aspect van de DSA en dat is groepsdruk", zegt het EC-lid. Vanaf 17 februari moeten alle bedrijven aan de DSA voldoen, niet alleen de 19 diensten die in april werden genoemd.

Update: Titel en intro aangepast. Het aantal X-moderators is ook aangepast. Reuters had alleen de 2294 moderators meegeteld die Engels als primaire taal hebben. Het totaal aantal X-moderators in Europa staat op 2510 moderators.

Door Loïs Franx

Redacteur

10-11-2023 • 15:53

133

Reacties (133)

133
114
57
1
0
21
Wijzig sortering

Sorteer op:

Weergave:

Meer moderators, meer compliance officers, meer regels, meer controle, meer werk is altijd beter?

Minder boerenverstand, minder vrijheid...

Misschien moet de Europese Commissie de andere platforms vragen efficienter te werken? Misschien leveren ze wel een andere dienst? Google Play vs X?
Ik zie 0.0 inhoudelijks staan. Alleen wat populistische krachttermen. Ironisch dat je minder vrijheid noemt. Minder vrijheid voor grote bedrijven ja. We hebben al gezien hoe maatschappijen ontwricht worden door grote tech bedrijven. Hoe (niet) respectvol ze omgaan met onze data. Alles voor winstbelang en engagement zonder enige morele verantwoordelijkheid. We hebben het hier over regels voor platformen met meer dan 45 miljoen actieve gebruikers in de EU. Niet die ene vriendenwebsite of die ene nieuwe social media start up. Boerenverstand ontbreekt ook bij kinderen. Zelfs bij een hoop volwassenen. Want zoals ook hier te zien, we laten ons graag naaien door deze bedrijven en vallen de EU aan als ze deze miljarden bedrijven proberen te reguleren omdat ze het zelf niet doen.

Zitten hier toevallig nou veel liberalen, die al zwaar in de minderheid zijn, of zijn mensen bang dat ze haatdragende opmerkingen niet meer mogen maken op het internet? En ja, qua digitale rechten en vrijheden zijn er ook wat "enge" plannen vanuit de EU. Maar we moeten nog maar eens zien of die überhaupt wel worden aangenomen. Wat nu rechtsgeldig is, is gewoon goed voor het individu.

[Reactie gewijzigd door snoopdoge90 op 23 juli 2024 01:11]

Zitten hier toevallig nou veel liberalen, die al zwaar in de minderheid zijn, of zijn mensen bang dat ze haatdragende opmerkingen niet meer mogen maken op het internet?
Zo hard zou ik het zelf dan niet willen stellen want bedenk wel erbij dat er ook genoeg mensen tussen zitten die misschien wel afhankelijk zijn van diezelfde bedrijven. Wil daarmee niet zeggen dat daarom die bedrijven maar kunnen doen wat ze willen. Wel denk ik dat daardoor genoeg mensen in een soort van spagaat zijn komen te zitten uit angst voor hun baantje.

Realiteit is wel weer dat op het moment dat zo'n bedrijf te weinig winst maakt dat ze ook hun hand er niet voor omdraaien meteen een heleboel mensen eruit te kieperen.
Zou je misschien wat meer kunnen vertellen over hoe grote bedrijven maatschappijen ontwrichten? Ik heb dat namelijk niet gezien.
Volgens mij doelt hij op de beïnvloeding van verkiezingen, selectieve moderatie/nepnieuws, Cambridge Analytica en meer van dit soort voorbeelden.
Twitter tijdens de arabische lente?
Wat mij opvalt is dat jij een +2 krijgt voor een hele reeks aan insinuaties die je maakt.

Boerenverstand niet bij kinderen? We laten ons graag naaien door deze bedrijven? Liberalen in de minderheid? Bang dat men geen haatdragende meningen kunnen plaatsen? Enge plannen vanuit de EU?

Je beschuldigd degene waar je op reageert op niks inhoudelijks, maar ik vind jouw betoog nog veel stuitender eerlijk gezegd.
Boerenverstand bij kinderen: Als dat er was, was social media gebruik onder kinderen en tieners geen probleem. Realiteit is dat het een hot issue is in de psychologie, en dermate is het probleem ook zo significant dat de politiek er ook boven op zit. Er is heel veel over te lezen.

Liberalen in de minderheid: Excuus, in deze context waar een bedrijf meer vrijheden geniet bedoel ik uiteraard de klassieke / conservatieve stromingen van liberalisme. Niet een sociaal liberaal (die zou in essentie voorstander zijn regulatie voor dat soort grote bedrijven).

Enge plannen: Zie chat control / client side scannen plannen van de EU. Dat raakt met de individuele rechten waar we momenteel van genieten. Persoonlijk denk dat zulke plannen het uiteindelijk niet halen. Er is veel weerstand vanuit organisaties die onze privacy, burger, en digitale rechten vertegenwoordigen.

Bang voor haatdragende meningen uiten: ja, in tegenstelling tot het bovenstaande is dit inderdaad een insinuatie van mijn kant. Het is altijd goed om kritisch te blijven voor onze rechten en vrijheden. Er is echter een trend aan de gang. Ik hou het wel bij een analogie met vaccinatie. Een onderzoeker heeft de taak om kritisch te blijven (peer reviews). De mensen die echter het hardst roepen dat we kritisch moeten blijven... Dat zijn geen wetenschappers. Dat zijn wappies.

[Reactie gewijzigd door snoopdoge90 op 23 juli 2024 01:11]

Het zal je nog verbazen hoeveel boerenverstand en eerlijkheid een kind heeft. Het zijn juist de leugens en verdraaide waarheden van volwassenen die de wereld zo ingewikkeld maken. Juist mijn zoons opvoeden en naar ze luisteren geeft me veel inzichten hoeveel een 6 jarig kind al kan nadenken en dat boerenverstand heeft.

Het zijn juist de volwassenen die de onschuld van een kind corrumperen en het noofzakelijk maakt om kinderen steeds vroeger te wapenen tegen de corruptie van volwassenen.
Inderdaad, ik zou verwachten dat X meer werk heeft dan Google Play aan moderaties. En Google Play heeft ruim 3x zoveel personeel er voor.

Wat mij verbaasd, is dat ze naar het aantal medewerkers kijken, en niet naar hoeveel er gemodereerd dient te worden. Zelfs bij vergelijkbare platformen, hoeft de content niet gelijk te zijn. Ook is tooling niet meegenomen. Met de opkomst van AI (en machinelearning en algoritmes), kan er best veel automatisch zou je denken.

Als je kijkt naar het bericht van 3 dagen geleden zou ik me daar drukker om maken dan wat er hier gemeld wordt.
Het is voor mij moeilijk om te geloven dat Google Play met 18 miljoen reviews in 2022Q2 in totaal 7.319 moderators nodig heeft. Ik kan de nummers voor YouTube niet zo snel vinden, maar aangezien alleen BTS - Dynamite in drie jaar tijd al 16 miljoen reacties heeft ontvangen denk ik dat die 16.974 moderators óf heel weinig óf heel veel is.
Klopt wat je zegt, de getallen die genoemd worden in het artikel zeggen sowieso niet veel, het zijn bierviltjes "analyses" en stemmingmakerij.

Het is onzin om over aantallen mensen te praten, betere metric zou zijn aantal FTE.

Leuk dat google play meer personen op moderatie inzet maar als dat allemaal parttimers (bijvoorbeeld 0,2 FTE) zijn en bij X allemaal fulltimers zijn ben je appels met peren aan het vergelijken.

X kenmerkt zich, net als Tesla en SpaceX op zo efficiënt mogelijk werken. Algoritmes en A.i inzetten om mensenhanden en lopendeband werk minimaliseren is iets waar continue naar wordt gestreefd.

Hier zou een site als tweakers ook over moeten praten; de techniek, niet over het aantal handjes dat lopendebandwerk doet, staat een uitleg over in de bron ;
MACHINE LEARNING MODELS

We use combinations of natural language processing models, image processing models and other sophisticated machine learning methods to detect potentially violative content. These models vary in complexity and in the outputs they produce. For example, the model used to detect abuse on the platform is trained on abuse violations detected in the past. Content flagged by these machine learning models are either reviewed by human content reviewers before an action is taken or, in some cases, automatically actioned based on model output.


HEURISTIC MODELS

Heuristics are typically utilised to enable X to react quickly to new forms of violations that emerge on the platform. Heuristics are common patterns of text or keywords that may be typical of a certain category of violations. Pieces of content detected by heuristics may also get reviewed by human content reviewers before an action is taken on the content. These heuristics are used to flag content for review by human agents and prioritise the order such content is reviewed.

[Reactie gewijzigd door procyon op 23 juli 2024 01:11]

Google Play Moderators lichten volledige apps door naar:
- Functionaliteit (Werkt deze überhaupt)
- Scam app (Ja/Nee)
- Bevat deze illegale content (Wereldwijd of in bepaalde regio's)
- Is de app kindvriendelijk? (Ja/Nee)
(.. en vast nog wat andere zaken)

Daarnaast zal je vast ook nog moderators hebben van een hoger kennisniveau die deze apps doorlichten of deze geen malware binnenhaalt of andere ongewenste zaken verricht.

Geloof dat het diepgaandere gebeurt bij nieuwe apps, maar zal ook hier en daar bij updates van apps gebeuren, al geloof ik niet dat ze dit altijd doen.

Dat is wel eventjes wat meer werk dan een paar regels tekst lezen uit een post op X lijkt mij.
Met de opkomst van AI (en machinelearning en algoritmes), kan er best veel automatisch zou je denken.
Ik kan het mis hebben, maar zijn er geen regels in de GDPR o.a. die dit niet toelaat of in ieder geval aangeeft dat er altijd een menselijke beoordeling moet plaatsvinden ongeacht de uitkomst van dit soort content scans?

[Reactie gewijzigd door Verwijderd op 23 juli 2024 01:11]

Dit is een recht dat je zou kunnen afdwingen met authoriteit persoonsgegevens in nl en De gegevensbeschermings authoriteit in be.

Je hebt daar 2 kanten aan langs de ene kant kan je vragen dat er altijd mimstens 1 natuurlijk persoon in de loop zit maar de volgende is minstens even interessant.

Recht om je te verzetten tegen de verwerking van je persoonsgegevens en tegen automatische beslissingen
Dit zat ik me ook af te vragen, het is toch een beetje een appels met peren verhaal?

Op X worden toch voornamelijk tekstberichten met max 180 karakters gepost, die lijken me makkelijker en veel sneller bovendien, te modereren dan bijvoorbeeld videos op youtube.
Het was al tijden 280 karakters, maar het is sinds ergens dit jaar 25000 karakters, dat kunnen dus complete essays zijn. Plus je kunt 3 uur durende video's uploaden.

Bron: https://help.twitter.com/en/using-x/x-premium
Minder boerenverstand zou de wereld goed doen.

Iedereen denkt van alles te weten en komt met simpele oplossingen voor complexe problemen. Daardoor hebben we ook veel problemen.
Mensen of organisaties die beweren complexe problemen te kunnen voorzien van eenvoudige oplossingen dienen bijzonder sterk gewantrouwd te worden! En dan druk ik mij zeer diplomatiek uit want ik heb nog wel wat meer termen beschikbaar voor dat soort types.
Dat zijn idd of populisten of charlatans en maar heel zeldzaam daadwerkelijke genieen.
\
Er is gewoon amper moderatie op X/twitter. Dat is aan alles te merken, aan de spam, het nepnieuws. En dit zorgt ervoor dat de inhoudelijke posts ondergesneeuwd raken, met als gevolg minder 'vrijheid' voor de gebruiker.
Ik lees een mening, kan je dit ook staven met feiten? Ik heb ik mijn feed namelijk geen nep nieuws en geen spam. Maar ik ben dan ook selectief in wie ik volg.

In het artikel wordt ook gesproken over aantal mensen die modereren, zijn dat allemaal 1 FTE's of allemaal 0,2 FTE parttimers? Onduidelijk. Ook bij de cijfers van de concurrenten. Praten over 'koppen' in plaats over FTE is dus nietszeggend.

In de bron die genoemd wordt in het artikel Gaat X ook in op de verregaande automatisering in moderatie. Systemen zijn heel goed in staat dit te doen, sneller en effectiever dan mensen. Als deze systemen efficiënt en effectief werken heb je alleen voor de twijfelgevallen een mens nodig, zo is het voor AI soms moeilijk te herkennen of iets als satire geschreven is of serieus geschreven is.

Vind ook dat een (techniek) site als tweakers meer de focus zou moeten leggen op de gebruikte techniek in plaats van de focus op aantallen mensen in dienst wat weer niets zegt.

Een AI is namelijk heel goed in staat te modereren, kijk maar naar chatGPT, deze AI weet precies welke vragen hij niet mag beantwoorden..

Dit zegt x zelf over de gebruikte techniek. Hier zou een site als Tweakers over moeten schrijven. Laat het kortzichtige praten over aantallen handjes alsjeblieft over aan nu.nl?
MACHINE LEARNING MODELS

We use combinations of natural language processing models, image processing models and other sophisticated machine learning methods to detect potentially violative content. These models vary in complexity and in the outputs they produce. For example, the model used to detect abuse on the platform is trained on abuse violations detected in the past. Content flagged by these machine learning models are either reviewed by human content reviewers before an action is taken or, in some cases, automatically actioned based on model output.


HEURISTIC MODELS

Heuristics are typically utilised to enable X to react quickly to new forms of violations that emerge on the platform. Heuristics are common patterns of text or keywords that may be typical of a certain category of violations. Pieces of content detected by heuristics may also get reviewed by human content reviewers before an action is taken on the content. These heuristics are used to flag content for review by human agents and prioritise the order such content is reviewed.

[Reactie gewijzigd door procyon op 23 juli 2024 01:11]

Een AI is namelijk heel goed in staat te modereren
Niet dat ik voorstander ben van extra moderatie, maar AI is dit in ieder geval met zekerheid niet! AI modereert gewoon op basis wat de mens de machine heeft meegegeven, niets anders. Laat dat woordje AI dan ook maar weg, zo slim en smart is het allemaal niet. Vooral marketing.
AI modereert gewoon op basis wat de mens de machine heeft meegegeven, niets anders.
Exact.

Dus als je dat goed inregelt, zal de AI dat precies zo uitvoeren. Net zoals menselijke moderators guidelines krijgen hoe te modereren. Zelfde concept.

Of is je stelling dat Tech bedrijven naar jouw mening niet in staat zijn AI's goed in te regelen?

Denk dat dat namelijk enorm meevalt, zoals gezegd is het inderdaad voor een AI moeilijk om satire te onderscheiden van een serieus bedoeld bericht dat mogelijk wel over bepaalde grenzen heen gaat maar dat zijn edge cases waar juist de satire relatief vaak ten onrechte als grensoverschrijdend of ongewenst zal worden beoordeeld.

Het resultaat zou dan zijn dat de AI teveel false positives genereert en dus te veel schrapt in plaats van te weinig, wat uiteraard ook kwalijk is maar dit hele nieuwbericht gaat over de algemene perceptie dat X helemaal niet voldoende in staat zou zijn ongewenste content te weren. Een bewering waar ik nu onvoldoende bewijs voor zie.

Maar als je je bewering wat kan ophardden met wat bronnen die refereren naar een gedegen onderzoek, dan lees ik die graag.
Ik zie hier alleen een bepaalde mening - de “meer spam, nepnieuws”, ik zie het niet op X.
Maar misschien volg jij gewoon de vreemde accounts die dit wel doen. Dan moet je dat zelf fixen, en niet gaan lopen janken dat je daarvoor een moderator nodig hebt (klinkt een beetje als basis school gedrag).

Juist de vrijheid van meningsuiting is beter geworden sinds Musk aan het roer staat. Óók de onwelgevallige meningen mogen nu besproken worden (denk aan onderwerpen zoals transseksualiteit en immigratie), zonder dat er een moderator met een harde plasser voor “Right speak” dingen loopt weg te halen.

Maar ik zie dat je zelf dus de voorkeur geeft om anderen voor jou te laten modereren, en er genoeg vertrouwen in hebt dat die altijd de (voor jouw aangename) uitkomsten levert.
Beetje lui, en naïef.
Boerenverstand? Ik denk dat die term de laatste jaren een wat andere betekenis heeft gekregen.
Je klinkt als een vertegenwoordiger van een groot bedrijf die regeltjes maar lastig vindt. En boerenverstand is meestal niet de oplossing voor complexe problemen. Stond pas nog een interessant artikel over in 1 van de kranten. Als wij dingen op ons boerenverstand of gezond verstand gaan doen missen we te veel details. Onze hersens zijn daar gewoon niet zo goed in.
Jij denkt dat betaalde moderatoren op social media tijd hebben om posts te beoordelen die niet hun politieke wereldbeeld passen en die censureren? Die zijn de hele dag alleen maar onthoofdingen, moorden, gruwelijke ongelukken, kinderporno en revenge porn aan het modereren... Dat heeft niks met boerenverstand of vrijheid te maken.
Vrijheid eindigt waar de vrijheid van een ander begint. Dus ja, een regelloze omgeving waarin alles gezegd wordt betekent meestal dat de vrijheid van minderheden in het geding is en tegen haatdragende en discriminerende taal moet hard opgetreden worden.

En natuurlijk is er verschil tussen platformen. De een is groter of kleiner en het modereerwerk van Google Play ziet er anders uit dan modereren op X waarin het ene platform ook intensiever gemodereerd moet worden dan het andere platform.
Meer moderators hoeft niet beter te zijn. Duidelijke regels en een goed algoritme of AI functie kunnen al heel wat werk schelen. Dat kan tot minder vrijheid leiden, maar in heel veel gevallen is dat gemakkelijk te omzeilen door het bericht in wat nettere bewoordingen opnieuw te plaatsen.
Als een startup gaat beginnen met een sociaal medium dan hebben ze het wel lastig. Hoe doet (of deed) een "Be Real" zoiets? Want die hadden op eens een flinke groeispurt.

Een van de punten die sommige mensen toeschrijven aan de grote techbedrijven, wanneer die zeggen reguleer ons, is dat die grote bedrijven dat kunnen betalen. Startups en andere kleine concurrerende spelers kunnen dat totaal niet bekostigen.

[Reactie gewijzigd door SeenD op 23 juli 2024 01:11]

Startup met meer dan 19miljoen gebruikers?
45 miljoen dagelijkse gebruikers
In de eu? Daar gaat het natuurlijk over.
In de EU inderdaad.
Ik denk dat die startups op geen hand te tellen zijn :)
Matrix heeft minstens 60 miljoen gebruikers voor een fractie van de kosten, zonder winstoogmerk. Dat is federated instant messaging, dus best wel intensief. Als dat lukt voor IM, dan lukt dat ook wel met de Fediverse voor social media.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 01:11]

https://softwarezaken.nl/2022/09/digital_services_act/

Onderin dit artikel wordt verteld dat micro en kleine ondernemingen niet aan alle eisen te hoeven voldoen.
Maar indien je snel groeit (zoals Be Real) zal je inderdaad meer moeten monitoren etc.
Echter, Be Real staat nu nog niet op deze lijst met grote onlineplatforms, dus heeft minder eisen om aan te voldoen.
Dat moet je gewoon meenemen in je business case als je wat nieuws gaat doen. Als jij als start-up elektronische producten of voedingsproducten gaat maken houdt je toch ook rekeningen met de geldende wettelijke kaders?
De term startup is hier wellicht niet meer helemaal op z'n plaats.
Zoals velen anderen al zeiden - dat je de moderatoren niet in dienst hebt, betekent niet dat ze niet voor je werken. Er worden heel veel moderatoren via bureautjes (Jooble, Modsquad, Indeed) gedetacheerd. Dit om arbeidsvoorwaarden van verschillende landen te omzeilen en zodat het social media platform schuld kan afschuiven, mocht er iets misgaan.

De getallen van de dienstverbanden in het artikel vertellen nier het hele verhaal.
Ik denk niet dat je 'in dienst' hier kan zien als 'werknemer van X', een ZZP er of gedetacheerde is ook 'in dienst' = voert diensten uit voor dat bedrijf.

Het lijkt mij logisch dat je in zulke verslagen gewoon aan moet geven hoeveel FTE er mee bezig zijn, ongeacht via wat voor omwegen ze betaald of ingehuurd worden (om allerlei smerige redenen)
Wat is er smerig aan om werk te geven aan onderaannemers?
Dit werk is psychologisch zwaar, probeer je eens voor te stellen wat je allemaal te zien krijgt. Het is smerig om dit uit te besteden aan bedrijven (in landen) waar daar geen adequate begeleiding voor is.

Volgens mij zouden werkdagen kort moeten zijn en afgesloten moeten worden met een checkup door een goede psycholoog, na iedere dienst. Ik denk niet dat iemand daar het geld voor over heeft, zeker derde partijen niet.
Is het smerig dat ze uitgeven of is het smerig dat er wettelijke basis is om dit werk uit te geven aan z'n landen?
Contractwerkers zijn ook gewoon opgenomen in deze cijfers...
Deze cijfers zijn gebaseerd op wat de platforms zelf hebben gerapporteerd. Uiteraard hebben zij de externe moderators ook meegeteld; dat is in hun belang. Het is ook in hun belang om deze cijfers zo positief mogelijk te presenteren, dus de rapportage zal eerder aan de hoge kant zijn dan aan de lage.

Het zijn gewoon echt zulke kleine aantallen moderators, voor miljoenen stukken content per dag per platform. Niet alleen op X maar ook op alle andere. Hoeveel moderators er zouden moeten zijn weet ik niet, maar er zijn een aantal wettelijke zaken waar platforms een "best effort" op moeten leveren, plus honderden regels die de platforms zelf opstellen in hun eigen voorwaarden. Ongeacht of je een schoner of minder schoon platform wilt: een redelijke hoeveelheid moderatie is altijd nodig, alleen al vanwege die wettelijk vereiste best effort tegen kp, terrorisme en dergelijke. Plus natuurlijk spam, waar elk platform mee doodgegooid wordt (daar zal de automatische detectie een hoop doen lijkt me).

De handhaving komt vooral van automatische moderatie, met hier en daar een menselijk oog (meestal nadat de content al door velen is gezien en gemeld). In bepaalde talen is er nagenoeg geen menselijk toezicht; zelfs voor de EU is moderatie op X meer dan 90% Engelstalig. Ik verwacht dat content uit niet-Engelstalige landen eerst door een vertaler gaat zodat Engelstalige moderators ernaar kunnen kijken. Kennis van lokale problemen is er dan amper. En hoe goed het Engels is van zo'n moderator is ook de vraag, want vele zitten in lagelonenlanden in praktische sweatshops te werken.

De werkelijkheid over sociale media is: een zo net mogelijke reputatie houden voor adverteerders, terwijl je zo weinig mogelijk doet aan werkelijke moderatie. Echt redelijke menselijke moderatie kan het verdienmodel niet dragen; er wordt per gebruiker per dag te weinig verdiend aan de advertenties om een groot platform verantwoord te kunnen uitbaten. Dus gebeurt het al vanaf het begin onverantwoord, op Twitter/X en de andere groten. Alle problemen worden afgeschoven op de samenleving, van verslaving tot wraakporno tot verkiezingsvervalsing en complete burgeroorlogen die georganiseerd worden op de platforms (in een taal waar ze waarschijnlijk nul kennis van hebben). Het is een extreem schrale bedrijfsvoering in verhouding tot de centrale positie en verantwoordelijkheid die deze platforms hebben.
Als ik het goed begrijp bepaalt Europa dus eigenlijk indirect via de DSA hoeveel moderators een social media platform moet hebben terwijl zij bepalen hoeveel moderators je moet hebben om aan de DSA te voldoen op basis van de hoeveelheid moderators die je concurrenten hebben.
"Er is een belangrijk aspect van de DSA en dat is groepsdruk", zegt het EC-lid
Heeft een platform meer moderators dan een ander platform dan kan dus nu de Europese Commissie afdwingen dat een bedrijf meer moderators in dienst gaat nemen die de regels van DSA gaan handhaven.

Stel jij hebt als X genoeg aan 2294 moderators, misschien heb jij wel betere automatische contentmoderatie dan je concurrentie, dan is het toch te gek voor woorden dat je er meer aan moet gaan nemen omdat de Europese Commissie je daartoe dwingt omdat je anders volgens hen niet aan de DSA voldoet?

Ik was al geen fan van de DSA en zeker dankzij dit soort nieuwsberichten weet ik weer waarom. Om over de mogelijke koppeling en integratie van het inmiddels onvermijdeijke eID in de DSA maar niet te beginnen.
Ik vond die opmerking ook een beetje raar. De DSA eist dat jij inschat wat voor risico's je creëert met je platform en dat je adequate moderatie en zo inricht om die risico's te managen. Een fanfic platform heeft hele andere risico's dan een politiek discussieplatform, daar ga je dus niet met één getalsmatige norm uitkomen.
Goede toevoeging. Er spelen inderdaad veel teveel variabelen om zoiets te kunnen zeggen.

De content speelt een rol, het medium speelt een rol, om maar niet te beginnen over user-moderatie, AI moderatie, en allerlei andere vormen van niet moderator afhankelijke moderatie die daar dan weer bijkomen.

Neem dan nog dat er vast nog meer variabelen zijn die ik, als Tweakers lezer en best ok tech nerd zelfs niet weet. Denk dat we er veilig vanuit kunnen gaan dat dit anonieme EC-lid die ook niet weet.

Het voelt voor mij een beetje alsof de EC de pijlen op X heeft gezet en excuses zoekt om via de DSA meer controle over het platform te krijgen. De toekomst zal het zeggen.
Ik werk bij een social media platform en wij hebben veel moderatoren in dienst (en vergelijkbare functies) die niet veel te doen hebben. Mijn werkgever snapt heel goed, zoals dit artikel nogmaals bewijst, dat de aantallen belangrijker zijn dan de resultaten.
Nu is de spam op twitter/x ook niet leuk meer. "Voor jou" en tag-spam is ziek/misselijk makend. Comment en follow/like spam zit vol met crypto/onlyfans volk.

Enige wat nog wel interessant is zijn de accounts die je direct volgt.
Maar is dat het nog wel op Instagram? Of Youtube? Die platformen hebben minstens evenveel last van spam.

Pak dat probleem bij de bron aan, ga achter botfarms aan oid. Ga niet voor tech bedrijven bepalen hoeveel moderators zij moeten hebben op basis van hoeveel moderators de concurrent wellicht heeft.
De wrede/ranzige posts op twitter/x zijn wel van andere proporties. Maar de standaard "spam" onder posts is idd vergelijkbaar.

Dat vanuit de overheid wordt bepaald hoeveel moderators ze moeten hebben, en wat desinformatie is ben ik ook geen voorstander van. Zeker dat laatste, hoe twitter dat heeft opgelost met community-notes vind ik weer erg tof. Juist de verscheidenheid van meningen en inzichten maakt twitter wel cool
Zolang de overheid zich niet met mening maar met veiligheid bezig houdt, is er niks aan de hand. Het lijkt me dat aanzetten tot haat of geweld op X net zo weinig plek mag hebben als op het Malieveld.

Belangrijk is dus vooral waarop wordt gemodereerd; ja, de balans is lastig: wat de een opvat als ongezouten mening, kan een ander als belediging ervaren. Waar ligt die grens?
Van mij mocht de overheid zich afgelopen jaren ook wel wat minder met veiligheid bezig houden, half Nederland had smetvrees ;)
ik mis ook die nuance van community-notes (bij X.com) en het effect en potentieel daarvan, want een paar moderatoren extra is geen garantie op betere kwaliteit content als de verhouding met het aantal content producerende gebruikers nog steeds een druppel op een gloeiende plaat is.
Maar is dat het nog wel op Instagram? Of Youtube? Die platformen hebben minstens evenveel last van spam.
Dat een ander iets niet goed doet (zoals Youtube), is geen vrijbrief voor (in dit geval) X om dan maar hetzelfde te gaan doen...

Als je buurman in de sloot springt, doe je dat dan zelf ook meteen maar?

Het zou een mooie puinhoop worden als bedrijven maar de wet zouden overtreden, "want een ander doet dat ook". Dat moet je als maatschappij écht niet willen, gezien de potentiele gevolgen daarvan.
Het zou een mooie puinhoop worden als bedrijven maar de wet zouden overtreden, "want een ander doet dat ook". Dat moet je als maatschappij écht niet willen, gezien de potentiele gevolgen daarvan.
Ik geef aan dat er op ieder platform ontzettend veel spam te vinden is. Platformen die volgens de EC meer moderators hebben vallen hier ook onder. Dus welke wet wordt hier dus overtreden? Het hebben van minder moderators dan je concurrentie?

Dat is geen wet, dat is de mening van een anoniem EC-lid.
Ik zie onder YouTube en Instagram berichten anders niet heel tijd engagement farmers vragen hun berichten te liken, etc.
Op Instagram is de reclame, en met name het soort reclame, toch echt een stuk minder irritant. Zeker na de overname door Musk zijn het op X/Twitter toch een beetje de afvoerputjesbedrijven geworden die adverteren terwijl je op Instagram toch de meer reguliere/gerenommeerde bedrijven ziet adverteren.
Dat klopt mensen die je leuk vindt volgen en vooral niet door klikken, De reacties worden met de dag erger.
Ik denk dat X inmiddels het punt van moderatie voorbij is. Het is 99 procent bots en 'echte' mensen die er lol in hebben om zoveel mogelijk te trollen, en 1% verdwaasde boomers die denken dat wat er geschreven wordt serieus/echt is.
Boomers? Een boomer is niet later dan 1955 geboren. Ik denk niet dat de boomers die 1% bij lange na niet gaan halen.
1946-1964, maar idd je kan ook nog de oudere Gen-X'ers noemen die niet zijn opgegroeid met internet.

[Reactie gewijzigd door Dreamvoid op 23 juli 2024 01:11]

idd, babyboomer is tot 1955. Maar dan nog denk ik niet dat ze die 1% halen :-)
Gen-X heeft het hele internet gebeuren juist bewust meegemaakt
De leden van de Europese Commissie hopen dat X de druk zal voelen om het aantal moderators te verhogen om zijn rivalen in te halen, zegt de ambtenaar. "Er is een belangrijk aspect van de DSA en dat is groepsdruk"
Fraai staaltje wensdenken.Geen van deze bedrijven laat hun beslissingen afhangen van dergelijke kinderlijke redeneringen.
Hoe verhouden tweets, comments en videos zich tot elkaar wat betreft de hoeveelheid tijd het kost om te ze beoordelen? (inclusief gebruik van tools, maar ik kan me niet voorstellen waarom die van een bedrijf heel veel beter zouden zijn dan van een ander)

Zijn twitteraars zulke fanatiekelingen dat ze bij iedere klacht een boekwerk van 10 pagina's schrijven om uit te leggen waarom ze door 128 tekens op hun tenen getrapt zijn, terwijl tiktokkers puur uit wrok met 1 klik en zonder verdere uitleg filmpjes van een klasgenoot die populairder is rapporteren?

Maar bovenal: hoeveel gebruikers hebben de diensten en hoeveel content en hoeveel klachten genereren die!? Het lijkt me niet onwaarschijnlijk dat er 3x zoveel getiktokt wordt als getweet.

Volgens mij heeft iemand het college SMART doelen formuleren gemist, en peer-presurre om een bedrijf te motiveren? Dat is nog een idioter idee dan zelf-regulering. |:(

Is het nu een teken van valse neutraliteit in het doorgeven van het nieuws dat zowel Reuters als Tweakers hier niet een redactionele opmerking bij plaatst hoe dom/onlogisch dit is (of uitlegt hoe wij dit allemaal verkeerd zien, want zoo dom kunnen die DSA mensen toch niet echt zijn?(
Wat ik mis in deze discussie is de nogal grote invloed van sociale media op mensen. Kijk naar het tijdperk Trump, de groei van complot denkers en de informatie oorlog die staten via hun “bloggers” voeren. Ten tijden van Corona zag je de meest bizarre complotten bovendrijven. Daarnaast kan het tot psychische problemen leiden: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7364393/.

Wat dat betreft, vind ik de komst van fact-checkers and moderators wel heel belangrijk. Of X zich aan de wet houd weet ik niet. Maar dat er een hoop onzin en agressie op staat, lijkt me duidelijk.
Tsja X legt niet op elke (rechtse) reactie zout, daarnaast blijken uit deze gegevens ook niet wie de technologie beter op orde heeft. Kan best zijn dat X veel beter weet welke reacties wel of niet verwijderd moeten worden.

Op dit item kan niet meer gereageerd worden.