TikTok bevestigt ontslag van 300 moderators in Amsterdam

TikTok heeft bevestigd dat het bedrijf driehonderd moderators in Amsterdam heeft ontslagen. Het modereren van Nederlandstalige video's gebeurt nu elders ter wereld, zo zegt de videoapp.

Het ontslag gebeurde in september, meldt NRC. De driehonderd moderators waren verantwoordelijk voor het veilig houden van TikTok in Nederland door meldingen van gebruikers te bekijken en waar nodig video's te verwijderen en accounts te schorsen. De moderatie gebeurt nu vermoedelijk meer met kunstmatige intelligentie.

Het inzetten van AI voor moderatie gebeurt bij socialemediabedrijven al jaren, maar in veel gevallen kunnen mensen onderdelen als culturele context beter beoordelen. Dat is de reden dat veel socialemediabedrijven leunen op moderators uit landen zelf. Hoe TikTok moderatie van Nederlandstalige video's doet, is onduidelijk.

Door Arnoud Wokke

Redacteur Tweakers

14-10-2024 • 14:26

94

Submitter: EEstar

Reacties (80)

80
78
33
1
0
38
Wijzig sortering
Wat vreemd dat het wettelijk dus blijkbaar geen vereiste is om de zaken die op je eigen platform worden geflagged ook daadwerkelijk door mensen te laten beoordelen.
Uiteindelijk zullen wel veel van de dingen die uit de hand lopen gewoon extra op het bordje van de politie belanden.
IMO valt het wel mee hoe vreemd het is.

De verplichting is niet dat je berichten door mensen moet laten controleren.
De verplichting is dat je de berichten op de juiste manier beoordeeld.

Juist door niet vast te leggen "moet door mensen" biedt je veel meer vrijheid in de regelgeving. Het lastige stukje is dan wel "de juiste manier" definiëren en het dan ook zo op te schrijven dat het (redelijk) klopt, want dit soort bedrijven doen niet de geest van de wet, maar de letter.

Als AI dit goed kan, wat ik een beetje betwijfel maar dat is m'n punt niet, dan waarom niet? Als je i.p.v. 300 mods maar een paar mensen nodig hebt om de AI zo goed mogelijk te krijgen, zonder controle kracht te verliezen kan dit een hele mooie stap zijn.

Dingen waar we dan moeten opletten is hoe een dispuut wordt behandeld en dat het inzichtelijk moet zijn waarom iets eg verwijderd is (maar daar is EU regelgeving ook al aadig goed in het worden!).

[Reactie gewijzigd door Martijn.C.V op 14 oktober 2024 14:44]

Ik vraag me af hoe dit juridisch zit.
Schiphol mag ook haar airtrafic controllers niet zomaar vervangen met Ai, zelfs als het de inschatting maakt dat Ai een stuk veiliger zou zijn.
Dit is weliswaar geen luchthaven, maar het gaat wel om veiligheid, en in sommige gevallen misschien om leven en dood situaties, stalking, uitbuiting, doxing etc.

Dat je geen totaal onbeheerde beesten bende online mag houden moet wel ergens staan in de wet, en dus is het waarschijnlijk wettelijk wel een verplichting mensen de mogelijkheid te geven schadelijk materiaal te laten verwijderen. Een festival dient ook beveiliging in te huren anders zijn ze in een rechtzaak gauw de klos als het uit de hand loopt.
Maar in tegenstelling tot vliegverkeer, zou TikTok bij wijze van spreke alles waar ook maar een dispuut over is gelijk offline mogen halen.

Ze zijn nog altijd zelf eigenaar van hun eigen platform, en als ze vanaf morgen besluiten geen katten meer toe te laten dan heb je als gebruiker pech. Zelfde met dispuut over dingen, als de AI relatief veel false-positives heeft, oftewel te vaak wordt iets geflagged als onjuist of beoordeeld als onjuist, dan is dat prima voor een platform als TikTok.
Dat is waar, in die zin gaat de luchthaven analogie niet op.
Toch vraag ik me af of TikTok het op die manier gaat aanpakken.
Bovendien heeft @Martijn.C.V natuurlijk gelijk "dat het inzichtelijk moet zijn waarom iets eg verwijderd is".
En soms, afhankelijk van wat voor soort algoritme er wordt gebruikt, kan Ai onmogelijk bij zichzelf te raden gaan hoe het tot een conclusie kwam.
Ai als gereedschap voor mensen die het modderaten doen is iets anders dan Ai aan het roer, ook juridisch denk ik.
dat het inzichtelijk moet zijn waarom iets eg verwijderd is
Op welke grond moet dat inzichtelijk zijn? Het platform heeft de plicht om bepaalde dingen te weren vanuit wetgeving. Hoe ze dat doen en met welke redenatie kan je mijn inziens moeilijk afdwingen. Hooguit controleren of het wel (goed) gebeurt. Heel veel meer dan een bericht dat je post is verwijderd want deze is in conflict met de gebruikersovereenkomst van het platform zal je niet krijgen.

Als ze dit met AI doen vermoed ik dat er een filtering plaatsvind en dat twijfelgevallen bij de mens uitkomen. Zeker gezien zaken als nuance, sarcasme en satire snel verkeerd opgevat kunnen worden. Ik zou hier uit interesse wel eens een onderzoek naar willen zien. Wat is beter in moderatie regels volgen een AI of een mens, met zo veel content. Ik zou het geestdodend vinden om 8 uur lang achter elkaar TikTok filmpjes te kijken en beoordelen. Wat de moderatie kwaliteit niet ten goede komt.
Ik denk dat hij bedoelt dat wanneer een video verwijdert wordt, de eigenaar van die video een reden moet krijgen waarom de video verwijdert is, en niet gewoon een bericht zoals:"deze video voldoet niet aan de algemene voorwaarden."

Dit is nodig omdat regelmatig video's onterecht verwijderd worden en je als gebruiker toch een kans moet krijgen om te laten zien dat de verwijdering idd onterecht was. Wat dan weer nuttige data oplevert voor de AI. Want als een AI niet continu bijgetraint wordt, gaat die op den duur hele rare dingen doen.
Overigens wordt aantonen dat iets onterecht verwijrdt is natuurlijk een stuk moeilijker als alles door een AI gebeurt. (tenzij er ook weer een andere AI ontwikkelt wordt mss? Maar ik denk niet dat we daar technisch nu al zijn. ;) )

[Reactie gewijzigd door Robbedem op 14 oktober 2024 15:46]

Ik zou het geestdodend vinden om 8 uur lang achter elkaar TikTok filmpjes te kijken en beoordelen. Wat de moderatie kwaliteit niet ten goede komt.
Ik denk dat dit het voordeel van AI is en die kan het zelfs 24/7 doen. Alleen als er een meningsverschil is en de klager krijgt gelijk, dan is dit weer een zaak die je in kan voeren in je AI. Want dat is ook een voordeel: Je hoeft het niet aan elke moderator apart mee te delen en dan hopen dat ze het lezen,
Waarom denk je dat? Een essentieel onderdeel van de DSA is nu juist dat dat niet mag. Het punt is dat online platforms niet aansprakelijk zijn voor de content op hun platform, mits ze aan de eisen daarvoor voldoen. En één van die eisen voor niet-aansprakelijkheid is een goede moderatie. "Alles klakkeloos verwijderen" is geen goede moderatie.

Een verbod op katten mag wel, en is niet eens onredelijk (in de context van een hondenforum bijvoorbeeld).
Ik ben het daar niet mee eens.

Je mag klakkeloos verwijderen alleen moet je het duidelijk maken dat je het klakkeloos doet. Je zou gewoon luid en duidelijk dat je bepaalde profielen verwijderd via RNG. Dit mag. Zolang je er transparant over bent. Uiteraard is dit zeer hypothetisch want welke SM platform zou dir nou aankondigen?
Je mag natuurlijk een opinie hebben over hoe de wet zou moeten zijn. Feit is dat de wet nu zo'n RNG delete verbiedt (art 14 lid 4 DSA)
Dat is de interpretatie van Lid 2, Artikel 14 niet. Inhoud mag gewoon worden verwijderd en hoeft niet per se illegaal te zijn. Artikel 14 gaat over het verwijderen van Illegale inhoud en beschrijft nergens onder welke omstandigheden inhoud in zijn algemeen mag worden verwijderd en hoe dat precies moet gebeuren. Het gaat slechts over dat wanneer er illegale inhoud wordt verwijderd voor de reden illegaliteit, dat je aan de volgende zaken moet voldoen. Je mag dus niet claimen, " Illegale inhoud zonder verdere uitleg" maar je mag wel gewoon zeggen "stomme inhoud" , " inhoud waarmee ik het oneens ben" , "inhoud die we per RNG verwijderen" zonder verdere uitleg. Tevens acht ik verdere discussie zinloos en laat ik het over aan de juristen in een rechtbank.

Artikel 14
De in lid 1 bedoelde mechanismen vergemakkelijken de indiening van voldoende
nauwkeurige en gepast omschreven berichten, op basis waarvan een zorgvuldige
marktdeelnemer de onwettigheid van de betrokken inhoud kan identificeren. Hiertoe
nemen de dienstverleners de nodige maatregelen om de indiening mogelijk te maken
en te vergemakkelijken van berichten die elk van de volgende elementen bevatten:
(a) een verklaring van de redenen waarom de persoon of entiteit van mening is dat
de betrokken informatie illegale inhoud is;
(b) een duidelijke vermelding van de elektronische locatie van die informatie, met
name de exacte URL of URL’s, en, waar nodig, bijkomende informatie die de
identificatie van de illegale inhoud mogelijk maakt;
(c) de naam en een e-mailadres van de persoon of entiteit die het bericht indient,
behalve bij informatie waarvan wordt geacht dat zij een van de in artikelen 3
tot en met 7 van Richtlijn 2011/93/EU beschreven strafbare feiten omvat;
(d) een verklaring van de overtuiging te goeder trouw van de persoon of entiteit
die het bericht indient dat de informatie en beweringen hierin nauwkeurig en
volledig zijn.

[Reactie gewijzigd door Littlemarc op 15 oktober 2024 13:35]

Er is tot nu toe niet aantoonbaar gemaakt dat geautomatiseerde moderatie even goed of beter is dan personen. Eerder juist zeer zwak.

Daarbij is afgelopen jaar tiktok vanuit de EU ter verantwoording geroepen op gebied van zowel transparantie, hun modereren en hun algoritmes. Allemaal omdat het bedrijf nauwelijks duidelijkheid geeft hoe ze genoeg doen. Dan tegelijk honderden moderators ontslaan en opzettelijk geen duidelijkheid willen geven op welke manier ze deze vervangen hebben is niet zomaae het voldoen aan de wettelijke verplichtingen. Eerder juist een poging om zo min mogelijk verantwoordelijkheid te nemen om winst winst te maken zolang het kan.
Nee, als het geld oplevert door het door AI te laten doen, is het ineens niet zon issue meer wie het beoordeelt. AI zal denk ik in alle gevallen de context van een foto missen, waardoor iets onschuldigs er misschien wel verdacht uit ziet voor het systeem.

Mensen zijn in dit geval nog wel beter in het beoordelen vermoed ik.
ik denk dat ze zich juridisch gezien op glad ijs bevinden. Als de ai niet in staat is om zaken correct te modderaten dan maakt tiktok zich al gauw schuldig aan nalatigheid.
een festival dat te weinig bewakers inhuurt, hoe goed ook de door ai gestuurde detectie poortjes waren, is wel degelijk verantwoordelijk voor een gebrek aan veiligheid op het festival.
Nee. Een festival is pas aansprakelijk als rederlijkerwijs te voorzien was dat er te weinig bewakers waren. Besluiten de hooligans van Ajax en Feijenoord 's morgens om jouw festival te kiezen voor een vechtpartij, dan is dat niet te voorzien en dus niet jouw schuld.
De AVG verbiedt systeembesluiten zonder noemenswaardige menselijke tussenkomst, wanneer dit besluit serieuze gevolgen kan hebben voor de betrokkenen.

Als er alleen posts offline worden gehaald voldoe je daar denk ik niet aan. Als je account ook automatisch gebanned wordt wel. En dan komt ook de Digital Services Act om de hoek kijken.
Ah, ja dat klinkt ook logisch.
Dank voor de opheldering.
Ik vind het juist vreemd dat je denkt dat mensen die moeten doen, het enige wat telt is het resultaat. Je gaat er toch ook niet vanuit dat je brood tegenwoordig nog met de hand gekneed is?

Dat zaken zo uit de hand lopen dat justitie erbij moet komen kijken, is volgens mij een heel andere discussie, die bovendien niet met menselijk modereren te voorkomen is?
Het is wel een vereiste voor de grote platforms (anders zijn ze zelf verantwoordelijk voor de uitingen die op het platform worden gedaan!) en het gebeurt ook nog wel, alleen nu in een of andere lage-lonen land.

Overigens heeft Twitter maar 1 moderator voor de Nederlandse markt. Dat zie je er ook wel aan af :')

[Reactie gewijzigd door Llopigat op 14 oktober 2024 16:34]

Op X is de moderatie anders gigantisch snel. Als ik wat zie wat niet door de beugel kan, wat steeds minder vaak gebeurd, en dit aangeef, heb ik vaak binnen een half uur al reactie. De Facebook pagina van een YouTuber die ik volg was gehacked en dat heeft iets van 3 weken geduurd, terwijl de hele pagina door de hacker werd volgespammed met allemaal onzedelijke zaken die zeker niet mogen op het platform.
Het werk van de moderators zal ongetwijfeld ook gebruikt zijn om het AI model te trainen. Of AI de menselijke moderators volledig kan vervangen is nog maar de vraag. Voor een groot deel zal het lukken en dat gaat dan sneller dan wanneer er eerst een mens naar moet kijken. Er zullen echter altijd dingen tussendoor glippen en andere juist ten onrechte worden geblokkeerd.
Personen en organisaties die erop uit zijn om ongewenste content te plaatsen zullen ongetwijfeld op zoek gaan naar de grenzen van wat de AI nog toelaat en dat dan massaal gebruiken. Onschuldige content die wordt geblokkeerd is heel vervelend voor de poster, maar op een platform wat op vermaak is gericht is het niet zo heel erg voor de gebruikers.
AI is zelf lerend en zal vermoedelijk van de gebruikers leren, maar dat houdt ook de mogelijkheid in om het AI model te saboteren. Wie niet van dansfilmpjes houdt zou een bot-netwerk in kunnen zetten om massaal meldingen van "ongewenste content" te sturen. Na enkele dagen worden alle dansfilmpjes dan geblokkeerd.

Hoe goed AI ook werkt er zullen vals positieven en negatieven zijn en daar zullen menselijke moderators voor nodig blijven. Daarmee kan het model zich dan verder verbeteren.

Het ontslag van het complete Nederlandse moderatie-team lijkt mij dus geen goede ontwikkeling. AI mist immers het menselijk inzicht en kan goede of kwade bedoelingen van persoon of organisaties achter de posts niet (goed) beoordelen. Met humor en satire weet AI over het algemeen geen raad.
Wat in dit artikel mist is dat niet alleen de Nederlandse moderatie-tak volledig is ontslagen. Alle Europese moderatie-teams (Duitsland, Frankrijk, Spanje, Italie) zijn compleet opgedoekt.
Het lijkt alsof TikTok de moderatie volledig aan de community en AI heeft overgeleverd.
Daar de moderators ook de klachten afhandelde over onterecht verwijderde posts, komt ook die functie stevig onder druk te staan of wordt domweg niet meer uitgevoerd.
Ik vraag me af of TikTok zonder menselijke moderators nog aan de DSA voldoet. Ik heb er een hard hoofd in.
De Digital Services Act heeft in ieder geval wel de verplichting voor de aanbieders van online platforms om een intern klachtenafhandelingssysteem te hebben waar klachten kunnen worden ingediend tegen besluiten zoals de schorsing van het account of verwijderen van een post vanwege illegale content (artikel 20 lid 1 DSA). Vervolgens mag het besluit op deze klacht niet louter op basis van geautomatiseerde middelen worden genomen (artikel 20 lid 5 & 6 DSA). Dus uiteindelijk moet er wel een keer een persoon aan te pas komen als deze gebruiker een klacht indient.

Voor de oorspronkelijke moderatie handeling zijn er ook de motiveringsverplichtingen van artikel 17 DSA. Er moet een duidelijke en specifieke motivering komen zodat de gebruiker daadwerkelijk gebruik kan maken van dat klachtenafhandelingssysteem. Ik kan mij voorstellen dat niet alle AI beslissingen even makkelijk uit te leggen zullen zijn.

Persoonlijk zou ik sowieso als bedrijf niet erg happig zijn om alles maar geautomatiseerd te doen. Een online platform is niet aansprakelijk voor de content die daar wordt geplaatst tenzij het bedrijf werkelijke kennis heeft van deze illegale content en niet handelt om deze content aan te pakken (artikel 6 DSA). Moet hier dan wel gaan om bijvoorbeeld kennis van een specifieke inbreukmakende video. Een algemeen idee dat er ook vast wel ergens illegale content is op het platform is niet voldoende. Dat zal er immers altijd wel zijn. Maar als jij een melding hebt gekregen die voldoet aan artikel 16 lid 3 DSA leidt dit tot die werkelijke kennis. Als jouw AI moderatie dit dan laat staan, ben je opeens ook aansprakelijk.
Hoera! iemand met verstand van zaken. Dank voor de opheldering.
Klinkt inderdaad alsof TikTok ook juridisch een behoorlijk risico zou nemen als het de Ai zulke cruciale banen zou laten vervangen. Een motiveringsverplichting kun je vast ook door een ai laten schrijven, maar na klachten over moderatie wordt het allemaal dus al een stuk lastiger.
Elders ter wereld word het beoordeelt..... Door mensen die de taal niet spreken zeker. Ik heb wat twijfels aan de kwaliteit daarvan.
Dat hoeft niet, het zou ook op Curaçao of in Suriname kunnen zijn. Landen waar de lonen toch wat lager liggen lijkt me.

Tezamen met AI scheelt dat toch weer.
Er zijn genoeg mensen in Turkije en Marokko die Nederlands spreken en een stuk minder kosten per uur dan mensen in Nederland. Nog afgezien van de voordelen van zwakkere regelgeving natuurlijk.
Bij video kun je natuurlijk een aantal dingen gewoon zien. Daar heb je de taal niet voor nodig. Extreem gewelddadigheid, naakt etc lijkt me in iedere taal hetzelde. Ze kunnen ook een ondertitelling maken in de vreemde taal. En natuurlijk de 1e screening doen met AI. En de 2e gebruiken om te trainen.
Denk persoonlijk dat je nog wel een soort eind controle nodig heb.
Het is natuurlijk inderdaad een visueel medium. Goed punt, maar wat als het een politieke discussie is? Of een te rechtse demonstratie die verder rustig is.

[Reactie gewijzigd door bzuidgeest op 14 oktober 2024 15:23]

tja dat ben ik met je eens, politiek gevoelig opmerkingen, die zullen ze er niet visueel uithalen, of "hystorisch" fouten grappen die cultuur gebonden zijn.
Een Poolse servicedesk boer huurt gewoon 'expats' in die de taal spreken.
Dat moeten dan dus allemaal contract werknemers zijn van wie het contract niet wordt verlengd want in Nederland kun je iemand niet zomaar ontslaan.
Dat noemt men een reorganisatie en is wettelijk mogelijk. Aangezien ze genoeg financiele middelen hebben kan dit zonder probleem. Een vorige werkgever van mij ontsloeg met regelmaat mensen, ook mensen met een vast contract. De mensen die ontslagen werden namen dan een advocaat aan en dan betaalde het bedrijf een boete. Dat werd door de eigenaresse gezien als een normaal iets, ondanks dat het niet mag (zeker niet op de manier zoals ze dat deed).
Zo een reorganisatie is gebonden aan regels en kan alleen als er economische redenen zijn. Als het meer dan een bepaald aantal medewerkers betreft zijn de regels zelfs nog strenger. Dan worden verplicht de bonden ingeschakeld enz.
Als je 300 rechtszaken moet voeren en boetes moet betalen dan is dat nog wel even wat anders dan als je één medewerker onterecht ontslaat.
Nou minder mensen die naar de psycholoog moeten vanwege het modereren.
Als het zo extreem is dan kan je beter de app verbieden.
Gisteren ook een video over youtube kids en over de aanbod.
Nou dat zag er alles behalve kinderen vriendelijke uit.
Zowiezo moet je kinderen denk ik ver weg houden van youtube of samen kijken. Veel mensen zetten ongecenceerd youtube aan als de kinderen maar stil zijn.
Toch vraag ik me dan af hoe mensen bij zulke foute videos komen, ik kijk al jaren in de meest brede context en slechts een handjevol van de miljoenen videos dacht ik... Ooh dit is fout.
Ik ken je niet persoonlijk maar ik weet dat jij al lang op Tweakers zit. Ik schat je in als een hoogopgeleid persoon met een goede baan, een vrij stabiel bestaan, redelijk wat zelfvertrouwen en een fatsoenlijk salaris.

Ik denk dat jij een hoop van de valkuilen al van kilometers ver ziet waardoor je er nooit in gaat staan. Als het af en toe per ongeluk gebeurt zie je waarschijnlijk door een hoop van de onzin heen waardoor je niet op de vervolgvideo klikt.

Daarnaast zijn er waarschijnlijk genoeg gelegenheden om geld aan je te verdienen met "normale" reclames/producten zonder je eerst helemaal gek te moeten maken door je een fabeltjesput in te slepen.

Zelf merk ik dat het algoritmes voortdurend aan de randjes knibbellen met video's die in twee categorieën vallen. Dan krijg ik bv een tech-video die inhoudelijk bij mij past maar die wordt gepresenteerd door een mooi vrouw. Als ik die kijk krijg ik vervolgens een week lang andere video's met mooie vrouwen die verder niks met techniek te maken hebben. Het is zo ver dat ik bepaalde video's niet kijk omdat ik van te voren kan voorspellen hoe het algoritme dat gaat uitleggen. Als je echter de suggesties een paar keer volgt dan wordt al heel snel meegesleept naar een of ander extreem.

Maar ja, ik ben een volwassen paranoide nerd met verstand van algoritmes, reclame en psychologische manipulaite enzo. Dat kun je niet van kinderen verwachten, die springen zelf in de valkuil omdat het er spannend uitziet. Maar ook de meeste volwassen zullen het minder scherp voor ogen hebben en daarbij heeft iedereen wel eens een "zwak" moment waarop je gewoon slap of fout vermaak wil, maar sommigen kunnen daar beter mee om gaan dan anderen.

[Reactie gewijzigd door CAPSLOCK2000 op 14 oktober 2024 16:20]

Ik hoop dat ouders toch gewoon een zelfgemaakte speellijst aanzetten, zelf videos toevoegen en niet zomaar het algoritme laten draaien. Daar zit ook een enorm stuk verantwoordelijkheid van de gebruiker bij, zeker als bekend is dat Youtube je ook bagger voor kan schotelen.

Ouders sturen hun kind toch ook niet met 10euro de stad in om zelf maar eten te kiezen, hetzelfde werkt dat met content die ze tot zich nemen, dat moet je ook sturen en in de gaten houden.
Ik hoop dat ouders toch gewoon een zelfgemaakte speellijst aanzetten, zelf videos toevoegen en niet zomaar het algoritme laten draaien. Daar zit ook een enorm stuk verantwoordelijkheid van de gebruiker bij, zeker als bekend is dat Youtube je ook bagger voor kan schotelen.
Ik hoop het ook maar geloof het niet. Realistisch gezien ga ik er van uit dat een hoop mensen dat niet doen en het gewoon aanzetten en vertrouwen op het kinder-abonnement dat ze hebben afgesloten. Lubach vertelde deze week dat zelfs baby's al een uur per dag aan het scherm zitten. Zelfs een bescheiden playlist opstellen en controleren zal dan heel wat tijd kosten.
Tsja, urenlang kijken, Youtube's eigen algoritmes die de volgende autoplay doen, voorbij de eerste pagina zoekresultaten gaan, plus jij / jouw kijkgedrag is neem ik aan niet het doelwit van mensen met kwade bedoelingen.

Maar nergens om, het was voor het internet niet anders, d'r was vroeger ook best veel "foute" video's op TV die ik achteraf gezien niet aan kinderen zou laten zien - Ren & Stimpy, Purno de Purno, dat soort zaken.
De problemen rondom YouTube Kids niet meegekregen? Dat speelt ook al een tijdje namelijk.
Dit is niet anders op welk platform dan ook (de aanname dat je ongecensureerd bedoelt). Dit heeft weinig met youtube te maken en meer met hoe men omgaat met moderatie en zoektermen. Shockwaarde genereert clicks en advertentieinkomsten.
Er zullen ongetwijfeld mensen zijn die een YT-filmpje aanzetten om kinderen stil te krijgen, maar hoeveel dat er zijn weet echt niemand. Je kunt hier wel de onderbuikgevoelens van een heleboel mensen reproduceren, maar dat voegt niks toe aan de discussie natuurlijk.

Overigens is juist YT een app die je prima zo kunt afschermen dat er alleen content voor alleen kinderen te zien is, op het betuttelende af. Andere socials (TikTok, Insta) kunnen daar nog een puntje aan zuigen...
Inderdaad, wat een totale bagger videos voor kinderen staan er op youtube. En met autoplay worden de meest bekeken ook automatisch voorgeschoteld. Die van mij kijken alleen netflix, prime of Disney met kids profiel. Staat ook wel rommel op, maar niet die tenenkrommende bagger op yt
Ik denk dat deze video daar misschien meer duidelijkheid over kan geven.

Het gaat hier in dit geval over Facebook moderatie. Maar als je de lijn doortrekt is de kans groot dat dit soort filmpjes ook op andere 'social' media platformen worden geplaatst

The "Modern Day Slaves" Of The AI Tech World
https://youtu.be/VPSZFUiElls?si=It_yT31pgpH8ukdr&t=1908

[Reactie gewijzigd door Jantjo op 14 oktober 2024 14:46]

En als gevolg meer kinderen die blootgesteld worden aan dat soort zaken. Tof ja... /s
Hoezo? videos blijven toch nog steeds gemodereerd?
Waar staat dat? Er staat dat er een vermoeden is dat de moderatie voortaan door AI wordt gedaan, maar dat onbekend is hoe betrouwbaar die AI-moderatie is.
Het is ook niet zo dat de moderatie (in zijn geheel binnen het bedrijf dus) opeens gaat stoppen of verdwijnen of zo, want dan kan een platform als TikTok wel opdoeken. :)

[Reactie gewijzigd door CH4OS op 14 oktober 2024 14:59]

Het complete moderatieteam in Amsterdam is ontslagen (zie het gelinkte artikel van NRC). Gedeeltelijk zal moderatie overgenomen zijn door teams elders in Europa of de rest van de wereld, gedeeltelijk door AI. Maar AI kan niet alles, en moderatie van Nederlandstalige posts door buitenlandse teams zal gewoon minder effectief zijn.

Dit gaat dus gewoon gevolgen hebben voor de kwaliteit van de moderatie.

En eerlijk is eerlijk: dit is een bezuinigingsmaatregel bij een bedrijf waar het geld toch al tegen de plinten klotst. Een maatregel als dit bewijst gewoon dat moderatie geen top-prioriteit heeft, terwijl het dat wel zou moeten zijn.
Zeker, maar dat betekend dus niet dat de moderatie in zijn geheel verdwijnt, dat is mijn punt.
Maar meer mensen die naar de psycholoog moeten vanwege het gebrek aan moderatie...
Tegelijkertijd moet je als consument ook je eigen grenzen kennen, maar platforms als tiktok en andere (sociale) media promoten het continu kritiekloos consumeren van alles wat ze je voorschotelen.
Als support je te veel geld kost en je de false positive's maar voor lief neemt.

YouTube: Elysium Movie CLIP - Would You Like to Talk to a Human? (2013) - Mat...
Poeh, dat zijn een hoop mensen, veel meer dan ik had verwacht. Na het zien van wat documentaires over Facebook moderators, ben ik blij als het op een (meer) geautomatiseerde manier kan plaatsvinden. Alle shit die de moderators voorbij zien komen wens je weinig mensen toe.
Ik ben bij de meeste social media platformen niet echt onder de indruk van de moderators.
Zelfs reclame voor een dubieuze mobiele app die voornamelijk hoge winsten beloofd maar onderwater gewoon een gok app is met de wereld aan nep profielen en het wordt als bericht gepost van mensen die dit als goed doel kregen (zat bijna aan de grond, de app heeft mij gered... ik hielp een persoon en als dank kreeg ik dit.... had kanker bijna afgeschreven omdat ik het geld niet had voor de medische hulp maar de app gaf me het bedrag in minuten), als je het rapporteerd wordt het gewoon genegeerd. Kom ze tegen op X, Insta en Facebook (en is vast ook aktief op TikTok)
Andere post over Amazon die pallets retour producten verkoopt. Gerapporteerd, wordt genegeerd. De website doet zich voor als amazon (met logo en al), dus uiteindelijk maar bij amazon neergelegd met alle links naar de social platformen, accounts en reclames. Binnen 20 minuten was de site erachter down (de reclame zie ik nog steeds, maar doorklikken werkt niet meer)

Vermoed niet dat we iets gaan merken van de verandering.

[Reactie gewijzigd door SunnieNL op 14 oktober 2024 14:52]

Waar toetst AI dan aan. Want ik heb het vermoeden als iets maar vaak genoeg geroepen wordt elders dat AI het als de norm gaat zien. Hoe ga je dat bewaken dan?
Met menselijk overzicht, maar dat kan in theorie met veel minder dan 300 personen.
Instagram werkt ook meer met ai moderatie blijkt de laatste tijd.
Al meerdere meldingen zowel op TikTok als Instagram gemaakt bij gewoon pure pornografie videos, maar dan door een overlay op een andere video te doen om dus het systeem te omzeilen, en wat blijkt? het werkt ..
Alle meldingen, ook in beroep worden afgewezen.
Ik weet eigenlijk niet wat ik gekker vind, dat daar 300(!) man (m/v) de hele dag tiktok filmpjes zaten te kijken c.q. beoordelen of dat dat blijkbaar goedkoper kan met dezelfde *ahum* kwaliteit

Een psycholoog zou hier op kunnen afstuderen, denk ik. Wat bezielt iemand om tikitok moderator te worden, waarom kan het publiek dit niet zelf? Wat voor bagger krijgen die lui te zien, dat er uberhaupt moderators nodig zijn, waarom kies je Amsterdam als basis voor moderators (of werken ze thuis)?

Op dit item kan niet meer gereageerd worden.