Forbes: TikTok-moderators krijgen kindermisbruikbeelden te zien in trainingen

Amerikaanse TikTok-moderators van het bedrijf Teleperformance krijgen als onderdeel van hun training child sexual abuse material, ofwel CSAM, te zien. Dat schrijft zakentijdschrift Forbes op basis van informatie die afkomstig is van voormalige TikTok-moderators.

De moderators die Forbes heeft gesproken, werkten voor de Amerikaanse tak van Teleperformance, een Franse multinational die onder meer posts modereert voor socialmediaplatforms. Om CSAM te herkennen en als dergelijke te taggen, kregen de werknemers tijdens trainingen beeldmateriaal te zien waarin kinderen werden misbruikt. Daarnaast kregen ze spreadsheets waarin honderden voorbeelden van CSAM en andere door TikTok verboden content te zien is. De moderators moesten deze spreadsheets dagelijks doornemen als referentiekader, zeggen de ex-werknemers.

"Ik heb een dochter en ik vind het niet kloppen dat een groep vreemden dit materiaal bekijkt", zegt een voormalig moderator tegen Forbes, die in 2020 wegging bij Teleperformance. "Ik denk niet dat ze zoiets moeten gebruiken voor training."

Whitney Turner, ook een voormalige moderator van Teleperformance, was zo geschokt door het materiaal dat ze contact opnam met de FBI. Naar eigen zeggen heeft ze met een FBI-agent gesproken in juni, al wil de federale veiligheidsdienst dit niet bevestigen aan Forbes. "Ik was aan het modereren en dacht: Dit is iemands zoon. Dit is iemands dochter. Deze ouders weten niet dat we dit materiaal hebben opgeslagen. Ik weet zeker dat de ouders TikTok kapot willen maken als ze dit zouden weten", aldus Turner.

In de Verenigde Staten is het verspreiden en bewaren van CSAM verboden. Bedrijven zijn verplicht om de inhoud te melden aan het National Center for Missing and Exploited Children (NCMEC). Vervolgens moet het materiaal 90 dagen bewaard worden, maar het aantal mensen dat de inhoud te zien krijgt, moet tot een minimum worden beperkt.

TikTok reageert tegenover Forbes dat zijn eigen lesmateriaal voor moderators geen CSAM bevat, maar zegt wel dat 'het platform met derde partijen werkt die hun eigen trainingen verzorgen". Teleperformance ontkent dat het beelden van kindermisbruik laat zien in zijn trainingen en spreadsheets.

Door Loïs Franx

Redacteur

06-08-2022 • 11:24

152 Linkedin

Reacties (152)

Wijzig sortering
Edit: ik weet dat dit in Frankrijk plaatsvond. Dit zijn de regels voor Nederlanders. Waarom is dit relevant? Wij zijn voor een groot deel Nederlands en tiktok is niet het enige bedrijf dat sociale media aanbiedt. Daarbij geld de Nedelrandse wet, en de bescherming die het biedt, ook voor Nederlanders buiten Nederland. Daarom hier nu,

De wet in Nederland:
Titel XIV. Misdrijven tegen de zeden
Artikel 240

Met gevangenisstraf van ten hoogste twee maanden of geldboete van de derde categorie wordt gestraft hij die weet of ernstige reden heeft om te vermoeden dat een afbeelding of voorwerp aanstotelijk voor de eerbaarheid is en die afbeelding of dat voorwerp:1°. op of aan een plaats, voor het openbaar verkeer bestemd, openlijk tentoonstelt of aanbiedt;2°. aan iemand, anders dan op diens verzoek, toezendt.
En artikel 240b, let vooral ook op lid 2 in deze.
https://wetten.overheid.nl/BWBR0022422/2007-09-01/0
Artikel 240b
1655voor: Artikel 240b van: Artikel 240b van: Artikel 240b van: Artikel 240b Artikel 240b Artikel 240b
1Met gevangenisstraf van ten hoogste vier jaren of geldboete van de vijfde categorie wordt gestraft degene die een afbeelding - of een gegevensdrager, bevattende een afbeelding - van een seksuele gedraging, waarbij iemand die kennelijk de leeftijd van achttien jaar nog niet heeft bereikt, is betrokken of schijnbaar is betrokken, verspreidt, aanbiedt, openlijk tentoonstelt, vervaardigt, invoert, doorvoert, uitvoert, verwerft, in bezit heeft of zich door middel van een geautomatiseerd werk of met gebruikmaking van een communicatiedienst de toegang daartoe verschaft.

2Met gevangenisstraf van ten hoogste acht jaren of geldboete van de vijfde categorie wordt gestraft degene die van het plegen van een van de misdrijven, omschreven in het eerste lid, een beroep of een gewoonte maakt.
Ongeacht de reden hiervoor. De wet maakt géén uitzondering voor enig specifiek doel van het bezit. Als dit in Nederland plaatsvind gaat er iemand op het matje komen als dit klopt. Deze slachtoffers hebben er niet om gevraagt om als oefenmateriaal misbruikt te worden.

[Reactie gewijzigd door ErwinPeters op 7 augustus 2022 01:12]

Reageer
Wellicht kunnen ze Facebook achterna gaan en dit uitbesteden aan Afrika. Die doen dat erg humaan (onderbetaald, psychologisch slopend).
“The work that we do is a kind of mental torture,”

[Reactie gewijzigd door The Zep Man op 6 augustus 2022 11:30]

Reageer
Oh, doet Facebook dat tegenwoordig ook in Afrika, dat moderreren? Ze doen het ook in Europa, en daar gebeurt het ook niet bepaalt netjes, en worden de moderators ook niet wat je noemt humaan betaald en behandeld.

Zie dit vrij recente stuk over Facebook in de UK bijvoorbeeld: Facebook moderator: ‘Every day was a nightmare’

Ook in de VS zijn ze redelijk omstreden met hun behandeling van moderators: Facebook content moderators say they receive little support, despite company promises

De Volkskrant had hier een paar jaar terug ook een vrij indrukwekkend artikel over: De hel achter de facade van Facebook.

Er tekent zich toch wel een patroon af bij social media, nu het dus niet enkel beperkt lijkt tot Facebook (en dus ook Instagram), maar ook Tiktok dit soort zaken blijkt te doen. Dan kan je je afvragen hoe het bij andere socials, zoals Twitter, eraan toe gaan. Zal dan vermoedelijk vergelijkbaar zijn?

Ik weet niet, maar is het niet wenselijk dat overheden hier ingrijpen om verdere excessen te voorkomen? Ook al is het voor training, lijkt het me nog steeds niet helemaal fris om kinderporno te laten zien.

[Reactie gewijzigd door wildhagen op 6 augustus 2022 11:45]

Reageer
Het grote probleem is dat niemand een oplossing heeft voor het probleem.
Laten we beginnen met het feit dat het probleem begint bij de "mensen" die het materiaal maken en verspreiden.
Een oplossing zou zijn dat iedereen alleen nog maar met geverifieerde accounts op internet/social media mag (China). Eerst even met DIGID je account aanmaken. Als we dat doen, is het uploaden van dat soort rotzooi snel afgelopen, maar ik vermoed dat de privacy actiegroepen snel in verweer komen.
De meest wenselijke oplossing is dat AI/ algoritmes het materiaal er uit filteren. Dit is de oplossing die de bigtech ook het liefste heeft. Kost het minst en geen emotionele belasting voor werknemers. Helaas is de techniek nog niet zo ver. En als ze te veel weg fileteren is de wereld te klein (napalmmeisje Vietnam voorbeeld) en als ze te weinig weg filteren helemaal.
Zolang er klootzakken zijn die dat materiaal maken en verspreiden en de AI niet goed genoeg is om het te filteren zijn er moderators nodig die het controleren voordat het online gaat. Mede omdat de wetgeving de social media kanalen verantwoordelijk heeft gemaakt voor de content die op de site staat.
Of deze beelden noodzakelijk zijn voor de training van de moderators weet ik niet. Ik heb het werk nooit gedaan en ik weet niet wat je allenmaal te zien krijgt, maar het schijnt niet best te zijn. De werknemers moeten voorbereidt worden en goede begeleiding krijgen en hoe dat het beste kan weet ik niet, maar je zal ze moeten voorbereiden. De enige andere oplossing is anders natuurlijk het sluiten van alle kanalen, want ik nog niet eens een heel slecht idee vind. Behalve een paar mensen die er rijk van worden, zijn we er als mensheid volgens mij niet beter van geworden, maar dat is natuurlijk een persoonlijke mening.
Reageer
is dat niemand een oplossing heeft voor het probleem.
Nou, het begint met een goede opsporing. Meer capaciteit bij recherche zou een goed begin kunnen zijn. Het overgrote deel (iets van 99%+) van de zedenzaken wordt niet opgelost. Een groot deel wordt zelfs nooit onderzocht. Dat is heel erg, zeker als je weet hoe enorm veel schade het doet aan iemand en dat daders hiermee weg kunnen komen. Nederland staat internationaal bekend als een land waar dit soort georganiseerde criminaliteit relatief makkelijk plaats kan vinden.

We hebben in Nederland een politiecommissie (LEBZ) die van veel zedenzaken, vooral als het om georganiseerd misbruik / georganiseerde criminaliteit gaat, zoals het geval is bij de netwerken die soort video's maken, mag bepalen of een aangifte het onderzoeken waard is. Deze commissie is gevuld met mensen die het een redelijke mogelijkheid vinden dat kinderen dit soort zaken verzinnen (net als een hoop ouders trouwens!). Dat dit bij een fase hoort, een periode van hun ontwikkeling etc, dat ze het verzinnen voor de aandacht of dat het ontspruit aan een rijke fantasie. Of een andere variant, later in het leven van een slachtoffer, dat het aangepraat is door een therapeut.
Dat is echt complete onzin, fabeltjes de wereld in geholpen door pedofielen netwerken. Sommigen zelfs in pseudo-wetenschappelijke artikelen.

Ten tweede is het belangrijk dat alle ouders leren dat kinder misbruik niet wordt gedaan door een man in een regenjas met snoep bij het speeltuintje, maar veel vaker op logeer / - oppas adresjes, door familieleden (het vaakst! Ooms, tantes, opa / oma), buren, leraren etc etc gebeurd. Mensen dichtbij met "makkelijke toegang" tot een kind.

Daar kan voorlichting bij helpen. Ouders, wees niet naief. Ook een zeer vriendelijk, charmant persoon kan dit soort extreme dingen doen.

Bron: een vriend van mij was als kind het slachtoffer van mensenhandel, is door zo'n organisatie misbruikt en misbruikt voor dit soort video's. Hij is er al jaren voor in therapie.
Als hij aangifte doet bij de politie, zal deze politiecommissie zijn aangifte afkeuren (blijkt uit onderzoek van het programma Argos), waarmee de recherche geen onderzoek mag doen. Zijn zaak wordt dus geblokkeerd door justitie zelf. Deze bovenstaande oorzaken oplossen is veeeel effectiever dan zaken als content filtering, aparaten scannen etc etc etc, dat zijn druppels op de gloeiende plaat.

[Reactie gewijzigd door SpiceWorm op 6 augustus 2022 18:33]

Reageer
En daarom word er door de overheid ook extern onderzoek naar gedaan https://www.wodc.nl/onder...ijzondere-zedenzaken-lebz , oftewel als deze commissie niet goed functioneerde. Dan komt dit echt wel boven water. Maar als ik het zo lees, dan zie ik vooral een opgeklopte media rel. En als er geen harde bewijzen zijn, dan zullen ze er soms voor kiezen om geen tijd er in te steken (omdat ze al meer dan genoeg te doen hebben!), omdat de kans op een veroordeling dan uiterst gering is.
Reageer
Natuurlijk vind ik dat de opsporing van deze misdaden de hoogste prioriteit moet hebben, maar dat is niet echt het probleem waarover we het hier hebben. In de eerste plaats gaat het niet alleen over Nederland, maar ook beelden gemaakt in een ander land willen we hier niet zien en ten tweede gaat het in dit voorbeeld over kindermisbruik, maar zijn er natuurlijk veel meer beelden/zaken die je wil dat niet gebeuren en niet te zien zijn op social media. (moord, verkrachting marteling, mishandeling, pesten etc. etc.) Ik hoop dat de meeste mensen willen dat dit allenmaal uit de wereld verbannen wordt, maar ik ben bang dat dat dit in de nabije toekomst een utopie is. En zolang dat het geval is, is er een systeem met moderators nodig om te zorgen dat beeldmateriaal hiervan niet op social media terecht komt. Dus meer opsporing voor kindermisbruik in Nederland 100 punten, maar dat lost het probleem niet op.

[Reactie gewijzigd door jobvr op 7 augustus 2022 11:16]

Reageer
Ik ben het niet geheel met je eens: er bestaat wel degelijk zoiets als "verzonnen misbruik". Een beroemd voorbeeld is de Bolderkar-affaire (zie: https://nl.wikipedia.org/wiki/Bolderkar-affaire) maar deze staat zeker niet alleen.
Tegelijk heb je zeer gelijk: er worden te weinig zedenzaken onderzocht (het heeft nauwelijks prioriteit). En inderdaad, de vermeende pedofielennetwerken zijn uiterst zeldzaam (Epstein is echt de uitzondering, hoe ernstig die zaak ook is), maar misbruik binnen het gezin of de cirkel daar direct omheen is driekwart van de gevallen.
Reageer
Dat laatste ben ik het helemaal mee eens. Social media heeft meer slecht dan goed gebracht helaas.
Reageer
Social media is werkelijk de kanker van de maatschappij geworden en dan heb ik het nog niet eens over hoe de moderators behandeld worden.
Wat mij betreft bannen ze alle social media uit, het heeft teveel nadelige gevolgen voor de samenleving. Sterker nog het is zelfs een wapen voor landen als Rusland en China (en ja vast meer) die hebt gebruiken om een maatschappij te ontwrichten of verkiezingen te beinvloeden.

[Reactie gewijzigd door Vexxon op 7 augustus 2022 10:23]

Reageer
"Social media made you all way too comfortable with disrespecting people and not getting punched in the face for it.” Mike Tyson
Reageer
Dus als je niet bereid bent over te gaan tot fysiek geweld verdien je disrespect volgens Mike Tyson?
Reageer
Nee, als je niet bereid bent om de consequenties van je daden te accepteren, dan verdien je geen respect. Is niet zo moeilijk toch?
Reageer
Maar het overtreden van de wet (mishandeling) is wel acceptabel in zo'n situatie?

Voor mij sta je dan net zo laag als de persoon die niet bereid is om de consequenties van zijn daden te accepteren aka Tokkie.
Reageer
Bijzondere invalshoek. Wat bedoeld wordt met de quote is dat mensen geen consequenties meer ervaren met wat ze roepen op social media en men zich daar nu blijkbaar zo comfortabel bij voelt dat ze werkelijk vanalles roepen.
Nogmaals Mike Tyson predikt geen geweld hiermee, maar geeft alleen aan dat men voor het bestaan van social media wel twee keer nadacht voor je iets dergelijk tegen iemand zei als de betreffende persoon tegenover je stond.
Reageer
Dat mensen geen consequenties meer ervaren (of niet beseffen wat de consequenties van een bericht) met wat ze roepen op social media: volledig mee eens!
Reageer
Je begrijpt het niet goed he!?
Reageer
Jawel, vind het alleen apart dat een verkrachter die zijn geld heeft verdiend met mensen in elkaar timmeren in deze wordt gequote.

Ben het er mee eens dat social media de gevolgen van de uitspraken die men doet heeft weggenomen en daarmee ook het concept vrijheid van menings uiting in een hoop landen te ver heeft getrokken.
https://www.in.gov/apps/i...ious_page=1&detail=922335

edit: strafblad van tyson toegevoegd

[Reactie gewijzigd door surfin op 10 augustus 2022 20:30]

Reageer
Of deze beelden noodzakelijk zijn voor de training van de moderators weet ik niet. Ik heb het werk nooit gedaan en ik weet niet wat je allenmaal te zien krijgt, maar het schijnt niet best te zijn. De werknemers moeten voorbereidt worden.
De moderators zijn allemaal strafrechtelijk te vervolgen wegens het in bezit hebben van kinderporno. In Amerika hoef je alleen maar een plaatje te openen op je computer, en je bent in principe al strafbaar. En nee, 'Maar mijn werkgever bedoelde het zo goed' doet eigenlijk niet ter zake. Alleen NCMEC mag dat materiaal eventueel inzien, en bepaalt doorgaans enkel op grond van hashes wat in aanmerking komt (maar zal dat materiaal nooit delen met TikTok).

De moderators moet aangeraden worden snel een advocaat in te huren, voor het geval dat, en onmiddelijk weigeren dit soort materiaal te beoordelen. En zelf zou ook aangifte doen tegen mijn TikTok bazen, die moedwillig de kinderporno aan mij verspreid hebben.
Reageer
Wat ik zelf dan niet begrijp is, waarom recruiten ze geen mensen op de gore websites. Die weten ook echt het verschil wel tussen wat wel of niet kan, maar kunnen over het algemeen veel beter tegen brute en gruwelijke beelden. Beetje normaal loon erbij en er is meer dan genoeg potentieel personeel te vinden.

Maar ze plukken gewoon willekeurige mensen van de straat om voor een bagger loontje het werk uit te voeren, terwijl Facebook en TikTok enorme winsten binnenharken. Ondertussen jagen ze de maatschappij op kosten door hun personeel zwaar uit te buiten.
Reageer
Omdat je dan nog extra mensen moet inhuren om te controleren of de moderators wel goed modereren lijkt mij.

Beetje kat op spek binden.
Reageer
Nee. Dit is niet op te lossen met nog meer identificatie. Werk jij bij de overheid of bij die tech bedrijven?
En daarbij komt: degenen die kwaad willen gebruiken dan valse ID's of stromannen.

Ik hoef toch niet eerst kinderporno te zien om te kunnen beoordelen of dit het ook daadwerkelijk is?
Bij twijfel, second opinion of niet doorlaten.

Het probleem ligt bij deze bedrijven. Als die geen mensen kunnen vinden die het kunnen beoordelen dan betalen ze te weinig om mensen capabel te krijgen.
Ik hoef toch ook geen moord te zien of te beoordelen om te weten of het moord gaat?
Reageer
Eerst even met DIGID je account aanmaken.
Dit is wel een dingejte indd. Persoonlijk word het dan een hard-pass voor mij onder de veronderstelling dat ik geen video's upload. Nu zou ik dat enkel accepteren als ik ook daadwerkelijk video's zou vespreiden als het daarmee dan ook verholpen is.. Maar ik ben bang dat er dan als nog niet veel veranderd en wil ik liever niet dat ze mijn DigiD vereisen.

Ik wil op bepaalde socialmedia platformen graag anoniem blijven omdat ik weet wat voor gekkies daar rond zwerven en als mijn DigiD onderwater gekoppeld is en het platform krijgt een datalek met al die gegevens ben je verder van huis, dan weten ze exact wie je bent. Nou liever niet hoor.

Het herkennen van dit soort dingen is ook erg lastig en betreft een enorme doses nuance. Zo heb ik vader/dochter en moeder/zoon (en alke andere combinatie binnen families) die 2 handen op 1 buik waren maar er totaal geen spraken is van misbruik, Terwijl je zaken hoort waarbij bijv een dochter/oom elkaar niet konden uitstaan maar misbruik wel aanwezig was. Het is gewoon erg lastig te zien en te valideren. Dit laatste is lastig want als je het vraagt dan kan het vervelend overkomen bij de gene aan wie je het vraagt.
Reageer
Het zal ongetwijfeld terugkomen in de artikelen,


maar zo wordt bij alle “normale” bedrijven een psychologisch traject daarnaast opgezet zoals bij politie, leger, etc om te voorkomen dat er ptsd ontstaat en dat de bedrijven daar verantwoordelijk voor kunnen gesteld.


Je ziet dat oa Facebook er mee probeert weg te komen door het uit te besteden aan landen waar het allemaal minder goed geregeld is.
Alleen is het aan de overheid om dat op te pakken. Nu laat men Facebook bewust ruis veroorzaken waarbij ook doden zijn veroorzaakt.


Oa in Myanmar en Ethiopië is 100% vastgesteld dat Facebook een belangrijke rol heeft gespeeld in allerlei opstanden ed. Daarnaast zijn er talloze voorbeelden aan te halen in oa India, Bangladesh waar letterlijk mensen zijn vermoord door een opgehitste via sociale media.
Reageer
In elk geval de gevallen in India waren een beetje moeilijk, je kunt niet direct Facebook de schuld geven als mensen in Whatsapp leugen verspreiden EN vervolgens Indiërs gelijk de straat oprennen om de eerste de beste die op de foto lijkt dood te slaan.

Uiteindelijk hebben ze de beperkingen aan groepsgrootte en forwarding toegevoegd, wat voor mij nogal storend is maar schijnbaar de enige manier is om deze idioten niet onschuldige mensen te laten lunchen.
Reageer
lunchen
lynchen - dat ene lettertje maakt heel veel verschil... anders is het nogal ludiek. ;) :9

[Reactie gewijzigd door Tintel op 9 augustus 2022 09:00]

Reageer
Sowieso lijkt het me vrij onnodig om te “trainen” voor dergelijke content, alsof je zoiets niet zonder training niet herken; alsof training gaat helpen tegen mentale problemen door het zien van dergelijke content.

De personen die opdracht hebben gegeven om dergelijk materiaal te bewaren en de trainers die het tonen moeten serieus aangepakt worden imho.
Reageer
training om hoe er mentaal mee om te gaan is wel wenselijk als het bijna zeker is dat je het tijdens je werk te zien krijgt. het is ook onverantwoord om dat zomaar aan iemand te laten zien. en daar zal een voorbeeld/oefensituatie uiteraard waarde voor hebben, dus ik kan beide kanten wel begrijpen.

dat is natuurlijk op de aanname dat dat het doel van de training is, maar gezien de verhalen die je wel eens hoort over hoe moderatiewerk is betwijfel ik dat. doet me altijd denken aan de vrij strenge regels/maximum tijd die een politie agent aan dergelijk werk mag besteden.
Reageer
De Financial Times had hier onlangs een aardige podcast over. Een gesprek met iemand die via mensenrechten (en het gebruik van metadata bij het schenden van mensenrechten) bij de social media platforms is uitgekomen is zich nu hard maakt voor de moderators.

Zij had eigenlijk wel een scherp punt. Het zijn eigenlijk de moderators die die platforms nog enigszins leefbaar houden omdat het anders vrijwel direct in een beerput van ‘gore’, kinderporno en bedreiging zou veranderen. Moderators zijn eigenlijk een soort redacteuren en de core business, meer dan bijvoorbeeld de developers die alleen maar de voorwaarden scheppen (zoals bij een krant de journalisten de core business zijn en niet de designers) maar ze staan onderaan de ladder, worden het slechtst betaalt en zitten gevangen in NDA’s zodat ze hun eigen familieleden niet eens mogen vertellen wat ze doen.

Als je in de social media hoek werkt dan is het zeker het beluisteren waard: FT Rachman Review: How social media platforms put profits before people

[Reactie gewijzigd door Maurits van Baerle op 6 augustus 2022 15:15]

Reageer
Het zijn eigenlijk de moderators die die platforms nog enigszins leefbaar houden omdat het anders vrijwel direct in een beerput van ‘gore’, kinderporno en bedreiging zou veranderen.
Doen die platforms dat niet zelf? De mensen die ik volg zijn 100% normaal. Maar de sociale netwerken gaan er prat op om je content van onbekenden voor te schotelen. (Zodat je langer online blijft.)
Reageer
Normale posts worden verwijderd, en als je iets rapporteert dat heel duidelijk over de schreef gaat of keihard racistisch is dan krijg je een dag later een bericht "we hebben het bekeken en vinden niet dat dit tegen onze community-richtlijnen ingaat".

LinkedIn en Twitter doen dit sowieso een stuk beter dan Facebook.
Reageer
Dat komt omdat de normen en waarden anders liggen in de USA.
Post je een foto van je dochtertje van 2 op het strand, wordt het verwijderd als KP omdat er tepeltjes te zien zijn.
Post je een racistisch verhaal waar de honden geen brood van lusten, dan is dat vrijheid van meningsuiting.
Reageer
Geldt ook voor ons hoor.

Zeg je iets kritisch over joden? Antisemitisme!
Zeg je iets beledigends over moslims? Vrijheid van meningsuiting.
Reageer
Geldt voor onze Facebook dat (zogenaamd) antisemitische posts verwijders worden en islamofobische posts niet? Anders snap ik je vergelijking niet.
Reageer
Tja, als er ook bij zou staan om welke reden een post is verwijderd dan kun je misschien je postgedrag daar nog op aanpassen.

Met een algemeen bericht "Dit voldoet niet aan onze standaarden, wij willen dit niet zien, over de uitslag kan niet worden gecorrespondeerd" kun je helemaal niets. Als je dan met alle goede bedoelingen ergens een bericht post wat at random ineens verdwijnt dan heeft dat niets meer te maken met mensen opvoeden.

Daardoor krijg je willekeur, en kunnen dus zelfs moderators die gewoon de post van iemand persoonlijk niet kunnen hebben, gewoon die post de prullenbak in modereren en die persoon gelijk een waarschuwing aan zijn broek geven, zonder mogelijkheid tot beroep.
Reageer
Eerst werd veel van dat soort activiteiten in India gedaan. Daar heeft men inmiddels genoeg van dit soort modereren voor lage lonen. In India heeft men zich meer toegelegd op internet-fraude (daar werken nu letterlijk honderden bedrijven in).
Voor het modereren is men nu naar het volgende lage-lonen gebied getrokken. Een hoge of technische opleiding is niet nodig, dus is Afrika een geschikte regio.

Dat er voorbeelden getoond worden van content die verwijderd moet worden lijkt mij onoverkomelijk.
Reageer
Wat ik dus niet begrijp is hoe je mensen met totaal andere culturele normen en waarden laat modereren wat er in een ander continent gepost wordt.

Slavernij en vrouwenuitbuiting is niet vreemd voor hedendaags India, zo zijn er ook wel voorbeeld voor Afrika te verzinnen.

Blijft voelen alsof deze bedrijven de moderatie doen "om het vinkje" ipv. om wat juist is.
Reageer
Daarom moeten de mensen dus getraind worden met voorbeelden voor wat niet wenselijk is.
Reageer
Maar je kan mensen bijna niet trainen op wat cultureel acceptabel is, enkel met binaire voorbeelden (dit is oke, dit gaat over de schreef en wel hierom.)

De finesse van cultuur wordt hier compleet overgeslagen, een Nederlands meisje van 6 zonder topje op het strand aan het spelen op de foto wordt toch echt anders geïnterpreteerd in NL dan in de VS. Ik vind het jammer dat we mede daardoor die culturele finesse kwijt raken.
Reageer
Met training leren ze de finesses van een cultuur niet, als je echt goed wil modereren zou je zelfs mensen van de betreffende sub-cultuur willen laten modereren, gebeurd niet omdat goed modereren niet het doel is.
Reageer
Wat is precies het bezwaar dat er in een training kinderporno wordt getoond als die training juist bedoeld is als voorbereiding op werk waarin de werknemer vrijwel zeker kinderporno te zien zal krijgen?
Er tekent zich toch wel een patroon af bij social media
Dit is toch hoe mensen al eeuwen zaken doen?
Zoek iets winstgevends en schuif kosten zoveel mogelijk af op anderen.
Reageer
Nou de bezwaren zijn als volgt:
  • die kinderporno is dus van echte mensen (kinderen) en het hoort dus te worden verwijderd
  • is het werkelijk zo dat je als moderator met alle ellende van de wereld wordt geconfronteerd? Zo ja - dan moet dat platform z'n bestaan ook heroverwegen (sowieso...)
  • Om te beoordelen of iets voldoet aan een bepaald criterium is het toch wel mogelijk om dit uit te schrijven? Dat eventueel een extra controle nodig is bij twijfel, so what?
Reageer
Wat ik er tot nu toe over heb gelezen is dat je als moderator bij een sociaal medium inderdaad alle ellende te zien krijgt.
En dan niet alleen wat blote plaatjes of scheld- en vechtpartijen maar ook grof geweld (o.a. ISIS onthoofdingsfilmpjes) en allerlei porno (waaronder dus kinderporno).
Dit gaat dan met minimale voorbereiding en begeleiding. Je wordt meteen in het diepe gegooid want er moet wel productie worden gemaakt.

De normen zou je inderdaad wel kunnen uitschrijven.
En bij training on the job komt er vanzelf wel vergelijkingsmateriaal langs.
Wat dat betreft is er geen keiharde noodzaak.

Daarnaast is er het welzijn van de medewerker.
Die wil je eigenlijk in een gecontroleerde omgeving al met het een en ander confronteren zodat je kan beoordelen of hij het aan kan en hem alvast oefenen hoe er mee om te gaan.
Dat lijkt me niet te doen in productie waarbij er doorgewerkt moet worden.

De politie zal zal een soortgelijk probleem hebben.
Er zijn daar functies waar je zeker met kinderporno te maken zal krijgen.
Worden die vooraf getraind met een interne collectie of komt dat vanzelf wel aan bod in het werk?
Reageer
Stellen dat productie moet worden gedraaid en daarmee dus het welzijn van de medewerkers wordt opgeofferd is dus de fout.
Het is ook dan ook in elk scenario onwenselijk om alvast wat ellende te laten zien (zeker herhaald).

Het enige wat kan ontstaan, is afstomping. Dus wordt men emotioneel ontkoppeld. Maar ook dat is niet juist.
En moet je dan ook nog alle varianten van ellende bekijken? 8)7 Waar houdt dat op?

Je wil een grootverdiener zijn als sociaal platform dan moet je ook het geld uitgeven om het platform netjes te houden.

Waarom denken bedrijven toch dat onder de noemer "productie is alles" dat het menselijk welzijn van de medewerkers, daar onder mag lijden? Dan wreekt zich altijd.

Wat wel geldt is dat mensen verschillend reageren op bepaalde ellende, sommige mensen worden al misselijk bij een druppel bloed en anderen kunnen een onthoofding wel bekijken zonder problemen.
Maar ik vermoed toch dat het uiteindelijk voor stress zorgt. Militairen hebben daar ook last van.

En als een platform dus teveel van dit soort ellende over zich heen krijgt dan is er ook iets mis in de wereld. Maar daar hoeven dan geen onschuldige moderators de dupe van te worden. Die moeten dan begeleiding krijgen en een verdomd goed salaris. Want stom genoeg is het wel waar; dat grote geld waar de techbedrijven zelf op jagen, dat helpt ook de individu wel verder.
Reageer
Teleperformance zit ook in Afrika. Het is een vreselijk bedrijf om voor te werken
Reageer
Ook in Nederland is het een k*t bedrijf.
Reageer
Hoe vervelen het voor moderators ook kan zijn, het nieuws is dat ze hier beelden van kindermisbruik gebruiken. De moderators lijkt me in verhouding bijzaak. Sterker nog, als die hier aan meewerken om dat materiaal te gebruiken zijn ze waarschijnlijk net zo strafbaar afhankelijk van waar het materiaal vandaan komt.
Reageer
De klacht is dat je kindermisbruik moet bekijken om het te herkennen, als onderdeel van de training die behoort bij het modereren van TikTok?
Opmerkelijke klacht. Hoe wil je het anders leren herkennen?

Als je dat niet wilt zien moet je geen moderator worden die screent op misbruik lijkt me.
Reageer
De klacht is niet dat moderators kindermisbruik zien (want hoe erg ook, het hoort inderdaad bij het werk), de klacht is dat hun werkgever illegaal een eigen collectie kinderporno beheert en als lesmateriaal gebruikt.

[Reactie gewijzigd door Groningerkoek op 6 augustus 2022 18:16]

Reageer
de klacht is dat hun werkgever illegaal een eigen collectie kinderporno beheert en als lesmateriaal gebruikt.
En daarvan is helemaal niet vastgesteld dat dat zo is, het kan zijn dat er wel degelijk toestemming is dit materiaal voor dit doel te gebruiken.
Reageer
Geloof je het zelf? Als dat zo zou zijn dan zou het bedrijf niet hoeven te ontkennen dat zij dergelijk materiaal aan honderden mensen ter beschikking stelt, het moederbedrijf onthoud zich van elk commentaar en tiktok zelf weigert op bijna elke vraag antwoord te geven.
Reageer
idd. En daar bovenop zou ik toch willen stellen dat ik niet bij een werkgever zou willen werken die eerst alle mogelijke ellende laat zien voordat je gaat werken.
Werken met zware machines? Eerst filmpje met daarin iemand die wordt verpletterd.
Werken met mensen met geestelijke aandoening? Eerst filmpje hoe zo iemand het personeel opensnijdt.

Het is werkelijk stompzinnig...
Reageer
Men denkt.. een modulator fix the job. Zoveel FTE..

Terwijl daar speciale mensen voor zijn. Die een 99% filter om zijn/haar filter mind kunnen fixen.

En voor die ene 1% hebben ze ondersteuning.

Tot ze zelfs hun eerste geboorte hebben, stoppen ze ermee en hebben ze voor de rest een shitty life. En hun kinderen ook. (Indirect)

[Reactie gewijzigd door FireStarter op 6 augustus 2022 20:00]

Reageer
Tja, er zijn nu eenmaal beroepen waar je dingen krijgt te zien die een "normaal" persoon gelukkig niet hoeft te zien. Neem eerste hulp verleners en politie bijvoorbeeld, die zien waarschijnlijk soms nog minder plezante zaken, dat komt helaas met de functie. Wees blij dat er mensen zijn dit dit soort werk willen doen.
(Ik zeg dus niet dat ze het zomaar moeten accepteren, maar je kunt het gewoon niet ontlopen)
Reageer
Hangt een beetje af over wat voor misbruik we het hebben?! Geestelijke mishandeling zal je niet zo snel opmerken, maar iemand met een vinger in een peuter, daar hoef je niet over ingewerkt te worden of onderwezen of dat al dan niet gaat om misbruik.
Reageer
Het gaat hier om fysieke (seksuele) kindermishandeling. Anders kunnen we redelijk wat (religieuze) sociale en culturele verplichtingen er ook toe rekenen.
Reageer
Die mogen van mij ook onder kindermisbruik vallen want te vaak worden kinderen tegen hun zin gebruikt voor het status van de ouders en dan heb ik niet over een gebed voor eten of even bij de Gayparade kijken want dat hoort erbij een beetje dank voor eten is niet verkeerd en die Gay cultuur hoort er ook bij wat ik persoonlijk als heel vrolijk en vriendelijk ervaar.

Maar kinderen verplicht naar de kerk, kinderen vol met make up en uitdagende pakjes laten dansen voor talentshow en pageants, kinderen hun haar groen of paars verven en op social media statements maken van wie hun zijn, kinderen naar dragshows of zelfs dragshows in de kerk enz. waar gaat dat over want ik was als kind alleen maar met een voetbal of een videospel bezig en een ijsje halen bij Pake en Beppe.
Reageer
Herkennen van Kindermisbruik lijkt mij niet moeilijk
Reageer
Ik snap wel dat je een referentiekader moet hebben van wat wel en niet kan. Dat is niet zo vreemd eigenlijk.

Wat ik vreemder vindt is dat dit Jan en Jantine van de Petteflet zijn die het moeten beoordelen en geen forensische professionals die gelijk ook accounts kunnen blokkeren en strafrechtelijk onderzoek kunnen starten…….

Gewoon onderbetaalde jong volwassenen inzetten is weerzinwekkend. Belachelijk eigenlijk.

[Reactie gewijzigd door phoenix2149 op 6 augustus 2022 11:48]

Reageer
Ik kan me niet voorstellen dat je een referentiekader nodig hebt voor kindermisbruik. Ik denk dat iedereen instinctueel wel een radar daarvoor heeft en een uitleg in deze context kan ook met woorden. Hoezo moet daar beeldmateriaal bij?
Reageer
Denk je nu echt dat het merendeel 'gezond verstand' heeft???

Een foto van een baby in zijn bad is voor sommigen al kinderporno. 8)7
Reageer
Echt? Ok, dan ben ik blijkbaar heel naïef. 😅
Reageer
Niet alleen dat, vakantie foto’s van kinderen zijn ook in trek. Blijkbaar zo erg dat de politie er twee dagen geleden een waarschuwing over uit deed.

https://www.rtlnieuws.nl/...tos-van-kinderen-trek-bij
Reageer
nja hier niet, in amerika wel. die zijn te preuts. dus het heeft ook met cultuur te maken.
Reageer
deze werd meerdere malen van Facebook. verwijderd omdat het kinderporno zou zijn.

https://m.media-amazon.co...AC_UY327_FMwebp_QL65_.jpg

dit is de cover van Nevermind album

Bart
Reageer
Ah, ja. Dat verhaal ken ik, idd.

Zoals ik al zei: behoorlijk naïeve reactie van mij 😅
Reageer
Als iedereen nu zo’n instinctual radar had dan was er geen kindermisbruik of onthoofdingen. Laat staan dat het gedeeld wordt op internet. Dus die vlieger gaat helaas niet op.
Reageer
Nou ja, het is niet helemaal een vergelijking aangezien pedofielen psychisch ziek zijn.

In mijn comment had ik het strikt over mensen die psychisch gezond genoeg zijn om moderatiewerk te doen. Dat leek mij voor de hand liggend, maar dat had ik wellicht moeten verduidelijken.

Ik ging er vanuit dat psychisch (redelijk) gezonde mensen wel zo'n radar hadden. Maar goed, het is mij al door anderen duidelijk gemaakt dat mijn reactie blijkbaar nogal naïef was. 😅

[Reactie gewijzigd door Dan0sz op 6 augustus 2022 17:37]

Reageer
Dat is een behoorlijk aanname die je doet!

Wie bepaald dan dat de persoon die moderator wordt psychologisch gezond is? Hebben ze daar een screening voor? Hoe weten ze dat de medewerker wel tegen die beelden kan? Is daar onderzoek naar gedaan?

Hoe weten ze dat ze niet hun pedofiele psychologische ziekte getriggered is door de beelden? Of hun psychopatisch karakter versterkt is door de gruweldaden die gezien zijn?

Is daar een protocol voor? Is daar follow-up voor? Hebben ze daar hulp en begeleiding bij zodat ze tijdig ander werk kunnen gaan doen?

Daar riekt het niet naar. Het riekt naar “ik voldoe aan mijn moderatie” die gewenst is voor zo min mogelijk geld en maximaal winst. En DAT mag niet de insteek zijn lijkt mij met dergelijke “content”.
Reageer
Kan me een (waargebeurde film dacht ik) herinneren waarin een vrouw met kinderen (waarvan 1 meisje met ietsvan luier en geen topje) en vriendin in een slaapkamer waren en die maakten foto's.

Jaren 70-80 of zo dus ouderwetse filmrolletjes. Liet ze ontwikkelen, kioskmeneer sloeg alarm, iemand die (als dat gedeelte ook waargebeurd is) herkozen wilde worden (politiechef, burgemeester) wilde er een groot voorbeeld van maken. En daarna een hele boel drama, kinderen ondervragen, kinderen nog een keer ondervragen, en nog een keer, gevangenis etc.

Naam kan ik niet meer opkomen maar indien iemand hem weet voeg hem hier toe.

[Reactie gewijzigd door The Chosen One op 6 augustus 2022 17:02]

Reageer
In bepaalde gebieden oordeelt men toch het heel anders wat betreft kindermisbruik is dan in Nederland. Of zelfs maar wat men officieel daar van vindt. Een huwelijk van een meisje van 11 / 13 met een man van achter in de 60 kijkt men niet bepaald op. En op het gebied van sex heeft men ook wat andere voorstellingen. ("I did not have sex with that woman" zijn toch redelijk bekende woorden).

Ik (gepensioneerd) kreeg hier onlangs nog een jonge dame achter me aan, waarbij de ouders vooral rustig toekeken. Zij zagen een relatie best wel zitten. De dame in kwestie is 14 jaar. Volgens de lokale wetgeving is dat verboden. Wetgeving, handhaving en normen/waarden zijn hier aparte dingen, die een flexibele relatie met elkaar hebben.

Ja, er zijn zat gebieden waar men beslist een referentiekader aangereikt moet krijgen van wat in Nederland als kindermisbruik beschouwd wordt.
Reageer
Dat referentiekader is het belangrijkst. Wat maakt jou het nou uit dat Jan en Katrien dat doen? Waarom moet er een forensische professional aan te pas komen? Het is toch niet zo moeilijk om misbruik te herkennen? Maar wel het verschil tussen een kind dat met zijn ouders op een nudistische camping rondloopt en een kind dat een bepaalde gezichtsuitdrukking heeft en op zn slaapkamer in een hoekje staat (gok ik zo).

Maargoed, ik vind dergelijke berichten sowieso altijd zwaar overdreven want: Murica.
Reageer
Omdat het ook behoorlijk wat op je af komt. Het is niet mis zoals je hoort vanuit het filmpje. Daar hoort zorgvuldige monitoring, nazorg en training bij voor je medewerkers.

Zonder dat, bereik je dat mensen psychologisch in de knoop raken en rare dingen gaan doen.

Mensen die dit soort filmpjes en foto’s maken en/of klakkeloos delen zijn ook niet van het ene op het andere moment kinder molesteerder, onthoofdende terrorist of extremist geworden. Iets heeft dat hen gevoed.

Zou zo maar kunnen dat een medewerker die niet goed begeleid wordt een kick gaat ontwikkelen en ontspoort. Willen we dat? Of laten we dat over aan ervaren verantwoordelijke mensen met een goede background check en begeleiding?

Ik snap dat natuurlijk de winst marge veel belangrijker is voor een bedrijf. Daarom kunnen we dergelijke moderatie eigenlijk niet aan hun overlaten.

[Reactie gewijzigd door phoenix2149 op 6 augustus 2022 14:37]

Reageer
Zou zo maar kunnen dat een medewerker die niet goed begeleid wordt een kick gaat ontwikkelen en ontspoort.
Hmm, een kick op wat voor manier dan?
Zovan "je moest eens weten wat ik nu weer gezien heb"?

Of bedoel je hier juist dat ze dan seksueel opgewonden gaan raken bij het zien van kinderlichaampjes? Zou dat bij sommigen niet sowieso al onvrijwillig gebeuren n.a.v. de aanhoudende seksualisaties vanuit de pedoseksuelen? Is dat nou niet juist precies die hele "porno" narrative mind trick waar ze bestand tegen moeten zijn en waar ze een begeleidend psycholoog bij nodig hebben, ofzo?

Misschien zeg ik hier voor de hand liggende dingen maar ik begrijp gewoon nog steeds niet hoe dit werkt bij mensen. Vooral gezien de ontdekking dat de meeste pedoseksuelen helemaal geen pedofiel zijn, en daarnaast dat de theorie dat het allemaal over macht zou gaan inmiddels ook alweer een tijdje onderuit is.

Ben wel benieuwd of de mens hier over een kleine eeuw overheen geëvolueerd is met ultrarealistische nepvagina'tjes met AI ofzo. Dat dan ineens blijkt dat pedoseksuelen eigenlijk allemaal minder gevoel in hun geslachtsdeel hebben waardoor alle vrouwen eigenlijk net wat te wijd voor ze zijn en dat ze het dan door de FOMO i.c.m. een erg egoïstische persoonlijkheidstrek bij kinderen gaan zoeken, of zoiets.
Reageer
Niet alleen doelen op een kick betreffende kinderen onder het mom van pedofilie. De moderator ziet meer dan alleen dat.

Als je continu gewelddadige, filmpjes ziet dan kun je ook enthousiast van worden. Misschien zelfs verslavend.

Zelfde als elk andere verslaving gaat daardoor je gedrag veranderen en wordt je wereldvreemd. Niemand begrijpt je en je kunt zelfs agressief worden. Misschien zelfs jezelf uitten zoals de mensen doen in die filmpjes etc.

Je kunt best denken nou, dat overkomt me niet maar zo is het in realiteit echt niet. Als je veel aan iets (gruwelijks) wordt blootgesteld gaat het als normaal voelen.
Reageer
Mag graag films zoals Wrong turn, Texas chainsaw, Hills have eyes enz. zien want ja het is bruut en soms ook komisch maar heb nog nooit een neiging gehad en denk niet dat geweldadig materiaal een moordenaar maakt het zal juist eerder agressie en frustratie weg nemen maar goed misschien haalt het in sommigen iets naar boven wat er al was...

Vondt het einde van The texas chainsaw met Jordana Brewster wel heftig terwijl het meeste van die films betekenloos geweld is want meestal overleeft de laatste het en ook omdat J.D een bekende en geliefde actrice is had ik dat einde niet verwacht... maar dan kijk ik de volgende dag weer bijv. Frozen en zing het hardst mee met Let it góóóh :D die Disnep en Pixar films zijn te mooi om alleen voor kinderen te maken.
Reageer
Ik denk dat er een fundamenteel verschil is tussen TCM waarvan je weet dat het niet echt is en een onthoofding door ISIS, een zelfmoord aanslag of het misbruik van een peuter die op Facebook/tiktok wordt gedumpt.
Reageer
Inderdaad.. zat eens op een date site (erg casual het leek meer een social media met date opties dan een date site) komt er iemand met een link naar een soort van Underground Youtube met dat soort dingen van ongeluk tot onthoofding en in het begin dacht ik dat het nep was (kijk eens naar Mortal Kombat fanvideo's op Y.T die zijn veel beter dan de film en serie) maar dan draait de maag om en zie je dat het echt is..

Als je daar naar blijft kijken ja dan zal er iets breken en of naar boven komen en als dat met geweld is dan zal het mogelijk ook met misbruik zo gebeuren maar tot zover met geweldadige en sexuele spellen en films denk ik dat het postitief effect heeft ook al gaat ecchi soms over de grens heen (Kiss x Sis) maar ja fouten dingen zijn interessant het is maar net waar iemand de grens trekt en ook het verschil ziet..
Reageer
Het zou mij niks verbazen dat pedofielen bewust op dat soort baantjes solliciteren
Reageer
Ook dat nog eens! Toegang tot gratis content. Zie je het voor je.

Verschrikkelijk ondoordacht en te slecht voor woorden.
Reageer
Je moet psychisch gezien heel sterk in je schoenen staan om dergelijk materiaal de hele dag door te moeten bekijken. Ik zie dit niet als een werkzaamheid die je zomaar aan iedereen kan overlaten. Je moet hier getraind voor worden. Dus daar iedereen het kan....nee, ik zou het echt niet kunnen en willen.
Reageer
Het referentiekader van het gebruikte materiaal om uitleg over referentiekaders te geven is niet minder belangrijk. En daarvan is nu niet duidelijk welk materiaal ze gebruiken, van wie dat is, wat er op staat en of het wel toegestaan is. Maar waarop is het volgens jou nu zwaar overdreven, als dat alles niet duidelijk is?
Reageer
Dat het iedere keer naar buiten wordt gebracht. Voor mij heeft het geen nieuwswaarde als er iets intern kan worden besproken en de media erbij wordt betrokken. Bovendien verwachten de overheden dat dergelijke beelden geweerd worden van het platform en dan gaan wij lopen zeuren over de termijn die aangeeft hoe snel het verwijderd moet worden. Ik wordt hier heel simpel van.
Reageer
Waarom moet iets als gebuik van beelden over kindermishandeling voorbeelden alleen intern worden besproken? Dat klinkt een beetje als simpel geen zin in dat soort gebruik/misbruik hebben omdat het je niet uit komt. Maar voor bestrijden is niet gezegd dat het dan maar prima is om dat soort beelden te gebruiken. Bestrijden is geen kwestie van slachtoffers kunnen sectief naar hun rechten fluiten. Daar hoort discussie over te kunnen zijn, en dat gaat iedereen aan. Niet alleen een select groepje.
Reageer
Dat gaat ons helemaal niks aan. Het heeft geen functie voor ons, anders dan dat we ons ervan bewust worden dat seksueel misbruik bestaat. Dit is een interne zakelijke gelegenheid die wordt verdoezelt door de woorden seks en misbruik. Ik zie geen enkele mogelijke discussie hierover.
Reageer
Je bent je met dit nieuws bewust geworden dat een bedrijf kindermisbruikbeelden gebruik zonder dat duidelijk is hoe dat aan de wet voldoet en of slachtoffers daarvan weet hebben. Je argument dat je hiermee alleen weet dat misbruik bestaat klopt dus niet. Daarbij toon je niet aan dat het een interne zakelijke situatie is, juist omdat dit soort gegevens niet zomaar alleen van een bedrijf zijn.

Het bedrijf is daarbij ook aan het werk in de EU, waar het gegevens over kindermisbruik al niet zomaar mag verwerken. Het heeft dus zeker een functie dat je weet hebt dat een bedrijf kindermisbruikbeelden verwerkt zonder dat duidelijk is hoe ze daar toestemming voor hebben. Want waarom zou je dan zelf (of je kinderen) gebruik laten maken van zo'n bedrijf als je niet eens weet waar ze de grens leggen wanneer jou rechten wel of niet belangrijk zijn.
Reageer
Referentiekader? Ja, dat heet opvoeding en mensen die al langere tijd deelnemen aan de maatschappij krijgen dat als vanzelf. En gelukkig hebben mensen (uitzonderingen daargelaten) ook een eigen inlevingsvermogen.
Daarom neem je ook geen voetbal holligans aan om te beoordelen of 'het geweld gepast was'.

Als we films kijken en daarin worden mensen zogenaamd vermoord dan heb ik toch ook geen extra info nodig om te beoordelen wat er plaatsvindt? Stom genoeg besefte ik al van tevoren dat het niet verstandig is om iemand hoofd te verwijderen met een bijl...
Reageer
Nogmaals: wie bepaald dat? Wie bepaald of dergelijke personen wel op dergelijke manier normen en waarden hebben verkregen? Wie test dit? Hoe vaak wordt dit gecontroleerd zodat het niet ontspoord?

Er zijn meer dan genoeg mensen die “meedoen” in de maatschappij die “plotseling” iemand verkrachten, neerschieten, doodslaan, beroven, inbreken, drugsverslaafd worden.

Zijn toch echt mensen waarvan je zou kunnen verwachten dat ze opvoeding hebben genoten en normen en waarden hebben en/of inlevingsvermogen zouden moeten hebben. Toch gebeurd het.

En sommigen vinden een kind in een luier op strand op Facebook al kinderporno.
Reageer
Ja - dat klopt. Maar dat probleem lost je dan toch ook niet op door medewerkers te verplichten naar kinderporno te kijken?
Daarvoor hebben we gedeelde verantwoordelijkheid en peer-reviews.

IK stel dus niet dat iedereen een goede opvoeding / referentiekader heeft. Ik stel dat het overgrote deel dat wel heeft en dat soms op nuances wel verschillen aanwezig zijn en dat je daarom mensen moet controleren of ze hun werk wel goed genoeg doen. Niets nieuiws onder de zon trouwens.

(edit: typo)

[Reactie gewijzigd door Tintel op 9 augustus 2022 08:51]

Reageer
Ik weet niet wat de daadwerkelijke content is die ze te zien krijgen. Kan zijn dat het afgeschermd is. Kan zijn dat het niet eens heftig is, omdat sommige mensen een kind in een luier op een strand foto heftig vinden.

Een voorbeeld foto van een kind dat misbruikt wordt (hopelijk afgeschermd) als “dit is kinderporno” en niet dat kind met luier op een strandfoto dat is te h gewoon nodig om training te geven?

Maar goed haalt niet weg dat er deugdelijk onderzoek gedaan moet worden naar wat er nu daadwerkelijk in de training weergegeven wordt.
Reageer
Maar een trainings video waar het grootste deel geblurred is, lijkt me wat onzinning. En dan blijft nog het probleem: je mag het niet bezitten.

En dan nog: als je werk is om de rode auto op foto's op te zoeken dan krijg je toch niet eerst een paar honderd foto's te zien van rode auto's?
Reageer
Omdat het waarschijnlijk gaat om geld zo min mogelijk uitgeven zolang dat kan.

Ongeacht dat er een referentiekader nodig is: Als ze dit materiaal van en over anderen gebruiken zonder expliciete toestemming, dan is er iets grondig mis met het moreel besef van het personeel. Dan lijkt men hoe dan ook niet geschikt om te modereren en daarin anderen te vertellen wat onacceptabel is. Omdat ze selectief grenzen leggen voor als eerste eigen gewin. Modereren is geen recht om dan zelf de regels maar aan je laars te lappen.
Reageer
Als ze dit materiaal van en over anderen gebruiken zonder expliciete toestemming,
Dat is een aanname die je doet.
dan is er iets grondig mis met het moreel besef van het personeel. Dan lijkt men hoe dan ook niet geschikt om te modereren en daarin anderen te vertellen wat onacceptabel is.
De moderators selecteren niet het instructiemateriaal, dus wat je hier zegt klopt voor geen meter...
Reageer
Het is zeker een aanname. Maar aangezien van veel materiaal vaak niet eens duidelijk is wie daar op staat en er kennelijk geen aanwijzingen zijn dat er wel toestemming voor gevraagd is om afbeeldingen met kinderen hiervoor te gebruiken (wat wettelijk meestal al niet zomaar kan), lijkt het me tot anders bewezen een redelijke aanname. Zeker gezien social media er niet om bekend staan veel om andermans gegevens te geven.

[Reactie gewijzigd door kodak op 6 augustus 2022 22:58]

Reageer
lijkt het me tot anders bewezen een redelijke aanname.
Kan, maar juridisch gezien werkt het net andersom.... er moeten aanwijzingen zijn dat er geen toestemming voor is.
Reageer
Denk je dat forensische professionals duizenden foto's per dag willen bekijken, waar het kan dat een bepaald percentage niet door de beugel kan? Die hebben een vak gestudeerd, dit soort baantjes zijn voor de lager/niet opgeleiden
Reageer
Willen niet. Dat wil niemand. Maar het moet wel professioneel en zorgvuldig worden aangepakt.
Reageer
Het probleem is de schaal en de kosten. Hoeveel meer kost een forensisch expert meer dan een onderbetaalde jong volwassene? Minimumloon is een tientje, een junior professional kost als snel minimaal 75 per uur?
Reageer
Tja. Het zal de winst we drukken ja…. Dat is vee belangrijker dan de gezondheid en professionaliteit van je personeel.
Reageer
Het is bizar triest dat mensen dit moeten zien om het te (onder) vangen.

Maar er zou een staats-gereguleerde training moeten zijn onder begeleiding van politie.

Ik kan mij heel goed voorstellen dat mensen dergelijke trainingen moeten volgen om meer/erger tegen te gaan. Het is ziek en bizar, maar helaas nodig denk ik.

Ik ben dan ook groot voorstander voor staat-gereguleerde zorg voor deze mensen.

Ik zou het zeker niet aan kunnen denk ik.
Reageer
En waarom zou de staat dit moeten oppakken? Ik kan me vergissen, maar porno is sowieso toch al verboden op TikTok, waarom moeten de moderators dan getraind worden om kinderporno te herkennen!
Als wij belastinggeld moeten gaan steken om dit te gaan doen kunnen we beter de boel gaan verbieden ;)
Reageer
Er vind misdaad plaats op de openbare weg. Zullen we de openbare weg maar gaan verbieden? Dat is feitelijk wat je voorstelt. Maar daar schiet je niks mee op toch?

Ja, daar komt uiteraard viezigheid op, onkruid komt echt overal. Dus ja, die training is zeer helaas nodig.

Ik heb liever dat er een beetje belastinggeld hier naartoe gaat, dan dure 'kunst' in publieke gebouwen of prestige projecten.
Reageer
Dat een bedrijf illegale praktijken erop na houdt in hun training methode betekent niet ineens dat het dan een verantwoordelijkheid wordt van de staat. De andere social media bedrijven schijnen wel afdoende te kunnen trainen zonder illegale praktijken te gebruiken. Dus waarom moet het nu worden uitbesteed aan de staat?

Verder loopt je analogie mank. Beter zou zijn dat een bedrijf in hun training van hun personeel over gaat tot dumpen van asbest op de openbare weg om asbest te leren herkennen dat gedumpt wordt op een private weg van tiktok waar je moet betalen om overheen te rijden. Terwijl dumpen van afval, ongeacht het type afval sowieso verboden is door de gebruikers van de tiktok weg.
Ja dan stel ik voor om die private weg te sluiten, omdat er toch een openbare weg ligt, die misschien iets langer is maar je net zo goed naar de bestemming brengt
Reageer
Tiktok verdient ook af en toe een klein beetje geld. Waarom zouden ze dit geld niet moeten investeren om hun eigen content op orde te krijgen? Vind je ook dat de hoofdredacties van de kranten of het RTL nieuws door de belastingbetaler betaald moeten worden?
Reageer
Het is bizar triest dat mensen dit moeten zien om het te (onder) vangen.
Tot daar ging het goed... maar is het niet alleen triest, het is ook onnodig. Worden rechters dan ook opgeleid met filmpjes waarin allerlei verboden zaken plaatsvinden? Nee toch....
Reageer
Ik kan mij heel goed voorstellen dat mensen dergelijke trainingen moeten volgen om meer/erger tegen te gaan. Het is ziek en bizar, maar helaas nodig denk ik.
Om begrijpelijke redenen zal er weinig onderzoek naar zijn, maar ik zie de noodzaak niet om dergelijke zaken al te laten zien tijdens de training ten opzichte van goede begeleiding als iemand de csam tijdens het modereren tegen komt.

Hoe is het eigenlijk geregeld bij de politie?
Reageer
Problemen als deze illustreren perfect hoe de gedrags"wetenschappen" in de praktijk slechts een schaamlapje zijn voor alle maatschappelijke dysfunctie die ze geacht worden te verhelpen. In deze context niet kindermisbruik als zodanig, maar de procedures omtrent het omgaan met kindermisbruik-materiaal als een vorm van geestelijk misbruik van werknemers die er mee belast zijn. Het idee is altijd: iedereen kan dit soort werk doen, zolang we maar de juiste professionele vorming en psychologische begeleiding bieden. Nou nee dus, ab-so-luut niet. Het kan als een pedant punt klinken, maar voor dit soort duisternis kan je geen gestandaardiseerd protocol ontwerpen, hoewel dat natuurlijk wel geëist wordt. De kwaliteiten die je nodig hebt om dit soort werk te doen zijn spirituele kwaliteiten, en mega-bedrijven als deze zijn structureel niet in staat om dergelijke kwaliteiten te identificeren en er op te selecteren.
Reageer
Volgens mij zit er ook iets anders achter. Dit hele verhaal klinkt gewoon onrealistisch. Worden ook bij elke constatering de autoriteiten ingeschakeld, of zijn ze een deel van de doelgroep aan het beschermen door alles eerst in de kast te schuiven?
Reageer
spirituele kwaliteiten? Ben ik wel heel benieuwd, wat voor spirituele kwaliteiten dan?
Reageer
Hoe komen ze aan dit materiaal, en waarom denken ze dat ze een uitzondering hebben op een wet die bezit illegaal maakt?
Reageer
Aan dat materiaal komen is niet zo moeilijk voor hen, dat kunnen ze gewoon van hun eigen servers afhalen.
Reageer
Niet aan gedacht dat ze gewoon materiaal van hun eigen servers kunnen plukken.
Reageer
Als ik een bom vindt mag ik die ook niet houden en gebruiken...
Dat geldt dus ook voor kinderporno => gevonden => melden bij politie => verwijderen.
Welke idioot denkt dat het handig is als opleidingsmateriaal zou ook gewoon moeten worden ontslagen en worden berecht.
Reageer
In het kort: TikTok of haar trainingspartners hebben kinderporno in hun bezit. Ben benieuwd of mensen die in NL modereren dit ook te zien krijgen. De kans lijkt me groot dat dit ontzettend illegaal is.

Iemand hier die dit doet? Neem dan (anoniem) contact op met de Tweakers-redactie.
Reageer
Je hebt ook materiaal die afgeschermd is met blokjes bijvoorbeeld. Hoeft niet full detail te zijn toch?
Reageer
Zal je toch iemand moeten hebben die het bronmateriaal vindt en bewerkt.
Reageer
hoop eigenlijk wel dat dit van een goedgekeurd juridisch orgaan zou moeten komen, maar die kans ik erg klein want dan moet je verantwoorden waarom je dergelijk materiaal nodig hebt.

Met “Ja om jong volwassenen voor een hongerloon te trainen hoe onpasselijk en illegaal co tent te modereren” kom je dan denk ik niet weg.
Reageer
hoop eigenlijk wel dat dit van een goedgekeurd juridisch orgaan zou moeten komen
Ik vermoed dat een belletje naar Justitie met de vraag of ze nog kinderporno hebben en deze even willen doorsturen leidt tot een goed gesprek met een officier van justitie in een iets andere context.
Reageer
Er zijn ook onderzoekers die dit soort materiaal "in hun bezit" hebben, en diverse politiediensten...
Ik heb ook zaken die illegaal zijn om te gebruiken, maar ik heb er een vergunning/ontzegging voor..
Er zijn nu eenmaal omstandigheden waarin iets wat voor de meeste mensen "illegaal" is, voor een beperkte groep, onder voorwaarden, wel legaal is.
Reageer
Vind het wel erg merkwaardig dat een bedrijf als Teleperformance beeldmateriaal van kindermisbruik in bezit heeft. Je kan je dan al beginnen af te vragen wie daar toezicht op houd dat dit beeldmateriaal en of dit wel veilig genoeg opgeslagen word. Kan mij dan ook niet echt voorstellen dat dit volledig legaal is even ongeacht of het ook doelmatig is.

Mij lijkt toch dat welk normaal denkend mens wel vrij snel zelf kan inschatten of iets misbruik van kinderen is of niet. Zo gauw als jij toch al naaktbeelden van kinderen ziet dan moeten toch automatisch al de bellen gaan rinkelen lijkt mij. Zou hetzelfde zijn dat de moderatoren hier op Tweakers ook eerst beelden van kindermisbruik moeten zien om dan daarna ernaar te kunnen handelen.

Vind dus dat dit eigenlijk niet kunnen dat echt beeldmateriaal voor trainingen gebruikt word en ook vooral dat een bedrijf dit soort beeldmateriaal in bezit heeft.
Reageer
Dat "trainen" zal ook deels in houden "voorbereiden op de schokkende beelden".
Reageer
Voorbereiden op dit soort dingen werkt amper het is een kwestie van tijd dat mensen breken van dit soort werk hetzelfde met soldaten die worden ook voorbereid en zijn overtuigd van hun dienst maar toch komen velen beschadigd terug daarom is het na 10 jaar uitgezonden en 20 jaar dienst vaak gebeurt.

Eerste hulp verleners, Brandweer, Kustwacht enz. zijn iets anders die krijgen ook genoeg ellende te zien maar die zien of horen ook dat hun een leven hebben gered en dat zal misschien genoeg compensatie zijn om er mee om te gaan terwijl Politie, Bewaking, Treinconducteur enz. vaak alleen maar ellende registreren is waar je weinig tot niets aan kan veranderen.
Reageer
Voorbereiden op dit soort dingen werkt amper het is een kwestie van tijd dat mensen breken van dit soort werk
Precies, en om dan al bij de training mensen te confronteren met zo'n beelden lijkt mij alleen maar averechts werken. Enigste wat dan effectief kan zijn is om b.v. een soort van handleiding te maken met punten waarop men kan letten en die kenmerkend kunnen zijn.
Eerste hulp verleners, Brandweer, Kustwacht enz. zijn iets anders die krijgen ook genoeg ellende te zien
Dat zijn vaak ook mensen die een soort van 'roeping' voor dat vak hebben net als verplegers/verpleegsters. Maar zoals je al schrijf kan hun voldoening dan inderdaad liggen erin dat ze ook genoeg mensen redden.
Reageer
Dat zal eerder met contract en verzekering te maken hebben dat hun personeel willen die een contract krijgen dat die niet na een paar maanden al mentaal in de knoop zitten en dus een extra onkostenpost zijn maar dan nog hoe kunnen hun legaal deze beelden krijgen ? lijkt mij sterk dat de ouders toestemming gegeven hebben en zelfs een instantie zoals Politie mag niet zo maar even deze beelden gebruiken en opslaan.

Een A.I zou duizenden beelden per dag kunnen verwerken en die heeft tot zover geen emotie bij die beelden en die beelden zijn al op het internet dat is iets heel anders dan het downloaden en opslaan en de A.I zou het dan ook na bevestiging kunnen verwijderen.

Denk wel dat hun een balans kunnen vinden anders houdt je het niet vol en als beveiliger en bewaker ook wel dingen meegemaakt van dat iemand bij de receptie komt met een broodzak met zijn vingers in shock wat brabbeld over zaag ongelukje tot overdosis van mensen waar wij verantwoordelijk voor waren maar dat zijn maar enkele gevallen in 20 jaar tijd terwijl een eerste hulpverlener dat in één maand of één week ervaart.. daar moet je respect en waardering voor hebben dat hun doorgaan.
Reageer
maar dat zijn maar enkele gevallen in 20 jaar tijd terwijl een eerste hulpverlener dat in één maand of één week ervaart..
Inderdaad, of kijk b.v. naar treinmachinisten die mee moeten maken dat iemand voor de trein springt en zeker geen pretje is om het voorzichtig uit te drukken. Kunnen dan moeilijk treinmachinisten trainen door beelden te laten zien van wat ze zien als iemand voor de trein gesprongen is.
Reageer
Ben zelf tijdens de algemene militaire opleiding na Ammunition Awareness training eruit gestapt puur door die beelden en training en ja je kunt denken van dat gebeurt mij en ons niet maar met die gedachtes zul je eerder een last zijn dan een aanvulling want de kans (nog geen 1% maar toch) is er wel degelijk.

Dus ja het zal wel een verschil maken om schokkende beelden te tonen maar denk dat het eerder een filtersysteem is om personeel te vinden die er beter mee om kunnen gaan dan dat het voorbereid en helpt met herkennen en dan nog een bedrijf mag deze beelden niet hebben en gebruiken.

Dat zou via de Politie of een andere instantie moeten gebeuren die officieel toestemming heeft van de ouders en een rechter maar denk dat een 99,9% van ouders niet toestemming zullen geven dat vreemden naar beelden van hun misbruikt kind mogen kijken..

Wat anderen ook zeggen het is onnodig want met de technology van vandaag de dag kun je echt van nep nog amper onderscheiden dan gaan hun maar met bijv. Pixar samenwerken dan kunnen die Studio's en die Social media platformen reclame maken van "wij werken mee tegen kindermisbruik" dus win win win en win.
Reageer
Dat zou via de Politie of een andere instantie moeten gebeuren die officieel toestemming heeft van de ouders en een rechter maar denk dat een 99,9% van ouders niet toestemming zullen geven dat vreemden naar beelden van hun misbruikt kind mogen kijken..
Ik blijf het ook een vreemde zaak vinden en kan mij ook zeker niet voorstellen dat dit met toestemming van ouders gebeurd. Neem aan dat op zijn minst dan gezichten zijn geblurd en niet meer herkenbaar zijn maar de vraag blijft wie daarop dan heeft toegezien. Voor zover ik weet moet zelfs politie aan justitie eerst toestemming vragen eer ze beelden van criminelen openbaar mogen maken.
Social media platformen reclame maken van "wij werken mee tegen kindermisbruik" dus win win win en win.
Ergens te triest voor woorden maar het is wel inderdaad een feit dat het daar op neer komt en ergens misdaad als verkoopargument gebruikt word.
Reageer
Er wordt dagelijks aan vele Giga bytes geüpload aan content. Vaak rekenen de sociale media er ook op de gebruikers meldingen maken van de aanwezigheid van dergelijke content, En de (verboden) content vervolgens door moderators, na analyse wordt verwijderd van de betreffende account, en door het sociale medium in eigen beheer wordt bewaard, en vervolgens weer gebruikt wordt voor trainingsdoeleinden, bewijsvoering enz. Tja, er zullen ongetwijfeld wel moderators zijn die dergelijke content beter kunnen verdragen dan andere collega moderators. En zal de training wel een onderdeel zijn van de selectie procedure, welke sollicitant kan de beelden beter verdragen dan de andere. ofwel het zogenaamde geschikt en ongeschikt sollicitatie procedure
Reageer

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee