Techbedrijven moeten meldingen van Nederlandse stichting met voorrang behandelen

Techbedrijven zullen meldingen van de Nederlandse stichting Offlimits met voorrang moeten gaan behandelen. Toezichthouder ACM heeft Offlimits onder de Digital Services Act aangewezen als 'betrouwbare flagger', waardoor meldingen van de stichting een andere status krijgen.

Offlimits is onder meer bekend van het bijstaan van slachtoffers van bangalijsten onder studentenverenigingen en de stichting richt zich op meldingen over seksueel overschrijdend gedrag, meldt ACM. Een melding van Offlimits leidde ertoe dat Telegram bangalijsten offline haalde.

Door het aanwijzen van de stichting als betrouwbare flagger moeten bedrijven met online platforms meldingen met voorrang behandelen, maar ze zijn niet verplicht om content offline te halen: ze moeten de melding van Offlimits alleen sneller behandelen dan een reguliere melding.

Vier andere stichtingen hebben inmiddels bij ACM ook een verzoek ingediend om een betrouwbare flagger te worden. Of en wanneer de toezichthouder die verzoeken goedkeurt, is onbekend.

Door Arnoud Wokke

Redacteur Tweakers

20-05-2025 • 15:07

23

Submitter: GertMenkel

Reacties (23)

23
23
10
1
0
12
Wijzig sortering
Het roept wel een beetje de vraag op hoe snel het dan moet zijn. Is er een maximale termijn waarin bedrijven op dit soort meldingen moeten reageren? Of is dat zo iets waarbij de rechter het per geval bekijkt wat een redelijke termijn is als er over geklaagd wordt?
Kan er niet veel over vinden, maar het volgende staat in preamble 62 van de DSA:
However, the average time taken to process may still vary depending on factors including the type of illegal content, the quality of notices, and the actual technical procedures put in place for the submission of such notices.

For example, while the Code of conduct on countering illegal hate speech online of 2016 sets a benchmark for the participating companies with respect to the time needed to process valid notifications for removal of illegal hate speech, other types of illegal content may take considerably different timelines for processing, depending on the specific facts and circumstances and types of illegal content at stake.
Dan zijn er weer allerlei 'codes of conduct' om bepaalde zaken tegen te gaan. Hate speech als voorbeeld, daarbij wordt gesteld dat het grootste deel van de meldingen daarover binnen 24 uur behandeld kan worden.
https://ec.europa.eu/news...direction/document/111777
Maar die codes of conduct zijn weer vrijwillig, dus dit is op z'n best indicatief.
Daar lijkt geen harde grens voor te zijn maar er wordt wel gesproken over een vrijwillige Code of Conduct die stelt dat de meerderheid van meldingen binnen 24 uur beoordeeld moet worden. Dat kan een rechter dus als benchmark hanteren als een bedrijf daar structureel ver overheen gaat.

https://www.williamfry.co...sa-what-you-need-to-know/
Importantly, the recitals to the DSA acknowledge that the time to process these notices may vary depending on the type of illegal content, the quality of the notice submitted as well as the actual technical procedures put in place for submission of the notice. With respect to the removal of illegal hate speech however, Recital 62 of the DSA notes that Code of conduct on countering illegal hate speech online of 2016 sets a benchmark for the participating companies with respect to the time needed to process valid notifications. The code of conduct notes this as 24 hours for the majority of notifications.
Ik denk dat het vooral is dat een bedrijf niet kan zeggen dat ze deze niet op tijd hebben kunnen behandelen omdat er nog 10 andere aanvragen (van minder ernstige situaties) liggen.
Enige tijd geleden stond er een uitgebreid artikel in NRC over het werk dat deze stichting doet.

Het gene wat mij het meest bij is gebleven uit dat artikel is dat pas sinds vorig jaar er boetes opgelegd kunnen worden aan hosters die niets doen met meldingen mbt. het hosten van oa. kinderporno. Ik vond het ongelofelijk om te horen dat dat zo lang heeft geduurd, eigenlijk vind ik het nog steeds ongelofelijk.

Uit het artikel:
Maar er is een kleine groep hostingbedrijven die helemaal niet meewerkt. ... blijkt uit de jaarlijkse CSAM-monitor ... Dit kleine groepje bad hosters is de reden dat de overheid vorig jaar een nieuwe, onafhankelijke Autoriteit online Terroristisch en Kinderpornografisch Materiaal is opgericht. Dat kan via het bestuursrecht boetes aan die bedrijven opleggen. ....
Zover ik begrijp staat dit overigens los van de DSA, omdat deze zich (alleen) richt op grote platforms.
Natuurlijk is het begrijpelijk dat dit soort inhoud zo snel mogelijk off-line of in ieder geval niet toegankelijk meer is, om schade aan de betrokkenen zo klein mogelijk te houden.
Tja blijft een lastig ding, vrijheid van meningsuiting of gewoon verboden materiaal. Wie maakt de beslissing etc. Iedereen kan natuurlijk roepen deze server host strafbare inhoud, maar wie is nu wie?.
Persoonlijk zou ik het fijn vinden als er dus sneller een uitspraak van de rechter wordt gedaan voor dit soort dingen. En dat we niet op stichtingen hoeven te vertrouwen. Zoals buma stemra of deze. Hoe goed bedoeld ook. Een status geven aan een stichting kan natuurlijk helpen om onderscheid te maken om een hoster te activeren, maar blijft natuurlijk altijd iemand de roept, en als hoster wil de ook geen schade aan je klant toe-brengen.
Ik vraag me af of er voorheen inderdaad niets tegen hosters van KP werd gedaan. Misschien dat dit alleen een aanvullende aanpak is om de aanpak van zulke hosters gemakkelijker te maken. Ik neem (misschien wat naief) toch aan dat hardnekkige hosters uiteindelijk wel via de strafrechtelijke route aangepakt werden.
Het artikel doet suggereren dat er geen vervolging mogelijk was, of er praktisch niet overgegaan werd tot vervolging, omdat een hoster in principe niet aansprakelijk kan zijn voor de content van hun klanten.

Begin dit jaar zijn daar ook kamervragen over gesteld, en die lijken inderdaad aan te geven dat pas sinds juni vorig jaar er juridisch meer gedaan kan worden (de drempel daartoe verlaagd is) om dit soort ‘bad hosters’ te beboeten, of te kunnen vervolgen.

Bijzonder dat dat allemaal zo lang heeft moeten duren.
Het lijkt als volgt te werken;

De EU heeft een lijstje trusted-flaggers staan op zijn website met website en e-mail adres.

Deze kunnen b.v bij Meta een officieel request in dienen via een alternative link. Waarschijnlijk checkt Meta dan weer of dit officieel is door het e-mail adres te valideren met het lijstje op de EU website.
Wel weer leuk dat Offlimits niet op deze lijst van de EU trusted-flaggers staat.
Misschien komt er nog een update maar `Last update 20 May 2025`
Maar ook 'on the basis of notifications received from national DSCs', dus zal de ACM het waarschijnlijk gewoon nog niet doorgestuurd hebben.
En zelfs op zo'n site krijg je eerst nog een berg tracking voor advertisements door je strot gedouwd. fkn Meta. |:(
Ah, "bedrijven"/subsidie eters die voor eigen rechter mogen spelen. Altijd een goed idee! :+

[Reactie gewijzigd door emansom op 20 mei 2025 18:31]

Ga jij filmpjes van kinderporno, onthoofdingen, verkrachtingen, executies en andere vormen van traumatische gebeurtenissen modereren?

Ik denk dat we blij mogen zijn dat er mensen zichzelf opofferen om dit soort content zo snel mogelijk van online platformen weg te houden.
Leuk zijpad.

Toch denk ik dat er geen ruimte is voor een bedrijf noch stichting in de trias politica.

Om in te gaan op je zijpad; de technologie is inmiddels ver genoeg om dat te kunnen automatiseren.
Wat heeft dit met trias politica te maken?

Dit gaat over het modderen van online content, op een commercieel platform, door meldingen van een non-profit voorrang te geven op andere meldingen. Niets meer, niets minder.

En letterlijk uit het artikel:
... maar ze zijn niet verplicht om content offline te halen: ze moeten de melding van Offlimits alleen sneller behandelen dan een reguliere melding.
de technologie is inmiddels ver genoeg om dat te kunnen automatiseren.
Ondanks dat dat zou kunnen, blijkt de werkelijkheid blijkt toch anders:
Meta, which owns Facebook and Instagram, has previously said it employs about 15,000 moderators. TikTok says it has more than 40,000 people working on moderation.
Aanname dat het om dergelijk ernstig materiaal gaat en is moderatie dan echt de oplossing? Iets met struisvogel....
Het is, in combinatie met geautomatiseerde detectie, volgens mij nog steeds de meest gangbare manier hoe hier mee om wordt gegaan?

Het verplichten van accounts die herleidbaar zijn naar personen door gebruik te maken van verifieerbare identiteitspapieren is vooralsnog niet bepaald gangbaar. Ondanks dat het wellicht wel het meest effectief is om de verspreiding van dit soort content te verminderen, en/of mensen die verboden content delen te kunnen vervolgen.

Aan wat voor soort oplossing zit jij te denken dan?
Het verplichten van accounts die herleidbaar zijn naar personen door gebruik te maken van verifieerbare identiteitspapieren is vooralsnog niet bepaald gangbaar.
Dat is ook niet de oplossingsrichting omdat het juist eerder tot misbruik [van die gegevens] leidt op een heel andere manier. De stelling dat anonimiteit altijd leidt tot excessen/illegale uitlatingen is niet juist. En ook de inverse niet (dat identificatie nooit zal leiden tot excessen). Dat anonimiteit het vervolgen moeilijker maakt, dat klopt wel.

De oplossing is dat meer werk/tijd/resources gestoken moet worden in het voorkomen van excessen. Maar dat is makkelijk gezegd natuurlijk.
Het voorrang geven wil dus ook zeggen dat de bedrijven aan even serieuze of zelfs serieuzere verzoeken van foute/illegale content minder aandacht geeft. Ook als die eerder ontvangen worden. Het zorgt dus niet zomaar voor dat de betrouwbaarheid van het modereren dus maar beter zal zijn of even goed blijft. Hooguit dat men aan deze specifieke eis om prioriteit te geven voldoet. Maar dat is het doel van het prioriteren niet.

Zolang er geen enkele duidelijkheid is of deze, door de toezichthouder vertrouwde, organisaties werkelijk sneller en beter zijn dan de vele meldingen die de bedrijven hierdoor minder tot geen prioriteit geven ontbreekt het aan het werkelijk verbeteren en gaat het meer om andere meldingen minder serieus laten nemen. Met als gevolg dat slachtoffers enorm afhankelijk worden van specifieke organisaties en welke prioriteiten die wel en niet geven aan de vele problemen die er voor slachtoffers constant zijn. En daarvan hebben we eerder gezien wat de ongewenste gevolgen voor slachtoffers zijn. Groepen slachtoffers die niet gehoord worden, die veel te laat pas hulp krijgen en te laat recht kunnen halen.
De kans dat een professionele partij de meldingen in een beter formaat of met een hogere kwaliteit kan aanleveren en vatbaarder is voor feedback op de vorm van de meldingen is natuurlijk wel heel veel hoger dan randoms van de straat. Je kunt die ene stichting vertellen "hé jongens, willen jullie deze informatie erbij stoppen bij jullie melding?" en dan doen ze dat gewoon.
Er worden dagelijks heel veel moderatieverzoeken en abuse meldingen gedaan bij de bedrijven die aan de Digital Services Act moeten voldoen. Die zijn niet zomaar van lage kwaliteit omdat de toezichthouder een specifieke organisatie voorrang geeft. En die vele meldingen worden ook niet spontaan langzamer gedaan omdat de toezichthouder een specifieke organisatie voorrang geeft. En zonder aantoonbare verhoudingen is het stellen dat slachtoffers maar afhankelijk van kans moeten zijn dus veel te simpel. Net als bij slachtoffers er niet zomaar iets aan hebben dat die stichting de eigen meldingen misschien wat kan verbeteren zonder dat duidelijk is wat dat voor verschil maakt aan waar allemaal geen aandacht aan kan worden geschonken. En de vele meldende anderen krijgen zo te lezen ook geen inzicht in wat de stichting heeft gemeld en wanneer om te kunnen protesteren als hun eigen (eerdere) meldingen daardoor genegeerd worden. Het lijkt dus vooral een negeer systeem om dit soort organisaties belangrijker te maken in plaats van de slachtoffers voorop te stellen.
Prioriteit betekent meestal dat iets eerder gedaan wordt, niet dat meldingen van anderen niet serieus genomen worden. Ze worden echter later behandeld.

Iemand die bij de eerste hulp komt met een gebroken teen, wordt ook anders behandeld dan iemand met een opengespleten schedel, maar ze worden beiden geholpen.


Om te kunnen reageren moet je ingelogd zijn