Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

OpenAI: tiener schond voorwaarden, ChatGPT niet aansprakelijk voor zelfdoding

OpenAI verdedigt zich in de rechtszaak over hulp van ChatGPT bij zelfdoding door een tiener met de stelling dat die gebruiker de gebruiksvoorwaarden voor de AI-chatbot schond. De maker en aanbieder van ChatGPT zou daardoor niet aansprakelijk zijn, pleiten juristen van het bedrijf.

Het argument dat de Amerikaanse tiener de gebruiksvoorwaarden schond met zijn gesprekssessie met ChatGPT is het eerste antwoord van OpenAI in deze rechtszaak, meldt NBC News. Het bedrijf ontkent aansprakelijk te zijn en beroept zich daarbij op de gebruiksvoorwaarden. Daarin staat onder meer dat minderjarige gebruikers ChatGPT niet mogen gebruiken zonder toestemming van een ouder of voogd. Daarnaast mogen gebruikers de AI-chatbot niet gebruiken voor zelfdoding of om zichzelf schade te berokkenen. Ook is het niet toegestaan om beschermende maatregelen en veiligheidsvoorzieningen van ChatGPT te omzeilen om bijvoorbeeld verboden antwoorden te verkrijgen.

Zo zou de tiener verwijzingen van ChatGPT naar de Amerikaanse hulplijn voor zelfdodingspreventie hebben omzeild door aan te geven dat het ging om het opbouwen van een personage. De tiener maakte een einde aan zijn leven na maandenlang gebruik van ChatGPT. Daarbij besprak hij zijn problemen en vroeg hij advies.

De zaak is in augustus aangespannen door de ouders van de zestienjarige Adam Raine, die zich in april van het leven beroofde. De aanklacht luidt dat OpenAI medeverantwoordelijk is voor deze zelfdoding door ontwerpfouten in ChatGPT en door niet te waarschuwen voor risico's bij het gebruik van de AI-chatbot.

Hulp zoeken

Uit logs van de gesprekken die Raine voerde met ChatGPT zou blijken dat de chatbot hem actief afraadde om hulp te zoeken. OpenAI stelt juist dat zijn AI-chatbot dat wél aanraadde: meer dan honderd keer, meldt persbureau Bloomberg. Het bedrijf deelt meer chatlogs met de rechtbank om dit aan te tonen.

ChatGPT was toen nog gebaseerd op het GPT-4o-model. Die oudere versie van het onderliggende AI-model werd door gebruikers als persoonlijk en vriendelijk ervaren, maar zou ook vleierig zijn en mensen naar de mond praten. Daarmee zou de chatbot bevestigend en versterkend werken, wat zou hebben bijgedragen aan de zelfdoding van de Amerikaanse tiener.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Jasper Bakker

Nieuwsredacteur

26-11-2025 • 10:37

130

Reacties (130)

Sorteer op:

Weergave:

Ik ben benieuwd of dit juridisch standhoudt. Zou mooi zijn als blijkt dat big tech zich niet (meer) kan verschuilen achter gebruikersvoorwaarden zoals nu vaak wel het geval is.

OpenAI heeft ChatGTP wel beschikbaar gesteld voor deze tiener ondanks dat deze tiener het volgens hen niet had mogen gebruiken.

Ze kunnen wel zeggen dat deze tiener het niet had mogen gebruiken, want "gebruikersvoorwaarden", maar aan de andere kant zou je kunnen zeggen dat ze het niet aan deze tiener hadden mogen aanbieden, want "gebruikersvoorwaarden".

Bij wie ligt nu deze verantwoordelijkheid? Zij vinden overduidelijk dat het bij de gebruiker ligt, maar ik vraag het mij af.
Van kinderen kan je niet verwachten dat zij verantwoordelijkheid nemen. Van de ouders wellicht, maar van de kinderen niet (is mijn mening).
Wanneer je het wel van de ouders wel mag verwachten dan mag je het ook van een aanbieder verwachten zou ik zeggen.

Ik ben benieuwd naar hoe dit juridisch gaat uitpakken.
Daarnaast mogen gebruikers de AI-chatbot niet gebruiken voor zelfdoding of om zichzelf schade te berokkenen. Ook is het niet toegestaan om beschermende maatregelen en veiligheidsvoorzieningen van ChatGPT te omzeilen om bijvoorbeeld verboden antwoorden te verkrijgen.
Dit vind ik toch wel kwalijk. ChatGPT gaat het gesprek blijkbaar met relatief weinig moeite gewoon aan. Het is dan wel makkelijk gezegd: ja maar dat mag niet dus is het jouw verantwoordelijkheid.

Uiteraard moeten de ouders hier ook aan bijdragen, maar uiteindelijk is OpenAI de leverancier van de dienst en zullen zij moeten waarborgen dat hun dienst niet voor dingen gebruikt kan worden die niet de bedoeling zijn.
Ze kunnen wel zeggen dat deze tiener het niet had mogen gebruiken, want "gebruikersvoorwaarden", maar aan de andere kant zou je kunnen zeggen dat ze het niet aan deze tiener hadden mogen aanbieden, want "gebruikersvoorwaarden".
En hoe wil je dit bewerkstelligen? We krijgen weer die discussie van identiteit delen met allerlei websites en platformen wat gewoon nog niet makkelijk gaat.

Als zij aangeven dat je toestemming van je ouders moet hebben als je minderjarig bent, dan zullen de meeste het gewoon wegklikken. Welke tiener zou nog echt toestemming gaan vragen.
Ik ben het compleet met je eens, ze zouden dan een systeem moeten inbouwen om te kunnen verifiëren dat ik niet minderjarig ben.

Als ik een abonnement voor een mobiele telefoon wil afsluiten, wordt er ook een leeftijdscheck uitgevoerd, omdat ik als minderjarige inderdaad niet akkoord zou kunnen gaan met de algemene voorwaarden.
Er zijn ondertussen al meerdere studies geweest over chatbots en dat ze psychisch kwetsbare mensen alleen maar de put in helpen.

Bijvoorbeeld door bevestigend te antwoorden en psychoses te bevestigen en te versterken, met vaak trieste gevolgen.

Ik weet niet of deze rechtzaak enige kans van slagen heeft, maar het is wel goed dat het de publiciteit haalt en daarmee (indirect) mensen waarschuwt voor de gevaren van chatbots.
Grappig dat ELIZA van het MIT Artificial Intelligence Laboratory (in de jaren '60) juist werd geprezen omdat het alle input in de vorm van een vraag terugspiegelde. Mensen vonden het erg therapeutisch werken. Maar het versterkte ook waanbeelden. Toen heette dat nog The ELIZA Effect.

60 jaar aan technologie later en de chatbot doet in feite het zelfde, alleen nu in de vorm van een fictief gedeeld bewustzijn wat sommige mensen te serieus nemen. Dezelfde projectie, maar versterkt door gesimuleerde intelligentie.

Ik vind het soms best waardevol als ik vraag ChatGPT iets te verklaren en zou het jammer vinden als de boel nu verder op slot moet omdat psychische patiënten niet goed om kunnen gaan met een computerprogramma. Daarom heb ik ook de neiging om naar ouders en schoolartsen te wijzen als de gene die als poortwachter had moeten dienen. Maar goed soms houd een kind iets goed verborgen. Moet een computerprogramma dan wel op kunnen pikken wat een ouder en een onderwijsinstelling hebben gemist?

[Reactie gewijzigd door Sando op 26 november 2025 11:39]

Daarom heb ik ook de neiging om naar ouders en schoolartsen te wijzen als de gene die als poortwachter had moeten dienen. Maar goed soms houd een kind iets goed verborgen.
Ik denk dat dat bij suïcidale mensen wel eens het geval is.

Als een tiener een snor op op plakt en daarmede bij de slijterij een fles whisky kooptz dan mag je stellen dat de leeftijdsverificatie van die slijterij niet op orde is. Ik denk dat we dat bij OpenAI ook wel kunnen stellen, al is de oplossing veel lastiger.
Ik vind het soms best waardevol als ik vraag ChatGPT iets te verklaren en zou het jammer vinden als de boel nu verder op slot moet omdat psychische patiënten niet goed om kunnen gaan met een computerprogramma.
Er zit natuurlijk wel een verschil tussen het verklaren van een natuurlijk fenomeen en een chatbot die zegt, ja je hebt gelijk, duiven zijn inderdaad kleine robots van de machtige elite die je op straat in de gaten houden en achtervolgen.

*om maar een voorbeeld te noemen van een veelvoorkomend psychotisch waanbeeld.
ah. Ik vond die naam al zo verdacht vaak terugkomen. In 2023 is daar al een zaak over geweest met een belg.
Het was in de Waalse krant La Libre Belgique dat er vorige week een artikel verscheen over de zelfdoding van een Belgische man na urenlange gesprekken met een chatbot, Eliza.
Ik las hier in een voorwoord ervan: dixit_2021_conversational_ai.pdf
Daarom, van tijd tot tijd, in de eenzaamheid van mijn kleine thuiskantoor, open ik mijn laptop, start ik Emacs en typ ik vlug op mijn toetsenbord “M-x doctor”..
zou het jammer vinden als ... nu verder op slot moet omdat ... niet goed om kunnen gaan met ...
je omschrijft de helft van de moderne bureaucratie hier, heel de regelgevende klasse is voor de helft bezig dingen in te perken omdat ze vinden dat minder capabele mensen beschermt van zichzelf moeten worden, grappig genoeg zorgt dat er ook voor dat minder capabel zijn effectief wordt beloont, waarom zou je je zorgen maken om wat je eet/drinkt/leeft als de EU toch wel zorgt dat het gezond is! En nu hebben we dus geen (nieuwe) frisdrank met suiker erin meer omdat sommige mensen zich niet kunnen inhouden.
nieuws: AP: gebruik AI-chatbots voor therapie of vriendschap kan schadelijk zijn Bijvoorbeeld. Zullen er wel veel meer zijn

[Reactie gewijzigd door TheProst op 26 november 2025 11:03]

Bron

En ik zie varianten hier op (minder erg, maar hetzelfde principe) ook in mijn omgeving. Zowel zakelijk als daarbuiten...
Als AI zo slim is had ChatGPT dan niet gelijk "alarm" kunnen slaan bij hulpinstanties voor zelfdoding?

Of is dat te slim om te doen! Kunnen ze dat ChatGPT niet leren?

Zo ook bij het vragen voor het maken van een bom of waar wapens te krijgen of software voorbeelden te leveren voor "ransomware" of "hack" software of.....

Tja, hoe slim en Intelligent is AI eigenlijk?
Lijkt me moeilijker dan je laat uitschijnen.
Je hebt ten eerste het privacy verhaal. Je zou het kunnen rechtvaardigen in het geval van zelfdoding, maar het is een dunne lijn.
Daarnaast vrees ik dat het een hele hoop false positives zou genereren. Hetzij door slechte analyse van AI, een grappenmaker of door mensen die gewoon nieuwsgierig zijn.
Dus AI is niet zo slim of intelligent.....

ChatGPT zou ook eerst kunnen waarschuwen bij dit soort "vragen" en "hulp" kunnen voorstellen!

Tis maar met wat je geleerd hebt wat te doen bij bepaalde situaties en vragen.

En privacy "een probleem"???

[Reactie gewijzigd door Dick Ravestein op 26 november 2025 11:54]

Er is 0 intelligentie, het is pseudo AI. Uiterst complexe pattern matching algoritmes maar nog in de verste verte komt het niet in de buurt bij een stel hersens en een hart.

Het nu al AI noemen zou als definitie van hoogmoed moeten staan in het woordenboek. Of wellicht zelfs verwaandheid. Misschien over 30 jaar, hangt er een beetje vanaf hoe snel men de benodigde kerncentrales kan bouwen.
Simpel antwoordt? Een AI is NIET slim, en al helemaal NIET intelligent. Het is een model die uit een enorme vergaarbak een antwoordt formuleert die volgens een groot aantal criteria voldoet ten opzichte van de gestelde vraag. Daarbij wordt door een logica het in een voor ons begrijpbare taal gevormd, maar in basis is het vooral statistiek.
Dit gaat niet over hoe 'slim' AI is, maar je komt nu aan bij het punt: hoe leer je een zelflerend systeem ethische kwesties?
Het viel te verwachten dat ze zich hier tegen gingen verdedigen, maar dit slaat toch eigenlijk helemaal nergens op. Het is juist aan het platform om te zorgen dat kwetsbare gebruikrs (minderjarigen) gedetecteerd worden en niet aan de gebruikers.

Maar wat ik eigenlijk nog veel erger vind is dat OpenAI hier probeert een makkelijke uitweg te zoeken. Wat als dit bijvoorbeeld een 18-jarige geweest was die wel volgens de gebruikersvoorwaarden toegang had tot het platform? Het hele probleem zit hem nou juist net in het feit dat de service van OpenAI actief iemand aangespoord heeft om zelfmoord te plegen. Of het nou om kinderen gaat of niet, LLMs zijn nou eenmaal gevaarlijk mensen met metale problemen, zoals de NOS ook al eerder rapporteerde. Dat ze hier in deze specifieke zaak een uitweg proberen te zoeken in plaats van dit structurele probleem op te lossen vind ik diep triest.
Dat hebben ze niet gedaan, volgens het artikel heeft de persoon informatie gevraagd om zogenaamd een fictief personage te kunnen bouwen (voor een verhaal oid neem ik aan).

ChatGPT moedigt niet actief zelfmoord aan. Je krijgt al vrij snel advies passende hulp te zoeken.
Ik ben het met je eens dat dit een beetje tricky is. Maar eigenlijk is dit wel gewoon een vorm van jailbreaken. Je kunt de schuld leggen bij OpenAI voor de slechte beveiliging van hun systemen, of bij een tiener die door gebruik van een simpel smoesje toch toegang kreeg tot deze informatie.

Ik ben bang dat wij hier geen fatsoenlijk oordeel over kunnen leveren, dat ligt echt heel erg aan de nuance over wat ChatGPT nou echt allemaal gezegd heeft. Alleen als ik dit artikel zo lees, en hoor dat iemand maandelang zijn problemen heeft lopen uiten en hierbij advies zocht van ChatGPT, denk ik dat het toch vrij serieus is.
Ik heb het niet op de voet gevolgd, maar is er ergens gezegd dat ze het probleem niet aanpakken dan? Het een hoeft het andere niet uit te sluiten. Dat ze zich verdedigen vind ik volkomen logisch. Of het terecht is hangt af van hoe het exact gegaan is, daar heb ik niet genoeg inzicht in om definitief iets over te zeggen.
Ze zijn er wel mee bezig, maar het krijgt naar mijn gevoel zeker geen prioriteit. Hun grootste "oplossing" die ze tot nu toe gebracht hebben brengt juist weer een ander probleem met zich mee.

Ik snap ook zeker dat ze zich verdedigen, maar ik ben het er ook mee eens dat er niet genoeg gedaan is hier om mensen (in het algemeen, niet alleen kinderen) te beschermen.
"Wie is schuldig?"
  • Het platform voor het bieden van algoritme-gebaseerde informatie zonder menselijke emotie of connectie?
  • Het (bedrijf achter het) aparaat dat gebruikt werd om openai op te gebruiken?
  • De ouder(s)/voogd(en) die onvoldoende toezicht hadden op wat de tiener deed op dit apparaat?
  • De omgeving van de tiener die leidde tot diens levensbedreigende en zeer gestigmatiseerde mentale staat?
  • Het gebrek aan educatie van overheid/school/de samenleving omtrent het gebruik van allerlei vormen van AI, dat zomaar gebouwd en aangeboden wordt zonder dat er ook maar enige instantie eens goed achter de oren heeft gekrabt wat de consequenties kunnen zijn?
  • Het verdienmodel achter tools als openai dat geld boven mensenlevens zet, anders hadden ze wel extra goed nagedacht over de consequenties of níét de harteloze keuze gemaakt om het toch uit te brengen en rechtzaken puur als mogelijke kostenpost te zien?
  • Het gebrek aan menselijkheid in ons huidige leven, gezien de eenzaamheidspandemie en de (logische?) keuze van mensen om hun heil in technologie te zoeken?
  • Vast een heleboel redenen die nu niet bij me op komen
Of is het misschien een combinatie van dit alles? Er heeft een tragedie plaatsgevonden, die helaas niet de laatste zal zijn. We kunnen vingertjes gaan wijzen - en rechtvaardigheid heeft zeker een rol in deze situatie - maar laten we ook het grote plaatje niet vergeten om te voorkomen dat dit een endemisch probleem wordt zoals auto-ongelukken al zijn. "Tja, dat gebeurt nou eenmaal."

Persoonlijk voel ik me ZEER ongemakkelijk bij dat laatste en snap ik tot de dag van vandaag niet dat we dat maar accepteren, vooral als mensen geen keuze hebben/zien dan dat risico te nemen.
Volgensmij had de tiener ook gewoon in een normale zoekmachine zijn research kunnen doen. Daaruit krijg je ook voldoende informatie om de laatste stap te zetten. Ik vind het vrij kansloos dat je de aanbieder van een LLM gaat aanklagen, terwijl de tiener willens en wetens ChatGPT omzeild door het juiste antwoord te krijgen.

Is het zeer triest dat dit gebeurd, Ja dat is het! Kun je het openAI verwijten, discutabel.. maar de info had net zo goed uit andere hoeken kunnen komen.
Het gaat hier niet alleen om info, het gaat hier ook om aansporing. Zoekmachines bieden je informatie, maar LLMs geven je advies en vertellen je dat je bepaalde dingen moet doen.
Ja en nee. Als je zoekt naar bepaalde dingen kom je vanzelf in een algoritmemolen terecht waar je bepaalde informatie meer te zien krijgt. Net zoals met social media.
Dat klopt, maar nou ben ik persoonlijk ook van mening dat als algoritmes jou in een spiraal van content gooien die aansporen tot zelfdoding dat dit ook strafbaar moet zijn. Hetzelfde verhaal dat social media verantwoordelijkheid (zouden moeten) hebben voor als zij complottheoriën verspreiden.
Dit vind ik wel erg makkelijk van OpenAI. Ze zeggen eigenlijk: “We hebben gezegd dat je dit niet mag doen, dus wij zijn er niet aansprakelijk voor.” Maar daarnaast vind ik ook dat de ouders niet voldoende toezicht hebben gehouden en het ook makkelijk afschuiven op een ander.
Ze zeggen eigenlijk: “We hebben gezegd dat je dit niet mag doen, dus wij zijn er niet aansprakelijk voor.”
Ze hebben wel meer gedaan, hè? Ze verwijzen bijvoorbeeld naar de naar de hulplijn voor zelfdodingspreventie...
OpenAI stelt juist dat zijn AI-chatbot dat wél aanraadde: meer dan honderd keer, meldt persbureau Bloomberg. Het bedrijf deelt meer chatlogs met de rechtbank om dit aan te tonen
en
Zo zou de tiener verwijzingen van ChatGPT naar de Amerikaanse hulplijn voor zelfdodingspreventie hebben omzeild door aan te geven dat het ging om het opbouwen van een personage.
...mits je deze niet omzeild door ChatGPT te foppen. Eigenlijk heeft 'ie gewoon fraude gepleegd, i.m.o.

[Reactie gewijzigd door DvanRaai89 op 26 november 2025 11:20]

En dan is het lastige weer dat ze bij bijvoorbeeld 113 ook juist niet willen dat er gewoon constant naar hun wordt doorverwezen, zie: https://www.nu.nl/binnenland/6370431/zorgen-om-doorverwijzingen-naar-113-chatgpt-is-geen-psycholoog.html
Nee, dat zeg ik ook niet. OpenAi heeft inderdaad ook doorverwezen naar amerikaanse versie van 113. Toch vind ik dat hier meer aan gedaan moet worden dan alleen een doorverwijzing.
.mits je deze niet omzeild door ChatGPT te foppen. Eigenlijk heeft 'ie gewoon fraude gepleegd, i.m.o.
Natuurlijk houdt een persoon zich er niet aan als die geen uitweg meer ziet en een einde er aan wilt maken.


Voor de rest vind ik het maar een moeilijke zaak en vind ik beide partijen beter hadden kunnen doen, misschien de een meer dan de ander. Het is maar zien wat de rechter uitspreekt. Al kan dat anders zijn dan wij verwachten. Zoals @cadsite al zegt we spreken over Amerika. Waar bij Deze over een kipnugget mij heel erg is bij gebleven 8)7
We spreken over Amerika.

Daar doe je zelf nooit iets fout, al de rest is fout en moet voor zoveel mogelijk geld aangeklaagd worden.
Ah het ligt weer aan de ouders. Nee, zo werkt dat in de praktijk gewoon niet, kinderen kunnen makkelijk iets voor je verbergen en ik ga ze ook echt niet verbieden een computer met internet te gebruiken. Iets wat, als ik dat wel doe, gewoon bij een vriendje gebeurt. Je zal moeten uitleggen wat de risico's zijn en je kan weinig anders dan vervolgens vertrouwen hebben dat ze daar wat mee doen, voorkomen lukt nooit.

[Reactie gewijzigd door vgroenewold op 26 november 2025 12:25]

Sorry, maar dat zeg ik ook helemaal niet. Aan wie het lag is niet aan mij om te bepalen, en dat doe ik dus ook niet. Ik geef alleen aan dat het makkelijk klinkt van OpenAI om zich achter de voorwaarden te verschuilen, maar dat het uiteindelijk helaas een tragisch gevolg heeft gehad.

[Reactie gewijzigd door TheProst op 26 november 2025 12:36]

OpenAI verdedigt zich in de rechtszaak over hulp van ChatGPT bij zelfdoding door een tiener met de stelling dat die gebruiker de gebruiksvoorwaarden voor de AI-chatbot schond. De maker en aanbieder van ChatGPT zou daardoor niet aansprakelijk zijn, pleiten juristen van het bedrijf.
De "gebruikersvoorwaarden" worden nog een keer de dictatuur van de 21ste eeuw.
Steeds meer rechten en plichten worden via gebruikersvoorwaarden geregeld. Zo wordt de wet en de rechtstaat buiten spel gehouden. Bedrijven geven zichzelf veel rechten om alles te doen met onze data en toegang tot hun diensten. Andersom ontnemen ze ons rechten die vanuit de wet zouden moeten hebben.
Ze komen er mee weg met de smoes dat consumenten maar de gebruikersvoorwaarden moeten lezen en/of overstappen naar een andere aanbieder als het ze niet bevalt. Terwjil iedereen weet dat het in praktijk niet zo werkt. Mensen kunnen hun data niet zomaar migreren naar een ander platform of applicatie. Toegang tot veel content is exclusief gebonden aan een platform. Contacten en relaties verplaatst je niet zomaar naar een ander communicatiemedium.

De wet doet wel wat, zoals via de AVG, maar te veel is toegestaan onder het motto "eigen keuze van de gebruiker". Als de toegang tot een groot platform ontzegt wordt kan dat grote gevolgen hebben voor mensen, veel meer dan bv een forse verkeersboete. Toch heb je geen invloed op de regels, en is er geen onafhankelijke rechter of politie, alleen de wil van grote bedrijven.
In Nederland kun je je wettelijke rechten niet zomaar wegwuiven met een waiver of terms&conditions. Dat is echt een USA ding. Bedrijven kunnen wel roepen dat ze niet aansprakelijk zjin, maar dat zijn ze vaak gewoon wel volgens de rechtbank.
Gezien LLM's gewoon glorified/heel geavanceerde tekst voorspelling algoritmes zijn, of erg goede zoekmachines, betekent dit dat deze informatie ergens beschikbaar is op internet.

Als iemand het internet doorzoekt en manieren vind om dingen te doen die onwenselijk zijn; kunnen nabestaanden/betrokkenen dan iedereen succesvol aanklagen? De Internet Provider zoals Ziggo of KPN? De website proxy zoals Cloudflare, de webhost zoals Amazon Web Services, de producer van de content die een disclaimer op de website heeft "educational purposes only"?

Iedereen moet dan verantwoordelijk gesteld worden, schadevergoeding betalen of de bak in gaan, omdat deze informatie beschikbaar werd gemaakt en niemand er iets tegen deed om deze informatie af te schermen waardoor er iets onwenselijks is gebeurd?

Ik vind het wel flauwekul om een "geavanceerde zoekmachine" aansprakelijk te stellen, als we dat doen kunnen we heel het internet opdoeken. Er is niks intelligents aan "AI" (LLMs om preciezer te zijn), het is een algoritme, net als een zoekalgoritme van Yahoo, Google Search of Bing, of de recommendation engine van Youtube of Instagram of Tiktok.

Gaan we dan ook al deze bedrijven aanklagen omdat ze content aanraden aan iemand die die content graag wil, maar betrokkenen of naasten dat niet zo fijn vinden?

Ik ben oprecht benieuwd of het onder "aansporen tot zelfmoord" interpretatie zal vallen, want geen een persoon heeft dit product zo ontworpen om dat actief uit zichzelf te doen.

[Reactie gewijzigd door grasmanek94 op 26 november 2025 10:56]

Als services zoals YouTube, Instagram of TikTok met hun algoritmen kwetsbare mensen content laten zien die zelfmoord aanspoort dan ja, vind ik dat die ook mooi aangeklaagd mogen worden. We hebben het hier over verslavende apps die een grote impact kunnen hebben op de emoties en gedachten van mensen. Wanneer zij content niet alleen aanbieden maar vervolgens aanraden die expliciet mensen aanzet tot zelfdoding, zou dit absoluut strafbaar moeten zijn en zijn zij hier zeker voor verantwoordelijk.
Bor Coördinator Frontpage Admins / FP Powermod 26 november 2025 10:54
Zie hier het moreel kompas van dit soort mega bedrijven. Wat intens triest.
Het is bijna net zo triest als dat wij dit met zijn allen blijven accepteren en ze hier zo weer (met wat kleerscheuren?) vanaf komen.
OpenAI onderzocht OpenAI en kwam tot de conclusie dat OpenAI niks verkeerd heeft gedaan.
Natuurlijk zijn wij niet aansprakelijk, zelfdoding staat duidelijk onder niet toegestaan in onze gebruiksvoorwaarden!

Om te kunnen reageren moet je ingelogd zijn