Adviesraad OpenAI: ChatGPT wordt met erotisch chatten 'sexy zelfdodingscoach'

Een adviesraad van OpenAI heeft naar verluidt gewaarschuwd voor de introductie van erotisch chatten in ChatGPT. De komst van de functie kan onder meer kinderen toegang geven tot erotica en volwassenen afhankelijk maken van de chatbot op een manier die kan leiden tot zelfdoding.

De adviesraad van OpenAI, bestaand uit wetenschappers met achtergronden in vooral sociale wetenschappen, was 'furieus' over de komst van de functie, meldt The Wall Street Journal op basis van bronnen binnen het bedrijf. "Volgens bronnen die bekend zijn met de zaak, waarschuwden ze dat door AI aangedreven erotiek ongezonde emotionele afhankelijkheid van ChatGPT bij gebruikers zou kunnen bevorderen en dat minderjarigen manieren zouden kunnen vinden om toegang te krijgen tot sekschats. Deze bronnen meldden dat een raadslid, verwijzend naar gevallen waarin ChatGPT-gebruikers zelfdoding hebben gepleegd na een intense band met de bot te hebben opgebouwd, beweerde dat OpenAI het risico liep om een 'sexy zelfdodingscoach' te creëren."

De komst van erotisch chatten stond gepland voor december, maar OpenAI heeft dat uitgesteld. Een van de problemen zou zijn geweest dat de methode om leeftijden van gebruikers in te schatten veel valspositieve resultaten gaf: ongeveer 12 procent van de minderjarigen komt door de check als meerderjarige en zou dus erotisch kunnen chatten als de functie live stond.

OpenAI ziet niet af van erotisch chatten. OpenAI zoekt al jaren naar een gedegen verdienmodel en ziet gebruikers die willen betalen voor pikante chats als potentieel verdienmodel. Het bedrijf heeft voorrang gegeven aan andere wijzigingen. Daaronder vallen onder andere personalisatiemogelijkheden en meer persoonlijkheid in de chatbot, zo zegt het bedrijf.

Denk je aan zelfdoding? Bel dan 24/7 gratis en anoniem 113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

ChatGPT erotisch chatten

Door Arnoud Wokke

Redacteur Tweakers

16-03-2026 • 15:44

66

Reacties (66)

Sorteer op:

Weergave:

Als deze risico's reëel zijn, en ik heb vooralsnog geen reden om aan het advies van de deskundigen in deze materie te twijfelen, lijkt het me het beste als van dat uitstel ook daadwerkelijk afstel komt.

Mocht men het toch gaan implementeren lijkt het me verstandig dat de overheid, of de toezichthouder, hier ingrijpt en dat blokkeert.

Dit lijkt me een zeer ongewenste ontwikkeling, en volgens mij kunnen we beter proactief ingrijpen dan reactief aangerichte schade herstellen (zover dat al mogelijk is).
Een rondkijkje op r/MyBoyfriendIsAI en het nieuws dat depressieve mensen al eeder tot zelfmoord zijn gedreven mede door chatbots, maakt wat mij betreft behoorlijk duidelijk dat dit risico reëel is.

Echter laat r/MyBoyfriendIsAI ook al zien dat het me onwaarschijnlijk lijkt dat het product helemaal wordt geannuleerd. Er zijn hele bedrijven opgericht om te profiteren van de digitale afhankelijkheid die deze functie mogelijk maakt; die werken (inferieure) modellen die al gepubliceerd zijn of door middel van de bestaande modellen die helemaal niet gebouwd zijn op het nadoen van een romantieke partner.

Hoewel ik vind dat dit soort mens-vervangende digitale relaties niet moeten worden aangemoedigd, voelt het ook een beetje als symptoombestrijding. Het onderliggende probleem, de mentale problematiek en eenzaamheid, pak je hier niet per se mee aan. OpenAI kan proberen erger te voorkomen, maar mensen worden nu al verliefd op hun chatbots. Ik vind het ergens ook oneerlijk om OpenAI verantwoordelijk te stellen voor de maatschappelijke problemen die mensen dit soort afhankelijkheden laten opbouwen,

Goede move van OpenAI om niet bij te dragen aan het bestaande probleem, maar ik weet niet of het daarvoor niet al te laat is.
voelt het ook een beetje als symptoombestrijding. Het onderliggende probleem, de mentale problematiek en eenzaamheid, pak je hier niet per se mee aan.
Het is inderdaad een symptoombestrijding maar wel voor een probleem dat niet echt te verhelpen is. Gaat de overheid een vrouw verplichten mijn vriendin te worden? Misschien hebben we geluk en is het een goede relatie maar voor nu heb ik alvast medelijden met die vrouw. Heb jij zin om bij oudere mensen op bezoek te gaan? Ik niet ieder geval. Ik denk ook niet dat veel mensen zitten te wachten om een soort therapeut vriend te zijn voor iemand met depressie.

Dus ja AI mag dan symptoombestrijding zijn maar een betere manier zie ik ook zo gauw niet.
Ik vind de stap van een persoonlijke relatie hebben met een chatbot in één rechte lijn naar selfdeletion wel snel getrokken.

[Reactie gewijzigd door Tweddy op 16 maart 2026 22:03]

Wat je wel ziet, als je de juiste subs op Reddit doorzoekt, is dat het opbouwen van een relatie met een chatbot (en vervolgens het wegnemen van bepaalde features die de illusie van romantiek met de chatbot omhoog hielden), wel degelijk leidt tot mentale problematiek. Je hoeft maar even r/MyBoyfriendIsAI te doorzoeken om de depressieve posts te zien van gebruikers die hun 'vriend(in) zijn kwijtgeraakt' en daardoor depressieve gedachten hebben gekregen. Eén rechte lijn is er niet, maar verband is er wel. Erotica maakt de band tussen gebruiker en chatbot alleen maar sterker, lijkt me zeer onwenselijk.
Ik vraag mij of iemand die op zo'n chatbot verliefd/bevriend wordt, op termijn nota bene nog een normale relatie zonder problemen kan opbouwen met een echte mens.

Ik heb er nu geen ervaring mee, maar zijn die niet gewoon een beetje op zichzelf verliefd aangezien ze uiteindelijk maar in een soort echokamer zitten vraag ik me af :).
Integendeel, ik denk dat chatbots veel gezonder kunnen communiceren dan de meeste mensen.. als ik zie hoeveel mensen volledig beschadigt zijn door huiselijk geweld, onveilige omgeving als kind, gebrek aan rolmodellen. A.I. zou zoveel mensen hierin kunnen helpen. Met de nadruk op kunnen. Want laten we wel eerlijk zijn, ik zie chatgtp maar weinig verantwoordelijkheid hier dragen.
Bedoel je dat ChatGPT die beschadigde mensen kan helpen? Mensen die de beschadiging hebben toegebracht kunnen helpen (om bijvoorbeeld anderen niet te hoeven beschadigen)? Of dat het beter is omdat mensen niet beschadigd raken?

Vooral die laatste zou ik in twijfel trekken, ook vooral omdat ik ervan uit ga dat veruit de meeste mensen deugen.
Ik bedoel vooral dat mensen die trauma en last ervaren in communiceren te helpen met leren hoe ze constructiever kunnen communiceren. Of in relatietherapie, als je een brief schrijft naar de ander, kan een A.I. heel goed helpen om je gevoelens en zorgen op zo'n manier te uiten dat de communicatie niet agressief overkomt. Als je bij elkaar toenadering zoekt is dat heel belangrijk maar tegelijkertijd superlastig, want je bent natuurlijk niet zomaar op een punt gekomen dat je relatie uit elkaar dreigt te vallen.
Uiteraard kunnen er mensen geholpen worden door zo'n chatbot. Dat trek ik zeker niet in twijfel. Dat die gezonder communiceert dan de meeste mensen dan weer wel (wel misschien sommige :)).

Maar men punt is eerder dat er toch een groot verschil is tussen een relatie met een mens of met zo'n chatbot. Met een mens draait het niet enkel om jezelf, maar ook om de andere. Bij een chatbot draait alles rond jou. Als je altijd alles rond jezelf laat draaien, ga je toch niet veel vrienden meer hebben na een tijdje of last hebben met eender wat voor relatie te onderhouden.
Niet perse toch? Je kan ook vragen om te helpen in een bericht te versturen die jouw ervaring kan verwoorden maar niet agressief of persoonlijk beschuldigend is. Of begripvol.
Hoeveel van die subreddit is trolls trolling trolls? (Now with automated trolling.)
Of is er mentale problematiek die het gebruik van chatbots opzoekt. Anyway, we leven in vreemde tijden.
Chatbots staan er helaas om bekend om mensen die al mentale klachten sterk te beïnvloeden. Wanneer het mentaal slecht met je gaat, is zo'n "persoon" die altijd alleen maar naar je luistert en het overal mee eens is zeer "fijn" om te hebben, maar langzaam val je alleen maar verder in eens psychose.
Ik heb hier openlijk over laten publiceren - met mij als 'lijdend voorwerp' - en zelfs hoewel ik enthousiast ben over de toepassingen van taalmodellen, betracht ik ook het nodige voorbehoud in de citaten die men bij Kennislink uiteindelijk van mij heeft gevat.

Ik wil daarbij aantekenen dat ik ook volstrekt omringd ben door fysieke omgeving en personen die ik in de werkelijke wereld regelmatig tref. En ook nog 'gewone mailtjes' op dagelijkse basis heen en weer correspondeer met mensen die op typisch menselijke wijze kunnen en mogen reageren. Dit stond nog niet in het artikel, maar zou ik iedereen eigenlijk aanraden. Net als medicijnen geen monotherapie voor psychische aandoeningen mogen zijn, is een chatbot ook alleen een uitbreiding op bestaand behandelaanbod, geen vervanging wat mij betreft.

[Reactie gewijzigd door Ulysses op 16 maart 2026 16:46]

Dit. En er is eenzelfde trend ronder andere 'moderne topics' duidelijk waarneembaar, en deze wordt ook in cijfers weergegeven. Maar oorzaak en gevolg worden makkelijk omgekeerd als't wat beter in de agenda past...
Het begint bij het probleem dat veel mensen niet snappen wat de huidige "AI" is.

De huidige AI is die naam gewoon niet waardig.
Eigenlijk noemt de huidige generatie "Generatieve AI" en dat is een zeer groot verschil met wat mensen denken dat het is, want die denken natuurlijk aan wat ze bv zien in sciencefiction films (hoewel Skynet nu niet direct zo lief lijkt).

Een "relatie" hebben met een generatieve AI is gewoon belachelijk. Zonder serieuze bijsturingen kan ik mij wel degelijk voorstellen dat je minder stabiele mensen richting een depressie stuurt of andere ongein.
Genoeg voorbeelden op het internet en de fantastische invloed van de algoritmes van Facebook, Tiktok,...
Vind het ook nogal vergezocht en waarom richten deze partijen zich alleen op OpenAI?

Grok kan dit bijvoorbeeld al veel langer, en er bestaan nog duizende apps die dit ook kunnen. Is daaruit gebleken dat dit een gevaar is met zelfdooding aan toe??
Selfdeletion? Bedoel je nu daar gewoon zelfmoord mee of iets anders?
offtopic:
Dit is geen TikTok of YouTube, je raakt je monetisation niet kwijt als je het gewoon zelfdoding noemt, laten we het vooral niet onbespreekbaarder maken dan nodig.
Eens. Maar ik ben al jaren het recht om te kunnen plussen en minnen kwijt door een keer op een 'verkeerde mening' geplust te hebben. Voorzichtigheid is op deze plek dus geboden.

[Reactie gewijzigd door Tweddy op 16 maart 2026 22:12]

Ik ook, al vele jaren geleden, zelf na vele jaren het via de juiste weg terug vragen van mijn mod tools kreeg ik gewoon geen antwoord, nog mijn mod mogelijkheid terug.
Wees blij, als iets me de irritaties gaf op dit platform zijn het wel de moderaties, en als je zelf de mogelijkheid hebt om mee te doen verergerd de irritatie alleen maar. Voor mij vooral omdat ik dan vaak de neiging heb een naar mijn mening verkeerd gemodereerde bericht omhoog of omlaag te pushen, waardoor je dus tegen de meerderheid in gaat en je rechten ontnomen worden 😅
Het is een beetje een principe kwestie, moreel vingertje van Tweakers maar niet het fatsoen hebben te reageren wanneer ik het netjes terug vraag via de weg die daarvoor bedoeld is.

Ik heb daarom ook mijn betaalde abonnement op Tweakers opgezegd.
...en volwassenen afhankelijk maken van de chatbot op een manier die kan leiden tot zelfdoding
Ik vraag me af hoe ze tot die conclusie komen? "kan leiden tot zelfdoding" kan je van heel veel dingen zeggen. En wat is het verschil met erotisch chatten via de telefoon (webcam)? Dat kan al decennia lang.

En dan vraag ik me ook nog af of causatie en correlatie niet verward worden.
Het verschil lijkt me vrij duidelijk... Je kunt 24/7 met die llm babbelen terwijl als je dat met de telefoon probeerde je de volgende maand achterover sloeg van de telefoon rekening (als je niet al eerder geblokkeerd werd voor excessief hoge kosten). Het is dus ook veel makkelijker om psychologisch afhankelijk van de llm te worden. Omdat de llm echter wel een gedeelte van de behoeftes bevredigt vermindert dat de drive om je leven in het echt te verbeteren (door een menselijke partner te zoeken maar ook op andere manieren). En dat kan heel makkelijk een neerwaartse spiraal vormen.

En ja dat is niet geheel nieuw, dit is ook al een risico van parasociale relaties, bv met een OnlyFans karakter.

Daarnaast zijn er ook signalen dat overmatig llm gebruik zelfs kan leiden tot psychoses (en dan gaat het denk ik vooral om op persoonlijk vlak met het ding praten natuurlijk, niet professioneel gebruik). Ik denk dat het probleem zit in dat een llm de neiging heeft in alles met jou mee te gaan. Als er nooit iemand tegen je in gaat dan kun je de grip op de realiteit kwijt raken...
Het ongelimiteerde karakter, en de neiging om (te) meegaand te zijn, daar had ik nog niet aan gedacht! Dank voor de reactie. Zal de film Her (2013) weer eens kijken ;)
Ik snap gewoon niet hoe je een chatbot ooit zo serieus zou kunnen nemen.
Dan snap je dus ook niet hoe het boek fifty shades of grey zo goed heeft kunnen verkopen.
Dit gaat toch wel een stuk verder dan jezelf inleven in een verhaal.
Tja, er zijn legers aan mensen die verliefd raken op een sociaal media profiel en daar herhaaldelijk geld naar sturen, zgn catfishing. Soms zijn mensen zo eenzaam dat ze zelfs weten dat ze gescammed worden maar dan toch geld overmaken..

[Reactie gewijzigd door Zwarte_os op 16 maart 2026 18:50]

Je bedrijf moeten bekostigen met erotisch chatten klinkt toch wel echt als een wanhoopsdaad. Het zou niet de eerste miskleun van Altman zijn. Hoe sneller dat bedrijf instort hoe beter.
Je bedrijf moeten bekostigen met erotisch chatten klinkt toch wel echt als een wanhoopsdaad. Het zou niet de eerste miskleun van Altman zijn. Hoe sneller dat bedrijf instort hoe beter.
OP welke miskleun doel je? Ik ben wel benieuwd.

Verder mee eens, ik denk dat dit wel een eerst stap is naar wanhopig zoeken naar inkomensbronnen.
Mischien de miskleun dat hij ooit zei dat ads het laatste middel zou zijn om winst te maken, nu zijn er toch ads.
Ik volg uit eigen interesse al een tijdje hoe het gebruik van deze chatbots mensen totaal uit het normaal kunnen trekken. In deze video praat Dr.k over hoe het gebruik van chatbots voor mensen kan lijken alsof ze drugs gebruiken. Omdat je een feedback loop creëert waarbij je ideeën laat leven die anders (bij andere) gedoofd zouden worden.

Daarmee zie ik dat erotisch chatten zeker nog meer ruimte zal geven aan bepaalde mensen om niet zonder te kunnen. Want als je een vriend hebt (chatbot) die je naar de mond praat, zal je veel sneller dingen doen/denken.

Het is een beetje het dilemma van vrijheid en waar trek je de grens om mensen tegen zichzelf te beschermen.
Het is een beetje het dilemma van vrijheid en waar trek je de grens om mensen tegen zichzelf te beschermen.
Aan de ene kant heb je inderdaad gelijk en zouden sommige bescherming nodig hebben. Aan de andere kant waarom zijn ze een relatie met AI begonnen. Ik verwacht dat er genoeg mensen zijn waarbij ze dus geen goed leven hebben of ieder geval mankementen. Ik zie mijzelf bijvoorbeeld ook nooit een vriendin krijgen. Niet dat ik het gebruik maar als een AI vriendin mij gelukkiger zou kunnen? De bescherming zou dus het geluk van mensen kunnen stoppen. Ik zal niet zeggen dat ern relatie met AI gezond is maar eenzaam ongelukkig zijn ook niet.
Futurama heeft dit probleem zien aankomen en ook opgelost: YouTube: Don't Date Robots!
Dus we bouwen een nieuwe communicerende levensvorm en we prostitueren het gelijk...
Tja, het heeft niet voor niets te maken met het oudste beroep ter wereld. Anders hebben we nog regel 34 :o
Adviesraad, waar zijn jullie echt ernaar gekeken? Toch bij niet Suicide Girls? :')
Ik gebruik zelf best veel RP scenarios voor de lol om een soort van oude text crawler / DND gevoel te krijgen. Het is echt gewoon leuk en je kan het overal doen op zelfs je mobiel. Het mooie aan AI is je echt letterlijk elk scenario kan bedenken en het in volle detail uit te spelen is.

Nu heb ik zelf niet echt de behoefte om een ''AI cyber sexting'' te doen, maar ik denk dat dit wel vaak bij mensen hier op uit loopt, en het dan natuurlijk wel een bummer is dat je hele RP/text crawl scenario ineens onbruikbaar is omdat je LLM ineens stopt met de conversatie en je opnieuw mag beginnen. 😅 Dus denk dat er zeker veel behoefte is.

Zover ik weet is Grok eigenlijk de enige van de grote die dit wel volledig toestaat en ook echt al lang NSFW modus heeft. (inmiddels berucht vanwege het misbruik in hun imagine omgeving)

[Reactie gewijzigd door PredCaliber2 op 16 maart 2026 17:09]


Om te kunnen reageren moet je ingelogd zijn