Adviesraad OpenAI: ChatGPT wordt met erotisch chatten 'sexy zelfdodingscoach'

Een adviesraad van OpenAI heeft naar verluidt gewaarschuwd voor de introductie van erotisch chatten in ChatGPT. De komst van de functie kan onder meer kinderen toegang geven tot erotica en volwassenen afhankelijk maken van de chatbot op een manier die kan leiden tot zelfdoding.

De adviesraad van OpenAI, bestaand uit wetenschappers met achtergronden in vooral sociale wetenschappen, was 'furieus' over de komst van de functie, meldt The Wall Street Journal op basis van bronnen binnen het bedrijf. "Volgens bronnen die bekend zijn met de zaak, waarschuwden ze dat door AI aangedreven erotiek ongezonde emotionele afhankelijkheid van ChatGPT bij gebruikers zou kunnen bevorderen en dat minderjarigen manieren zouden kunnen vinden om toegang te krijgen tot sekschats. Deze bronnen meldden dat een raadslid, verwijzend naar gevallen waarin ChatGPT-gebruikers zelfdoding hebben gepleegd na een intense band met de bot te hebben opgebouwd, beweerde dat OpenAI het risico liep om een 'sexy zelfdodingscoach' te creëren."

De komst van erotisch chatten stond gepland voor december, maar OpenAI heeft dat uitgesteld. Een van de problemen zou zijn geweest dat de methode om leeftijden van gebruikers in te schatten veel valspositieve resultaten gaf: ongeveer 12 procent van de minderjarigen komt door de check als meerderjarige en zou dus erotisch kunnen chatten als de functie live stond.

OpenAI ziet niet af van erotisch chatten. OpenAI zoekt al jaren naar een gedegen verdienmodel en ziet gebruikers die willen betalen voor pikante chats als potentieel verdienmodel. Het bedrijf heeft voorrang gegeven aan andere wijzigingen. Daaronder vallen onder andere personalisatiemogelijkheden en meer persoonlijkheid in de chatbot, zo zegt het bedrijf.

Denk je aan zelfdoding? Bel dan 24/7 gratis en anoniem 113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

ChatGPT erotisch chatten

Door Arnoud Wokke

Redacteur Tweakers

16-03-2026 • 15:44

32

Reacties (32)

Sorteer op:

Weergave:

Ik vind de stap van een persoonlijke relatie hebben met een chatbot in één rechte lijn naar selfdeletion wel snel getrokken.
edit:
Hoe is dit een irrelevante bijdrage?
Wat je wel ziet, als je de juiste subs op Reddit doorzoekt, is dat het opbouwen van een relatie met een chatbot (en vervolgens het wegnemen van bepaalde features die de illusie van romantiek met de chatbot omhoog hielden), wel degelijk leidt tot mentale problematiek. Je hoeft maar even r/MyBoyfriendIsAI te doorzoeken om de depressieve posts te zien van gebruikers die hun 'vriend(in) zijn kwijtgeraakt' en daardoor depressieve gedachten hebben gekregen. Eén rechte lijn is er niet, maar verband is er wel. Erotica maakt de band tussen gebruiker en chatbot alleen maar sterker, lijkt me zeer onwenselijk.
Of is er mentale problematiek die het gebruik van chatbots opzoekt. Anyway, we leven in vreemde tijden.
Chatbots staan er helaas om bekend om mensen die al mentale klachten sterk te beïnvloeden. Wanneer het mentaal slecht met je gaat, is zo'n "persoon" die altijd alleen maar naar je luistert en het overal mee eens is zeer "fijn" om te hebben, maar langzaam val je alleen maar verder in eens psychose.
Ik heb hier openlijk over laten publiceren - met mij als 'lijdend voorwerp' - en zelfs hoewel ik enthousiast ben over de toepassingen van taalmodellen, betracht ik ook het nodige voorbehoud in de citaten die men bij Kennislink uiteindelijk van mij heeft gevat.

Ik wil daarbij aantekenen dat ik ook volstrekt omringd ben door fysieke omgeving en personen die ik in de werkelijke wereld regelmatig tref. En ook nog 'gewone mailtjes' op dagelijkse basis heen en weer correspondeer met mensen die op typisch menselijke wijze kunnen en mogen reageren. Dit stond nog niet in het artikel, maar zou ik iedereen eigenlijk aanraden. Net als medicijnen geen monotherapie voor psychische aandoeningen mogen zijn, is een chatbot ook alleen een uitbreiding op bestaand behandelaanbod, geen vervanging wat mij betreft.

[Reactie gewijzigd door Ulysses op 16 maart 2026 16:46]

Ik vraag mij of iemand die op zo'n chatbot verliefd/bevriend wordt, op termijn nota bene nog een normale relatie zonder problemen kan opbouwen met een echte mens.

Ik heb er nu geen ervaring mee, maar zijn die niet gewoon een beetje op zichzelf verliefd aangezien ze uiteindelijk maar in een soort echokamer zitten vraag ik me af :).
Als deze risico's reëel zijn, en ik heb vooralsnog geen reden om aan het advies van de deskundigen in deze materie te twijfelen, lijkt het me het beste als van dat uitstel ook daadwerkelijk afstel komt.

Mocht men het toch gaan implementeren lijkt het me verstandig dat de overheid, of de toezichthouder, hier ingrijpt en dat blokkeert.

Dit lijkt me een zeer ongewenste ontwikkeling, en volgens mij kunnen we beter proactief ingrijpen dan reactief aangerichte schade herstellen (zover dat al mogelijk is).
Een rondkijkje op r/MyBoyfriendIsAI en het nieuws dat depressieve mensen al eeder tot zelfmoord zijn gedreven mede door chatbots, maakt wat mij betreft behoorlijk duidelijk dat dit risico reëel is.

Echter laat r/MyBoyfriendIsAI ook al zien dat het me onwaarschijnlijk lijkt dat het product helemaal wordt geannuleerd. Er zijn hele bedrijven opgericht om te profiteren van de digitale afhankelijkheid die deze functie mogelijk maakt; die werken (inferieure) modellen die al gepubliceerd zijn of door middel van de bestaande modellen die helemaal niet gebouwd zijn op het nadoen van een romantieke partner.

Hoewel ik vind dat dit soort mens-vervangende digitale relaties niet moeten worden aangemoedigd, voelt het ook een beetje als symptoombestrijding. Het onderliggende probleem, de mentale problematiek en eenzaamheid, pak je hier niet per se mee aan. OpenAI kan proberen erger te voorkomen, maar mensen worden nu al verliefd op hun chatbots. Ik vind het ergens ook oneerlijk om OpenAI verantwoordelijk te stellen voor de maatschappelijke problemen die mensen dit soort afhankelijkheden laten opbouwen,

Goede move van OpenAI om niet bij te dragen aan het bestaande probleem, maar ik weet niet of het daarvoor niet al te laat is.
Futurama heeft dit probleem zien aankomen en ook opgelost: YouTube: Don't Date Robots!
Dus we bouwen een nieuwe communicerende levensvorm en we prostitueren het gelijk...
Tja, het heeft niet voor niets te maken met het oudste beroep ter wereld. Anders hebben we nog regel 34 :o
...en volwassenen afhankelijk maken van de chatbot op een manier die kan leiden tot zelfdoding
Ik vraag me af hoe ze tot die conclusie komen? "kan leiden tot zelfdoding" kan je van heel veel dingen zeggen. En wat is het verschil met erotisch chatten via de telefoon (webcam)? Dat kan al decennia lang.

En dan vraag ik me ook nog af of causatie en correlatie niet verward worden.
Je bedrijf moeten bekostigen met erotisch chatten klinkt toch wel echt als een wanhoopsdaad. Het zou niet de eerste miskleun van Altman zijn. Hoe sneller dat bedrijf instort hoe beter.
Je bedrijf moeten bekostigen met erotisch chatten klinkt toch wel echt als een wanhoopsdaad. Het zou niet de eerste miskleun van Altman zijn. Hoe sneller dat bedrijf instort hoe beter.
OP welke miskleun doel je? Ik ben wel benieuwd.

Verder mee eens, ik denk dat dit wel een eerst stap is naar wanhopig zoeken naar inkomensbronnen.
Ik snap gewoon niet hoe je een chatbot ooit zo serieus zou kunnen nemen.
Adviesraad, waar zijn jullie echt ernaar gekeken? Toch bij niet Suicide Girls? :')
Ik gebruik zelf best veel RP scenarios voor de lol om een soort van oude text crawler / DND gevoel te krijgen. Het is echt gewoon leuk en je kan het overal doen op zelfs je mobiel. Het mooie aan AI is je echt letterlijk elk scenario kan bedenken en het in volle detail uit te spelen is.

Nu heb ik zelf niet echt de behoefte om een ''AI cyber sexting'' te doen, maar ik denk dat dit wel vaak bij mensen hier op uit loopt, en het dan natuurlijk wel een bummer is dat je hele RP/text crawl scenario ineens onbruikbaar is omdat je LLM ineens stopt met de conversatie en je opnieuw mag beginnen. 😅 Dus denk dat er zeker veel behoefte is.

Zover ik weet is Grok eigenlijk de enige van de grote die dit wel volledig toestaat en ook echt al lang NSFW modus heeft. (inmiddels berucht vanwege het misbruik in hun imagine omgeving)

[Reactie gewijzigd door PredCaliber2 op 16 maart 2026 17:09]

De rol van de eigen adviesraad van OpenAI is niet innovatie of commercieel succes, maar juist morele grenzen bewaken om te voorkomen dat de AI race resulteert in alles voor het geld zonder ruimte voor ethiek…

Grok is een mooi voorbeeld, allerlei vrouwen worden anoniem uitgekleed en de software maakt zelfs kinderporno.

Een adviesraad is niet bindend, maar biedt wel een goede spiegel voor de richting waarin een bedrijf gaat.

[Reactie gewijzigd door Gemeni op 16 maart 2026 16:00]

Dank voor deze toevoeging. Toch grappig dat een nieuwe ontwikkeling als AI menselijk werk op alle fronten gaat vervangen en we dat kiezen voor het geld zonder ruimte voor ethiek erachter. Maar dat ze wel een leger aan gedrachswetenschappers hebben die grens trekken bij zaken die al lang en breed op het internet vindbaar zijn (niks nieuws). Sorry dat ik dat op een meta niveau niet helemaal serieus kan nemen.
Ik zie nu al om me heen veel te veel mensen die de onzin geloven die uit ChatGPT/Co-pilot komt. Mensen zijn vergeten dat ze dingen moeten verifiëren. Als je dat gaat combineren met clowns die geloven dat de chatbot echt verlieft op ze is dan ben ik bang.

En in lijn met je vraag, Twitter/X is een typisch voorbeeld van een innovatie die keihard op zijn plaat is gegaan door juist de adviesraad weg te halen. Sinds ze daarmee gestopt zijn is misinformatie en haat de orde van de dag. Dus nee laten we in tegenstelling tot social media nu ruim op tijd erbij zijn om ervoor te zorgen dat al die onzin niet te veel schade aanricht.
Hierin komt dus een factor bekendheid (hoge bomen) en toegankelijkheid bij kijken. Het voornaamste probleem met Grok is, is de simpliciteit waarmee het schijnbaar kan, en de makkelijke beschikbaarheid van het mechanisme.

Bij reguliere pornosites zijn er (als het goed is) allemaal acteurs die dit als werk hebben, of zijn de beelden met instemming van de acteurs geplaatst (uitgaande van geen illegale praktijken). Als je het met lokale AI-modellen wil doen, vereist dat (een beetje) kunde, en een redelijke computer.

Bij Grok geldt, dat iedereen die weet hoe een browser werkt, z'n buurmeisje chanteren/zieken met vervelende AI gegenereerde beelden. Daar zit wat mij betreft een verschil in. Je hoeft het uiteraard niet met me eens te zijn, maar om bekende held z'n oom te parafraseren. "Met grote bereik, komt grote verantwoordelijkheid"
Aangezien ik op een werkdevice zit de komende tijd en ik niet een rare indruk wil achterlaten door zelfs maar naar de definitie te zoeken: Wat betekend KYS?
KYS is an internet acronym standing for “kill yourself,”

een bron: https://www.dictionary.com/culture/acronyms/kys

Om te kunnen reageren moet je ingelogd zijn