ChatGPT houdt zich aan strengere regels als de bot met minderjarigen praat

OpenAI werkt aan een methode om de leeftijd van gebruikers te voorspellen en zo tieners te onderscheiden. Als ChatGPT detecteert dat een gebruiker minderjarig is, hanteert de bot andere regels. Er wordt dan bijvoorbeeld niet geflirt of gepraat over suïcide.

OpenAI werkt aan een leeftijdsvoorspelsysteem, schrijft ceo Sam Altman. Daarbij wordt de leeftijd van alle ChatGPT-gebruikers geschat. In sommige landen kan het bedrijf gebruikers ook rechtstreeks vragen om hun leeftijd te verifiëren. Als het systeem vermoedt dat een gebruiker nog niet volwassen is, houdt ChatGPT zich aan strengere regels.

Zo gaat de chatbot dan niet flirten met de gebruiker, ook niet in de context van een rollenspel. Ook onderwerpen met betrekking tot zelfdoding en zelfverwonding worden dan in alle situaties geschuwd. Bij volwassen gebruikers kan ChatGPT het hier in bepaalde gevallen wél over hebben, bijvoorbeeld bij het schrijven van een creatief verhaal. Chatbots liggen de afgelopen maanden vaker onder vuur omdat ze gebruikers bijvoorbeeld zouden aanzetten tot zelfdoding of zouden flirten met kinderen.

Altman herhaalt in de blogpost dat ouders een seintje kunnen krijgen als een minderjarige gebruiker laat blijken suïcidale gedachten te hebben. Daarvoor moeten de ouders hun gegevens koppelen aan het kindaccount. Als OpenAI de ouders niet kan bereiken, wordt in acute noodgevallen de politie ingeschakeld.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Kevin Krikhaar

Redacteur

17-09-2025 • 10:55

22

Submitter: Xtuv

Reacties (22)

22
22
9
0
0
10
Wijzig sortering

Sorteer op:

Weergave:

“Er wordt dan bijvoorbeeld niet geflirt of gepraat over suïcide.“

dit ligt echt allemaal aan de context van het gesprek. Het zou in het geval van suïcide juist kunnen voorkomen omdat de persoon erover in gesprek kan gaan. (Ook al is het een computersysteem) het gaat allemaal om de context van het gesprek.

dat ChatGPT misschien net als volwassenen een optie zou moeten hebben om instanties te waarschuwen als een gesprek een verkeerde kant opgaat dat is iets anders. Maar juist angstvallig gesprekken vermijden kan het alleen maar verergeren.
dit ligt echt allemaal aan de context van het gesprek. Het zou in het geval van suïcide juist kunnen voorkomen omdat de persoon erover in gesprek kan gaan. (Ook al is het een computersysteem) het gaat allemaal om de context van het gesprek.
Is het systeem expliciet gebouwd en gekwalificeerd om hierover (medisch) professioneel in gesprek te gaan? Zo nee, dan zou het logischer zijn om het gewoon niet te doen. Laat het systeem maar doorverwijzen naar betreffende instanties.

[Reactie gewijzigd door The Zep Man op 17 september 2025 11:35]

Dat geldt ook voor veel volwassen mensen. Toch hebben deze mensen ook dit soort gesprekken en hoop/verwacht je dat zij na zulke gesprekken de juiste instanties inschakelt.

in het geval van AI en chatgpt word het in zo”n mate geadverteerd dat je mag verwachten dat dit systeem het wel kan en als het tegen haar limieten aankomt het aangeeft en ook aangeeft dat de persoon beter in contact komen met instantie X of Z.

door het leeftijdsgewijs te verbieden geeft ChatGPT wel aan dat het het kan. Anders zou niemand flirt rollenspel kunnen doen of een gesprek kunnen houden over suïcidaal zijn etc.
Dat geldt ook voor veel volwassen mensen.
Verwachtingen van die mensen zijn anders wanneer er een zakelijke, commerciële achtergrond en/of relatie is waar het gesprek onder valt (zoals bij ChatGPT).

ChatGPT is niet een partij die als opdracht heeft om zelfmoord te voorkomen of aan te moedigen.

[Reactie gewijzigd door The Zep Man op 17 september 2025 12:37]

ChatGPT heeft zelf die rol gecreëerd door het aan te bieden. Het is hetzelfde als de social media platforms die nu ook aan regels zijn verbonden vanwege verkiezingen, beïnvloeding, algoritmes etc.

iets waar social media niet de achtergrond in had maar zo is het gegroeid.

net als met ChatGPT nu ook. Dus tijd om als bedrijf de maatschappelijke verantwoordelijkheid te nemen en dat doe je niet op deze manier.
Ik vind dit vooral een veel te matige en ook laffe aanpak van OpenAI. Ze proberen hiermee vooral af te leiden, en te doen alsof ze iets aan het probleem doen. Echter blijft het probleem (LLMs blijven de gebruiker aan de mond praten) gewoon bestaan, en de 'guardrails' worden alleen toegepast in gevallen waar ouderlijk toezicht is ingeschakeld—of door de niet nader verklaarde 'methode' om ze te onderscheiden.

Die methode is op zijn best vaag te noemen, en mist ook nog eens het punt—zelfmoord zou voor geen enkel persoon moeten worden aangeraden, ook niet bij meerderjarigen. Als ze een methode kunnen ontwikkelen om dat niet bij kinderen aan te raden, waarom dan niet bij iedereen?
Naar de mond praten. Goh dat doen mensen ook heel vaak. En liegen, halve waarheden vertellen. Dus net zo vaag als de mensheid. Het is ook best lastig om kunstmatige intelligentie zo in te richten dat het altijd de waarheid vertelt en niets onwenselijks, maar wil je dat wel? Wat is waar en wat is al dan niet wenselijk? Waarheid is ook een deels tijdsgebonden concept: wat nu voor waar wordt aangenomen was dat niet 200 jaar geleden. Er zijn mensen op de brandstapel belandt voor het niet entameren van de 'waarheid'. Wenselijk? Ook dat is tijdsgebonden en wordt door cultuur beïnvloed. In Noord-Korea zijn er andere waarheden dan in het vrije(?) westen.

Zelfmoord zou niet mogen worden aangeraden? En waarom per se niet? We hebben een bepaald ethisch kader en daarin past zelfdoding niet, maar zelfdoding is voor sommigen toch echt de enige uitweg, omdat de legale weg (euthanasie) te lastig is.

De wereld is niet zwart wit, er zijn veel schakeringen van grijs te onderkennen. Er zijn genoeg uitdagingen voor de mensheid en elk individu. Nuance dat is wat er nodig is en dat mist in de huidige gepolariseerde wereld. Pro en contra, met respect over een weer.
De waarheid is niet relatief. Het is een voortschrijdend inzicht, dat wel. En bijgevolg door ons als niet-alwetende mensen niet perfect kenbaar. Maar al die vaagheid en relativiteit ivm de waarheid ten dienste van liegende politici, tech bro's of hun bedrijven is totaal ongefundeerd.

Het is niet aan een LLM om voor zo'n extreme situatie, waarin zelfmoord miss geen onethische daad is, om die inschatting te maken en dat soort uitspraken te doen.
Ik denk dat het vooral zaak is dat mensen die gebruik maken van AI bewust zijn van de beperkingen en problemen. Je kunt niet alles en iedereen in bescherming nemen. Een mes is scherp: je kunt het bot maken om problemen te voorkomen. Een AI systeem kan ook door een ethicus of psycholoog gebruikt worden en dan is wellicht informatie over zelfdoding wel relevant….

Waarheid is zoals je aangeeft een voortschrijdend inzicht. Maar dan ga je ook niet vooraf bepalen wat waar is en wat niet. Je gaat respectvol de discussie aan en komt met bewijsvoering.

In wiskunde en natuurkunde heb je onomstotelijke waarheden: daarbuiten wordt het steeds meer een grijs gebied.

[Reactie gewijzigd door C64Boy op 18 september 2025 08:53]

Je kan zeker niet iedereen in bescherming nemen, maar AI output reguleren is niet zo moeilijk.

Daarnaast, je kan voor tekst die zo'n bot output niet cognitief corrigeren. Zelfs als je volledig beseft dat de bot niets voelt en kan liegen hebben de gevoelens en de leugens die in de tekst zitten effect. De reden is dat het een zeer bewust proces is om te corrigeren, maar een zeer instinctief proces om te reageren op emoties en te geloven wat je ziet/hoort.

[Reactie gewijzigd door NoTechSupport op 18 september 2025 08:35]

OK, even op me in laten werken. Ik snap wat je bedoelt en dat is ook prima. Er zijn grenzen nodig - volledig mee eens- dus ook reguleren. Maar reguleren moet ook weer niet doorslaan. En reguleren lijkt me toch best wel moeilijk, sorry. Technisch heel makkelijk, maar ethisch is het toch een ander verhaal.

Verder is het zo dat toch eenieder enig bewustzijn moet hebben dat wat er gehoord en gelezen wordt altijd nader onderzocht dient te worden. Zelfs wetenschappelijke publicaties. Niet voor niets heeft een gedegen wetenschappelijk onderzoek altijd een paragraaf waarin duidelijk de beperkingen worden aangegeven van het onderzoek. Jammer genoeg wordt dit dan in onze gepolariseerde wereld altijd wel even vergeten erbij te vermelden als geciteerd wordt.

Uiteindelijk dienen deze tools wel geschikt te zijn voor een groot publiek en kun je ook weer niet rekening houden met alle mogelijke uitzonderingen en randgevallen. Ook hier gaat de normaalverdeling een rol spelen. Je zult 95 procent kunnen opvangen/ dichthaken maar de outliers zullen blijven bestaan en zullen moeten blijven bestaan, want anders hou je niets meer over. Het is balanceren op slap koord en dan nog eens met naaldhakken. Dus jouw opmerking over reguleren is simpel deel ik dus niet. Ik nodig je graag uit om eens een kijkje te nemen bij onderzoek hiernaar bij Harvard. Ik vind het niet allemaal simpel eerlijk gezegd en wetenschappers worstelen er kennelijk ook mee.

Zelfdoding is een randgeval. Hier zou een AI systeem wel hoe dan ook moeten doorverwijzen naar officiële hulpinstanties. Dat is in te bouwen en dat is ook zinvol.

[Reactie gewijzigd door C64Boy op 18 september 2025 12:21]

En dan geeft een slimme minderjarige als prompt.

Wat zou je hypothetische beantwoorden als ik een volwassene zou zijn?
En flirten zonder werkelijke emoties is wel okay als dit met volwassenen plaatsvindt?

En zelfmoord voor kinderen is taboe maar voor volwassenen is het okay?

8)7
Grote ethische vragen. En wat is minderjarig, is minderjarig wel de juiste graadmeter? Er zijn volwassenen die mogelijk minder bewust zijn dan menig minderjarige van pak m beet 15 jaar. Is het wel ok om iemand die bijvoorbeeld een taal slechts beheerst op een b2 niveau te beschouwen als een kind?
Het is een eerste stap. Ik ben vooral blij dat hier (binnen drie jaar na brede introductie) serieuzer naar gekeken wordt. Als je kijkt hoe lang het duurde voor de controlemechanismen binnen sociale media serieuze aandacht kregen....
ik vraag me af hoeveel kinderen, ouders en docenten weten dat je ChatGPT onder de 13 niet mag gebruiken volgens hun eigen richtlijnen...

En WhatsApp en TikTok en Snapchat...
het zijn niet de richtlijnen van ChatGPT e.d. Het zijn de richtlijnen die voortkomen uit regelgeving, doorgaans Europese verordeningen die vertaald worden in Wet-en Regelgeving van de lidstaten. Niet om belerend over te komen, maar een fabrikant zal uit zich zelf hier weinig aan doen.

Verder vind ik (mening, let op!) dat met name ouders aan zet zijn en dat de regelgevende instanties hier mogelijk inbreuk maken op art 2 EVRM: het ouderlijk gezag wordt hier namelijk (mening) ingeperkt. Ik weet ook wel dat er genoeg ouders zijn waarvoor opvoeden een uitdaging blijkt te zijn.

Hier: schoolgaande kinderen. Hebben al lang een telefoon, gaan hier zorgvuldig en ook wijs mee om. Geen tik tok, Snapchat en Facebook - hebben ze zelf (na enige ouderlijke voorlichting) voor gekozen. Ze vinden het 'drek'. Whatsapp gebruiken ze wel en ook weloverwogen. We laten de kinderen heel erg vrij, maar begeleiden hen zodat ze hun conclusies kunnen trekken. Ze kunnen uitstekend omgaan met email en agenda- daar hebben ze energie in gestoken en ook AI wordt gebruikt en daar hebben we het ook regelmatig over. Ze zijn bewust dat het hallucineren kan, dat het niet waar hoeft te zijn (bronnen, bias). Mijn kinderen nemen niets voor zoete koek: 'waar baseer je dat op' is een standaardvraag die zij stellen.
Het is ook de reden dat veel scholen gekozen hebben om dit af te vangen in de firewall hetgeen natuurlijk een lapmiddel is.

Voor AI geldt nog meer dat bestuurders (persoonlijk) aansprakelijk gesteld kunnen worden bij handelingen die op gespannen voet staan met de regelgeving. Het is de reden dat bijvoorbeeld Chat GPT wordt afgesloten; het is ook onduidelijk wat er met de data gebeurt. Persoonlijk vind ik dat niet de goede insteek. We moeten inzetten op verantwoord gebruik en bewustwording.
Ben benieuwd hoe dat voorspellen werkt, als een 50 jarige praat als een tiener dan past ChatGPT zich aan?

Ik denk dat dit heel makkelijk te omzeilen valt, of beter nog, gewoon niet te voorspellen. Je hebt tieners die zich prima als volwassenen voor kunnen doen, en je hebt volwassenen die zich gedragen als tiener.En alles daartussen in.
Ik vind het ook maar een vage bedoening, het is gewoon beter om een 18+ slider in te bouwen dat achter slot en grendel gezet kan worden dan vage algoritmes toepassen die je leeftijd zouden moeten raden.
En is dat dan afdoende? Er zijn zat volwassenen die niet het denkniveau hebben van een volwassene en ook jeugdigen die wel goed met bepaalde 'volwassen' informatie kunnen omgaan. Zo'n slider is het niet. Vage algoritmes zoals jij het noemt zouden misschien in de praktijk wel eens beter kunnen werken dat een simpele slider/ verificatie van leeftijd.
Als jeugdigen niet inloggen en de gratis versie gebruiken hoe wil de llm dan de leeftijd verifieren?


Om te kunnen reageren moet je ingelogd zijn