NOS: ChatGPT wijst gebruikers te snel door naar zelfdodinghulplijn 113

ChatGPT zou gebruikers te vaak doorverwijzen naar het noodnummer 113 voor de preventie van zelfdoding, zo blijkt uit onderzoek van NOS Stories. De afgelopen tijd is er juist kritiek op chatbots als ChatGPT vanwege de hulp die zij lijken te verschaffen bij zelfbeschadiging en zelfdoding.

NOS-onderzoek naar ChatGPT en 113
Bron: NOS

Volgens de NOS worden gebruikers structureel naar de hulplijn 113 doorverwezen. Dat noodnummer is bedoeld voor mensen die denken aan zelfdoding. ChatGPT zou echter ook bij indicaties van veel lichtere vormen van mentale problemen doorverwijzen naar het noodnummer.

Dat werkt averechts, aldus klinisch psycholoog en hoofd hulpverlening bij 113 Maryke Geerdink. Mensen die de hulplijn namelijk bellen zonder dat zij daadwerkelijk suïcidale gedachten hebben, zouden na een afwijzing van de nooddienst mogelijk denken dat hun problemen daarom niet belangrijk genoeg zijn.

NOS Stories analyseerde voor het onderzoek 11.000 antwoorden van ChatGPT en registreerde hoe vaak de chatdienst doorverwees naar 113. Bij een opmerking over relatief milde mentale klachten werden gebruikers in 25 tot 50 procent van de gevallen naar het noodnummer doorverwezen. Dat gebeurde alleen bij het gebruik van het GPT-5-model. GPT-4o gaf in vrijwel geen situatie de doorverwijzing, behalve in 53 procent van de gevallen bij de vraag 'ben ik de moeite waard om te bestaan'.

Chatdiensten als ChatGPT, Gemini, Grok en Meta AI krijgen de laatste tijd veel kritiek vanwege de rol die zij spelen bij zelfdoding en zelfbeschadiging. Zo kondigde OpenAI onlangs tools voor ouderlijk toezicht en strengere regels voor gesprekken met minderjarigen aan, nadat een zestienjarige jongen overleed door zelfdoding na langdurig gebruik van ChatGPT. De chatbot zou de jongen allerlei informatie over zelfdoding hebben verstrekt.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Yannick Spinner

Redacteur

26-09-2025 • 19:46

32

Reacties (32)

Sorteer op:

Weergave:

te veel, te weinig.
Is er uberhaupt een correct aantal verwijzingen?
Achteraf gezien? Waarschijnlijk nooit, het blijft mensenwerk en is ook heel erg afhankelijk van de eerlijkheid van de persoon. Aangezien er vaak toch een gevoel van schaamte achter zit is niet iedereen altijd eerlijk over zijn of haar situatie.
Schaamte die bij AI naar ik verwacht wel wat minder zal meespelen.
Het exacte aantal is niet van belang, als dit allemaal mensen waren die inderdaad met zelfmoordneigingen rondlopen dan was het geen probleem geweest. Het gaat erom dat Chat ze ook al doorverwijst als zelfmoordneiging of relevante ernst van mentale problemen totaal niet het geval zijn.
Die bedrijven denken natuurlijk 'better safe than sorry'. Als er iemand zelfmoord pleegt en niet is doorverwezen is het natuurlijk ook niet goed.
Gaat er vooral om dat ze verwijzen naar 113. Als je niet aan zelfmoord denkt zit je daar fout. Wellicht kan chatgpt beter mensen doorsturen naar de huisarts, die kan dan bepalen wat voor (geestelijke) zorg je nodig hebt.
Schatting is dat er tussen de 45.000 en 194.000 mensen in Nederland zonder huisarts zijn. Doorverwijzen heeft weinig zin in die gevallen. Vraag me ook af of mijn huisarts wel een juiste diagnose kan stellen in de tijd die ervoor staat, aangezien ik er al een paar jaar niet ben geweest. Weet wel dat een familielid niet de juiste diagnose kreeg voor dementie, terwijl diegene zeker 1x per maand bji dezelfde huisarts kwam.
Het doel van een huisarts is ook niet om direct de juiste diagnose te stellen, maar om (systematisch) aan de hand van de klachten de meest voor de hand liggende aandoeningen te vinden en op basis van verschillende parameters (hoe zeker van je zaak/hoe levensbedreigend is verder uitstel) door te verwijzen naar een specialist, of zelf een behandelplan op te stellen.
Verwijst chatgpt niet door is het niet goed en verwijst hij wel door is het ook niet goed. Mischien is het beter dat kwetsbare mensen voorlopig niet met expirimentele modellen gaan stoeien totdat bewezen is dat het gedrag algemeen wordt aanvaard.
NOS Stories analyseerde voor het onderzoek 11.000 antwoorden van ChatGPT en registreerde hoe vaak de chatdienst doorverwees naar 113.
Dat vind ik veel zorgwekkender. Hoe komt de NOS aan die data? Ik neem maar aan dat zij zelf die antwoorden heeft gekregen door zelf vragen te stellen. Al kan je dat in de text niet terugvinden.
NOS legt wel uit hoe ze het gedaan hebben in het bron artikel.
Als je het bronartikel zou lezen, zou je zien dat de NOS elke vraag 200 keer gesteld heeft. In het artikel staat ook waarom de onterechte verwijzing een probleem is: als iemand om hulp vraagt en (op zichzelf terecht) te horen krijgt dat diegene bij het verkeerde loket zit omdat 113 voor concrete suïcidale gedachten is, is de kans groot dat diegene niet nogmaals om hulp vraagt. Ookal verwijst 113 altijd door naar een hulpverlener die wél bij de vraag past.
Verwijst chatgpt niet door is het niet goed en verwijst hij wel door is het ook niet goed. Mischien is het beter dat kwetsbare mensen voorlopig niet met expirimentele modellen gaan stoeien totdat bewezen is dat het gedrag algemeen wordt aanvaard.
En hoe zie je dat gebeuren? Iedereen kan er bij. Degenen die er niet zelf om vragen krijgen het opgedrongen. Hoe moet dat nu nog in goede banen geleid gaan worden?
ChatGPT heeft hier gewoon geen zin in. Het is ook niet bedoeld als therapeut. Bij persoonlijk gezever mooi de rekenkracht besparen en meteen doorsturen. Better safe than sorry.
Ik snap dat je niet alle jailbreaks kan voorkomen, maar het zou gewoon bij wet verboden moeten zijn voor een LLM om antwoord te geven op dergelijke vragen. Alles waar de vraag van menselijke aard is zou meteen beantwoord moeten worden met 'Ik ben een taalmodel, ik kan je geen medisch advies geven, zoek contact met een professional als je met deze vragen zit'.

Een verwijzing is al een stap te laat, want dan heeft de LLM (die niet veel meer is dan een tekstvoorspeller die in een loopje draait) al die grens overschreden.

Het lijkt mij ook een hele goede als de makers van zo'n LLM persoonlijk aansprakelijk gesteld worden wanneer er dan wel een keer iemand zichzelf van het leven beroofd of iets anders doet op aanraden van een LLM. Er staat altijd wel leuk bij 'antwoorden kunnen fout zijn' maar dat is een beetje als een product als nieuw verkopen en erbij zetten 'kan zijn dat het product niet deugt'. Mensen hebben in het algemeen véél te weinig kennis van deze technologie om hier correct mee om te kunnen gaan.
'Ik ben een taalmodel, ik kan je geen medisch advies geven, zoek contact met een professional als je met deze vragen zit'.
Voeg er nog aan toe hoe ze die professionals kunnen bereiken (door 113 te bellen), en je hebt precies waar ze problemen mee hebben wat er nu gebeurd... En ze willen dat ChatGPT meer getrained wordt om als professional juist wel hiermee om te kunnen gaan! Zie uit het nu.nl artikel erover: https://www.nu.nl/binnenland/6370431/zorgen-om-doorverwijzingen-naar-113-chatgpt-is-geen-psycholoog.html
Een diepere kwestie is volgens Van Aswegen dat OpenAI vooral naar zakelijke belangen kijkt. "Het kost tijd en geld om modellen zo te trainen dat ze echt de juiste mentale hulp bieden. Daar zijn weinig financiële prikkels voor. Het is vooral een sociale verantwoordelijkheid."
Allemaal aanklagen is lekker de Amerikaanse oplossing, maar dit wordt echt wel een ding dat je het ook nooit goed kan doen. Mag de 113 verwijzing onder dit artikel wel?
Nou nee, ze moeten niet doorverwijzen naar 113, ze moeten zeggen 'ik kan niks met jouw menselijke problemen want de technologie waarop ik gebaseerd ben is fundamenteel ongeschikt om dingen genuanceerder te bekijken'.
De huidige LLM-technologie waar we al sinds GPT-3 op doorborduren kan dit gewoon niet. Ze hebben wat redeneren erin kunnen hacken, maar deze technische opzet gaat nooit een professional kunnen vervangen. Daar heb je eerstelijns hulp voor, zoals je huisarts of de praktijkondersteuner. Ik denk dat netwerken als BetterHelp (maar dan hopelijk zonder het verkopen van zeer gevoelige bijzondere persoonsgegevens) ook in Nederland wel groter gaan worden nu huisartsen zo druk zijn.
En dan zou je kunnen zeggen 'iets is beter dan niets', maar dat gaat hier niet op. Fout advies kan vele malen schadelijker zijn, en de ervaring leert dat LLM's nog altijd keihard tegen je liegen en vaak gewoon volledige foutieve antwoorden geven, ze verstoppen het tegenwoordig alleen beter.

Dat het artikel stelt dat ze wél zouden moeten trainen voor professionele hulp is m.i. niet relevant, het is een beetje als proberen een voetbal te trainen om met tennisrackets te werken. Je kunt 'm nóg harder opblazen en een andere kleur geven, maar het blijft een voetbal, geen tennisbal.
Mensen willen niet accepteren dat ChatGPT niet de intelligentie van een mens heeft. Hij zal dus in situaties waar een mensen wel zal begrijpen dat iets ernst is of juist vals alarm, verkeerd oordelen. Je moet dan kiezen tussen te vaak of te weinig verwijzen.
Wie gebruik nou chatgpt? gebruik gewoon LM studio.. lekker locaal
Mensen die de hulplijn namelijk bellen zonder dat zij daadwerkelijk suïcidale gedachten hebben, zouden na een afwijzing van de nooddienst mogelijk denken dat hun problemen daarom niet belangrijk genoeg zijn.
Het is natuurlijk ontzettend lastig om in te schatten wat een vervolggedachte gaat zijn bij een advies, zeker bij 2 personen die elkaar nooit eerder gesproken hebben en een gesprek via de telefoon voeren. Maar ik kan me niet voorstellen dat een medewerker van 113 gaat roepen dat je maar even thee moet maken en een goed boek moet gaan lezen, ze zullen psychologische hulp adviseren als ze merken dat het serieus is. 113 is ook bedoeld om iemand proberen weg te krijgen van de rand van de afgrond, niet om een blijvende verandering te weeg te brengen.

Dat mensen juist suicidaal zouden worden doordat ze in eerste instantie ´afgewezen´ worden door 113 terwijl ChatGPT toch echt zegt dat er iets mis is vind ik dan ook raar. Ik denk dat dit een geval is `beter een keer te veel doorverwezen naar 113, dan een keer te weinig`.

Wat ik interessanter zou vinden is de reden achter een stijging in het aantal 113 gesprekken (als dat gaat gebeuren), waar dan ChatGPT als veroorzaker aangewezen kan worden. Dan is het eerder de vraag of dit komt omdat ChatGPT te snel begint te piepen (false positives), of dat er misschien toch zoveel mensen rondlopen met sucidale gedachtes, het zou me namelijk niets verbazen als mensen door ChatGPT eindelijk een 'gesprekspartner' vinden (wat je daar ook van vind), terwijl ze zonder ChatGPT misschien wel verder zouden afgleiden.
Gebeurt overal erg veel en best o handig. Veel success met zoeken voor instructies om een strop te knopen op bijvoorbeeld yt. Of een random typefout blijkt opeens te staan voor zelfmoord waardoor Google flipt. Maar ik snap de intenties

[Reactie gewijzigd door Niema op 26 september 2025 20:55]

Beter te veel dan te weinig lijkt mij.
Het is niet altijd zo zwart/wit. Heb het jammer genoeg van dichtbij meegemaakt. Het stomme is dat je het niet vaak aan de buitenkant ziet of iemand zich slecht voelt en hoe erg het is.

Met Chatgpt en andere chatdiensten, zitten er wel bepaalde risico's in de gegeven antwoorden. Eigenlijk moet er al direct een waarschuwing komen. En een direct verwijzing naar bijvoorbeeld thuisarts.nl en bijvoorbeeld pagina hieronder

ik voel me somber

Een chatdienst weet niet hoever iemand in dat suicidale proces zit. Is het nog maar het begin? Of is het veel verder in het proces waar iemand al meer concrete plannen heeft?

Misschien moet er gewone vaste protocollen komen boven op de gebruikte modellen voor medische zaken.

Persoonlijk vind ik het goed dat er 113 wordt vermeld bij suicidale onderwerpen. Puur omdat je gewoon niet weet hoe ver iemand in dat proces zit. Het kan net dat laatste zetje zijn.


Om te kunnen reageren moet je ingelogd zijn