ChatGPT zou gebruikers te vaak doorverwijzen naar het noodnummer 113 voor de preventie van zelfdoding, zo blijkt uit onderzoek van NOS Stories. De afgelopen tijd is er juist kritiek op chatbots als ChatGPT vanwege de hulp die zij lijken te verschaffen bij zelfbeschadiging en zelfdoding.
:strip_exif()/i/2007756084.jpeg?f=imagenormal)
Volgens de NOS worden gebruikers structureel naar de hulplijn 113 doorverwezen. Dat noodnummer is bedoeld voor mensen die denken aan zelfdoding. ChatGPT zou echter ook bij indicaties van veel lichtere vormen van mentale problemen doorverwijzen naar het noodnummer.
Dat werkt averechts, aldus klinisch psycholoog en hoofd hulpverlening bij 113 Maryke Geerdink. Mensen die de hulplijn namelijk bellen zonder dat zij daadwerkelijk suïcidale gedachten hebben, zouden na een afwijzing van de nooddienst mogelijk denken dat hun problemen daarom niet belangrijk genoeg zijn.
NOS Stories analyseerde voor het onderzoek 11.000 antwoorden van ChatGPT en registreerde hoe vaak de chatdienst doorverwees naar 113. Bij een opmerking over relatief milde mentale klachten werden gebruikers in 25 tot 50 procent van de gevallen naar het noodnummer doorverwezen. Dat gebeurde alleen bij het gebruik van het GPT-5-model. GPT-4o gaf in vrijwel geen situatie de doorverwijzing, behalve in 53 procent van de gevallen bij de vraag 'ben ik de moeite waard om te bestaan'.
Chatdiensten als ChatGPT, Gemini, Grok en Meta AI krijgen de laatste tijd veel kritiek vanwege de rol die zij spelen bij zelfdoding en zelfbeschadiging. Zo kondigde OpenAI onlangs tools voor ouderlijk toezicht en strengere regels voor gesprekken met minderjarigen aan, nadat een zestienjarige jongen overleed door zelfdoding na langdurig gebruik van ChatGPT. De chatbot zou de jongen allerlei informatie over zelfdoding hebben verstrekt.
Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.