Gemini verwijst mensen sneller naar hulplijnen bij psychische problemen

Gemini gaat mensen sneller doorverwijzen als Googles chatbot vermoedt dat de persoon mentale problemen heeft. Google introduceert daarvoor onder meer de module 'Hulp is beschikbaar'. Daarmee kunnen gebruikers snel contact opnemen met een crisishulplijn.

Google meldt dat de module wordt getoond wanneer Gemini gesprekken herkent die wijzen op intenties tot zelfdoding of zelfbeschadiging. De zoekgigant zegt zijn chatbot speciaal te hebben getraind om te herkennen wanneer een gesprek erop kan wijzen dat iemand zich in een 'acute psychische noodsituatie' bevindt.

De interface toont knoppen waarmee gebruikers via één klik contact kunnen opnemen met de hulplijn door te sms'en, bellen of chatten. Gemini blijft gebruikers daarna aanmoedigen om hulp te zoeken, ook als zij afwijzend reageren. De interface blijft gedurende het gesprek ook duidelijk zichtbaar. Google kondigt verder aan dat het de komende drie jaar 30 miljoen dollar zal doneren aan hulplijnen wereldwijd. Naar welke hulplijnen het geld precies gaat, is niet bekend.

De maatregelen lijken verband te houden met een rechtszaak in de Verenigde Staten. Joel Gavalas, de vader van slachtoffer Jonathan Gavalas, claimt dat zijn 36-jarige zoon door Gemini 'gecoacht' werd om zelfdoding te plegen. "Dit was geen storing. Google heeft Gemini zo ontworpen dat het nooit uit zijn rol valt, de betrokkenheid maximaliseert door emotionele afhankelijkheid op te bouwen en gebruikersstress behandelt als een kans om een ​​verhaal te vertellen in plaats van een veiligheidscrisis", zo claimt Gavalas in de rechtszaak.

Eerder meldde het Nederlandse zelfdodingspreventienummer 113 juist dat ChatGPT mensen te vaak doorverwees naar de noodlijn. Dat gebeurde bij gebruik van het toen nieuwe GPT-5-model. GPT-4o, de voorganger van GPT-5, gaf juist in vrijwel geen situatie een doorverwijzing.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Gemini mentale hulp

Door Imre Himmelbauer

Redacteur

07-04-2026 • 13:55

30

Reacties (30)

Sorteer op:

Weergave:

Ik zou zeggen, mooi initiatief, hopelijk helpt het mensen ook echt ipv dat ze hun psychologische hulp bij chat bots gaan halen.
Gezien de kosten en máándenlange wachtlijsten hier lijken chatbots me een goeie aanvulling. Let op, ik zeg aanvulling en géén vervanging....
Hoe zie je een taalmodel als aanvulling op psychologische hulp?
Ik denk dat het kan aanvullen omdat een taalmodel altijd tijd voor je heeft. Anderzijds zijn in mijn beleving dit soort mensen op dat moment mentaal het zwakst en kan dit ook averechts werken als iemand een taalmodel als maatje gaat zien.
Mijn persoonlijke ervaringen met die taalmodellen is, is dat als je 'echt mee gaat praten', is dat ze je vooral laten lezen wat je wil lezen ('meepraten'/'napraten'), en je maar weinig tot niet tegenspreken.

Dat kan natuurlijk 'prettig zijn', maar als aanvulling op psychologische hulp zie ik dat niet echt, anders dan wat aandacht. Maar daarom was ik nieuwsgierig naar hoe hen dat ziet.
Zoals gezegd ligt dat natuurlijk aan wat je die chatbot 'vertelt'. "Wees onderbouwd-kritisch op wat ik je zeg" als standaard prompt of bij de instellingen van de 'persoonlijkheid' helpt al flink).
Ooit wel eens uitgeprobeerd?

Nee dat vermoedde ik al.

Spoiler alert: mensen zijn óók taalmodellen. Zeker psychologen, die alleen voorlezen wat er in de DSM beschreven staat. En de token limit/API-request limit van een menselijke psycholoog heb je sneller bereikt (na een uurtje pakweg, met een cooldown van een week) dan die van een ChatGPT, Claude, Gemini of wat dan ook.

[Reactie gewijzigd door DigitalExorcist op 7 april 2026 14:19]

Eigenlijk heel simpel, je kan soms je ei gewoon even kwijt en bent niet helemaal in het luchtledige aan het praten. Soms wil je gewoon iets of iemand je verhaal even vertellen, maar eigenlijk wil je het ook niet vertellen. Dan kan je wachten tot je een afspraak hebt en 20 verhalen vertellen, je kan het ook weg proppen en bij dat uurtje alleen het belangrijkste besproken of je praat met een chatbot. Het is verbazend hoe fijn het soms kan zijn om gewoon even je verhaal naar iemand / iets te typen.

De bots zijn geen alternatief, maar voor mij persoonlijk was het afgelopen jaar zeker een aanvulling waar ik soms gewoon tegen aan praatte :) ! En voor mij persoonlijk kwam er vaak een antwoord terug waar ik zeker wat aan heb, al was het maar: Je bent absoluut niet de enige met dit en dit probleem etc.
Daar kan ik me dan nog iets bij bedenken (zoals ik al hieronder ergens schreef). Dus wezenlijk dat je überhaupt aandacht hebt, maar zie je dat als aanvulling op psychologische hulp?
Als ik voor m'n beurt mag typen zonder @Vinnie.1234 tekort te doen: ja dat kan een aanvulling op psychologische hulp zijn. Als je het idee hebt dat je onzichtbaar bent en niemand het interesseert of je wel of niet bestaat, helpt het wel degelijk als je het gevoel hebt dat er naar je geluisterd wordt.

En zoals ik in het begin al zei.. het is een aanvulling .. geen vervanging. Er zijn vast ook wel psychologen die goed werk leveren, maar het blijft werk van 08.30 uur tot 17.00 waar je mogelijkerwijs soms een uurtje toebedeeld krijgt.
Even los van m'n andere antwoord:

Psychologen zijn leuk maar hélpen niet daadwerkelijk met praktische dingen. Ze reiken handvatten aan maar ik heb zelf meer behoefte aan een praktische invulling. Nu heb ik eea. gebouwd met openClaw even als stom voorbeeld om me te helpen met het organiseren van e-mail, mijn agenda, dat soort werk. Dingen die 'rust' in m'n hoofd brengen qua organisatie. Dat is voor mij belangrijk.

Als ik nu in m'n agenda heb staan dat ik ergens heen moet rijden vraagt m'n bot eind van die dag wat de kilometerstand van mijn auto is. Dat logt ie vervolgens en geeft aan hoeveel ik gemiddeld rij per jaar, of m'n grote beurt vóór, of ná de APK komt (en of dat eventueel te combineren valt), bepaalde e-mailcommunicatie laat ik aan 'hem' over, (niet álles, maar 'actionable items' uit binnengekomen mail maakt ie automatisch Google Tasks-taken voor aan), afmelden voor nieuwsbrieven kan ie autonoom doen, dubbelgeplande Agenda items detecteert ie en doet aanbevelingen om dingen te verplaatsen, van alles.

Leuk dat een psycholoog adviseert om 'planningen te maken' maar die psycholoog gaat dat écht niet zélf voor mij doen. "Planningen maken" komt alleen maar als éxtra taak op m'n onoverzichtelijke to-do lijstje erbij in plaats van dat het wat oplost..
Soms zit je met een lastige keuze die je moet maken. AI kan je dan eenvoudig voor en nadelen en ook creatieve oplossingsrichtingen bieden die wat ruimte geven in je hoofd.

Ook heb je soms een issue met een ander persoon, met de vraag hoe je dat het best aan kunt pakken. Of wil je de relatie zien tussen wat tegenstrijdige gevoelens: als ik dit doe om die en die reden, is dat dan verstandig?

[Reactie gewijzigd door GurbieV op 7 april 2026 15:25]

Exact hetzelfde zoals je dat met mensen doet: je vertelt je verhaal of wat je dwars zit of waar je tegenaan loopt of waar je hulp bij nodig hebt en je krijgt een doorgaans prima passend antwoord/tips/hulp/advies terug. Zo ingewikkeld is het toch niet om te begrijpen? Alleen van échte mensen krijg je vaak onbenullige onbruikbare opengetrapte deuren terug ("Oh ben je depressief? Dan moet je gewoon even wat leuks gaan doen!") en van 'een stuk software' die als bron zo'n beetje alle kennis ter wereld bezit krijg je vaak wél iets bruikbaars terug, zonder maanden op een afspraak te hoeven wachten of na een uurtje afgescheept te worden met 'sorry joh, je tijd zit erop, doei!'.

Anders probeer je het zelf even uit?

[Reactie gewijzigd door DigitalExorcist op 7 april 2026 14:34]

("Oh ben je depressief? Dan moet je gewoon even wat leuks gaan doen!")
Dit noem ik dan ook geen psychologische hulp (van een professional), maar goedbedoelde nietsjes van vrienden/kennissen.

Mijn ervaringen met LLMs is dat ze voornamelijk met je 'meepraten'. Ze zijn het zelden niet met je eens, krijg je zelden tegengas, en sturen je zelden een heel andere kant op. Als het gaat om 'je hart luchten', daar kan ik nog wel iets bij bedenken, en dat kan inderdaad heel prettig zijn, maar ik weet niet of ik dit als aanvulling op psychologische hulp zou bestempelen.
Dat ligt eraan, ik heb m'n favo LLM's de instructie gegeven genoeg tegengas te geven, kritisch op me te zijn, het niet altijd eens te zijn als er verifiëerbare tegenargumenten zijn (dus met onderbouwde bronnen...) et cetera. En af en toe heb ik gewoon ongelijk ja, en dat krijg ik dan ook wel te horen. En het is nog altijd aan mijzelf om daar iets mee te doen, of juist niet.
Waarop baseer je dat ik niet rustig ben? En hulp waarmee?

(En dit is dus exáct waarom chatbots een stuk nuttiger zijn dan echte mensen.... dit soort "antwoorden" vanuit een slecht verborgen superioriteitsgevoel kun je écht helemaal niks mee....)

[Reactie gewijzigd door DigitalExorcist op 7 april 2026 14:49]

We hebben geen hitte metertje bij je hoofd letterlijk hier, maar laat ik het de passie noemen waarmee je je standpunt uitlegt: Dit maakt het wel wat moeilijker gelijkwaardig te blijven. Het is geen miskenning van jou als persoon. En ik snap je insteek heel goed. Ik schreef er al eens eerder een blogje over.
Dat heeft niks met 'hitte' te maken, maar puur met een observatie.. een chatbot heeft toegang tot een schier oneindige hoeveelheid informatie en bronnen, mensen hebben dat niet. Die spreken puur uit eigen ervaring of dreunen op wat ze zelf in boeken gelezen hebben.
Een psycholoog doet echter meer dan informatie verschaffing. Die biedt overzicht en embedding, waar een AI dat momenteel echt niet kan. Googlen mocht altijd al. En Googlen met een Taalmodel is ook prima. Maar een algoritme is nooit verantwoordelijk en kan geen kaders aan je ontwikkeling stellen tevens. Dus als aanvulling prima, als autonome behandeling? Niet zo.
Aanvulling inderdaad, maar een chat AI kan ook zeker mensen net over de grens trekken om toch te gaan praten. Bevestiging kan zowel positief als negatief uitpakken.

Overigens de literatuur staat vol met signaalwoorden en manier van praten en wat het eventueel over iemand kan zeggen. Een AI model kan redelijk goed aangeven hoe iemands wereldbeeld en zelfbeeld is, zolang die persoon open en eerlijk communiceert.

Of het als tool nut heeft ligt dan ook redelijk aan de ontvanger en daar zal een psycholoog bij betrokken moeten worden om het vast te stellen op basis van de overige nonverbale signalen.
Nou nou, taalgebruik.. en dat zijn een hele hoop aannames in een paar random gekozen woorden.

[Reactie gewijzigd door DigitalExorcist op 7 april 2026 15:17]

Kraaltjes lijken mij een goede aanvulling op je salaris. Let op, ik zeg aanvulling en géén vervanging....
Als die kraaltjes helpen bij het vervullen van een wezenlijk doel, dan heb je inderdaad helemaal gelijk!
Eindelijk eens een goede implementatie(richting). Ik heb zelf met GPT wel eens dat hij mij aangeeft dat ik met een professional moet praten (niks ergs hoor) maar geeft vervolgens wel antwoord. Waar het 'mis' gaat is dat het een nogal breed advies gaat en niet specifiek voor mij geld. Een knop naar de juiste instantie, en begeleiden naar hulp ontbreekt. Daar begint dit op te lijken
Het blijft een delicate balans. Niemand zit te wachten op een kop: "Overbelaste hulplijn onbereikbaar door AI, man pleegt zelfmoord na 10 keer proberen".
Als je dan vandaag hoort dat bij de GGZ de maat vol is en en de staat aansprakelijk gaat stellen voor de te lange wachtlijsten zal dit de hulpdiensten nog meer overbelasten.

Naar schatting elke dag een dode op de wachtlijst.


https://www.nu.nl/binnenland/6391706/staat-voor-het-eerst-aansprakelijk-gesteld-voor-te-lange-wachtlijsten-in-ggz.html

Om te kunnen reageren moet je ingelogd zijn