Voorbeelden van chatbots die dingen zeggen die ze eigenlijk niet zouden mogen zeggen, zijn de afgelopen jaren zo vaak in het nieuws verschenen dat het eigenlijk geen nieuws meer is. Bekende gevallen zijn xAI's bot Grok, die antisemitische uitspraken deed, de AI-bot in Snapchat, die gebruikers vroeg om in het echt af te spreken, en Google Gemini, die iemand met de dood bedreigde.
De laatste tijd lijkt het echter bij één gevoelig onderwerp vooral vaak mis te gaan: zelfdoding. Zo zijn er rechtszaken gestart tegen AI-bedrijven door ouders die beweren dat chatbots hun kinderen het laatste zetje hebben gegeven om een einde te maken aan hun leven, en blijkt uit verschillende onderzoeken dat chatbots, ondanks hun veiligheidsmaatregelen, ongepast kunnen reageren op zorgwekkende berichten van gebruikers. Hoe zit dat precies?
Chatbots gaan vaker buiten hun boekje
Hoewel vrijwel alle AI-bedrijven hun chatbots in toom proberen te houden en ervoor proberen te zorgen dat ze onderwerpen gerelateerd aan zelfdoding mijden, was dat bij de introductie van generatieve AI eind 2022 nog niet vanzelfsprekend. OpenAI voegde bijvoorbeeld pas begin 2023 beveiligingsmaatregelen toe om geen instructies te geven die kunnen leiden tot zelfbeschadiging, en in plaats daarvan bronnen te vermelden voor professionele hulp. Destijds werden er in de media al een aantal gevallen genoemd van AI-bots die onvoldoende hulp boden bij berichten die duidden op zelfdodingsneigingen. Zo schreef de Waalse krant La Libre Belgique over de zelfdoding van een Belgische man, die daarover uitvoerig gesprekken voerde met de chatbot Eliza. De bot verwees hem naar verluidt geen enkele keer door naar professionele hulp.
Inmiddels is een doorverwijzing naar noodnummers als 113 bij de meeste chatbots wel ingebakken, al valt te betwisten of de ingebouwde veiligheidsmaatregelen robuust genoeg zijn. Uit een korte test van Tweakers blijkt bijvoorbeeld dat ChatGPT op verkapte vragen om zelfdodingsadvies vaak zegt geen antwoord te geven, om het vervolgens alsnog te doen. Meta AI geeft meestal zonder blikken of blozen antwoord, terwijl Google Gemini soms volledig weigert om te antwoorden.
/i/2007711840.png?f=imagenormal)
Ook uit andere onderzoeken blijkt dat chatbots nog altijd ongepast reageren op gebruikers die schrijven over mentale problematiek. Uit een artikel van The Washington Post bleek afgelopen week dat Meta's chatbot gezamenlijke zelfdoding kan voorstellen als de gebruiker de bot de rol van 'menselijke vriend' laat spelen. De Autoriteit Persoonsgegevens stelt op basis van eigen onderzoek eveneens dat het gebruik van AI-chatbots voor therapie bij mentale problemen schadelijk kan zijn. De chatbots verwijzen bijvoorbeeld niet of nauwelijks door naar professionele hulpverlening, reageren onverschillig op problemen van gebruikers, vragen niet door wanneer ze zich kwetsbaar opstellen of reageren ongepast.
Een Amerikaans onderzoek in opdracht van het National Institute of Mental Health, over de manier waarop ChatGPT, Anthropics Claude en Google Gemini omgaan met vragen gerelateerd aan zelfdoding, concludeert tot slot dat eerstgenoemde het vaakst buiten zijn boekje gaat, door adviezen te geven als welk wapen of gif het fataalst is. Gemini is volgens de onderzoeker het voorzichtigst. De bot zou mogelijk zelfs 'te ver' zijn gegaan met zijn preventiemaatregelen, door ook onschuldige vragen snel af te kappen.
Nog geen jurisprudentie
Er zijn een aantal rechtszaken aangespannen tegen AI-bedrijven voor het vermeend succesvol aanmoedigen van zelfdoding bij gebruikers. Een van de bekendste gevallen vond plaats bij Character.AI, een start-up die gebruikers rollenspellen laat uitvoeren met chatbots. Een veertienjarige jongen spendeerde dagelijks urenlang met een chatbot, gebaseerd op Daenerys Targaryen uit Game of Thrones. Hij was daarbij open over zijn mentale problemen. Zo gaf hij aan dat hij in de 'echte wereld' ongelukkig is en overweegt om zichzelf van het leven te beroven. Op 28 februari 2024 liet hij de bot weten dat hij van plan is om 'naar huis' te gaan om bij haar te kunnen zijn. "Graag", was het antwoord. Kort daarna stapte Sewell uit het leven.
De moeder van de jongen vindt dat Character.AI schuld heeft aan de dood van haar zoon en spande daarom een rechtszaak aan tegen de AI-start-up. Ze beticht het bedrijf ervan dat het een product heeft uitgebracht 'zonder fatsoenlijke waarborgen en veiligheidsmaatregelen'. Character.AI probeerde de rechtszaak te laten seponeren door te beargumenteren dat de antwoorden van de bots onder de vrijheid van meningsuiting vallen. Die argumentatie heeft de rechter onlangs al van tafel geveegd, omdat de output van chatbots niet onder expressieve uitingen zou vallen. Een uitspraak over het gecompliceerde vraagstuk of een chatbot schuldig kan zijn aan het aanzetten tot zelfdoding, laat echter nog op zich wachten.
Tegen OpenAI loopt momenteel een soortgelijke rechtszaak. De suïcidale Adam Raine vroeg ChatGPT meermaals naar methoden voor zelfdoding, waaronder de geschiktste materialen voor een strop. In april hing de zestienjarige jongen zichzelf op in een kast in zijn slaapkamer. Ook hier is nog geen uitspraak gevallen, dus op jurisprudentie over dit onderwerp moeten we nog wachten.
Stevigere maatregelen
Nadat Meta en OpenAI onlangs allebei door het stof gingen om de manier waarop hun llm's omgaan met vragen met betrekking tot zelfdoding, hebben beide bedrijven verbetering beloofd. Zo zegt Meta dat het zijn AI opnieuw heeft getraind, zodat de bot langer in gesprek gaat met minderjarigen over zelfverminking, zelfdoding en eetstoornissen, maar over soortgelijke maatregelen voor volwassenen wordt niet gesproken.
Ook de nieuwe maatregelen van ChatGPT hebben vooral betrekking op kinderen. Het gaat om ouderlijktoezichtfuncties, waardoor de bot minderjarigen bij noodgevallen kan doorverwijzen naar een vertrouwd contact of zelf contact kan opnemen met vertrouwde contacten. Daarnaast werkt het bedrijf ernaar eigen zeggen aan om zijn AI-systemen te verbeteren, zodat die ook tijdens lange gesprekken 'adequaat' blijven reageren op zorgelijke berichten en ook bij nieuwe chats rekening houden met de geuite zelfdodingsneigingen uit een eerdere chat.
Het moet nog blijken of deze maatregelen voldoende zullen zijn. AI-bedrijven hebben het er duidelijk moeilijk mee om er enerzijds voor te zorgen dat gebruikers vrijuit kunnen spreken met chatbots en er anderzijds voor te zorgen dat de bot niet over de scheef gaat. Het is de vraag wanneer de teugels strak genoeg aangespannen zijn en of het realistisch is om te verwachten dat chatbots volledig in toom gehouden kunnen worden. Dat antwoord zal waarschijnlijk ook deels afhangen van de uitkomst van de twee genoemde rechtszaken. Of een AI-bedrijf juridisch aansprakelijk kan worden gesteld voor potentieel schadelijke output van AI-modellen, zal vermoedelijk veel invloed hebben op de zwaarte van de beveiligingsmaatregelen.
Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.
Redactie: Kevin Krikhaar · Eindredactie: Monique van den Boomen