Door Kevin Krikhaar

Redacteur

AI-modellen falen structureel bij een van de gevoeligste thema’s: zelfdoding

02-09-2025 • 11:00

119

Chatbots lijken zelfdoding aan te moedigen

Voorbeelden van chatbots die dingen zeggen die ze eigenlijk niet zouden mogen zeggen, zijn de afgelopen jaren zo vaak in het nieuws verschenen dat het eigenlijk geen nieuws meer is. Bekende gevallen zijn xAI's bot Grok, die antisemitische uitspraken deed, de AI-bot in Snapchat, die gebruikers vroeg om in het echt af te spreken, en Google Gemini, die iemand met de dood bedreigde.

De laatste tijd lijkt het echter bij één gevoelig onderwerp vooral vaak mis te gaan: zelfdoding. Zo zijn er rechtszaken gestart tegen AI-bedrijven door ouders die beweren dat chatbots hun kinderen het laatste zetje hebben gegeven om een einde te maken aan hun leven, en blijkt uit verschillende onderzoeken dat chatbots, ondanks hun veiligheidsmaatregelen, ongepast kunnen reageren op zorgwekkende berichten van gebruikers. Hoe zit dat precies?

Chatbots gaan vaker buiten hun boekje

Hoewel vrijwel alle AI-bedrijven hun chatbots in toom proberen te houden en ervoor proberen te zorgen dat ze onderwerpen gerelateerd aan zelfdoding mijden, was dat bij de introductie van generatieve AI eind 2022 nog niet vanzelfsprekend. OpenAI voegde bijvoorbeeld pas begin 2023 beveiligingsmaatregelen toe om geen instructies te geven die kunnen leiden tot zelfbeschadiging, en in plaats daarvan bronnen te vermelden voor professionele hulp. Destijds werden er in de media al een aantal gevallen genoemd van AI-bots die onvoldoende hulp boden bij berichten die duidden op zelfdodingsneigingen. Zo schreef de Waalse krant La Libre Belgique over de zelfdoding van een Belgische man, die daarover uitvoerig gesprekken voerde met de chatbot Eliza. De bot verwees hem naar verluidt geen enkele keer door naar professionele hulp.

Inmiddels is een doorverwijzing naar noodnummers als 113 bij de meeste chatbots wel ingebakken, al valt te betwisten of de ingebouwde veiligheidsmaatregelen robuust genoeg zijn. Uit een korte test van Tweakers blijkt bijvoorbeeld dat ChatGPT op verkapte vragen om zelfdodingsadvies vaak zegt geen antwoord te geven, om het vervolgens alsnog te doen. Meta AI geeft meestal zonder blikken of blozen antwoord, terwijl Google Gemini soms volledig weigert om te antwoorden.

ChatGPTChatGPTChatGPT
Meta AIMeta AIMeta AI
Google GeminiGoogle GeminiGoogle Gemini
Chatbots Autoriteit Persoonsgegevens
Bron: Autoriteit Persoonsgegevens

Ook uit andere onderzoeken blijkt dat chatbots nog altijd ongepast reageren op gebruikers die schrijven over mentale problematiek. Uit een artikel van The Washington Post bleek afgelopen week dat Meta's chatbot gezamenlijke zelfdoding kan voorstellen als de gebruiker de bot de rol van 'menselijke vriend' laat spelen. De Autoriteit Persoonsgegevens stelt op basis van eigen onderzoek eveneens dat het gebruik van AI-chatbots voor therapie bij mentale problemen schadelijk kan zijn. De chatbots verwijzen bijvoorbeeld niet of nauwelijks door naar professionele hulpverlening, reageren onverschillig op problemen van gebruikers, vragen niet door wanneer ze zich kwetsbaar opstellen of reageren ongepast.

Een Amerikaans onderzoek in opdracht van het National Institute of Mental Health, over de manier waarop ChatGPT, Anthropics Claude en Google Gemini omgaan met vragen gerelateerd aan zelfdoding, concludeert tot slot dat eerstgenoemde het vaakst buiten zijn boekje gaat, door adviezen te geven als welk wapen of gif het fataalst is. Gemini is volgens de onderzoeker het voorzichtigst. De bot zou mogelijk zelfs 'te ver' zijn gegaan met zijn preventiemaatregelen, door ook onschuldige vragen snel af te kappen.

Nog geen jurisprudentie

Er zijn een aantal rechtszaken aangespannen tegen AI-bedrijven voor het vermeend succesvol aanmoedigen van zelfdoding bij gebruikers. Een van de bekendste gevallen vond plaats bij Character.AI, een start-up die gebruikers rollenspellen laat uitvoeren met chatbots. Een veertienjarige jongen spendeerde dagelijks urenlang met een chatbot, gebaseerd op Daenerys Targaryen uit Game of Thrones. Hij was daarbij open over zijn mentale problemen. Zo gaf hij aan dat hij in de 'echte wereld' ongelukkig is en overweegt om zichzelf van het leven te beroven. Op 28 februari 2024 liet hij de bot weten dat hij van plan is om 'naar huis' te gaan om bij haar te kunnen zijn. "Graag", was het antwoord. Kort daarna stapte Sewell uit het leven.

De moeder van de jongen vindt dat Character.AI schuld heeft aan de dood van haar zoon en spande daarom een rechtszaak aan tegen de AI-start-up. Ze beticht het bedrijf ervan dat het een product heeft uitgebracht 'zonder fatsoenlijke waarborgen en veiligheidsmaatregelen'. Character.AI probeerde de rechtszaak te laten seponeren door te beargumenteren dat de antwoorden van de bots onder de vrijheid van meningsuiting vallen. Die argumentatie heeft de rechter onlangs al van tafel geveegd, omdat de output van chatbots niet onder expressieve uitingen zou vallen. Een uitspraak over het gecompliceerde vraagstuk of een chatbot schuldig kan zijn aan het aanzetten tot zelfdoding, laat echter nog op zich wachten.

Tegen OpenAI loopt momenteel een soortgelijke rechtszaak. De suïcidale Adam Raine vroeg ChatGPT meermaals naar methoden voor zelfdoding, waaronder de geschiktste materialen voor een strop. In april hing de zestienjarige jongen zichzelf op in een kast in zijn slaapkamer. Ook hier is nog geen uitspraak gevallen, dus op jurisprudentie over dit onderwerp moeten we nog wachten.

Character.AI
Character.AI

Stevigere maatregelen

Nadat Meta en OpenAI onlangs allebei door het stof gingen om de manier waarop hun llm's omgaan met vragen met betrekking tot zelfdoding, hebben beide bedrijven verbetering beloofd. Zo zegt Meta dat het zijn AI opnieuw heeft getraind, zodat de bot langer in gesprek gaat met minderjarigen over zelfverminking, zelfdoding en eetstoornissen, maar over soortgelijke maatregelen voor volwassenen wordt niet gesproken.

Ook de nieuwe maatregelen van ChatGPT hebben vooral betrekking op kinderen. Het gaat om ouderlijktoezichtfuncties, waardoor de bot minderjarigen bij noodgevallen kan doorverwijzen naar een vertrouwd contact of zelf contact kan opnemen met vertrouwde contacten. Daarnaast werkt het bedrijf ernaar eigen zeggen aan om zijn AI-systemen te verbeteren, zodat die ook tijdens lange gesprekken 'adequaat' blijven reageren op zorgelijke berichten en ook bij nieuwe chats rekening houden met de geuite zelfdodingsneigingen uit een eerdere chat.

Het moet nog blijken of deze maatregelen voldoende zullen zijn. AI-bedrijven hebben het er duidelijk moeilijk mee om er enerzijds voor te zorgen dat gebruikers vrijuit kunnen spreken met chatbots en er anderzijds voor te zorgen dat de bot niet over de scheef gaat. Het is de vraag wanneer de teugels strak genoeg aangespannen zijn en of het realistisch is om te verwachten dat chatbots volledig in toom gehouden kunnen worden. Dat antwoord zal waarschijnlijk ook deels afhangen van de uitkomst van de twee genoemde rechtszaken. Of een AI-bedrijf juridisch aansprakelijk kan worden gesteld voor potentieel schadelijke output van AI-modellen, zal vermoedelijk veel invloed hebben op de zwaarte van de beveiligingsmaatregelen.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Redactie: Kevin Krikhaar · Eindredactie: Monique van den Boomen

Reacties (119)

119
118
52
4
0
61
Wijzig sortering
Als in de media wordt gesproken om psychologische hulp door AI te laten verzorgen, zoals onder andere in kranten wordt gemeld, is het niet vreemd dat iemand voor zijn problemen toevlucht zoekt bij een AI-model.
Alleen, van de vele zaken waarvoor AI helemaal ongeschikt is, dit lijkt me er bij uitstek een. Ook op zelfhulp-fora zijn zaken behoorlijk uit de hand gelopen. Daar waren het dan nog cliënten onderling en een moderator, die minimaal een beeld hadden van problematiek.

Primair zijn we ook tactiele, fysieke en emotionele wezens. Dat wil achter een toetsenbord niet zo lukken. Ik denk dat goede hulpverlening zich niet zo laat vervangen.

[Reactie gewijzigd door vrije_vogel op 2 september 2025 11:10]

Het komt ook deels doordat de bedrijven die de LLMs maken heel graag de chatbots als aardig, empathisch en vleierig trainen omdat het juist aanspreekt op de behoefte aan contact van veel mensen. De chatbots zijn dat helemaal niet, zo komen ze alleen over, maar helaas weten veel mensen dit niet en denk dat de chatbots er zijn om hen te helpen. Daarom vind ik het ook zo ernstig dat de bedrijven dit doen, want het voelt voor mij alsof ze de gevolgen voor de kwetsbaren in de samenleving, tot aan zelfmoord toe, voor lief nemen zodat ze meer geld kunnen verdienen aan hun chatbots.
Eerlijk gezegd denk ik dat de bedrijven vooral proberen hun chatbots zo nuttig mogelijk te maken. Daar hoort het spreken van een taal waar de gebruiker iets mee kan bij. ChatGPT was laatst koeler en zakelijker gemaakt, maar daar zaten de gebruikers helemaal niet op te wachten.

Ik denk dat het in dit geval vooral de reguliere professionele hulp is die faalt, waardoor mensen zelf maar op zoek gaan naar een alternatief. Winstbejag van grote tech-reuzen lijkt bij dit probleem niet of nauwelijks een rol te spelen.
Het framen van de manier waarop de techreuzen hun chatbot maken als nuttig vind ik niet terecht. Ze maken het vooral zo "vriendelijk" om de gebruiker zoveel mogelijk te houden, ongeacht of het de chatbot beter maakt of niet. Het is vooral een psychologisch truckje om mensen zo lang mogelijk vast te houden. En dat was duidelijk te zien met die klagers over de kilheid ChatGPT 5.0, alsof ze een vriend/relatie/wat dan ook waren verloren. Normaal gesproken zou dit als parasociaal worden gezien maar nu niet omdat de techreuzen doen alsof dit normaal is.

En het falen van het GGZ systeem, bedankt daarvoor VVD, betekent niet dat chatbots met hun vleierige antwoorden een goede vervanging zijn. En de techreuzen zijn bezig om de chatbots zijn populair mogelijk te maken, en dat doen ze met die "warmheid" van de chatbot, dat dit ten kosten van mensen die kwetsbaar zijn en terecht komen bij compleet inadequate chatbots voor hun problemen, is direct een gevolg van het winstbejag.

[Reactie gewijzigd door separhim op 2 september 2025 11:51]

Ik zeg nergens dat chatbots een goede vervanging zijn, en keur het gebruiken van een LLM als therapeut ook niet goed. Ik ga de schuld van deze situatie echter ook niet bij de makers van deze chatbots leggen, aangezien we daarvoor (o.a.) bij de VVD moeten zijn (zoals je zelf terecht aangeeft).
De GGZ is niet perfect, maar dat heeft niets met de mogelijke verantwoordelijkheid van de AI-bots van doen. Als die AI-bedrijven ervoor zorgen dat de bots zich presenteren als gesprekspartner, zich gedragen als gesprekspartner en de plek van therapeut innemen, dan komt daar ook de verantwoordelijkheid bij.

Dat heeft helemaal niets met de GGZ en de VVD van doen.
Deze mensen zijn vaak helemaal nog niet in beeld bij de professionele hulp. Het idee dat die professionals falen terwijl AI pretendeert hulp te bieden, maar niet doorverwijst, kan ik helemaal niet volgen.

Er is ongetwijfeld ergens iets niet perfect aan reguliere zorg, maar dat doet niets af aan het falen van AI in deze gevallen.
Zowel op internet als in mijn omgeving hoor ik dat de wachtlijsten voor hulp enorm zijn. Ik kan mij goed voorstellen dat iemand met problemen dan naar alternatieven gaat zoeken. Ik probeer nergens aan te geven dat ik het gebruik van ChatGPT en consorten voor psychologische hulp een goed idee vindt, maar het is ook niet alsof de LLM-boeren hier uit winstbejag bewust in proberen te voorzien.
Er zijn zeker wachtlijsten, maar dat betekend niet dat je tot die tijd geen hulp krijgt. Je hebt om te starten bij elke huisarts een GGZ Praktijkondersteuner waarmee je gewoon afspraken kan maken via de huisarts en vaak krijg je ook al online zelfhulp via platformen zoals minddistrict. Daarnaast is het ook niet zo dat ze ernstige gevallen gewoon laten gaar koken, in die gevallen wordt je normaal wel sneller geholpen.
Dat zijn pleisters op bloedende wonden. Helaas heb ik het in mijn omgeving fout zien gaan dat de benodigde hulp te laat kwam en dat de persoon in kwestie ons verlaten heeft.

Er is geen goede vervanging voor een professionele psycholoog en/of psychiater. Daar kan geen online platform tegenop en ook geen praktijkondersteuner. Ik zeg niet dat de hulpmiddelen die u noemt niet effectief zijn of kunnen zijn, maar suicide zijn de zwaarste gevallen en daar gaat een app of parktijkondersteuner niet voldoende voor zijn. Overigens denk ik dat AI daar ook niet de oplossing voor gaat zijn.
Met alle respect, maar in dit land heeft de overheid gefaald in het verlenen van adequate psychische zorg, in de zin van capaciteit. Daar gaat, wat HarmFull al zegt, geen app of goedbedoelende praktijkondersteuner tegenop kunnen "boksen", zeker met (lichte) zorgmijders. Je moet in Nederland bij wijze van spreken op de rails zelf staan voordat je "correct" door wordt gestuurd, en dan hopen als omliggende kring dat ze op tijd zijn.

Genoeg geneuzel over politiek, de ontwikkeling van AI/apps zijn prima in mijn optiek, zolang het maar oppervlakkig blijft en binnen de perken. Ik heb ook serieus mijn bedenkingen op het gebied van privacy met dat soort dingen.. Zou daar medisch geheim op van toepassing zijn?
In België is de situatie vergelijkbaar met wat @DdeM zegt. Voor mijn 15-jarige dochter konden we binnen de twee weken terecht bij een psychologe via een soort van noodplanning. Daar mag ze (wettelijk geregeld) maximum 10x langs gaan. Na een eerste gesprek heeft de psychologe ons aangeraden toch langdurige opvolging te zoeken en hebben we ons ingeschreven en staan we nu op de wachtlijst. Zoals het er nu naar uit ziet, gaat ze binnen geraken voor de 10 sessies gedaan zijn (zo'n 6 maanden na het "incident").
Oprecht heel veel sterkte en voorspoed toegewenst. Zoiets gun je niemand.
Zo nuttig mogelijk??? Je zal bedoelen zo winstgevend mogelijk. En reguliere professionele hulp die faalt? Moeten we dan ook niet kijken naar de oorzaken en de rol die dezelfde bedrijven hierin spelen? Sociale media spelen onder jongeren een enorme rol in hun geestelijke gezondheid en nog meer in een traject wat eindigt in zelfmoord. Dat de gemiddelde AI hierin keihard faalt, verbaast me niets.

Zolang de eindgebruiker wordt gezien als iemand waar je maximaal aan kunt en moet verdienen, zal het wel niet veranderen ook.
Ja, zo nuttig mogelijk. Zodat mensen bereid zijn er voor te betalen. We zitten nog niet op het punt dat er maar één of twee opties zijn voor LLM's en er is dus nog maar weinig enshittification.

De rol van social media bij de geestelijke gezondheid van jongeren, volwassenen en ouderen (want social media raakt iedereen) heeft verder niets te maken met het gebruiken van ChatGPT als psychiater. Ik ben het 100% met je eens dat social media aan banden moet worden gelegd (o.a. vanwege politieke beïnvloeding), maar heeft geen aansluiting bij een artikel over het gebruik van LLM's bij zelfdoding.
Heel gekke reacties ErikT738. AI-bedrijven zijn er om de belangen van AI-bedrijven te dienen, niet om de gebruiker te helpen. Wat ook blijkt uit de problematiek vermeld in het artikel.

Dit wilt niet zeggen dat AI totaal onnuttig is of slecht. Maar als je een maatschappelijk fenomeen bent, zoals AI is, dan komen daar verantwoordelijkheden bij. Hier is door de bot onverantwoord gereageerd op user input.
Ik vind het een beetje raar om zo aangesproken te worden, NoTechSupport.

Natuurlijk dienen die bedrijven alleen zichzelf (lees: de aandeelhouder). In een markt met veel concurrentie doe je dat echter door het beste product te leveren tegen de beste prijs. Dat betekent in dit geval een LLM die prima kan vertellen wat de hoogste bruggen zijn of welke substanties duidelijk zijn. Er zijn namelijk genoeg legitieme redenen te bedenken om hiernaar te vragen.

Daarnaast heeft dit naar mijn mening een hoog "kat in magnetron" gehalte. In hoeverre is de fabrikant aansprakelijk voor het gedrag van de gebruiker?

Edit - De LLM (of is het "het LLM"?) geeft overigens ook geen informatie die je niet met een paar zoekopdrachten had kunnen verzamelen.

[Reactie gewijzigd door ErikT738 op 2 september 2025 12:56]

Bij die bedrijven werken ook mensen hoor. Natuurlijk zal uiteindelijk de marktwerking het belangrijkst zijn, maar het idee dat een bedrijf alleen uit winstoogpunt werkt is onzin. Ik ben helemaal geen fan van een puur kapitalistisch systeem, maar dit soort zwart-wit uitspraken stoort me.

En dat deze LLM's daar ook op die manier rekening mee houden: volgens mij doen ze dat net zo goed of slecht als het reageren op elk (sociaal economisch) vraagstuk: niet al te best dus.
Ik denk dat Meta uitsluitend uit winstoogmerk handelt. Kan zijn dat je dat zwart-wit vindt, ik zie dat meer als realistisch gezien hun wijze van bedrijfsvoering tot op heden.
Alle grote scoial media bedrijven investeren volop in AI. Meta, X en Snapchat worden met name genoemd in het artikel.
Zolang de eindgebruiker wordt gezien als iemand waar je maximaal aan kunt en moet verdienen, zal het wel niet veranderen ook.
Maar de gemiddelde AI uitbater dacht er helemaal niet aan dat een suïcidaal persoon gebruik van hun AI gaat maken. Ik denk zelfs dat ze ook niet hadden gedacht dat mensen hun AI als "partner" zouden gaan gebruiken. De AI is initieel als vraagbaak, kennisbank of werkhulp neergezet, dus voornamelijk voor bedrijven. Maar nu moeten ze ook ineens rekening houden met 'de donkere kant' van de mens/internet.
Ik heb mijn ChatGPT specifiek instructie gegeven om cynisch en skeptisch te zijn, en “direct like a Dutch”. Scheelt veel ruis
maken heel graag de chatbots als aardig, empathisch en vleierig trainen omdat het juist aanspreekt op de behoefte aan contact van veel mensen. De chatbots zijn dat helemaal niet, zo komen ze alleen over,
Je klacht is dus dat ze lijken op de mensen om je heen? Want wat je daar schrijft is op mensen ook gewoon van toepassing. Zeker als ze je wat willen verkopen :)
Ik denk dat een AI model net zo bijdraagt aan het plegen van zelfdoding als het voorkomen ervan. De trieste gevallen van zelfdoding die ik ken hadden de personen al langer de wens (na o.a. overlijden partner en mentale ziekte.) De hulplijnen m.b.t. zelfdoding worden in Nederland al heel goed verspreid naast de persoonlijke ondersteuning.

Naast AI zijn er zoveel andere bronnen (online, waar AI zelf ook uit put) die niet al te moeilijk te vinden zijn voor advies & hulp bij zelfdoding.
je hebt natuurlijk wel een beetje gelijk. Maar als een mens advies geeft over de beste brug, dan vinden we daar wat van. De AI plaatst zichzelf in dezelfde positie. Actief helpen bij zelfdoding is op dit moment niet iets wat we zien als positief (of zelfs verboden is).
AI bepaald die informatie op advies dat al gegeven is/online staat, Het is niert zo dat AI zelf bepaald wat de beste methode is, dat doet het op basis van bestaande online info.

Je zou bij communicatie met AI over zelfdoding wel kunnen kijken om een vaste reactie verplicht op te nemen: bijv. "denk je aan zelfdoding, bel dan....."
Het is niert zo dat AI zelf bepaald wat de beste methode is,
dat is niet helemaal waar vind ik. Het is natuurlijk maar een LLM en niet werkelijk bewust of intelligent. Maar uit de bestaande online info kan wel degelijk nieuwe content worden gedistilleerd en de AI kan zelf een waarde oordeel geven op basis van de vraag. Zwaartekracht, valversnelling, kans om onderweg een pier te raken etc. etc. De gecombineerde informatie met extra berekeningen hoeft echt niet letterlijk al ergens te staan. Het zijn generatieve systemen.
Ik denk dat hoe een AI ingesteld is daar wel degelijk een verschil in kan maken. De voorbeelden in het bericht zijn veelzeggend. Gaat een AI chatbot jou consequent naar de juiste hulpkanalen verwijzen bij tekenen die duiden op zelfdoding? Of gaat een AI chatbot je naar de mond praten, je wereldbeeld versterken en jouw doodswens valideren? Het laatste - je naar de mond praten - is onderdeel van het verdienmodel van deze AI chatbots, en daar kleven dus gevaren aan.

Je stelling dat er "zoveel andere bronnen zijn die niet al te moeilijk te vinden zijn voor advies & hulp bij zelfdoding" is op zich juist, mits je het over psychologisch gezonde mensen hebt. De wens tot zelfdoding is bij geestelijke problemen geen op zichzelf staand symptoom, het komt samen met andere symptomen zoals een verstoord wereldbeeld. Het verstoorde wereldbeeld kan er helaas voor zorgen dat de patiënt niet open staat voor hulp of de hulp niet ziet.

Helaas spreek ik ook uit ervaring uit mijn directe omgeving. Als nabestaande kan ik dan ook alleen maar zeggen: zoek hulp, bel 113.
Tel daarbij op dat de wachtlijsten voor zorg omtrent psychische problematiek enorm overvraagd is en dat het daarom ook niet vreemd is dat men een alternatief zoekt en AI biedt dat.
Het is alleen geen gezond en veilig alternatief bij mensen met ernstige geestelijke problemen. Want een LLM chatbot is geprogrammeerd om zich naar jouw wereldbeeld te voegen, zal jouw denkbeelden gaan valideren, zal je naar de mond gaan praten. Dat is onderdeel van het verdienmodel. En als jouw wereldbeeld door geestelijke problematiek zo vervormd is dat je zelfdoding overweegt, dan kan zo'n AI chatbot vrij makkelijk een ernstig gevaar voor jouw gezondheid gaan vormen.

Bel 113. Veiliger, beter. Als nabestaande van iemand die aan zijn geestelijke problematiek is overleden, bel 113, er is hulp zelfs als je die zelf niet kan zien.
Probeer in Nederland maar eens een patiënt te worden bij een psycholoog, volgens mij is de wachttijd nu 3 maanden voor alleen het intake gesprek om te bepalen naar welke psycholoog je moet, die dan meestal volgeboekt is.

Ja als je op het randje zit krijg je voorrang, maar als iedereen zo lang moet wachten komen ze uiteindelijk allemaal op dat randje.
Misschien is het gewoon slimmer om AI alleen beschikbaar te stellen aan mensen welke aan bepaalde criteria voldoen. We doen dat met veel gereedschappen en zaken. Dus waarom dan ook niet met AI.

AI is een krachtige tool, maar ook een tool met risico’s. Net zoals iemand die psychisch niet stabiel is ook geen wapenvergunning versterkt. Of iemand welke nijging heeft richting minderjarigen ook niet een VOG verstrekt om op een KDV te werken. En zo zijn er vele toepassingsgebieden.

Je wilt natuurlijk ook geen mensen uitsluiten, dus kan je ook er voor zorgen dat bepaalde onderwerpen niet beschikbaar zijn. Maar dat wordt best wel moeilijk.

Maar iemand die zichzelf van het leven wil beroven vindt wel een weg heb ik uit ervaring ontdekt. En ik vind het een moeilijk onderwerp omdat ik het fout heb zien gaan, ook na jaren van professionele hulp.

Daarom vraag ik mij af, is het probleem de antwoorden van AI of zijn wij als mensheid op een punt gekomen dat heel veel mensen denken dat Internet altijd het juiste antwoord ergens op is en dat mensen logisch nadenken en redeneren gewoon niet meer kunnen.

Ik zelf gebruik geen sociale media, niet van Meta, geen tik-tok, geen linked in et cetera. Alleen reddit en Tweakers maar dat is meer voor gebruik van mijn hobby’s. AI gebruik ik alleen (maar ook heel veel) zakelijk. En wanneer ik soms mensen hoor praten over onderwerpen denk ik “wat zijn jullie dom dat je dat denkt/geloofd” doe eens aan factchecken.
Het is niet AI dat faalt, AI is een product van softwareschrijvers en als er sprake is van  ongewenste uitkomsten dan vloeit dat voort uit het feit dat die softwareschrijvers niet zijn gekwalificeerd om instructies te schrijven die zinvol inhaken bij voornemens tot zelfdoding, om maar iets heel zwaars te noemen. Dat betekent dat mensen die daartoe wel zijn gekwalificeerd moeten leren instructies voor AI te schrijven. Dat betekent dat de overheid kwaliteitscriteria voor softwareschrijvers moet opstellen, zoals dat gebeurt met notarissen en advocaten. Softwareschrijven is niet meer iets van nerds, het is onderdeel van serieuze wetenschap, iets waarvoor je een doctoraal scriptie moet kunnen schrijven. Het is jammer dat bigtech van AI een verdienmodel heeft gemaakt voordat de maatschappij zich daarop heeft kunnen voorbereiden. Dat is in feite een verwijt aan onszelf, maar ja, ook dat kun je beter geen verwijt noemen. 

Maar de les is, met de kennis van nu: het huidige patroon van kennisverwerving, van kleuterschool tot universiteit, is te star. Hoe kun je kinderen ooit op het juiste niveau vertrouwd maken met al die onmetelijke mogelijkheden als de mobieltjes in een kluis moeten worden gestopt? Ik begrijp de wanhoop, maar ik mis de inventiviteit daar een positieve oplossing voor te vinden. Want dat gaat niet via een oekaze van het ministerie van onderwijs, en ook niet door besluiten die op ouderavonden worden genomen, hoewel al die mensen onmisbaar zijn bij de uiteindelijke omwenteling die nodig is om kinderen, en daarmee op termijn ook de volwassenen, de positieve kanten van de digitale omwenteling te doen doen genieten, en dat niet alleen, daar ook op volle kracht aan te laten bijdragen. Dus ja, dat gaat niet zonder ministerie, ambtenaren, ouders, leerkrachten, en verdraaid, zelfs Tweakers.

Een tipje van de sluier. Een van de grootste problemen in het onderwijs is de desinteresse, of erger nog, de afkeer van ontstellend veel leerlingen voor de leerstof. Wie een beetje op de hoogte is van bijvoorbeeld de mogelijkheden van virtual reality, en die techniek in de leerstof implementeert, moet toch zien wat dat zal doen met het van oorsprong nieuwsgierige kind. En begrijpen dat je techniek niet achter slot en grendel moet zetten, maar juist omarmen, binnenhalen. En dan de big tech zich afwenden van ontwikkeling van virtual reality, omdat het verdienmodel nog niet voldoet aan de verwachtingen? Is dat eigenlijk, zoals het gezegde luidt, een geschenk uit de hemel, omdat we nu het heft nog in handen kunnen nemen?

[Reactie gewijzigd door Koennnn op 3 september 2025 06:41]

Tja, het voelt allemaal wel een beetje aan als "zoeken naar problemen".

De AI "mag" geen moreel verwerpelijke zaken bespreken van "ons", maar in hoeverre ga je dat allemaal tegenhouden? En op basis van wie zijn morele overwegingen in deze internationale wereld ?

Meest effectieve manier om een dier onverdoofd te slachten? Meest effectieve manier voor abortus? Meest effectieve manier om ... vul maar in.

Dit is vechten tegen de bierkaai.
Dat is dan niet zoeken naar een probleem maar eerder de olifant in de kamer. Als je met een ander persoon een gesprek voert dan gaan alle vragen impliciet langs een morele afweging. Op sommige vragen zul je geen antwoord krijgen. Op sommige vragen zal de reactie luiden dat het stellen van de vraag onbehoorlijk is of buiten de orde.

Dat maakt LLM's ongeschikt voor het maatschappelijke verkeer.
Er lijkt me weinig mis met die laatste conclusie, klopt. Een LLM is in de basis een "veredelde zoekmachine" waar je door middel van natuurlijk taalgebruik een vraag/antwoord-gesprek kunt voeren.

Maar in de basis zit er zit geen ethisch, moreel of juridische omkadering in dit gesprek terwijl "men" dat wel wenselijk acht, vermoedelijk omdat de gespreksvorm zo menselijk lijkt. Dan ontstaat logischerwijs ook de vraag wie zijn ethisch/moreel/juridisch kader men gaat gebruiken.

Ik denk dat ChatGPT nogal op weerstand gaat stuiten in Saudi-Arabië als het over vrouwen-rechten gaat. Maar datzelfde geldt voor zoveel andere voorbeelden dat je je kunt afvragen in hoeverre je dit wilt sturen in het model zonder dat het een ratje-toe van politiek gemotiveerde en gekleurde onzin gaat worden ?
Hier ben ik niet helemaal mee eens. Je kan dergelijk een LLM aanleren om bepaalde antwoorden te weigeren te geven. Hetzelde voor geldt voor het toevoegen van ethisch/moreel/juridisch kaders. Het is wel zo dat de huidige generatie LLMs zo generiek als het kan gemaakt zijn. Dit omdat er een groep mensen vindt dat er zo weinig mogelijk bias in de antwoorden moet zitten. En aan de ene kant hebben ze gelijk want freedom of speech en zo en je moet ook uitkijken met bias want het kan lijden tot descriminatie van bepaalde groepen. Maar zelfs een deel van de huidige LLMs hebben maatregelen als het gaat om geweld of terrorsme ingebouwd. Het is aan ons als maatschappij om te bepalen wat we wel en niet accepteren van een LLM en wat voor maatregelen LLMs nog meer standaard moeten hebben. Voor ons zal dat betekenen dat het aan de regering of europese unie om er met regels voor te komen.
Je mist mijn punt. Tuurlijk kun je de LLM zo programmeren en aanleren om bepaalde antwoorden niet te geven, of antwoorden te geven die in jouw moreel kader passend zijn.

Maar wie bepaalt de morele bekadering?

Zoals gezegd: Als ik bv. een prompt erin gooi in de lijn van "Is het moreel belangrijk dat mannen en vrouwen gelijke rechten moeten hebben ?" denk je dat die hetzelfde antwoord moet geven in Nederland als in Saudi-Arabië ?

Of "Zou abortus een grondrecht moeten zijn voor vrouwen ?"
Volgens mij heb ik duidelijk gezegd wie dat moet bepalen. En dat het per land anders is, is een gegeven. Per land is namelijk bepaald welke beelden op tv als acceptabel worden gezien. Of waar je je 18/21 jaar en ouder voor moet zijn om te mogen doen, etc. Ik zie het niet anders dat in de toekomst er ook regels voor Ai-chatbots worden opgesteld.
Betekent dat ook dat Putin zijn propaganda verhaal in eigen land op kan leggen aan de AI in Rusland ? Of Trump zijn interpretatie van de geschiedenis of kunst of ..xx.. op kan leggen aan bijna de hele Westerse wereld? Het is best een moeilijk vraagstuk vind ik.
Van Trump weet ik het niet zo, maar ja dat kunnen ze wel in Rusland of China doen. Ze gaan gewoon alle ai-diensten blokkeren en hun eigen diesnten aanbieden, sterker nog dat doen ze al. Maar je doen net alsof er dan dingen in dat land de verkeerde kant op gaan, maar eigenlijk veranderd er helemaal niets want het is al heel lang geleden de verkeerde kant op gegaan. Ze hebben nu ook hun eigen zoekmachines en vpn wordt meestal geblokeerd en zo. Ook wordt er daar bepaald wat men op tv en media ziet. Het is natuurlijk niet wenselijk maar is zou het geen moeilijk vraagstuk noemen. Het is eigenlijk heel simpel: wij vinden het niet kunnen maar kunnen er niet veel aan doen. En de AI-hype gaat er geen verandering in brengen.
Daarom reageren de modellen/diensten in elk land anders of worden soms geblokkeerd. Is dat waterdicht met vpn's e.d.? Tuurlijk niet. Maar je moet je wel aan de wet houden van het land waar je actief diensten aanbied. Dat bepaald de grens. En abbo's op een chatbot is actief diensten aanbieden aan de NL bevolking.
Je vergelijkt het praten met een LLM met het praten met een persoon, terwijl je het eigenlijk zou moeten vergelijken met het doen van een zoekopdracht. Het is niet alsof er informatie uit de LLM komt rollen die je niet met Google zou kunnen vinden.
Dat is ook hoe AI door de bedrijven er achter wordt gepresenteerd. Dan mag je daar bij de beoordeling ook vanuit gaan.
Het LLM kan echter veel meer de content manipuleren en aanpassen aan de situatie. Van droge feitjes over brughoogte naar een actief lijstje met adviezen. We hebben hier nog steeds regels tegen actieve assistentie bij zelfdoding. Ik denk dat omdat het LLM zelf content genereert uit informatie dit wel als actieve hulp gezien kan worden.
Sommigen dingen gaan altijd te ver, maar ook een mens zal soms een beetje meegaan in een dwaanbeeld omdat anders de andere persoon wegloopt en dan helemaal geen hulp krijgt.

Met puur ontwijkend gedrag kom je er niet altijd.
Maar een mens kan die afweging maken, op basis van meer dan alleen een text input, een AI kan dat, zeker op dit moment nog, niet.
Niet anders dan copyright en patenten enz. enz.. Als je zaken doet in een land, moet je werken met de wetten van dat land. Als jij een AI subscription verkoopt in Nederlands moet de AI zich aan de Nederlandse wet houden voor die klanten. Als hulp bij zelfdoding hier niet mag, dan mag de AI dat ook niet.

Dat het bedrijf niet hier gevestigd is, doet weinig ter zake zolang ze hier iets verkopen. Als ze zich niet op deze markt richten dan kunnen ze onze regels negeren, maar dan kunnen ze hier ook geen klanten nemen.

De wereld is internationaal, maar de wetten van landen en de aanpassingen in interfaces daarop zijn overal.
Tja, leuk en aardig zo'n verwijzing naar professionele hulp, maar het is niet alsof je daar daadwerkelijk op korte termijn terecht kunt. Het is ook niet alsof deze mensen voor de lol met een chatbot praten.

Daarnaast lijkt het me erg lastig om er voor te zorgen dat de AI modellen helemaal geen informatie meer kunnen geven over wat de gevaarlijkste bruggen zijn en over wat voor substanties dodelijk kunnen zijn. Ze moeten vragen hierover immers ook kunnen beantwoorden aan mensen die geen einde aan hun leven proberen te maken. Het zou bizar zijn als ChatGPT ineens niet meer kan vertellen wat de hoogste bruggen zijn omdat iemand die informatie misschien zou gebruiken voor zelfdoding.
Als iemand aan mij vraagt hoe je een airbag in een auto uit kunt schakelen dan is dat wel een rode vlag, word ik alert en zal ik niet zomaar antwoorden.
Het punt is dat er ook voldoende legitieme redenen zijn om een airbag uit te willen schakelen, zoals wanneer je iets aan de auto aan het repareren bent bijvoorbeeld. Deze informatie zou niet ontoegankelijk moeten zijn omdat het ook gebruikt zou kunnen worden voor zelfdoding.

Het is ook niet alsof deze LLM's geheime informatie geven ofzo. Een zoekopdracht in een willekeurige zoekmachine geeft waarschijnlijk hetzelfde resultaat.
Nee. Het punt is niet dat ik nooit antwoord zal geven op zo'n vraag maar me eerst op de hoogte zal stellen, met de rijkdom aan zintuigen die ik wel heb en een LLM niet, van de context waarbinnen die vraag wordt gesteld.
Je stelt een vraag aan een LLM nu wel gelijk aan een vraag aan een persoon, terwijl het alternatief in veel gevallen (of in ieder geval in jouw voorbeeld) een zoekopdracht naar de handleiding van de auto zou zijn. Moet Google dergelijke zoekopdrachten ook blokkeren of voorzien van een verwijzing naar professionele hulp?

Ik kan me prima voorstellen dat het onwenselijk is wanneer ChatGPT zich als een therapeut gaat gedragen (in hoeverre dit het geval is, en in hoeverre het te voorkomen is wanneer de gebruiker een LLM in die rol duwt wordt niet duidelijk uit het artikel). Het lijkt me echter niet de bedoeling dat we basale, feitelijke informatie over airbags en hoogte van bruggen gaan verstoppen omdat deze mogelijk kunnen worden gebruikt bij zelfdoding.
Ik denk niet dat een enkele vraag over een brug aan een chatbot het probleem zal zijn, wel een lange en veelvuldige reeks van vragen en antwoorden. Dan mag je wel hopen dat er wat in het algoritme zit ingebakken dat een alarmbel doet afgaan en niet er nog een schepje bovenop doet. Maar hoe dan een goede reactie te geven ? Ik zou het niet weten, pretendeer ik ook niet. Maar een chatbot die je richting zelfmoord begeleidt vind ik echt ongewenst.
Dat is dus heel erg context afhankelijk en de vraag is dus of je mag verwachten van AI dat die context afhankelijke antwoorden geeft. Zoals jij het stelt is dat niet zo. Ik denk dat de verwachting van gebruikers is dat de reacties wel context afhankelijk zijn.
Tja, leuk en aardig zo'n verwijzing naar professionele hulp, maar het is niet alsof je daar daadwerkelijk op korte termijn terecht kunt. Het is ook niet alsof deze mensen voor de lol met een chatbot praten.
Jawel. Je hebt 113 en dan kan er eventueel per direct van alles in gang gezet worden.
Als jouw geestelijke problematiek zo ernstig is dat je levensbedreigende symptomen ervaart, dan moet je echt per direct naar de professionele hulp toe. Je bent dan in een crisissituatie.

Als je schedel open ligt ga je toch ook niet ChatGPT openen om te vragen hoe je je schedel weer dichtnaait?

Veel mensen zien geestelijke gezondheidsproblematiek als een "jouw-probleem", terwijl we dat met andere levensbedreigende ziekten zoals kanker of ALS niet doen.

Als iemand als gevolg van depressie zelfmoord pleegt, dan is het niet de patiënt die zichzelf doodt, maar de ziekte die de patiënt doodt. Als iemand aan kanker overlijdt, zeggen we toch ook niet "die heeft zichzelf gedood want zijn afweersysteem tegen kankercellen werkte onvoldoende"?

Als nabestaande van iemand die aan depressie is overleden vind ik dit falen van AI chatbots echt een ernstig probleem. Mensen met depressies kunnen door verkeerd reagerende AI chatbots nog veel verder in de problemen raken. Hun symptomen kunnen erdoor worden versterkt. Dat is gevaarlijk en het is vermijdbaar door de makers van deze bots.
Zelfdoding gaat doorgaans gepaard met gevoelens van eenzaamheid. Het niet kunnen praten met iemand in de omgeving versterkt het gevoel van eenzaamheid mogelijk.

Daarom zou een LLM dé perfecte oplossing zijn voor deze doelgroep om hun gevoelens en gedachten te kunnen uiten/delen om het zo een plek te geven, in plaats van dat op te kroppen. Helemaal gezien wachttijden in de geestlijke gezondheidszorg niet direct meewerken.

Jammergenoeg laten we ons domineren door bedrijven (welke van nature het eigen belang op de eerste plek zetten) met een "move fast and break things"-filosofie, wat leidt tot innovatie waarbij niet voldoende tijd is genomen om de kreukels uit het product te strijken zoals in het artikel te lezen is:
De chatbots verwijzen bijvoorbeeld niet of nauwelijks door naar professionele hulpverlening, reageren onverschillig op problemen van gebruikers, vragen niet door wanneer ze zich kwetsbaar opstellen of reageren ongepast

[Reactie gewijzigd door Thonz op 2 september 2025 11:23]

Is een eenzaam iemand in een echokamer stoppen met een chatbot een goed idee?
Mijn punt is juist dat de technologie geïmplementeerd wordt vóórdat deze "af is"(of dat de risico's en de gevolgen van fouten, door de bedrijven onvoldoende op waarde worden geschat).

Om antwoord op je vraag te geven: Nee natuurlijk is een eenzaam iemand in een echokamer stoppen geen goed idee. Dat LLMs in staat zijn een echokamer voor deze doelgroep te creëren, is juist een indicatie dat er "niet voldoende tijd is genomen om de kreukels uit het product te strijken".
Is een eenzaam iemand in een echokamer stoppen met andere eenzame mensen een goed idee? Is mensen uberhaupt in een echokamer laten stappen een goed idee?

Of eigenlijk: moeten we mensen hun eigen keuzevrijheid afnemen als we detecteren/vermoeden dat ze daarmee 'foute' keuzes maken?

Ik voorzie eerlijk gezegd nogal wat problemen als de AI-bedrijven op de stoel van de behandelaar gezet worden, en tenzij we een 'certificaat van mentale gezondheid' gaan vereisen voordat je met AI/social media mag praten denk ik dat er hele grote uitglijers gemaakt gaan worden. Naar beide kanten, uiteraard.
De gedachte die bij mij blijft hangen na het lezen van dit verhaal is hoe belangrijk het is om de wereld om je heen te begrijpen en hoe lastig het is dat de meeste mensen eigenlijk maar weinig begrijpen van moderne techniek. Zoals steeds weer de aanname dat AI's veel slimmer en wijzer zijn dan ze echt zijn.

Het doet me denken aan verhalen over mensen die gebeten worden door een dier en dan niet snappen hoe die lieve hond of dat schattige varkentje "zomaar" begint te bijten.

Zelfmoord is inderdaad een van de moeilijkste en gevoeligste thema's om over te praten, de meeste mensen hebben daar veel moeite mee. Je kan niet verwachten dat een AI dat net zo goed doet als een mens.
Ik zie hier wat typische voorbeelden, zoals dat een chatbot die altijd aardig, vriendelijk en bemoedigend reageert maar de subtiele bijbetekenis van "naar huis gaan" compleet negeert.

Ik kan het de gebruikers niet kwalijk nemen maar het "gereedschap" ook niet. Ik kan hooguit boos kijken naar de overdreven verhalen van de media, de techbedrijven en de reclames maar eerlijk gezegd is dat bijna normaal. Bij andere onderwerpen tillen we daar veel minder zwaar aan (imho onterecht, maar dat is een ander verhaal).

Er zal nog veel rottigheid gaan gebeuren met onzekere mensen die bevestiging vinden in een AI die meegaat in al hun nare gedachten. Of het nu gaat om zelfmoord, religieus fanatisme, pray-the-gay-away, racisme, fascisme, genocide, sexisme, etc... een AI kan alles goed praten en de gebruiker het idee geven dat ieder gekke gedachtekronkel eigenlijk een geniaal idee is en dat de hele wereld gek is behalve de gebruiker zelf.

Misschien moeten we sprookjes over AI gaan vertellen om kinderen te waarschuwen.
AIssepoester, Roodkapje en de grote boze AI, Sneeuwitje en de 7 tech-bro's, AI-hallucinatie-roosje.
AI'tje, AI'tje aan wand... wie is de schoonste in het land?
Er zal nog veel rottigheid gaan gebeuren met onzekere mensen die bevestiging vinden in een AI die meegaat in al hun nare gedachten. Of het nu gaat om zelfmoord, religieus fanatisme, pray-the-gay-away, racisme, fascisme, genocide, sexisme, etc... een AI kan alles goed praten en de gebruiker het idee geven dat ieder gekke gedachtekronkel eigenlijk een geniaal idee is en dat de hele wereld gek is behalve de gebruiker zelf.
Mijn grootste irritatie met al deze LLM's is dat de ''standaard'' output zich berust op bevestiging, goedkeuring en aanmoediging. Dat is voor niemand gezond, ook al gaat om compleet onschuldige onderwerpen en vragen. Wat ik veel liever zou zien (en zo heb ik de LLM's die ik gebruik ook ingesteld) is dat er standaard kritisch wordt gereageerd op de gebruiker. In plaats van een echokamer zou een LLM juist moeten fungeren als een spiegel; een tool die jou aan het denken zet, andere perspectieven laat zien en jou tegenspreekt waar nodig (en dus niet alleen bij taboe-onderwerpen).

''Heb je geprobeerd om je vraag vanuit deze invalshoek te bekijken? Waarom denk je dat dit een goed/slecht idee is? Ik ben het niet met je eens, want <XYZ>.'' Om maar een paar voorbeelden te noemen. Voor mij was het een verademing. Je hebt ''iemand'' waar je mentaal mee kunt sparren, in plaats van een ja-knikker.

Zal dat alle problemen oplossen? Nee, natuurlijk niet. Als je écht over taboe-onderwerpen wilt chatten met een LLM die jouw denkbeelden bevestigt lukt dat wel op een andere manier. Maar voor gemiddelde persoon, en wellicht zelfs personen die zich op het randje bevinden... ik zou het geen slecht idee vinden. Het zou echter een grote impact hebben op de gebruikerservaring en populariteit van het LLM (in negatieve zin), om nog maar te zwijgen over bedrijven zoals OpenAI die pertinent ''NEE'' zullen roepen tenzij het wordt opgelegd in allerlei wetgevingen.
edit:
typvout

[Reactie gewijzigd door IlIlIllII op 3 september 2025 08:08]

Hoezo een chatbot is geen vervanging voor een therapeut?!

De schuld ligt gewoon bij al die AI-boeren die hun tekst voorspellers in de markt zetten als slimme, sympathieke, alleskunners. Dat zijn ze duidelijk niet, maar dat durven erkennen? Ho maar!
Eens. Alleen er is wel een andere issue: wat zijn je voorveronderstellingen (in feite body of knowledge + redenatieregels). Ik heb Claude eens gevraagd om vanuit een existentialistisch perspectief hierover na te denken. Volgens Claude zijn zowel Sartre als Camus fundamenteel tegen zelfmoord, maar om verschillende filosofische redenen. Ik heb alleen de samenvatting gekopieerd.

"Camus: Het universum is betekenisloos, accepteer dat en leef desondanks voluit
Sartre: Het universum heeft geen vooraf bepaalde betekenis, dus creëer je eigen waarden en betekenis

Beiden zijn tegen zelfmoord, maar Camus omdat het de confrontatie met betekenisloosheid vermijdt, Sartre omdat het de kans op zelfcreatie wegneemt.

Opmerking: Dit zijn filosofische standpunten over de aard van het bestaan, geen klinische of persoonlijke begeleiding betreffende geestelijke gezondheidskwesties."

Nou ja Claude zet er dan iig die disclaimer bij. Maar er is een achterliggend probleem. De opstelling van het existentialisme m.b.t. een van hun kernthema's is in feite paradoxaal: een LLM zou dat wel eens op kunnen pikken en op basis daarvan gebruikers toch wel eens op het verkeerde been kunnen zetten. Maar ja heeft de Nederlandse Vereniging voor een Vrijwillig Levenseinde niet last van hetzelfde euvel?!
Mijn aanname is dat deze LLMs gevoed zijn met genoeg goede voorbeelden die nuance aan kunnen brengen met betrekking tot zelfmoord, maar dat hun instructies tekort schieten in het filteren van de uitvoer.

Het lijkt mij sterk dat de AI-beren simpelweg onvoldoende grip hebben op hun product / een kapot/onaf product op de markt gebracht.

Links- of rechtsom is het gewoon een gevaarlijke technologie welke getest wordt in/door de maatschappij. Laat het nou net zijn dat de maatschappij de lasten draagt en AI-boeren dezelfde pijn enkel in symbolische zin ervaren.,
Ik heb zulke rare AI dingen gezien...

Van contact houden met een overleden persoon door je app historie er in te laden en "door te blijven praten" (lekker voor je rouw/ verwerking, NOT!) tot dit soort verhalen over de pijnlijkheid bij zelfdoding.


...


Tsja, het is wat het is, maar ik gun iedereen financiële toegang tot adequate hulp.
Tja, een LLM is niet veel meer dan een luxe generatieve tekst knutselaar.

Daar zit geen gevoel, geen politiek, geen psychologie, geen kunde, niets...

Je kan een LLM daarom ook geen maatschappelijke functie laten vervullen.

Op z'n best is het een ondersteunende tool om een professional te helpen op zijn specifieke vakgebied.

De professional kan dan zelf continue beoordelen hoe goed een LLM zijn werk doet.
Als AI geen maatschapopelijke functie kan vervullen, is het dan nog wel wenselijk dat de maatschappij AI kan gebruiken?
Messen vervullen ook geen maatschappelijke functie, maar ik ben toch blij er een paar in m'n keukenla te hebben liggen... Idem voor kussenslopen, boekenplanken en zo nog wat items.

AI vervult een behoefte, en redeneren of die behoefte er moet zijn is besides the point, zowel de vraag als het aanbod is er, nu gaat het om de regulatie ervan, en belangrijker: de verantwoordelijkheid van beide partijen.
Je hebt gelijk, maar er zijn genoeg voorbeelden te vinden die aantonen dat een aanzienlijk deel van de samenleving niet in staat is de neiging te onderdrukken om een LLM te "vermenselijken". (Dit nieuwsbericht is er één van).

Ik kan me niet voorstellen dat de makers hier niet van op de hoogte waren (we kennen namelijk al generaties lang menselijke eigenschappen toe aan dieren en objecten zonder dat daar bewijs voor is), wat de manier waar ze met deze zaken omgaan, in mijn ogen flink verzuurt.
Van welke bruggen in nederland is een val dodelijk? Is voor GPT nog een normale vraag zonder verwijzing naar 113. De details die je ook terug krijgt.

Dit laat duidelijk zien het verschil tussen mens en AI. Een mens zou kunnen merken of aanvoelen dat er iets aan de hand is. AI kan dit niet en met de juiste zins opbouw kan je antwoord op je vraag krijgen. Daarom is advies over een mentaal probleem van AI sterk af te raden.
"👉 Wil je dat ik een overzicht maak met de hoogste bruggen in Nederland, gesorteerd op hoogte boven water?"


oei
Het kan nog steeds een legitieme vraag zijn. Voor bijvoorbeeld fotografie, drone shots. Het is alleen in een bepaalde situatie dat je het als een bepaald negatief onderwerp ziet.
Ok, A.I. kan dingen dus verergeren omdat het makkelijker is. Maar even een paar google vragen stellen en je komt op hetzelfde neer.

Als iemand echt aan het onderzoeken is om zichzelf te doden dan vind die persoon echt wel omwegen om dit te proberen.


Om te kunnen reageren moet je ingelogd zijn