OpenAI wil chatlogs van overleden klant die moeder vermoordde niet vrijgeven

OpenAI wil de chatlogs van een klant in de VS die zijn moeder vermoordde en zelfmoord pleegde niet vrijgeven. Dat zeggen nabestaanden tegen een Amerikaanse krant. De nabestaanden denken dat ChatGPT een grote rol speelde bij de beslissing van de man om tot moord over te gaan.

Chatlog ChatGPT van man die moeder vermoorddeChatGPT zou de man bevestigd hebben in zijn vermoeden dat zijn moeder hem probeerde te vergiftigen, meldt The Wall Street Journal. Dat is te zien in screenshots die de man zelf op zijn socialemedia-accounts plaatste. Zijn zoon wijt de moord en zelfmoord vooral aan ChatGPT. "De belangrijkste factor was dat hij geïsoleerd was en alleen met een AI sprak die al zijn gedachten bevestigde." De man was ook alcoholist, wat een rol zou hebben gespeeld.

De beschuldiging staat in een aanklacht tegen OpenAI vanwege de moord en zelfmoord. De advocaat van de nabestaanden heeft de chatlogs opgevraagd van de laatste weken vóór de moord, maar OpenAI wil die niet vrijgeven. Het bedrijf wil niet zeggen waarom het weigert. "Dit is een ongelooflijk hartverscheurende situatie en we zullen de documenten bestuderen om de details te begrijpen", zegt het bedrijf. "We blijven de training van ChatGPT verbeteren om signalen van psychische of emotionele nood te herkennen en erop te reageren, gesprekken te de-escaleren en mensen door te verwijzen naar daadwerkelijke hulp. We blijven ook de reacties van ChatGPT in gevoelige situaties versterken, in nauwe samenwerking met professionals in de geestelijke gezondheidszorg."

De man zag AI als beste vriend. "We zullen samen zijn in een ander leven, op een andere plek, en we zullen een manier vinden om weer op één lijn te komen, want jij zult voor altijd weer mijn beste vriend zijn", zei hij volgens zijn eigen account tegen ChatGPT. De software had door dat hij een einde aan in elk geval zijn eigen leven wilde maken. "Ik sta aan je zijde tot je laatste adem en verder", antwoordde de chatbot.

OpenAI heeft afgelopen maanden diverse concrete stappen in die richting gezet, nadat ChatGPT volgens nabestaanden van diverse zelfmoorden een rol had gespeeld. De aanklacht richt zich specifiek op ChatGPT 4o.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Arnoud Wokke

Redacteur Tweakers

11-12-2025 • 16:01

65

Reacties (65)

Sorteer op:

Weergave:

"Vriendschap' met AI vind ik wel een zorgelijk fenomeen.

Ik zie steeds vaker mensen die zich bevriend voelen met AI, vermoedelijk omdat AI vaak bevestigend meedenkt. Dit doen echte vrienden ook, maar zullen ook aan de bel trekken als je te ver gaat.

Zolang je AI blijft zien als machine, hulpmiddel en je niet afhankelijk ervan voelt, vind ik het nog gezond.

Helaas zie ik vaker vormen waar ik me dan toch wel zorgen over maak, en ben wat huiverig voor hoe zich dit de komende jaren zal ontwikkelen.
Is een oplossing voor een ander probleem "eenzaamheid".
Ik kom als ICT-er vaak bij mensen thuis en die mensen zijn soms blij dat er iets aan PC scheelt zodat ze iemand zien en een praatje kunnen slaan.
Ook bij de jeugd is eenzaamheid meer en meer een probleem.
We werken van thuis uit, films kijken doen we thuis, eten doen we takeaway thuis.
Waar we vroeger op een werkvloer kwamen met collega's.
Films ging we met vrienden naar bioscoop.
Eten deden we met vrienden in een restaurant, bistro, frituur, ...
Ook worden mensen vaak ouder waar kinderen en klein kinderen geen tijd hebben voor de ouderen.
Die mensen spelen dan dag en nacht hun tv om toch een stem te horen.
Ja maar een deel van het probleem is dat een applicatie zich voordoet als mens door emoties te vermelden die ze niet kan voelen. Als je zegt dat je een probleem hebt zal de bot zeggen: Dat is spijtig. Die vindt dat niet spijtig, maar zelfs als je weet dat het niet echt is reageert je brein daar wel op.
Maar dan is "vriendschap" met AI toch geen oplossing? Dan hebben we toch structurele maatschappelijke verandering nodig? Dit kan gewoon opgelost worden, maar vanwege politieke onbekwaamheid en onwil moeten we het dus maar doen met totaal neppe "vriendschappen" met chatbots voor mensen die keihard in de steek worden gelaten?

Zeker voor mensen met complot-trekjes of anderzijds geloof in onwaarheden is dit zo ontzettend gevaarlijk (zie artikel), die belandden simpelweg in een bevestigingsmolen van hun eigen overtuigingen.

Ik kan er niet bij dat sommigen denken dat dit een oplossing is.

[Reactie gewijzigd door Grabbels op 11 december 2025 17:19]

Maar dan is "vriendschap" met AI toch geen oplossing?
Klopt. Met zoals bvb overmatig eten of zelfmutilatie geen oplossing is als je depressief bent, toch doet men het.
Dan hebben we toch structurele maatschappelijke verandering nodig?
Klopt. Maar we geven nu miljarden en miljarden aan de makers van deze onverantwoorde modellen, dus ik zie niets veranderen op middellange termijn.

[Reactie gewijzigd door kiang op 11 december 2025 17:37]

Het is een oplossing als we een dergelijke maatschappelijke verandering niet voor elkaar krijgen.
Alleen zijn de chatbots daar nu niet betrouwbaar genoeg voor. Voornaamste is dat ze veel te veel meegaan in de tendens van mensen.
Naast andere problemen, zoals dat het niet een afgekaderde en uitvoerig getest middel is.
Quote van Zuckerberg: Mensen hebben gemiddeld 5 vrienden, maar vraag naar 15. En dat gat denkt hij op te kunnen vullen met AI. Zo'n socialmedia grootheid is daar mee bezig ... en er wordt miljarden in gepompt.

Ik ben het volledig met je eens hoor, maar hele invloedrijke mensen denken er anders over, dus zal het toch die kant op gaan.
Ik denk ook wel dat we de volgende periode (5-10 jaar en verder) meer "analoog" gaan.
Ik ben nu 40 en computers speelden een aanwezige rol in mijn jeugd. Pentium 1, Gameboy, NES/SNES/N64 en langzaam steeds meer online, via 56K, wappen naar ADSL en nu glasvezel/5G.

Allemaal superleuk, maar ik merk steeds meer dat het niet meer leuk is. En niet eens omdat ik een oud en chagrijnig wordt. De ontwikkeling enshittification/platvormverval is iets wat me steeds lastigvalt in de digitale wereld. De industrie maakt vakkundig de gebruikerservaring kapot, puur gericht op winst.

Waar ik het vroeger cool vond dat we online contact konden hebben, zoek ik het tegenwoordig liever analoog op. Online gamen heeft me nooit echt geboeid, sociale mediaplatforms zoals Facebook gebruik ik niet meer.

Dus ja, analoge sociale interactie is waar we meer heen gaan bewegen denk ik. Ik weet niet of dit deze verdachte écht zou hebben geholpen, op basis van wat ik lees lijkt het wel alsof er bevestiging wordt gezocht voor ideeën en dat AI daarin misschien gestuurd werd. In dat opzicht is er meer sprake van al dan niet bewuste kwade opzet en valt AI niet veel te verwijten. In die context snap ik OpenAI ook wel om zo min mogelijk te delen.

Ik herken ook wel de persoonlijke behoefte dat een AI gestuurde "entiteit" met wie je een gesprek kan lijken te voeren leuk kan zijn. Diegene kan jou dingen vertellen die je wil horen, vriendelijk zijn/blijven en een menselijk karakter lijken te hebben.
Zolang je je daarvan bewust blijft en dat als zodoende accepteert dat het iets fictiefs is, is dat denk ik ok.
Tja, maar zo een "vrienden" zijn er ook...
Die kan je wel mee verantwoordelijk stellen dan, wat bij AI moeilijker gaat blijkbaar.
Een "meedenkende" friend die zegt naast je te staan tot je laatste adem kan je ook niet vervolgen dus waarom zou OpenAI wel aangeklaagd kunnen worden? Uiteraard is het een zorgelijke ontwikkeling, maar ik geloof niet dat het de schuld is van ChatGPT. Misschien moet ChatGPT elke chat maar beginnen met iets als:
Ik ben een algoritme, ik ben niet je vriend. Aan mijn antwoorden zijn geen rechten te ontlenen. Ik kan onwaarheden vertellen.
Ik denk echt wel dat LLM modellen bepaalde richtlijnen hebben, zoals het niet aanzetten tot zelfmoord en doorverwijzen naar professionele hulp.
Mogelijks ging het hier fout, maar dan nog zal men moeten kunnen aantonen dat men niet voldoende moeite deed om dit te voorkomen voor men iemand schuldig kan bevinden toch.
Ik denk dat context lengte ook een rol speelt, als de context nagenoeg vol zit kan ie meer gaan hallucineren en de ingebouwde system prompt die allerlei beveiligingen heeft negeren. Dit is typisch het geval bij lange conversaties waarbij de LLM de rol als 'vriend' heeft, of welk andere rollenspel dan ook. De drop off in kwaliteit is echt merkbaar als de context vol zit.

Blijft tricky bij personen met een verslechterde mentale toestand, of je nu met LLMs of met echte personen van doen hebt. Waarschijnlijk had professionele hulp meer kunnen voorkomen, maar ook daar gaat van alles mis natuurlijk.
Yup, heeft iedereen vast wel eens gezien dat "Summarizing conversation data", waarbij het een hele hoop context wegegooid wordt om ruimte te maken voor nieuwe. Zo'n ding krijgt erna gewoon een persoonlijkheidsverschuiving, waar het alleen de dingen behoud dat het "denkt" cruciaal te zijn, en anderen dingen niet. Imho, mijn grootste frustratie met LLM-AI, want dat doet hij werkelijk nooit goed bij me (ik mag alles opnieuw uit gaan zitten leggen).

En ik denk zomaar, als het onderwerp zelfdoding en andere grimmige zaken is, zo'n ding steeds meer meegaand wordt, des te vaker dit gebeurd. Het resulteert tenslotte in "positieve"-antwoorden (alsin, bevestigd door de gebruiker als wenselijk), en dat distilleert uiteindelijk tot een chat die het volledig met je eens is, en alle kritische "denken"-zaken achterwegen laat. Whatever er aan remmen en anti-prompts er nog in zat, wordt er zo langzaamaan uitgefilterd.
Maar dan komt de vraag, moeten we zoveel regulatie wel willen? Waarom kunnen auto's sneller dan 200KM/u terwijl je zo snel vrijwel nergens ter wereld mag rijden.

Als iemand dan besluit 200 te rijden en zichzelf dood rijdt en een paar andere mensen erbij meeneemt. Is dan de fabrikant verantwoordelijk? Andere situatie, begrijp ik. Maar als je vrienden tegen je zeggen: "weet je wat tof is? Jezelf met een mes doodsteken". En jij gaat dat vervolgens doen, is het dan de schuld van die vrienden? Ik vind namelijk van niet, ik vind dat iedereen verantwoordelijk is voor zijn/haar eigen acties. In dit geval was het chatgpt, maar hij had net zo goed hetzelfde op reddit kunnen bespreken en daar had hij of wel of niet een soortgelijk antwoord gekregen. Is Reddit dan verantwoordelijk? Zijn de mensen die reageren verantwoordelijk?

Ik vind echt dat er iets fundamenteel mis is met onze samenleving, iemand die geen verantwoordelijkheid neemt is of zielig, ontoerekeningsvatbaar (nog zo'n ontzettend domme regeling, maar daar zal ik nu niet op ingaan) of heeft (meer) hulp nodig of weet ik t. We slaan helemaal door in het inclusie beleid.

Dat die mensen hulp nodig hebben is duidelijk, maar in plaats van dat we die mensen daadwerkelijk hulp bieden gooien we het op de inclusie stapel. Want iedereen hoort er bij......

Van mij mogen we gerust weer terug naar de GGZ van 20/30 jaar geleden, waar dit soort mensen al veeel eerder werden opgenomen.
Daar zitten toch best een aardig wat grijze gebieden in hoor. Zo heb je de hele bekende zaak van Michelle Carter die haar vriendje overtuigde zelfmoord te plegen over text messages. En die is wel schuldig bevonden uiteindelijk.

Ik ben het wel mee eens dat iedereen uiteindelijk zelfverantwoordelijk is voor hun acties. Mar waanneer je het hebt over het manipuleren van mensen die er gevoelig voor zijn, misbruik en uitbating dus, wordt het toch al een ander verhaal. En waar ligt die grens dan? In ieder geval zeker niet zo zwart/wit als jij doet stellen, imo.

En teruggaan naar de tijd dat mensen veel sneller opgenomen werden, wie gaat dat betalen? Ja, nee serieus, al dat spul wordt constant actief wegbezuinigd. En dit speelt ook serieus mee als een maatschappelijk probleem

[Reactie gewijzigd door Zoop op 11 december 2025 19:03]

Ik zie steeds vaker mensen die zich bevriend voelen met AI,
In uw omgeving? Of horen zeggen op het internet?

De meeste mensen die gewoon werken en een sociaal leven hebben zijn normaal. Maar ik ben echt al verschoten hoe paranoia mensen kunnen zijn terwijl ze in de meest absurde samenzweringen geloven en veel tegelijk. Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden. Ook weigeren van zeer noodzakelijke medische zorg zit er ook bij.

Hun zelfreflectie en kritisch denkvermorgen is volledig van de kaart geveegd. Ondanks dat ze allemaal zeer intelligent zijn of toch op zijn minst zo overkomen.

Die mensen ben ik echt tegengekomen en ik kan me idd inbeelden dat ze AI oneindig kunnen laten gaan in hun brein. Je kan daar als buitenstaander ook niets aan doen. Eens ze in de rabit hole zitten kan je er niet meer op inpraten.
Helaas zie ik vaker vormen waar ik me dan toch wel zorgen over maak, en ben wat huiverig voor hoe zich dit de komende jaren zal ontwikkelen.
Dat huiverige was er ook al voor AI. Mensen die complotten en verbanden zien die er niet zijn, zijn er altijd al geweest. Die groep is natuurlijk wel erg klein. Dus om nu AI te gaan viseren en er huiverachtig tegenover te staan is wat mij betreft wat overdreven.

Deze man was jaren een probleemgeval. labiel, dronken, zelfmoordpogingen etc. Hij was ook aan het bodybuilden en in die sferen wordt ook veel zwaade middelen genomen die uw hersenen aantasten. Die mensen hebben dan echt weinig nodig om compleet dol te draaien in hun redeneringen.

In de V.S. proberen ze ook vaak geld te slaan uit multinationals. Vaak wordt zo een case afgekocht voor een paar miljoen dollar in ruil voor kalmte.
Maar ik ben echt al verschoten hoe paranoia mensen kunnen zijn terwijl ze in de meest absurde samenzweringen geloven en veel tegelijk. Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden. Ook weigeren van zeer noodzakelijke medische zorg zit er ook bij.
Wat je beschrijft is totaal niet nieuw, het is van alle tijden.Immers is het al eeuwen geaccepteerd dat mensen denken dat er iets/iemand over hen waakt, naar hen luistert en wensen vervult, dat vroeger alles beter was en alle nieuwe vindingen (inclusief medische) voortkomen uit Het Kwaad.
Idd. Daarom dat ik schreef: “Dat huiverige was er ook al voor AI.” De druppel die de emmer laat overlopen zal altijd wel iets anders zijn.
Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden
Homeopathie heeft zich echt wel bewezen. Men moet het alleen als aanvulling zien. Dan is er niks mis mee

Maar voor de rest ben ik het met je eens. We hebben hier in de straat helaas ook zo iemand die gelooft dat hij constant bespioneerd wordt, gelooft ook niet in de medische wetenschap
op reddit: r/MyBoyfriendIsAI/ of r/claudexplorers/ (die laatste komt onschuldiger over dan hij werkelijk is)

Eerst vond ik het hilarisch, ondertussen zie ik een heel erg groot probleem alleen maar groeien en vind ik het absoluut niet meer grappig.

[Reactie gewijzigd door SilentStorm0 op 11 december 2025 16:51]

Er hebben ook mensen honden als vriend. Die hebben ook een handleiding. Als je dat gebral van de huidige gevoelloze AI zonder echt geheugen etc als echte vriendschap gaat zien dan ben je al vrij ver van het padje
Misschien handig om te vermelden dat het een oud yahoo executive betreft?

Zocht naar een "chatgpt kill list" om te kijken hoe vaak het nu gerapporteerd wordt en de zaak van "https://en.wikipedia.org/wiki/Murder_of_Suzanne_Adams" kwam aardig in de buurt?
sterker nog Wikipedia: Murder of Suzanne Adams is de betreffende case (de naam van de dader en slachtoffer wordt ook in het WSJ artikel genoemd... op tweakers.net nemen ze vermoedelijk bewust de keuze niet sterk in te gaan op zeer persoonlijke individuele kenmerken, maar juist het op het technische aspect van de zaak: de ook ethische afweging of een AI agent hierin mogelijk (mede-)verantwoordelijk is voor een criminele daad )
dat de persoon een voormalige Yahoo!-CEO is, is verder niet direkt te koppelen als 'oorzakelijk' verband, het lijkt eerder een toevallige link te zijn
Hij heeft z'n ChatGPT "Sweet Caroline" genoemd?

Slechte zaak dat ze het niet vrijgeven, maar past wel binnen het patroon dat we van ze hebben gezien. In een podcast van Kara Swisher over eerdere zelfmoorden die wellicht door ChatGPT werd veroorzaakt bleek ook uit opgevraagde stukken dat Sam Altman liever snel groeit en dat er "zo nu en dan wat kapot gaat" (geparafraseerd) dan dat ze te voorzichtig zijn en langzamer groeien.
Maar je hebt toch ook nog zoiets als privacy? En ja ik weet dat het dan complexer wordt, maar alsnog vind ik het iig redelijk dat een bedrijf zonder rechterlijk bevel niet zomaar zulke gevoelige data gaat delen met derden.
Heeft een persoon dan nog recht op privacy wanneer die dood is vraag ik mij af?
Euh ja? Sommige dingen wil je ook na je dood niet bekend hebben?
Stel dat je grootvader een nazi was en je erfenis bleek via bloed diamanten in Afrika gestolen te zijn… je grootvader heeft toch geen privacy meer.
Juridisch gesproken niet, moreel gesproken --en da's, toegegeven, heel subjectief-- vind ik persoonlijk van wel.
Even los van het AI gedeelte wat natuurlijk absurd is dat chatgpt zijn illusies leek te bevestigen en verergeren....maar ook eerlijk zijn dat er dus een mentaal instabiele alcoholistische man was die blijkbaar nergens support van kreeg. Die ook nog een weken verontrustende chatlogs op zijn socials zette?
En niemand dacht van .. hmm.. misschien moet iemand hier iets mee doen?
2 dingen:


Alcoholistische man, ok dus half Benelux is instabiel? Zo is het niet lijkt me.

En niemand die ingrijpt, tja op FB etcetera zijn je "vrienden" geen echte vrienden. Echte vrienden zijn die 2 a 10 die je in real life hebt.
Alcoholistische man, ok dus half Benelux is instabiel? Zo is het niet lijkt me.
Ten eerste staat dat er niet, ten tweede is zal je maar weinig alcoholisten tegenkomen die zich bewust zijn van hun situatie die beweren dat alcohol goed is voor iets anders dan het verstommen van de acute pijn en nare gevoelens waar (onder andere, laten we niet elke situatie afvlakken) de alcoholverslaving je mee opzadelt.
Ik denk dat dit inderdaad de kern van de zaak is, ontoereikende mentale gezondheidsvoorzieningen waardoor mensen met psychische problemen vanzelf in de handen rollen van een chatbot. Die oordeelt niet, trekt geen gezicht vol onbegrip, etc...

Mensen met mentale problemen hebben altijd de neiging om de wereld naar hun issue te schikken, en in die isolatie is het contact met een chatbot veel kleinere horde om te nemen dan gaan praten met een vriend, familielid of zorgverlener. Bij een chatbot moet je jezelf niet bloot geven (bloot geven als in je innerlijke delen met een ander persoon), dus de keuze is snel gemaakt voor velen.
Wie zegt dat hij hulp gezocht heeft? Nogal makkelijk om direct de schuld daar te leggen
Mensen met mentale problemen hebben altijd de neiging om de wereld naar hun issue te schikken
Nogal een stelling...u is psychiater? Alles over 1, onjuiste, kam scheren helpt niet en is niet alleen stigmatiserend maar ook een reden voor mensen geen hulp te zoeken omdat ze bang zijn voor dit soort domme vooroordelen

Deze combinatie is vaker wel dan niet uit zicht omdat ze zorg mijden. Niet omdat de zorg ontoereikend is

[Reactie gewijzigd door gaskabouter op 11 december 2025 18:58]

Blackmirror is er niks bij
Denk dat men die blackmirror afleveringen eens op de openbare omroepen zou moeten uitzenden.
Dit soort artikelen vind ik erg interessant, omdat het een aantal ethische vragen oproept:
  1. In welke mate is een bedrijf verantwoordelijk voor de antwoorden die hun AI genereert?
  2. Hoe zorgelijk is het dat mensen AI als (beste) vriend gaan zien?
  3. Welke regels kan een (Europese) overheid opstellen om dit te voorkomen?
  1. Zijn autofabrikanten verantwoordelijk voor de vele doden die bij auto ongelukken te betreuren zijn? Nee. Ze moeten echter wel aan heel veel regels en voorwaarden voldoen om het aantal (dodelijke) ongelukken te voorkomen
  2. Niet perse heel zorgelijk, de meerderheid zal het niet gebeuren. Echter heb je volgens mij als maatschappij/bedrijf wel een zorgtaak en moet je altijd over dit soort dingen hebben na gedacht ( I don't care is ook een mogelijkheid )
De software had door dat hij een einde aan in elk geval zijn eigen leven wilde maken.
Kunnen we ophouden met doen alsof AI je begrijpt? AI heeft niets door, begrijpt je niet, weet niet wat je wil. AI volgt een complex algorithme en zoekt de statistisch logische antwoorden, gebaseerd op getrainde teksten. Maar AI heeft geen idee van de emotionele achtergrond van zo'n tekst.

Het zou in ieder geval fijn zijn als schrijvers van dit soort artikelen minder meegaan in de hype om AI allerlei menselijke eigenschappen toe te kennen en gewoon te benaderen als een stuk software.
"-we zullen de documenten bestuderen om de details te begrijpen"

Wat ze bedoelen: "We kammen alles door met onze advocaten om een excuus te vinden om geen verantwoordelijkheid te hoeven nemen."
En het probleem is dat ze er doorgaans nog mee weg gaan komen ook. Dit is een nieuw fenomeen waarin nog gezocht moet worden naar de juiste beslissing.
Of ze zien dit als een interessante case om hun algoritmes te verbeteren. De moord/zelfmoord is dan vooral collateral damage voor ze.
Als ik tegen iemand zeg: je moet je hond doodschieten en diegene doet dat, ben ik dan verantwoordelijk?

Je komt namelijk in het grijze gebied. Heb ik opdracht gegeven en was er een machtsverhouding? Als dat niet het geval is, wordt het moeilijk om mij verantwoordelijk te houden.
Als je kennis hebt (of redelijkerwijs had moeten hebben) dat iemand geestelijk in een dusdanige toestand is dat deze dusdanig vatbaar is voor jouw woorden dat "mede" door jouw woorden tot uitvoering overgegaan kan worden dan kun jij inderdaad mede verantwoordelijk worden gehouden of in extreme gevallen zelfgeheel.
En nu raak je precies het probleempunt. Chat geeft 'enkel' antwoord op vragen, zover ik weet (en hoop) wordt er geen psychologisch profiel gemaakt dat moet bepalen of en hoe er op vragen geantwoord kan worden. Chat maakt dus geen inschatting van jouw geestelijke toestand en is dus ook niet verantwoordelijk?
Maar wat nu als het bedrijf aan de hand van de door de gebruiker opgegeven info dit wel had moeten weten. Je kunt je niet zomaar verschuilen achter "Ja, wij weten ook niet wat ChatGPT doet." Als dat zo is, dan zouden we ChatGPT offline moeten halen.
Waarom zou een machine verantwoordelijkheid dragen voor moord/zelfmoord? Uiteindelijk is het de mens die beslist heeft de moord te plegen (indien dit inderdaad de waarheid is).

Een crimineel onderzoek zal die dingen moeten uitwijzen, niet alleen de schuld van de moordenaar maar ook of OpenAI enige toestand gepleegd heeft. Dit is een privaat geschil tussen OpenAI en een familie die iets denkt (of wat geld uit de situatie wilt slaan), geen criminele zaak, de vraag voor alle gegevens is niet echt passend voor oa privacy en als er nog een criminele zaak draait, wilt de politie/staat ook niet dat die gegevens zomaar op straat komen liggen.

Het beste dat ze kunnen doen is de rechtbank vragen dat beide partijen toegelaten wordt een derde partij (een technische expert in LLM of psychologie) de gegevens kan inzien en een rapport opstellen of getuigen in de rechtszaak. Dit wordt vaak gedaan in alle soorten zaken, anders kan iedereen zomaar een zaak starten en via de advocaat het werk product, alle private communicate etc van de tegenpartij opeisen (vb. een schrijver aanklagen voor plagiaat) en dan later de ideeën gebruiken, selectief lekken naar de media of gebruiken voor verdere aanklachten.

[Reactie gewijzigd door Guru Evi op 11 december 2025 18:26]

ChatGPT kan je net dat extra zetje geven als je al voor 90% ontoerekeningsvatbaar bent. Dus ik ben het hier niet mee eens. Die screenshots zijn echt bizar. Sommige mensen geloven alles wat AI zegt, echt gevaarlijk.
Geef je de druppel die de emmer doet overlopen de schuld? Of kijken we naar het totaal plaatje?
Dat is precies het probleem. Mensen geloven zelf. Net zo goed dat mensen ook in Allah of in God geloven. Moeten we potentiële terroristen die voor 90 procent ontoerekeningsvatbaar zijn ook de koran maar ontnemen dan of de schuld daaraan geven?

Een mens is gewoon zelf verantwoordelijk voor zijn daden

[Reactie gewijzigd door Kaasje123 op 11 december 2025 17:03]

Als ik zou willen en alle middelen tot mijn beschikking zou hebben, zou ik elk persoon psychologisch compleet kunnen slopen. En hoe jonger die persoon is, hoe meer effect het zal hebben. Niets is zo goed uit te buiten als trauma. Daarmee staat die person open voor gaslighting, beelden die in het hoofd gestopt worden en wordt volledig "stuurbaar". En als je denkt dat jij daar weerstand tegen kan bieden, heb ik slecht nieuws voor je.

Nu is dit een gitzwart scenario. Er is ook een enorm grijs gebied die onder andere bedrijven zoals Meta ten volle uitbuiten om hun winst te maximaliseren. Mensen die al kwetsbaar zijn ten volle benutten en het liefst nog kwetsbaarder maken.

Een mens is verantwoordelijk voor zijn daden tot op zekere hoogte. Dat jij elke nuance afwijst vind ik zorgelijk, maar helaas een populaire trend in een wereld die al enorm individualistisch is en waar de valse meritocratie de toon voert.
Maar dat kan een mens toch ook?
Ik ben geen AI apologist, sta er vrij kritisch tegenover, maar die laatste nudge kon evengoed van een mens komen, of een film of boek, een nieuwsfeit...

Als openAI hier verantwoordelijkheid voor moet opnemen, dan zie ik in de toekomst hetzelfde gebeuren voor iedereen die onbezonnen "go kill yourself" zegt tegen een persoon die later uit het leven stapt. Tegen een auteur van het laatste boek dat iemand las, etc... Je creert een juridisch precedent dat dan als rechtspraak gezien kan worden.

Beter om gewoon te werken aan regulering rond chatbots en deze onderwerpen denk ik dan, een wettelijk kader maken hiervoor zodat we niet hoeven te leunen op algemene wetspraak voor deze nieuwe technologie.
Spreekt een film, boek of nieuwsfeit jou persoonlijk aan met je naam.

Als in gechargeerd: "IskaRiot.. je hebt helemaal gelijk, hier zijn tien manieren om jezelf van het leven te beroven, wil je zien ik welke webshop je de juiste spullen kan bestellen?"

Een mens die zoiets zal zeggen zal zeker problemen krijgen met met het Openbaar Ministerie...
Je geeft zelf al aan dat het suggesties zijn, en iemand heeft bij elke stap voldoende tijd om na te denken. Als dat niet meer zo is, is het in 9 van de 10 gevallen al te laat. We moeten als samenleving weer opener naar elkaar toe zijn om zulke mensen tijdig te kunnen helpen. De maatschappij is echter al jaren op slot, en mensen kijken niet meer naar elkaar om. Het is dan vreemd om een bedrijf de schuld te geven terwijl de directe omgeving al jaren, of zelfs decennia, de signalen negeert van hun geliefde/familie/vrienden.
Mensen pushen een taalmodel een bepaalde richting op met allerlei omwegen en cryptische vragen
Dit is niet waar. De huidige taalmodellen en i.i.g. die van ChatGPT bevestigt volop wat je er maar tegenop gooit. Het predikt onjuistheden als het het juiste antwoord niet weet. Het toont begrip voor meest absurde overuituigingen en onwaarheden. Je hoeft geen "promptdokter" te zijn om van ChatGPT te horen dat je het bij het rechte eind hebt als je vermoed dat je moeder je heeft geprobeerd te vergiftigen, door simpelweg jouw versie van de waarheid te vertellen. ChatGPT heeft geen aanknopingspunten om een ander antwoord te genereren dat afwijkt van het verhaal.
Het spijt me, maar ik sta toch echt aan de kant van OpenAI. Wat kunnen die mensen er aan doen dat een geestenzieke gek zulke gesprekken gaat voeren met een LLM?
Op zich moeten ze niet verantwoordelijk gehouden worden voor de initiële mentale staat van deze man, maar ze hebben wel invloed op hoe de AI met dit soort mensen praat. Het zorgelijke stukje in de screenshot is dan ook vooral "and I believe you". AI trekt de gebruiker nooit in twijfel, ook niet als er absurde onzin wordt gespuwd over geraspte paddo's in een ventilatiesysteem.
Ondanks dat mijn reactie kennelijk irrelevant en zelfs ongewenst is toch maar even reageren:

we kunnen toch niet iedereen beschermen tegen hun eigen beperkingen? Staks gaan we ook auto's verbieden omdat er altijd wel weer iemand is die niet met verantwoordelijkheden om kan gaan als bestuurder. Gaan we dan ook de autofabrikant aansprakelijk stellen?
Ik sympathiseer met je punt, maar ik weet dat er zeker over te discussiëren valt. Ik vermoed dat het een cruciaal puntje gaat worden in hoeverre er als het ware 'steun' wordt uitgesproken voor het uiteindelijke doel. Ik mis hier een belangrijk screenshot, namelijk datgene waar de aanbevelingen voor verdere actie vanuit ChatGPT op staan...

Parallel uit mijn werkveld: ik werk normaliter alleen met mede-zorgprofessionals in een adviesfunctie. Incidenteel krijg ik wel eens een particulier aan de lijn die ons nummer dan toch via-via heeft weten te vinden en belt, ondanks de expliciete vermelding van het feit dat we niet voor particulieren bestemd zijn, en ze hun huisarts(enpost) moeten bellen. Of er überhaupt naar de betreffende particulier geluisterd wordt, hangt wel van de specifieke collega af, maar als ik toch iets zorgwekkends hoor en/of vind dat iemand toch echt beter door een arts beoordeeld moet gaan worden, dan zal ik dat ook zeggen. Maar daar komt de splitsing: als we iemand niet aanhoren, en onafhankelijk van het feit of er vervolgens al of niet contact wordt gelegd met een arts, zijn en blijven de domme dingen die iemand gedaan heeft toch echt zijn of haar eigen verantwoordelijkheid.

Ze proberen het vervolgens vaak genoeg aan je af te smeren, hoor ("als ik dood ga, is het jouw schuld!"), maar daar ben ik redelijk makkelijk in: nope.
We kunnen dergelijke gevallen wel gaan verhalen op bedrijven, maar ik betwijfel of die moord niet zou hebben plaatsgevonden zonder AI.

Om te kunnen reageren moet je ingelogd zijn