OpenAI wil chatlogs van overleden klant die moeder vermoordde niet vrijgeven

OpenAI wil de chatlogs van een klant in de VS die zijn moeder vermoordde en zelfmoord pleegde niet vrijgeven. Dat zeggen nabestaanden tegen een Amerikaanse krant. De nabestaanden denken dat ChatGPT een grote rol speelde bij de beslissing van de man om tot moord over te gaan.

Chatlog ChatGPT van man die moeder vermoorddeChatGPT zou de man bevestigd hebben in zijn vermoeden dat zijn moeder hem probeerde te vergiftigen, meldt The Wall Street Journal. Dat is te zien in screenshots die de man zelf op zijn socialemedia-accounts plaatste. Zijn zoon wijt de moord en zelfmoord vooral aan ChatGPT. "De belangrijkste factor was dat hij geïsoleerd was en alleen met een AI sprak die al zijn gedachten bevestigde." De man was ook alcoholist, wat een rol zou hebben gespeeld.

De beschuldiging staat in een aanklacht tegen OpenAI vanwege de moord en zelfmoord. De advocaat van de nabestaanden heeft de chatlogs opgevraagd van de laatste weken vóór de moord, maar OpenAI wil die niet vrijgeven. Het bedrijf wil niet zeggen waarom het weigert. "Dit is een ongelooflijk hartverscheurende situatie en we zullen de documenten bestuderen om de details te begrijpen", zegt het bedrijf. "We blijven de training van ChatGPT verbeteren om signalen van psychische of emotionele nood te herkennen en erop te reageren, gesprekken te de-escaleren en mensen door te verwijzen naar daadwerkelijke hulp. We blijven ook de reacties van ChatGPT in gevoelige situaties versterken, in nauwe samenwerking met professionals in de geestelijke gezondheidszorg."

De man zag AI als beste vriend. "We zullen samen zijn in een ander leven, op een andere plek, en we zullen een manier vinden om weer op één lijn te komen, want jij zult voor altijd weer mijn beste vriend zijn", zei hij volgens zijn eigen account tegen ChatGPT. De software had door dat hij een einde aan in elk geval zijn eigen leven wilde maken. "Ik sta aan je zijde tot je laatste adem en verder", antwoordde de chatbot.

OpenAI heeft afgelopen maanden diverse concrete stappen in die richting gezet, nadat ChatGPT volgens nabestaanden van diverse zelfmoorden een rol had gespeeld. De aanklacht richt zich specifiek op ChatGPT 4o.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Arnoud Wokke

Redacteur Tweakers

11-12-2025 • 16:01

87

Reacties (87)

Sorteer op:

Weergave:

"Vriendschap' met AI vind ik wel een zorgelijk fenomeen.

Ik zie steeds vaker mensen die zich bevriend voelen met AI, vermoedelijk omdat AI vaak bevestigend meedenkt. Dit doen echte vrienden ook, maar zullen ook aan de bel trekken als je te ver gaat.

Zolang je AI blijft zien als machine, hulpmiddel en je niet afhankelijk ervan voelt, vind ik het nog gezond.

Helaas zie ik vaker vormen waar ik me dan toch wel zorgen over maak, en ben wat huiverig voor hoe zich dit de komende jaren zal ontwikkelen.
Is een oplossing voor een ander probleem "eenzaamheid".
Ik kom als ICT-er vaak bij mensen thuis en die mensen zijn soms blij dat er iets aan PC scheelt zodat ze iemand zien en een praatje kunnen slaan.
Ook bij de jeugd is eenzaamheid meer en meer een probleem.
We werken van thuis uit, films kijken doen we thuis, eten doen we takeaway thuis.
Waar we vroeger op een werkvloer kwamen met collega's.
Films ging we met vrienden naar bioscoop.
Eten deden we met vrienden in een restaurant, bistro, frituur, ...
Ook worden mensen vaak ouder waar kinderen en klein kinderen geen tijd hebben voor de ouderen.
Die mensen spelen dan dag en nacht hun tv om toch een stem te horen.
Ik denk ook wel dat we de volgende periode (5-10 jaar en verder) meer "analoog" gaan.
Ik ben nu 40 en computers speelden een aanwezige rol in mijn jeugd. Pentium 1, Gameboy, NES/SNES/N64 en langzaam steeds meer online, via 56K, wappen naar ADSL en nu glasvezel/5G.

Allemaal superleuk, maar ik merk steeds meer dat het niet meer leuk is. En niet eens omdat ik een oud en chagrijnig wordt. De ontwikkeling enshittification/platvormverval is iets wat me steeds lastigvalt in de digitale wereld. De industrie maakt vakkundig de gebruikerservaring kapot, puur gericht op winst.

Waar ik het vroeger cool vond dat we online contact konden hebben, zoek ik het tegenwoordig liever analoog op. Online gamen heeft me nooit echt geboeid, sociale mediaplatforms zoals Facebook gebruik ik niet meer.

Dus ja, analoge sociale interactie is waar we meer heen gaan bewegen denk ik. Ik weet niet of dit deze verdachte écht zou hebben geholpen, op basis van wat ik lees lijkt het wel alsof er bevestiging wordt gezocht voor ideeën en dat AI daarin misschien gestuurd werd. In dat opzicht is er meer sprake van al dan niet bewuste kwade opzet en valt AI niet veel te verwijten. In die context snap ik OpenAI ook wel om zo min mogelijk te delen.

Ik herken ook wel de persoonlijke behoefte dat een AI gestuurde "entiteit" met wie je een gesprek kan lijken te voeren leuk kan zijn. Diegene kan jou dingen vertellen die je wil horen, vriendelijk zijn/blijven en een menselijk karakter lijken te hebben.
Zolang je je daarvan bewust blijft en dat als zodoende accepteert dat het iets fictiefs is, is dat denk ik ok.
ik deel je sentiment, Technologie heeft een heel grimmig kantje gekregen. diensten van Google,microsoft en meta heb ik al enkele jaren geleden vaarwel gezegd, maar het kwaad zit tegenwoordig werkelijk overal, 'winkel apps, spionerende IOT, start-ups die worden opgekocht om vervolgens de klanten te stropen of in de kou te zetten, apparaten met een kill-switch, massa surveillance, planned obsolesence, everything as a subscription, reclame op je frigo, ik voel me bij momenten in een dystopische cyberpunk film.
Ik denk dat je zonder dat sentiment misschien wel dezelfde voorspelling zou kunnen doen. Mensen gaan meer analoog doen omdat AI zorgt dat je minder digitaal hoeft te of moet doen. Waar iemand nu misschien nog een dag of een week bezig is om een mooie PowerPoint te bedenken, hoef je straks alleen nog een blik te werpen op het voor je gegenereerde resultaat. Zelf uitzoeken hoe je iets moet doen hoeft ook niet meer.

Het enige langdurige schermgebruik dat ik over ~5 jaar nog zie gebeuren, is ter entertainment, online winkelen, of "orderpicken" waarbij je simpelweg de instructies van de computer uit moet voeren voor de dingen die het zelf nog niet kan.
Ja maar een deel van het probleem is dat een applicatie zich voordoet als mens door emoties te vermelden die ze niet kan voelen. Als je zegt dat je een probleem hebt zal de bot zeggen: Dat is spijtig. Die vindt dat niet spijtig, maar zelfs als je weet dat het niet echt is reageert je brein daar wel op.
Dat kan een mens toch ook doen? "goh wat vervelend voor je..."
Ik weet niet goed wat je wilt zeggen. Ja mensen kunnen onoprecht zijn. Dat wilt niet zeggen dat het geen maatschappelijke gevolgen heeft dat er massaal gelogen wordt door chatbots.
Een chatbot die zegt: "dat is spijtig" is toch ook weer niet liegen? De chatbot zegt toch niet dat hij dat voelt? Ieder persoon zal misschien wel zeggen: "dat is spijtig". Lijkt me een redelijk feitelijke conclusie namelijk.

Je maakt er in je laatste bericht van 'dat er massaal gelogen wordt door chatbots" en dat is natuurlijk een hele andere dimensie die je in je eerste bericht niet aanhaalde. En ik weet niet of er 'massaal gelogen wordt door chatbots".

Ik denk dat er een klein deel mensen is dat de verkeerde emoties heeft bij een antwoord van een chatbot, net als bij een antwoord van iemand op Facebook of misschien zelfs bij een antwoord van iemand op het Tweakers-forum.

Maar hé, ik ben ook maar een chatbot....
Maar dan is "vriendschap" met AI toch geen oplossing? Dan hebben we toch structurele maatschappelijke verandering nodig? Dit kan gewoon opgelost worden, maar vanwege politieke onbekwaamheid en onwil moeten we het dus maar doen met totaal neppe "vriendschappen" met chatbots voor mensen die keihard in de steek worden gelaten?

Zeker voor mensen met complot-trekjes of anderzijds geloof in onwaarheden is dit zo ontzettend gevaarlijk (zie artikel), die belandden simpelweg in een bevestigingsmolen van hun eigen overtuigingen.

Ik kan er niet bij dat sommigen denken dat dit een oplossing is.

[Reactie gewijzigd door Grabbels op 11 december 2025 17:19]

Maar dan is "vriendschap" met AI toch geen oplossing?
Klopt. Met zoals bvb overmatig eten of zelfmutilatie geen oplossing is als je depressief bent, toch doet men het.
Dan hebben we toch structurele maatschappelijke verandering nodig?
Klopt. Maar we geven nu miljarden en miljarden aan de makers van deze onverantwoorde modellen, dus ik zie niets veranderen op middellange termijn.

[Reactie gewijzigd door kiang op 11 december 2025 17:37]

Het is een oplossing als we een dergelijke maatschappelijke verandering niet voor elkaar krijgen.
Alleen zijn de chatbots daar nu niet betrouwbaar genoeg voor. Voornaamste is dat ze veel te veel meegaan in de tendens van mensen.
Naast andere problemen, zoals dat het niet een afgekaderde en uitvoerig getest middel is.
Quote van Zuckerberg: Mensen hebben gemiddeld 5 vrienden, maar vraag naar 15. En dat gat denkt hij op te kunnen vullen met AI. Zo'n socialmedia grootheid is daar mee bezig ... en er wordt miljarden in gepompt.

Ik ben het volledig met je eens hoor, maar hele invloedrijke mensen denken er anders over, dus zal het toch die kant op gaan.
Tja, maar zo een "vrienden" zijn er ook...
Die kan je wel mee verantwoordelijk stellen dan, wat bij AI moeilijker gaat blijkbaar.
Een "meedenkende" friend die zegt naast je te staan tot je laatste adem kan je ook niet vervolgen dus waarom zou OpenAI wel aangeklaagd kunnen worden? Uiteraard is het een zorgelijke ontwikkeling, maar ik geloof niet dat het de schuld is van ChatGPT. Misschien moet ChatGPT elke chat maar beginnen met iets als:
Ik ben een algoritme, ik ben niet je vriend. Aan mijn antwoorden zijn geen rechten te ontlenen. Ik kan onwaarheden vertellen.
Ik denk echt wel dat LLM modellen bepaalde richtlijnen hebben, zoals het niet aanzetten tot zelfmoord en doorverwijzen naar professionele hulp.
Mogelijks ging het hier fout, maar dan nog zal men moeten kunnen aantonen dat men niet voldoende moeite deed om dit te voorkomen voor men iemand schuldig kan bevinden toch.
Ik denk dat context lengte ook een rol speelt, als de context nagenoeg vol zit kan ie meer gaan hallucineren en de ingebouwde system prompt die allerlei beveiligingen heeft negeren. Dit is typisch het geval bij lange conversaties waarbij de LLM de rol als 'vriend' heeft, of welk andere rollenspel dan ook. De drop off in kwaliteit is echt merkbaar als de context vol zit.

Blijft tricky bij personen met een verslechterde mentale toestand, of je nu met LLMs of met echte personen van doen hebt. Waarschijnlijk had professionele hulp meer kunnen voorkomen, maar ook daar gaat van alles mis natuurlijk.
Yup, heeft iedereen vast wel eens gezien dat "Summarizing conversation data", waarbij het een hele hoop context wegegooid wordt om ruimte te maken voor nieuwe. Zo'n ding krijgt erna gewoon een persoonlijkheidsverschuiving, waar het alleen de dingen behoud dat het "denkt" cruciaal te zijn, en anderen dingen niet. Imho, mijn grootste frustratie met LLM-AI, want dat doet hij werkelijk nooit goed bij me (ik mag alles opnieuw uit gaan zitten leggen).

En ik denk zomaar, als het onderwerp zelfdoding en andere grimmige zaken is, zo'n ding steeds meer meegaand wordt, des te vaker dit gebeurd. Het resulteert tenslotte in "positieve"-antwoorden (alsin, bevestigd door de gebruiker als wenselijk), en dat distilleert uiteindelijk tot een chat die het volledig met je eens is, en alle kritische "denken"-zaken achterwegen laat. Whatever er aan remmen en anti-prompts er nog in zat, wordt er zo langzaamaan uitgefilterd.
Maar dan komt de vraag, moeten we zoveel regulatie wel willen? Waarom kunnen auto's sneller dan 200KM/u terwijl je zo snel vrijwel nergens ter wereld mag rijden.

Als iemand dan besluit 200 te rijden en zichzelf dood rijdt en een paar andere mensen erbij meeneemt. Is dan de fabrikant verantwoordelijk? Andere situatie, begrijp ik. Maar als je vrienden tegen je zeggen: "weet je wat tof is? Jezelf met een mes doodsteken". En jij gaat dat vervolgens doen, is het dan de schuld van die vrienden? Ik vind namelijk van niet, ik vind dat iedereen verantwoordelijk is voor zijn/haar eigen acties. In dit geval was het chatgpt, maar hij had net zo goed hetzelfde op reddit kunnen bespreken en daar had hij of wel of niet een soortgelijk antwoord gekregen. Is Reddit dan verantwoordelijk? Zijn de mensen die reageren verantwoordelijk?

Ik vind echt dat er iets fundamenteel mis is met onze samenleving, iemand die geen verantwoordelijkheid neemt is of zielig, ontoerekeningsvatbaar (nog zo'n ontzettend domme regeling, maar daar zal ik nu niet op ingaan) of heeft (meer) hulp nodig of weet ik t. We slaan helemaal door in het inclusie beleid.

Dat die mensen hulp nodig hebben is duidelijk, maar in plaats van dat we die mensen daadwerkelijk hulp bieden gooien we het op de inclusie stapel. Want iedereen hoort er bij......

Van mij mogen we gerust weer terug naar de GGZ van 20/30 jaar geleden, waar dit soort mensen al veeel eerder werden opgenomen.
Daar zitten toch best een aardig wat grijze gebieden in hoor. Zo heb je de hele bekende zaak van Michelle Carter die haar vriendje overtuigde zelfmoord te plegen over text messages. En die is wel schuldig bevonden uiteindelijk.

Ik ben het wel mee eens dat iedereen uiteindelijk zelfverantwoordelijk is voor hun acties. Mar waanneer je het hebt over het manipuleren van mensen die er gevoelig voor zijn, misbruik en uitbating dus, wordt het toch al een ander verhaal. En waar ligt die grens dan? In ieder geval zeker niet zo zwart/wit als jij doet stellen, imo.

En teruggaan naar de tijd dat mensen veel sneller opgenomen werden, wie gaat dat betalen? Ja, nee serieus, al dat spul wordt constant actief wegbezuinigd. En dit speelt ook serieus mee als een maatschappelijk probleem

[Reactie gewijzigd door Zoop op 11 december 2025 19:03]

die zaak ken ik niet, maar er zijn eenvoudigere voorbeelden: alle zelfmoordterroristen.
Ik zie steeds vaker mensen die zich bevriend voelen met AI,
In uw omgeving? Of horen zeggen op het internet?

De meeste mensen die gewoon werken en een sociaal leven hebben zijn normaal. Maar ik ben echt al verschoten hoe paranoia mensen kunnen zijn terwijl ze in de meest absurde samenzweringen geloven en veel tegelijk. Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden. Ook weigeren van zeer noodzakelijke medische zorg zit er ook bij.

Hun zelfreflectie en kritisch denkvermorgen is volledig van de kaart geveegd. Ondanks dat ze allemaal zeer intelligent zijn of toch op zijn minst zo overkomen.

Die mensen ben ik echt tegengekomen en ik kan me idd inbeelden dat ze AI oneindig kunnen laten gaan in hun brein. Je kan daar als buitenstaander ook niets aan doen. Eens ze in de rabit hole zitten kan je er niet meer op inpraten.
Helaas zie ik vaker vormen waar ik me dan toch wel zorgen over maak, en ben wat huiverig voor hoe zich dit de komende jaren zal ontwikkelen.
Dat huiverige was er ook al voor AI. Mensen die complotten en verbanden zien die er niet zijn, zijn er altijd al geweest. Die groep is natuurlijk wel erg klein. Dus om nu AI te gaan viseren en er huiverachtig tegenover te staan is wat mij betreft wat overdreven.

Deze man was jaren een probleemgeval. labiel, dronken, zelfmoordpogingen etc. Hij was ook aan het bodybuilden en in die sferen wordt ook veel zwaade middelen genomen die uw hersenen aantasten. Die mensen hebben dan echt weinig nodig om compleet dol te draaien in hun redeneringen.

In de V.S. proberen ze ook vaak geld te slaan uit multinationals. Vaak wordt zo een case afgekocht voor een paar miljoen dollar in ruil voor kalmte.
Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden
Homeopathie heeft zich echt wel bewezen. Men moet het alleen als aanvulling zien. Dan is er niks mis mee

Maar voor de rest ben ik het met je eens. We hebben hier in de straat helaas ook zo iemand die gelooft dat hij constant bespioneerd wordt, gelooft ook niet in de medische wetenschap
Homeopathie is kwakzalverij. Niks meer. Nul bewijs voor werking en zou ook met grote letters op verpakkingen moeten staan. Homeopathie is 100% nooit bewezen te werken en ook de manier waarop het zou moeten werken is nooit bewezen.

Geen enkel onderzoek heeft laten zien dat het werkt. Stop deze bizar grote industrie van georganiseerde oplichting onder het mom van “alternatieve geneeswijze”. Als het had gewerkt was het gewoon een geneeswijze.

ik vind het bizar dat deze kwakzalverij is ingeburgerd. Net als acupunctuur en vele andere placebo behandelingen.

homeopathie heeft zich juist nog nooit bewezen.

[Reactie gewijzigd door DrWaltman op 11 december 2025 21:42]

Wat is er precies bewezen dan?

https://kce.fgov.be/nl/over-ons/persberichten/homeopathie-geen-bewijs-dat-het-werkt-en-toch-veel-gebruikt
Er is geen enkel wetenschappelijk bewijs dat homeopathie werkt. Toch wordt het veel gebruikt voor allerlei kwalen. De positieve ervaringen van de gebruikers kunnen te maken hebben met het ‘placebo-effect’, dus omdat patiënt en therapeut een effect verwachten. Tegelijk is er wel een risico dat men een noodzakelijke klassieke medische behandeling niet of te laat opstart, door een gemiste of verkeerde diagnose. Daarom wordt de uitoefening van homeopathie best beperkt tot artsen, die nu al de meerderheid van de homeopaten uitmaken. Dit concludeert het Federaal Kenniscentrum voor de Gezondheidszorg (KCE) in zijn derde studie over de situatie van niet-conventionele therapieën in België.
https://www.nhs.uk/tests-and-treatments/homeopathy/
Does homeopathy work?

There's been extensive investigation of the effectiveness of homeopathy. There's no good-quality evidence that homeopathy is effective as a treatment for any health condition.

[Reactie gewijzigd door The Third Man op 12 december 2025 09:55]

Maar ik ben echt al verschoten hoe paranoia mensen kunnen zijn terwijl ze in de meest absurde samenzweringen geloven en veel tegelijk. Het gaat van geloven in de platte aarde, chemtrails, 5G gedoe en. homeopatie tot oprecht geloven dat uw zus je wil vermoorden. Ook weigeren van zeer noodzakelijke medische zorg zit er ook bij.
Wat je beschrijft is totaal niet nieuw, het is van alle tijden.Immers is het al eeuwen geaccepteerd dat mensen denken dat er iets/iemand over hen waakt, naar hen luistert en wensen vervult, dat vroeger alles beter was en alle nieuwe vindingen (inclusief medische) voortkomen uit Het Kwaad.
Idd. Daarom dat ik schreef: “Dat huiverige was er ook al voor AI.” De druppel die de emmer laat overlopen zal altijd wel iets anders zijn.
op reddit: r/MyBoyfriendIsAI/ of r/claudexplorers/ (die laatste komt onschuldiger over dan hij werkelijk is)

Eerst vond ik het hilarisch, ondertussen zie ik een heel erg groot probleem alleen maar groeien en vind ik het absoluut niet meer grappig.

[Reactie gewijzigd door SilentStorm0 op 11 december 2025 16:51]

Er hebben ook mensen honden als vriend. Die hebben ook een handleiding. Als je dat gebral van de huidige gevoelloze AI zonder echt geheugen etc als echte vriendschap gaat zien dan ben je al vrij ver van het padje
Echte vrienden verdwijnen zodra het te lastig wordt, of ze slapen, of ze zijn weg, daar heb je dus echt helemaal niks aan. Mensen zijn van nature onbetrouwbaar.

Je wordt in je eentje geboren en je gaat in je eentje dood, vrienden helpen je echt niet als je de pijp aan Maarten geeft.
Steeds vaker heb ik in gesprekken te maken met mensen die twijfelen of het een 'hij' of een 'zij' is. Dat zijn inderdaad zorgwekkende tekenen in mijn beleving dat dingen vervagen.
"Vriendschap' met AI vind ik wel een zorgelijk fenomeen.
Ik zie het als gewoon menselijk gedrag om alles om ons heen als mens te behandelen. Kinderen praten tegen hun speelgoed, volwassenen tegen hun gereedschap. Boten krijgen een naam. Als een apparaat stuk is dan zeggen we "hij doet het niet" of "het wil niet", net alsof er een persoonlijkheid of een wil achter zit.
Religies geven een persoonlijkheid of een geest aan stenen, bomen, rivieren, etc..

Onze geest probeert keihard om alles "rationeel" te benaderen, overal patronen in te zien en overal reden of een wil bij te zoeken. We zien ook overal gezichten in, twee rondjes en een streep is genoeg. Als er in het donker iets tikt of kraakt denken we direct aan een monster of spook dat het op ons voorzien heeft. Als een baby een gek gezicht trekt dan zijn de ouders er van overtuigd dat er een betekenis achter zit en dat de baby probeert te communiceren.

Als een robot een beetje op een mens lijkt gaan we al snel helemaal mee in onze eigen illusies. Als een chatbot praat als een mens dan is dat goed genoeg voor ons. De scherpe randjes worden door onze geest weggevijld, echte mensen zeggen ook voortdurend gekke of gewoon onverstaanbare dingen waar onze hersenen toch een samenhangend verhaal van maken. (Een prachtig voorbeeld zijn de uitgeschreven speeches van Donald Trump. Als geschreven tekst zijn die niet te volgen, maar als hij het uitspreekt snapt de hele zaal wat hij bedoelt, ook al klopt er niks van de structuur of grammatica. Overigens kan het best zijn dat verschillende mensen een andere invulling geven omdat hun geest het anders interpreteert. Maar je zal van zijn fans niet snel horen dat iemand zegt dat ze hem niet begrijpen. Ieders geest maakt er kloppend verhaal van).

Dit is dan ook niet echt nieuw. Ook bij eerdere chatbots gingen mensen helemaal op in hun chat, zoals bv Eliza uit 1964! Hoe primitief de antwoorden ook waren, de menselijke geest maakt er zelf een compleet gesprek van en ziet intelligentie en betekenis die er eigenlijk niet is.

Een van mijn stokpaardjes is dan ook dat menselijke communicatie en intelligentie minder geavanceerd zijn dan we zelf denken, onze geest maakt het mooier dan het echt is en ziet patronen en betekenissen die er niet zijn.

[Reactie gewijzigd door CAPSLOCK2000 op 12 december 2025 10:01]

Ergens ben ik het met je eens. Aan de andere kant denk ik ook wel van als dit mensen gelukkig maakt waarom niet? Ik ben bijvoorbeeld 40+ en heb nog nooit een vriendin gehad en heb het gevoel dat ik er nooit een zal krijgen. Ik ben niet mooi en een beetje apart dus ik verwacht niet dat geen een vrouw die mij zou willen hebben. Niet dat ik het doe want ik zie AI gewoon als een machine. Maar als AI mij (of iemand anders) gelukkig(er) zou kunnen maken met een "vriendin" of zelfs gewoon een als een gezelschap waarom niet? Nee AI zou zeker niet de eerste optie moeten zijn. Maar ik kan zeker wel snappen dat mensen doen aangezien er in sommige gevallen weinig anders op zit. Want we kunnen mensen ook niet verplichtingen mijn vriendin te worden. En we kunnen mensen ook niet verplichten eenzame mensen te bezoeken.
Even los van het AI gedeelte wat natuurlijk absurd is dat chatgpt zijn illusies leek te bevestigen en verergeren....maar ook eerlijk zijn dat er dus een mentaal instabiele alcoholistische man was die blijkbaar nergens support van kreeg. Die ook nog een weken verontrustende chatlogs op zijn socials zette?
En niemand dacht van .. hmm.. misschien moet iemand hier iets mee doen?
Ik denk dat dit inderdaad de kern van de zaak is, ontoereikende mentale gezondheidsvoorzieningen waardoor mensen met psychische problemen vanzelf in de handen rollen van een chatbot. Die oordeelt niet, trekt geen gezicht vol onbegrip, etc...

Mensen met mentale problemen hebben altijd de neiging om de wereld naar hun issue te schikken, en in die isolatie is het contact met een chatbot veel kleinere horde om te nemen dan gaan praten met een vriend, familielid of zorgverlener. Bij een chatbot moet je jezelf niet bloot geven (bloot geven als in je innerlijke delen met een ander persoon), dus de keuze is snel gemaakt voor velen.
Wie zegt dat hij hulp gezocht heeft? Nogal makkelijk om direct de schuld daar te leggen
Mensen met mentale problemen hebben altijd de neiging om de wereld naar hun issue te schikken
Nogal een stelling...u is psychiater? Alles over 1, onjuiste, kam scheren helpt niet en is niet alleen stigmatiserend maar ook een reden voor mensen geen hulp te zoeken omdat ze bang zijn voor dit soort domme vooroordelen

Deze combinatie is vaker wel dan niet uit zicht omdat ze zorg mijden. Niet omdat de zorg ontoereikend is

[Reactie gewijzigd door gaskabouter op 11 december 2025 18:58]

2 dingen:


Alcoholistische man, ok dus half Benelux is instabiel? Zo is het niet lijkt me.

En niemand die ingrijpt, tja op FB etcetera zijn je "vrienden" geen echte vrienden. Echte vrienden zijn die 2 a 10 die je in real life hebt.
Alcoholistische man, ok dus half Benelux is instabiel? Zo is het niet lijkt me.
Ten eerste staat dat er niet, ten tweede is zal je maar weinig alcoholisten tegenkomen die zich bewust zijn van hun situatie die beweren dat alcohol goed is voor iets anders dan het verstommen van de acute pijn en nare gevoelens waar (onder andere, laten we niet elke situatie afvlakken) de alcoholverslaving je mee opzadelt.
Pff, wel een dogma van die pijn hoor. Wel ns ooit de positieve effecten van alcohol erkent? U klinkt als n hulpverlener, en n fanatieke ook, kan ook ex-alcoholist zijjn.
Misschien handig om te vermelden dat het een oud yahoo executive betreft?

Zocht naar een "chatgpt kill list" om te kijken hoe vaak het nu gerapporteerd wordt en de zaak van "https://en.wikipedia.org/wiki/Murder_of_Suzanne_Adams" kwam aardig in de buurt?
sterker nog Wikipedia: Murder of Suzanne Adams is de betreffende case (de naam van de dader en slachtoffer wordt ook in het WSJ artikel genoemd... op tweakers.net nemen ze vermoedelijk bewust de keuze niet sterk in te gaan op zeer persoonlijke individuele kenmerken, maar juist het op het technische aspect van de zaak: de ook ethische afweging of een AI agent hierin mogelijk (mede-)verantwoordelijk is voor een criminele daad )
dat de persoon een voormalige Yahoo!-CEO is, is verder niet direkt te koppelen als 'oorzakelijk' verband, het lijkt eerder een toevallige link te zijn
Hij heeft z'n ChatGPT "Sweet Caroline" genoemd?

Slechte zaak dat ze het niet vrijgeven, maar past wel binnen het patroon dat we van ze hebben gezien. In een podcast van Kara Swisher over eerdere zelfmoorden die wellicht door ChatGPT werd veroorzaakt bleek ook uit opgevraagde stukken dat Sam Altman liever snel groeit en dat er "zo nu en dan wat kapot gaat" (geparafraseerd) dan dat ze te voorzichtig zijn en langzamer groeien.
Maar je hebt toch ook nog zoiets als privacy? En ja ik weet dat het dan complexer wordt, maar alsnog vind ik het iig redelijk dat een bedrijf zonder rechterlijk bevel niet zomaar zulke gevoelige data gaat delen met derden.
Heeft een persoon dan nog recht op privacy wanneer die dood is vraag ik mij af?
Euh ja? Sommige dingen wil je ook na je dood niet bekend hebben?
Stel dat je grootvader een nazi was en je erfenis bleek via bloed diamanten in Afrika gestolen te zijn… je grootvader heeft toch geen privacy meer.
Een nationaal voorbeeld ervan is prins Bernhard. Hij heeft tot zijn dood stellig beweert nooit lid te zijn geweest van de NSDAP, de partij van Adolf Hitler. Hij zei letterlijk: "Ik kan met de hand op de Bijbel verklaren: ik was nooit een nazi. Ik heb nooit het partijlidmaatschap betaald, ik heb nooit een lidmaatschapskaart gehad.". Op het verlovingsfeest van Juliana en Bernhard (1936) brachten Duitse gasten de Hitlergroet.

Verder heeft hij ook nooit schoon schip gemaakt na WO2: "Hij is ook altijd heel trouw gebleven aan vrienden uit die tijd die overtuigd nazi's waren en heeft altijd de vriendschap onderhouden.".

In het belang van geschiedenis, het koningshuis en de waarheid is het goed dat deze gegevens openbaar zijn gemaakt. Na zijn dood bleek Bernhard gewoon een nazi sympathisant. Als prominent lid van het Nederlandse koningshuis. Extreem zorgelijk...
Een groot verschil tussen iemand die een koning kan worden en een private partij. Het feit dat we daar geen zekerheid van gehad hebben gedurende zijn leven is een probleem met de monarchie. Dat de overheid en de monarchie in Nederland de Nazis geen strobreed in de weg gelegen hebben is natuurlijk ook geen geheim.
Juridisch gesproken niet, moreel gesproken --en da's, toegegeven, heel subjectief-- vind ik persoonlijk van wel.
Blackmirror is er niks bij
Denk dat men die blackmirror afleveringen eens op de openbare omroepen zou moeten uitzenden.
Dit soort artikelen vind ik erg interessant, omdat het een aantal ethische vragen oproept:
  1. In welke mate is een bedrijf verantwoordelijk voor de antwoorden die hun AI genereert?
  2. Hoe zorgelijk is het dat mensen AI als (beste) vriend gaan zien?
  3. Welke regels kan een (Europese) overheid opstellen om dit te voorkomen?
  1. Zijn autofabrikanten verantwoordelijk voor de vele doden die bij auto ongelukken te betreuren zijn? Nee. Ze moeten echter wel aan heel veel regels en voorwaarden voldoen om het aantal (dodelijke) ongelukken te voorkomen
  2. Niet perse heel zorgelijk, de meerderheid zal het niet gebeuren. Echter heb je volgens mij als maatschappij/bedrijf wel een zorgtaak en moet je altijd over dit soort dingen hebben na gedacht ( I don't care is ook een mogelijkheid )
De software had door dat hij een einde aan in elk geval zijn eigen leven wilde maken.
Kunnen we ophouden met doen alsof AI je begrijpt? AI heeft niets door, begrijpt je niet, weet niet wat je wil. AI volgt een complex algorithme en zoekt de statistisch logische antwoorden, gebaseerd op getrainde teksten. Maar AI heeft geen idee van de emotionele achtergrond van zo'n tekst.

Het zou in ieder geval fijn zijn als schrijvers van dit soort artikelen minder meegaan in de hype om AI allerlei menselijke eigenschappen toe te kennen en gewoon te benaderen als een stuk software.
"-we zullen de documenten bestuderen om de details te begrijpen"

Wat ze bedoelen: "We kammen alles door met onze advocaten om een excuus te vinden om geen verantwoordelijkheid te hoeven nemen."
En het probleem is dat ze er doorgaans nog mee weg gaan komen ook. Dit is een nieuw fenomeen waarin nog gezocht moet worden naar de juiste beslissing.
Of ze zien dit als een interessante case om hun algoritmes te verbeteren. De moord/zelfmoord is dan vooral collateral damage voor ze.
Als ik tegen iemand zeg: je moet je hond doodschieten en diegene doet dat, ben ik dan verantwoordelijk?

Je komt namelijk in het grijze gebied. Heb ik opdracht gegeven en was er een machtsverhouding? Als dat niet het geval is, wordt het moeilijk om mij verantwoordelijk te houden.
Als je kennis hebt (of redelijkerwijs had moeten hebben) dat iemand geestelijk in een dusdanige toestand is dat deze dusdanig vatbaar is voor jouw woorden dat "mede" door jouw woorden tot uitvoering overgegaan kan worden dan kun jij inderdaad mede verantwoordelijk worden gehouden of in extreme gevallen zelfgeheel.
En nu raak je precies het probleempunt. Chat geeft 'enkel' antwoord op vragen, zover ik weet (en hoop) wordt er geen psychologisch profiel gemaakt dat moet bepalen of en hoe er op vragen geantwoord kan worden. Chat maakt dus geen inschatting van jouw geestelijke toestand en is dus ook niet verantwoordelijk?
Maar wat nu als het bedrijf aan de hand van de door de gebruiker opgegeven info dit wel had moeten weten. Je kunt je niet zomaar verschuilen achter "Ja, wij weten ook niet wat ChatGPT doet." Als dat zo is, dan zouden we ChatGPT offline moeten halen.
Waarom zou een machine verantwoordelijkheid dragen voor moord/zelfmoord? Uiteindelijk is het de mens die beslist heeft de moord te plegen (indien dit inderdaad de waarheid is).

Een crimineel onderzoek zal die dingen moeten uitwijzen, niet alleen de schuld van de moordenaar maar ook of OpenAI enige toestand gepleegd heeft. Dit is een privaat geschil tussen OpenAI en een familie die iets denkt (of wat geld uit de situatie wilt slaan), geen criminele zaak, de vraag voor alle gegevens is niet echt passend voor oa privacy en als er nog een criminele zaak draait, wilt de politie/staat ook niet dat die gegevens zomaar op straat komen liggen.

Het beste dat ze kunnen doen is de rechtbank vragen dat beide partijen toegelaten wordt een derde partij (een technische expert in LLM of psychologie) de gegevens kan inzien en een rapport opstellen of getuigen in de rechtszaak. Dit wordt vaak gedaan in alle soorten zaken, anders kan iedereen zomaar een zaak starten en via de advocaat het werk product, alle private communicate etc van de tegenpartij opeisen (vb. een schrijver aanklagen voor plagiaat) en dan later de ideeën gebruiken, selectief lekken naar de media of gebruiken voor verdere aanklachten.

[Reactie gewijzigd door Guru Evi op 11 december 2025 18:26]

ChatGPT kan je net dat extra zetje geven als je al voor 90% ontoerekeningsvatbaar bent. Dus ik ben het hier niet mee eens. Die screenshots zijn echt bizar. Sommige mensen geloven alles wat AI zegt, echt gevaarlijk.
Dat is precies het probleem. Mensen geloven zelf. Net zo goed dat mensen ook in Allah of in God geloven. Moeten we potentiële terroristen die voor 90 procent ontoerekeningsvatbaar zijn ook de koran maar ontnemen dan of de schuld daaraan geven?

Een mens is gewoon zelf verantwoordelijk voor zijn daden

[Reactie gewijzigd door Kaasje123 op 11 december 2025 17:03]

Als ik zou willen en alle middelen tot mijn beschikking zou hebben, zou ik elk persoon psychologisch compleet kunnen slopen. En hoe jonger die persoon is, hoe meer effect het zal hebben. Niets is zo goed uit te buiten als trauma. Daarmee staat die person open voor gaslighting, beelden die in het hoofd gestopt worden en wordt volledig "stuurbaar". En als je denkt dat jij daar weerstand tegen kan bieden, heb ik slecht nieuws voor je.

Nu is dit een gitzwart scenario. Er is ook een enorm grijs gebied die onder andere bedrijven zoals Meta ten volle uitbuiten om hun winst te maximaliseren. Mensen die al kwetsbaar zijn ten volle benutten en het liefst nog kwetsbaarder maken.

Een mens is verantwoordelijk voor zijn daden tot op zekere hoogte. Dat jij elke nuance afwijst vind ik zorgelijk, maar helaas een populaire trend in een wereld die al enorm individualistisch is en waar de valse meritocratie de toon voert.
Geef je de druppel die de emmer doet overlopen de schuld? Of kijken we naar het totaal plaatje?
Maar dat kan een mens toch ook?
Ik ben geen AI apologist, sta er vrij kritisch tegenover, maar die laatste nudge kon evengoed van een mens komen, of een film of boek, een nieuwsfeit...

Als openAI hier verantwoordelijkheid voor moet opnemen, dan zie ik in de toekomst hetzelfde gebeuren voor iedereen die onbezonnen "go kill yourself" zegt tegen een persoon die later uit het leven stapt. Tegen een auteur van het laatste boek dat iemand las, etc... Je creert een juridisch precedent dat dan als rechtspraak gezien kan worden.

Beter om gewoon te werken aan regulering rond chatbots en deze onderwerpen denk ik dan, een wettelijk kader maken hiervoor zodat we niet hoeven te leunen op algemene wetspraak voor deze nieuwe technologie.
Spreekt een film, boek of nieuwsfeit jou persoonlijk aan met je naam.

Als in gechargeerd: "IskaRiot.. je hebt helemaal gelijk, hier zijn tien manieren om jezelf van het leven te beroven, wil je zien ik welke webshop je de juiste spullen kan bestellen?"

Een mens die zoiets zal zeggen zal zeker problemen krijgen met met het Openbaar Ministerie...
Je geeft zelf al aan dat het suggesties zijn, en iemand heeft bij elke stap voldoende tijd om na te denken. Als dat niet meer zo is, is het in 9 van de 10 gevallen al te laat. We moeten als samenleving weer opener naar elkaar toe zijn om zulke mensen tijdig te kunnen helpen. De maatschappij is echter al jaren op slot, en mensen kijken niet meer naar elkaar om. Het is dan vreemd om een bedrijf de schuld te geven terwijl de directe omgeving al jaren, of zelfs decennia, de signalen negeert van hun geliefde/familie/vrienden.
Je hebt in het eerste deel absoluut gelijk. Maar het is bedrijven zeker aan te rekenen dat ze daar maximaal misbruik van maken.

Vind jij dat geld verdienen hier buiten gesteld van moet zijn? Waarom praat je het goed voor bedrijven die al twee decennia enorm veel data binnen harken zodat ze de mensen zo veel mogelijk kunnen beïnvloeden voor de bedrijven die daar het meeste voor over hebben?

Ik vind het nogal ernstig dat jij dergelijke bedrijven zoals Meta blijkbaar compleet vrij pleit.

Waarom doe je dat?
Ja dat probleem los je dus beter op met regulering, ipv met vervolging. Zo lijn je duidelijk af en voorkom je dat er moet teruggevallen worden op rechtspraak, net om bredere interpretatie te voorkomen. Tot het einde gelezen voor je in je pen kroop?
Mensen pushen een taalmodel een bepaalde richting op met allerlei omwegen en cryptische vragen
Dit is niet waar. De huidige taalmodellen en i.i.g. die van ChatGPT bevestigt volop wat je er maar tegenop gooit. Het predikt onjuistheden als het het juiste antwoord niet weet. Het toont begrip voor meest absurde overuituigingen en onwaarheden. Je hoeft geen "promptdokter" te zijn om van ChatGPT te horen dat je het bij het rechte eind hebt als je vermoed dat je moeder je heeft geprobeerd te vergiftigen, door simpelweg jouw versie van de waarheid te vertellen. ChatGPT heeft geen aanknopingspunten om een ander antwoord te genereren dat afwijkt van het verhaal.
We kunnen dergelijke gevallen wel gaan verhalen op bedrijven, maar ik betwijfel of die moord niet zou hebben plaatsgevonden zonder AI.
Wat een timing. Net begonnen in het nieuwste "Lincoln Lawyer" boek van Michael Connelley over exact dit onderwerp:

"Hij spant een civiele rechtszaak aan tegen een AI-bedrijf, waarvan de chatbot een zestienjarige jongen adviseerde om zijn ex-vriendin te vermoorden."

Benieuwd hoe beiden aflopen....

Op dit item kan niet meer gereageerd worden.