ChatGPT gaat ouders waarschuwen als minderjarige in acute nood lijkt te verkeren

OpenAI introduceert later dit jaar een optie om de accounts van ouders en kinderen te linken, waarbij ouders een seintje kunnen krijgen als ChatGPT constateert dat een minderjarige in acute nood verkeert.

De controle over accounts van minderjarigen maakt deel uit van een pakket maatregelen om het gebruik van ChatGPT bij acute nood veiliger te maken, meldt OpenAI. Bij volwassenen gaat ChatGPT meer leunen op redeneermodellen voor antwoorden, omdat deze zich beter aan de richtlijnen houden. OpenAI heeft de afgelopen tijd beschuldigingen gekregen dat zijn chatbot gebruikers heeft aangezet tot bijvoorbeeld zelfdoding.

Behalve het inseinen van ouders bij acute nood kunnen ouders functies in- en uitschakelen bij hun kinderen en controle uitoefenen over hoe de chatbot antwoordt. Ouderlijk toezicht moet binnen een maand beschikbaar zijn en de rest van de maatregelen vóór het einde van het jaar. Onlangs maakte OpenAI al bekend dat het onder meer gesprekken gaat doorsturen naar 'gespecialiseerde kanalen' als de chatbot detecteert dat gebruikers van plan zijn anderen schade toe te brengen. De gesprekken worden vervolgens beoordeeld door een klein team. Als die mensen vaststellen dat er sprake is van 'een onmiddellijke dreiging van ernstig fysiek letsel voor anderen', kan OpenAI de gesprekken doorverwijzen naar de politie.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Arnoud Wokke

Redacteur Tweakers

02-09-2025 • 14:37

64

Reacties (64)

Sorteer op:

Weergave:

Ik kan me eerlijk gezegd geen situatie voorstellen waar mijn kind van bijna 9 gebruik maakt van CHATGPT. Al helemaal in de combinatie met gevaar? Dit lijkt me niets anders dan een ordinaire marketingstruc. Net als die reclame van Instagram met hun "kindvriendelijke" profielen. Alles in de naam van veiligheid voor kinderen maar het is gewoon ordinair marketing.

Ik zie ChatGPT als een boormachine, ik gebruik het wanneer ik het echt nodig heb en dan stop ik het weer weg voor onbepaalde tijd. Mijn kind is echt wel te jong om gebruik te maken van een boormachine.
Heeft je kind geen telefoon, of heb je die zo locked down dat er alleen apps op kunnen waar je toestemming voor hebt gegeven? Geldt wat voor jou kind geldt ook voor andere kinderen?

Afgezien vd vraag hoe effectief het zal zijn, OpenAI neemt deze maatregel nalv vele gevallen waarbij kinderen schadelijk advies van een chatbot hebben gekregen, al dan niet met schadelijke gevolgen. Zie de voorbeelden elders in de comments.
Zeker! Mijn kinderen van 12 hebben Android-telefoons waar Google's Familiy Link op draait. Op basis van hun leeftijd wordt alles gefilterd, ik krijg een notificatie van de apps die ze installeren (eerst mijn toestemming vereisen vond ik niet nodig, maar had ik wel zo kunnen instellen), ik kan de schermtijd instellen en nog veel meer...
Ik heb zelf geen kids maar hoe werkt dat eigenlijk met de Browser? Ik heb bijvoorbeeld wel een dicht getimmerde werk laptop. Maar nagenoeg alles wat ik niet mag installeren kan ik wel gewoon via een web versie doen of zelfs via de browser in een cloud VM). Of moet je iedere website die ze bezoeken eerst goedkeuren?
Er zijn een paar verschillende knoppen waar je aan kan draaien met family link.
  1. Time-out of bedtijd. Hierin geef je een tijdsvenster wanneer de telefoon mag werken. Buiten dat venster werkt de telefoon helemaal niet.
  2. Tijdslimiet. Dit is per app en ook globaal in te stellen. Bij per app wordt de app geblokkeerd als de ingestelde tijd op is. De globale tijd blokkeert alle apps en stelt het zo in dat alleen de 'nood nummers' nog gebeld kunnen worden. Naast 112 is dat het nummer wat op de telefoon ingesteld staat als noodnummer. Bijv. nummer van moeder of vader.
  3. App-controle. Je kan zo instellen dat je kind geen nieuwe apps kan installeren, dat je als ouder elke app moet goedkeuren of dat je notificaties krijgt.
  4. Leeftijdslimiet. Dit werkt op apps en de browser. Het blokkeert apps & sites waar een leeftijdslimiet voor geldt. Een kind kan verzoeken om een site of app te deblokkeren, daar krijgt de ouder een popup over.
  5. Site-filters. Dit blokkeert websites op de chrome browser. Standaard is dat eigenlijk alle sites met inhoud voor volwassenen. (denk porno en zo) je kan zelf ook sites toevoegen en op die manier chatgpt, character AI e.d. blokkeren.
  1. Site-filters. Dit blokkeert websites op de chrome browser. Standaard is dat eigenlijk alle sites met inhoud voor volwassenen. (denk porno en zo) je kan zelf ook sites toevoegen en op die manier chatgpt, character AI e.d. blokkeren.
Dat lijkt mij dan nog héél lastig. Er zijn natuurlijk ontzetten veel Ai websites. En/ of sites die dingen als bijvoorbeeld porno aanbieden. Denk maar aan de duizende nsfw subreddits. En letterlijk met alles meekijken lijkt mij ook niet wenselijk.
Bij iOS kun je ook redelijk wat instellen qua tijdlimiet en contacten.

Maar rete-irritant en ik vraag me nog steeds af waarom die knop 1 minuut er zit. Hiermee kun je iedere app 1 minuut zonder code gebruiken. Dus met 60 apps kun je nog een uur op je telefoon. En ik zie nergens een optie om die 1 minuut weg te halen.

Onbegrijpelijke optie.
Toch werkt dit in Family Link verrassend goed. Websites zijn vaak geclassificeerd (vanuit Google, mogelijk gebaseerd op tekst en andere content of vanuit een andere bron waar ook webfilters bijvoorbeeld gebruik van maken) en mijn kinderen hebben nog nooit onoorbare dingen voorgeschoteld gekregen (en geloof me, op hun leeftijd zijn ze hier echt wel nieuwsgierig naar).

Overigens kan ik als extra maatregel via mijn router ook nog een filter zetten op hun MAC-adres, maar dat heb ik nog nooit nodig gehad.
Ja, het blokkeert niet standaard alle AI-gedreven sites. Dus daar zou je inderdaad wat handwerk voor moeten doen als je die wilt blokkeren. En dan is de kans groot dat je niet alle sites pakt.

Sites met expliciete inhoud worden als regel wel goed geblokkeerd. Google heeft een goede index van deze sites.

Je doet me wel aan een goed punt denken: Family link en dergelijke apps zijn gereedschappen die de opvoeding ondersteunen. Je kan nooit helemaal op deze apps vertrouwen, en je zult hierover in gesprek moeten blijven met je kind.
kind komt bij vriendjes > vriendjes laten chatbot zien, kind probeert het zelf > gaat het zelf vaker proberen op school, telefoon, de bieb, etc.. > en dan op een dag komt de vraag; "chatbot, waarom doet Loesje zo gemeen tegen mij?"...

En dus zo snel ben je bij de eerste trede van een spiraal die heel snel kan veranderen in het verdraaien van iemands zelfbeeld, eetstoornissen, gevaarlijke manieren om af te vallen, etc.. etc...

[Reactie gewijzigd door dakka op 2 september 2025 15:36]

Als er kinderen van 10 al op TikTok zitten, dan is het totaal niet ondenkbaar dat je kind van 9 ook gebruik maakt van ChatGPT of van Gemini (ik zie kinderen van 6 al met telefoons rondlopen die het ook nog doen ook).
En op het moment dat TikTok van die vage challenges laat zien aan je kind, kun je ook bedenken dat je kind dan aan ChatGPT, CoPilot of Gemini gaat vragen hoe je bepaalde challenges moet doen of hoe ze aan bepaalde dingen kunnen komen.
Verdiep je eens in de robotspeeltjes voor kinderen. Het is dezelfde rommel als 10 jaar geleden, maar nu met ChatGPT gekoppeld.

Het is een super eenvoudige manier om een simpel robotje van 15 euro om te toveren in een alles-kunner waar je opeens 150 euro voor kunt vragen.

Helaas dus plenty kids van 9, en ook veel jonger, die hele dagen met ChatGPT kletsen.
je begrijpt niet dat dit ook voor verduidelijking van lesmateriaal oid gebruikt kan worden?
Vast wel. Ik begrijp ook het onderzoek naar hersenactiviteit in combinatie met steeds vertrouwen op een systeem als ChatGTP om alles maar voor te kauwen en de niet zo prettige resultaten die daar uitkwamen.

https://www.nationalgeographic.nl/wetenschap/a65167478/chatgpt-slecht-voor-je-brein
Heeft je kind internet? Heeft een vriend(in) van je kind internet? Gaat je kind naar school?

Wij keken vroeger in groep 7 o.i.d. met de halve klas Happy Tree Friends en speelden GTA 2 op de pc in de klas op school. Lekker vetmegabloederig en zo. Dat hou je niet tegen. Jij noemt zo'n PC of een app daarop een boormachine, je kind ziet het/het internet als vermaak/een vriendje.

Mijn zusje was op tweejarige leeftijd professioneel YouTube-gebruiker en was er goed van op de hoogte hoe ze naar andere video's moest navigeren e.d., ook al kon ze nog niet lezen. Dan kan jouw 9-jarige ook wel die boormachine aan de praat krijgen.
Ik kan me eerlijk gezegd geen situatie voorstellen waar mijn kind van bijna 9 gebruik maakt van CHATGPT.
Vroeger zeiden we dit over heel veel dingen. Te jong om eigen tv te hebben, computer te hebben, internet te gebruiken, telefoon te hebben. Tijden veranderen.

Maar ik zie wel scenarios waarom een kind dit zou doen. Stel dat je op school zit en buitengesloten wordt of zelfs gepest wordt en dus geen vrienden hebt. Als je dus een "vriend" in je zak heb zitten of via computer kan benaderen zie ik wel in waarom ze dit zouden willen doen. Daarnaast is AI in geheim praten (al veranderd dit dus). Als je gepest wordt en niets mag zeggen van de pestkop komt niemand erachter als je met AI erover praat. Krijg je straf kan je tegen AI zeggen dat je klote ouders hebt (even luchten) zonder dat je hiervoor extra in de problemen komt en misschien dat AI zelfs nog dingen kan verbeteren. Door bijvoorbeeld dingen te zeggen dat je voor je eigen bestwil was, je in laat zien waarom je fout zat, of dat je toch wel goede ouders hebt want je krijgt wel eten en drinken, dak boven je hoofd, zakgeld of leuke dingen zoals een bioscoop uitje.
Het idee klinkt goed, maar in de praktijk zullen niet veel mensen hun account linken. Veel ouders denken er gewoonweg niet aan, de meeste kinderen willen geen account gebruiken dat aan hun ouders is gekoppeld en maken zelf wel een "volwassen" account. Door verwijzen naar hulporganisaties lijkt me dan inderdaad een beter optie.
Maar hoe verplicht je dan een teen om ouderlijk toezicht aan te geven bij registratie?
We’re also exploring making it possible for teens (with parental oversight) to designate a trusted emergency contact.

https://openai.com/index/helping-people-when-they-need-it-most/
Kans is groot dat er weinig controle is op wat de teen online doet. Ik ben geen voorstander van verplichte leeftijdscontrole op online diensten, maar zonder dit is het een lastige kwestie hier.

[Reactie gewijzigd door MrRobot op 2 september 2025 14:54]

Chatbots net als social media verbieden voor minderjarigen lijkt me een nog betere oplossing.
En dat werkt zo goed dat je als kind je gewoon kan aanmelden... Leuk die regels, maar er wordt niks mee gedaan of is makkelijk te omzeilen.
Dan moeten er boetes komen tot het wel werkt 🤷🏼
Moderatie is helaas wenselijk: haat, geweld, zelfmoord, racisme, terrorisme, propaganda, etc ,etc

Ja bij alles is de vraag waar trek je de grens. Maar zoals irl hebben we normen en waarden, wetten en regelgeving ("hier stellen we de grens"). Waarom dan op het internet niet.
Enerzijds snap ik het maar aan de andere kant hoort het wel bij het opgroeien dat ouders niet alles meekrijgen. Het hoort bij het zelfredzaam worden. De puberteit is erop gericht om je af te zetten tegen je ouders, zelfstandig te worden om zo uiteindelijk de vleugels van je ouders te kunnen verlaten. Als techbedrijven dan even naar je ouders uit de doeken gaan doen dat je informatie hebt gezocht over bepaalde psychische problemen of gevaarlijke plannen is nu niet echt bevorderlijk voor dat proces van zelfstandig worden.
Dat werkte goed in een tijd waar je alleen vrienden uit de buurt trof en het ergste lokaal uitgevoerde kattekwaad was.

Nu iedereen toegang heeft tot alle informatie op aarde, inclusief volwassen content, waar je met een telegram of snapchat bericht de hele waslijst aan designer drugs aan je deur bezorgd wordt, pedo's zich voordoen als kinderen in chatgroepen en extremisme je in een wink van een algoritme voorgeschoteld krijgt, lijkt me dat enige vorm van regulatie wel op z'n plek is.
Dat klopt, maar de biologische component is niet verandert. Die past zich niet aan aan de nieuwe technologie en informatie. je ziet nu ook dat mensen door social media sociale vaardigheden missen. die bouw je ook op tijdens het opgroeien door met vriendjes buiten te spelen, ruzie te maken, samen te werken en niet door door filmpjes heen te bladeren.
Ik denk dat dit een goed plan is, als er bijvoorbeeld aan ChatGPT wordt gevraagd om methodes om zelfmoord te plegen of andere mensen te beschadigen.

Toch vind ik het ook goed om inderdaad dit soort dingen (na beoordeling door dat kleine team) te melden bij de politie (in het geval van proeren schade aan anderen aan te richten) of door te verwijzen naar hulporganisaties (bij aanwijzigingen voor zelfmoord). Dat zijn toch mensen die hierin gespecialiseerd zijn, en die zie ik dan liever in de loop dan enkel een commercieel bedrijf als OpenAI.

Er zijn gewoon al teveel voorbeelden van (gezondheids)schade die aangericht wordt door ChatGPT:
We moeten ons afvragen waarom mensen zoveel waarde hechten aan een advies van een AI. Het is geen AI, het is heel veel data waarvan je een beknopte samenvatting krijgt. De waarheid hangt vaak ergens in het midden.

Wellicht moeten we ook stoppen met de term AI, ik snap dat bedrijven het prachtig vinden want veel marketing waarde natuurlijk, maar met intelligentie heeft het niet zoveel te maken. Als ik een volledige encyclopedie uit mijn hoofd kan leren en daar per onderwerp een mooie samenvatting van kan geven is dat handig, maar niet intelligent. Het geeft alleen maar aan dat ik goed dingen kan onthouden.
Omdat LLM-chatbots niet oordelen, vooral ja knikken en je voornamelijk positieve feedback geven, dat is letterlijk waarom "grooming" werkt.
En ook vooral altijd beschikbaar zijn. En een eindeloos geduld heeft. Mensen kunnen bot, ontactisch zijn en zitten over het algemeen vol met sociale gebreken. AI kan dat vaak al veel beter.
Ik heb liever een, bot gebracht, goed advies van een sociaal onhandig maar kundig mens dan de zalvende woorden (vol onzin of erger...) van een LLM.

Een LLM kan ook helemaal niet 'sociaal zijn', het kan wel 'sociaal wenselijke taal generen' maar dat is uiteraard absoluut niet 'hetzelfde'!
Het gaat er niet om wat je liever hebt. Het gaat er om wat er je geboden wordt. Als er niemand in je omgeving naar jouw luistert of naar je omkijkt dan is een AI chatbot al heel snel een veel beter alternatief voor iemand. Het maakt niet uit of een machine de antwoorden genereert. Het gaat om de perceptie van de gebruiker.

Altijd beschikbaar zijn is hierin erg belangrijk

Zo ook misschien in de toekomst de inzet van AI robots. Stel je bent zorgbehoevend. Dan heb je misschien het liefst menselijke zorg. Maar die menselijke zorg moet z'n aandacht ook verdelen over vele hulpbehoevende. Intussen zit je met een volle pamper. Dan is die robot die meteen beschikbaar is voor velen toch een beter alternatief dan wachten.

Ik zie dit allemaal wel gebeuren dat mensen toch voorkeur gaan krijgen voor AI in heel veel dagelijkse zaken, vooral omdat ze altijd beschikbaar zijn.
Als robot bouwer weet ik zeer waarschijnlijk toch ietsjes beter wat er technisch mogelijk is en gaat zijn, robots die (op een voldoende brede schaal) zorg op ongeveer menselijk niveau kunnen leveren zijn nog heel erg ver weg... En dan bedoel ik; op het vlak van kennis, hardware en software/AI.

Dat je als developer de ontwikkelingen v.w.b. LLM's zo gemakkelijk linkt aan zorg-robots (dat zijn compleet verschillende zaken) zegt mij genoeg. Ik bleef in mijn reactie op jou niet voor niets bij de LLM/mens vergelijking, dat was immers nog on-topic, wat jij nu schrijft is (op z'n best) verre toekomstmuziek en ver van 'de zekerheid' die je zo stellig uitdraagt.
Volgens mij wordt er alleen een vergelijk gemaakt voor het altijd beschikbaar zijn. JP zegt niet dat LLMs hieraan gelinkt zijn.
"Volgens jou", maar wat weet jij ervan dan?
Het 'altijd beschikbaar zijn' is namelijk ook gewoon een onzin vergelijking, want; zwaar overdreven. Robots hebben bij lange na niet de uptime van een serverpark! Robots zijn immers niet 'alleen maar software/AI' maar ook nog complexe hardware (met alles wat daarbij komt kijken...).

Sorry, maar de kortzichtigheid (door nauwelijks tot geen kennis van het erbij betrokken onderwerp, in dit geval robots) druipt er vanaf.
omdat ouders geen idee hebben wat hun kinderen online doen. het gaat hier minder om het feit dat het van een AI komt en meer om de signaal functie.
Het gaat denk ik ook niet om eenmalige gevallen dat een LLM een gevaarlijk antwoord geeft. Als je vraagt hoe je een ei moet koken en je krijgt als antwoord dat je een pan met schoonmaakazijn moet vullen en daarna helemaal opdrinken gaat er bij 99,9% van de mensen (nog) wel een belletje rinkelen. Het gaat meer om de gevallen dat iemand emotioneel te betrokken raakt bij een gesprek en daardoor liever verder in de computer kruipt dan met echte mensen te praten.

Veel van onze (groot)ouders hadden waarschijnlijk dezelfde bedenking toen hun kinderen opeens uren achter de computer zaten, maar de interactie die je dan had was in ieder geval nog met mensen die -over het algemeen- geen schadelijke bedoelingen hebben. Tools zoals ChatGPT staan altijd aan en "weten" zelf niet wanneer een gesprek de verkeerde kant op gaat.

[Reactie gewijzigd door Skit3000 op 2 september 2025 14:48]

Waarom moest men dan, in de VS, tijdens covid-19, meerdere malen, duidelijk aangeven dat men geen chloor moest drinken nadat Trump dit opperde.

Mensen zijn vreemde wezens die graag dingen geloven die in hun straatje passen (vooral wanneer het niet zo goed in hun hoofd gaat)
Als één op de tien miljoen mensen het niet begrijpt, heb je in een land met 340 miljoen inwoners inderdaad soms toch nog iemand bij wie het mis gaat. Ik denk dat je beter op die 339.999.660 andere mensen kunt richten die heel goed weten wanneer iets te ver gaat, maar waarbij langdurig gebruik van iets dat heel menselijk aan voelt toch bepaalde gevoelens naar boven kan halen waardoor die persoon geen andere weg ziet dan zichzelf of andere mensen iets aan te doen.
Probleem is dat meestal die1 op de 10 miljoen het probleem heeft. De mensen die wel gezond doen (meestal) geen stomme dingen. Dus richt he op de 1 op de 10 miljoen ipv de rest!
Doorverwijzen naar hulp organisaties doet ChatGPT en CoPilot al minimaal een jaar. Waarschijnlijk langer, maar weet niet precies wanneer de eerste keer was dat ik die melding kreeg bij het testen van de LLM's om te zien hoe ver ze gaan.
Daarvoor deden ze dat inderdaad niet als ik vroeg hoe hard ik de grond raak als ik van de 15de verdieping af spring.

Probleem is nu ook weer hoe weet ChatGPT dat het om kinderen gaat? Hoe weten ouders dat hun kind op ChatGPT zit? Zonder dat je dit tackelt wordt het wel vrij lastig om ouders te waarschuwen.
Toch vind ik het ook goed om inderdaad dit soort dingen (na beoordeling door dat kleine team) te melden bij de politie (in het geval van proeren schade aan anderen aan te richten) of door te verwijzen naar hulporganisaties (bij aanwijzigingen voor zelfmoord).
Hoe willen ze dat doen, het beoordelen door een klein team? Er zijn duizenden berichten die misschien geotagged gaan worden. Daar het OpenAI niet de mensen voor, noch de zin, denk ik. Voor de bühne zijn ze nu wel even bezig, maar de praktische uitvoerbaarheid is lastiger.

Het waarschuwen van een ouder kan bij hele jonge kinderen wel werken, maar of een 16-jarige nog gecontroleerd wil worden door diens ouders, … ik weet het niet. Desnoods maak je een ander account voor de gevoelige chats.
Tja, ik zie hierin vooral een probleem van bewustwording dat LLMs fouten maken en dat je belangrijke feiten toch echt nog moet controleren. Dat een LLM dieetadvies geeft lijkt mij niet verkeerd, en zelfs erg nuttig als eerste stap alvorens je andere bronnen raadpleegt om het te bevestigen.

Dat mensen alles geloven wat ze lezen is in ieder geval niet nieuw. Je kunt niet iedereen altijd beschermen. Al helemaal niet tegen henzelf.

[Reactie gewijzigd door Wolfos op 2 september 2025 15:40]

De man die zijn tafelzout verruilde voor bromide is gewoon een idioot. Hij had die informatie ook in een scheikundeboek kunnen lezen. Dan staat er ook geen gezondheidswaarschuwing bij want daar gaat het boek niet over. Zou het dan een voorbeeld zijn van "gezondheidsschade die aangericht wordt door boeken" of heeft de man misschien ook nog een eigen verantwoordelijkheid?

Daarnaast is het gewoon het zoveelste click-bait fake news. De onderzoekers hadden de chat-logs van de man niet eens dus er is geen enkele conclusie te trekken over wat de man precies gevraagd heeft, in wat voor context, of over wat voor antwoord hij gekregen heeft.
Als laatste wordt er ook nog gemeld dat het blijkbaar om gebruik van het model GPT 3.5 ging, wat al lang verouderd is.

[Reactie gewijzigd door King of Snake op 3 september 2025 07:51]

Zijn er ook voorbeelden van ChatGPT die mensen daadwerkelijk heeft geholpen? Want als mensen zo beïnvloedbaar zijn door ChatGPT, dan heeft het hoogstwaarschijnlijk ook positieve gevolgen gehad op vele mensen die het zwaar hebben gehad.

Echter zal je dat soort zaken nooit in het nieuws horen. Er onderzoek naar doen is natuurlijk ook helemaal niet interessant want het trekt geen lezers.

Ik ben het er mee eens dat er zaken veranderd moeten worden, bijvoorbeeld gewoon een minimum leeftijd en alleen betaalde versies, maar vind het wel altijd zo typerend dat alleen de negatieve zaken zo hard geschreeuwd worden, dat als je bijvoorbeeld alleen Tweakers zou lezen voor informatie over AI.. je al heel snel tot de conclusie gaat komen dat het absoluut waardeloos is (iets wat overdreven, maar zo ervaar ik het wel)
Ik denk dat dit een goed plan is, als er bijvoorbeeld aan ChatGPT wordt gevraagd om methodes om zelfmoord te plegen of andere mensen te beschadigen.
Ik niet.

review: AI-modellen falen structureel bij een van de gevoeligste thema’s: zelfdoding
OpenAI doet de aankondiging kort nadat de New York Times meldde dat de zestienjarige Adam Raine overleed door zelfdoding na maandenlang intensief gebruik van ChatGPT.
De vader van de jongen zag deze berichten in de chat, maar kwam er ook achter dat zijn zoon deze uiteindelijk wist te omzeilen door te zeggen dat de verzoeken betrekking hadden op een verhaal dat hij aan het schrijven was.
Een veertienjarige jongen spendeerde dagelijks urenlang met een chatbot, gebaseerd op Daenerys Targaryen uit Game of Thrones.
De moeder van de jongen vindt dat Character.AI schuld heeft aan de dood van haar zoon en spande daarom een rechtszaak aan tegen de AI-start-up. Ze beticht het bedrijf ervan dat het een product heeft uitgebracht 'zonder fatsoenlijke waarborgen en veiligheidsmaatregelen'
Ik snap best dat je soms weinig hoogte kunt krijgen van je tieners hoor, maar dit grenst ook wel een beetje aan verwaarlozing als ik het zo hoor.

Als we even kijken naar hoe de VS met bepaalde zaken omgaat en hoe dat in andere landen gebeurd, denk ik dat we oprecht mogen stellen dat er daar echt wel een gigantisch probleem is onder jongeren. De mentale gezondheid onder jeugd is daar dusdanig ruk dat er iedere 2 dagen 3 kinderen doodgeschoten worden door schoolgenoten.

En dat komt echt niet doordat chatGPT zo'n toffe peer is, waar het wel door komt (en dat is mij al tijden een doorn in het oog) is het apologetische meepraten wat ze nu wéér in 5 hebben toegevoegd (iets wat ie in het begin niet had). Je krijgt altijd gelijk van ChatGPT ook al roep je gewoon debiele dingen.

Ik denk oprecht dat als OpenAI die emotionele "oh ja nee je hebt helemaal gelijk" gewoon niet doet en gewoon een statement durft te maken waarbij GPT af en toe ook gewoon zegt, joh niet zo kletsen, dat dat dan al een hele hoop dingen voorkomt.

Als ik op r/myaiboyfriend kijkt, dan schrik ik oprecht van wat er daar allemaal gebeurt en ook hoe ouders zo kompleet oblivious kunnen zijn van mentale issues van een kind.

Zelfmoord is in de VS een gigantisch issue. Het gaat daar echt slecht op het gebied van mentaal welzijn, maar ook gewoon op normal welzijn. Ik en vele anderen zien de VS ook al tijden niet meer als een "ontwikkeld" land en dit soort dingen helpen daar niet in mee. Ten opzicht van andere landen in "het westen" lig de suicide rate van de VS significant hoger. Het is vergelijkbaar met die van Zweden, maar zweden heeft een groot deel vaan het jaar gewoon geen zon. Dan wordt het echt wel een heel ander verhaal. Zweden heeft ook een gigantische stap gemaakt met een grote mental health campaign op scholen. Iets wat in de VS gewoon niet gaat gebeuren. in plaats daarvan worden er meer metaal detectors bijgeplaatst.


Dit is een voortzetting van het ridicule. Weet je het verhaal met de hond in de magnetron nog? Dat was uiteindelijk de verantwoordelijkheid van de fabrikant. Deze hele mentaliteit van verantwoordelijkheid afschuiven is zeer slecht voor je bevolking. In Nederland merken we dat ook al wel.

Prima dat GPT dit gaat signaleren en door gaat geven naar de ouders, maar laat ze stoppen met zich inhoudelijk mengen in de discussie over ethiek, want dat gaat weer een ander model worden wat de plank misslaat en dan hebben ze het straks alsnog gedaan. Stop met altijd jaknikken en ga vooral niet gesprekken afkappen, dat levert alleen maar meer frustratie op.
In een opwelling kan je irrationele keuzes maken.
Ontslaat dat je dan van verantwoordlijkheid voor die keuzes?
Nee, maar desalniettemin maak je in zo'n situatie een keuze waar je achteraf spijt van hebt. Suicide-overlevers geven vaak aan spijt te hebben.
Als je bij de kassa staat en je koopt in een opwelling een reep, ja, dat is irrationeel.

Als je een dieet aan het bedenken bent is dat toch een vrij bewuste keuze, geen opwelling.

En als je met een AI 'praat', dan weet je toch wel beter? Het is geen mens en zelfs al was
het een mens, dan zou ik het nog met een flinkere korrel zout nemen, want veel mensen
geven, goedbedoeld, de beroerdste adviezen.
Eigenlijk zou het andersom ook moeten zijn. Ik merk namelijk dat er heel veel boomers zijn die AI altijd als waarheid beschouwen en ik krijg hun niet uitgelegd dat AI ook fouten maakt en dit doordat het getraind is op superveel data. Controle voor kinderen is goed maar dat de oudere generatie ook eens controle krijgt van onze generatie? Praktisch niet haalbaar maar het irriteert me mateloos. Ja maar AI zegt dat het zo is en niet zo.... Ik ben het zo beu om te horen....

[Reactie gewijzigd door Asdiousdragon op 2 september 2025 15:07]

Het is niet anders dan 'ja maar op facebook staat <...>'. Mensen geloven makkelijker dingen die bij hun wereldbeeld passen. Of dat nou social media, generative AI of de krant is.
UW ZOON IS IN GEVAAR

Ouder: huh? Maar mijn zoon ligt in bed te lezen.

Chatgtp: ja maar het is een lerend systeem.
Ik ben er in beginsel niet op tegen, ik denk dat het goed is dat openai dit gaat doen, maar ik hoop dat dit geen wettelijke verplichting word, gezien dat de doodsteek word voor het hosten van local LLM's.

Het zou mij (oke hierbij heb ik een aluminium hoedje op) als dit soort dingen deels de insteek is van openai, door dit soort dingen verplicht te stellen, het ook verkomen dat in de toekomst LLM's lokaal mogen worden gedraait.

Op dit item kan niet meer gereageerd worden.