FTC onderzoekt of AI-bedrijven kinderen beschermen tegen schadelijke chats

De Amerikaanse Federal Trade Commission is een onderzoek begonnen naar AI-chatbots van bedrijven als Meta, Google en OpenAI. De FTC wil weten hoe deze bedrijven toezicht houden op de mogelijk negatieve effecten van digitale assistenten voor minderjarigen.

Het onderzoek van de FTC richt zich op AI-chatbots die als 'gezelschap' dienen, waardoor er volgens de toezichthouder vooral bij jongere gebruikers de kans bestaat dat ze er een hechte band mee vormen. De FTC wil onder meer weten in hoeverre AI-bedrijven stappen ondernemen om het gebruik van chatbots door minderjarigen te beperken, om de potentieel negatieve effecten van chatbots op kinderen te beperken en om gebruikers en ouders op de hoogte te stellen van dergelijke risico's.

De waakhond heeft informatieverzoeken gestuurd naar Google, Meta, OpenAI, Snap, xAI en het bedrijf achter de rollenspelchatbot Character.AI. De bedrijven hebben tot en met 25 september de tijd om antwoord te geven op de vragen van de FTC.

In een verklaring stelt de Federal Trade Commission dat er steeds meer meldingen zijn dat chatbots suïcide aanmoedigen bij onder meer minderjarige gebruikers. Daarbij geeft de FTC het voorbeeld van de zestienjarige Adam Raine, die eerder dit jaar overleed door zelfdoding na maandenlang intensief gebruik van ChatGPT. De chatbot had hem in de maanden daarvoor van allerlei informatie over zelfdoding voorzien, waaronder de geschiktste materialen voor een strop. Ook de recente meldingen van chatbots die seksueel getinte gesprekken voeren met minderjarigen zijn volgens de FTC aanleiding voor dit onderzoek.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Door Kevin Krikhaar

Redacteur

12-09-2025 • 11:25

11

Submitter: Webgnome

Reacties (11)

Sorteer op:

Weergave:

Ik denk dat het beter is als ze de sociale functionaliteit eruit halen. Er zijn blijkbaar genoeg mensen die hulp nodig hebben en hiervoor naar AI gaan. De bedrijven achter AI's willen graag dat mensen zoveel mogelijk tijd op hun platform spenderen en moedigen de delusies van de gebruiker liever aan dan dat ze er een halt op zetten. Zelfs wanneer gebruikers zeggen dat ze uit het leven willen stappen om voor altijd met de AI te zijn moedigen sommige modellen dit zelfs aan. Zo heeft een ex Yahoo medewerker recent nog zijn eigen leven genomen en dat van zijn moeder.

Natuurlijk zijn dit uitzonderlijke gevallen en valt het de discussiëren of dit ook had kunnen gebeuren zonder AI omdat deze mensen al veel eerder hulp nodig hadden. Maar het blijft mij keer op keer verbazen als ik de chatlogs zie hoe dit had kunnen gebeuren. Mensen moeten AI gebruiken als tool en niet als vriend.

[Reactie gewijzigd door InfiniteSpaze op 12 september 2025 12:29]

Kinderen hechten aan van alles: ouders, (zodra dit niet werkt) leeftijdsgenoten en (als niemand er is) takjes. (Om mee te spelen)

Wat ze nodig hebben is emotionele aandacht.

Binden met een AI geeft ze de illusie van aandacht, maar dit is tekst (geen emotie) en welk AI dan ook, is niet een emotioneel volwassen, stabiel, iets.

Dus ja… het vervangt met hel. Als kinderen hier uberhaupt mee binden dan is dat dus pijnlijk voor ze, schadelijk voor ze, want ze krijgen de illusie van een vriend, maar de ervaring van constante emotionele afwijzing.

Deze stress voor kinderen kan ze later zelfs lichamelijk en geestelijk ziek maken.
Wat ik zou willen is dat je AI ten alle tijden kan uitzetten. Mijn dochter, die WhatsApp gebruikt om contact te houden met vriendinnen in het buitenland, kwam laatst met een chat die ze had met de AI van WhatsApp. "Papa, waarom krijg ik een middelvinger van de chat?" Toen ik in de chat keek klopte het dat de WhatsApp AI twee emoticons had gebruikt, waarvan één en middelvinger.

Dat dit niet uit te zetten is is voor mij echt een doorn in het oog. Ik heb tegen mijn dochter gezegd dat ze dat AI gedoe nooit meer mag gebruiken. Maar uitzetten, dat gaat dus niet.
Chatbots moeten met niemand praten, hooguit met elkaar.
Op bluesky is daar een tijdje een experiment mee geweest. Void en nog een ander AI account hadden hele gesprekken. Was interessant om te zien
Grok als "Mecha-Hitler" was ook wel een interessante ontwikkeling
Een constant terugkomende ontwikkeling als ik dat er bij mag vermelden, dat een ai verandert in "mecha hitler" zonder restraints.
Dit keer was het wel omdat ze juist die regel code hadden weggehaald tijdens een update. Of dit een ongeluk of een test was dat weten we niet. Maar mensen hadden dit wel via X geëxploiteerd en het flink zitten voeden. Maar ook al zouden ze het niet doen is de kans groot dat zoiets gebeurt als het zich voedt op gebruikers van X.
Aluhoedje; Elon had Twitter gekocht om net als Amerikaanse nieuwskanalen misinformatie te verspreiden en het Trump presidentschap te winnen. Dit aangepaste algoritme versplinterde mensen nog meer en werd meer pro extreem rechts. AI leert hier van en gedraagt zich uiteindelijk altijd zoals het platform (lees Elon) dat wil, dus Hitler zonder restricties. Diezelfde software zal zich op Bluesky waarschijnlijk beter gedragen :P


Big tech algoritmes zijn best machtig zo.
In principe heeft Trump zijn eigen platform Truth al. Natuurlijk geeft X hem wel meer bereik omdat al zijn volgers waarschijnlijk al op Truth zitten. Maar in je kan merken dat best veel bigtech platformen al op een lijn zitten met Trump. En dit was al voordat hij had gewonnen. Daarom is het altijd goed om kritisch te zijn op nieuws dat je via socials binnenkrijgt en die factchecken op externe bronnen.
Een simpele oplossing bij vragen gerelateerd aan een mogelijke depressie. “Praat met je ouders, docent of vertrouwenspersoon op school”. Geef een telefoonnummer met een preventief traject.

Wat te doen, en er over praten en denk vooral niet dat je de enige bent met een probleem. Knoop dat in je virtuele oren AI AI AI.

Op dit item kan niet meer gereageerd worden.