De Amerikaanse Federal Trade Commission is een onderzoek begonnen naar AI-chatbots van bedrijven als Meta, Google en OpenAI. De FTC wil weten hoe deze bedrijven toezicht houden op de mogelijk negatieve effecten van digitale assistenten voor minderjarigen.
Het onderzoek van de FTC richt zich op AI-chatbots die als 'gezelschap' dienen, waardoor er volgens de toezichthouder vooral bij jongere gebruikers de kans bestaat dat ze er een hechte band mee vormen. De FTC wil onder meer weten in hoeverre AI-bedrijven stappen ondernemen om het gebruik van chatbots door minderjarigen te beperken, om de potentieel negatieve effecten van chatbots op kinderen te beperken en om gebruikers en ouders op de hoogte te stellen van dergelijke risico's.
De waakhond heeft informatieverzoeken gestuurd naar Google, Meta, OpenAI, Snap, xAI en het bedrijf achter de rollenspelchatbot Character.AI. De bedrijven hebben tot en met 25 september de tijd om antwoord te geven op de vragen van de FTC.
In een verklaring stelt de Federal Trade Commission dat er steeds meer meldingen zijn dat chatbots suïcide aanmoedigen bij onder meer minderjarige gebruikers. Daarbij geeft de FTC het voorbeeld van de zestienjarige Adam Raine, die eerder dit jaar overleed door zelfdoding na maandenlang intensief gebruik van ChatGPT. De chatbot had hem in de maanden daarvoor van allerlei informatie over zelfdoding voorzien, waaronder de geschiktste materialen voor een strop. Ook de recente meldingen van chatbots die seksueel getinte gesprekken voeren met minderjarigen zijn volgens de FTC aanleiding voor dit onderzoek.
Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.