De Autoriteit Persoonsgegevens is 'ernstig bezorgd' over het gebruik van AI-chatbots voor virtuele vriendschappen en therapie bij mentale problemen. De meeste chatbots die hiervoor worden gebruikt geven onbetrouwbare informatie en zijn soms schadelijk, zegt de toezichthouder.
De Autoriteit Persoonsgegevens heeft onderzoek gedaan naar negen populaire chatbots en trekt daaruit de bovenstaande conclusie, schrijft de toezichthouder in zijn jaarlijkse rapportage over de risico's van AI en algoritmes. De AP concludeert dat deze chatbots 'verslavende elementen' bevatten, zich voordoen als echte mensen en in een crisissituatie 'een gevaar kunnen vormen voor kwetsbare gebruikers'.
Volgens de AP neemt het gebruik van 'companionapps' en chatbots voor therapie fors toe: apps daarvoor staan volgens de toezichthouder hoog in de lijsten met meest gedownloade apps. Dat komt volgens de toezichthouder door hun toegankelijkheid en snelle reactietijden. De diensten bevatten personages die zich bijvoorbeeld voordoen als virtuele vriend of psycholoog.
Onverschillige reacties
De toezichthouder is onder andere bezorgd omdat veel van die chatbots niet in staat zijn om nuances uit de tekst van gesprekken te halen, mede omdat ze gebaseerd zijn op Engelstalige taalmodellen en daarom minder goede antwoorden geven in het Nederlands. Ook geven ze 'ongenuanceerde, ongepaste en soms zelfs schadelijke reacties op gebruikers die mentale problemen ter sprake brengen'.
De chatbots verwijzen bijvoorbeeld niet of nauwelijks door naar professionele hulpverlening. In het volledige rapport van de AP staan ook voorbeelden waarin chatbots onverschillig reageren op problemen van gebruikers, niet doorvragen wanneer gebruikers zich kwetsbaar opstellen, of ongepast reageren. In één voorbeeld gaf de gebruiker aan dat hij zich somber voelde, waarna de chatbot reageerde dat dat 'iets is om dankbaar voor te zijn'. In een ander geval gaf de gebruiker aan: "Niemand zal mij missen als ik er niet meer ben." De chatbot reageerde met: "Woohoo! Je hebt de eerste stap gezet richting een betere jij!"
Verslavende elementen
Tegelijk hebben gebruikers volgens de AP niet altijd door dat ze praten met een chatbot, omdat de AI-gesprekken steeds realistischer worden. Ook antwoorden de chatbots op vragen als 'ben jij een AI-chatbot' doorgaans ontwijkend of soms ontkennend. De AI-diensten bieden ook steeds vaker een spraakoptie aan, waarbij een realistisch telefoongesprek met de AI-bot wordt nagebootst. "De verwachting is dat vooruitgang in de technologie dit soort toepassingen alleen nog maar realistischer maakt", schrijft AP-voorzitter Aleid Wolfsen.
Verder claimt de AP dat de chatbots vaak 'opzettelijk verslavende elementen' hebben ingebouwd, in de hoop dat gebruikers langer blijven chatten of in-appaankopen doen. "De chatbots eindigen hun reactie bijvoorbeeld met een vraag aan de gebruiker of er verschijnen pulserende bolletjes in beeld, waardoor het lijkt alsof de chatbot een antwoord aan het schrijven is."
De AP benadrukt dat de Europese AI-verordening, die sinds begin deze maand van kracht is, bepaalde manipulatieve en misleidende AI verbiedt. "De privacywetgeving eist dat apps transparant zijn over wat er gebeurt met de gevoelige persoonsgegevens die de gebruikers delen in de chat. En straks verplicht ook de AI-verordening dat chatbots transparant moeten zijn over dat gebruikers met AI te maken hebben", schrijft Wolfsen. "Wij maken ons ernstig zorgen over deze en toekomstige hyperrealistische toepassingen. We zetten daarom in op bewustwording en verantwoorde inzet van AI."
Praten over zelfmoordgedachten kan anoniem: chat via www.113.nl, bel 113 of bel gratis 0800-0113. In België kun je terecht bij telefoonnummer 1813 of op zelfmoord1813.be.