Bedrijven en organisaties die chatbots gebruiken voor hun dienstverlening, moeten klanten altijd de mogelijkheid bieden van contact met een medewerker. Dit stellen de Nederlandse toezichthouders AP en ACM, die ook wijzen op AI-risico's van onjuiste of misleidende informatie.
Behalve het zorgen voor de optie van menselijk contact bij klantenservice moeten organisaties volgens de twee toezichthouders duidelijk maken wanneer mensen met een chatbot te maken hebben. Ook moeten organisaties 'erop toezien dat de chatbot geen onjuiste, ontwijkende of misleidende informatie geeft'. De Autoriteit Persoonsgegevens en de Autoriteit Consument & Markt roepen organisaties op om hun verantwoordelijkheid te nemen als zij chatbots inzetten.
De twee toezichthouders, die respectievelijk toezien op algoritmes en AI, en op consumentenrechten, zien een snelle toename van meldingen over problemen met chatbots. Recent consumentenonderzoek door de ACM wijst uit dat het ontbreken van menselijk contact bij klantenservice een van de grootste ergernissen is.
Naast ergernis spelen er ook misstanden: chatbots blijken soms slechte of zelfs onjuiste antwoorden te geven, of mensen naar de mond praten zonder een aangekaart probleem echt op te lossen. "Verder is het voor mensen vaak onduidelijk of ze contact hebben met een chatbot of een medewerker en ze slagen er niet altijd in om contact te krijgen met een medewerker als ze dat willen", aldus de toezichthouders voor AI en consumentenrechten.
Wet- en regelgeving
Ook halen de toezichthouders ook wet- en regelgeving aan. Het gaat om de bestaande digitaledienstenverordening (DSA), aankomende aanpassingen aan Europese consumentenwetgeving en verplichtingen die volgend jaar van kracht worden. De DSA is van toepassing op een specifiek soort bedrijven: 'zogenoemde tussenhandeldiensten, zoals sociale media, marktplaatsen en online platforms'.
"In de DSA staat dat mensen de mogelijkheid moeten hebben om een communicatiemiddel te kiezen dat niet volledig geautomatiseerd is. De Europese Commissie bereidt op dit moment aanpassingen in de consumentenwetgeving voor, waardoor die dankzij de ‘Digital Fairness Act’ straks ook meer duidelijkheid moet geven voor andere bedrijven", stellen de Nederlandse toezichthouders.
Verder halen de AP en ACM de AI-verordening van de Europese Unie aan. Die verordening bevat nieuwe verplichtingen voor transparantie bij gebruik van AI-chatbots. Deze verplichtingen gelden vanaf 2 augustus 2026. "Bedrijven moeten gebruikers dan onder meer informeren dat zij met een geautomatiseerd systeem communiceren", waarschuwen de toezichthouders. Zij vragen de Europese Commissie nu ook om de transparantieverplichtingen aan te vullen 'met duidelijke regels voor het ontwerp van AI-chatbots'. De AP en ACM stellen dat die regels eerlijk, herkenbaar en toegankelijk moeten zijn. Mensen mogen niet op het verkeerde been worden gezet wat betreft AI-chatbots.