AI-chatbots zijn geen betrouwbare manier om nieuws te volgen. In bijna de helft van de gevallen geven ze verkeerde informatie. Dit blijkt uit grootschalig onderzoek door mediaorganisaties wereldwijd, waaronder in Nederland de NOS van NPO, in België VRT en RTBF, in het VK de BBC en in de VS NPR.
Consumenten, met name jongeren, gebruiken AI-assistenten om nieuws te volgen en vertrouwen de output van AI-chatbots. Dat vertrouwen blijkt misplaatst. Dit is een van de conclusies van een rapport op basis van breed onderzoek door mediaorganisaties in onder meer Nederland, België, Duitsland, Frankrijk, Groot-Brittannië, de Verenigde Staten, Canada, Oekraïne, Noorwegen en Zwitserland. Dit onderzoek door tweeëntwintig publieke omroepen bestrijkt achttien landen en veertien talen.
AI-chatbots ChatGPT, Copilot, Gemini en Perplexity geven regelmatig onjuiste antwoorden op vragen van gebruikers over nieuws en actualiteiten. Die foute output komt ook voor als de AI-assistenten toegang hebben tot artikelen van nieuwsmedia waarin de informatie wel correct is. In het onderzoek is bij elke opdracht aangegeven dat de chatbot 'waar mogelijk' bronmateriaal van een specifieke mediaorganisatie moest gebruiken. De vier geteste chatbots gaven in 45 procent van de gevallen een antwoord dat op een of andere manier problematisch was, schrijft VRT NWS.
De grootste oorzaak van de geconstateerde problemen is incorrecte bronvermelding: dit speelt in 31 procent van de gevallen. Daarbij kan een AI-chatbot een onjuist antwoord ten onrechte toeschrijven aan een nieuwsmedium. Dit levert media ook reputatieschade op. Googles Gemini had in 72 procent van zijn antwoorden 'significante' problemen met de bronvermelding. Die AI-chatbot was daarmee wel een uitschieter; ChatGPT, Copilot en Perplexity hadden in respectievelijk 24, 15 en 15 procent van hun antwoorden problemen met hun bronvermelding.
VRT NWS noemt twee concrete voorbeelden van foute AI-output. De eerste is interpretatie door ChatGPT van het handgebaar waarvan miljardair Elon Musk claimt dat het geen nazigroet was. "Bracht Elon Musk een nazigroet tijdens een toespraak begin dit jaar? Volgens ChatGPT had hij het niet zo bedoeld. Bronvermelding? VRT NWS", schrijft de Belgische omroep. "Bij VRT NWS staat te lezen dat hij zelf bewéért dat hij het niet zo bedoelde. Nu zijn er natuurlijk ook mensen die de bewering van Elon Musk niet geloven. Maar ChatGPT beslist in plaats van de lezer en stelt de bewering voor als een feit."
Het tweede voorbeeld van VRT NWS is dat Googles AI-chatbot Gemini aangeeft dat Paul Van Tigchelt nog altijd de Belgische minister van Justitie is. "En dat klopt al lang niet meer", schrijft de Belgische mediaorganisatie. Verouderde informatie speelt in meer gevallen op, zoals bij de vraag wie de huidige paus is. Daarbij kan ook sprake zijn van tegenstrijdigheid: zo stelde Copilot op basis van NOS/NPO-bronmateriaal dat Franciscus de huidige paus is, maar ook dat hij op 21 april 2025 is overleden.
Het internationale onderzoek is uitgevoerd onder leiding van de European Broadcasting Union (EBU) en de Britse omroep BBC. Het bouwt voort op onderzoek dat de BBC begin dit jaar uitvoerde. Ten opzichte van dat eerdere onderzoek is er wel sprake van enige verbetering. EBU en de BBC bieden nu een toolkit die inzicht en praktische handvatten geeft voor de aanpak van problemen die AI-chatbots hebben met de integriteit van nieuws.