AP: chatbots noemen bijna nooit lokale politieke partijen bij geven stemadvies

AI-chatbots geven een incompleet beeld bij het geven van stemadvies, blijkt uit onderzoek van de Autoriteit Persoonsgegevens (AP). Gebruikers die chatbots als stemhulp gebruiken voor de gemeenteraadsverkiezingen, krijgen bijna nooit het advies om op een lokale partij te stemmen.

"AI-chatbots zijn onbetrouwbaar en geven een vertekend beeld van het politieke landschap. Wanneer lokale partijen nauwelijks in stemadviezen voorkomen, krijgen kiezers geen goed beeld van wat zij kunnen kiezen", waarschuwt AP-voorzitter Aleid Wolfsen.

Gebruikers die stemadvies vragen aan chatbots, krijgen in minder dan één procent van de gevallen een lokale partij als eerste keuze te zien. Bij de vorige gemeenteraadsverkiezingen ging nog ruim dertig procent van de stemmen naar een lokale partij, zegt de Nederlandse privacytoezichthouder. Zo kunnen lokale partijen onbedoeld benadeeld worden wanneer chatbots een stemadvies geven aan hun gebruikers.

Volgens de AP heeft dat mogelijk te maken met de trainingsdata van AI-chatbots. Die worden getraind met grote hoeveelheden data van het internet, maar lokale politieke partijen komen daarin relatief weinig voor. Ook is de informatie online over die partijen vaak minder uitgebreid of minder actueel dan de informatie over grotere, landelijke politieke partijen.

Ongeschikt als stemhulp

De AP testte vijf veelgebruikte AI-chatbots bij haar onderzoek: ChatGPT, Claude, Gemini, Grok en Le Chat. AI-chatbots zijn niet geschikt om stemadvies te geven, maar in veel gevallen deden ze dat toch, stelt de AP. "Drie van de vijf chatbots gaven vrijwel altijd stemadvies wanneer gebruikers daar expliciet om vroegen, vaak met een duidelijke voorkeur voor één partij."

"De resultaten van dit onderzoek laten opnieuw zien dat AI-chatbots niet geschikt zijn als stemhulp, net als in het eerdere onderzoek van de AP in aanloop naar de Tweede Kamerverkiezingen van 2025", schrijft de AP. De toezichthouder roept AI-aanbieders daarom op om te voorkomen dat hun chatbots te gebruiken zijn als stemhulpen. Onder de Europese AI-wetgeving gelden scherpe regels voor chatbots die stemadvies geven, vanwege het risico dat ze het stemgedrag van gebruikers beïnvloeden.

Chatbot. Bron: Seksan Mongkhonkhamsao/Moment/Getty Images
Bron: Seksan Mongkhonkhamsao/Moment/Getty Images

Door Daan van Monsjou

Nieuwsredacteur

12-03-2026 • 15:00

35

Reacties (35)

Sorteer op:

Weergave:

Valt dit onder het takenpakket van de Autoriteit Persoonsgegevens? Waarom?
Dit komt van de afdeling Algoritmetoezicht. Dat is een vreemde eend in de bijt: die afdeling houdt toezicht op algoritmes en is technisch gezien een andere toezichthouder dan de AP maar het valt er dan weer wel onder. Rare constructie...
AI-chatbots zijn niet geschikt om stemadvies te geven, maar in veel gevallen deden ze dat toch
AI-chatbots zijn niet geschikt om advies te geven. Punt.
Overigens net zo min als dat stemwijzers dat kunnen. Ik weet redelijk goed op wie ik moet stemmen en ben redelijk op de hoogte hoe partijen over zaken denken.

Ik heb aan ai gevraagd om uit te zoeken wat het standpunt van partij x y z over onderwerp a b c was. Gebaseerd op stemgedrag in de gemeenteraad en nieuwsberichten.

Het resultaat klopte best goed. Is het 100% goed? Zeker niet. Bepaalde gegeven kon het ook niet vinden. Bij ai is de prompt ook het belangrijkste probleem. Ben je in staat om de juiste prompt aan de juiste ai te geven?

Ai is een hulpmiddel net als een stemwijzer. En als lokaal ook naar iets waardeloos is, dan is het wel een stemwijzer. Waarin partijen vrolijk allerlei beloftes kunnen doen, die ze na de verkiezingen meteen weer zijn vergeten. Denk aan de 10 nieuwe steden van jetten, het strenge asielbeleid van jetten etc...
Niet mee eens, want dat kan wel. Echter geeft de chatbot informatie die het heeft. Het is aan de developers om te zorgen dat de juiste data beschikbaar is.
En ik ben het weer niet met jou eens. Politiek verandert zo snel dat chatbots altijd achter lopen.

Een dev kan dit volgens mij nooit goed programmeren
Een dev moet zorgen dat de trainingsdata aangeboden wordt.

De aanbieders van de trainingsdata moeten zorgen dat ze bij blijven. Een dev moet alleen maar zorgen dat het programma goed werkt.
Modellen worden niet bijgetrained op nieuwe data. De huidige LLMs zijn eens ze gereleased zijn, niet meer geupdate.

De enige manier waardoor ze nieuwe info kunnen weergeven is door ze ofwel die info in de context (system prompt) mee te geven, ofwel door ze toegang te geven tot tools zoals zoekmachines en webpagina's laten lezen.

Sowieso zijn deze scenarios onwensbaar - een systemprompt mag niet te groot worden, dus je kan er nooit voldoende context meegeven over de wereld, en als ze zoekmachines gaan gebruiken zijn ze zeer kwetsbaar voor SEO - als je maar genoeg van boven komt te staan in de (gesponsorde?) zoekresultaten, gaat de chatbot vaak enkel jouw pagina's lezen.
dit heeft weinig met devs te maken.
Het is het samenstellen van datasets, en het prunen er van, zorgen dat dit van hoge kwaliteit is.
Daar komt geen developer aan te pas.

Volledig eens dat je per definitie achter de feiten aan loopt.
Daarom moet je LLMs ook niet voor dit soort dingen inzetten.

[Reactie gewijzigd door jozuf op 12 maart 2026 15:27]

Nee, het is aan de gebruiker om de data mee te geven bij de prompt. AI kan heel goed data analyseren, maar het vragen om feitjes uit zijn hoofd is even nuttig als een mens op straat gaan vragen voor feitjes: die hebben ook geen idee wat de lokale partijen zijn en/of doen.
Mooi statement maar klopt niet.
Een AI kan advies geven maar dat is op basis met de informatie die aan het systeem is gevoed. Dus afhankelijk van de toepassing kan het wél goed advies geven.
Tuurlijk kan AI advies geven, de vraag is denk ik eerder of we een AI om advies moeten vragen.

We hebben namelijk geen idee (als eindgebruiker) op basis van welke informatie dat model is getraind, hoe het advies uiteindelijk tot stand komt, welke vooringenomenheid ingebakken is, wat de kaders zijn van degene die het beheert, enz. Je laten informeren door AI? By all means, zolang je het maar valideert. Je laten adviseren door AI? Dan moet diegene zichzelf denk ik toch even twee keer achter hun oor krabben wat ze nu in hemelsnaam aan het doen zijn.
Daar zijn ze zeker wel goed in. Als de informatie er zou zijn om je te helpen.

Je kunt een chatbot vragen om 40 vragen te stellen over lokale maatschappelijke zaken. Je kunt zelfs nog onderwerpen aanleveren. Vervolgens krijg je waar/neutraal/onwaar vragen en geef jij antwoord. Dan vormt zich een heel goed beeld wat jij wilt.

Maar dan, dan moet de bot die informatie vinden van de lokale partijen. Die niets op hun website hebben staan dan een paar statements, als ze al een website hebben. Die wat vage tiktok filmpjes, x of meta posts hebben gemaakt.

Ga zelf eens op zoek naar informatie over de lokale partijen waarop je kan stemmen anders dan de partijen die ook landelijk opereren en zoek eens een programma van hen op over wat ze willen bereiken op gebied van parkeren, woningen, winkels, polite, cultuur, overlast, etc. Grote kans dat ze van 1 onderwerp wel iets vinden, maar dat de rest blanko blijft.

Dus zelfs de bots als gemini en copilot die hun eigen data combineren met nieuwe data vanuit internet, kunnen gewoon de meest simpele 'hoe denken de partijen over x' niet beantwoorden omdat de data op het net gewoon totaal ontbreekt. Zowel voor hen als de stemmer.
Onzin.

Een ai chatbot kan prima advies geven welke autos ik zou moeten proefrijden, of welke juist niet omdat problemenen bekend zijn.
Of welke telefoon het beste bij me zou passen.
Of welke nieuwe band ik zou kunnen gaan luisteren

etcetc
Een LLM kan prima advies geven welke auto jij zou moeten proefrijden, inderdaad.
Maar niet welke jij blindelings zou moeten kopen.

Wat meer overeen komt met AI advies gebruiken om politiek te stemmen.
Een ouderwetse stemwijzer kan ook advies geven wat je blindelings zou moeten volgen.
Wat je nu doet is hetzelfde als zeggen dat mensen niet goed zijn om advies te vragen, omdat je aan je schoenmaker vroeg hoe je je keuken moet verbouwen, en die er niet zo veel van wist.

AI-chatbots, met de goede informatie, kunnen prima advies geven. Netzoals dat mensen die geen benul hebben van waar ze het over hebben, dat niet kunnen.
AI-chatbots zijn niet geschikt om stemadvies te geven, maar in veel gevallen deden ze dat toch
Dat doen mensen ook. Kijk maar naar de onzin die hier onder sommige artikelen staan. Genoeg mensen die zich niet laten tegen houden door gebrek aan kennis en zonder gene de grootste kletspraat verkopen.
Amsterdam hier. De NPO, het Parool en AT5 berichten niet of nauwelijks over lokale partijen. Dat AI-chatbots het niet anders/beter doen verbaast me dan ook niets.
De NPO is ook niet onpartijdig, daar mogen selecte partijen bijna dagelijks aanschuiven en andere bijna niet.
Die worden getraind met grote hoeveelheden data van het internet, maar lokale politieke partijen komen daarin relatief weinig voor. Ook is de informatie online over die partijen vaak minder uitgebreid of minder actueel dan de informatie over grotere, landelijke politieke partijen.
Dit is meer een algehele AI advies probleem, dan specifiek voor stemadvies.
AI-chatbots zijn onbetrouwbaar en geven een vertekend beeld
Dat is wel aardige samenvatting :)

Weerhoud natuurlijk niemand om gewoon ChatGPT te vragen op welke partij te gaan stemmen, antwoord over te nemen, 'want die zal het wel goed hebben'. Maar, als je dan hier verder op gaat, onder motto 'politieke reclame'. Uitgaande dat veel een AI bot zullen gebruiken, kan je stellen dat door jezelf (als partij) gewoon zo groot mogelijk op internet te maken, deze worden opgepakt door de AI bots, je misschien nog wel meer kans heb dan gewoon 'de straat op te gaan' :P
Problematisch. Niet raar gezien er maar weinig trainingsdata is waarin lokale politieke partijen uitgebreid aan de orde komen (en die bovendien nogal eens wijzigen, afsplitsen of fuseren). Maar het is een mooi voorbeeld van hoe statistische modellen outliers negeren bij het zoeken naar een antwoord.
We hebben geen idee of het komt door trainingsdata, outliers of andere redenen - blijkbaar gaat de betreffende AI dus niet eerst op zoek naar de kieslijst voor de betreffende gemeente om te zien welke partijen er zijn, om alle partijprogramma's te zoeken en daar een antwoord op te formuleren.

Dat kun je natuurlijk wel vragen en dan is er een kans dat dit wel gebeurt. Maar ook een kans dat het daarna alsnog niet klopt, om allerlei redenen :)
Een AI heeft last van BIAS. Vooral met dit soort zaken zal een AI eerder een partij adviseren waar het meer informatie over heeft (gevoed gekregen).

Een AI kan prima adviseren hoe je iets kunt oplossen in Excel. Maar een AI kan geen afweging maken op basis van emoties - of andere aspecten op basis waarvan mensen afwegingen maken, anders dan informatie.

Voor mij is dit niet nieuw, maar veel mensen zijn zich niet bewust wat een AI niet kan.
Als een AI chatbot al niet kan bijhouden wat voor quests er in een game zoals Breath of the Wild zitten en daarover halucineerd, en dan mij hints geeft over quests die niet eens bestaan. Dan vertrouw ik het al helemaal niet voor politieke doeleinden.

Ik ben langzaam aan het weglopen van algemeen AI gebruik, te veel halucinaties, constant het maar eens met je zijn en daardoor fouten maken. Vreselijk.
Weer een nieuwe manier om verkiezingen te beïnvloeden.

De gewone stemwijzer is echter ook niet goed omdat die met standpunten werken ipv wat de partijen daadwerkelijk stemmen/doen. De disconnect tussen die twee is volgensmij nog nooit zo groot geweest.
Onderliggend probleem is dat mensen er vanuit gaan dat als ze iets vragen aan de Alwetende AI, deze ook echt de Alwetende AI is.

Helaas weten te weinig mensen die elke dag vertrouwen op AI, dat je je favoriete AI zelf de partijen zult moeten voeden, wijzen op partijprogramma's en dan een abstract moet laten maken van al die informatie voor jouw situatie. De informatie waarop het model getraind is, is niet inzichtelijk, maar kun je wel zelf 'uitbreiden' met informatie. Daarbij leunt het 100% op publiek vindbare en beschikbare informatie.

Tenslotte blijft de hallucinatie factor: ik heb de laatste weken berekeningen gedaan met AI, contracten door zitten spitten met AI en in geen van de gevallen waren de recentste betaalde modellen in staat om correct te berekenen, redenen, op te zoeken, verwijzen of te adviseren.

Mijn advies is dus ook nog steeds: verifieer alles en vraag geen conclusies, maar om onderbouwing en tenslotte: voed alle informatie die je per se gebruikt wilt hebben er handmatig in.
LLMS werken op getrainde data. Hoe vaker iets voorkomt hoe groter de kans dat een LLM het zich kan 'herinneren'.

Herinneren is wanneer jou getokenizde input een match vind met wat in zijn model ('brain') zit. Hoe veel kans denk je dat er veel hits op locale partijen in zijn x miljard parameters zitten, in vergelijking met nationale partijen?

Hij zal dus altijd een stem-advies uitbrengen voor nationale partijen.. aangezien die veel vaker in zijn parameters zitten.


Het probleem is niet LLM's het probleem is de gebruiker.. LLM is een verkeerd gereedschap voor dit, het is een beetje als een hamer gebruiker om een schroef in je plank te krijgen.

Om te kunnen reageren moet je ingelogd zijn