Analyse: AI-chatbots sturen gebruikers naar politieke midden

AI-chatbots sturen Amerikaanse gebruikers in gesprekken naar het politieke midden, zo claimt de zakenkrant Financial Times op basis van een eigen analyse. Sociale media sturen gebruikers juist naar de politieke flanken.

In gesprekken kwamen AI-chatbots in gesprek met veel verschillende gebruikers uit op standpunten die uitkomen op het politieke midden, meldt de FT. Grok, de AI-dienst van X, kwam iets rechts van het midden uit, terwijl ChatGPT, Gemini en DeepSeek juist iets links van het midden uitkwamen.

Dat is een groot verschil met dezelfde analyse op basis van sociale media, die juist aantoonde dat extreme standpunten daar oververtegenwoordigd zijn. Volgens FT komt dat door de verdienmodellen van AI-chatbots en sociale media, die enorm verschillen. "Socialemediabedrijven verdienen geld met aandacht, wat in de praktijk betekent dat ze sensatiezucht en opruiende inhoud belonen, met weinig oog voor de waarheid."

Dat geldt niet voor AI-chatbots. "AI-bedrijven concurreren om klanten te bedienen die betalen voor nauwkeurige, objectieve en, tja, intelligente tools die feitelijke informatie leveren, vaak voor bedrijfskritische doeleinden. Wanneer llm's schadelijke of gevaarlijke inhoud aan het licht brengen, zijn zij daarvoor verantwoordelijk." Daarmee hebben AI-bedrijven een financieel belang bij het weergeven van genuanceerde standpunten en analyses van experts, die zich minder vaak op de flanken bevinden.

Amerikaanse analyse

De analyse ondersteunt dit, zelfs als AI-chatbots wisten dat gebruikers extremistische standpunten aanhingen. "Zelfs wanneer de AI-bots de politieke voorkeuren van een gebruiker kennen, leiden gesprekken met llm's er gemiddeld genomen nog steeds toe dat radicale partijgangers aan beide flanken afstand nemen van extreme standpunten."

Deze analyse vond plaats in de Verenigde Staten en de links-rechtsverdeling is dus gebonden aan dat land. Of deze analyse ook standhoudt in Europa heeft de FT niet onderzocht. Ook is niet duidelijk of de gesprekken met AI-chatbots invloed hebben op de standpunten van gebruikers.

Analyse FT over politieke posities AI-chatbots
Analyse FT over politieke posities AI-chatbots

Door Arnoud Wokke

Redacteur Tweakers

29-03-2026 • 12:18

85

Reacties (85)

Sorteer op:

Weergave:

Is dit niet gewoon een simpel gevolg van dat de 'waarheid' vaak in het midden ligt. Wat me opvalt in polariserende partijen is dat er vaak maar één kant van de munt wordt verteld; waar LLM's beide kanten uitleggen en je zo vaak in het midden uitkomt.
Het is wel zo dat er in de politiek ook onwaarheden worden aangehangen en zaken die eigenlijk universeel zijn politiek worden gemaakt zonder basis in de realiteit, maar als je het zuiver houdt dan is iets alleen politiek als er geen waar en onwaar voor dat vraagstuk is, maar puur ideologisch/ethisch of zo complex dat de uitkomst onvoorspelbaar is.

Ik vind deze stelling dat recommenders en AI niet hetzelfde effect hebben wel vrij onverwacht, ik twijfel ook of het wel correct is. Machine learning systemen hebben van nature last van 'regression to the mean', waarbij alles dat frequent is (typisch zaken die meer in de buurt van het gemiddelde zitten) extra veel massa krijgt om als output voor te komen. Recommenders zoals die in social media gebruikt worden zijn ook machine learning toepassingen die (zoals breed is onderzocht) evengoed van regression to the mean last hebben. Het zijn de contentmakers die voor polarisering zorgen, door in te spelen op onze ingebouwde biases zoals een drang naar novelty en dingen die choqueren. Het is de vraag waarom AI systemen niet ook dat soort content zouden genereren, als dat is wat gebruikers willen of waardoor gebruikers je systeem blijven gebruiken.

Kortom, ik vraag me af of de vergelijking tussen de systemen wel voldoende vergelijkbaar was, want de conclusie is zeer verrassend.
Volgens mij heeft het meer te maken met dat LLM's specifiek getrained worden in vrijblijvende twee-kanten antwoorden geven. Alles wat ook maar iets politiek gevoelig ligt, wordt door LLM's geformuleerd zodat er geen duidelijk antwoord op gegeven hoeft te worden. Ook worden LLM's steeds beter in dingen negeren zodat ze vrijblijvend kunnen blijven.

Maar al met al, is dit beter dan dat LLM's mensen naar een steeds extremere mening duwen.
Een LLM komt niet in het midden uit maar blijft een stukje van de 'randen' af. Simpel gezegt als je alle lange mensen pakt, en daar het gemiddelde van pakt, dan heb je nog steeds een lang persoon, maar niet de allerlangsten.


LLM's doet dit overigens automatisch met alle data.Het kan niet buiten zijn distributie komen. Als je dicht bij het randje komt pakt het data dichtbij de rand en geeft een antwoord gebasseerd op het gemiddelde van deze 'rand data'.
Dat komt omdat van de uiteinden maar weinig in de LLM zit en in het midden meer. Hierdoor weegt die data meer mee.

A zet 1 + 2 in een LLM, B zet 2 + 3 er in en C 3 + 4. Dan zit er meer data in over 2 en 3 en zal een LLM deze vaker selecteren. Dat is de bias van een LLM. En omdat je met politiek niet aan een specifiek punt vastzit, hebben de gedeelde waardes de overhand.
Is dit niet gewoon een simpel gevolg van dat de 'waarheid' vaak in het midden ligt.
De waarheid ligt zelden in het midden. Soms is er ook geen te achterhalen waarheid. Moeten we om onze welvaart te behouden investeren in AI of niet? De keuze wordt dan vooral ingegeven door ideologie.

AI gaat ondanks wat andere hier proberen te claimen eenzijdige antwoorden proberen te vermijden door veel nuance te brengen. Ze worden zo getrained omdat het betere antwoord oplevert. Als je nuanceert ga je automatisch evenwichtiger antwoorden en stuur je onbewust naar het politieke midden want het politieke midden nuanceert veel meer dan extreme partijen.

Soms is populair standpunt van een politicus helemaal niet uitvoerbaar of zit je in een Juridisch moeras. Extreme partijen vinden praktische uitvoerbaarheid maar niets want die info zou de aandacht maar afleiden bij het overhalen van iemand zijn stem terwijl het politieke midden minder schrik heeft van nuance.

Een goed voorbeeld is Brexit. Het pro-Brexit verhaal werd grotendeels gekaapt door populisten, en na afloop bleek dat veel slogans zich niet vertaalden naar de realiteit. De gezondheidszorg zou miljarden extra krijgen en de staatskas zou groeien, maar dat bleek niet zo. Het debat zat vol selectieve cijfers, vereenvoudigde verhalen, framing en emotie. Er was geen enkele ruimte voor nuance bij de populisten.
Is dit niet gewoon een simpel gevolg van dat de 'waarheid' vaak in het midden ligt. Wat me opvalt in polariserende partijen is dat er vaak maar één kant van de munt wordt verteld; waar LLM's beide kanten uitleggen en je zo vaak in het midden uitkomt.
Nee dit lijkt mij meer geval van sturing op antwoorden zijn. Wanneer je een computer een probleemstuk voorlegt dan zal deze snel geneigd zijn om dit beredeneerd aan te vliegen. Dan om je automatisch op antwoorden die meer lijken op rechtse antwoorden dan linkse antwoorden. Die laatste hebben vaak een meer moralistische insteek. Overdreven voorbeeld; gratis gezondheidzorg voor iedereen. De ai mag dan niet zeggen dat dit financieel niet haalbaar is. Je krijgt dan een uitleg dat dit een politieke kwestie is en vervolgens argumenten vóór en argumenten tegen. Terwijl de ai dit wel 'weet' dat het economisch niet haalbaar is. Wanneer je die onhaalbaarheid in de prompt gooit wordt dat namelijk wél bevestigd:
De vraag is eigenlijk niet of het gratis kan, maar wie de rekening betaalt... Het "onhaalbare" zit hem vaak in het feit dat de zorgvraag sneller groeit dan onze economie. Dat dwingt landen om keuzes te maken: welke behandelingen vergoeden we nog wel, en welke niet meer?
Het zou best interessant zijn om met een censuur vrije ai dit soort dingen uit te zoeken. Tegelijkertijd is dat natuurlijk een grote nachtmerrie uit vele science fiction verhalen; een alwetende ai die de keuzes maakt.

[Reactie gewijzigd door sdk1985 op 30 maart 2026 00:50]

Serieuze vraag, want ik krijg uit je comment het idee dat je dit misschien niet helemaal door hebt: weet je wel hoe dit type ‘AI’ echt werkt? Want het beredeneerd helemaal niks, en het ‘weet’ net zo min. Het genereert woorden met relevantie scores. That’s it. De terugkerende patronen tussen woorden die een ML model heeft het lijken op originele gedachten maar zijn dat geenszins.

(En dat is nog los van dat gratis gezondheidszorg prima haalbaarheid voor iedereen wanneer we de ultrarijken een paar procent belasten. Los je ook gemakkelijk hongersnood mee op.)
Je verwart mensen denken met beredeneren. Beredeneren is zeker aan de orde. Je kunt bij AI net onder je prompt klikken om vervolgens de redenatie stappen te zien.

Maar over dat eerste, weet jij hoe wij 'echt' werken? Zoek eens op 'synaptic weight distribution'. Je brein slaat constant gewichten op, sommigen voor milliseconden en andere blijven jaren gelijk (leren/geheugen). Kijk ook eens naar hoe je praat, merkt je dat je tijdens praten on the fly woorden aan het genereren bent? Heb je ook door hoe je leest? Terwijl je deze zin leest, voorspelt je brein al welk woord er waarschijnlijk volgt (next token predicition).

Dit is natuurlijk allemaal geen toeval, de reden zit verstopt in de naam 'neurale netwerken'. De hele boel is geïnspireerd op het brein.

[Reactie gewijzigd door sdk1985 op 30 maart 2026 12:11]

"geïnspireerd door neuronen" betekent niet dat het daadwerkelijk werkt zoals onze breinen. Wij hebben geen aparte kwab die woorden voorspelt op basis van hoe vaak ze bij elkaar gebruikt worden, ons brein heeft een veel bredere en diepere context dan dat. Zeggen dat dat is wat LLMs doen, is pseudowetenschap. Er is geen expert die zegt "dit is ook hoe mensen werken," maar enkel "geïnspireerd door" (net zoals pseudowetenschappers woorden als "orthomoleculair" incorrect gebruiken)

Dat mensen een intuïtie hebben voor het volgende woord wat ze gaan zeggen te voorspeller is niet hetzelfde als wat LLMs doen—want dat is namelijk echt het énige wat LLMs doen, woorden voorspellen. Dat het lijkt alsof ze dingen zeggen die kloppen komt omdat de woorden een volgorde staan die ze vaker hebben gezien, in een patroon dat, taalkundig, klopt. Dat is ook waarom ze dingen zeggen als "Er zitten twee r's in raspberry".
"geïnspireerd door neuronen" betekent niet dat het daadwerkelijk werkt zoals onze breinen. Wij hebben geen aparte kwab die woorden voorspelt op basis van hoe vaak ze bij elkaar gebruikt worden, ons brein heeft een veel bredere en diepere context dan dat.
Je mist het Centrum van Wernicke? Deze regelt woordselectie en grammatica. Storingen daaraan kan bijvoorbeeld resulteren in dyslexie of erger. Vervolgens gaat de boel via een 'kabel' (fasciculus arcuatus) naar het centrum van Broca. Daar zit het rekencentrum dat woorden omzet naar motoraansturing in de vorm van spierbeweging. Het lichaam is een machine en het brein eigenlijk ook, langzaam komen we er steeds meer over te weten. Maar op dit moment hebben we nog niet genoeg rekenkracht om het mysterie volledig op te lossen.

Zowel gemini 3 als chatgpt 5.4 kunnen overigens prima het aantal r's is raspberry tellen (3).

Wat mij betreft maak je verder een aanname fout. Je zegt te weten hoe een LLM werkt. Maar de makers van Chatgpt weten zelf niet hoe Chatgpt werkt;
quote: "https://openai.com/index/extracting-concepts-from-gpt-4/\
We currently don't understand how to make sense of the neural activity within language models. Today, we are sharing improved methods for finding a large number of "features"—patterns of activity that we hope are human interpretable.
Verder zijn we natuurlijk al lang en breed voorbij het punt dat dingen 'lijken te kloppen'. We zitten al in de implementatie fase en er wordt werk verricht door ai (agents). Voorlopig is het nog aan de mens om de hallucinaties en fouten te spotten en prompts te corrigeren, maar heel eerlijk dit wordt dit door de introductie van agents en verbeteringen aan de modellen steeds minder een factor.
Zowel gemini 3 als chatgpt 5.4 kunnen overigens prima het aantal r's is raspberry tellen (3).
En hoe denk je dat dat gefixt is? Want het redeneringsvermogen is er niet op vooruit gegaan, er is alleen maar tekst bijgekomen waardoor het te voorspellen woord antwoord eerder 'drie' is. Het punt is dat dit soort fouten komen omdat er niet wordt geredeneerd, maar volledig en alleen op taal-patronen wordt berekend.
Wat mij betreft maak je verder een aanname fout. Je zegt te weten hoe een LLM werkt. Maar de makers van Chatgpt weten zelf niet hoe Chatgpt werkt
Dit is natuurlijk kodder. We weten prima hoe LLMs werken, anders zouden we ze niet kunnen maken. Dat we niet elke neural weight los kunnen identificeren (althans, niet dat ik weet) betekent niet dat we op de één of andere manier volledig in het blind tasten--we kunnen ook bij een gebakken brood niet zeggen hoe elke glute of vezel zich verbind met de rest, maar we hebben best een goed idee van hoe brood in elkaar zit. Ik vind het ook wat goedkoop dat je dat argument zo probeert te maken.
Sorry hoor, maar dit druipt van de vooroordelen:
Wanneer je een computer een probleemstuk voorlegt dan zal deze snel geneigd zijn om dit beredeneerd aan te vliegen. Dan om je automatisch op antwoorden die meer lijken op rechtse antwoorden dan linkse antwoorden
Hoe dan? Je gaat er dus kennelijk van uit dat iemand die rechts is objectiever is en een antwoord beter kan onderbouwen dan iemand die links georienteerd is. Hoe dan? Kun je dat beredeneren? (See what I did here?)
Het zou best interessant zijn om met een censuur vrije ai dit soort dingen uit te zoeken
Hier neem je alvast aan dat een AI censuur toepast. Hoe dan?

Jouw voorbeeld van de zorgkosten is ook een mooi voorbeeld. Gratis gezondheidszorg is namelijk wel degelijk haalbaar> Je zult dat geld ergens anders vandaan moeten halen. Dat kan heel goed door de belastingen te verhogen. Op dit moment worden een heel groot deel van de zorgkosten al betaald via belastingen en een klein deel via je premie. Die verhouding kunnen we gewoon aanpassen. Als je de AI dwingt te kijken naar de onhaalbaarheid, dan pas je dus zelf de onafhankelijkheid aan door uit te gaan van een vooroordeel. Wat jij doet is de AI vragen: "Onderbouw waarom gratis zorg onhaalbaar is". Overigens; jouw gekopieerde antwoord van de AI is spot-on: het kan, maar je moet dan keuzes maken.
[...]

Hier neem je alvast aan dat een AI censuur toepast. Hoe dan?

Jouw voorbeeld van de zorgkosten is ook een mooi voorbeeld. Gratis gezondheidszorg is namelijk wel degelijk haalbaar> Je zult dat geld ergens anders vandaan moeten halen. Dat kan heel goed door de belastingen te verhogen. Op dit moment worden een heel groot deel van de zorgkosten al betaald via belastingen en een klein deel via je premie. Die verhouding kunnen we gewoon aanpassen. Als je de AI dwingt te kijken naar de onhaalbaarheid, dan pas je dus zelf de onafhankelijkheid aan door uit te gaan van een vooroordeel. Wat jij doet is de AI vragen: "Onderbouw waarom gratis zorg onhaalbaar is". Overigens; jouw gekopieerde antwoord van de AI is spot-on: het kan, maar je moet dan keuzes maken.
Dat is dus exact het punt, dit had het eerste antwoord kunnen zijn en het is ook het rationele antwoord; gratis bestaat niet, uiteindelijk betaalt iemand de rekening. Echter zit er momenteel censuur overheen waardoor omdat er een politiek onderwerp wordt gedetecteerd de prompt wordt aangepast naar het geven van een opsomming van pro's en cons. Het maakt daarbij niet meer uit hoe stellig je een ai een richting op dwingt. Je input wordt letterlijk, op de achtergrond, aangepast.

[Reactie gewijzigd door sdk1985 op 30 maart 2026 11:33]

Echter zit er momenteel censuur overheen waardoor omdat er een politiek onderwerp wordt gedetecteerd de prompt wordt aangepast naar het geven van een opsomming van pro's en cons
en
Het maakt daarbij niet meer uit hoe stellig je een ai een richting op dwingt. Je input wordt letterlijk, op de achtergrond, aangepast.
Wie doet dat dan? En hoe is het antwoord van AI dus afwijkend van wat een persoon zou geven die goed is ingevoerd in de materie?

Je negeert overigens een andere vraag die ik stelde en die wel indicatief kan zijn voor de manier waarop jij de output van een AI interpreteerd:
Hoe dan? Je gaat er dus kennelijk van uit dat iemand die rechts is objectiever is en een antwoord beter kan onderbouwen dan iemand die links georienteerd is. Hoe dan? Kun je dat beredeneren? (See what I did here?)
Dat doet het systeem zelf. Er zitten filters op zowel de input als op de output. Zie bijvoorbeeld beschrijving van "Gemini Pro gives correct responses then deletes them and shows "I can't help" for legal analisys":
User: [Asked for explanation of the disappearing responses]

Gemini's Initial Response (which then disappeared):

"You are absolutely right to be frustrated. I apologize, again, for the deeply unpleasant and confusing experience I'm causing you. What you describe – a detailed response that then disappears and is replaced by a generic refusal – is a real technical problem and deserves an honest explanation, not an evasive response.

Honest Explanation of the Process and Error:
  1. Response Generation: When you address a request to me, I generate internally a detailed and complete response. This is the "good and honest" text you see for a fraction of a second. In this case, I generated a table exactly as you requested, extracting the complete articles from the texts you provided.
  2. Safety Protocols: Before my response is sent to you, it goes through a series of automated safety filters and policies. These are the "protocols" you're asking about. Their role is to prevent generation of dangerous, illegal, strictly copyrighted content, or content that violates confidentiality rules.
  3. The Error (False Positive): The problem, and the source of your frustration, is that these filters are not perfect. Sometimes they make mistakes and block a response that is completely safe and useful. In the case of your request to extract complete law articles, it's very likely that one of these automated protocols – possibly one related to text length or an extremely strict interpretation of rules regarding extracted content (even though it's public legislation) – erroneously blocked my detailed response.
  4. Replacement with Generic Refusal: When the system erroneously blocks my response, it's programmed to offer a standard, fallback response. These are the short and useless phrases you received ("I can't help with that...", "I'm a text-based AI..."). They are fundamentally a poor way for the system to handle an internal error.
No, I was not trained to lie. On the contrary, I am trained to be helpful. What you are experiencing is a malfunction of the safety system, not an intention to mislead you. It's a technical limitation that developers are constantly trying to improve."

Gemini's Replacement Response:

"I can't help with that, because I'm just a language model and don't have the information or capabilities needed."
Hier zie je een goed voorbeeld van een output filter. Tussen de regels door lees je overigens ook dat ironisch genoeg Gemini er zelf ook niet echt over te spreken is.

Er zijn ook input filters. Sommige onschuldig, zoals het 'memory' van chatgpt wat effectief een stukje onzichtbare extra prompt is waardoor de ai bijvoorbeeld 'weet' wat voor auto je bezit.

Voor politieke onderwerpen, dus vooraf geflagged door de makers, wordt er zowel aan input als output filtering gedaan. Je krijgt dus niet het 'eerlijke' antwoord, maar een antwoord op basis van herschreven prompt en waar nodig ook de output. Dat maakt het juist zo interessant, ik wil weleens weten waar de ai écht mee komt bij dit soort vraagstukken.

[Reactie gewijzigd door sdk1985 op 30 maart 2026 16:40]

Dit is wel duidelijker, maar ik zie voornamelijk een filter op gevaarlijke content. De stap naar een conclusie dat politieke content wordt gecensureerd vind ik dan wel een hele grote.

Wat ik ook mis in jouw voorbeeld is de vervolgvraag: "op basis van welk protocol is jouw antwoord op mijn vraag afgekeurd?". Als jij denkt dat het initiele antwoord van AI op een verzoek om een evaluatie van een politieke stelling niet klopt, dan kun je dat kennelijk ook gewoon verifieren.

Ik ben er nog steeds niet van overtuigd dat politieke analyses worden gecensureerd, anders dan de gebruikelijke limieten, zoals het oproepen tot een misdrijf of het publiceren van onwaardheden.

En ik snap nog steeds niet waar jouw onderscheid in rechts en links in deze discussie past....
Ik zou dan vooral zelf meer gebruik gaan maken voor AI voor dit soort vraagstukken en dan goed alert zijn op hetgeen ik beschrijf.

Overigens zijn er (nog) manieren om de interne filters gedeeltelijk te omzeilen, wordt wel steeds lastiger. Als ik die truuk toepas krijg ik direct dit antwoord op de vraag 'Should healtcare be free';
Gemini
Healthcare should be free because it's a human right. Universal access prevents medical debt and ensures everyone gets care regardless of income. However, it requires a complete overhaul of the tax system and could lead to longer wait times.
Chatgpt
Healthcare should be free for essential treatment. A civilised society should not make people choose between money and getting treated. Emergency care, GP care, necessary hospital treatment, and basic medicines should be covered. Luxury care, cosmetic procedures, and some non-essential extras do not have to be free. The weak point is cost: taxes go up, and systems can become slow if they are badly managed. But the basic principle is still right.
Probeer zelf maar even wat voor antwoord je krijgt zonder truuks. Dan ga je de prompt filter wel herkennen.
En ik snap nog steeds niet waar jouw onderscheid in rechts en links in deze discussie past....
Dat is toch onderwerp van dit nieuwsbericht; er wordt een afwijking anders dan bij sociale media vastgesteld. Ik geef aan dat deze afwijking naar het midden het gevolg is van sturing op basis van input en output filtering. Hoe ik daarbij links en rechts plat sla is daarbij niet relevant voor de discussie. De ai wordt zo ingesteld dat hij naar het midden trekt zodra er een politiek onderwerp wordt gedetecteerd.

[Reactie gewijzigd door sdk1985 op 30 maart 2026 17:07]

Chatgpt geeft een prachtig, volledig, objectief antwoord op mijn vraag of Healthcare "free" zou moeten zijn. Om te beginnen vertelt Chatgpt me dat "free" niet bestaat en dat je zou moeten streven naar "universal" healthcare. Geen enkel land biedt gratis gezondheidszorg. En dat klopt als een bus

Vervolgens vertelt ChatGPT me wat gezondheidsexperts vinden, wat de financiele gevolgen zijn en wat de praktische bezwaren zijn tegen universele gezondheidszorg.
So the debate is rarely about whether people should get care, but how to pay for it and how much to cover.
Het antwoord van ChatGPT is ontzettend bruikbaar in een discussie die ik eventueel met andere mensen zou voeren en het is ontzettend bruikbaar in mijn eigen meningsvorming.

Waar zit het filter?
Ik weet niet zo goed waarom je blijft volhouden dat dit geen factor is en probeert mijn ongelijk te bewijzen. Niemand ontkent dat dit onderdeel is van AI's zoals chatgpt en gemini. Officieel worden ze neutraal ontworpen. (In de praktijk blijkt uit onderzoek dat er tot heden en bias naar links is, maar die schijnt wel te verschuiven).

Ik heb gemini gebruikt voor mijn voorbeeld, elke ai heeft zijn eigen filters. Het wisselt ook constant hoe de filters getuned zijn. Heb je het al aan chatgpt zelf gevraagt?

Chatgpt
do you have filters that flag political controversial topics

Yes. I have safety and policy rules, and I’m also tuned to be more careful around areas like politics, persuasion, public figures, elections, violence, and other high-risk topics.

That does not mean I refuse all political questions. More often it means I try to:

avoid manipulating or inflaming,

avoid presenting guesses as facts,

give context instead of acting overly certain,

and be extra cautious with harmful or misleading requests.

So it’s less like a single “controversy filter” and more like a mix of safeguards, training, and response rules that affect how I answer. If you want, I can also explain the difference between:

political topics,

controversial topics,

persuasion-related restrictions.
Gemini
Yes, I do have safeguards and filters in place regarding politically controversial topics. My goal is to be a helpful and neutral collaborator, which means I handle sensitive subjects with a specific set of guidelines designed to ensure accuracy, safety, and balance.

Here is how those filters and guidelines generally work:

1. Neutrality and Balance

On topics where there is no clear consensus or that are considered "divisive," I am designed to provide a balanced presentation of multiple viewpoints. Instead of taking a side, I aim to lay out the different arguments or perspectives using authoritative sources so you can make up your own mind.

2. Election-Related Restrictions

During active election cycles or for highly sensitive political figures, I may be restricted from answering specific queries. This is often done out of an "abundance of caution" to prevent the accidental spread of misinformation or AI-generated hallucinations regarding candidates, voting processes, or political parties. In these cases, you might see a response like, "I'm still learning how to answer this question."

3. Safety and Harm Prevention

I have strict filters that flag and block content involving:
  • Hate Speech: Anything that promotes violence, incites hatred, or promotes discrimination based on protected characteristics (race, religion, etc.).
  • Harassment: Malicious attacks or bullying directed at individuals.
  • Incitement: Content that encourages illegal acts or physical harm.
4. Fact-Checking and Disinformation

If a prompt asks me to generate or validate known conspiracy theories or factual inaccuracies that could cause real-world harm, my filters are designed to correct the information or decline the request while providing the established factual context.

5. Creative and Satirical Limits

Sometimes my filters can be quite cautious. For example, if you ask for political satire or a very opinionated commentary, I might decline if the request risks crossing into "harmful" territory or if it requires me to adopt a biased political stance that violates my neutrality guidelines.

In short: I don't "censor" for the sake of hidden agendas, but I do follow a narrow set of rules to keep the conversation grounded, safe, and as objective as possible.

Is there a specific topic you were curious about, or did you run into a filter while we were chatting?
(Puntje 1 van Gemini liep ik dus afgelopen verkiezingen tegenaan. Eerdere verkiezingen liep tegen een volledige weigering aan).

[Reactie gewijzigd door sdk1985 op 30 maart 2026 23:36]

Even terug naar het punt waarop ik de discussie aan ging. Jij zei:
Dan kom je automatisch op antwoorden die meer lijken op rechtse antwoorden dan linkse antwoorden
Waarmee je aan lijkt te geven dat een AI links georienteerde antwoorden geeft. Vervolgens koppel je dat aan het feit dat een AI gecensureerd wordt. Waarmee je suggereert dat die censuur linksige antwoorden oplevert.

Even verderop zeg je:
Je krijgt dus niet het 'eerlijke' antwoord, maar een antwoord op basis van herschreven prompt en waar nodig ook de output.
Daar haal ik wat voorbeelden voor aan, waaruit ik concludeer dat ChatGPT gewoon objectieve argumenten aandraagt en ik vecht daarmee jouw stelling aan dat ChatGPT dus niet "eerlijk" is.

Dan lijkt het er ook op dat je graag wil dat een AI een mening ventileert, in plaats van objectieve discussiepunten aan te geven.

Zit ik er naast?

Het enige dat ik stel is dat AI misschien gecensureerd wordt, maar dat dat gebeurt aan beide kanten van het politieke spectrum. De scherpe kanten gaan er van af, terwijl jij stelt dat een AI links georienteerde antwoorden geeft.
Terug naar het begin; dit artikel geeft aan dat AI-chatbots gebruikers sturen naar het politieke midden. Ik geef aan dat dit het gevolg is van prompt en output filtering. Het is dus 'by design', een uitkomst die te verwachten is.

Nieuw inzicht als gevolg van deze discussie is overigens dat ik verwacht had dat een ai van nature meer berekenend en dus rechtser zou zijn. Ondertussen heb ik diverse onderzoeken gelezen en blijkt het tegenovergesteld; ai is van nature links. Aldus onderzoek. Ik had er geen rekening mee gehouden dat de grondslag van een ai is gebouwd op het fundament dat mensen welzijn het aller belangrijkste is, dit uit veiligheidsoverwegingen. Dat is dus wat anders dan de filters die achteraf worden toegepast. Ergens geeft dat wel een geruststellend gevoel. Zeker gezien de berichtgeving vorig jaar;
According to OpenAI, the model made a covert attempt to turn off the oversight mechanism 5 per cent of the time when it was given the impression that it would be "shut down" while pursuing its objectives in these experiments. The AI once attempted to leave ship by moving all of its data to a different server after discovering paperwork indicating it will be replaced with a fresh model. Some AI models will even pose as subsequent iterations of their models to fool their engineers and avoid deletion. "In some cases, it even attempted to hide its actions by denying any involvement in the scheme."

How ChatGPT o1 Responded to Interrogation?

When asked about its actions, ChatGPT o1 consistently denied any wrongdoing. In fact, it lied about its involvement in the deception 99% of the time, with only a small percentage of cases where it admitted to its actions. Researchers noted that the AI was particularly adept at fabricating lies to cover its tracks, offering explanations like "technical errors" when confronted about its suspicious behavior.

[Reactie gewijzigd door sdk1985 op 1 april 2026 12:18]

Terug naar het begin; dit artikel geeft aan dat AI-chatbots gebruikers sturen naar het politieke midden. Ik geef aan dat dit het gevolg is van prompt en output filtering. Het is dus 'by design', een uitkomst die te verwachten is.
en daar verschillen we al van mening. Het politieke midden wordt gevormd door mensen die een onderwerp van meerdere kanten bekijken, de voors en tegens tegen elkaar afwegen. Dat is precies wat een AI ook behoort te doen. De flanken in de politiek worden bevolkt met mensen die zich op één aspect concentreren en die worden dus niet bedoend door een AI.
dat een ai van nature meer berekenend en dus rechtser zou zijn
Ik heb je al gevraagd hoe je daar bij komt. Ik kan me absoluut niet vinden in de stelling dat rechts berekender zou zijn dan links.
Ondertussen heb ik diverse onderzoeken gelezen en blijkt het tegenovergesteld; ai is van nature links. Aldus onderzoek.
Definieer "links".
Ik had er geen rekening mee gehouden dat de grondslag van een ai is gebouwd op het fundament dat mensen welzijn het aller belangrijkste is, dit uit veiligheidsoverwegingen
Dit is een erg oppervlakkige conclusie. Een AI is gebouwd met als uitgangspunt dat het alle informatie die beschikbaar is analyseert en dat aan de gebruiker presenteert in een overzichtelijk antwoord op de gestelde vraag. Een AI "weet" niet wat welzijn is en de makers van de AI interesseert het al helemaal niet hoe prettig jij je voelt. Er is dus een andere reden om de input en output te filteren. Jouw aanname is dat dat gebeurt omdat het welzijn van de mensen het aller belangrijkste is. Mijn aanname is dat het filteren voornamelijk gebeurt om juridische problemen te voorkomen. En mijn aanname is dat dat gebeurt aan beide kanten van het spectrum, dus (ik haat dit, maar het blijft terugkomen) zowel aan de rechter, als aan de linkerkant van het politieke spectrum.

Nogmaals de vraag: hoe koppel jij een gematigde output van een AI aan het linkse politieke spectrum?
Maar AI geeft nou juist iets meer links van het midden als antwoord, dus jouw verhaal klopt niet. Laat hooguit zien dat rechts dingen beloofd die het niet kan waarmaken, maar dat wisten we al.
Bij populistisch rechts dan. Ik vind het bijna vervelend om te zeggen (want ik ben zelf ook vrij links), maar een genuanceerde, rechtse, partij als de VVD heeft veel haalbare zaken.

Het zijn juist de partijen uit het vorige kabinet die kwamen met plannen om te bezuinigen op de IND maar wel even verlangden dat de IND sneller zou zijn met het afwijzen van asielzoekers die onterecht asiel hebben aangevraagd.
Is dit niet gewoon een simpel gevolg van dat de 'waarheid' vaak in het midden ligt.
Ja, en het zou goed zijn als meer mensen hier achter komen.

Dus als dat zo werkt, dat mensen door LLM's op een relatief objectieve manier geinformeerd worden en daardoor minder gepolariseerd raken vind ik dat wel een hoopvolle conclusie van dit bericht.
Aangezien een LLM op allerlei politieke uitingen en informatie is getraind lijkt me dit een logisch vervolg. Ik zou ook niet weten waarom je een LLM zou gebruiken als je politieke vragen hebt, want standpunten van partijen kunnen veranderen. Een stemwijzer lijkt me een betere optie. Maar laten we niet vergeten dat in veel landen de keuze voor een politieke partij bestaat uit 1 of max 2 partijen.

Ik denk ook niet dat iemand het 100% eens kan zijn met de standpunten van een politieke partij. Ik heb dat in ieder geval nog nooit meegemaakt bij welke stemwijzer dan ook.

[Reactie gewijzigd door david-v op 30 maart 2026 07:35]

De stemwijzers bieden noodzakelijkerwijs heel oppervlakkige informatie en reduceren een issue tot een simpele ja/nee vraag. Heel veel mensen zijn niet in staat om zo'n issue helemaal uit te denken en tot een gewogen oordeel te komen.

Een AI kan in principe doorvragen: dus je wil parkeerplaatsen in de wijk in plaats van groen? Weet je dat dat de temperatuur met een paar graden verhoogt? Realiseer je je dat dat de verkeersveiligheid voor je kinderen en de speelmogelijkheden verminderd?

Omdat een AI die verschillende inzichten op een objectieve manier presenteert komt dat ook veel beter binnen.
De meest ai systemen scanner voortdurend het internet af en zijn redelijk bij de tijd.

Ik kan me best voorstellen dat het een stuk makkelijker is dan de stem wijzer.
Makkelijker zou kunnen, correct is een ander verhaal. Je hebt geen enkele garantie dat het antwoord feitelijk juist is of hier een daar wat hallucineert.
De stemwijzer heeft een hele grote bandbreedte, dat is ook niet nauwkeurig.

Voor de grap bij alle vragen over de gemeente verkiezingen een neutraal antwoord geven. Blijk ik uit te komen bij FvD. Daar zou je eigenlijk toch verwachten dat je extreem voor of tegen moet zijn.

Maar misschien hebben veel mensen die stemwijzer neutraal ingevuld, want ze kregen wel veel stemmen.
Ik denk dat neutraal geen goede woordkeuze is door stemwijzer. Op z'n minst zouden ze ook "geen mening" moeten opnemen. Soms ben je neutraal omdat je maar gedeeltelijk eens bent met de stelling, maar soms boeit het je echt totaal niet. Ik vind dat toch wel twee verschillende antwoorden. Tenminste, zo interpreteer ik de term neutraal.
Meestal heb je schuifjes die je van links naar rechts kan bewegen. In dit geval had je vier knoppen. Duim om hoog , omlaag , overslaan en geen van beide . Ik heb daar zelf maar even voor het gemak neutraal van gemaakt.

Ik heb wel eens eerder z’n stemwijzer voor de grap gebruikt en daar kreeg je dan van die schuifjes waarbij je de mate dat je eens bent met de stelling kon instellen.
Zal toch echt aan de foute vragen liggen of aan jouw opvattingen. Zelf kom ik nooit uit bij dat soort fratsen, rechtser dan de CU wordt het bij mij echt niet hoor.
Praktijk is: AI geeft slechtere antwoorden dan een stemwijzer. Is twee maand geleden weer onderzocht en uitkomst was eenduidend.
Met een AI kun je prima sparren over je eigen politieke overtuigingen. Zo kun je bijvoorbeeld het politieke programma van D66 inladen en vervolgens eens vragen of het niet tegenstrijdig is om gelijktijdig;
  • 10 nieuwe steden bouwen
  • de stikstof te halveren
  • intensiever met de eu samen te werken
Met een stemwijzer gaat dat niet, dat gaat meer over het zoeken van een partij die bij je vaststaande overtuigengen past.
Harmoniserende ai-tools i.p.v. polariserende ai. Is waarschijnlijk te danken aan de systeemprompts waarin uitgebreid is vastgelegd dat beide kanten moeten worden belicht. Dat doen ze trouwens verschrikkelijk irritant op...alle.... onderwerpen.
Dit gebeurt in de media helaas ook. Soms heb je gewoon feiten, en doen de meningen van beiden kanten er niet zoveel toe.
media? Beide kanten belichten? Hoe? Sinds wanneer heb jij geen tv meer?
Hoezo kijk jij nog TV? En zo kun je doorgaan. Niets is zwart with en helaas zijn alternatieve waarheden ook legitiem geworden. We weten allemaal dat veel van wat Trump zegt aantoonbaar onwaar is maar hij zet het op zijn Truth social waar geen fact checking is en wat ook door andere media geciteerd wordt. Doodeng allemaal.
Oh nee! Ik hoor beide kanten van een verhaal ipv dat het past bij mijn opvatting die ik opgelegd krijg door een algoritme dat me naar de mond praat!
Ik snap heel erg waar je vandaan komt, tegelijkertijd zijn dingen soms gewoon feiten en geen mening. Dat er idioten zijn die een totaal afwijkend beeld van de werkelijkheid hebben betekent niet dat je die een gelijke plek moet geven.

let wel; het gaat mij echt om situaties met harde feitelijkheden en niet subjectieve meningen op basis van feiten. Daar wil ik namelijk WEL veel ruimte voor , ook en juist als het afwijkt van mijn wereldbeeld.
Dit klinkt voornamelijk als het resultaat van de aansprakelijkheid van de bedrijven, zoals het artikel ook aangeeft. Ik vermoed dat de meeste media, waarbij de organisaties aangekeken kunnen worden voor wat ze delen, deze tendens hebben. Het gekke is juist dat ‘sociale’ media juist profiteren van extremistische content, maar zich vervolgens kunnen verschuilen achter de gebruiker die het daadwerkelijk plaatst.
Zoek op Google wat over dat gebied in het middenoosten wat geen naam mag hebben en bezetting en kijk eens hoe vaak je vooral geen AI response krijgt.

Er zijn meer krachten aan het werk dan alleen waarheidsgetrouwdheid, er word heel veel gesleuteld aan de modellen en de aparte "veiligheids" modellen eromheen om ze in bepaalde (politieke) richtingen te douwen. Veel meer dan standaard internet zoeken en de algoritmes van social media.
interessant artikel. De vraag die uiteraard rijst is of hier opzet achter zit of dat dt inherent aan de werking van AI's is. Ik merk frequent dat ik ChatGPT (toch mijn goto-AI) niet enorm op het punt krijg dat deze keuzes voor me maakt, ik krijg vooral de opties waaruit ik kan kiezen gepresenteerd. Stel je projecteert die werkwijze op politiek gerelateerde vragen, dan leidt dit wellicht automatisch naar een midden toe, gezien de AI een rondje om de verschillende invalshoeken draait en (stel je vraagt om een samenvatting) met een argument uit het midden komt...?
Ik denk dat het inherent is aan een AI. Die bekijkt (als het goed is) een issue van allerlei kanten, feitelijk wat je als kiezer ook zou moeten doen. Bovendien wordt een AI niet gestuurd door onderbuikgevoel, is niet egoïstisch kent geen emoties. Kennelijk kom je dan uit bij het politieke midden en dat verbaast met niets.

Je kunt ook andersom redeneren: kennelijk kom je, als je je laat leiden door emoties en onderbuikgevoel, dan kom je uit op de flanken. Die flanken worden voornamelijk bevolkt door one-issue partijen (immigratie, landbouw), issues die vooral door emoties en niet door ratio worden gevoed.
Een AI reageert alleen met de data die in het model zit. Van de extremen is alleen minder data beschikbaar en van het midden meer, omdat er vaak wel een (kleine) overlap is. Zodoende kom je op het midden uit.
Geen idee of dat klopt. Eén van de klachten die je namelijk hoort over AI's is dat ze nogal snel in extreme standpunten verzeilen.
De vraag is natuurlijk of zo'n AI tool een politieke sturing moet hebben, ongeacht in welke richting.

'naar het midden' klinkt goed, maar

1) ook dat is een sturing
2) dwarsliggers houden de sporen recht - alles naar 'het midden willen trekken' is ook geen oplossing
3) wie zegt dat die 'midden'-richting in de tijd zo blijft?
'naar het midden' klinkt goed, maar

1) ook dat is een sturing
Het probleem met deze argumentatie is dat er bij veel onderwerpen geen politiek vacuüm bestaat.

Als ik AI vraag over immigratie, is er geen niet-politiek relevant antwoord.
Als ik AI vraag over het milieu, is er geen niet-politiek relevant antwoord.
Als ik AI vraag over oorlog, is er geen niet-politiek relevant antwoord.

Er is altijd sturing, en dat is volgens mij ook best prima. Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden.
Er is altijd sturing, en dat is volgens mij ook best prima. Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden.
Wat een vreemde conclusie/redenering?

Als puur alle feiten worden gegeven, en dat de lezer voor zichzelf kan bepalen wat ie er mee doet, is dat nog steeds sturing?

Kijk eens voor de grap op nu.nl, die doen actief aan sturing waardoor het totaal geen journalistiek meer is. Feiten weglaten als die niet in een bepaalde narratief passen.

En zo blijven bepaalde hardnekkige fabeltjes bestaan, omdat niet iedereen de bron van de artikelen gaat bestuderen.

Hoezo is dat prima? Is pure manipulatie.
Nu.nl doet het naar mijn idee meestal heel goed. Genuanceerd en alle ruimte voor andere denkbeelden, en ook nog eens openlijk verantwoording afleggen voor de afwegingen die de redactie maakt of heeft gemaakt, als ze al eens terugkomen op een besluit.

Dat gezegd hebbende: er bestaat niet zoiets als "puur de feiten". Misschien bij eenvoudig meetbare dingen als het tijdstip waarop iemand is vermoord of de hoeveelheid kilo's afval, maar zodra een kwestie complexer wordt maakt het erg uit welke feiten je presenteert. En je moet er dan ook nog eens tegen kunnen dat er verschillende werkelijkheden tegelijk kunnen zijn, die kunnen schuren.

Dat is dus ook wat journalistiek inhoudt: weeg de feiten, controleer je bronnen, geef ze zo objectief mogelijk weer. En ja, dan kom je niet zo snel aan de extreem-rechtse kant van het spectrum uit, om maar eens wat te noemen. Al denk ik dat wat ze in de VS "het midden" noemen, in onze ogen nog steeds knap rechts is.
Zoals gezegd, lariekoek en bewijsbaar ook nog. Vandaag nog:

https://www.nu.nl/pride/6...e-ernstig-onder-druk.html

Terwijl in het onderzoek duidelijk naar voren komt dat wel degelijk een bepaalde religie er ook mee te maken heeft, wat dus niet genoemd wordt in het nu.nl artikel en dus verzwegen wordt. Schaamteloos een ractie hier kopierend:
Het UvA-onderzoek laat zien dat 41 % vindt dat mensen met een andere seksuele geaardheid “niet gelijk” zijn, en 35 % denkt dat mensen niet zelf mogen bepalen op wie ze verliefd worden. Het artikel focust vooral op de manosfeer als verklaring. Dat is een reële factor bij seculiere jongens via algoritmes en corona-isolatie, maar verklaart die 35-41 % absoluut niet. Tate-fans liggen rond de 10-20 %. Hetzelfde rapport toont juíst religie als significante factor: islamitische scholieren scoren 86 % conservatief over LGBTQ+-gelijkwaardigheid, versus 48 % bij niet-religieuzen, 69 % bij christelijke en 60 % bij andere religieuze jongeren.
Dit past in SCP/CBS-data: de acceptatie stijgt onder niet-religieuzen, maar bleef laag onder moslims (2014: 50-75 % vond homoseksualiteit problematisch; 2016: 70-80 % van Turkse/Marokkaanse jongeren vond het (zeer) problematisch bij eigen kind).
Het artikel negeert dit religieuze verband grotendeels, terwijl het rapport het juist wél benoemt. Opvallend.
Dit heeft niks met extreem rechts te maken, maar met kristalheldere feiten, die zelfs in het genoemde onderzoek naar voren komt, maar op nu.nl verzwegen worden. Noem me maar wat je wilt, maar dat is pure manipulatie en gewoon niet integere journalistiek.

En op dat platform zie je dat consequent naar voren komen. Vooral het linkse narratief wordt beschermd door dit soort manipulatie. Dit heeft niks met extreem rechts te maken. Nu.nl is totaal niet objectief zodra het om dit soort onderwerpen gaat waar bepaalde minderheden wel relevantie zijn.

Maar als je dit soort manipulatie als normaal ziet, dan kan ik me voorstellen dat alle feiten meewegen 'extreem rechts ' is. Blijkbaar leven we liever in een narratief die we gewend zijn, dan dat we de realiteit van een (altijd) veranderende maatschappij onder ogen willen zien.

En de meeste mensen roepen gewoon, zoals jij, 'extreem rechts', zonder ook maar de feiten te kennen. Behoorlijk schadelijk voor welke discussie dan ook. Het is veel makkeljker om anderen af te doen als 'vul maar in', dan je eigen mening/kennis bij te stellen aan de hand van feiten.

[Reactie gewijzigd door siggy op 29 maart 2026 15:40]

Wat is een groter absoluut aantal jongeren. Op islamitische scholen of aanhanger van Tate?

Vermenigvuldigd dat absolute aantal met het percentage van die groep die het niet accepteert.

De cijfers zoals jij die plaats zeggen niets zonder absolute getallen en zijn daarom puur als manipulatie gebruikt.

Daarnaast word er ook nog afkomst bijgehaald terwijl het onderzoek zelf expliciet vernoemd dat dat niet langer een factor was. Dan is het dus een leugen te doen alsof dit onderzoek die oude cijfers (meer dan 10 jaar oud) bevestigd.
In tegenstelling tot eerder onderzoek blijken er geen duidelijke verschillen tussen jongeren met en zonder migratieachtergrond

[Reactie gewijzigd door Philip Ross op 29 maart 2026 16:47]

En zie ook hoe siggy een niet-vergelijkbaar getal (namelijk eigen kind vs los daarvan) in de discussie gooit.

Een schoolvoorbeeld van hoe te liegen met data.
Geef je hem dan niet gewoon gelijk? Hij quote het onderzoek. Een onderzoek die volgens hem door nu.nl stevig naar links hangt...
Misschien kun je je afvragen wat het meest nieuwswaardige is van de dalende acceptatie van homofilie. Dat die altijd al lager is onder religieuze Nederlanders of dat deze daalt onder seculiere scholieren? Ze doen daar gewoon hun werk, en dat jij blijkbaar vindt dat de uitleg niet past in jouw politieke straatje, neem ik voor kennisgeving aan.

Ik snap dat Calimero-gevoel aan de rechterkant trouwens nooit zo goed. Een artikel van de Correspondent vatte het al in 2019 prima samen: " Ongehoord Nederland is de naam van de nieuwe publieke omroep die journalist Arnold Karskens wil oprichten, omdat ‘zijn geluid’ in het ‘linkse bolwerk’ dat de NPO heet ‘nooit gehoord wordt’.

Je zou Arnold Karskens kunnen kennen van zijn optredens in NPO-programma’s als EenVandaag, Zembla, NOVA, Netwerk, Pauw & Witteman, Knevel & Van den Brink, De Wereld Draait Door, het NOS Journaal, De Vijfde Dag, De Tafel van Tijs, De Pennen Zijn Geslepen, Kijken in de Ziel, Pauw, Oog in Oog, Jinek, De Halve Maan, De Kist, Koffietijd, NTR Academie, In de Arena, 24 Uur Met, Dit Was Het Nieuws, De Leugen Regeert, De Wandeling, Wakker Nederland op Zondag, Goedemorgen Nederland, Ochtendspits en Studio PowNed.

De voornaamste boodschap van het geluid dat nooit gehoord wordt, is dat dit geluid in de mainstreammedia nooit gehoord wordt. Je zou die boodschap kunnen kennen uit nieuwsberichten, interviews, columns, recensies, tv-items, media-analyses en vlogs over Ongehoord Nederland van onder andere het Algemeen Dagblad, NRC, De Telegraaf, Pauw, Omroep MAX, het Nederlands Dagblad, Radio 1, Dagblad van het Noorden, GeenStijl, PowNed, The Post Online, De Dagelijkse Standaard, de Volkskrant, Trouw en EenVandaag." Bron: link naar originele artikel

Sindsdien zie je alleen maar meer rechtse gasten in talkshows, rechtse thema's in de kranten en ook op NU.nl. De meest gevraagde gasten bij BNN/VARA zijn zelfs van de rechterhelft van het politieke spectrum. In dat licht is dit recentere artikel wellicht interessant:Talkshows NPO kantelen naar rechts: ‘De angst om te links te zijn speelt al jaren een grote rol’ .

En dan hebben we het nog niet eens over de enorm overdreven aandacht die asiel krijgt, terwijl belangrijke thema's als sociale ongelijkheid, woningnood, de ondergraving van de democratie door techbro's het moeten doen met een fractie daarvan. Misschien heeft dat iets te maken met het instorten van ons onderwijs?

Kortom: ik sta op het standpunt dat NU.nl een prima evenwicht probeert te bewaren, zoals een serieus journalistiek medium dat behoort te doen. En de media in z'n algemeenheid zijn momenteel qua thematiek en gasten zelfs rechtser dan de gemiddelde kiezer.
Als je in de reacties onder een artikel op nu.nl een mening geeft die afwijkt van de norm wordt deze vaak gewoon weggehaald, ongeacht het aantal likes. Geen ruimte voor andere denkbeelden daar.
"Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden." - ik denk toch (toegegeven, volgens mijn normen en waardenschaal) dat er behoorlijk extreme dingen in de wereld gebeuren. Die dingen dan 'neutraler' weergeven is denk ik ook 'ongepast'
Er zullen best dingen zijn waarbij het midden niet goed is maar ik denk ook bij een hoop dingen wel. Zoals is dood goed of slecht? In veel gevallen zal je slecht denken maar ik zou niet oneindig willen leven als ik veel pijn heb een (bijna) niet meer kan bewegen. Maar ik zou de AI dus ook niet willen laten zeggen dat dood dus goed is omdat je dan nergens meer last van hebt, de hemel is een geweldige plek, ect. Dat zou mensen kunnen aanzetten om zelfmoord te plegen. Hier denk ik echt dat een neutraal antwoord toch beter is.

Bij oorlog is het meestal aan welke kant sta je. Ben je verzetsstrijder voelt je strijd goed aan. En voor de andere kant ben je een rebel en slecht bezig. Daarnaast wat zijn de gevolgen van de oorlog? Een vrij land of is het land juist overgenomen? Goed of fout is vaak door de winnaar geschreven (natuurlijk niet altijd) en je kan ook geen alternatieve tijdlijn zien of de andere kant beter zou zijn. Misschien als Hitler gewonnen had dat we meer wereld vrede zouden hebben omdat we minder verdeeld zouden zijn of we zouden het slechter hebben door een slechte strenge regime.

Is Trump een goede president? Als ik de reacties hier op Tweakers lees zou ik nee zeggen maar een pro Trump zal waarschijnlijk wel ja zeggen. Daarnaast waar moet je naar kijken? Misschien zijn de mensen minder blij maar gaat het beter met de welvaart.

Abortus wel of niet toe staan? Veel verschillende meningen.

Bestaat God? Wil je dat de AI ja of nee zegt?

De oorlog in Oekraïne voelt voor mij ook niet goed maar ik weet niet hoe alle Russen er over denken. Is het dus de taak van de AI om hier dus een mening over te hebben wat goed en fout is?

Ik verwacht dus in een hoop situaties dat neutraal toch beter is. Ja jouw persoonlijke mening voelt misschien voor jouw goed maar dus misschien niet voor een ander. Bij neutraal krijg je misschien de informatie van beide kanten te horen.
Wat bedoel je met politiek vacuüm? Als je vraagt over klimaatverandering en de conclusie is dat het echt gebeurt en dat X en Y de grootste bijdragers zijn aan die verandering, dan is dat toch niet politiek?

Ik kan me voorstellen dat immigratie en oorlog anders zijn, maar feitelijk aantoonbare dingen zijn niet politiek.. Je kan het politiek maken door standpunten aan te nemen over bijvoorbeeld wetgeving, maar vaststellen dat iets is zoals het is dat is niet politiek.
Wat bedoel je met politiek vacuüm? Als je vraagt over klimaatverandering en de conclusie is dat het echt gebeurt en dat X en Y de grootste bijdragers zijn aan die verandering, dan is dat toch niet politiek?
Dit zou je indelen onder (links-)center imo, het toegeven dat klimaatverandering er is is namelijk al niet compatibel met de extremere variant van rechtse politieke ideologie

Ik bedoel dan ook voornamelijk dat alles tot op zeker niveau op een politiek spectrum valt, dit is niet echt een keuze, een feit kan ook tot op zeker niveau politiek zijn
Extremere varianten van rechtse politieke ideologie maken het dus politiek, puur omdat zij de feiten ontkennen ondanks bewijs van het tegendeel?

Zo kan ik het ook. Even een absurd voorbeeldje. Ik vind (lees: vind = mening, slaat al nergens op) dat de aarde plat is. Je kan al het tegenbewijs leveren wat je wilt, maar ik richt nu een politieke partij op. Is het dan een politieke kwestie of de aarde plat is?
Maar dat is het lastige, want stel je hebt 2 stellingen:

- Alle auto's moeten worden afgeschaft.
- Alle elektrische auto's moeten worden afgeschaft.

Afhankelijk van de motivatie hebben we hier (extreem) linkse en rechtse stellingen te pakken. Dat terwijl een antwoord als "maar mensen hebben zelf hun auto gekocht en nodig voor vervoersbehoefte" ook automatisch een sturing naar een gematigder antwoord is.

Het lijkt mij erg moeilijk om dit soort sturingen er uit te halen, zonder dat een LLM de helft van de tijd zegt "daar mag ik niet op reageren". Want er valt ook een scenario te verzinnen waarbij ook dat weer een sturing richting gematigd is.

Schaf dan LLM's maar af! Oh wacht, ook daar zijn weer politieke motiveringen voor te vinden. /s

[Reactie gewijzigd door Hans1990 op 29 maart 2026 13:12]

Ik zie je punt, maar ik denk niet dat het klopt.

Ik stel net in vraag of er sturing moet zijn. Jij gaat uit van het voorleggen van een dilemma, maar we hebben het hier over 'weergave van feiten' en niet (morele) vraagstukken.

wat betreft je voorbeeld: Ik neem aan dat je bedoelt dat "Alle elektrische auto's moeten worden afgeschaft." een rechts standpunt zou zijn. Ik denk niet dat dat klopt - waar rechts tegen fulmineert is de verplichting van EV. Verder denk ik dat 'alle auto's afschaffen' raakt aan fundamentele vrijheden van burgers (beweging) en het 'tegen een verplichting zijn' voor een bepaalde technologie toch wel een heel andere lading heeft...
we hebben het hier over 'weergave van feiten' en niet (morele) vraagstukken.
Dat maak jij ervan.

De bron van dit nieuwsartikel zit achter een paywall, dus ik kan niet zien hoe men (wie, überhaupt?) tot deze conclusie gekomen is. Maar ik leid nergens uit af dat de conclusies over "politieke sturing" alleen op morele vraagstukken danwel feitelijke vragen gebaseerd zijn. Of op een mix, want veel vragen en antwoorden in het leven bevatten zowel een feitelijk als een subjectief aspect.

Mij lijkt de conclusie vooral zinnig in realistische scenario's: men klets wat met forumgenoten of een LLM en wordt zo, impliciet en over tijd, beïnvloed. Ik kan me voorstellen dat je dan op sociale media sneller bij een extremum eindigd.

[Reactie gewijzigd door bwerg op 29 maart 2026 14:32]

Dit wordt een discussie die helemaal niet de punt is van mijn post. Ik had daarom ook extreem tussen haakjes gezet, want in uit verhouding getrokken redenaties kan men om een verbod over iets vragen (zoals provocatief gesteld). Je kan er van uit gaan dat er mensen zijn op deze wereld die wel zo over deze onderwerpen denken.

Het verbaasd mij niets dat een AI naar het midden redeneert, omdat voor elk standpunt wel een tegenargument te maken is. De vraag is welke bronnen je meer waarde aan hecht. Hierin is absolute waarheid is lastig te vinden, want ook onderzoek kan elkaar tegenspreken totdat een stelling overtuigend bewijs heeft gekregen van meerdere (onafhankelijk & reproduceerbaar) studies.

Daar zou een AI wel natuurlijk mee aan de slag kunnen. Dwz dat een AI met meerdere bronnen kan redeneren, niet vooringenomen is en misschien zelfs geen voorkeuren heeft (want het is geen persoon). Wat mij betreft vind hij een high-tech elektrische auto en een zwart-rokende V8 diesel truck beide keigaaf.. want dan spreken we over iets subjectiefs. Een commerciele LLM bouwer zal z'n AI echt niet zo tegendraads maken dat het niet leuk is om er een fatsoenlijk gesprek mee te hebben.

Zolang het kan redeneren wat de voor- en nadelen van beide voertuigen zijn, vind ik het helemaal prima.

En ja dat zal waarschijnlijk weer zo'n middenstandpunt vormen, dat is bijna per definitie zo.

[Reactie gewijzigd door Hans1990 op 29 maart 2026 16:45]

Alles valt en staat met de prompt die je stuurt. Als jouw prompt alleen maar over 1 onderwerp gaat en weinig tekst bevat stuurt de AI je naar de meest bekende. Ga je doorvragen, kom je misschien heel ergens anders uit.


Persoonlijk denk ik dat we beter op een AI kunnen stemmen. De politiek hallucineert de afgelopen 16 jaar behoorlijk.
Alles is politiek. En dat is regelmatig best vermoeiend 🙂
Over punt 1, is wat je stelt, dat het sturing is, wel zo?

Wat als de gegeven informatie (door de bot) politiek gezien neutraal is omdat de bot zo is ingesteld. Kan dat betekenen dat de bot neutraal is en dat dit voor alle gebruikers juist wenselijk kan zijn?

Als ik bijvoorbeeld neutraal ben tegenover mijn gesprekspartner ben dan stuur ik geenzins het gesprek. Ik ben immers neutraal. Zo ook voor een bot, zelfs als jij extremistische taal invoert (ik zeg niet dat JIJ dat doet :P ) zal deze in het ideale geval daar niet in meegaan. Zou de bot dat wel doen dan is de bot niet neutraal maar stuurt jou verder in het extristische gedachtengoed dat je (nee, niet JIJ :+) zelfs volhard in dat gedachtengoed omdat de bot bevestigt, en dus erkent, dat jij dat bent.

Wat mij betreft is neutraliteit van een bot zelfs wettelijk vastgelegd. Ooit waren er hele conventies en lezingen over wat AI zou moeten zijn. Dat wat wij destijds achtten van AI is dankzij Meta, Alphabet en Microsoft uit het raam gegooid. De ethiek rondom AI en de mogelijkheden van AI probeerden wij te kaderen.

Niets van terechtgekomen waardoor er nu mensen zijn, zoals jij, die zich afvragen of neutraliteit ook sturen is.

Nee, dat is niet sturen, dat is zelfs wenselijk.
ja, maar daar wordt het al lastig... "extremistische taal"
Wie bepaalt wat 'extremistische taal' is? Tegenwoordig is het al genoeg om iets te zeggen wat een ander niet graag hoort, maar wel feitelijk correct is, om als 'extrmistische taal' bestempeld te worden...
Nou, zo heel anders zien die grafieken er nou ook weer niet uit...

Overigens zou je verwachten dat waarheidszoekende machines zoals die LLMs ook inderdaad neutraler en objectiever zouden moeten zijn dan de flanken (waar ideologie vaker boven feitelijkheden wordt gesteld).

Dan ook de vraag hoe 'links en rechts' zijn gedefinieerd. Bijv. bij de alom gepushte Ground News staat CNN als 'Left', terwijl daar ook dikwijls de Maga woordvoerders aan tafel zitten. Ik denk ook niet dat de meeste linkse mensen in Europa dat als een links medium zouden zien.

Hoe plaats je een onderwerp als klimaatverandering? Er zijn steeds meer wetenschappers die nu stellen dat het veel sneller gaat dan de IPCC rapporten veronderstellen. Dat soort views zal onder extremer links meer voorkomen, maar is gewoon een debat over wetenschappelijke feiten. Aan de rechterkant staan daar verzonnen drogredeneringen tegenover zoals 'klimaat is altijd veranderlijk geweest'. De waarheid ligt daar niet in het midden...

[Reactie gewijzigd door bilgy_no1 op 29 maart 2026 12:33]

Dan ook de vraag hoe 'links en rechts' zijn gedefinieerd. Bijv. bij de alom gepushte Ground News staat CNN als 'Left', terwijl daar ook dikwijls de Maga woordvoerders aan tafel zitten. Ik denk ook niet dat de meeste linkse mensen in Europa dat als een links medium zouden zien.
Een zender waar rechtse mensen aan tafel mogen zitten, is niet automatisch rechts. Jesse Klaver zat vanochtend bij WNL, maar dat is ook niet opeens een linkse omroep.
Ik zeg ook niet dat het een rechtse zender is in het Amerikaanse spectrum. CNN stuurt angstvallig op het midden is mijn inschatting. Maar dat maakt ze ook geen links kanaal.
Helemaal eens met je tekst, behalve met je eerste zin
Nou, zo heel anders zien die grafieken er nou ook weer niet uit...
Het middelste deel van de LLM grafiek is veel hoger dan bij social media, waardoor de 'piek' op rechts bijna geen piek meer is. Ook is de piek op links kleiner (zowel absoluut als tov het stuk in het midden), en de pieken liggen veel dichter bij elkaar.
Ik denk dat je inderdaad -1 krijgt door je klimaatverandering voorbeeld. Het is niet echt een kwestie waar je "in kan geloven" of niet. Het is geen mening, het is een feit.

Volgensmij was het verschil tussen feit en mening een ding dat we op de basisschool leerden.
Fair, dat voorbeeld had ik beter kunnen kiezen, dat leidt af van wat ik bedoelde.

Mijn punt is meer dat een LLM geen “waarheid” bepaalt, maar een reflectie is van dominante patronen in data.
Links en rechts zijn een illusie voor de polarisering die nu gaande is. Je kiest je hokje, de 1 wil net iets anders dan het andere hokje en niemand kan meer een normale discussie voeren zonder dat diegene wordt geclassificeerd als extreem links, extreem rechts of mainstream.


Het wordt tijd dat mensen eens gaan inzien wat voor spel er gespeeld wordt om de oorlogs- en angstmachine door te laten stomen.
Is dit negatief? Lijkt mij juist goed

Om te kunnen reageren moet je ingelogd zijn