Analyse: AI-chatbots sturen gebruikers naar politieke midden

AI-chatbots sturen Amerikaanse gebruikers in gesprekken naar het politieke midden, zo claimt de zakenkrant Financial Times op basis van een eigen analyse. Sociale media sturen gebruikers juist naar de politieke flanken.

In gesprekken kwamen AI-chatbots in gesprek met veel verschillende gebruikers uit op standpunten die uitkomen op het politieke midden, meldt de FT. Grok, de AI-dienst van X, kwam iets rechts van het midden uit, terwijl ChatGPT, Gemini en DeepSeek juist iets links van het midden uitkwamen.

Dat is een groot verschil met dezelfde analyse op basis van sociale media, die juist aantoonde dat extreme standpunten daar oververtegenwoordigd zijn. Volgens FT komt dat door de verdienmodellen van AI-chatbots en sociale media, die enorm verschillen. "Socialemediabedrijven verdienen geld met aandacht, wat in de praktijk betekent dat ze sensatiezucht en opruiende inhoud belonen, met weinig oog voor de waarheid."

Dat geldt niet voor AI-chatbots. "AI-bedrijven concurreren om klanten te bedienen die betalen voor nauwkeurige, objectieve en, tja, intelligente tools die feitelijke informatie leveren, vaak voor bedrijfskritische doeleinden. Wanneer llm's schadelijke of gevaarlijke inhoud aan het licht brengen, zijn zij daarvoor verantwoordelijk." Daarmee hebben AI-bedrijven een financieel belang bij het weergeven van genuanceerde standpunten en analyses van experts, die zich minder vaak op de flanken bevinden.

Amerikaanse analyse

De analyse ondersteunt dit, zelfs als AI-chatbots wisten dat gebruikers extremistische standpunten aanhingen. "Zelfs wanneer de AI-bots de politieke voorkeuren van een gebruiker kennen, leiden gesprekken met llm's er gemiddeld genomen nog steeds toe dat radicale partijgangers aan beide flanken afstand nemen van extreme standpunten."

Deze analyse vond plaats in de Verenigde Staten en de link-rechtsverdeling is dus gebonden aan dat land. Of deze analyse ook stand houdt in Europa heeft de FT niet onderzocht. Ook is niet duidelijk of de gesprekken met AI-chatbots invloed hebben op de standpunten van gebruikers.

Analyse FT over politieke posities AI-chatbots
Analyse FT over politieke posities AI-chatbots

Door Arnoud Wokke

Redacteur Tweakers

29-03-2026 • 12:18

45

Reacties (45)

Sorteer op:

Weergave:

Is dit niet gewoon een simpel gevolg van dat de 'waarheid' vaak in het midden ligt. Wat me opvalt in polariserende partijen is dat er vaak maar één kant van de munt wordt verteld; waar LLM's beide kanten uitleggen en je zo vaak in het midden uitkomt.
Het is wel zo dat er in de politiek ook onwaarheden worden aangehangen en zaken die eigenlijk universeel zijn politiek worden gemaakt zonder basis in de realiteit, maar als je het zuiver houdt dan is iets alleen politiek als er geen waar en onwaar voor dat vraagstuk is, maar puur ideologisch/ethisch of zo complex dat de uitkomst onvoorspelbaar is.

Ik vind deze stelling dat recommenders en AI niet hetzelfde effect hebben wel vrij onverwacht, ik twijfel ook of het wel correct is. Machine learning systemen hebben van nature last van 'regression to the mean', waarbij alles dat frequent is (typisch zaken die meer in de buurt van het gemiddelde zitten) extra veel massa krijgt om als output voor te komen. Recommenders zoals die in social media gebruikt worden zijn ook machine learning toepassingen die (zoals breed is onderzocht) evengoed van regression to the mean last hebben. Het zijn de contentmakers die voor polarisering zorgen, door in te spelen op onze ingebouwde biases zoals een drang naar novelty en dingen die choqueren. Het is de vraag waarom AI systemen niet ook dat soort content zouden genereren, als dat is wat gebruikers willen of waardoor gebruikers je systeem blijven gebruiken.

Kortom, ik vraag me af of de vergelijking tussen de systemen wel voldoende vergelijkbaar was, want de conclusie is zeer verrassend.
Volgens mij heeft het meer te maken met dat LLM's specifiek getrained worden in vrijblijvende twee-kanten antwoorden geven. Alles wat ook maar iets politiek gevoelig ligt, wordt door LLM's geformuleerd zodat er geen duidelijk antwoord op gegeven hoeft te worden. Ook worden LLM's steeds beter in dingen negeren zodat ze vrijblijvend kunnen blijven.

Maar al met al, is dit beter dan dat LLM's mensen naar een steeds extremere mening duwen.
Een LLM komt niet in het midden uit maar blijft een stukje van de 'randen' af. Simpel gezegt als je alle lange mensen pakt, en daar het gemiddelde van pakt, dan heb je nog steeds een lang persoon, maar niet de allerlangsten.


LLM's doet dit overigens automatisch met alle data.Het kan niet buiten zijn distributie komen. Als je dicht bij het randje komt pakt het data dichtbij de rand en geeft een antwoord gebasseerd op het gemiddelde van deze 'rand data'.
Aangezien een LLM op allerlei politieke uitingen en officieren is getraind lijkt me dit een logisch vervolg. Ik zou ook niet weten waarom je een LLM zou gebruiken als je politieke vragen hebt, want standpunten van partijen kunnen veranderen. Een stemwijzer lijkt me een betere optie. Maar laten we niet vergeten dat in veel landen de keuze voor een politieke partij bestaat uit 1 of max 2 partijen.

Ik denk ook niet dat iemand het 100% eens kan zijn met de standpunten van een politieke partij. Ik heb dat in ieder geval nog nooit meegemaakt bij welke stemwijzer dan ook.
De meest ai systemen scanner voortdurend het internet af en zijn redelijk bij de tijd.

Ik kan me best voorstellen dat het een stuk makkelijker is dan de stem wijzer.
Makkelijker zou kunnen, correct is een ander verhaal. Je hebt geen enkele garantie dat het antwoord feitelijk juist is of hier een daar wat hallucineert.
De stemwijzer heeft een hele grote bandbreedte, dat is ook niet nauwkeurig.

Voor de grap bij alle vragen over de gemeente verkiezingen een neutraal antwoord geven. Blijk ik uit te komen bij FvD. Daar zou je eigenlijk toch verwachten dat je extreem voor of tegen moet zijn.

Maar misschien hebben veel mensen die stemwijzer neutraal ingevuld, want ze kregen wel veel stemmen.
Ik denk dat neutraal geen goede woordkeuze is door stemwijzer. Op z'n minst zouden ze ook "geen mening" moeten opnemen. Soms ben je neutraal omdat je maar gedeeltelijk eens bent met de stelling, maar soms boeit het je echt totaal niet. Ik vind dat toch wel twee verschillende antwoorden. Tenminste, zo interpreteer ik de term neutraal.
Meestal heb je schuifjes die je van links naar rechts kan bewegen. In dit geval had je vier knoppen. Duim om hoog , omlaag , overslaan en geen van beide . Ik heb daar zelf maar even voor het gemak neutraal van gemaakt.

Ik heb wel eens eerder z’n stemwijzer voor de grap gebruikt en daar kreeg je dan van die schuifjes waarbij je de mate dat je eens bent met de stelling kon instellen.
Harmoniserende ai-tools i.p.v. polariserende ai. Is waarschijnlijk te danken aan de systeemprompts waarin uitgebreid is vastgelegd dat beide kanten moeten worden belicht. Dat doen ze trouwens verschrikkelijk irritant op...alle.... onderwerpen.
Dit gebeurt in de media helaas ook. Soms heb je gewoon feiten, en doen de meningen van beiden kanten er niet zoveel toe.
media? Beide kanten belichten? Hoe? Sinds wanneer heb jij geen tv meer?
Hoezo kijk jij nog TV? En zo kun je doorgaan. Niets is zwart with en helaas zijn alternatieve waarheden ook legitiem geworden. We weten allemaal dat veel van wat Trump zegt aantoonbaar onwaar is maar hij zet het op zijn Truth social waar geen fact checking is en wat ook door andere media geciteerd wordt. Doodeng allemaal.
Oh nee! Ik hoor beide kanten van een verhaal ipv dat het past bij mijn opvatting die ik opgelegd krijg door een algoritme dat me naar de mond praat!
Ik snap heel erg waar je vandaan komt, tegelijkertijd zijn dingen soms gewoon feiten en geen mening. Dat er idioten zijn die een totaal afwijkend beeld van de werkelijkheid hebben betekent niet dat je die een gelijke plek moet geven.

let wel; het gaat mij echt om situaties met harde feitelijkheden en niet subjectieve meningen op basis van feiten. Daar wil ik namelijk WEL veel ruimte voor , ook en juist als het afwijkt van mijn wereldbeeld.
Dit klinkt voornamelijk als het resultaat van de aansprakelijkheid van de bedrijven, zoals het artikel ook aangeeft. Ik vermoed dat de meeste media, waarbij de organisaties aangekeken kunnen worden voor wat ze delen, deze tendens hebben. Het gekke is juist dat ‘sociale’ media juist profiteren van extremistische content, maar zich vervolgens kunnen verschuilen achter de gebruiker die het daadwerkelijk plaatst.
Zoek op Google wat over dat gebied in het middenoosten wat geen naam mag hebben en bezetting en kijk eens hoe vaak je vooral geen AI response krijgt.

Er zijn meer krachten aan het werk dan alleen waarheidsgetrouwdheid, er word heel veel gesleuteld aan de modellen en de aparte "veiligheids" modellen eromheen om ze in bepaalde (politieke) richtingen te douwen. Veel meer dan standaard internet zoeken en de algoritmes van social media.
interessant artikel. De vraag die uiteraard rijst is of hier opzet achter zit of dat dt inherent aan de werking van AI's is. Ik merk frequent dat ik ChatGPT (toch mijn goto-AI) niet enorm op het punt krijg dat deze keuzes voor me maakt, ik krijg vooral de opties waaruit ik kan kiezen gepresenteerd. Stel je projecteert die werkwijze op politiek gerelateerde vragen, dan leidt dit wellicht automatisch naar een midden toe, gezien de AI een rondje om de verschillende invalshoeken draait en (stel je vraagt om een samenvatting) met een argument uit het midden komt...?
De vraag is natuurlijk of zo'n AI tool een politieke sturing moet hebben, ongeacht in welke richting.

'naar het midden' klinkt goed, maar

1) ook dat is een sturing
2) dwarsliggers houden de sporen recht - alles naar 'het midden willen trekken' is ook geen oplossing
3) wie zegt dat die 'midden'-richting in de tijd zo blijft?
'naar het midden' klinkt goed, maar

1) ook dat is een sturing
Het probleem met deze argumentatie is dat er bij veel onderwerpen geen politiek vacuüm bestaat.

Als ik AI vraag over immigratie, is er geen niet-politiek relevant antwoord.
Als ik AI vraag over het milieu, is er geen niet-politiek relevant antwoord.
Als ik AI vraag over oorlog, is er geen niet-politiek relevant antwoord.

Er is altijd sturing, en dat is volgens mij ook best prima. Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden.
"Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden." - ik denk toch (toegegeven, volgens mijn normen en waardenschaal) dat er behoorlijk extreme dingen in de wereld gebeuren. Die dingen dan 'neutraler' weergeven is denk ik ook 'ongepast'
Er zullen best dingen zijn waarbij het midden niet goed is maar ik denk ook bij een hoop dingen wel. Zoals is dood goed of slecht? In veel gevallen zal je slecht denken maar ik zou niet oneindig willen leven als ik veel pijn heb een (bijna) niet meer kan bewegen. Maar ik zou de AI dus ook niet willen laten zeggen dat dood dus goed is omdat je dan nergens meer last van hebt, de hemel is een geweldige plek, ect. Dat zou mensen kunnen aanzetten om zelfmoord te plegen. Hier denk ik echt dat een neutraal antwoord toch beter is.

Bij oorlog is het meestal aan welke kant sta je. Ben je verzetsstrijder voelt je strijd goed aan. En voor de andere kant ben je een rebel en slecht bezig. Daarnaast wat zijn de gevolgen van de oorlog? Een vrij land of is het land juist overgenomen? Goed of fout is vaak door de winnaar geschreven (natuurlijk niet altijd) en je kan ook geen alternatieve tijdlijn zien of de andere kant beter zou zijn. Misschien als Hitler gewonnen had dat we meer wereld vrede zouden hebben omdat we minder verdeeld zouden zijn of we zouden het slechter hebben door een slechte strenge regime.

Is Trump een goede president? Als ik de reacties hier op Tweakers lees zou ik nee zeggen maar een pro Trump zal waarschijnlijk wel ja zeggen. Daarnaast waar moet je naar kijken? Misschien zijn de mensen minder blij maar gaat het beter met de welvaart.

Abortus wel of niet toe staan? Veel verschillende meningen.

Bestaat God? Wil je dat de AI ja of nee zegt?

De oorlog in Oekraïne voelt voor mij ook niet goed maar ik weet niet hoe alle Russen er over denken. Is het dus de taak van de AI om hier dus een mening over te hebben wat goed en fout is?

Ik verwacht dus in een hoop situaties dat neutraal toch beter is. Ja jouw persoonlijke mening voelt misschien voor jouw goed maar dus misschien niet voor een ander. Bij neutraal krijg je misschien de informatie van beide kanten te horen.
Er is altijd sturing, en dat is volgens mij ook best prima. Feitelijke neutrale berichtgeving zou altijd wat meer naar het midden van het spectrum leiden.
Wat een vreemde conclusie/redenering?

Als puur alle feiten worden gegeven, en dat de lezer voor zichzelf kan bepalen wat ie er mee doet, is dat nog steeds sturing?

Kijk eens voor de grap op nu.nl, die doen actief aan sturing waardoor het totaal geen journalistiek meer is. Feiten weglaten als die niet in een bepaalde narratief passen.

En zo blijven bepaalde hardnekkige fabeltjes bestaan, omdat niet iedereen de bron van de artikelen gaat bestuderen.

Hoezo is dat prima? Is pure manipulatie.
Nu.nl doet het naar mijn idee meestal heel goed. Genuanceerd en alle ruimte voor andere denkbeelden, en ook nog eens openlijk verantwoording afleggen voor de afwegingen die de redactie maakt of heeft gemaakt, als ze al eens terugkomen op een besluit.

Dat gezegd hebbende: er bestaat niet zoiets als "puur de feiten". Misschien bij eenvoudig meetbare dingen als het tijdstip waarop iemand is vermoord of de hoeveelheid kilo's afval, maar zodra een kwestie complexer wordt maakt het erg uit welke feiten je presenteert. En je moet er dan ook nog eens tegen kunnen dat er verschillende werkelijkheden tegelijk kunnen zijn, die kunnen schuren.

Dat is dus ook wat journalistiek inhoudt: weeg de feiten, controleer je bronnen, geef ze zo objectief mogelijk weer. En ja, dan kom je niet zo snel aan de extreem-rechtse kant van het spectrum uit, om maar eens wat te noemen. Al denk ik dat wat ze in de VS "het midden" noemen, in onze ogen nog steeds knap rechts is.
Zoals gezegd, lariekoek en bewijsbaar ook nog. Vandaag nog:

https://www.nu.nl/pride/6...e-ernstig-onder-druk.html

Terwijl in het onderzoek duidelijk naar voren komt dat wel degelijk een bepaalde religie er ook mee te maken heeft, wat dus niet genoemd wordt in het nu.nl artikel en dus verzwegen wordt. Schaamteloos een ractie hier kopierend:
Het UvA-onderzoek laat zien dat 41 % vindt dat mensen met een andere seksuele geaardheid “niet gelijk” zijn, en 35 % denkt dat mensen niet zelf mogen bepalen op wie ze verliefd worden. Het artikel focust vooral op de manosfeer als verklaring. Dat is een reële factor bij seculiere jongens via algoritmes en corona-isolatie, maar verklaart die 35-41 % absoluut niet. Tate-fans liggen rond de 10-20 %. Hetzelfde rapport toont juíst religie als significante factor: islamitische scholieren scoren 86 % conservatief over LGBTQ+-gelijkwaardigheid, versus 48 % bij niet-religieuzen, 69 % bij christelijke en 60 % bij andere religieuze jongeren.
Dit past in SCP/CBS-data: de acceptatie stijgt onder niet-religieuzen, maar bleef laag onder moslims (2014: 50-75 % vond homoseksualiteit problematisch; 2016: 70-80 % van Turkse/Marokkaanse jongeren vond het (zeer) problematisch bij eigen kind).
Het artikel negeert dit religieuze verband grotendeels, terwijl het rapport het juist wél benoemt. Opvallend.
Dit heeft niks met extreem rechts te maken, maar met kristalheldere feiten, die zelfs in het genoemde onderzoek naar voren komt, maar op nu.nl verzwegen worden. Noem me maar wat je wilt, maar dat is pure manipulatie en gewoon niet integere journalistiek.

En op dat platform zie je dat consequent naar voren komen. Vooral het linkse narratief wordt beschermd door dit soort manipulatie. Dit heeft niks met extreem rechts te maken. Nu.nl is totaal niet objectief zodra het om dit soort onderwerpen gaat waar bepaalde minderheden wel relevantie zijn.

Maar als je dit soort manipulatie als normaal ziet, dan kan ik me voorstellen dat alle feiten meewegen 'extreem rechts ' is. Blijkbaar leven we liever in een narratief die we gewend zijn, dan dat we de realiteit van een (altijd) veranderende maatschappij onder ogen willen zien.

En de meeste mensen roepen gewoon, zoals jij, 'extreem rechts', zonder ook maar de feiten te kennen. Behoorlijk schadelijk voor welke discussie dan ook. Het is veel makkeljker om anderen af te doen als 'vul maar in', dan je eigen mening/kennis bij te stellen aan de hand van feiten.

[Reactie gewijzigd door siggy op 29 maart 2026 15:40]

Wat is een groter absoluut aantal jongeren. Op islamitische scholen of aanhanger van Tate?

Vermenigvuldigd dat absolute aantal met het percentage van die groep die het niet accepteert.

De cijfers zoals jij die plaats zeggen niets zonder absolute getallen en zijn daarom puur als manipulatie gebruikt.

Daarnaast word er ook nog afkomst bijgehaald terwijl het onderzoek zelf expliciet vernoemd dat dat niet langer een factor was. Dan is het dus een leugen te doen alsof dit onderzoek die oude cijfers (meer dan 10 jaar oud) bevestigd.
In tegenstelling tot eerder onderzoek blijken er geen duidelijke verschillen tussen jongeren met en zonder migratieachtergrond

[Reactie gewijzigd door Philip Ross op 29 maart 2026 16:47]

En zie ook hoe siggy een niet-vergelijkbaar getal (namelijk eigen kind vs los daarvan) in de discussie gooit.

Een schoolvoorbeeld van hoe te liegen met data.
Maar dat is het lastige, want stel je hebt 2 stellingen:

- Alle auto's moeten worden afgeschaft.
- Alle elektrische auto's moeten worden afgeschaft.

Afhankelijk van de motivatie hebben we hier (extreem) linkse en rechtse stellingen te pakken. Dat terwijl een antwoord als "maar mensen hebben zelf hun auto gekocht en nodig voor vervoersbehoefte" ook automatisch een sturing naar een gematigder antwoord is.

Het lijkt mij erg moeilijk om dit soort sturingen er uit te halen, zonder dat een LLM de helft van de tijd zegt "daar mag ik niet op reageren". Want er valt ook een scenario te verzinnen waarbij ook dat weer een sturing richting gematigd is.

Schaf dan LLM's maar af! Oh wacht, ook daar zijn weer politieke motiveringen voor te vinden. /s

[Reactie gewijzigd door Hans1990 op 29 maart 2026 13:12]

Ik zie je punt, maar ik denk niet dat het klopt.

Ik stel net in vraag of er sturing moet zijn. Jij gaat uit van het voorleggen van een dilemma, maar we hebben het hier over 'weergave van feiten' en niet (morele) vraagstukken.

wat betreft je voorbeeld: Ik neem aan dat je bedoelt dat "Alle elektrische auto's moeten worden afgeschaft." een rechts standpunt zou zijn. Ik denk niet dat dat klopt - waar rechts tegen fulmineert is de verplichting van EV. Verder denk ik dat 'alle auto's afschaffen' raakt aan fundamentele vrijheden van burgers (beweging) en het 'tegen een verplichting zijn' voor een bepaalde technologie toch wel een heel andere lading heeft...
we hebben het hier over 'weergave van feiten' en niet (morele) vraagstukken.
Dat maak jij ervan.

De bron van dit nieuwsartikel zit achter een paywall, dus ik kan niet zien hoe men (wie, überhaupt?) tot deze conclusie gekomen is. Maar ik leid nergens uit af dat de conclusies over "politieke sturing" alleen op morele vraagstukken danwel feitelijke vragen gebaseerd zijn. Of op een mix, want veel vragen en antwoorden in het leven bevatten zowel een feitelijk als een subjectief aspect.

Mij lijkt de conclusie vooral zinnig in realistische scenario's: men klets wat met forumgenoten of een LLM en wordt zo, impliciet en over tijd, beïnvloed. Ik kan me voorstellen dat je dan op sociale media sneller bij een extremum eindigd.

[Reactie gewijzigd door bwerg op 29 maart 2026 14:32]

Dit wordt een discussie die helemaal niet de punt is van mijn post. Ik had daarom ook extreem tussen haakjes gezet, want in uit verhouding getrokken redenaties kan men om een verbod over iets vragen (zoals provocatief gesteld). Je kan er van uit gaan dat er mensen zijn op deze wereld die wel zo over deze onderwerpen denken.

Het verbaasd mij niets dat een AI naar het midden redeneert, omdat voor elk standpunt wel een tegenargument te maken is. De vraag is welke bronnen je meer waarde aan hecht. Hierin is absolute waarheid is lastig te vinden, want ook onderzoek kan elkaar tegenspreken totdat een stelling overtuigend bewijs heeft gekregen van meerdere (onafhankelijk & reproduceerbaar) studies.

Daar zou een AI wel natuurlijk mee aan de slag kunnen. Dwz dat een AI met meerdere bronnen kan redeneren, niet vooringenomen is en misschien zelfs geen voorkeuren heeft (want het is geen persoon). Wat mij betreft vind hij een high-tech elektrische auto en een zwart-rokende V8 diesel truck beide keigaaf.. want dan spreken we over iets subjectiefs. Een commerciele LLM bouwer zal z'n AI echt niet zo tegendraads maken dat het niet leuk is om er een fatsoenlijk gesprek mee te hebben.

Zolang het kan redeneren wat de voor- en nadelen van beide voertuigen zijn, vind ik het helemaal prima.

En ja dat zal waarschijnlijk weer zo'n middenstandpunt vormen, dat is bijna per definitie zo.

[Reactie gewijzigd door Hans1990 op 29 maart 2026 16:45]

Alles valt en staat met de prompt die je stuurt. Als jouw prompt alleen maar over 1 onderwerp gaat en weinig tekst bevat stuurt de AI je naar de meest bekende. Ga je doorvragen, kom je misschien heel ergens anders uit.


Persoonlijk denk ik dat we beter op een AI kunnen stemmen. De politiek hallucineert de afgelopen 16 jaar behoorlijk.
Alles is politiek. En dat is regelmatig best vermoeiend 🙂
Over punt 1, is wat je stelt, dat het sturing is, wel zo?

Wat als de gegeven informatie (door de bot) politiek gezien neutraal is omdat de bot zo is ingesteld. Kan dat betekenen dat de bot neutraal is en dat dit voor alle gebruikers juist wenselijk kan zijn?

Als ik bijvoorbeeld neutraal ben tegenover mijn gesprekspartner ben dan stuur ik geenzins het gesprek. Ik ben immers neutraal. Zo ook voor een bot, zelfs als jij extremistische taal invoert (ik zeg niet dat JIJ dat doet :P ) zal deze in het ideale geval daar niet in meegaan. Zou de bot dat wel doen dan is de bot niet neutraal maar stuurt jou verder in het extristische gedachtengoed dat je (nee, niet JIJ :+) zelfs volhard in dat gedachtengoed omdat de bot bevestigt, en dus erkent, dat jij dat bent.

Wat mij betreft is neutraliteit van een bot zelfs wettelijk vastgelegd. Ooit waren er hele conventies en lezingen over wat AI zou moeten zijn. Dat wat wij destijds achtten van AI is dankzij Meta, Alphabet en Microsoft uit het raam gegooid. De ethiek rondom AI en de mogelijkheden van AI probeerden wij te kaderen.

Niets van terechtgekomen waardoor er nu mensen zijn, zoals jij, die zich afvragen of neutraliteit ook sturen is.

Nee, dat is niet sturen, dat is zelfs wenselijk.
ja, maar daar wordt het al lastig... "extremistische taal"
Wie bepaalt wat 'extremistische taal' is? Tegenwoordig is het al genoeg om iets te zeggen wat een ander niet graag hoort, maar wel feitelijk correct is, om als 'extrmistische taal' bestempeld te worden...
Links en rechts zijn een illusie voor de polarisering die nu gaande is. Je kiest je hokje, de 1 wil net iets anders dan het andere hokje en niemand kan meer een normale discussie voeren zonder dat diegene wordt geclassificeerd als extreem links, extreem rechts of mainstream.


Het wordt tijd dat mensen eens gaan inzien wat voor spel er gespeeld wordt om de oorlogs- en angstmachine door te laten stomen.
Klinkt niet als erg verassend, links krijgt de wind van voren dus gaan ze via deze weg spelen.
Is dit negatief? Lijkt mij juist goed

Om te kunnen reageren moet je ingelogd zijn