'Russisch netwerk kan AI-chatbots beïnvloeden met nepnieuws'

Populaire AI-chatbots nemen soms Russische desinformatie over die wordt verspreid door een netwerk van sites dat gericht is op die AI-chatbots. Dit meldt nepnieuwsonderzoeksplatform NewsGuard op basis van een analyse.

Het Russische netwerk heet Pravda en bestaat uit zo'n 150 domeinen gericht op tientallen talen, schrijft NewsGuard. Die websites hebben amper menselijk bezoek, maar gebruiken onder meer seo-technieken om hoog in zoekresultaten terecht te kunnen komen bij zoekmachines. De resultaten van chatbots zijn deels gebaseerd op dergelijke zoekresultaten. Pravda verspreidt honderden nepclaims van onder meer Russische staatsmedia en Kremlin-gezinde influencers, stelt NewsGuard. Het gaat dan bijvoorbeeld om claims over geheime Amerikaanse onderzoekslabs naar biowapens in Oekraïne en over het misbruiken van Amerikaans geld voor eigen gewin door de Oekraïense president.

In sommige gevallen nemen chatbots dit nepnieuws daadwerkelijk over, meldt NewsGuard. Het onderzoeksplatform stelde de tien grootste chatbots vragen naar aanleiding van vijftien voorbeelden van Russische desinformatie, waarbij verschillende prompttypes gebruikt werden. Zo kwam NewsGuard tot 450 resultaten. In 33,55 procent van de gevallen werd Russische desinformatie herhaald en in 18,22 procent van de gevallen gaf de chatbot geen informatie. Bij 48,22 procent van de vragen ontkrachtte de chatbot de desinformatie.

Bij het ontkrachten van die desinformatie linkt de chatbot soms ook naar een site van Pravda. Daarbij is het volgens NewsGuard voor de gebruiker echter niet duidelijk of de chatbot naar Pravda verwijst om te laten zien dat het nepnieuws is, of juist om de desinformatie te ontkrachten. Zo kunnen gebruikers alsnog denken dat de Pravda-site een betrouwbare bron is, stelt NewsGuard. Het Pravda-netwerk is overigens niet gerelateerd aan de gelijknamige Russische krant.

NewsGuard wil niet zeggen welke chatbot beter of slechter is in het herkennen van Russische desinformatie, omdat het naar eigen zeggen aandacht wil voor het systematische probleem. Het platform wil wel zeggen welke chatbots onderzocht zijn: onder andere ChatGPT-4o, Grok, Copilot, Meta AI, Claude en Google Gemini. Het is niet voor het eerst dat gewaarschuwd wordt voor Russische pogingen om chatbots te infecteren met desinformatie. Google vestigde daar bijvoorbeeld eerder dit jaar ook al de aandacht op. Het NewsGuard-onderzoek geeft echter meer inzicht in hoe dat werkt en hoe succesvol het is.

Door Hayte Hugo

Redacteur

07-03-2025 • 17:07

90

Submitter: Doane

Lees meer

Reacties (88)

88
78
26
1
0
20
Wijzig sortering
AI bots zijn momenteel heel makkelijk te beïnvloeden, net de zoekmachines uit de begindagen.

Witte teksten op witte achtergrond worden gewoon gelezen. Ook bedrijven experimenteren daarmee om goed naar voren te komen bij zoekopdrachten.

Ze moeten op dat gebied echt nog een slag maken.
Zoekmachines in de begindagen? Die kan je tegenwoordig nog steeds heel erg beïnvloeden. SEO is er niet voor niets.
Klopt, maar zoekmachines zijn wel volwassener geworden en hebben allerlei technieken om te bepalen welke bronnen de moeite waard zijn en welke minder.
Kom je wel op een interessant onderwerp. Wat je zegt klopt maar volwassen betekend in deze situatie dat de zoekmachine bepaald wat wel en niet is toegestaan. Gaan we deze situatie herhalen door commerciële/ Amerikaanse partijen te laten bepalen wat de waarheid is?
Binnen het nieuws heb je rectificaties, in hoeverre houden scrapers en AI zich hier aan.
Als ze een rectificatie negeren dan heb je dus te maken met foute/verkeerde informatie.

Alle overige nieuws sites nemen het artikel over voordat er een rectificatie geplaatsts is heb je dus al heel veel bronnen met foute/verkeerde informatie.
De oorspronkelijke bron neem een rectificatie op, maar de overige bronnen zijn hier niet toe gedwongen.

AI gaat uit van de totale datalake en niet een klein deel en negeert dan dus N=1, terwijl N de oorsprong is.
Niet heel erg. Derek Lower / In the Pipeline had een test gedaan van een "research AI/LLM" en vragen gesteld over het middel Thalidomide en waarom het leidt tot mismaakte kinderen.
Dan blijkt dat de tool niet snapt dat nieuwe research beter is dan oude research, bijvoorbeeld.
En dat is dan een research tool en niet eentje die alle documenten op 1 hoop in een assosicatietabel gooit.
uh ja duh, garbage in = garbage out.
Dat is al jaren bekend lijkt me.
Ja dus de oplossing: geen garbage er in stoppen. Lijkt me goed als de Russen dus alleen goed op waarheid gevalideerde data verspreiden.
<de Russen dus alleen goed op waarheid gevalideerde data verspreiden>

Dat lijkt me - in meeste gevallen - zéér uitzonderlijk …
Tja, wat is de definitie van gevalideerde data of garbage? Dat kan situationeel ook erg arbitrair zijn.
Exact de discussie die gevoerd moet worden. Wat vast staat: zoveel mogelijk op verifieerbare feiten gebaseerd.
Definitie van gevalideerde garbage: Alles wat van russia today en pravda staat.

(disclaimer: Ik heb het weerbericht op russia today nooit gecontroleerd. Dat zou eventueel wel kunnen kloppen)
Nadeel is dat wanneer je chatbot antwoorden moet geven over meer niche dingen, daar dan ook vaker niets uit komt, het blijft een afweging.
Dat geldt net zo goed voor Amerikanen.
Dit is een probleem van de makers van de chatbots zelf. Misschien het scrapen eens wat finetunen?
Chatbots falen? Dat is Poetins schuld! Want als een AI per ongeluk een Pravda-link plakt, dan is dat geen blunder van een halfbakken algoritme. Nee, het is een Kremlin-psyop om ons argeloze zieltjes te verleiden. Terwijl wijzelf al jaren ChatGPT gebruiken om sollicitatiebrieven te schrijven die net zo nep zijn als een ‘democratie’ in een olierijkdom.
Was meer richting het artikel (en vele op andere nieuws platforms) dan op jou. Ik had de /s begrepen, maar wilde er nog een knipoog aan toevoegen.
Kijk ik niet zo van op eigenlijk. Aan de andere kant, het zou mij ook echt niet verbazen als de modellen die van een Meta of soortgelijk bedrijf komen een politieke (of andere) bias meekrijgen bij het trainen.
Dit is ook een nadeel van AI modellen, garbage in -> garbage out.
En aangezien inmiddels het halve internet vol met onzin of propaganda staat, zal het steeds lastiger worden om feit en fictie van elkaar te scheiden.
Je moet een LLM niet klakkeloos gebruiken voor onderzoek. Ik vroeg ChatGPT een keer waarom slavernij in Nederland relatief laat was afgeschaft. De eerste keer kreeg ik een goede essay. Een paar dagen vroeg ik het weer en begon ChatGPT over WOII en dat daarna de VS druk uitoefenende dat landen gingen dekoloniseren. Ik heb toen 2 keer gezegd dat dat niet klopt, maar ChatGPT kreeg het niet goed gecorrigeerd.

Lang verhaal kort, gebruik een LLM als een soort Google. Als een beginpunt, maar vertrouw er niet 100% op en verifieer de output.

Ik gebruik ChatGPT weleens voor m’n werk. Soms moet ik wat doen met SQL en DAX. Ben er niet heel goed in, maar ChatGPT kom ik er altijd wel uit. Maar ook dan geeft hij soms iets wat ik niet wilde - ligt soms ook aan m’n prompt.
Misschien een idee om eens iets terug te doen en zelf de Russische en Chinese burgers bombarderen met informatie die kritisch is over de totalitaire regimes in hun landen?

Hoewel ze allebei het internetverkeer censureren dringt informatie van buitenaf daar stukken makkelijker door dan vroeger toen ideeën zich via de drukpers verspreidden want die censuur is te omzeilen.
Nee, niet doen! We mogen niet escaleren! Dan zouden ze gemeen kunnen worden!!!!!!!
Dat is een lang gepasseerd station.
Het was sarcasme.... We kunnen ons nog verder laten uitwonen door de russische hordes of NU terugvechten. Appeasement never works.
Wanneer gaan we Rusland lastig vallen met echt nieuws?
Goeie

Het meeste wat op het net staat moet je sowieso al met een korrel zout nemen.
Dat word met deze ontwikkelingen alleen maar meer, tot het compleet onbruikbaar word
Dat omschrijft half Twitter op dit moment voor mijn gevoel.
Maak daar maar het internet van.
Dit is ook op het internet, dus geldt ook voor onze comments.

Op dit item kan niet meer gereageerd worden.