AI's van Google en Microsoft nemen informatie over van Musks Wikipedia-kloon

Niet alleen ChatGPT, maar ook AI-bots en -diensten van Google en Microsoft halen informatie uit Grokipedia, de AI-gedreven Wikipedia-kloon van Elon Musk. De online-encyclopedie fungeert als bron voor Googles chatbot Gemini, de AI-modus en AI-overzichten in de zoekmachine, en voor Microsoft Copilot.

Citaties uit Grokipedia, dat volgens Musk objectiever is dan Wikipedia, verschijnen in antwoorden van diverse AI-diensten van grote techbedrijven. Dat blijkt uit tests van seo-bedrijf Ahrefs, waarover The Verge bericht.

Uit de analyse van Ahrefs blijkt dat ChatGPT Grokipedia aanhaalt in circa 263.000 antwoorden op in totaal 13,6 miljoen prompts. Daarbij wordt verwezen naar ongeveer 95.000 afzonderlijke Grokipedia-pagina’s. Dat aantal verbleekt bij de 2,9 miljoen antwoorden waarin Wikipedia wordt genoemd, maar is volgens marketingdirecteur Glen Allsopp van Ahrefs 'indrukwekkend gezien hoe nieuw het platform is'.

Eind oktober vorig jaar introduceerde Musk Grokipedia. De encyclopedie is gevuld met AI-gegenereerde content en ontwikkeld door zijn AI-bedrijf xAI, dat ook chatbot Grok bouwt. De miljardair uit al jaren felle kritiek op Wikipedia, dat hij beschuldigt van een linkse agenda en propaganda. Data van AI-zoekbedrijf Profound laat zien dat Grokipedia dagelijks goed is voor 0,01 tot 0,02 procent van alle ChatGPT-citaties. Dat is een klein aandeel, maar wel één dat sinds medio november gestaag groeit.

Zorgen over misinformatie

ChatGPT haalt Grokipedia vaker aan dan andere AI-bots en -diensten, meldt The Verge. Toch is ook bij andere platforms een toename zichtbaar. Profound zag in december een piek in Grokipedia-citaties binnen Googles AI-producten, waaronder Gemini, AI-modus en AI-overzichten.

Ahrefs stelt vast dat Gemini Grokipedia in 8600 antwoorden aanhaalt bij 9,5 miljoen prompts. In Googles AI-overzichten gebeurt dit 567 keer bij 120 miljoen prompts. Microsoft Copilot verwijst in 7700 antwoorden naar Grokipedia bij 14 miljoen prompts. Perplexity doet dat slechts twee keer op eveneens 14 miljoen prompts.

Voor Gemini en Perplexity liggen de aantallen inmiddels wel lager dan in november. Volgens Ahrefs en Profound wordt Grokipedia vooral gebruikt bij obscure of zeer specifieke feitelijke vragen. The Guardian onthulde vorige maand dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen, zoals vragen over Iran en de ontkenning van de Holocaust. Dit leidt tot zorgen over de verspreiding van mis- en desinformatie.

Grokipedia
Grokipedia

Door Jasper Bakker

Nieuwsredacteur

02-02-2026 • 15:15

61

Reacties (61)

Sorteer op:

Weergave:

Volgens de bron zijn er 2 redenen waarom dit een probleem is.
  1. Dit is circulaire AI. Grokipedia is AI gegenereerde informatie die niet gecontroleerd wordt.
  2. Grokipedia is van Musk en die heeft eigen opvattingen over de betrouwbaarheid van Legacy media. Grokipedia is gekleurd en een potentiële bron van misinformatie verwijzingen.
Daar zit wat in, daarom zou het interessant om te weten hoe vaak de AI's zich in de luren hebben laten leggen en foute informatie hebben geleverd. Dat zegt iets over de kwaliteit van de AI's in plaats van de vooringenomenheid van Grokipedia.

Dat lijkt me veel interessanter, ook omdat Grokipedia zelf een contentieus onderwerp is.

[Reactie gewijzigd door locke960 op 2 februari 2026 17:49]

The Guardian onthulde vorige maand dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen, zoals vragen over Iran en de ontkenning van de Holocaust. Dit leidt tot zorgen over de verspreiding van mis- en desinformatie.
Tweakers zegt hier heel wat anders dan het Guardian artikel waar het zelf naar linkt. The Guardian heeft het niet over vragen over de ontkenning van de holocaust, maar over vragen over de biografie van iemand die onder andere betrokken was als getuige bij een smaad zaak over de beschuldiging van holocaust ontkenning. Daar had Grokipedia dan een detail fout over wat die getuige daar precies deed. Tenminste, in de eerste week dat het online was, inmiddels lijkt dit al aangepast op Grokipedia.

Er staat een hoop foutieve AI slop op Grokipedia, dat ontken ik zeker niet. Naar mijn anekdotische ervaring meer dan op Wikipedia (dat ook verre van onfeilbaar is). Maar om dan solidair ook met misinformatie te komen, straks eindigt dit weer in chatGPT en blijven we gaan 8)7
edit:
Ik ben er nog iets dieper in gedoken, jullie eigen referentie naar The Verge meldt expliciet dat de zoekmodellen Grokipedia alleen autoriteit geven bij ‘niet-gevoelige’ zoek opdrachten (zie hieronder). Dit is compleet tegendraads met hoe jullie de laatste paragraaf hebben opgesteld, waar Tweakers.net stelt ‘dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen’.
‘In many cases, AI tools appear to be citing Grokipedia to answer niche, obscure, or highly specific factual questions, as The Guardian reportedlate last week. Analysts agree. Jim Yu, CEO of analytics firm BrightEdge, told The Verge that ChatGPT and AI Overviews use Grokipedia for largely “non-sensitive queries” like encyclopedic lookups and definitions, though differences are emerging in how much authority they afford it.

[Reactie gewijzigd door svenk91 op 2 februari 2026 16:21]

En dan maakt de leerling zijn werkstuk met AI en de docent controleert het zelfde stuk met AI. Als we zo door gaan mogen we hopen dat AI nog eens echt intelligent wordt, want zelf zijn we dan werkelijk alles verleerd.
edit:
wordt hieronder uitgebreid beschreven.

[Reactie gewijzigd door pegagus op 2 februari 2026 16:33]

Er staat een hoop foutieve AI slop op Grokipedia, dat ontken ik zeker niet. Naar mijn anekdotische ervaring meer dan op Wikipedia (dat ook verre van onfeilbaar is). Maar om dan solidair ook met misinformatie te komen,
Bizarre zwartmaking van Tweakers (en raar genoeg: Wikipedia?) voor wat waarschijnlijk een slordigheidsfoutje was
Maar de ironie van een nieuwsartikel over misinformatie, dat dan zelf misinformatie bevat dat niet alleen het foutief interpreteren behelst van één van je eigen bronnen, maar zelfs het exact tegenovergestelde beweert van een tweede bron, dat is toch wel noemenswaardig? Ik maak ook wel eens zulke slordige fouten, maar daar mogen mensen mij ook op aanspreken. Ik zie zulke factchecking niet als bizarre zwartmaking. Ik beschuldig Tweakers hier ook bewust niet van desinformatie, waarmee ik hopelijk impliciet wel duidelijk maak dat ik hier niet uit ga van dat er opzettelijk gehandeld wordt.

Edit: Wikimedia, de organisatie achter Wikipedia adviseert zelf om er naslagwerken of specialistische boeken naast te leggen. Ze zijn er altijd heel open in dat je Wikipedia niet zomaar voor waar moet aannemen. Wikimedia erkent juist dat fouten inherent zijn aan hun model waar eenieder vrij is input te leveren en er geen strikte methodiek om tot publicatie te komen wordt gehanteerd (zoals bijv. bij wetenschappelijke publicaties), en hebben juist daarom ook functionaliteit voor discussie ingebakken.

[Reactie gewijzigd door svenk91 op 2 februari 2026 17:13]

Wikipedia is zelf onderhevig aan misinformatie omdat partijen zoals overheden, intelligentie diensten en bedrijven artikelen aanpassen voor eigen gewin.

Ook hierover zijn Wikipedia artikelen te vinden.
Heb je daar concrete voorbeelden van? Welk persoon/land had eerst een heldenstatus en is bij wijze van spreke een dag later, op hetzelfde onderwerp, ineens "slecht"?
Even kijken of we het over dezelfde Elon Musk hebben. Bedoel je de Elon Musk die echt bekend werd met Tesla waarbij die de EV markt opschudden en tevens met SpaceX een grote speler in de ruimtevaart werd?

En bedoel je dan ook de Elon Musk die steeds vreemdere uitspraken begon te doen op social media, die Twitter kocht en het nog erger maakte waardoor X nu een grote echokamer voor extreem rechts en complotdenkere is geworden? En de Elon Musk die Trump heeft geholpen de verkiezingen te winnen om vervolgens een plekje in het Witte Huis te krijgen voor DOGE, waar hij in korte termijn enorm veel financiële schade en persoonlijk leed heeft gezorgd en later door zijn vriend Trump buiten gegooid werd waarna ze als een stel kleuters begonnen te bekvechten? En die dus X heeft, zijn eigen AI en Wiki, allemaal omdat het narratief hem niet bevalt?

Dan hebben we het over dezelfde Elon Musk. En dan vind je het vreemd dat men de mening over hem na verloop van tijd bijstelt?
Hi

Het gaat om diezelfde Musk.

Ach zoveel billionairs doen rare uitspraken op Social media, kijk naar Bill Gates, of ten minste ze staan daar. Er is aantoonbaar gescensureerd op social media, en gisteren kwam naar buiten dat de EU het rond verkiezeningen ook doet. Als je een senscuur op een platform weghaalt krijg je alle geluiden, net als op feestjes en de werkvloer. Ik vind dat gezond, maar ik snap tegenwoordig dat dit voor velen ook heel erg confronterend kan zijn,. Zeker als belangen op het spel staan voor grote partijen. Het forceren van één geluid kennen onze oosterburen nog heel goed, dat vind ik persoonlijk veel enger.
De media staat er om bekend dat ze niet objectief zijn en maanden kunnen door emmeren over leugens om de andere kant maar in een negatief dachtlicht te zetten. Hier in NL zie je het ook, je kan precies aan de berichtgeving rondon FvD zien wanneer er weer een NL verkiezing aankomt. Het is allemaal te opzichtig, te voorspelbaar geworden.


Maar om terug te komen op de oorspronkelijke stelling. Alles is zwart/wit geworden. Omdat Musk censuur van Twitter verwijderde mocht plotseling niemand meer een auto van hem kopen. Wat heeft technische prestaties nou met zijn mening te maken. Ik bedoel hij moorde geen volkeren uit. Hij had een andere visie op Social Media.......
Ik ben benieuwd naar uitspraken van Gates die zo bizar zijn als sommige van Musk, maargoed, dat terzijde. Maar nee, X is niet "gezond", het is een afvoerputje. Het is een hardnekkige misconceptie dat een "tegengeluid" altijd waardevol is omdat het een tegengeluid is. Dat is natuurlijk niet zo. Als ik een rode auto koop, en jij zegt dat mijn auto zwart is, heb je niet ineens een valide punt.

Laat mij eens een mediabericht zien waarin staat dat we geen auto van Musk meer mogen kopen, of dat een Tesla ineens slecht zou zijn puur omdat Musk aan het roer zou staan? Klinkt een beetje als het ongepast aanmeten van een slachtofferrol. Als ik geen Tesla wil omdat ik de auto troep vindt, is dat voor mij persoonlijk een even valida als dat ik geen Tesla wil omdat er een mafkees aan het roer staat.
Circulaire AI. AI die door AI gegenereerde/geaggregeerde informatie gebruikt, dat gaat vast geen problemen geven...
Dit fenomeen van 'circulaire AI' leidt in feite tot een vorm van digitale inteelt. Ik zie dit nu al op grote schaal in het HBO-onderwijs bij mijn dochters: studenten genereren hun scripties en portfolio’s (deels) met AI, die vervolgens door een AI-gestuurde plagiaatscanner gaan. De resultaten belanden bij docenten en stagebegeleiders, die op hun beurt weer AI-agents gebruiken om al dat gegenereerde werk snel te toetsen en samen te vatten.

Zo ontstaat er een gesloten systeem waarin algoritmes elkaars output beoordelen en valideren. Als de menselijke kritische blik op deze manier uit de keten verdwijnt, blijft er slechts een echoput van herhaalde informatie over. Waar zijn we in godsnaam mee bezig als we de kwaliteit van ons onderwijs en onze informatievoorziening laten uithollen door deze digitale inteelt?
Daar heb je zeker wel een punt, maar ik moet zeggen dat die vroeger ook al speelde hoor!

De enige scripties / werkstukken die ik wat vond toevoegen, waren die waarin je bijvoorbeeld een bedrijfsplan schreef voor je eigen bedrijf of een echte oplossing ging bouwen voor een echt probleem. Of een eigen onderzoek deed en daar weer bepaalde conclusies uit haalde.

Al die dingen van 'schrijf een verslag over WO2', dat was eigenlijk vooral bedoeld om je zelf wat erover te laten leren natuurlijk. Want de output (het werkstuk) wat uit dat soort opdrachten kwam, was sowieso natuurlijk geknipt en geplakt en overgenomen van andere bronnen. Je was er zelf niet bij, hebt geen eigen onderzoek dus je kán niet anders dan andere bronnen herschrijven en dus overnemen.

En nu geef je dus een AI een opdracht om dat te doen en de leerkracht laat het door een AI nakijken. Beide hebben het in 5 minuten voor elkaar, dus dit scheelt iedereen enorm veel tijd en gedoe, haha!
Alleen gaat het bij dat WO2 werkstuk niet over de inhoud per sé, maar over het leren onderzoeken en toepassen van informatie. Iets wat juist dan wordt overgenomen door AI waardoor je de oefening die je moet doen niet doet en dus in feite niet leert wat je moet leren.
Want de output (het werkstuk) wat uit dat soort opdrachten kwam, was sowieso natuurlijk geknipt en geplakt en overgenomen van andere bronnen. Je was er zelf niet bij, hebt geen eigen onderzoek dus je kán niet anders dan andere bronnen herschrijven en dus overnemen.
Eén van de doelen van dat soort opdrachten (tenminste op mijn school) was ook om duidelijk te maken dat je moest nadenken over welke bronnen je wel en niet gebruikt. Om in jouw voorbeeld over WOII te blijven:
  • “De Duitsers waren allemaal fout, hoorde ik in de voetbalkantine” is niet zo’n sterke bron;
  • “De SS’ers in onze stad deden vreselijke dingen dingen, vertelde opa” is al veel betrouwbaarder maar vergt wat aanvulling uit een onafhankelijke bron, en
  • “Joodse Amsterdammers [werden] […] door de sociale dienst naar werkkampen gestuurd en door de politie en het gemeentelijk trambedrijf naar deportatietreinen vervoerd” komt uit een betrouwbare bron en mag je zo als waar aannemen.
Dat is waar het hier misgaat: Grok en zijn eigenaar hebben een slechte reputatie als het gaat om het tegengaan van misinformatie en hechten minder waarde aan het modereren van onjuiste beweringen.

Daarmee krijgen ongenuanceerde (of erger) uitspraken dus alle ruimte en wordt op Grokipedia aan posts van online forums net zo veel gewicht gehangen als aan wetenschappelijke publicaties, bijvoorbeeld over WO2.

Als andere AI tools dat dan weer als bron gaan gebruiken, al dan niet met verzonnen citaten, dan wordt het internet al snel overspoeld met zelfbevestigende onzin. En daar is maar één ding tegen opgewassen: heel flauw en arbeidsintensief alle aangehaalde bronnen in een stuk verifiëren, niet door het aan AI te vragen maar door ze gewoon ouderwets door een catalogus van (wetenschappelijke) publicaties te halen.

Ik hoop van ganser harte dat de docenten op de middelbare scholen van nu, die kritische blik meegeven aan hun leerlingen: AI is een handig hulpmiddel voor zaken die je zelf kunt controleren, maar ook daarbij blijft het nodig om zelf na te blijven denken over hoe betrouwbaar de bron van je informatie echt is.

[Reactie gewijzigd door ZwolschBalletje op 2 februari 2026 17:49]

Het verschil met jouw analogie is dat de leerlingen die 1 jaar na jou kwamen niet jouw werkstuk als bron gingen gebruiken, maar uitkwamen bij dezelfde (waarschijnlijk betrouwbare) bronnen. Als nu de AI zijn ‘werkstuk’ deels bij elkaar hallucineert en de volgende AI dat dan als bron gebruikt dan verwaterd de waarheid heel snel
Mijn vrouw is docent verpleegkunde en heeft tegenwoordig behoorlijk te maken met AI. In begin haalde je ze er zo uit omdat bijvoorbeeld "Mary" of "Jack" werd gebruikt als patiënten naam. Dat gebruik je 99,9% nooit als alias in een Nederlandstalig verslag, maar wordt steeds moeilijker.

Hier zijn criteria op aangepast.

Studenten kunnen (eigenlijk moeten) aangeven dat er AI is toegepast en in welke vorm/hoeveelheid. Wordt er tijdens het beoordelen ontdekt dat er AI is gebruikt (waar niet gemeld) en/of erg veel, wordt het stuk aangeboden aan de examen commissie, nadat met (jawel) AI is gecontroleerd of er mogelijk AI is gebruikt...

Meestal zie je het direct omdat bijvoorbeeld de inleiding in simpele taal is geschreven en de methode in een extreem professionele manier is neergezet, met technieken die niet eens aan bod zijn gekomen in dat jaar/periode.

Er zijn al tal van leerlingen gewaarschuwd. Ook moet het stuk tegenwoordig hoe dan ook verdedigd worden in een 1-1 gesprek, presentatie of een video inleiding waarin belangrijke punten aan bod moeten komen zoals methode en uitkomst.

Het lijkt er op dat in de tijd van AI je weer meer terug moet naar de basis met gesprekken en presentaties zodat je ook kan laten zien wat "je" hebt neergezet in je stuk.
AI mag dan informatie voor iedereen toegankelijk maken, maar het is de vraag of het die informatie ook begrijpelijk maakt. Het doel van scripties, toetsen en examens is om na te gaan of een leerling of student de aangeboden stof begrepen heeft. Met het copy-pasten van een door AI gegenereerd antwoord kan dat niet.

Dat is meteen ook waarom het gebruik van AI door docenten en leden van examencommissies niet hypocriet is. Dat zijn professionals waarvan verwacht mag worden dat zij de betreffende stof beheersen.
Mijn eerdere reactie was inhoudelijk bedoeld als analyse, maar ik zie achteraf dat de formulering te stellig en te framend was. Het punt is niet dat docenten of instellingen ‘fout’ zitten, maar dat we midden in een systeemverandering zitten.

Ik snap het verschil dat je maakt tussen docent en student, maar ik denk dat je het te eenvoudig voorstelt als “student copy-paste, professional beheerst de stof”. AI maakt het juist noodzakelijk om de toetsing anders in te richten: een eindtekst alleen is geen bewijs meer van begrip, of die nu door een student is geschreven of door AI is gegenereerd.

De kernvraag wordt: kan iemand uitleggen hoe het antwoord tot stand kwam, welke bronnen zijn gebruikt, welke keuzes zijn gemaakt, en welke onzekerheden er zijn? Dat is precies waarom verdediging, gesprekken en reflectie op bronnen zo belangrijk worden.

En dan is het logisch dat docenten AI gebruiken als hulpmiddel, maar niet als autoriteit. Zodra AI vooral wordt ingezet als controlemechanisme, terwijl er geen expliciete normering of duidelijke kaders zijn voor verantwoord gebruik door studenten, ontstaat er onvermijdelijk frictie. Niet omdat studenten lui zijn, maar omdat toetsvormen, leerdoelen en onderwijsinrichting nog zijn gebaseerd op een werkelijkheid waarin AI geen structureel onderdeel van leren en werken was.
Ben je pissig dat je eigen, door AI heschreven verslag of werlstuk is afgewezen?

Studenten moeten geen onderzoeksverslag schrijven om de docent bezig te houden. Ze moeten een onderzoeksverlag schrijven om te verslaan wat ze ze tijdens een onderzoek hebben geleerd. Het leren is het hoofddoel, niet het schrijven van het verslag.
Wat heb je er aan wanneer een student verpleegkunde alle ins en outs van AI begrepen heeft en daardoor een perfect verslag heeft weten te produceren, maar niets geleerd heeft en daardoor patiënten niet goed kan verplegen?

Democratisering betekent naar mijn idee, niet dat iets voor iedereen beschikbaar is. Het betekent dat de meerderheid ergens over beslist.
Democratisering van kennis heeft voor mij de betekenis dat de meerderheid beslist welke kennis wel en niet waar is. Dat doet me de rillingen over het lijf lopen. Dat zou het einde betekenen van de wetenschap en het einde van beschaving zoals wij dat kennen.

[Reactie gewijzigd door CivLord op 3 februari 2026 14:35]

Laten we het persoonlijk even loslaten, want inhoudelijk zitten we volgens mij dichter bij elkaar dan het lijkt. Dat leren het hoofddoel is, daar ben ik het volledig mee eens. Juist daarom moet toetsing laten zien wat iemand begrijpt en kan toepassen, niet alleen of iemand een tekst kan schrijven zonder hulpmiddelen.

Met democratisering van kennis bedoel ik niet dat de meerderheid bepaalt wat waar is, maar dat kennis en uitleg veel toegankelijker zijn geworden. Wellicht verkeerd benoemd en had ik het gewoon bij toegankelijkheid moeten houden. De wetenschappelijke methode blijft leidend. Wat wel verandert, is dat onderwijs zijn toetsvormen moet aanpassen aan een werkelijkheid waarin AI er simpelweg is.
"De AI-meltdown"
Maar dat gaat breder:
  • 1) AI wordt getraind op pagina's met door mensen gegenereerde informatie en gebruikt die informnatie om zelf antwoord te geven.
  • 2) Daardoor droogt de traffic naar dergelijke pagina's op.
  • 3) Minder trafic is minder inkomsten én minder motivatie voor de schrijver om überhaupt die informatie te schrijven en te publiceren.
  • 4) Minder pagina's = minder bronmateriaal voor de AI. Er is wel veel AI-slob, inclusief hallucinaties. Het aandeel (relatief) betrouwbare informatie word steeds kleiner.
  • 5) Daardoor wordt ook de output van AI steeds onbetrouwbaarder. (door naar punt 4)
  • 6) AI wordt onbetrouwbaar. Goede internetsites zijn inmiddels verdwenen door de concurrentie van AI... het internet is stuk en zal van voren af aan opgebouwd moeten worden.

[Reactie gewijzigd door T-men op 2 februari 2026 15:53]

Van wie was de songtekst "It's the end of the world, and you know it" ook al weer?

Superinteressante tijden waar we in leven.

Ben benieuwd wat deze papagaaiende LLM's "zelf" zouden zien als een goede aanpak voor dit probleem.
"It's the end of the world as we know it" bedoel je denk ik, van REM.

And I feel fine.
Net als met alles, ook je gezonde verstand blijven gebruiken en zelf fact checken. AI's zijn niet de heilige graal hoe handig ze ook kunnen zijn.
Het probleem is dat je mogelijk over niet al te lang alleen nog offline kan factchecken, allerlei "nieuws sites" maken al artikelen mbv of volledig door AI, als websites als Wikipedia verdrongen gaan worden door AI klonen en de fora ook steeds meer overspoeld worden door AI antwoorden waar ga je dan nog iets fact checken online.
De "posters" van reddit kon en kan je al niet vertrouwen dat het daadwerkelijke mensen zijn die antwoorden en met AI word het onderscheid alleen maar moeilijker te maken.
Als iedereen daadwerkelijk verplicht er bij zouden moeten zetten en het ook zouden doen als iets ook maar enige invloed van AI heeft (dus ook als een auteur het heeft laten samenvatten/herschrijven door AI of dat de bron iets is wat met AI gemaakt is) dan zou je in theorie nog er op kunnen filteren maar of genoeg mensen dat doen om de sites te laten bestaan die geen AI gebruiken is dan nog maar de vraag.

Iedereen een encyclopedie thuis laten doorzoeken om te controleren of iets klopt of wetenschappelijke publicaties laten doorzoeken(voor zover je die wel kan vertrouwen) is voor 95% van de wereldbevolking niet weggelegd.
Verschrikkelijk inderdaad, de figuren die een "behulpzaam" AI antwoord plaatsen. Fora zijn er nog niet echt op voorbereid om daarmee te dealen.
Bijna de hele top van zoekresultaten zijn door AI gegenereerde websites, originele informatie zoeken wordt er niet makkelijker op.

Als ik informatie van spellen of product reviews probeer te zoeken wordt ik gek van de bullshit websites.

[Reactie gewijzigd door Rogers op 2 februari 2026 15:37]

Klopt. Nu het probleem: er zijn hele volksstammen die het anders zien en blind op AI vertrouwen. Geen fact checking doen, gewoon geloven wat ze op het beeldscherm zien.

Bovendien wordt door het circulair AI gebruik het steeds lastiger om te achterhalen wat de bron van iets is terwijl de aantallen AI gegenereerde bronnen toeneemt (en dus de score van de antwoorden waarop AI z'n betrouwbaarheidsgehalte gaat baseren).

Praktisch voorbeeld wat mij een maand geleden op een forum gebeurd is: ik nam deel aan een discussie en iemand vond het nodig een "AI samenvatting" te produceren. Het gevolg: ik werd in de samenvatting aangehaald als 1 van de grootste tegenstanders van de stelling; terwijl mijn bijdrage juist was dat ik erg voor de stelling was. Wat was er gebeurd? Mijn "voor" stelling werd door diverse tegenstanders aangehaald en daardoor dacht AI dat ik fanatiek tegenstander was.

Zo simpel te verifieren, maar het heeft weken (en meerdere keren verwijzen naar mijn oorspronkelijke bijdrage) gekost om in de discussie niet steeds als "tegenstander" weggezet te worden. "Ja, maar daar stond..." En dan was dit een eenvoudige situatie, makkelijk te controleren, beperkte reikwijdte. Kun je nagaan wat er gebeurd wanneer Brakkipedia ineens gaat zeggen dat de aarde plat blijkt te zijn.
Dat herinnert me aan de "mishap" rond signalgate. Een "AI" die een telefoonnummer en een naam bij elkaar zocht uit een bericht met een gequote bericht er in.
Dit doet me denken aan de "notetakers" die tegenwoordig vaak deelnemen aan online meetings (soms meerdere van dezelfde persoon). De paar keren dat ik de notities erna bekeek, klopte er gewoon niks van. Plots hadden we allerlei beloften gedaan en taken op ons genomen terwijl dat niet het geval was. En die mensen blijven deze brakke systemen gebruiken...
Wat voor een heel groot deel het nut van die chatbots doet verdwijnen.
Chatbots zijn niet nuttig als het om feiten gaat. Alles wat buiten de context die je de bot voert ligt is mogelijk een halucinatie.
Verontrustend. Ik blijf mijn omgeving waarschuwen dat AI géén goed medium is voor het oplepelen van feiten, en dat je beter meteen op Wikipedia kunt zoeken als je daar toch heen zou gaan om het antwoord te controleren. Maar heb het idee dat dit aan dovemansoren gericht is. Nu worden die taalmodellen ook nog eens getraind op door AI bij elkaar gehallucineerde propaganda? De waarheid zal steeds sterker onder druk komen te staan, wie gaat dit een halt toeroepen?
Allemensen wat probeert men toch alles uit de kast te halen om AI enigzins "nuttig" te maken. Dit gaat echt nergens meer over.
Ik maak er zelf ook af en toe gebruik van, maar ik deed laatst eens een wat intensievere test door te kijken hoe ver ik kwam met een rootless podman setup via AI (in dit geval met Claude). Wat mij opvalt is dat je vrij snel een werkbaar iets voor elkaar hebt, maar zodra je iets meer de diepte in gaat, iets meer de configuratie wilt aanpassen, de boel heel snel op zijn plaat gaat. Ik heb uiteindelijk Claude er weer afgehaald en ben zelf aan de slag gegaan (oftewel, zelf studeren en toepassen) en dat werkte uiteindelijk in feite net zo vlot en beter omdat ik niet allerhande kanten op ga zoals Claude dat deed.

Voor de setup van iets kan het handig zijn, om af en toe iets nieuws te ontdekken waar je nog niet aan gedacht had ook, maar voor de rest zou ik (zeker als het in mijn werk gebruikt zou worden) ontzettend terughoudend zijn, fouten sluipen er heeeeel snel in. Ik ben van enigzins enthousiast in het begin naar steeds meer terugvallen op ouderwets nadenken gegaan. :)
Als ik aan Chatgpt vraag of de ondersteuning van een Samsung telefoon of een Oppo beter is, krijg ik in het ene antwoord dat Oppo een lange ondersteuning biedt en bij eenzelfde soort vraag de opmerking dat ik beter voor Samsung kan gaan, want die heeft een lange ondersteuning? Geeft meer twijfel dan richting.
Denk omdat het komt dat AI nog niet 100% met je meedenkt. Zo wilde ik AI een script laten maken om regels uit PDF files te filteren waar een bepaalde string voor kwam. En wat ik ook deed, het gemaakte script vond wel de regel, maar printte alleen de waarde van de searchstring met regelnummer. Maar wat bleek later nou, de data in PDF stond in kolomen, en visueel leek alles op één regel te staan, maar pdftotext vond dat niet. Dus AI deed precies wat ik gevraagd had, alleen bleek de gebruikte middelware PDF anders naar text om te zetten dan ik verwachtte.
In mijn test had ik Claude op een VM zitten, die (met mijn toestemming) kon werken op het systeem zelf. Eerst had ik het een analyse laten doen op de VM en die in korte, to the point punten, in een claude.md laten zetten die het schijnbaar altijd dan als context gebruikt. Op die manier wilde ik het bewegen naar juist goed mee "denken". Zelfs dan negeert het soms punten tussendoor, dan moet je weer hooks oid toepassen zodat bepaalde dingen erin gehamert worden. Het ging ondanks goede integratie, hooks en context gewoon nog steeds vaak fout of incompleet en om dan te horen dat mensen het lukraak moeten gebruiken op hun werk, yikes.
Allemaal Dankzij Trump…. Iedereen is bang voor hem nu die zoveel macht heeft kan niet wachten tot de midterms.
Ik heb dit weekend het system prompt van claude (een platform voor ai, zoals mistral en openai) gelezen. Dat is gepubliceerd ergens, daar stond o.a. in dat het model, bij een web-search niet meer dan vijftien woorden mocht gebruiken per link. Dus wellicht is de reden dat deze bron gebruikt is, is omdat het model een search heeft gedaan, relevante informatie dacht in te gaan winnen en deze dan wil combineren met andere bronnen uit dezelfde search.

Ben nieuwsgierig naar de reden/achtergrond van de vijftien woorden limiet voor zo'n model, is dit in verband met een databank wet achtige constructie / auteursrechten of iets van die aard of zit er een ander idee achter.
Kan je dit uitzetten binnen ChatGPT? Ik zie namelijk geen optie om dit te doen.

Om te kunnen reageren moet je ingelogd zijn