AI's van Google en Microsoft nemen informatie over van Musks Wikipedia-kloon

Niet alleen ChatGPT, maar ook AI-bots en -diensten van Google en Microsoft halen informatie uit Grokipedia, de AI-gedreven Wikipedia-kloon van Elon Musk. De online-encyclopedie fungeert als bron voor Googles chatbot Gemini, de AI-modus en AI-overzichten in de zoekmachine, en voor Microsoft Copilot.

Citaties uit Grokipedia, dat volgens Musk objectiever is dan Wikipedia, verschijnen in antwoorden van diverse AI-diensten van grote techbedrijven. Dat blijkt uit tests van seo-bedrijf Ahrefs, waarover The Verge bericht.

Uit de analyse van Ahrefs blijkt dat ChatGPT Grokipedia aanhaalt in circa 263.000 antwoorden op in totaal 13,6 miljoen prompts. Daarbij wordt verwezen naar ongeveer 95.000 afzonderlijke Grokipedia-pagina’s. Dat aantal verbleekt bij de 2,9 miljoen antwoorden waarin Wikipedia wordt genoemd, maar is volgens marketingdirecteur Glen Allsopp van Ahrefs 'indrukwekkend gezien hoe nieuw het platform is'.

Eind oktober vorig jaar introduceerde Musk Grokipedia. De encyclopedie is gevuld met AI-gegenereerde content en ontwikkeld door zijn AI-bedrijf xAI, dat ook chatbot Grok bouwt. De miljardair uit al jaren felle kritiek op Wikipedia, dat hij beschuldigt van een linkse agenda en propaganda. Data van AI-zoekbedrijf Profound laat zien dat Grokipedia dagelijks goed is voor 0,01 tot 0,02 procent van alle ChatGPT-citaties. Dat is een klein aandeel, maar wel één dat sinds medio november gestaag groeit.

Zorgen over misinformatie

ChatGPT haalt Grokipedia vaker aan dan andere AI-bots en -diensten, meldt The Verge. Toch is ook bij andere platforms een toename zichtbaar. Profound zag in december een piek in Grokipedia-citaties binnen Googles AI-producten, waaronder Gemini, AI-modus en AI-overzichten.

Ahrefs stelt vast dat Gemini Grokipedia in 8600 antwoorden aanhaalt bij 9,5 miljoen prompts. In Googles AI-overzichten gebeurt dit 567 keer bij 120 miljoen prompts. Microsoft Copilot verwijst in 7700 antwoorden naar Grokipedia bij 14 miljoen prompts. Perplexity doet dat slechts twee keer op eveneens 14 miljoen prompts.

Voor Gemini en Perplexity liggen de aantallen inmiddels wel lager dan in november. Volgens Ahrefs en Profound wordt Grokipedia vooral gebruikt bij obscure of zeer specifieke feitelijke vragen. The Guardian onthulde vorige maand dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen, zoals vragen over Iran en de ontkenning van de Holocaust. Dit leidt tot zorgen over de verspreiding van mis- en desinformatie.

Grokipedia
Grokipedia

Door Jasper Bakker

Nieuwsredacteur

02-02-2026 • 15:15

39

Reacties (39)

Sorteer op:

Weergave:

The Guardian onthulde vorige maand dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen, zoals vragen over Iran en de ontkenning van de Holocaust. Dit leidt tot zorgen over de verspreiding van mis- en desinformatie.
Tweakers zegt hier heel wat anders dan het Guardian artikel waar het zelf naar linkt. The Guardian heeft het niet over vragen over de ontkenning van de holocaust, maar over vragen over de biografie van iemand die onder andere betrokken was als getuige bij een smaad zaak over de beschuldiging van holocaust ontkenning. Daar had Grokipedia dan een detail fout over wat die getuige daar precies deed. Tenminste, in de eerste week dat het online was, inmiddels lijkt dit al aangepast op Grokipedia.

Er staat een hoop foutieve AI slop op Grokipedia, dat ontken ik zeker niet. Naar mijn anekdotische ervaring meer dan op Wikipedia (dat ook verre van onfeilbaar is). Maar om dan solidair ook met misinformatie te komen, straks eindigt dit weer in chatGPT en blijven we gaan 8)7
edit:
Ik ben er nog iets dieper in gedoken, jullie eigen referentie naar The Verge meldt expliciet dat de zoekmodellen Grokipedia alleen autoriteit geven bij ‘niet-gevoelige’ zoek opdrachten (zie hieronder). Dit is compleet tegendraads met hoe jullie de laatste paragraaf hebben opgesteld, waar Tweakers.net stelt ‘dat ChatGPT Grokipedia inzet bij gevoelige onderwerpen’.
‘In many cases, AI tools appear to be citing Grokipedia to answer niche, obscure, or highly specific factual questions, as The Guardian reportedlate last week. Analysts agree. Jim Yu, CEO of analytics firm BrightEdge, told The Verge that ChatGPT and AI Overviews use Grokipedia for largely “non-sensitive queries” like encyclopedic lookups and definitions, though differences are emerging in how much authority they afford it.

[Reactie gewijzigd door svenk91 op 2 februari 2026 16:21]

En dan maakt de leerling zijn werkstuk met AI en de docent controleert het zelfde stuk met AI. Als we zo door gaan mogen we hopen dat AI nog eens echt intelligent wordt, want zelf zijn we dan werkelijk alles verleerd.
edit:
wordt hieronder uitgebreid beschreven.

[Reactie gewijzigd door pegagus op 2 februari 2026 16:33]

Er staat een hoop foutieve AI slop op Grokipedia, dat ontken ik zeker niet. Naar mijn anekdotische ervaring meer dan op Wikipedia (dat ook verre van onfeilbaar is). Maar om dan solidair ook met misinformatie te komen,
Bizarre zwartmaking van Tweakers (en raar genoeg: Wikipedia?) voor wat waarschijnlijk een slordigheidsfoutje was
Maar de ironie van een nieuwsartikel over misinformatie, dat dan zelf misinformatie bevat dat niet alleen het foutief interpreteren behelst van één van je eigen bronnen, maar zelfs het exact tegenovergestelde beweert van een tweede bron, dat is toch wel noemenswaardig? Ik maak ook wel eens zulke slordige fouten, maar daar mogen mensen mij ook op aanspreken. Ik zie zulke factchecking niet als bizarre zwartmaking. Ik beschuldig Tweakers hier ook bewust niet van desinformatie, waarmee ik hopelijk impliciet wel duidelijk maak dat ik hier niet uit ga van dat er opzettelijk gehandeld wordt.

Edit: Wikimedia, de organisatie achter Wikipedia adviseert zelf om er naslagwerken of specialistische boeken naast te leggen. Ze zijn er altijd heel open in dat je Wikipedia niet zomaar voor waar moet aannemen. Wikimedia erkent juist dat fouten inherent zijn aan hun model waar eenieder vrij is input te leveren en er geen strikte methodiek om tot publicatie te komen wordt gehanteerd (zoals bijv. bij wetenschappelijke publicaties), en hebben juist daarom ook functionaliteit voor discussie ingebakken.

[Reactie gewijzigd door svenk91 op 2 februari 2026 17:13]

Net als met alles, ook je gezonde verstand blijven gebruiken en zelf fact checken. AI's zijn niet de heilige graal hoe handig ze ook kunnen zijn.
Het probleem is dat je mogelijk over niet al te lang alleen nog offline kan factchecken, allerlei "nieuws sites" maken al artikelen mbv of volledig door AI, als websites als Wikipedia verdrongen gaan worden door AI klonen en de fora ook steeds meer overspoeld worden door AI antwoorden waar ga je dan nog iets fact checken online.
De "posters" van reddit kon en kan je al niet vertrouwen dat het daadwerkelijke mensen zijn die antwoorden en met AI word het onderscheid alleen maar moeilijker te maken.
Als iedereen daadwerkelijk verplicht er bij zouden moeten zetten en het ook zouden doen als iets ook maar enige invloed van AI heeft (dus ook als een auteur het heeft laten samenvatten/herschrijven door AI of dat de bron iets is wat met AI gemaakt is) dan zou je in theorie nog er op kunnen filteren maar of genoeg mensen dat doen om de sites te laten bestaan die geen AI gebruiken is dan nog maar de vraag.

Iedereen een encyclopedie thuis laten doorzoeken om te controleren of iets klopt of wetenschappelijke publicaties laten doorzoeken(voor zover je die wel kan vertrouwen) is voor 95% van de wereldbevolking niet weggelegd.
Verschrikkelijk inderdaad, de figuren die een "behulpzaam" AI antwoord plaatsen. Fora zijn er nog niet echt op voorbereid om daarmee te dealen.
Bijna de hele top van zoekresultaten zijn door AI gegenereerde websites, originele informatie zoeken wordt er niet makkelijker op.

Als ik informatie van spellen of product reviews probeer te zoeken wordt ik gek van de bullshit websites.

[Reactie gewijzigd door Rogers op 2 februari 2026 15:37]

Klopt. Nu het probleem: er zijn hele volksstammen die het anders zien en blind op AI vertrouwen. Geen fact checking doen, gewoon geloven wat ze op het beeldscherm zien.

Bovendien wordt door het circulair AI gebruik het steeds lastiger om te achterhalen wat de bron van iets is terwijl de aantallen AI gegenereerde bronnen toeneemt (en dus de score van de antwoorden waarop AI z'n betrouwbaarheidsgehalte gaat baseren).

Praktisch voorbeeld wat mij een maand geleden op een forum gebeurd is: ik nam deel aan een discussie en iemand vond het nodig een "AI samenvatting" te produceren. Het gevolg: ik werd in de samenvatting aangehaald als 1 van de grootste tegenstanders van de stelling; terwijl mijn bijdrage juist was dat ik erg voor de stelling was. Wat was er gebeurd? Mijn "voor" stelling werd door diverse tegenstanders aangehaald en daardoor dacht AI dat ik fanatiek tegenstander was.

Zo simpel te verifieren, maar het heeft weken (en meerdere keren verwijzen naar mijn oorspronkelijke bijdrage) gekost om in de discussie niet steeds als "tegenstander" weggezet te worden. "Ja, maar daar stond..." En dan was dit een eenvoudige situatie, makkelijk te controleren, beperkte reikwijdte. Kun je nagaan wat er gebeurd wanneer Brakkipedia ineens gaat zeggen dat de aarde plat blijkt te zijn.
Dat herinnert me aan de "mishap" rond signalgate. Een "AI" die een telefoonnummer en een naam bij elkaar zocht uit een bericht met een gequote bericht er in.
Wat voor een heel groot deel het nut van die chatbots doet verdwijnen.
Chatbots zijn niet nuttig als het om feiten gaat. Alles wat buiten de context die je de bot voert ligt is mogelijk een halucinatie.
Circulaire AI. AI die door AI gegenereerde/geaggregeerde informatie gebruikt, dat gaat vast geen problemen geven...
Dit fenomeen van 'circulaire AI' leidt in feite tot een vorm van digitale inteelt. Ik zie dit nu al op grote schaal in het HBO-onderwijs bij mijn dochters: studenten genereren hun scripties en portfolio’s (deels) met AI, die vervolgens door een AI-gestuurde plagiaatscanner gaan. De resultaten belanden bij docenten en stagebegeleiders, die op hun beurt weer AI-agents gebruiken om al dat gegenereerde werk snel te toetsen en samen te vatten.

Zo ontstaat er een gesloten systeem waarin algoritmes elkaars output beoordelen en valideren. Als de menselijke kritische blik op deze manier uit de keten verdwijnt, blijft er slechts een echoput van herhaalde informatie over. Waar zijn we in godsnaam mee bezig als we de kwaliteit van ons onderwijs en onze informatievoorziening laten uithollen door deze digitale inteelt?
Daar heb je zeker wel een punt, maar ik moet zeggen dat die vroeger ook al speelde hoor!

De enige scripties / werkstukken die ik wat vond toevoegen, waren die waarin je bijvoorbeeld een bedrijfsplan schreef voor je eigen bedrijf of een echte oplossing ging bouwen voor een echt probleem. Of een eigen onderzoek deed en daar weer bepaalde conclusies uit haalde.

Al die dingen van 'schrijf een verslag over WO2', dat was eigenlijk vooral bedoeld om je zelf wat erover te laten leren natuurlijk. Want de output (het werkstuk) wat uit dat soort opdrachten kwam, was sowieso natuurlijk geknipt en geplakt en overgenomen van andere bronnen. Je was er zelf niet bij, hebt geen eigen onderzoek dus je kán niet anders dan andere bronnen herschrijven en dus overnemen.

En nu geef je dus een AI een opdracht om dat te doen en de leerkracht laat het door een AI nakijken. Beide hebben het in 5 minuten voor elkaar, dus dit scheelt iedereen enorm veel tijd en gedoe, haha!
Het verschil met jouw analogie is dat de leerlingen die 1 jaar na jou kwamen niet jouw werkstuk als bron gingen gebruiken, maar uitkwamen bij dezelfde (waarschijnlijk betrouwbare) bronnen. Als nu de AI zijn ‘werkstuk’ deels bij elkaar hallucineert en de volgende AI dat dan als bron gebruikt dan verwaterd de waarheid heel snel
Alleen gaat het bij dat WO2 werkstuk niet over de inhoud per sé, maar over het leren onderzoeken en toepassen van informatie. Iets wat juist dan wordt overgenomen door AI waardoor je de oefening die je moet doen niet doet en dus in feite niet leert wat je moet leren.
Want de output (het werkstuk) wat uit dat soort opdrachten kwam, was sowieso natuurlijk geknipt en geplakt en overgenomen van andere bronnen. Je was er zelf niet bij, hebt geen eigen onderzoek dus je kán niet anders dan andere bronnen herschrijven en dus overnemen.
Eén van de doelen van dat soort opdrachten (tenminste op mijn school) was ook om duidelijk te maken dat je moest nadenken over welke bronnen je wel en niet gebruikt. Om in jouw voorbeeld over WOII te blijven:
  • “De Duitsers waren allemaal fout, hoorde ik in de voetbalkantine” is niet zo’n sterke bron;
  • “De SS’ers in onze stad deden vreselijke dingen dingen, vertelde opa” is al veel betrouwbaarder maar vergt wat aanvulling uit een onafhankelijke bron, en
  • “Joodse Amsterdammers [werden] […] door de sociale dienst naar werkkampen gestuurd en door de politie en het gemeentelijk trambedrijf naar deportatietreinen vervoerd” komt uit een betrouwbare bron en mag je zo als waar aannemen.
Dat is waar het hier misgaat: Grok en zijn eigenaar hebben een slechte reputatie als het gaat om het tegengaan van misinformatie en hechten minder waarde aan het modereren van onjuiste beweringen.

Daarmee krijgen ongenuanceerde (of erger) uitspraken dus alle ruimte en wordt op Grokipedia aan posts van online forums net zo veel gewicht gehangen als aan wetenschappelijke publicaties over WO2.

Als andere AI tools dat dan weer als bron gaan gebruiken, al dan niet met verzonnen citaten, dan wordt het internet al snel overspoeld met zelfbevestigende onzin. En daar is maar één ding tegen opgewassen: heel flauw en arbeidsintensief alle aangehaalde bronnen in een stuk verifiëren, niet door het aan AI te vragen maar door ze gewoon ouderwets door een catalogus van (wetenschappelijke) publicaties te halen.

Ik hoop van ganser harte dat de docenten op de middelbare scholen van nu, die kritische blik meegeven aan hun leerlingen: AI is een handig hulpmiddel voor zaken die je zelf kunt controleren, maar ook daarbij blijft het nodig om zelf na te blijven denken over hoe betrouwbaar de bron van je informatie echt is.
"De AI-meltdown"
Maar dat gaat breder:
  • 1) AI wordt getraind op pagina's met door mensen gegenereerde informatie en gebruikt die informnatie om zelf antwoord te geven.
  • 2) Daardoor droogt de traffic naar dergelijke pagina's op.
  • 3) Minder trafic is minder inkomsten én minder motivatie voor de schrijver om überhaupt die informatie te schrijven en te publiceren.
  • 4) Minder pagina's = minder bronmateriaal voor de AI. Er is wel veel AI-slob, inclusief hallucinaties. Het aandeel (relatief) betrouwbare informatie word steeds kleiner.
  • 5) Daardoor wordt ook de output van AI steeds onbetrouwbaarder. (door naar punt 4)
  • 6) AI wordt onbetrouwbaar. Goede internetsites zijn inmiddels verdwenen door de concurrentie van AI... het internet is stuk en zal van voren af aan opgebouwd moeten worden.

[Reactie gewijzigd door T-men op 2 februari 2026 15:53]

Van wie was de songtekst "It's the end of the world, and you know it" ook al weer?

Superinteressante tijden waar we in leven.

Ben benieuwd wat deze papagaaiende LLM's "zelf" zouden zien als een goede aanpak voor dit probleem.
"It's the end of the world as we know it" bedoel je denk ik, van REM.

And I feel fine.
Verontrustend. Ik blijf mijn omgeving waarschuwen dat AI géén goed medium is voor het oplepelen van feiten, en dat je beter meteen op Wikipedia kunt zoeken als je daar toch heen zou gaan om het antwoord te controleren. Maar heb het idee dat dit aan dovemansoren gericht is. Nu worden die taalmodellen ook nog eens getraind op door AI bij elkaar gehallucineerde propaganda? De waarheid zal steeds sterker onder druk komen te staan, wie gaat dit een halt toeroepen?
Volgens de bron zijn er 2 redenen waarom dit een probleem is.
  1. Dit is circulaire AI. Grokipedia is een AI gegenereerde informatie die niet gecontroleerd wordt.
  2. Grokipedia is van Musk en die heeft eigen opvattingen over de betrouwbaarheid van Legacy media. Grokipedia is gekleurd en een potentiële bron van misinformatie verwijzingen.
Daar zit wat in, daarom zou het interessant om te weten hoe vaak de AI's zich in de luren hebben laten leggen en foute informatie hebben geleverd. Dat zegt iets over de kwaliteit van de AI's in plaats van de vooringenomenheid Grokipedia.

Dat lijkt me veel interessanter, ook omdat Grokipedia zelf een contentieus onderwerp is.
Allemensen wat probeert men toch alles uit de kast te halen om AI enigzins "nuttig" te maken. Dit gaat echt nergens meer over.
Ik maak er zelf ook af en toe gebruik van, maar ik deed laatst eens een wat intensievere test door te kijken hoe ver ik kwam met een rootless podman setup via AI (in dit geval met Claude). Wat mij opvalt is dat je vrij snel een werkbaar iets voor elkaar hebt, maar zodra je iets meer de diepte in gaat, iets meer de configuratie wilt aanpassen, de boel heel snel op zijn plaat gaat. Ik heb uiteindelijk Claude er weer afgehaald en ben zelf aan de slag gegaan (oftewel, zelf studeren en toepassen) en dat werkte uiteindelijk in feite net zo vlot en beter omdat ik niet allerhande kanten op ga zoals Claude dat deed.

Voor de setup van iets kan het handig zijn, om af en toe iets nieuws te ontdekken waar je nog niet aan gedacht had ook, maar voor de rest zou ik (zeker als het in mijn werk gebruikt zou worden) ontzettend terughoudend zijn, fouten sluipen er heeeeel snel in. Ik ben van enigzins enthousiast in het begin naar steeds meer terugvallen op ouderwets nadenken gegaan. :)
Als ik aan Chatgpt vraag of de ondersteuning van een Samsung telefoon of een Oppo beter is, krijg ik in het ene antwoord dat Oppo een lange ondersteuning biedt en bij eenzelfde soort vraag de opmerking dat ik beter voor Samsung kan gaan, want die heeft een lange ondersteuning? Geeft meer twijfel dan richting.
Denk omdat het komt dat AI nog niet 100% met je meedenkt. Zo wilde ik AI een script laten maken om regels uit PDF files te filteren waar een bepaalde string voor kwam. En wat ik ook deed, het gemaakte script vond wel de regel, maar printte alleen de waarde van de searchstring met regelnummer. Maar wat bleek later nou, de data in PDF stond in kolomen, en visueel leek alles op één regel te staan, maar pdftotext vond dat niet. Dus AI deed precies wat ik gevraagd had, alleen bleek de gebruikte middelware PDF anders naar text om te zetten dan ik verwachtte.
Allemaal Dankzij Trump…. Iedereen is bang voor hem nu die zoveel macht heeft kan niet wachten tot de midterms.
Ik heb dit weekend het system prompt van claude (een platform voor ai, zoals mistral en openai) gelezen. Dat is gepubliceerd ergens, daar stond o.a. in dat het model, bij een web-search niet meer dan vijftien woorden mocht gebruiken per link. Dus wellicht is de reden dat deze bron gebruikt is, is omdat het model een search heeft gedaan, relevante informatie dacht in te gaan winnen en deze dan wil combineren met andere bronnen uit dezelfde search.

Ben nieuwsgierig naar de reden/achtergrond van de vijftien woorden limiet voor zo'n model, is dit in verband met een databank wet achtige constructie / auteursrechten of iets van die aard of zit er een ander idee achter.
Kan je dit uitzetten binnen ChatGPT? Ik zie namelijk geen optie om dit te doen.

Om te kunnen reageren moet je ingelogd zijn