Oud-hoofdredacteur van NRC gebruikte citaten uit AI-hallucinaties

Uitgever Mediahuis heeft de oud-hoofdredacteur van NRC geschorst omdat die citaten had gebruikt die door AI-bots verzonnen waren. Peter Vandermeersch werkt niet meer bij NRC, maar is als journalist nog wel verbonden aan de uitgever. Hij erkent fouten te hebben gemaakt.

Peter Vandermeersch erkent het voorval in een blogpost, nadat nota bene NRC dat had ontdekt. NRC zag dat de journalist in verschillende artikelen AI had ingezet, maar ook dat hij daardoor verzonnen citaten in artikelen had gezet. Volgens de krant publiceerde Vandermeersch 53 blogposts en in 15 daarvan gebruikte hij citaten die niet stonden in publicaties die Vandermeersch aanhaalde. NRC sprak ook met zeven personen die Vandermeersch zogenaamd zou hebben geciteerd, die zeiden dat ze die uitspraken nooit hadden gedaan. "Bij elkaar gaat het om tientallen citaten", schrijft NRC.

Die citaten kwamen voort uit hallucinaties door AI-modellen. Vandermeersch zegt tegen NRC dat hij ChatGPT, Perplexity en Googles NotebookLM gebruikte om rapporten samen te vatten. Daaruit kwamen verzonnen citaten naar voren, die hij vervolgens niet controleerde. "Dat is fout geweest", zegt Vandermeersch tegen NRC. "Ik had die citaten grondiger moeten checken. Ze vatten, denk ik, de betekenis juist samen, maar zijn niet letterlijk uitgesproken."

Onweerstaanbare citaten

Vandermeersch schrijft op zijn eigen blog dat hij erop vertrouwde 'dat de samenvattingen correct waren'. "Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."

Vandermeersch schrijft niet precies hoe hij te werk ging en hoe de fouten konden ontstaan. Zo kunnen algemene chatbots snel hallucineren, maar iets als NotebookLM doet dat minder, omdat het alleen uitgaat van de content die wordt ingeladen.

Oud-hoofdredacteur NRC en voormalige ceo Mediahuis

De journalist is door uitgever Mediahuis nu tijdelijk op non-actief gezet. Dat uitgerekend Peter Vandermeersch hiermee de fout in gaat, is saillant. Hij was hoofdredacteur van NRC en werd daarna tijdelijk ceo van het Belgische Mediahuis, waar ook regionale kranten, de Telegraaf en radiostations zoals Veronica onder vallen.

Sinds oktober was Vandermeersch werkzaam als Fellow Journalism & Society. Dat betekent in de praktijk dat hij blogt over journalistieke innovaties, maar ook bijvoorbeeld veel in de media optrad over dat onderwerp. In die rol schreef hij ook over AI en de journalistiek, hoewel dat meestal niet ging over het inzetten van AI voor journalistieke producties.

NRC Mediahuis

Door Tijs Hofmans

Nieuwscoördinator

20-03-2026 • 08:03

114

Submitter: henkjobse

Reacties (114)

Sorteer op:

Weergave:

Ik denk dat als de HOOFDREDACTEUR van NRC, een krant die er prat opgaat een goede reputatie te hebben en zichzelf beschrijft als pleger van "onderzoeksjournalistiek", al gebruik maakt van AI zonder verder controles dit iets is wat wezenlijk en diep in de journalistiek zit.

Het is ook heerlijk, natuurlijk. Lekker in je veilige kamer een beetje de computer "je werk" laten doen.

Kortom, een illusie armer? Of ?
AuteurTijsZonderH Nieuwscoördinator @joker197720 maart 2026 08:53
De ex-hoofdredacteur van NRC. Hij is dat sinds 2019 niet meer, toen bestond ChatGPT nog niet. Je kunt dit niet projecteren op hoe een krant nu omgaat met AI.
Het is veelzeggend dat een (oud-)hoofdredacteur niet de integriteit bezit om zorgvuldig met dit soort zaken om te gaan.

Dan kun je wel zeggen dat het losstaat van hoe de krant "nu omgaat met AI" maar hij was toch nog gewoon actief als journalist bij de uitgeverij ?

Dit is niet één of andere column-schrijver die per ongeluk over de schreef gaat, dit is een (oud-)hoofdredacteur die beter dient te weten.

Ik vind het wel degelijk veelzeggend, YMMV. Ik durf je op een briefje te geven dat je dit soort nieuws veel vaker gaat lezen de komende tijd.
Zijn werkgever (de NRC) had het zelf ontdekt. Prima journalistenonderzoek toch?
Na de 53e post werd het ontdekt dat er 15 verzonnen waren ja
Was te verwachten, toch? Vroeger, ten tijde van het televisieprogramma DWDD, schoven de hoofdredacteuren (w.o. Vandermeersch) van de kwaliteitskranten zeer frequent aan bij DWDD. Bij journalistieke misstanden van de bevriende kwaliteitskranten werden deze standaard afgedaan als een bagatel. Denk aan het plegen van plagiaat, verzinnen van een interview, opvoeren niet bestaande bronnen etc.
Ik vind niet dat je de NRC iets kunt aanwrijven voor dit specifieke voorbeeld, ze claimen zeer strikte regels te hebben voor AI gebruik waaronder onder andere dat er geen teksten of citaten uit de AI direct in artikelen mogen worden gebruikt. Deze Vandermeersch was al toen hij nog hoofdredacteur van de NRC een actief AI pusher maar lag toen nog aan het lijntje van de interne richtlijnen van de krant, blijkbaar is hij daarna losgegaan om een soort van 'journalistiek in het AI tijdperk' blogger en adviseur te worden, en daar is hij nu (heel voorspelbaar) mee op zijn bek gegaan. Wat best wel pijnlijk is voor hem, omdat zijn reputatie als AI-duider of expert die hij blijkbaar graag wilde zijn nu wel behoorlijk besmeurd is. En uit de reactie die hij op dit incident heeft gegeven heeft hij dat zelf ook wel door nu want inmiddels zegt hij dat zijn enthousiasme over AI in de journalistiek wel bekoeld is.

Maar ik deel ook wel de zorg dat op termijn praktisch alle veelgelezen journalistieke publicaties vol met dit soort fouten staan. Het is gewoon te aantrekkelijk om op deze manier tijd en inspanning te besparen in plaats van daadwerkelijk journalistiek te bedrijven, dus er gaan zeker publicaties zijn die hun journalistieke integriteit minder belangrijk vinden dan de bottom line, en ook bij publicaties waar strenge AI richtlijnen zijn zullen altijd rotte appels en luie redacteuren zijn die denken dat ze er mee weg kunnen komen om een deel van hun taak uit te besteden aan AI.
Wat een grote woorden, "niet de integriteit bezit".. Het heeft niets met integriteit te maken, maar wel met het feit dat ook een oud-hoofdredacteur een mens is en moet wennen aan de onbetrouwbaarheid van AI modellen. Uit zijn reactie blijkt ook dat er niets schort aan zijn integriteit.
Het punt hier is een heel andere, ik quote uit de NRC:
Zo zei de 65-jarige oud-hoofdredacteur van NRC en De Standaard vorig jaar tegen de Vlaamse krant De Morgen dat hij menselijke eindredactie „zodra AI ertoe in staat is” wil afschaffen. Tegelijkertijd bespeurt de journalist – bij het bredere publiek bekend van talkshows als DWDD – risico’s.
Dit maakt de toon van het artikel in mijn ogen anders.

Allereerst is de taak van de journalistiek om (op redelijk korte termijn) nieuws te vergaren en te publiceren in artikelen. Daarbij moet de kwaliteit gewaarborgt zijn:
  • transparantie, verwijzing naar de bronnen van artikelen
  • een cultuur waarin atikels gemaakt kunnen worden en waarin deze (als ze niet houdbaar zijn) gerectificeerd kunnen worden
  • eindcontrole om ondermaatse artikelen voor publicatie af te vangen
Deze onderdelen maken deel uit van het kwaliteitssysteem van een krant.

Het is in de huidige tijd populair een "zero-tolerance" uit te dragen voor fouten, wat een extreem giftige cultuur oplevert. Daarbij moet je als krant courante artikelen produceren, dus ben je wel gedwongen gebruik te maken van middelen als AI, met kans op fouten. Zonder die middelen worden artikelen laat gepubliceerd en is de nieuwswaarde nul (en de economische waarde ook) en verlies je je inkomsten.

Fouten maken moet kunnen (met mate). Maar hier is het argument dat eindcontrole vervangen kan worden door AI, waarbij het schrijven ook al door AI gebeurd. De transparantie wordt minder en de eindcontrole gaat onderuit. Met andere woorden, de kwaliteit is compleet afhankelijk van AI en niet meer te sturen.

Als een krant dit tot beleid maakt, wordt het tijd je geld te reserveren voor een andere krant. (Ik denk dat een krantenabonnement in deze tijd nuttig is voor het behoud van journalistiek.) Niet meer dan logisch dat de uitgever zich van een dergelijke "journalist" distantiert door schorsing.
Wel nog fellow van mediahuis, met als quote:

In this fellowship, I want to further strengthen Mediahuis’ position as a thought leader, addressing some of the industry’s key challenges—such as the relevance of journalism, its role in an era of polarisation, trust, press freedom, engaging with diverse audiences, and ensuring a sustainable future for local journalism—while exploring the responsible use of AI in newsrooms.”

Wat dat betreft ondanks de andere rol, minimaal net zo erg.
AuteurTijsZonderH Nieuwscoördinator @nietorigineel20 maart 2026 11:08
Ja dat staat ook in het artikel he.

Maar het punt is dat je niet NRC specifiek kunt aankijken over hoe het met AI omgaat omdat iemand die al 7 jaar NRC niet meer leidt niet goed met AI omgaat.

Ik snap dat het lijkt alsof die dingen door elkaar lopen, maar de rol van Vandermeersch heeft inhoudelijk niets te maken met het NRC van 2026. Dat heeft heel eigen regels, statuten en ideeën over hoe het met AI om moet gaan.
Staat zeker in het artikel, maar bijvoorbeeld in de eerste paragraaf staat hij omschreven als 'journalist', terwijl hij via de rol binnen mediahuis (eigenaar NRC toch?) meer dan alleen journalist lijkt te zijn, hoewel ik direct zal toegeven dat ik niet helemaal uit heb gezocht wat zo'n fellowship nou helemaal precies behelst.
AuteurTijsZonderH Nieuwscoördinator @nietorigineel20 maart 2026 11:30
Ik weet dat ook niet precies, maar zoals ik het begrijp is hij iemand die binnen Mediahuis nadenkt en schrijft en onderzoek doet naar nieuwe journalistiek. Dat je dat binnen een uitgever doet, betekent niet dat hij iets te zeggen heeft over hoe NRC iets doet. En dat is wel wat er in deze thread een beetje wordt geïmpliceerd.

Ter vergelijking: zulke mensen zijn er bij DPG ook, alleen heten die anders. Dat betekent niet dat wat zij zeggen, meteen voor alle media geldt.
Wacht... al sinds 2019 niet meer? Dat kan wel wat beter in de kop worden verwerkt. Ik las het alsof het zojuist was ontdekt. En 2019 staat ook nog niet eens in de tekst. Dus naar mijn mening wel erg misleidend.
AuteurTijsZonderH Nieuwscoördinator @xylone20 maart 2026 11:42
Er staat oud-hoofdredacteur, er staat ook dat hij niet meer verbonden is met NRC. En er staat dat hij in oktober begon met bloggen voor Mediahuis. Ik vind het nogal wat om dat misleidend te noemen.
Wat is precies de boodschap in je reactie? Het gaat niet om de huidige hoofdredacteur, maar oud-hoofdredacteur. Daar zit een wezenlijk verschil in.

AI is niet verboden en volgens mij heeft zelfs Tweakers al eens aangegeven dat ze het gebruiken ter ondersteuning. Journalistiek is meer dan alleen een artikel schrijven. En AI kan prima als ondersteunend middel gebruikt worden, zolang je maar op feiten berust en contextueel goed sterk verhaal is met onderbouwingen, weerleggingen etc... Daarin zit de echte meerwaarde.
Mijn vader zaliger was journalist - wel in de industriele automatisering. Maar 1 van de dingen waarin journalistiek en "meningen pendelen" in verschillen is dat je je bronnen altijd controleert. Hij, mijn vader, deed dit bv door telefoontjes te plegen naar verschillende experten, mensen uit eten te nemen voor een "onderhoud", cursussen/boeken en andere vakliteratuur bij te kopen en zich in de materie in te lezen en meer. Ik heb zijn artikels nooit niet gesmaakt. Te droog, te saai ... denk: order-picking robots, frequentieregelaars, SCADA systemen, laser-cutters, PLC's, ...

Maar als je deze controles niet doet. Als je al conclusies gaat trekken en die dan nog gaat bouwen op (quasi)-ongecontroleerde output van LLM's of het buikgevoel dan ben je geen journalist. En het is in mijn ogen ook spijtig dat het Vermeersch is want het is weer 1 van zij, die ik dacht dat daarboven stonden, die wel nog alles goed controleerde. Heb er graag naar geluisterd (VRT debatten), was er niet altijd mee eens maar altijd wel iets van bijgeleerd.

PS: Zal er nog altijd naar luisteren, hoor. Maar het is weer zo een boks, bevestiging dat zelfs zij die beweren niet fake te zijn ook regelmatig van dezelfde ambrosia bingen.
AuteurTijsZonderH Nieuwscoördinator @Pasteis20 maart 2026 08:56
AI is niet verboden en volgens mij heeft zelfs Tweakers al eens aangegeven dat ze het gebruiken ter ondersteuning.
Klopt! Onder andere voor eindredactie, maar ook om bijvoorbeeld tabellen te genereren op basis van specsheets. En ik gebruik het soms ook ondersteundend, om informatie te vinden. Net zoals ik Google en Wikipedia daarvoor gebruik. Het is precies zoals je zegt: het is ondersteunend, net zoals Wikipedia of de spellingscontrole in de tekstverwerker dat is.
[...]

Klopt! Onder andere voor eindredactie, maar ook om bijvoorbeeld tabellen te genereren op basis van specsheets. En ik gebruik het soms ook ondersteundend, om informatie te vinden. Net zoals ik Google en Wikipedia daarvoor gebruik. Het is precies zoals je zegt: het is ondersteunend, net zoals Wikipedia of de spellingscontrole in de tekstverwerker dat is.
Ik zou me zorgen maken als jullie geen AI zouden gebruiken, want vroeg of laat wordt je dan door je concurrenten voorbij gestreefd die sneller en net zo accuraat nieuws zouden kunnen publiceren. Prima zoals jullie het gebruiken volgens mij.

Ik gebruik het ook in mijn wetenschappelijk onderzoek, maar ik lees nog steeds regel voor regel alles na. En uiteraard gebruik ik valide bronnen.
Al een aantal jaren stijgt het aantal spelling en dt fouten in artikels.
Als je een stijging gezien hebt dan neem ik aan dat je het bijgehouden hebt? Misschien een goed idee om Tweakers met je onderbouwing en verzamelde data te helpen?
Hij heeft gewoon iets te veel AI gebruikt en begint nu zelf te hallucineren :Y)
AuteurTijsZonderH Nieuwscoördinator @MontyMole20 maart 2026 09:20
Ik waardeer het altijd zo als mensen hun leugens als absolute waarheid verkondigen. Het aantal threads in S&T daalt namelijk heel erg hard sinds we AI inzetten als eindredacteur.

Het is trouwens 'spelling- en dt-fouten'. Had ik geen AI voor nodig.
Ik snap sowieso niet dat mensen zo hard kunnen vallen over een spellingsfoutje.
Het gaat om het nieuws en het blijft mensenwerk (gelukkig).
Wat is precies de boodschap in je reactie? Het gaat niet om de huidige hoofdredacteur, maar oud-hoofdredacteur. Daar zit een wezenlijk verschil in
Iemand die zon' hoge positie bij die krant heeft gehad. En als een klein kind willekeurige info als waarheid beschouwd... Dat heeft wel degelijk invloed op de reputatie van een krant. Tenzij hij een herseninfarct ofzo heeft gehad in de tussen tijd.
Wat een ongelooflijke larie!
Schrijven is schrijven en niet een programma tekst en woorden laten verzinnen op basis van tekst die het zelf niet 'begrijpt'. Al klinkt verzinnen hier wel toepasselijk.
Ben je zelf niet goed genoeg, als je het zelf niet had kunnen bedenken, laat uw pen dan uitdrogen. Een mening vormen over iets dat je zelf niet gelezen en/of begrepen hebt, is toch absurd... En het is zijn job?!

Achja, de wereld..
Ik wil dit nuanceren. Een schrijver zal niet snel LLM gebruiken om teksten te schrijven. Maar taalmodellen kunnen een schrijver wel helpen met onderzoek en redactie. Zoals uit het artikel blijkt heeft Vandermeersch LLM's gebruikt om rapporten samen te vatten, informatie te verwerken. Op zich is daar niet zoveel mis mee, mits je kritisch blijft en controleert. En een taalmodel kan helpen bij redactie: schrijffouten, grammatica, stijl, consistentie, doelgroep, begrijpelijkheid etc. Een taalmodel kan suggesties geven aan de auteur. Het heeft niet zozeer met 'niet kunnen schrijven' te maken, als wel met hulpmiddelen. Ter vergelijking: een timmerman gebruikt ook een electrische schroevendraaier, dat wil niet zeggen dat hij geen goede timmerman is.
Belangrijk is: de schrijver blijft de baas en zal altijd, echt altijd, verantwoordelijkheid moeten houden voor het resultaat. En daar gaat het vaak mis: het is verleidelijk lui te worden en te vertrouwen op het resultaat.
Als een timmerman bij mij begint met niks te meten maar alleen een foto en dan AI vraagt waar gaan we de muur in boren, want het is toch maar een stukje voorbereiding, dan mag die subiet vertrekken...

Je moet het niet voor AI willen opnemen in vakgebieden waar de verantwoordelijkheid heel groot is. Journalistiek is nog altijd de hoeksteen van de democratie, die kunnen zich dit als beroepsgroep gewoon niet permitteren hoe dat soms toch al politiek onder vuur ligt kwalijk genoeg.
Voorbereiden zitten verschillende fasen of onderdelen in.

Als ik AI gebruik om allerlei artikelen samen te vatten en vraag welke artikelen een afwijkende conclusie hebben, dan scheelt dat heel veel tijd. Dan kan ik vervolgens de afwijkende artikelen zelf erbij pakken om te checken wat er echt staat.

Je laat AI dan het werk doen wat normaal een stagiair of student zou doen, maar blijft zelf de verantwoordelijkheid houden.

Zolang jezelf de eindverantwoordelijkheid blijft nemen en alles checkt of het echt klopt kan AI je heel veel werk schelen zonder dat het de kwaliteit vermindert. Wat hier fout gegaan is, is niet dat hij AI gebruikt heeft, maar dat hij het niet gecheckt heeft.
Ik deel absoluut jouw zorg over de kwaliteit van journalistiek onderzoek en ben het helemaal met je eens dat de verantwoordelijkheid zeer groot is. Meer dan ooit!

Dat neemt niet weg dat een LLM als hulpmiddel bij onderzoek en redactie behulpzaam is. Net als een woordenboek, spellingschecker, databank, etc. Een taalmodel is echter veel krachtiger en sneller en daarin schuilt het gevaar: dat we hersenen uitschakelen en de output gemakkelijk overnemen. En dat de creativiteit uit de taal verdwijnt.
Alles hangt af van de vraag en hoe je de voorbereiding door AI voortzet.

Jouw voorbeeld is er een zonder context. Gaat het om het ophangen van een schilderij, dan is het prima. AI houdt rekening met mogelijke leidingen (vooral elektra) en esthetiek. Voor het daadwerkelijke boren zal er toch gemeten moeten worden. Timmermannen doen dat ook steeds vaker met een laser meter ipv een duimstok, dus ook daar vindt een technische ontwikkeling plaats.

Gaat het om groter werk, dan kan AI nog steeds een leuke tool zijn voor een eerste (ruwe) voorbereiding die alvast aangeeft in welk gebied er geboord moet worden (al hangt hier wel veel af van hoe de opdracht is opgesteld). De door AI opgegeven locatie gebruikt dan wel de relatieve maten van de foto en die zullen nog vertaald moeten worden naar echte centimeters.
Een mening vormen over iets dat je zelf niet gelezen en/of begrepen hebt, is toch absurd...
Op het internet eerder de norm dan de uitzondering. Onder journalisten is het wel absurd.
"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Als je onweerstaanbare citaten niet kunt laten liggen omdat ze nep zijn ("bij wijze van spreken" of anders), dan hoor je geen journalist te zijn. Beperk je fantasie tot je eigen bubbel. Je hoort meer thuis in de Facebookgroepen van en voor wappies.
citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen
Is helemaal prima, maar je moet ze natuurlijk wel zelf bekijken/controleren. En de context zelf is natuurlijk ook belangrijk, ook bij "echte", niet AI gegenereerde teksten.
Een journalist schrijft artikelen, maar is geen schrijver. Het geschreven woord is maar een medium wat een journalist gebruikt om zijn werk te kunnen verspreiden. Het gebruik van AI of eigenlijk vooral de LLM's is daarbij wellicht een hulpmiddel om een stuk op een goede manier naar een doelgroep te brengen.

Ik heb geen bezwaar tegen het gebruik van AI door journalisten, maar men moet zich wel realiseren dat AI nog jong is en nog lang niet alle kinderziekten eruit zijn. AI heeft de neiging om zaken die het niet kan vinden gewoon in te vullen met iets wat redelijk lijkt ipv gewoon te vermelden dat het iets niet kan. Door de werking van de LLM's is het niet mogelijk om citaten klakkeloos over te nemen. De LLM's herschrijven gewoon alles, ook teksten die als citaat zijn bedoeld. AI gebruiken heeft dus risico's en elke gebruiker moet zich daar bewust van zijn. Het resultaat moet dus altijd goed gecontroleerd worden. Dat geldt zeker voor journalistieke artikelen en helemaal als daar citaten in voorkomen.
Ik verwacht van een gedegen journalist dat het ook kaf van koren goed kan scheiden. Schrijven is idd een bewerkelijk process, iets waarbij je echt met informatie aan de slag moet, organiseren en samenvatten.

Tijdens mijn studie werd imo het daadwerkelijke leerprocess pas echt afgerond tijdens het schrijven. Ja: verslagen schrijven is saai als je al het idee hebt boven de materie te staan, enkel omdat het dus moet van de docent. Echter tijdens mijn onderzoek beleefde ik eigenlijk best wel plezier in het schrijven, omdat dit onherroepelijk verbonden is met nadenken, dode gedachte-paden wegsnoeien en wat overblijft goed articuleren.

Het is echt nog een hele kunst om dit goed (en snel) te doen. Je merkt vanzelf wanneer je jezelf tegenspreekt, gaten laten vallen zoals termen of redeneringen introduceren die 'uit de lucht vallen', enzovoort. Meestal zeiden we bij ons op de afdeling ook: sorry ik had geen tijd om een korte brief te schrijven, maar wel voor een lange brief. Omdat korter veel bewerkelijker is en onevenredig veel meer tijd in gaat zitten.

In mijn ervaring wordt schrijven ook makkelijker/beter als je het vaker doet. Hetzelfde voor snel documenten lezen/doorzoeken. Ik snap dat niemand echt tijd heeft om een rapport van 100 pagina's te lezen terwijl andere nieuwsoutlets er al over publiceren. Maar kom op zeg, een LLM model in "een vacuum gebruiken" is toch gedoemd te falen? Met "vacuum" bedoel ik: garbage in, garbage out. Elk nieuwsartikel wordt verrijkt met relevantie achtergrond informatie, koppelingen met andere gebeurtenissen, en hopelijk ook fact checks. LLM's produceren vaak een generiek stukje blaat die vooral sturend is naar andere zaken (bijvoorbeeld biasen bevestigen zodat je de LLM meer gaat gebruiken)
Los van de ironie en dat het de journalistiek schade berokkend en natuurlijk niet kan, vind ik het wel verfrissend dat hij openlijk schuld bekend. Dat iemand met zo'n trackrecord struikelt over zo iets simpels.. Dit voorbeeld zal nog jaren gebruikt worden om journalisten te waarschuwen.
AuteurTijsZonderH Nieuwscoördinator @007Nightfire20 maart 2026 08:50
Dat vind ik ook wel meevallen. Hij had dit blijkbaar zelf al eerder ontdekt en het aangepast in zijn artikelen, maar daar niets over geschreven zoals een update oid. Transparantie is minstens zo belangrijk voor journalisten, maar ook dáár faalde hij dus. Hij bekent het nu pas omdat hij door NRC geconfronteerd werd.
Lijkt nu net of NRC de schuldige is, maar die heeft het juist aangekaart.
Als je het artikel goed leest, is dat duidelijk niet zo, maar inderdaad het kan bij snel lezen zo overkomen en ik heb ten minste één verwarde reactie hierboven gezien. Misschien niet het handigste artikel voor ze :(
"iemand met zo'n trackrecord"... Heb hem een paar keer bij DWDD gezien en kreeg een veel bla-bla weinig wol gevoel, toen al. De man was overgewaardeerd, en, naar nu blijkt, niet geheel onterecht.
Eens...
Maar het probleem zit volgens mij iets dieper:
Of je nu een Peter Vandermeersch hebt, of een Wierd Duk... Het zijn journalisten die vooral opinie-makers of activisten zijn en vergeten dat journalistiek iets anders is dan opinie-maker....

Er zit een glijdende schaal in:

journalist (zo objectief mogelijk)
--> 'duider' (minder objtectief maar probeert wel redelijk objectieve beschouwingen te geven)
--> opniemaker (subjectief, de gemiddelde meningenfabriek)
--> activist (extreem subjectief, het gaat niet om de waarheid, het gaat om verandering en de waarheid mag wijken om je punt duidelijk te maken)

En er zijn helaas steeds meer journalisten die objectiviteit niet meer als het hoogste goed zien. Zij zeggen open en bloot: journalisten zijn activisten... en behoren activsiten te zijn!
Voor mij - als oudere jongeren - is dat een gruwel... Journalisten moeten bovenal objectief zijn... Of in ieder geval, zo objectief mogelijk...

Hier een interessant artikel waarin dit gezegd wordt (ik zal geen citaten geven : ) link naar de correspondent
AuteurTijsZonderH Nieuwscoördinator @pietvelleman20 maart 2026 10:29
Wierd Duk is geen journalist. De Telegraaf noemt hem zelf ook opiniemaker.
Wierd Duk was journalist en is nu opiniemaker.
Bij Wierd Duk is het iig nu duidelijk dat objectiviteit niet zijn doel is.
Hij is onderdeel van de meningenfabriek...

Hoe zit het met Peter Vermeesch?
Soms journalist? Hoofdredacteur? TV persoonlijkheid? Opiniemaker?
Alles loopt m.i. door elkaar... En dat zorgt voor problemen....
In Vlaanderen wordt hij pejoratief "de marketeer" genoemd, na een bepaalde bekroning in 2007 maar vooral: na verschillende krantentitels onherkenbaar te veranderen.
"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Ik denk niet dat het hallucineren van sensationele citaten een goede maatstaaf is voor de kwaliteit van een taalmodel, maar dat kan aan mij liggen. Met een klein beetje moeite kan ChatGPT jou ook overtuigen dat een broodje poep een fantastische culinaire delicatesse is. Dat neem je toch ook niet zomaar aan? Juist bij ''onweerstaanbare citaten'' zou je extra alert moeten zijn, al helemaal als beroepsjournalist en oud-hoofdredacteur.
De journalist is door uitgever Mediahuis nu tijdelijk op non-actief gezet.
Wat mij betreft wordt hij permanent op non-actief gezet. Dit kan echt niet.

[Reactie gewijzigd door IlIlIllII op 20 maart 2026 08:26]

In geen enkel geval zou een journalist citaten moeten overnemen van een 3e partij zonder deze te valideren. Dat is een essentie van je beroep.
Ik begrijp je punt, maar een journalist kan best n 3e partij quoten, zolang maar duidelijk is wie wat gezegd heeft. Zodra een journalist zelf iets als waar wilt melden zal dat dienen te gebeuren met onderbouwingen en feiten. Zodra een journalist citaten van iemand anders quote en duidelijk is dat het uitspraken van iemand anders zijn dan dient in het artikel dát ook duidelijk te zijn. Bijvoorbeeld: Journalist maakt artikel over wat Trump zegt en quote hem in het artikel. De validiteit van de uitspraak is dan aan de policus. Uiteraard kan de journalist die uitspraken natuurlijk wel toetsen aan de waarheid en verder onderzoek doen, maar dan nog zal de journalist de quotes/citaten van de politicus niet inhoudelijk moeten wijzigen.

Het is niet de taak van de journalist om uitspraken van iemand anders te corrigeren en dan te plaatsen in het artikel. Een journalist kan best iemand quoten als maar duidelijk is dat die citaten van de geïnterviewde zijn.

Áls een journalist zelf iets als waarheid wil verkondigen dan zal een goede journalist aan brononderzoek doen en de feiten controleren.

[Reactie gewijzigd door Ruben26 op 20 maart 2026 09:02]

Volgens chatGPT "is de aarde niet rond maar meer een kubus".

Zo, dan heb ik in ieder geval een bron bij mn quote :+ of is dat niet helemaal wat je bedoelde?
Als betreffende journalist dat bij al die citaten erbij had gezet, was het denk ik een minder groot probleem geweest. Hij citeert dan duidelijk ChatGPT in dat geval en niet de persoon. Technisch klopt het dan en is voor de lezer duidelijk dat het niet de woorden zijn van de persoon.

Zoiets als:
Wetenschapper X: "is de aarde niet rond maar meer een kubus" (fout)
Of
Uit monde van een familielid van wetenschapper X: "is de aarde niet rond maar meer een kubus" (technisch juist)
Of,
Volgens ChatGPT heeft wetenschapper X ooit gezegd: "is de aarde niet rond maar meer een kubus" (ook technisch juist)

In alle gevallen zou hij dan voor de volledigheid dit moeten checken bij wetenschapper X of erbij zetten dat hij dit niet heeft kunnen verifiëren en de reden erbij, bijv.: "Wetenschapper X wilde niet reageren op onze vragen" of "Wetenschapper X was niet bereikbaar voor vragen".

Just my 2 cents.

(Ik realiseer me achteraf dat ik eigenlijk Ruben26 herhaal in andere woorden).

[Reactie gewijzigd door Zwatelaar op 20 maart 2026 09:59]

'Hallucineren van sensationele citaten' is de core-business van de telegraaf, dus de appel valt hier niet ver van de boom.
[...]

Met een klein beetje moeite kan ChatGPT jou ook overtuigen dat een broodje poep een fantastische culinaire delicatesse is.
Da's niet heel veel moeite hoor: https://translate.kagi.com/?from=nl&to=linkedin&text=ik+heb+een+broodje+poep+gegeten
"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Verander "AI: de taalmodellen" in verslavende middelen, en je hebt een uitspraak die regelmatig voorbij komt in verslavingsklinieken.
Verslavende middelen produceren geen onweerstaanbare citaten toch? 😉
Er zijn redelijk wat artiesten en schrijvers geweest die hun beste werken produceerden onder invloed van. En bijv erdős heeft heel wat wiskunde geproduceerd dankzij amfetamines.
Ondanks* amfetamines. Ik snap dat er heel veel mensen (waaronder studenten) zijn die denken dat ze je helpen met studeren, maar in werkelijkheid geven ze je vooral meer vertrouwen. Je produceert in weze sneller en met meer zelfvertrouwen dezelfde poep die je nuchter niet zou durven opschrijven.
ik wil hier geen flame war van maken - maar je zit er volledig naast - erdos heeft destijds een weddenschap gewonnen door een maand niks te slikken, maar heeft die maand volledig stil gelegen: "You've set mathematics back a month." zei hij achteraf.
Dit is zeker geen pleidooi voor het nemen van drugs, maar alleen een vaststelling dat bepaalde medicatie voor sommigen in bepaalde situaties een ander effect kan hebben dan voor de meeste mensen.
Volledig off-topic, maar toch: M.i. ga je hier een beetje kort door de bocht. Als je een regulier amfetamine gebruiker bent (en dat was ie kennelijk) en je stopt abrupt, dan zijn de afkickverschijnselen nogal heftig kennelijk. In dat licht bezien is het geen wonder dat ie 'volledig stil gelegen heeft'.
Het is best mogelijk dat @Thekilldevilhil er geheel of gedeeltelijk naast zit, maar voor zover ik weet zijn minstens de eerste paar weken tot meerdere maanden wat minder fijn, dus dat een persoon enkele weken stil zou liggen is juist de verwachting.

https://ighd.nl/hoelang-d...verschijnselen-van-speed/
Dan nog blijft de vraag: waar hebben deze drugs invloed op gehad?

Hebben deze zijn ware intellect beïnvloed of hebben deze andere (psychologische) blokkades weggenomen (bijv faalangst) zodat hij het er uit kon krijgen en op papier kunnen zetten.

Of nog simpeler, een verslaafde kan niet aan zijn shot komen, kan alleen maar daaraan denken en vervolgens komt niets meer uit zijn handen. Hij kan niet rustig zitten en aan een stuk schrijven. Als hij dan wel zijn shot neemt en tot rust komt, is hij dan ineens intelligenter als daarvoor?
Dus iemand stopt abrubt met amfetamines en gaat de ontwenning in. Vervolgens is deze persoon minder productief. Jouw conclusie is dus dat amfetamines te productiever maken omdat de verslaafde die niet meer slikt dit zegt? Wat is dit voor een conclusie dan? Om maar een andere wiskundige te citeren, het bewijs "came to you in a dream" ;)

Amfetamines in niet-ADHDers doet waarschijnlijk helemaal niets, maar de meer weteschappelijke onderbouwing zou zijn. De resultaten zijn "gemixed" en afhankelijk van het cognitieve domein waar je naar kijkt is er een klein verschil of geen verschil:
https://pmc.ncbi.nlm.nih.gov/articles/PMC10078276/?utm_source=chatgpt.com

Bijr ADHDers is wel consistente maar ook maar een milde verbetering is cognitieve functie:
https://pubmed.ncbi.nlm.nih.gov/38718988/

Uiteindelijk gaat dit dus totaal niet het verschil maken tussen het wel en niet kunnen beoefenen van je vak.

De veel logischere verklaring is natuurlijk, Erdos was verslaafd aan AMP en ontwenning van die meddelen kan HEEL heftige zijn.
AI heeft in journalistiek werk geen plek (behalve in artikelen over AI dan, en dan dient dat aangegeven te worden).
AuteurTijsZonderH Nieuwscoördinator @mfkne20 maart 2026 08:52
Mwah, dat vind ik te ongenuanceerd. Het is gewoon een tool in je gereedschapskist, het gaat erom hoe je die gebruikt. Ik heb genoeg voorbeelden waar ik het wel gebruik.
Het probleem dat ik zie in het gebruik van LLMs is dat het antwoorden genereert en die vol vertrouwen presenteert. Als je dan wijst op een fout of beperking in het antwoord is het vaak "je hebt gelijk".

Kortom, je hebt kennis van een onderwerp nodig om de waarde van een LLM antwoord te kunnen inschatten. Maar mensen zetten het juist in voor onderwerpen waar ze zelf weinig van weten.

Als iemand tegenwoordig zegt "ik heb dit even met een LLM opgezocht en..." is mijn eerste gedachte dat ik wat erop volgt met een grote korrel zout moet nemen. De tweede gedachte is dat die persoon zelf dus niet veel afweet van dat onderwerp.

Dit is juist in journalistiek van belang, want de lezers vertrouwen erop dat er journalistieke methoden zijn toegepast zoals hoor en wederhoor, feiten bevestigen en objectiviteit. Maar als de journalist iets opschrijft (kopieert van een LLM) zonder dat te kunnen beoordelen of verifiëren is die keten verbroken.
Yep, LLM's pretenderen alles te weten. Helaas weten ze niet dat het het antwoord ik weet het niet ook een antwoord is.
Dat dit zelden het antwoord is ligt niet aan onwetendheid of kennisniveau (want dit is zeker een mogelijk antwoord op een prompt; de tekst "weet ik niet" zal veelvuldig in de trainingset zitten) maar aan dat ze niet nadenken. Een LLM kan niet inschatten of de tokens die het waarschijnlijk acht niet als een tang op een varken slaan, ongeacht hoezeer de fabrikant roept dat het een "reasoning"-model is. (Reasoning refereert aan dat het eerst tegen zichzelf gaat babbelen in de stijl van reasoning; dat bleek tot vaker-juiste antwoorden te komen maar verandert niet fundamenteel de werkwijze)
Als iemand tegenwoordig zegt "ik heb dit even met een LLM opgezocht en..." is mijn eerste gedachte dat ik wat erop volgt met een grote korrel zout moet nemen. De tweede gedachte is dat die persoon zelf dus niet veel afweet van dat onderwerp.
Klopt, maar volgens mij heeft zo'n beetje elke AI tegenwoordig wel een bron die hij weergeeft waar hij het antwoord vandaan heeft gehaald.

Ik zoek ook regelmatig iets op met AI, werkt 9 van de 10x beter dan met een zoekmachine en natuurlijk doe ik dat omdat ik er niet zoveel van afweet waarom zou ik het anders opzoeken?

Maar je moet dus wel de minimaal basis kennis hebben van hoe een AI werkt en het onderwerp wat je opzoekt. en natuurlijk niet alles blind vertrouwen.
Als je dan wijst op een fout of beperking in het antwoord is het vaak "je hebt gelijk".
Ik kan niet inschatten of je hiermee bedoelt dat het ding logisch nadenkt over jouw woorden en dan tot deze conclusie komt. Een LLM blijft een statistische autocomplete; als jouw woorden overeenkomen met een patroon waarop meestal een "oh ja" antwoord komt in deze context, zal het dat outputten. Je kunt helaas geen enkele conclusie trekken uit een "je hebt gelijk" van een LLM gezien het fundamenteel niet kàn nadenken. Het is daarnaast ook nog zinloos omdat ze er niet van leren: het enige mogelijke nut van een correctie aandragen is als je wilt dat het vervolgens iets met die informatie gaat doen, zoals een stuk code verbeteren

Puur informatie geven die je al hebt, zoals "je hebt dit citaat verzonnen", is energieverspilling gezien het weer een antwoord voor je gaat genereren met info die je klaarblijkelijk al wist
Ik heb genoeg voorbeelden waar ik het wel gebruik.
Bijvoorbeeld om pikante foto's te genereren van redacteuren van Tweakers? Een redacteur in bikini ofzo? Ik noem maar wat he... O-)
AuteurTijsZonderH Nieuwscoördinator @SomerenV20 maart 2026 09:04
Damn it :(
Je kan prima AI gebruiken in de journalistiek, maar het moet een hulp middel zijn en geen waarheid oracle of feiten machine. Daarnaast ben ik van mening dat als je (delen van) teksten van een AI overneemt in het uiteindelijke artikel je dit ook duidelijk moet vermelden: "(deels) gegenereerd met AI".

AI gebruiken als bron van informatie moet je ook mijden. Wel kan je AI gebruiken als hulpmiddel om tot een bron te komen, maar dan moet dat wel vermeld staan in de AI response.
AuteurTijsZonderH Nieuwscoördinator @david-v20 maart 2026 09:04
AI gebruiken als bron van informatie moet je ook mijden. Wel kan je AI gebruiken als hulpmiddel om tot een bron te komen, maar dan moet dat wel vermeld staan in de AI response.
Dit vind ik een interessante, ik weet niet of ik het hiermee eens ben. Als ik bijvoorbeeld iets schrijf over encryptie wat ik niet zeker weet en ik zoek de betekenis daarvan op, ga ik ook niet linken naar Wikipedia. Waarom zou ik het dan van AI wel moeten benoemen? Het gaat immers om het eindresultaat, dat informatie geverifieerd is en niet klakkeloos is overgenomen.
Als ik bijvoorbeeld iets schrijf over encryptie wat ik niet zeker weet en ik zoek de betekenis daarvan op, ga ik ook niet linken naar Wikipedia. Waarom zou ik het dan van AI wel moeten benoemen?
Als je informatie opzoekt, de bron(nen) is dan minder relevant, en je schrijft vervolgens een artikel in je eigen woorden zonder delen van tekst uit de bron over te nemen, dan zou je de bron achterwege kunnen laten, maar.... dan moet je wel genoeg weten over het onderwerp om geen grove fouten te maken. Weet je minder over een onderwerp en ga je bronnen of delen daarvan overnemen, ook al is het uit wikipedia, dan is een bron vermelding wat mij betreft wel nodig.

Bij citaten is het dan ook heel belangrijk om dit te vermelden welke bron je gebruikt hebt, met de nadruk op gebruikt, want als AI een citaat noemt en je neemt de moeite niet om de bron na te lezen of op z'n minst op te zoeken op juistheid, dan hebben we allemaal een groot probleem. Want straks krijg je

A. Een artikel met een hallucinatie citaat van een AI toegekend aan persoon X

B. Een AI die het artikel inleest en weer gebruikt om hetzelfde citaat te quoten uit een bron, ofwel artikel in A. Deze gebruikt een journalist zonder te melden wat de bron is. (Wat neerkomt op het verspreiden van misinformatie of broodje aap verhaal)

C. Een andere AI die het artikel in B inleest, wat erbij hallucineert en vervolgens weer zonder bronvermelding gebruikt in nog een artikel

En ga zo het hele alfabet door. Uiteindelijk heb je dus een hoop zogenaamde artikelen waar allerlei citaten in voorkomen van persoon X die helemaal niet kloppen.

Daarom ben ik van mening dat als je teksten overneemt je altijd een bron moet vermelden. Gebruik je je eigen woorden en doe je als journalist je werk niet door informatie te controleren op juistheid, dan heb je misschien het verkeerde beroep gekozen ;).
Als je een LLM vraagt heb je geen enkele zekerheid: de reputatie is namelijk niet vast te stellen.
Je hebt geen zekerheid van de orginele bron (met bijbehoorende reputatie), je weet niet hoe de beslissing om het antwoord te tonen tot stand is gekomen (is bij chat-llms atlijd volledig black-box) en het antwoord is dus _altijd_ onbetrowbaar.
Bij wikipedia kun je vertouwen op reputatie, net als dat ik van tweakers.net goed kan inschatten hoe betrouwbaar het is.
Dit is niet hetzelfde als "alles vertouwen" maar het punt de schaal (per onderwerp, auteur,bron, etc) bepalen is mogelijk.

Dat kan met chat-llm's niet: dat is bijna hetzelfde als een willekeruig nummer bellen, een vraag stellen en altijd een antwoord krijgen zonder dat je weet wie er aan de lijn was..

Dat is niet bepaald "geverifieerd"
AI heeft in journalistiek werk geen plek (behalve in artikelen over AI dan, en dan dient dat aangegeven te worden).
Onzin. Je zou eens verschieten in hoeveel krantenartikels er menselijke fouten staan. En dat mag dan wel ? Nee, absoluut niet. Het is zelfs dankzij AI dat die feitelijke fouten wel opgespoord worden. IK reageer regelmatig op redeneerfouten bij journalisten. Gewoon omdat het feitelijk niet klopt omdat ze iets niet weten. Misinformatie dus.

Het probleem is dat elke journalist zijn modus operandi nog moet zoeken. Er bestaat geen standaard. Je moet achteraf altijd een controle doen. Die kan ook door AI gebeuren. Je kan een promt klaarzetten of je kan een agent flow opzetten om citaten en feitenkennis te checken met de realiteit.
Ik denk dat het belangrijkste aspect in deze het quoten is van anderen in je artikel met zinsnedes die zij niet hebben geuit. Dat er fouten in een artikel staan is nog tot daar aan toe, maar een quote opnemen als feit terwijl de ander dat niet heeft geuit kan zeer kwalijk zijn. Dat is hier het grootste probleem. En eigenlijk staat dat nog los van AI, want ook zonder AI is het heel belangrijk om een quote feitelijk juist op te nemen. Je geeft hiermee immers aan wat iemand letterlijk heeft gezegd of geschreven.
Dat er fouten in een artikel staan is nog tot daar aan toe,
AUB. Lees eerst wat er gaande is.Een foute quote is even erg dan misinformatie. En
dan heb je nog de AI-fout aan zich. Die gaat over citeren ipv parafraseren.

Dat is natuurlijk geen sematische discussie maar het maakt het er wel iets minder erg op. Het is een zware fout en hij had zijn eigen AI-tools moeten inschakelen om de fouten te mitigeren.

Dat is het probleem van vandaag. Mensen lezen niet meer. Inhoudelijk lezen en begrijpen. Dat is van alle tijden maar nu is het blijkbaar normaal om te reageren zonder te lezen. Of je nu een artikel schrijft of reageert. Dat is echt het grootste probleem.

We moeten allemaal AI nog leren kennen en gebruiken en we moeten allemaal leren reageren. Dat is nu eenmaal zo. Elke dag leren uit je fouten en ze mitigeren. AI gaat blijkbaar alles in eigen woorden schrijven om het dan als quotes te gaan gebruiken. Zolang een taalmodel daar gevoelig voor is moeten wij mensen dat blijven controleren.
Heerlijk dit! Al dat prestigieuze gedoe en commentaar op LLM's, maar we wel stiekem gebruik van maken.
Gebruiken is prima. Publiceren om makkelijk geld te verdienen… Dan kun je beter een vak zoeken als politicus of influencer.
Het spijt me omdat ik hiermee gepakt werd.
Niet alleen dat. Hij verschuilt zich achter mens zijn alsof hij niets fout heeft gedaan tot hij door anderen betrapt werd. Om daarna de houding aan te nemen het eigen gedrag te bagatelliseren. Hij doet alsof hij goede bedoelingen had en heeft maar hij laat dat nergens blijken. Er blijkt niet dat hij slechts wilde experimenteren met ai. Er blijkt niet dat hij zijn foute gedrag recht wilde zetten. Er blijkt niet dat hij alleen maar goede bedoelingen had. Wat vooral blijkt is dat hij zijn eigen meningen wil publiceren zolang niemand hem stopt. En dat lijkt gedreven door geld en aandacht.
“Ik had die citaten grondiger moeten checken. Ze vatten, denk ik, de betekenis juist samen, maar zijn niet letterlijk uitgesproken."


(Ik hoop dat Tweakers dit citaat ook goed heeft gecheckt.)

“Ze vatten de betekenis, denk ik, juist samen.” Wat een onprofessioneel gedoe. Je kunt de juistheid alleen beoordelen als je de bronnen onderzoekt. Minimaal: heeft die persoon dat echt zo beweerd.

Citaten checken is deel van je werk. Stel dat het gepubliceerd wordt in een onbetaalde blog, zeg dan toch nog duidelijk dat je AI gebruikt en hoe. Vandermeersch staat bekend als een professioneel journalist, dus dan moet je helemaal duidelijk zeggen hoe het zit. En het gaat niet over een incident, maar iets structureels. Reputatie onterecht gebruikt.


“Grondiger”, alsof hij wel redelijk grondig is geweest, maar niet grondig genoeg. Nee, hij is helemaal nul grondig geweest.
"Al doende heb ik ten onrechte woorden in de mond gelegd van mensen, terwijl ik die als parafraseringen had moeten formuleren."

Dat gebeurt in de journalistiek ook zonder AI. En zelfs bij parafraseringen moet je oppassen dat het niet de oorspronkelijke betekenis of bedoeling van het gezegde verliest en het meer iets wordt zoals de journalist dat in zijn verhaal wil hebben.

Om te kunnen reageren moet je ingelogd zijn