Oud-hoofdredacteur van NRC gebruikte citaten uit AI-hallucinaties

Uitgever Mediahuis heeft de oud-hoofdredacteur van NRC geschorst omdat die citaten had gebruikt die door AI-bots verzonnen waren. Peter Vandermeersch werkt niet meer bij NRC, maar is als journalist nog wel verbonden aan de uitgever. Hij erkent fouten te hebben gemaakt.

Peter Vandermeersch erkent het voorval in een blogpost, nadat nota bene NRC dat had ontdekt. NRC zag dat de journalist in verschillende artikelen AI had ingezet, maar ook dat hij daardoor verzonnen citaten in artikelen had gezet. Volgens de krant publiceerde Vandermeersch 53 blogposts en in 15 daarvan gebruikte hij citaten die niet stonden in publicaties die Vandermeersch aanhaalde. NRC sprak ook met zeven personen die Vandermeersch zogenaamd zou hebben geciteerd, die zeiden dat ze die uitspraken nooit hadden gedaan. "Bij elkaar gaat het om tientallen citaten", schrijft NRC.

Die citaten kwamen voort uit hallucinaties door AI-modellen. Vandermeersch zegt tegen NRC dat hij ChatGPT, Perplexity en Googles NotebookLM gebruikte om rapporten samen te vatten. Daaruit kwamen verzonnen citaten naar voren, die hij vervolgens niet controleerde. "Dat is fout geweest", zegt Vandermeersch tegen NRC. "Ik had die citaten grondiger moeten checken. Ze vatten, denk ik, de betekenis juist samen, maar zijn niet letterlijk uitgesproken."

Onweerstaanbare citaten

Vandermeersch schrijft op zijn eigen blog dat hij erop vertrouwde 'dat de samenvattingen correct waren'. "Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."

Vandermeersch schrijft niet precies hoe hij te werk ging en hoe de fouten konden ontstaan. Zo kunnen algemene chatbots snel hallucineren, maar iets als NotebookLM doet dat minder, omdat het alleen uitgaat van de content die wordt ingeladen.

Oud-hoofdredacteur NRC en voormalige ceo Mediahuis

De journalist is door uitgever Mediahuis nu tijdelijk op non-actief gezet. Dat uitgerekend Peter Vandermeersch hiermee de fout in gaat, is saillant. Hij was hoofdredacteur van NRC en werd daarna tijdelijk ceo van de Ierse tak van Mediahuis.

Sinds oktober was Vandermeersch werkzaam als Fellow Journalism & Society. Dat betekent in de praktijk dat hij blogt over journalistieke innovaties, maar ook bijvoorbeeld veel in de media optrad over dat onderwerp. In die rol schreef hij ook over AI en de journalistiek, hoewel dat meestal niet ging over het inzetten van AI voor journalistieke producties.

Update, 25-03 – In het artikel stond aanvankelijk dat Vandermeersch ceo was van de Belgische uitgever Mediahuis, maar hij was ceo van de Ierse tak.

NRC Mediahuis

Door Tijs Hofmans

Nieuwscoördinator

20-03-2026 • 08:03

165

Submitter: henkjobse

Reacties (165)

Sorteer op:

Weergave:

Ik denk dat als de HOOFDREDACTEUR van NRC, een krant die er prat opgaat een goede reputatie te hebben en zichzelf beschrijft als pleger van "onderzoeksjournalistiek", al gebruik maakt van AI zonder verder controles dit iets is wat wezenlijk en diep in de journalistiek zit.

Het is ook heerlijk, natuurlijk. Lekker in je veilige kamer een beetje de computer "je werk" laten doen.

Kortom, een illusie armer? Of ?
AuteurTijsZonderH Nieuwscoördinator @joker197720 maart 2026 08:53
De ex-hoofdredacteur van NRC. Hij is dat sinds 2019 niet meer, toen bestond ChatGPT nog niet. Je kunt dit niet projecteren op hoe een krant nu omgaat met AI.
Het is veelzeggend dat een (oud-)hoofdredacteur niet de integriteit bezit om zorgvuldig met dit soort zaken om te gaan.

Dan kun je wel zeggen dat het losstaat van hoe de krant "nu omgaat met AI" maar hij was toch nog gewoon actief als journalist bij de uitgeverij ?

Dit is niet één of andere column-schrijver die per ongeluk over de schreef gaat, dit is een (oud-)hoofdredacteur die beter dient te weten.

Ik vind het wel degelijk veelzeggend, YMMV. Ik durf je op een briefje te geven dat je dit soort nieuws veel vaker gaat lezen de komende tijd.
Zijn werkgever (de NRC) had het zelf ontdekt. Prima journalistenonderzoek toch?
Na de 53e post werd het ontdekt dat er 15 verzonnen waren ja
Dat zijn 53 posts op het persoonlijke blog van de man, niet 53 publicaties in NRC.
Iets laat mij vermoeden dat hij daar niet vriendschappelijk vertrokken is :)
Daarover ging het artikel inderdaad
Toen had een medewerker een ai agent gemaakt, die de oorsprong van citaten kon opzoeken 🤔
Dat de slager zijn eigen (oud) vlees afkeurt is nobel, klopt. Maar dat de slager dat pas na 50+ posts doet, is een beetje minder fijn.

Enfin, "verzonnen" data is niet nieuw, het is een serieus probleem in de sociale studies, waar blijkt dat een ruime hoeveelheid studies helemaal niet gereproduceerd kan worden, omdat de data nogal.. selectief gekozen is.

Daar gebeurde (en gebeurt) dat door druk om maar vooral te produceren, zodat je trending blijft, subsidie behoudt e.d. Wat als dit bij de journalistiek ook gaande is? Als je maar publiceert, maakt niet uit of de data verzonnen is of niet - als je maar trending blijft ?
Maar dat de slager dat pas na 50+ posts doet, is een beetje minder fijn.
Verwachten we serieus dat elke mediauitlating al hun oudmedewerkers die een blog hebben op de voet aan het volgen is om elke blogpost direct te factchecken?
Wat een grote woorden, "niet de integriteit bezit".. Het heeft niets met integriteit te maken, maar wel met het feit dat ook een oud-hoofdredacteur een mens is en moet wennen aan de onbetrouwbaarheid van AI modellen. Uit zijn reactie blijkt ook dat er niets schort aan zijn integriteit.
Maar het laat wel duidelijk zien: integriteit is niet gelijk aan waarheidsbevinding of nauwkeurig werken.

Dus wat zegt dat dan? Men schermt ermee alsof daarmee de krant zeer hoge journalistiek bedrijft, foutjes incidenteel zijn en men de krant kan vertrouwen. Maar als men blijkbaar klakkeloos dingen overneemt zonder controle maar toch 'integer zijn', dan laat mij dat wel zien dat het gewoon een loze kreet is. Dan is de krant of journalist enkel goed voor verslaglegging en niet voor het achterhalen van de waarheid.
Het gaat niet om artikelen in NRC, maar om een blog-serie van een oud-medewerker.

Dat deze oud-medewerker destijds hoofdredacteur van een kwaliteitskrant was en hij blijkbaar ook als fervent voorstander van het gebruik van AI heeft gezegd dat dit op termijn redacteuren kan vervangen, is wat het een pikante zaak maakt. Iets dat hier op Tweakers ook vaak wordt gezegd. AI zou zelfs beter zijn dan mensen van vlees en bloed, want de computer zou neutraal zijn - iets waaruit blijkt dat zelfs veel Tweakers niet weten dat hallucineren inherent is aan de techniek en niet snappen hoe de gekozen trainingsdata bias versterkt.

En NRC zelf laat vervolgens juist zien dat serieuze journalisten hun werk beter doen dan de AI-modellen waarop deze oud-medewerker en AI-evangelist vertrouwt. En een goede reden om een abonnement op een krant te houden: investeer in mensen die tussen alle AI-slop wel bronnen checken en wegen.
"Het heeft niets met integriteit te maken, maar wel met het feit dat ook een oud-hoofdredacteur een mens is en moet wennen aan de onbetrouwbaarheid van AI modellen."

Ik zou zeggen sla deze op journalisten van Nederland want hier kom je overal mee weg. Je moet gewoon nog een beetje wennen aan nieuwe dingen.

Het is geen beginnende journalist of tiener blogger. Het is iemand die zelf vertelt (vanuit zijn senioren rol met veel ervaring) aan anderen de gevaren over het gebruik van AI. Als oud hoofdredacteur van het NRC heb je invloed en aanzien in de wereld van de journalistiek. Juist hij had beter moeten weten. Maar zoals het altijd gaat met personen met aanzien; de regels gelden altijd voor een ander.
Wat een grote woorden, "niet de integriteit bezit".. Het heeft niets met integriteit te maken, maar wel met het feit dat ook een oud-hoofdredacteur een mens is en moet wennen aan de onbetrouwbaarheid van AI modellen. Uit zijn reactie blijkt ook dat er niets schort aan zijn integriteit.
Alles wat uit AI komt, dus nu LLM's moet je controleren. Dat is echt de basis. Dat mag je wel van een professional verwachten. Ik zou dat inderdaad ook niet onder integriteit zetten maar onder nalatigheid scharen.
Ik vind niet dat je de NRC iets kunt aanwrijven voor dit specifieke voorbeeld, ze claimen zeer strikte regels te hebben voor AI gebruik waaronder onder andere dat er geen teksten of citaten uit de AI direct in artikelen mogen worden gebruikt. Deze Vandermeersch was al toen hij nog hoofdredacteur van de NRC een actief AI pusher maar lag toen nog aan het lijntje van de interne richtlijnen van de krant, blijkbaar is hij daarna losgegaan om een soort van 'journalistiek in het AI tijdperk' blogger en adviseur te worden, en daar is hij nu (heel voorspelbaar) mee op zijn bek gegaan. Wat best wel pijnlijk is voor hem, omdat zijn reputatie als AI-duider of expert die hij blijkbaar graag wilde zijn nu wel behoorlijk besmeurd is. En uit de reactie die hij op dit incident heeft gegeven heeft hij dat zelf ook wel door nu want inmiddels zegt hij dat zijn enthousiasme over AI in de journalistiek wel bekoeld is.

Maar ik deel ook wel de zorg dat op termijn praktisch alle veelgelezen journalistieke publicaties vol met dit soort fouten staan. Het is gewoon te aantrekkelijk om op deze manier tijd en inspanning te besparen in plaats van daadwerkelijk journalistiek te bedrijven, dus er gaan zeker publicaties zijn die hun journalistieke integriteit minder belangrijk vinden dan de bottom line, en ook bij publicaties waar strenge AI richtlijnen zijn zullen altijd rotte appels en luie redacteuren zijn die denken dat ze er mee weg kunnen komen om een deel van hun taak uit te besteden aan AI.
Het is vrees ik eigen aan de sector - journalistiek staat zeer dicht tegen politiek aan, en dat is ook zo een sector die snel vervalt in corruptie, nepotisme en algemeen de kantjes eraf rijden.
Was te verwachten, toch? Vroeger, ten tijde van het televisieprogramma DWDD, schoven de hoofdredacteuren (w.o. Vandermeersch) van de kwaliteitskranten zeer frequent aan bij DWDD. Bij journalistieke misstanden van de bevriende kwaliteitskranten werden deze standaard afgedaan als een bagatel. Denk aan het plegen van plagiaat, verzinnen van een interview, opvoeren niet bestaande bronnen etc.
Het punt hier is een heel andere, ik quote uit de NRC:
Zo zei de 65-jarige oud-hoofdredacteur van NRC en De Standaard vorig jaar tegen de Vlaamse krant De Morgen dat hij menselijke eindredactie „zodra AI ertoe in staat is” wil afschaffen. Tegelijkertijd bespeurt de journalist – bij het bredere publiek bekend van talkshows als DWDD – risico’s.
Dit maakt de toon van het artikel in mijn ogen anders.

Allereerst is de taak van de journalistiek om (op redelijk korte termijn) nieuws te vergaren en te publiceren in artikelen. Daarbij moet de kwaliteit gewaarborgt zijn:
  • transparantie, verwijzing naar de bronnen van artikelen
  • een cultuur waarin atikels gemaakt kunnen worden en waarin deze (als ze niet houdbaar zijn) gerectificeerd kunnen worden
  • eindcontrole om ondermaatse artikelen voor publicatie af te vangen
Deze onderdelen maken deel uit van het kwaliteitssysteem van een krant.

Het is in de huidige tijd populair een "zero-tolerance" uit te dragen voor fouten, wat een extreem giftige cultuur oplevert. Daarbij moet je als krant courante artikelen produceren, dus ben je wel gedwongen gebruik te maken van middelen als AI, met kans op fouten. Zonder die middelen worden artikelen laat gepubliceerd en is de nieuwswaarde nul (en de economische waarde ook) en verlies je je inkomsten.

Fouten maken moet kunnen (met mate). Maar hier is het argument dat eindcontrole vervangen kan worden door AI, waarbij het schrijven ook al door AI gebeurd. De transparantie wordt minder en de eindcontrole gaat onderuit. Met andere woorden, de kwaliteit is compleet afhankelijk van AI en niet meer te sturen.

Als een krant dit tot beleid maakt, wordt het tijd je geld te reserveren voor een andere krant. (Ik denk dat een krantenabonnement in deze tijd nuttig is voor het behoud van journalistiek.) Niet meer dan logisch dat de uitgever zich van een dergelijke "journalist" distantiert door schorsing.
Ik denk dat we met zijn allen aan het leren zijn hoe we met deze nieuwe techniek om moeten gaan. Een hoofdredacteur is geen ingenieur en hij heeft het niet gebruikt voor plagiaat. Het gaat simpelweg om een persoon die niet bekend is met de beperkingen van een techniek die nog in ontwikkeling is.

Het is goed dat de NRC checks heeft ingebouwd om dit op te vangen en ook goed dat de beste man zijn fouten toegeeft en het corrigeert. Een leermoment voor ons allen.
Wel nog fellow van mediahuis, met als quote:

In this fellowship, I want to further strengthen Mediahuis’ position as a thought leader, addressing some of the industry’s key challenges—such as the relevance of journalism, its role in an era of polarisation, trust, press freedom, engaging with diverse audiences, and ensuring a sustainable future for local journalism—while exploring the responsible use of AI in newsrooms.”

Wat dat betreft ondanks de andere rol, minimaal net zo erg.
AuteurTijsZonderH Nieuwscoördinator @nietorigineel20 maart 2026 11:08
Ja dat staat ook in het artikel he.

Maar het punt is dat je niet NRC specifiek kunt aankijken over hoe het met AI omgaat omdat iemand die al 7 jaar NRC niet meer leidt niet goed met AI omgaat.

Ik snap dat het lijkt alsof die dingen door elkaar lopen, maar de rol van Vandermeersch heeft inhoudelijk niets te maken met het NRC van 2026. Dat heeft heel eigen regels, statuten en ideeën over hoe het met AI om moet gaan.
Staat zeker in het artikel, maar bijvoorbeeld in de eerste paragraaf staat hij omschreven als 'journalist', terwijl hij via de rol binnen mediahuis (eigenaar NRC toch?) meer dan alleen journalist lijkt te zijn, hoewel ik direct zal toegeven dat ik niet helemaal uit heb gezocht wat zo'n fellowship nou helemaal precies behelst.
AuteurTijsZonderH Nieuwscoördinator @nietorigineel20 maart 2026 11:30
Ik weet dat ook niet precies, maar zoals ik het begrijp is hij iemand die binnen Mediahuis nadenkt en schrijft en onderzoek doet naar nieuwe journalistiek. Dat je dat binnen een uitgever doet, betekent niet dat hij iets te zeggen heeft over hoe NRC iets doet. En dat is wel wat er in deze thread een beetje wordt geïmpliceerd.

Ter vergelijking: zulke mensen zijn er bij DPG ook, alleen heten die anders. Dat betekent niet dat wat zij zeggen, meteen voor alle media geldt.
Wacht... al sinds 2019 niet meer? Dat kan wel wat beter in de kop worden verwerkt. Ik las het alsof het zojuist was ontdekt. En 2019 staat ook nog niet eens in de tekst. Dus naar mijn mening wel erg misleidend.
AuteurTijsZonderH Nieuwscoördinator @xylone20 maart 2026 11:42
Er staat oud-hoofdredacteur, er staat ook dat hij niet meer verbonden is met NRC. En er staat dat hij in oktober begon met bloggen voor Mediahuis. Ik vind het nogal wat om dat misleidend te noemen.
Dat lijkt me nu een informatief en relevant feit, dat de man al 7 jaar weg is bij NRC:
Peter Vandermeersch werkt SINDS 2019 niet meer bij NRC
AuteurTijsZonderH Nieuwscoördinator @Jan12120 maart 2026 13:03
Er staat nota bene in de tweede zin dat hij niet meer bij NRC werkt.
Dat kun je ook interpreteren als sinds kort niet meer werkzaam, namelijk na dit voorval hebben zij afscheid genomen van elkaar. Je blijft volhouden dat het er niet toe doet dat hij sinds 2019 niet meer werkt voor de krant. Dat doet er toe beste schrijver. Dat vind ik als lezer een zeer relevante feit om de situatie beter te plaatsen tussen de oud-hoofdredacteur en de krant.

[Reactie gewijzigd door Batur op 21 maart 2026 09:48]

Die zin citeer ik toch, en wat voeg ik toe: SINDS 2019 (7 jaar)

Dat lijkt me juist relevant, want jaren voordat generatieve AI (met zijn hallucinaties) zijn intrede deed. En daar gaat het artikel toch over,
Ja, OK, maar het lijkt me nogal relevant dat hij bij de krant dus nooit met AI heeft kunnen werken.
Wat is precies de boodschap in je reactie? Het gaat niet om de huidige hoofdredacteur, maar oud-hoofdredacteur. Daar zit een wezenlijk verschil in.

AI is niet verboden en volgens mij heeft zelfs Tweakers al eens aangegeven dat ze het gebruiken ter ondersteuning. Journalistiek is meer dan alleen een artikel schrijven. En AI kan prima als ondersteunend middel gebruikt worden, zolang je maar op feiten berust en contextueel goed sterk verhaal is met onderbouwingen, weerleggingen etc... Daarin zit de echte meerwaarde.
Mijn vader zaliger was journalist - wel in de industriele automatisering. Maar 1 van de dingen waarin journalistiek en "meningen pendelen" in verschillen is dat je je bronnen altijd controleert. Hij, mijn vader, deed dit bv door telefoontjes te plegen naar verschillende experten, mensen uit eten te nemen voor een "onderhoud", cursussen/boeken en andere vakliteratuur bij te kopen en zich in de materie in te lezen en meer. Ik heb zijn artikels nooit niet gesmaakt. Te droog, te saai ... denk: order-picking robots, frequentieregelaars, SCADA systemen, laser-cutters, PLC's, ...

Maar als je deze controles niet doet. Als je al conclusies gaat trekken en die dan nog gaat bouwen op (quasi)-ongecontroleerde output van LLM's of het buikgevoel dan ben je geen journalist. En het is in mijn ogen ook spijtig dat het Vermeersch is want het is weer 1 van zij, die ik dacht dat daarboven stonden, die wel nog alles goed controleerde. Heb er graag naar geluisterd (VRT debatten), was er niet altijd mee eens maar altijd wel iets van bijgeleerd.

PS: Zal er nog altijd naar luisteren, hoor. Maar het is weer zo een boks, bevestiging dat zelfs zij die beweren niet fake te zijn ook regelmatig van dezelfde ambrosia bingen.
AuteurTijsZonderH Nieuwscoördinator @Pasteis20 maart 2026 08:56
AI is niet verboden en volgens mij heeft zelfs Tweakers al eens aangegeven dat ze het gebruiken ter ondersteuning.
Klopt! Onder andere voor eindredactie, maar ook om bijvoorbeeld tabellen te genereren op basis van specsheets. En ik gebruik het soms ook ondersteundend, om informatie te vinden. Net zoals ik Google en Wikipedia daarvoor gebruik. Het is precies zoals je zegt: het is ondersteunend, net zoals Wikipedia of de spellingscontrole in de tekstverwerker dat is.
[...]

Klopt! Onder andere voor eindredactie, maar ook om bijvoorbeeld tabellen te genereren op basis van specsheets. En ik gebruik het soms ook ondersteundend, om informatie te vinden. Net zoals ik Google en Wikipedia daarvoor gebruik. Het is precies zoals je zegt: het is ondersteunend, net zoals Wikipedia of de spellingscontrole in de tekstverwerker dat is.
Ik zou me zorgen maken als jullie geen AI zouden gebruiken, want vroeg of laat wordt je dan door je concurrenten voorbij gestreefd die sneller en net zo accuraat nieuws zouden kunnen publiceren. Prima zoals jullie het gebruiken volgens mij.

Ik gebruik het ook in mijn wetenschappelijk onderzoek, maar ik lees nog steeds regel voor regel alles na. En uiteraard gebruik ik valide bronnen.
Al een aantal jaren stijgt het aantal spelling en dt fouten in artikels.
Als je een stijging gezien hebt dan neem ik aan dat je het bijgehouden hebt? Misschien een goed idee om Tweakers met je onderbouwing en verzamelde data te helpen?
Hij heeft gewoon iets te veel AI gebruikt en begint nu zelf te hallucineren :Y)
AuteurTijsZonderH Nieuwscoördinator @MontyMole20 maart 2026 09:20
Ik waardeer het altijd zo als mensen hun leugens als absolute waarheid verkondigen. Het aantal threads in S&T daalt namelijk heel erg hard sinds we AI inzetten als eindredacteur.

Het is trouwens 'spelling- en dt-fouten'. Had ik geen AI voor nodig.
Ik snap sowieso niet dat mensen zo hard kunnen vallen over een spellingsfoutje.
Het gaat om het nieuws en het blijft mensenwerk (gelukkig).
AuteurTijsZonderH Nieuwscoördinator @MontyMole20 maart 2026 17:39
Je mag best je zeggen hoor. En ik weet niet zo goed waarom je andere DPG-titels erbij haalt. Daar heb ik geen idee van.
AuteurTijsZonderH Nieuwscoördinator @MontyMole21 maart 2026 08:06
Ja. Ga jij dan weer niet begrijpen dat redactionele onafhankelijkheid iets anders is dan 'we gebruiken allemaal Google Workspace'?
Wat is precies de boodschap in je reactie? Het gaat niet om de huidige hoofdredacteur, maar oud-hoofdredacteur. Daar zit een wezenlijk verschil in
Iemand die zon' hoge positie bij die krant heeft gehad. En als een klein kind willekeurige info als waarheid beschouwd... Dat heeft wel degelijk invloed op de reputatie van een krant. Tenzij hij een herseninfarct ofzo heeft gehad in de tussen tijd.
[...]


Iemand die zon' hoge positie bij die krant heeft gehad. En als een klein kind willekeurige info als waarheid beschouwd... Dat heeft wel degelijk invloed op de reputatie van een krant. Tenzij hij een herseninfarct ofzo heeft gehad in de tussen tijd.
Zie reactie van ThijsZonderH hieronder. Daarin wordt al aangegeven dat hij al sinds 2019 geen hoofdredacteur meer is. Het is totaal irrelevant dat hij oud-hoofdredacteur nu was. Dat NRC misschien eerder achter had moeten komen wat betreft de blogposts kan ik begrijpen, maargoed... ze hebben maatregelen getroffen. En je moet ergens proberen vertrouwen in de mensheid te geven.
Helaas is het jaar 2019 niet in het artikel genoemd.
Misschien eerst het artikel lezen voordat je meteen moord en brand schreeuwt?
Ik heb het artikel gelezen - wat al een stuk meer is hobbymatig dan deze journalist "beroepsmatig" deed om onderzoek te doen, blijkt.

Dan kun je nog argumenteren dat hij een oud-hoofdredacteur is, maar iets zegt mij dat als hij het doet als schrijver in loondienst nu, hij het ook zou doen destijds als dat had gekund. Hij heeft heus niet ineens zijn ethiek verloren, daar geloof ik geen moer van.

Maar hey - het wachten is op de volgende "journalist" die wat uitpruttelt wat AI heeft gehallucineerd en dan met een larie-verhaal aankomt. Redactie die "ervan leert".
Wat een ongelooflijke larie!
Schrijven is schrijven en niet een programma tekst en woorden laten verzinnen op basis van tekst die het zelf niet 'begrijpt'. Al klinkt verzinnen hier wel toepasselijk.
Ben je zelf niet goed genoeg, als je het zelf niet had kunnen bedenken, laat uw pen dan uitdrogen. Een mening vormen over iets dat je zelf niet gelezen en/of begrepen hebt, is toch absurd... En het is zijn job?!

Achja, de wereld..
Ik wil dit nuanceren. Een schrijver zal niet snel LLM gebruiken om teksten te schrijven. Maar taalmodellen kunnen een schrijver wel helpen met onderzoek en redactie. Zoals uit het artikel blijkt heeft Vandermeersch LLM's gebruikt om rapporten samen te vatten, informatie te verwerken. Op zich is daar niet zoveel mis mee, mits je kritisch blijft en controleert. En een taalmodel kan helpen bij redactie: schrijffouten, grammatica, stijl, consistentie, doelgroep, begrijpelijkheid etc. Een taalmodel kan suggesties geven aan de auteur. Het heeft niet zozeer met 'niet kunnen schrijven' te maken, als wel met hulpmiddelen. Ter vergelijking: een timmerman gebruikt ook een electrische schroevendraaier, dat wil niet zeggen dat hij geen goede timmerman is.
Belangrijk is: de schrijver blijft de baas en zal altijd, echt altijd, verantwoordelijkheid moeten houden voor het resultaat. En daar gaat het vaak mis: het is verleidelijk lui te worden en te vertrouwen op het resultaat.
Als een timmerman bij mij begint met niks te meten maar alleen een foto en dan AI vraagt waar gaan we de muur in boren, want het is toch maar een stukje voorbereiding, dan mag die subiet vertrekken...

Je moet het niet voor AI willen opnemen in vakgebieden waar de verantwoordelijkheid heel groot is. Journalistiek is nog altijd de hoeksteen van de democratie, die kunnen zich dit als beroepsgroep gewoon niet permitteren hoe dat soms toch al politiek onder vuur ligt kwalijk genoeg.
Ik deel absoluut jouw zorg over de kwaliteit van journalistiek onderzoek en ben het helemaal met je eens dat de verantwoordelijkheid zeer groot is. Meer dan ooit!

Dat neemt niet weg dat een LLM als hulpmiddel bij onderzoek en redactie behulpzaam is. Net als een woordenboek, spellingschecker, databank, etc. Een taalmodel is echter veel krachtiger en sneller en daarin schuilt het gevaar: dat we hersenen uitschakelen en de output gemakkelijk overnemen. En dat de creativiteit uit de taal verdwijnt.
Voorbereiden zitten verschillende fasen of onderdelen in.

Als ik AI gebruik om allerlei artikelen samen te vatten en vraag welke artikelen een afwijkende conclusie hebben, dan scheelt dat heel veel tijd. Dan kan ik vervolgens de afwijkende artikelen zelf erbij pakken om te checken wat er echt staat.

Je laat AI dan het werk doen wat normaal een stagiair of student zou doen, maar blijft zelf de verantwoordelijkheid houden.

Zolang jezelf de eindverantwoordelijkheid blijft nemen en alles checkt of het echt klopt kan AI je heel veel werk schelen zonder dat het de kwaliteit vermindert. Wat hier fout gegaan is, is niet dat hij AI gebruikt heeft, maar dat hij het niet gecheckt heeft.
Zolang jezelf de eindverantwoordelijkheid blijft nemen en alles checkt of het echt klopt
En juist daar schuilt een vreselijk groot gevaar. Checken is saaier werk dan zelf schrijven. AI zinsconstructies herschrijven voelt al helemaal als een hoop werk om uiteindelijk hetzelfde te zeggen. Beroepsjournalistiek mag aan een hogere standaard gehouden worden dan dat.

Voor heel kleine ondersteunende taken als intelligente spellcheck is AI beter en beter bruikbaar, maar als het gaat om journalistieke content selectie op basis van samenvattingen zie ik het niet. Je wilt daar het oog van de beroepsjournalist juist voor de details in de bron, ook om in te schatten wat de betrouwbaarheid en eventuele bias is. Juist dat soort nuance gaat met AI het snelste verloren, laat staan als die AI van zichzelf een wat linkers of juist wat rechtser profiel heeft vanuit de training. Ook aan welke bronnen je wel en niet aandacht schenkt zou een journalist moeten bepalen, niet een AI moeten voorsorteren. Dan krijg je via AI een veel te grote invloed op de kleuring van het nieuws.

[Reactie gewijzigd door OruBLMsFrl op 20 maart 2026 12:57]

Alles hangt af van de vraag en hoe je de voorbereiding door AI voortzet.

Jouw voorbeeld is er een zonder context. Gaat het om het ophangen van een schilderij, dan is het prima. AI houdt rekening met mogelijke leidingen (vooral elektra) en esthetiek. Voor het daadwerkelijke boren zal er toch gemeten moeten worden. Timmermannen doen dat ook steeds vaker met een laser meter ipv een duimstok, dus ook daar vindt een technische ontwikkeling plaats.

Gaat het om groter werk, dan kan AI nog steeds een leuke tool zijn voor een eerste (ruwe) voorbereiding die alvast aangeeft in welk gebied er geboord moet worden (al hangt hier wel veel af van hoe de opdracht is opgesteld). De door AI opgegeven locatie gebruikt dan wel de relatieve maten van de foto en die zullen nog vertaald moeten worden naar echte centimeters.
Hij gebruikte citaten gegenereerd door de AI.

Dat je een AI vraagt om een paar zinnen te herschrijven of om je tekst te bekritiseren is nog OK, hier wordt de AI gebruikt om bronmateriaal te genereren.

Zelfs als die quotes er per ongeluk in zijn gekomen is dit gewoon misbruik van de AI en natuurlijk een doodzonde van deze "journalist".
Een mening vormen over iets dat je zelf niet gelezen en/of begrepen hebt, is toch absurd...
Op het internet eerder de norm dan de uitzondering. Onder journalisten is het wel absurd.
"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Als je onweerstaanbare citaten niet kunt laten liggen omdat ze nep zijn ("bij wijze van spreken" of anders), dan hoor je geen journalist te zijn. Beperk je fantasie tot je eigen bubbel. Je hoort meer thuis in de Facebookgroepen van en voor wappies.
citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen
Is helemaal prima, maar je moet ze natuurlijk wel zelf bekijken/controleren. En de context zelf is natuurlijk ook belangrijk, ook bij "echte", niet AI gegenereerde teksten.
Ik verwacht van een gedegen journalist dat het ook kaf van koren goed kan scheiden. Schrijven is idd een bewerkelijk process, iets waarbij je echt met informatie aan de slag moet, organiseren en samenvatten.

Tijdens mijn studie werd imo het daadwerkelijke leerprocess pas echt afgerond tijdens het schrijven. Ja: verslagen schrijven is saai als je al het idee hebt boven de materie te staan, enkel omdat het dus moet van de docent. Echter tijdens mijn onderzoek beleefde ik eigenlijk best wel plezier in het schrijven, omdat dit onherroepelijk verbonden is met nadenken, dode gedachte-paden wegsnoeien en wat overblijft goed articuleren.

Het is echt nog een hele kunst om dit goed (en snel) te doen. Je merkt vanzelf wanneer je jezelf tegenspreekt, gaten laten vallen zoals termen of redeneringen introduceren die 'uit de lucht vallen', enzovoort. Meestal zeiden we bij ons op de afdeling ook: sorry ik had geen tijd om een korte brief te schrijven, maar wel voor een lange brief. Omdat korter veel bewerkelijker is en onevenredig veel meer tijd in gaat zitten.

In mijn ervaring wordt schrijven ook makkelijker/beter als je het vaker doet. Hetzelfde voor snel documenten lezen/doorzoeken. Ik snap dat niemand echt tijd heeft om een rapport van 100 pagina's te lezen terwijl andere nieuwsoutlets er al over publiceren. Maar kom op zeg, een LLM model in "een vacuum gebruiken" is toch gedoemd te falen? Met "vacuum" bedoel ik: garbage in, garbage out. Elk nieuwsartikel wordt verrijkt met relevantie achtergrond informatie, koppelingen met andere gebeurtenissen, en hopelijk ook fact checks. LLM's produceren vaak een generiek stukje blaat die vooral sturend is naar andere zaken (bijvoorbeeld biasen bevestigen zodat je de LLM meer gaat gebruiken)
Je kan een LLM prima gebruiken om je te helpen met het schrijven van een artikel. Op het moment dat je copy-paste doet ben je eigenlijk al klaar, of je moet alles controleren. Ik heb een GPT die bijvoorbeeld teksten kan herformatteren. Ondanks alle duidelijke, directe instructies negeert ChatGPT deze regelmatig. Momenteel ben ik meer op het klereding aan het schelden dan wat anders; elke iteratie van het programma lijkt het wel slechter te gaan.

Elke tekst die je laat genereren is simpelweg verdacht, punt. Niet geschikt hiervoor, wel om te vragen of er nog fouten in een artikel zitten (en dan de helft negeren, want soms zit ie er naast en vaak is het mierenneuken).
Een journalist schrijft artikelen, maar is geen schrijver. Het geschreven woord is maar een medium wat een journalist gebruikt om zijn werk te kunnen verspreiden. Het gebruik van AI of eigenlijk vooral de LLM's is daarbij wellicht een hulpmiddel om een stuk op een goede manier naar een doelgroep te brengen.

Ik heb geen bezwaar tegen het gebruik van AI door journalisten, maar men moet zich wel realiseren dat AI nog jong is en nog lang niet alle kinderziekten eruit zijn. AI heeft de neiging om zaken die het niet kan vinden gewoon in te vullen met iets wat redelijk lijkt ipv gewoon te vermelden dat het iets niet kan. Door de werking van de LLM's is het niet mogelijk om citaten klakkeloos over te nemen. De LLM's herschrijven gewoon alles, ook teksten die als citaat zijn bedoeld. AI gebruiken heeft dus risico's en elke gebruiker moet zich daar bewust van zijn. Het resultaat moet dus altijd goed gecontroleerd worden. Dat geldt zeker voor journalistieke artikelen en helemaal als daar citaten in voorkomen.
AI heeft in journalistiek werk geen plek (behalve in artikelen over AI dan, en dan dient dat aangegeven te worden).
AuteurTijsZonderH Nieuwscoördinator @mfkne20 maart 2026 08:52
Mwah, dat vind ik te ongenuanceerd. Het is gewoon een tool in je gereedschapskist, het gaat erom hoe je die gebruikt. Ik heb genoeg voorbeelden waar ik het wel gebruik.
Het probleem dat ik zie in het gebruik van LLMs is dat het antwoorden genereert en die vol vertrouwen presenteert. Als je dan wijst op een fout of beperking in het antwoord is het vaak "je hebt gelijk".

Kortom, je hebt kennis van een onderwerp nodig om de waarde van een LLM antwoord te kunnen inschatten. Maar mensen zetten het juist in voor onderwerpen waar ze zelf weinig van weten.

Als iemand tegenwoordig zegt "ik heb dit even met een LLM opgezocht en..." is mijn eerste gedachte dat ik wat erop volgt met een grote korrel zout moet nemen. De tweede gedachte is dat die persoon zelf dus niet veel afweet van dat onderwerp.

Dit is juist in journalistiek van belang, want de lezers vertrouwen erop dat er journalistieke methoden zijn toegepast zoals hoor en wederhoor, feiten bevestigen en objectiviteit. Maar als de journalist iets opschrijft (kopieert van een LLM) zonder dat te kunnen beoordelen of verifiëren is die keten verbroken.
Yep, LLM's pretenderen alles te weten. Helaas weten ze niet dat het het antwoord ik weet het niet ook een antwoord is.
Dat dit zelden het antwoord is ligt niet aan onwetendheid of kennisniveau (want dit is zeker een mogelijk antwoord op een prompt; de tekst "weet ik niet" zal veelvuldig in de trainingset zitten) maar aan dat ze niet nadenken. Een LLM kan niet inschatten of de tokens die het waarschijnlijk acht niet als een tang op een varken slaan, ongeacht hoezeer de fabrikant roept dat het een "reasoning"-model is. (Reasoning refereert aan dat het eerst tegen zichzelf gaat babbelen in de stijl van reasoning; dat bleek tot vaker-juiste antwoorden te komen maar verandert niet fundamenteel de werkwijze)
Ik zou het anders verwoorden.

In de basis is een LLM een statistisch model. Alles is een mate van waarschijnlijkheid. In een LLM bestaat geen o of 1. (dus geen: niet weten / wel weten of waar / niet waar). Alles is een mate van waarschijnlijkheid.

Dat geldt niet alleen aan de antwoord-kant. Ook aan de vraag-kant... Het weet niet alleen niet of het antwoord klopt. Het weet zelfs niet of het de vraag goed heeft geinterpreteerd!

Als ik vraag: "hoe hoch is de ijveltoren.", dan geeft ChatGPT het antwoord:
"De Eiffeltoren is ongeveer 330 meter hoog (inclusief antennes)"

Dus zelfs aan de vraagkant weet de LLM niet wat de echte vraag is. Op basis van statistiek wordt ingeschat met een bepaalde waarschijnlijkheid dat gevraagd wordt: "hoe hoog is de ijffeltoren".
Het woord 'hoch' staat in getokeniseerde vorm namelijk dicht bij het woord 'hoog'.
En het woord ijveltoren staat in getokeniseerde vorm dicht bij het woord ijffeltoren.

En aangezien 99% van de vragen over de ijfeltoren in Parijs gaan, wordt ingeschat dat de gebruiker die ijfeltoren bedoelt. En niet de miniatuur versie van de ijfeltoren in het park 'Miniatura' in Italie...

Dus bij de vraag alleen al worden tig aannames gedaan. En dan zijn we nog niet eens aan het antwoord beland...

Dus 'ik weet niet' komt niet voor in het vocubalaire van een LLM. En daarom zal het dat ook niet snel zeggen... volgens mij...

De standaard response van chatgpt kan ook zijn:
Met een waarschijnlijkheid van 86% denk ik dat je vraagt hoe hoog de ijfeltoren in Parijs is. En met een waarschijnlijkheid van 99,9% zal het antwoord op die vraag 330 meter zijn..

Maar dat word je waarschijnlijk ook snel zat...
Aan de andere kant: wellicht zou bij het antwoord wel iets gezegd kunnen worden van de zekerheidsniveaus...

excuus voor het lange verhaal... Ben vooral met mijzelf aan het redeneren : )

Veel korter...
Een LLM heeft:
- geen expliciete “knowledge state”
- geen boolean flags zoals knows_answer = true/false
- geen intern concept van “ik weet dit”

Wat het alleen heeft: een 'probability distribution' over tokens
(dus geen: niet weten / wel weten of waar / niet waar). Alles is een mate van waarschijnlijkheid.
[...]
De standaard response van chatgpt kan ook zijn:
Met een waarschijnlijkheid van 86% denk ik dat je vraagt hoe hoog de ijfeltoren in Parijs is. En met een waarschijnlijkheid van 99,9% zal het antwoord op die vraag 330 meter zijn..

Maar dat word je waarschijnlijk ook snel zat...
Ik denk dat dit niet klopt, maar misschien dat ik jouw verwoording verkeerd interpreteer hoor! Sorry in dat geval

Omdat, zoals je zegt, een LLM puur statistiek met taalelementen is, kan het niet dergelijke uitvoer geven als "het antwoord is met 86% zekerheid X". Wat het kan tonen is een boom van mogelijke vervolg-tokens, bijvoorbeeld:

De eerste token van het antwoord op deze vraag is met 5% "Het", 3.7% "De", 1.2% "Wat", enz.
Het eerstvolgende token na "Het" zou zijn "ant" met 3% kans, of "is" met 2.5% kans, enz. (Ik laat de spaties even achter wege.)
Als het eerste token echter "De" was is het volgende token waarschijnlijk "IJ" met een kans van 1.4%, enz.
Als de eerste twee tokens "Het ant" waren, is er een 19% kans dat het volgende token "woord" is, enz. enz. enz.

Daarbij stelt het dus totaal niet vast wat je vraag betekent (qua logica). Het kan niet denken en denkt dus niet na over welke betekenis het gaat aannemen dat je bedoelde. Of welk antwoord het op die lezing waarschijnlijk acht. Het kijkt enkel in de grote bak van zeg 100 000 tokens om te zien welke passen achter de gegeven context. Er wordt geen kans gegeven aan "ik weet dit niet (en moet dat nu gaan verwoorden)" tegenover "ik weet dit wel (en het is...)" maar simpelweg aan de waarschijnlijkheid dat het eerste token "ik" is. En zelfs áls het "ik" zou selecteren, is een reactie a la "ik weet het niet" nog niet vastgelegd. Het kan net zo goed doorgaan met "denk" of "lees op Wikipedia" als volgende woorden (ongeacht of het Wikipedia heeft geraadpleegd, al is de kans op die tekst natuurlijk zeer veel groter wanneer dat wel het geval was)

Dat het resultaat van dit proces intelligent uitziet verbaast mij best wel, en mogelijk leert het ons iets over hoe wij zelf werken, al mist er duidelijk wel nog iets. Ik (als mens) kan bedenken wat mijn antwoord is en het dan onder woorden brengen. Voor een LLM is het fysiek onmogelijk om het gevoel te hebben van "shit, ik kom niet op het woord", want er is geen achterliggend proces dat naar een verwoording op zoek is. De verwoording is het antwoord en het antwoord is de verwoording; er is geen concept van (on)waarheid in de 'belevingswereld' van het taalmodel

Hoe ik me de details herinner is dat het een bepaald aantal van waarschijnlijkste tokens neemt en daartussen gaat kiezen. Dit wordt top-K genoemd, waar K het getal is, bijvoorbeeld 150 (dit is een gangbare ordegrootte). Dus voor elke letter, teken, of kort woord van het antwoord dat het genereert, heeft het 149 alternatieven overwogen. Als de zogeheten temperatuurinstelling op 1 staat is dat volledig willekeurig; als die op 0 staat is het altijd de eerste (die met de hoogste waarschijnlijkheid, dit veroorzaakt vaak oneindige herhalingen); en alle waarden daartussen nemen een middenweg. Afhankelijk van wat je doet (een gedicht genereren of feitenkennis testen bijvoorbeeld) wil je die nog of laag instellen

Fun fact nu ik het toch over deze selectieprocedure heb: In het geval van Gemini, versimpeld gezegd, laat het de toevalsgenerator (om uit die K woorden te kiezen) afhangen van recente context en een geheime waarde. Ze kunnen dan een tweede model trainen dat de kans leert dat "weet" op "ik" volgt in het geval van Gemini's uitvoer tegenover die kans in andere teksten. Dit tweede model kan dan een waarschijnlijkheid geven of een tekst door Gemini gegenereerd is. Je moet al ongeveer elk tweede woord(deel) van een tekst aanpassen voordat de verbanden niet meer statistisch vaak genoeg voorkomen, en dan kun je net zo goed je huiswerk/nieuwsartikel zelf schrijven :P. Alsnog kan iemand dan Gemini als bron gebruikt hebben, maar in ieder geval is het inzichtelijk wanneer er iets (minimaal enkele zinnen) letterlijk uit overgenomen werd
Als iemand tegenwoordig zegt "ik heb dit even met een LLM opgezocht en..." is mijn eerste gedachte dat ik wat erop volgt met een grote korrel zout moet nemen. De tweede gedachte is dat die persoon zelf dus niet veel afweet van dat onderwerp.
Klopt, maar volgens mij heeft zo'n beetje elke AI tegenwoordig wel een bron die hij weergeeft waar hij het antwoord vandaan heeft gehaald.

Ik zoek ook regelmatig iets op met AI, werkt 9 van de 10x beter dan met een zoekmachine en natuurlijk doe ik dat omdat ik er niet zoveel van afweet waarom zou ik het anders opzoeken?

Maar je moet dus wel de minimaal basis kennis hebben van hoe een AI werkt en het onderwerp wat je opzoekt. en natuurlijk niet alles blind vertrouwen.
Het verschil met een (traditionele) zoekmachine is dat die bronnen vindt, terwijl een LLM een antwoord geeft.

Dat lijkt dan beter, maar daar kun je niet blind op vertrouwen.

Zelfs als er wel wat bronnen worden genoemd is dat vaak beperkt en ook blijkt regelmatig dat sommige onderdelen van het antwoord niet kloppen met de bronnen. Ook is niet duidelijk waarom een bepaalde bron wordt gebruikt en andere niet.
Als je dan wijst op een fout of beperking in het antwoord is het vaak "je hebt gelijk".
Ik kan niet inschatten of je hiermee bedoelt dat het ding logisch nadenkt over jouw woorden en dan tot deze conclusie komt. Een LLM blijft een statistische autocomplete; als jouw woorden overeenkomen met een patroon waarop meestal een "oh ja" antwoord komt in deze context, zal het dat outputten. Je kunt helaas geen enkele conclusie trekken uit een "je hebt gelijk" van een LLM gezien het fundamenteel niet kàn nadenken. Het is daarnaast ook nog zinloos omdat ze er niet van leren: het enige mogelijke nut van een correctie aandragen is als je wilt dat het vervolgens iets met die informatie gaat doen, zoals een stuk code verbeteren

Puur informatie geven die je al hebt, zoals "je hebt dit citaat verzonnen", is energieverspilling gezien het weer een antwoord voor je gaat genereren met info die je klaarblijkelijk al wist
Ik heb genoeg voorbeelden waar ik het wel gebruik.
Bijvoorbeeld om pikante foto's te genereren van redacteuren van Tweakers? Een redacteur in bikini ofzo? Ik noem maar wat he... O-)
AuteurTijsZonderH Nieuwscoördinator @SomerenV20 maart 2026 09:04
Damn it :(
Je kan prima AI gebruiken in de journalistiek, maar het moet een hulp middel zijn en geen waarheid oracle of feiten machine. Daarnaast ben ik van mening dat als je (delen van) teksten van een AI overneemt in het uiteindelijke artikel je dit ook duidelijk moet vermelden: "(deels) gegenereerd met AI".

AI gebruiken als bron van informatie moet je ook mijden. Wel kan je AI gebruiken als hulpmiddel om tot een bron te komen, maar dan moet dat wel vermeld staan in de AI response.
AuteurTijsZonderH Nieuwscoördinator @david-v20 maart 2026 09:04
AI gebruiken als bron van informatie moet je ook mijden. Wel kan je AI gebruiken als hulpmiddel om tot een bron te komen, maar dan moet dat wel vermeld staan in de AI response.
Dit vind ik een interessante, ik weet niet of ik het hiermee eens ben. Als ik bijvoorbeeld iets schrijf over encryptie wat ik niet zeker weet en ik zoek de betekenis daarvan op, ga ik ook niet linken naar Wikipedia. Waarom zou ik het dan van AI wel moeten benoemen? Het gaat immers om het eindresultaat, dat informatie geverifieerd is en niet klakkeloos is overgenomen.
Als ik bijvoorbeeld iets schrijf over encryptie wat ik niet zeker weet en ik zoek de betekenis daarvan op, ga ik ook niet linken naar Wikipedia. Waarom zou ik het dan van AI wel moeten benoemen?
Als je informatie opzoekt, de bron(nen) is dan minder relevant, en je schrijft vervolgens een artikel in je eigen woorden zonder delen van tekst uit de bron over te nemen, dan zou je de bron achterwege kunnen laten, maar.... dan moet je wel genoeg weten over het onderwerp om geen grove fouten te maken. Weet je minder over een onderwerp en ga je bronnen of delen daarvan overnemen, ook al is het uit wikipedia, dan is een bron vermelding wat mij betreft wel nodig.

Bij citaten is het dan ook heel belangrijk om dit te vermelden welke bron je gebruikt hebt, met de nadruk op gebruikt, want als AI een citaat noemt en je neemt de moeite niet om de bron na te lezen of op z'n minst op te zoeken op juistheid, dan hebben we allemaal een groot probleem. Want straks krijg je

A. Een artikel met een hallucinatie citaat van een AI toegekend aan persoon X

B. Een AI die het artikel inleest en weer gebruikt om hetzelfde citaat te quoten uit een bron, ofwel artikel in A. Deze gebruikt een journalist zonder te melden wat de bron is. (Wat neerkomt op het verspreiden van misinformatie of broodje aap verhaal)

C. Een andere AI die het artikel in B inleest, wat erbij hallucineert en vervolgens weer zonder bronvermelding gebruikt in nog een artikel

En ga zo het hele alfabet door. Uiteindelijk heb je dus een hoop zogenaamde artikelen waar allerlei citaten in voorkomen van persoon X die helemaal niet kloppen.

Daarom ben ik van mening dat als je teksten overneemt je altijd een bron moet vermelden. Gebruik je je eigen woorden en doe je als journalist je werk niet door informatie te controleren op juistheid, dan heb je misschien het verkeerde beroep gekozen ;).
Als je een LLM vraagt heb je geen enkele zekerheid: de reputatie is namelijk niet vast te stellen.
Je hebt geen zekerheid van de orginele bron (met bijbehoorende reputatie), je weet niet hoe de beslissing om het antwoord te tonen tot stand is gekomen (is bij chat-llms atlijd volledig black-box) en het antwoord is dus _altijd_ onbetrowbaar.
Bij wikipedia kun je vertouwen op reputatie, net als dat ik van tweakers.net goed kan inschatten hoe betrouwbaar het is.
Dit is niet hetzelfde als "alles vertouwen" maar het punt de schaal (per onderwerp, auteur,bron, etc) bepalen is mogelijk.

Dat kan met chat-llm's niet: dat is bijna hetzelfde als een willekeruig nummer bellen, een vraag stellen en altijd een antwoord krijgen zonder dat je weet wie er aan de lijn was..

Dat is niet bepaald "geverifieerd"
Om simpelweg een term op te vragen kan het werken. Maar zelfs dan zou ik ook om andere mogelijke betekenissen vragen want anders kan je alsnog nat gaan. Als je iets te diep ingaat op "encryptie" krijg je complete lulkoek uit je LLM. En dat zeg ik als top-gebruiker en mod van een cryptografie Q/A site.
AI heeft in journalistiek werk geen plek (behalve in artikelen over AI dan, en dan dient dat aangegeven te worden).
Onzin. Je zou eens verschieten in hoeveel krantenartikels er menselijke fouten staan. En dat mag dan wel ? Nee, absoluut niet. Het is zelfs dankzij AI dat die feitelijke fouten wel opgespoord worden. IK reageer regelmatig op redeneerfouten bij journalisten. Gewoon omdat het feitelijk niet klopt omdat ze iets niet weten. Misinformatie dus.

Het probleem is dat elke journalist zijn modus operandi nog moet zoeken. Er bestaat geen standaard. Je moet achteraf altijd een controle doen. Die kan ook door AI gebeuren. Je kan een promt klaarzetten of je kan een agent flow opzetten om citaten en feitenkennis te checken met de realiteit.
Ik denk dat het belangrijkste aspect in deze het quoten is van anderen in je artikel met zinsnedes die zij niet hebben geuit. Dat er fouten in een artikel staan is nog tot daar aan toe, maar een quote opnemen als feit terwijl de ander dat niet heeft geuit kan zeer kwalijk zijn. Dat is hier het grootste probleem. En eigenlijk staat dat nog los van AI, want ook zonder AI is het heel belangrijk om een quote feitelijk juist op te nemen. Je geeft hiermee immers aan wat iemand letterlijk heeft gezegd of geschreven.
Dat er fouten in een artikel staan is nog tot daar aan toe,
AUB. Lees eerst wat er gaande is.Een foute quote is even erg dan misinformatie. En
dan heb je nog de AI-fout aan zich. Die gaat over citeren ipv parafraseren.

Dat is natuurlijk geen sematische discussie maar het maakt het er wel iets minder erg op. Het is een zware fout en hij had zijn eigen AI-tools moeten inschakelen om de fouten te mitigeren.

Dat is het probleem van vandaag. Mensen lezen niet meer. Inhoudelijk lezen en begrijpen. Dat is van alle tijden maar nu is het blijkbaar normaal om te reageren zonder te lezen. Of je nu een artikel schrijft of reageert. Dat is echt het grootste probleem.

We moeten allemaal AI nog leren kennen en gebruiken en we moeten allemaal leren reageren. Dat is nu eenmaal zo. Elke dag leren uit je fouten en ze mitigeren. AI gaat blijkbaar alles in eigen woorden schrijven om het dan als quotes te gaan gebruiken. Zolang een taalmodel daar gevoelig voor is moeten wij mensen dat blijven controleren.
"AI heeft geen plek"
FTFY
Los van de ironie en dat het de journalistiek schade berokkend en natuurlijk niet kan, vind ik het wel verfrissend dat hij openlijk schuld bekend. Dat iemand met zo'n trackrecord struikelt over zo iets simpels.. Dit voorbeeld zal nog jaren gebruikt worden om journalisten te waarschuwen.
"iemand met zo'n trackrecord"... Heb hem een paar keer bij DWDD gezien en kreeg een veel bla-bla weinig wol gevoel, toen al. De man was overgewaardeerd, en, naar nu blijkt, niet geheel onterecht.
Eens...
Maar het probleem zit volgens mij iets dieper:
Of je nu een Peter Vandermeersch hebt, of een Wierd Duk... Het zijn journalisten die vooral opinie-makers of activisten zijn en vergeten dat journalistiek iets anders is dan opinie-maker....

Er zit een glijdende schaal in:

journalist (zo objectief mogelijk)
--> 'duider' (minder objtectief maar probeert wel redelijk objectieve beschouwingen te geven)
--> opniemaker (subjectief, de gemiddelde meningenfabriek)
--> activist (extreem subjectief, het gaat niet om de waarheid, het gaat om verandering en de waarheid mag wijken om je punt duidelijk te maken)

En er zijn helaas steeds meer journalisten die objectiviteit niet meer als het hoogste goed zien. Zij zeggen open en bloot: journalisten zijn activisten... en behoren activsiten te zijn!
Voor mij - als oudere jongeren - is dat een gruwel... Journalisten moeten bovenal objectief zijn... Of in ieder geval, zo objectief mogelijk...

Hier een interessant artikel waarin dit gezegd wordt (ik zal geen citaten geven : ) link naar de correspondent
AuteurTijsZonderH Nieuwscoördinator @pietvelleman20 maart 2026 10:29
Wierd Duk is geen journalist. De Telegraaf noemt hem zelf ook opiniemaker.
Wierd Duk was journalist en is nu opiniemaker.
Bij Wierd Duk is het iig nu duidelijk dat objectiviteit niet zijn doel is.
Hij is onderdeel van de meningenfabriek...

Hoe zit het met Peter Vermeesch?
Soms journalist? Hoofdredacteur? TV persoonlijkheid? Opiniemaker?
Alles loopt m.i. door elkaar... En dat zorgt voor problemen....
In Vlaanderen wordt hij pejoratief "de marketeer" genoemd, na een bepaalde bekroning in 2007 maar vooral: na verschillende krantentitels onherkenbaar te veranderen.
AuteurTijsZonderH Nieuwscoördinator @007Nightfire20 maart 2026 08:50
Dat vind ik ook wel meevallen. Hij had dit blijkbaar zelf al eerder ontdekt en het aangepast in zijn artikelen, maar daar niets over geschreven zoals een update oid. Transparantie is minstens zo belangrijk voor journalisten, maar ook dáár faalde hij dus. Hij bekent het nu pas omdat hij door NRC geconfronteerd werd.
Lijkt nu net of NRC de schuldige is, maar die heeft het juist aangekaart.
Als je het artikel goed leest, is dat duidelijk niet zo, maar inderdaad het kan bij snel lezen zo overkomen en ik heb ten minste één verwarde reactie hierboven gezien. Misschien niet het handigste artikel voor ze :(
“ taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."

HAHAHAHAHAHAHAH
Dat klinkt even goed als een citaat dat door AI gegenereerd werd.
Dat is het misschien ook :)
Ja, dat is uit de blogpost "ik trek het boetekleed aan". Ongelooflijk dat je het aandurft om een "citaat" van een AI sowieso accepteert of laat staan. Ik ben zelf in de cryptografie en ik maak mee dat een AI "citeert" uit een cryptografische standaard omdat het zo nodig mijn vraag wil beantwoorden. Volledig verzonnen natuurlijk.

Sorry, maar als journalist is dit de doodzonde, en dat je er mee door gaat is al helemaal belachelijk. Je hebt of niet een van de citaten gecontroleerd, of je hebt dat wel gedaan en je bent er mee doorgegaan. Stop dan maar als journalist, je bent dan het beroep niet waardig.

[Reactie gewijzigd door uiltje op 21 maart 2026 22:41]

"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Ik denk niet dat het hallucineren van sensationele citaten een goede maatstaaf is voor de kwaliteit van een taalmodel, maar dat kan aan mij liggen. Met een klein beetje moeite kan ChatGPT jou ook overtuigen dat een broodje poep een fantastische culinaire delicatesse is. Dat neem je toch ook niet zomaar aan? Juist bij ''onweerstaanbare citaten'' zou je extra alert moeten zijn, al helemaal als beroepsjournalist en oud-hoofdredacteur.
De journalist is door uitgever Mediahuis nu tijdelijk op non-actief gezet.
Wat mij betreft wordt hij permanent op non-actief gezet. Dit kan echt niet.

[Reactie gewijzigd door IlIlIllII op 20 maart 2026 08:26]

In geen enkel geval zou een journalist citaten moeten overnemen van een 3e partij zonder deze te valideren. Dat is een essentie van je beroep.
Ik begrijp je punt, maar een journalist kan best n 3e partij quoten, zolang maar duidelijk is wie wat gezegd heeft. Zodra een journalist zelf iets als waar wilt melden zal dat dienen te gebeuren met onderbouwingen en feiten. Zodra een journalist citaten van iemand anders quote en duidelijk is dat het uitspraken van iemand anders zijn dan dient in het artikel dát ook duidelijk te zijn. Bijvoorbeeld: Journalist maakt artikel over wat Trump zegt en quote hem in het artikel. De validiteit van de uitspraak is dan aan de policus. Uiteraard kan de journalist die uitspraken natuurlijk wel toetsen aan de waarheid en verder onderzoek doen, maar dan nog zal de journalist de quotes/citaten van de politicus niet inhoudelijk moeten wijzigen.

Het is niet de taak van de journalist om uitspraken van iemand anders te corrigeren en dan te plaatsen in het artikel. Een journalist kan best iemand quoten als maar duidelijk is dat die citaten van de geïnterviewde zijn.

Áls een journalist zelf iets als waarheid wil verkondigen dan zal een goede journalist aan brononderzoek doen en de feiten controleren.

[Reactie gewijzigd door Ruben26 op 20 maart 2026 09:02]

Volgens chatGPT "is de aarde niet rond maar meer een kubus".

Zo, dan heb ik in ieder geval een bron bij mn quote :+ of is dat niet helemaal wat je bedoelde?
Als betreffende journalist dat bij al die citaten erbij had gezet, was het denk ik een minder groot probleem geweest. Hij citeert dan duidelijk ChatGPT in dat geval en niet de persoon. Technisch klopt het dan en is voor de lezer duidelijk dat het niet de woorden zijn van de persoon.

Zoiets als:
Wetenschapper X: "is de aarde niet rond maar meer een kubus" (fout)
Of
Uit monde van een familielid van wetenschapper X: "is de aarde niet rond maar meer een kubus" (technisch juist)
Of,
Volgens ChatGPT heeft wetenschapper X ooit gezegd: "is de aarde niet rond maar meer een kubus" (ook technisch juist)

In alle gevallen zou hij dan voor de volledigheid dit moeten checken bij wetenschapper X of erbij zetten dat hij dit niet heeft kunnen verifiëren en de reden erbij, bijv.: "Wetenschapper X wilde niet reageren op onze vragen" of "Wetenschapper X was niet bereikbaar voor vragen".

Just my 2 cents.

(Ik realiseer me achteraf dat ik eigenlijk Ruben26 herhaal in andere woorden).

[Reactie gewijzigd door Zwatelaar op 20 maart 2026 09:59]

In geen enkel geval zou een journalist citaten moeten overnemen van een 3e partij zonder deze te valideren. Dat is een essentie van je beroep.
Nou, dat gaat bij Tweakers.net en bij andere media bij artikelen over dat BREIN (en/of vriendjes) een x aantal "sites" offline heeft gehaald, structureel mis.
'Hallucineren van sensationele citaten' is de core-business van de telegraaf, dus de appel valt hier niet ver van de boom.
[...]

Met een klein beetje moeite kan ChatGPT jou ook overtuigen dat een broodje poep een fantastische culinaire delicatesse is.
Da's niet heel veel moeite hoor: https://translate.kagi.com/?from=nl&to=linkedin&text=ik+heb+een+broodje+poep+gegeten
"Het is meer dan zuur dat ik de fout maakte die ik zelf uitentreuren beschrijf als ik collega's waarschuw voor de gevaren van AI: de taalmodellen zijn zo goed dat ze onweerstaanbare citaten produceren die je als auteur bij wijze van spreken niet kunt laten liggen."
Verander "AI: de taalmodellen" in verslavende middelen, en je hebt een uitspraak die regelmatig voorbij komt in verslavingsklinieken.
Verslavende middelen produceren geen onweerstaanbare citaten toch? 😉
Er zijn redelijk wat artiesten en schrijvers geweest die hun beste werken produceerden onder invloed van. En bijv erdős heeft heel wat wiskunde geproduceerd dankzij amfetamines.
Ondanks* amfetamines. Ik snap dat er heel veel mensen (waaronder studenten) zijn die denken dat ze je helpen met studeren, maar in werkelijkheid geven ze je vooral meer vertrouwen. Je produceert in weze sneller en met meer zelfvertrouwen dezelfde poep die je nuchter niet zou durven opschrijven.
Volledig off-topic, maar toch: M.i. ga je hier een beetje kort door de bocht. Als je een regulier amfetamine gebruiker bent (en dat was ie kennelijk) en je stopt abrupt, dan zijn de afkickverschijnselen nogal heftig kennelijk. In dat licht bezien is het geen wonder dat ie 'volledig stil gelegen heeft'.
Het is best mogelijk dat @Thekilldevilhil er geheel of gedeeltelijk naast zit, maar voor zover ik weet zijn minstens de eerste paar weken tot meerdere maanden wat minder fijn, dus dat een persoon enkele weken stil zou liggen is juist de verwachting.

https://ighd.nl/hoelang-d...verschijnselen-van-speed/
Dan nog blijft de vraag: waar hebben deze drugs invloed op gehad?

Hebben deze zijn ware intellect beïnvloed of hebben deze andere (psychologische) blokkades weggenomen (bijv faalangst) zodat hij het er uit kon krijgen en op papier kunnen zetten.

Of nog simpeler, een verslaafde kan niet aan zijn shot komen, kan alleen maar daaraan denken en vervolgens komt niets meer uit zijn handen. Hij kan niet rustig zitten en aan een stuk schrijven. Als hij dan wel zijn shot neemt en tot rust komt, is hij dan ineens intelligenter als daarvoor?
Dus iemand stopt abrubt met amfetamines en gaat de ontwenning in. Vervolgens is deze persoon minder productief. Jouw conclusie is dus dat amfetamines te productiever maken omdat de verslaafde die niet meer slikt dit zegt? Wat is dit voor een conclusie dan? Om maar een andere wiskundige te citeren, het bewijs "came to you in a dream" ;)

Amfetamines in niet-ADHDers doet waarschijnlijk helemaal niets, maar de meer weteschappelijke onderbouwing zou zijn. De resultaten zijn "gemixed" en afhankelijk van het cognitieve domein waar je naar kijkt is er een klein verschil of geen verschil:
https://pmc.ncbi.nlm.nih.gov/articles/PMC10078276/?utm_source=chatgpt.com

Bijr ADHDers is wel consistente maar ook maar een milde verbetering is cognitieve functie:
https://pubmed.ncbi.nlm.nih.gov/38718988/

Uiteindelijk gaat dit dus totaal niet het verschil maken tussen het wel en niet kunnen beoefenen van je vak.

De veel logischere verklaring is natuurlijk, Erdos was verslaafd aan AMP en ontwenning van die meddelen kan HEEL heftige zijn.
Heerlijk dit! Al dat prestigieuze gedoe en commentaar op LLM's, maar we wel stiekem gebruik van maken.
Gebruiken is prima. Publiceren om makkelijk geld te verdienen… Dan kun je beter een vak zoeken als politicus of influencer.
Het spijt me omdat ik hiermee gepakt werd.
Niet alleen dat. Hij verschuilt zich achter mens zijn alsof hij niets fout heeft gedaan tot hij door anderen betrapt werd. Om daarna de houding aan te nemen het eigen gedrag te bagatelliseren. Hij doet alsof hij goede bedoelingen had en heeft maar hij laat dat nergens blijken. Er blijkt niet dat hij slechts wilde experimenteren met ai. Er blijkt niet dat hij zijn foute gedrag recht wilde zetten. Er blijkt niet dat hij alleen maar goede bedoelingen had. Wat vooral blijkt is dat hij zijn eigen meningen wil publiceren zolang niemand hem stopt. En dat lijkt gedreven door geld en aandacht.
“Ik had die citaten grondiger moeten checken. Ze vatten, denk ik, de betekenis juist samen, maar zijn niet letterlijk uitgesproken."


(Ik hoop dat Tweakers dit citaat ook goed heeft gecheckt.)

“Ze vatten de betekenis, denk ik, juist samen.” Wat een onprofessioneel gedoe. Je kunt de juistheid alleen beoordelen als je de bronnen onderzoekt. Minimaal: heeft die persoon dat echt zo beweerd.

Citaten checken is deel van je werk. Stel dat het gepubliceerd wordt in een onbetaalde blog, zeg dan toch nog duidelijk dat je AI gebruikt en hoe. Vandermeersch staat bekend als een professioneel journalist, dus dan moet je helemaal duidelijk zeggen hoe het zit. En het gaat niet over een incident, maar iets structureels. Reputatie onterecht gebruikt.


“Grondiger”, alsof hij wel redelijk grondig is geweest, maar niet grondig genoeg. Nee, hij is helemaal nul grondig geweest.

Om te kunnen reageren moet je ingelogd zijn