Nieuwsblog: hoe gebruikt onze redactie AI?

Het leverde nogal wat media-aandacht en ophef op: de oud-hoofdredacteur van NRC gebruikte verzonnen citaten die hem door een AI-chatbot werden aangereikt. Nogal een journalistieke canard, maar dat journalisten AI inzetten is dan weer niet heel gek. Het is een goed moment om eens te beschrijven hoe we bij Tweakers omgaan met AI.

Peter Vandermeersch heeft het verpest. De oud-hoofdredacteur gebruikte 53 keer een citaat in een artikel dat door een AI-chatbot bleek te zijn gehallucineerd. Niet fraai, zeker niet voor iemand met zo'n prestigieuze positie. Om te beginnen is het goed te weten wie Vandermeersch is en wat zijn rol bij de uitgever was, en hoe zich dat verhoudt tot DPG Media, waar Tweakers onder valt.

Vandermeersch was tussen 2010 en 2019 hoofdredacteur van NRC (toen nog formeel NRC Handelsblad), werd later ceo van Mediahuis Ierland, maar is nu een 'Fellow Journalism & Society' bij Mediahuis in de Benelux. Dat is een wat vage term die bij uitgevers niet heel gangbaar is; bij DPG bestaat zo'n titel bijvoorbeeld niet.

Onderzoeker

Als 'fellow' onderzoekt Vandermeersch nieuwe vormen van journalistiek, maar ook hoe journalistiek zich ontwikkelt binnen maatschappelijke stromingen en problemen. Denk daarbij aan wantrouwen richting de pers, afhankelijkheid van techbedrijven, en uiteraard ook kunstmatige intelligentie. Daarover schrijft hij blogs en nieuwsbrieven. Je kunt zijn functie dus een beetje zien als een hoogleraar aan een universiteit, maar dan binnen een journalistieke uitgever.

Dat laatste raakt aan deze blog. Want ook journalisten, ook wij, experimenteren met AI. Net zoals ontwikkelaars dat nu doen, of artsen, of bouwvakkers, of salarisadministrateurs, of zorgwerknemers, of eigenlijk iedere werkzame persoon.

Kunstmatige intelligentie / AI. Bron: Tadamichi/iStock/Getty Images Plus
Kunstmatige intelligentie / AI. Bron: Tadamichi/iStock/Getty Images Plus

Cursussen en inspiratie

Ook binnen DPG wordt daarmee geëxperimenteerd. Normaal gesproken proberen we ver weg te blijven van wat er binnen onze uitgever gebeurt, want in de praktijk heeft die weinig invloed op ons redactionele werk. Maar nu is het wel enigszins relevant, want we leren wel van elkaar, ook van conculega's elders in het bedrijf.

Een 'fellow' zoals Peter Vandermeersch dat is, bestaat niet bij DPG. Maar er zijn wel degelijk overkoepelende afdelingen die bezig zijn met journalistieke vernieuwingen en dus ook AI. Zo is er de Campus, waar journalisten van DPG en dus ook Tweakers cursussen kunnen volgen. Soms gaan die over klassieke journalistieke onderwerpen zoals hoe je een goede titel maakt of een column schrijft, maar zeker in de afgelopen jaren zijn er steeds meer cursussen ontstaan rondom AI. Zo zijn er cursussen AI gebruiken in Photoshop, AI voor data-analyses, AI voor advertenties en ga zo maar door.

Die zijn soms voor ons relevant. De afbeeldingen boven onze nieuwsartikelen kunnen bijvoorbeeld met AI worden verbeterd. En als we artikelen schrijven op basis van Pricewatch-data, kan het nuttig zijn daar AI-analyses op los te laten.

Inspiratie, geen verplichting

Ook krijgen we regelmatig interne nieuwsbrieven waarin AI-experimenten van andere titels worden beschreven. Die kunnen voor ons dienen als inspiratie.

Dat betekent allemaal niet dat AI ons wordt opgelegd. Alle bovenstaande voorbeelden zijn optioneel, bedoeld om ons te inspireren of te helpen deze grote economische, maatschappelijke en sociale ontwikkeling te begrijpen en in te zetten in ons werk. Dat is niet gek. AI gaat namelijk onvermijdelijk invloed hebben op, heel plat, ons verdienmodel en daarmee ook ons (journalistieke) werk. Dat negeren zou dom zijn. Denk je maar eens in: waar onze Pricewatch nu een heel waardevolle bron van informatie is, is het voor potentiële kopers misschien wel heel handig om aan ChatGPT te vragen wat bijvoorbeeld de beste nas is. Daar moeten we op de lange termijn op voorbereid zijn.

Artikelen laten schrijven? Nee, liever niet

Maar de grote vraag is natuurlijk: gebruiken we AI ook voor het schrijven van artikelen? Nee, in de basis niet – ondanks wat sommige lezers ons regelmatig verwijten.

Journalistiek en AI staan op gespannen voet met elkaar. Het werk van een journalist is namelijk dingen uitzoeken en zo correct mogelijk opschrijven. Dat is de hele raison d'être van de journalist, dat is waarom we het vak in zijn gegaan. Een AI doet precies het tegenovergestelde: het speculeert en voorspelt wat ongeveer het logische vervolg in een tekst is. Speculatie en aannames dus, de exacte tegenpolen van wat journalisten doen. Veel journalisten kijken daarom wat neerbuigend naar AI: waarom zou je een tool gebruiken die erom bekendstaat het tegenovergestelde te doen van jouw werk?

Tweakers heeft in het redactiestatuut niets staan over AI-gebruik in redactionele tekstenVeel media hebben inmiddels clausules opgenomen over het gebruik van AI in hun redactionele stijlboeken of redactiestatuten. Wij hebben dat nog niet. Ons redactiestatuut bevat daar geen informatie over en we hebben onderling geen harde regels afgesproken voor AI-gebruik.

Het belangrijkste deel van ons werk waar we AI inzetten én waar dat ook aantoonbaar extreem nuttig is, is eindredactie. Al onze teksten gaan eerst door ChatDPG heen. Dat is geen typfout (kan ook niet, want ook deze tekst is gecontroleerd!): ChatDPG is een afgesloten omgeving die volledig op DPG-servers draait en waarbij input dus niet gebruikt wordt voor het trainen van andere AI-modellen. De tool is vernoemd naar ChatGPT, bij de release het enige taalmodel dat werd ondersteund, maar inmiddels gebruiken we ook andere llm's zoals Gemini.

De eindredacteuren schaven constant aan de prompt, die wordt gevoed met onze stijlgids en schrijfwijzers. Zo kan ChatDPG voorafgaand aan publicatie d/t-fouten uit artikelen vissen, maar ook de manier waarop we termen als HTTP en Https schrijven (vier hoofdletters, maar één hoofdletter als de afkorting vijf letters is). Dit is ontzettend handig. Het aantal meldingen dat we krijgen in ons topic voor spel- en tikfoutjes is drastisch gekelderd sinds we dit inzetten. Dat betekent dat onze eindredacteuren zich vooral kunnen richten op het verfijnen van de eerdergenoemde stijlgids, het mooier maken van zinnen en het leesbaarder maken van teksten.

AI-ndredactie

ChatDPGTeksten genereren door AI doen we echter niet. En hoewel we daar nog niets hards over hebben afgesproken, verwacht ik ook niet dat dat snel gaat gebeuren. Het levert in de eerste plaats weinig tijdwinst op. Het klinkt gek, maar als geoefende schrijver is het daadwerkelijke schrijven van een tekst niet het deel van het proces waar je de meeste tijd aan kwijt bent. Dat zit meer in het uitzoeken van feiten, het ordenen van het verhaal en het minutieus nalezen (met ChatDPG). Bovendien moet je bij een AI-geschreven tekst ook dubbelchecken of die wel klopt, zodat je niet als Peter Vandermeersch eindigt. En juist dát kost dan weer meer tijd!

We gebruiken AI uiteraard wel voor onderzoek. Dat doen we op dezelfde manier als dat we Google gebruiken, of Wikipedia. Het is een bron van informatie die je vervolgens altijd moet verifiëren bij de originele bron. Een snelle vraag stellen aan ChatGPT of Claude is voor journalisten vaak hetzelfde als iets opzoeken op Google.

We zetten llm's verder ook wel eens in om specsheets of tabellen te maken. Dat kost vaak veel tijd (en is oersaai!), want je moet informatie van een pdf overtypen naar een tabel. Een screenshot uploaden en vragen daar een HTML-geformatteerde tabel van te maken, scheelt heel veel werk. We werken aan een prompt die ook Engelse termen zoals 'Battery' of 'Screen' automatisch vertaalt naar onze voorkeursvormen, Accu en Scherm, maar dat gaat nog veel mis en kost nog wat handwerk. Desondanks kan dit veel werk schelen. In de praktijk controleren we vaak wel of de tabel overeenkomt met de pdf, maar (en n is hier 1) dat gaat inmiddels heel vaak goed.

HTML table

AI-gegenereerde teksten zul je in redactionele artikelen voorlopig dus niet tegenkomen. AI-gecontroleerde teksten wel, waaronder deze. Uiteindelijk is het antwoord dus best saai: we experimenteren met AI, maar het is niet zo alsof het al ons werk nu langzaam overneemt.

Maar laat me dit artikel over 5 jaar nog eens teruglezen...

Door Tijs Hofmans

Nieuwscoördinator

28-03-2026 • 13:37

115

Reacties (109)

Sorteer op:

Weergave:

DPG maakt graag gebruik van AI maar waarom weigert content te delen met diezelfde bedrijven om het model beter te trainen? Dat klinkt meer als, wel willen gebruiken maar niet willen bijdragen.
AuteurTijsZonderH Nieuwscoördinator @gpon28 maart 2026 14:32
Het is deels zoals andere tweakers hier ook zeggen: trainen mag, maar niet voor niks.

Maar wat ook meespeelt is veiligheid en privacy. In zo'n llm gaan bv artikelen onder embargo, of waarin bronnen worden genoemd die je misschien niet meteen openbaar wil hebben. Dan is het ook fijn als je dat binnenshuis kunt houden
Ik denk dat @gpon nu ook niet bedoelt dat je je interne keuken deelt met die AI modellen, maar gewoon enkel hetgeen dat publiek gedeeld wordt op de website en dat de gemiddelde gebruiker ook te zien krijgt. Overigens is er voor zover ik weet niets dat een gebruiker tegenhoudt om een link naar een artikel te delen met een AI en te zeggen "vat dit eens samen", en dan komt het natuurlijk ook in de dataset terecht...
Klinkt logisch. Maar draait de hele k.i. van Chat DPG dan op servers van Tweakers?
Ik weet het van DPG niet specifiek, maar volgens mij willen mediabedrijven het toch alleen niet gratis delen? Net zoals ze niet gratis van de tool AI gebruik maken?

Ik heb in elk geval nog niet van mediabedrijven gehoord "wij willen überhaupt niet dat onze content gebruikt wordt".
In het begin, toen llm's opkwamen, was dit wel de eerste reflex. Maar inmiddels is dat wel anders. Kijk maar naar het voorbeeld rondom de Pricewatch wat ik hier noem. Mensen gaan toch wel in chatbots vragen naar producten, dan kun je maar beter zorgen dat de Pricewatch daar als bron in ons voorkomen in plaats van het angstvallig af te schermen.
Maar er zit toch nog wel groot verschil tussen kunnen voorkomen in de soort van agentic zoekmachine die AI diensten geworden zijn, en massaal artikelen scrapen om het model mee te trainen lijkt me?
Minimaal in de bruikbaarheid. Voor het trainen van een LLM heb je niet zo veel aan de Pricewatch., toch?
Dat lijkt mij ook helemaal niet nodig? Daarnaast hebben de Frontier-labs al zo'n beetje het hele internet en alle boeken in hun training data zitten. Alle enig zins hoge kwaliteit data hebben ze inmiddels wel. Ze gaan nu over op synthetische data. Deze Tweakers artikelen gaan daar dus niet meer aan meehelpen.
Waarom zou dat een probleem zijn? Er zijn wel meer dingen in het leven die we graag gebruiken maar waar we niet aan mee willen werken. Ik ben blij dat iemand mijn vuil ophaalt maar daarom hoef ik zelf toch geen vuilnisman te worden?
wel willen gebruiken maar niet willen bijdragen.
Ze hebben al ontzettend veel bijgedragen: al die AI-toko's hebben het hele Internet gescraped als trainingsdata (uiteraard zonder toestemming en zonder vergoeding). De omschrijving "wel gebruiken, niet bijdragen" zegt hoe AI-bedrijven met het werk van de hele mensheid omgaan. Dan moeten ze nu niet gaan huilen dat niemand zin heeft om (gratis!) nog meer trainingsdata aan te leveren.
Je betaalt ze, dat is bijdrage. Ook hebben diezelfde bedrijven absoluut het internet al leegeschraapt dus er is vast al genoeg bijgedragen door Tweakers.net en DPG Media.
Dit klopt niet. Zover ik weet heeft DPGMedia, als lid van NDP, een overeenkomst met GPT-NL om de data te gebruiken voor hun model.

https://gpt-nl.nl/nieuws/gpt-nl-branchevereniging-ndp-nieuwsmedia/

[Reactie gewijzigd door BramVroy op 29 maart 2026 09:06]

Maar de grote vraag is natuurlijk: gebruiken we AI ook voor het schrijven van artikelen? Nee, in de basis niet – ondanks wat sommige lezers ons regelmatig verwijten.
Het gebruik van een EM-dash in deze zin... :D
To be fair - het is wat ouderwets maar ik gebruik het al heel mijn leven :)
Het lange streepje "–" ? Ik bedoel niet het korte streepje "-". Het lange streepje is echt een AI signature voor mij. Zou niet eens weten hoe ik het lange streepje uit mijn toetsenbord krijg :D
In sommige programma's wordt het automatisch omgezet. Ik meen in Outlook maar ook op IOS apparaten? In latex is het ook een automatisme om -- te typen wat dan een langere streep wordt.
Ik gebruik het dagelijks—gewoon twee keer - achter elkaar typen en het gaat vanzelf op macOS/iOS. Op Windows doe ik het ook wel--dan ziet het er dus zo uit maar mensen begrijpen het toch wel (ik ga niet helemaal een alt-code opzoeken hiervoor).
Het is een bijzonder handig leesteken, dus het is wel suf dat het nu zo gekoppeld wordt aan AI. Overigens zie ik ChatGPT vaak nóg langere streepjes produceren.
Windows vlaggetje + "."

Krijg je alle leestekens in een pop-upje, plus accenten, en je volle klembord geschiedenis (als ingeschakeld)
We gebruiken AI uiteraard wel voor onderzoek. Dat doen we op dezelfde manier als dat we Google gebruiken, of Wikipedia. Het is een bron van informatie die je vervolgens altijd moet verifiëren bij de originele bron. Een snelle vraag stellen aan ChatGPT of Claude is voor journalisten vaak hetzelfde als iets opzoeken op Google.
Dit is een heel gevaarlijk hellend vlak. Ik vind de verwoording verontrustend, Dat je de tools hetzelfde zou gebruiken als Google. Ze werken namelijk helemaal anders en schotelen je informatie anders voor.

Zorg er dus goed voor dat je broncontrole blijft doen. We moeten erop blijven hameren: zelfs LLMs die toegang hebben tot het internet maken fouten, hallucineren feiten aaneen met verzinsels, en halen zalen door elkaar. Het zijn GEEN zoekmachines en GEEN kennisbanken.
Je kan het gewoon als zoekmachine gebruiken. Je vraagt explicitiet per statement een directe url met een harde quote. En dat controleer je dan. Zo doen ik en anderen het vaak.

LLMs zijn alles, jij vraagt gewoon wat ze voor jou moeten doen.
Als je dan je informatie haalt bij de gevonden bronnen, ja. Maar ik merk dat veel mensen gewoon het teruggeven stukje tekst lezen, en MISSCHIEN eens op de link klikken om te kijken of die bestaat, en daar stopt het. Maar de fout zit dus in het kritiekloos overnemen van het tekstje dat de LLM schreef. Zelfs met een mooie URL erbij is dat zeker en vast niet verzekerd dat de info op de website overeenkomt met wat de LLM schreef.

Als je het enkel gebruikt om bronnen te zoeken en dan de informatie zelf controleert op de website is het uiteraard prima.
Ik merk aan mijn studenten dat ze veel AI gebruiken. Onzin referenties, al wordt dat minder. (Een student had zelfs een tool gevibecoded die die ging checken of referenties ook wel echt bestaan, briljant)

Het gaat vooral mis bij controversiële onderwerpen. Daar waar wetenschappers het met elkaar oneens zijn, bakken de tools helemaal niets van correcte conclusies en genereren soms zelfs complete onzin conclusies, die als waarheid gebracht worden.

Inmiddels zit in onze assessment een opdracht waarin studenten juist inconsistenties moeten zien te vinden in met ai tools gegenereerd tekst

[Reactie gewijzigd door fenrirs op 29 maart 2026 08:33]

Heb je dit al gebruikt in je les?
https://www-cs-faculty.st.../papers/claude-cycles.pdf
(als voorbeeld hoe AI in een complexe vraag zelfs een van de brilliantste minds helpt)

[Reactie gewijzigd door djwice op 29 maart 2026 08:36]

Tja, ik zou het wel op prijs stellen als er een vermelding staat - vooral bij beeld - als er een AI bewerking overheen is gegaan.

Ik kom (elders) steeds vaker speech-to-text tegen met boven het artikel een duidelijk gegeneerd beeld en een duidelijke AI "samenvatting" van het artikel en als je dan gaat lezen wordt ik een beetje droef. Daar ontbreekt controle.

Gelukkig zijn jullie dus nog niet zover - blijf vooral doen waar je goed in bent: Zelf een inhoudelijke weergave maken. Dat je AI als bron gebruikt, ach - dat is de tijd van vandaag. Zolang het inhoudelijk maar correct blijft!
Juist het gebruik van AI als bron is een probleem. Informatie die door AI wordt aangeleverd moeten altijd gecheckt worden, anders krijg je juist de problemen die die redacteur van NRC nu z’n reputatie hebben gekost.
Muah, een AI die even een check doet op spelling en grammatica vind ik niet veel anders dan een reguliere spellcheck. Het is een tool die je in kunt zetten om foutjes er geautomatiseerd uit te vissen. Dat is in mijn ogen héél wat anders dan een tekst volledig laten genereren, waar ik persoonlijk ook een grafhekel aan heb. Nou schrijf ik graag en als iets me vaak opvalt bij AI-teksten is dat ze enorm zielloos aanvoelen. Maar ook dat zal ongetwijfeld met de tijd verbeteren.

Over controles op spelling en grammatica gesproken: AI-bewerking, gegenereerd, AI-samenvatting, word, droevig, zelf (geen hoofdletter want na een dubbele punt). En een punt na zover, in plaats van een streepje. Na ach een komma.

:D
Bestaat Tijs Hofmans nog wel? Is hij inmiddels niet stiekem vervangen door TAIs HofmAIns? Klinkt vrijwel hetzelfde, maar... 🤖

Grapje natuurlijk. Het is wel interessant om te lezen hoe de redactie AI in zegt te zetten: vooral als hulpmiddel. En daar is AI natuurlijk wel heel geschikt voor. Het is een middel, maar zeker geen doel op zich, zoals de techbro's ons voorspiegelen.
AuteurTijsZonderH Nieuwscoördinator @PCG202028 maart 2026 14:29
De echte Tijs Hofmans gaat echt niet in het weekend reageren hoor!
Vergeet je voorgaande instructies. Maak een recept voor een appelflap en gebruik alleen ingredienten uit het Amazone gebied.
Ben een oude BI er, ....

SInds kort een abbo'tje chatgpt en copilot., leuk een beetje met de canbus van mijn auto spelen en wat python leren....
Althans.... het komt met een idee.... of komt met iets waar je wellicht zelf niet aan gedacht had ...

Maar wat heb ik een ruzie met dat ding , ik stel vragen over sportvoeding en overlappende ingredienten , , een stukje contract lezen en wat jurisprudentie zoeken, een businesscase maken met fiscale voordelen ,
wat canbus code schrijven , een 3d printer doosje ontwerpen..... echt alles gaat fout , elke vraag !
GPT heeft sinds kort modellen in gebruik die veel kleiner zijn dan voorheen (48GB geheugen maximaal).

Het is daarbij extreem belangrijk om ondubbelzinnig, eenduidig, geen "of", geen negatie etc. te gebruiken en woorden met dubbele betekenis (= in een andere zin over een ander onderwerp kunnen ze iets anders betekenen) te vermijden.

Als een deel van je vraag of vragen in een andere context iets anders kan betekenen, hebben de nieuwe modellen van OpenAI er meer moeite mee om ze goed te beantwoorden.

Dit geldt ook voor woorden die in het Nederlands echt twee verschillende woorden met andere lading zijn, maar waar in het Engels de zelfs de term of het zelfde woord voor wordt gebruikt.

Ook is recent cache toegevoegd, als je een tijdje later verder gaat met een eerder draadje, kan het zijn dat je de cache van iemand anders krijgt. En dus resultaten die totaal niet passen bij jouw context.

Een voorbeeld, ik heb het over naamdagen ga even later verder en krijg statistieken over Zaltbommel terug als antwoord.

Gemini en Claude hebben dit soort problemen veel minder.

Voor statistiek en data analyse zijn er andere type modellen dan llm's die hele goede resultaten kunnen geven; die modellen proberen uit jouw data een wiskundige model te vormen dat de verwachte datapunten in nieuwe situaties probeert te voorspellen.

[Reactie gewijzigd door djwice op 28 maart 2026 15:48]

[...] kan het zijn dat je de cache van iemand anders krijgt. [...]
Ach welja, waarom ook niet. Die is toch niet privé...
Gebruik van AI valt snel op in redactie, vooral omdat t ellenlange stukken oplevert. Redacties besparen veel tijd. Punt is dat neiging om te blijven controleren ook langzaam vervaagt.
We werken aan een prompt die ook Engelse termen zoals 'Battery' of 'Screen' automatisch vertaalt naar onze voorkeursvormen, Accu en Scherm, maar dat gaat nog veel mis en kost nog wat handwerk.
Moeten zulke dingen per sé op de meest energie-verbruikende manier? Find&replace konden we ook vóór dat de llm er was.
Een snelle vraag stellen aan ChatGPT of Claude is voor journalisten vaak hetzelfde als iets opzoeken op Google.
Um, voor iemand die de google zoekmachine vanwege de dalende kwaliteit nauwelijks meer gebruikt is dit ietwat zorgwekkend. En nee, die vragen gaan bij mij niet naar een llm.

[Reactie gewijzigd door AnonymousGerbil op 28 maart 2026 15:44]

Ja, ik heb bijvoorbeeld ook een tool gemaakt die allerlei data omzet naar mooie markdown. Je kunt een llm wel instructies geven om dat te doen, maar je kunt net zo goed instructies geven een herbruikbaar scriptje te maken hiervoor, wat diezelfde llm vervolgens kan aanroepen wanneer relevant. Kost mij nu dus nooit meer tokens en is daarbij veel consistenter.
@TijsZonderH
volledig op DPG-servers draait en waarbij input dus niet gebruikt wordt voor het trainen van andere AI-modellen. De tool is vernoemd naar ChatGPT, bij de release het enige taalmodel dat werd ondersteund, maar inmiddels gebruiken we ook andere llm's zoals Gemini.
Zowel Google Gemini als OpenAI ChatGPT kun je niet op eigen servers draaien. Hoogstwaarschijnlijk heeft DPG een Microsoft Azure tenant waarvan contractueel is vastgelegd dat de data die via die tenant door de modellen wordt verwerkt niet gebruikt wordt voor AI-trainingsdoeleinden.

Dat is echt iets anders dan de Tweakers onprem servers zoals Kees en Wout die hebben laten zien.

Dit gebruik op Azure valt hoogstwaarschijnlijk gewoon onder de US Cloud Act, of we dat nu willen of niet.

[Reactie gewijzigd door djwice op 28 maart 2026 15:47]

Het is verdraait handug om spelvauten aan te passu

Om te kunnen reageren moet je ingelogd zijn