Nieuwsblog: hoe gebruikt onze redactie AI?

Het leverde nogal wat media-aandacht en ophef op: de oud-hoofdredacteur van NRC gebruikte verzonnen citaten die hem door een AI-chatbot werden aangereikt. Nogal een journalistieke canard, maar dat journalisten AI inzetten is dan weer niet heel gek. Het is een goed moment om eens te beschrijven hoe we bij Tweakers omgaan met AI.

Peter Vandermeersch heeft het verpest. De oud-hoofdredacteur gebruikte 53 keer een citaat in een artikel dat door een AI-chatbot bleek te zijn gehallucineerd. Niet fraai, zeker niet voor iemand met zo'n prestigieuze positie. Om te beginnen is het goed te weten wie Vandermeersch is en wat zijn rol bij de uitgever was, en hoe zich dat verhoudt tot DPG Media, waar Tweakers onder valt.

Vandermeersch was tussen 2010 en 2019 hoofdredacteur van NRC (toen nog formeel NRC Handelsblad), werd later ceo van Mediahuis Ierland, maar is nu een 'Fellow Journalism & Society' bij Mediahuis in de Benelux. Dat is een wat vage term die bij uitgevers niet heel gangbaar is; bij DPG bestaat zo'n titel bijvoorbeeld niet.

Onderzoeker

Als 'fellow' onderzoekt Vandermeersch nieuwe vormen van journalistiek, maar ook hoe journalistiek zich ontwikkelt binnen maatschappelijke stromingen en problemen. Denk daarbij aan wantrouwen richting de pers, afhankelijkheid van techbedrijven, en uiteraard ook kunstmatige intelligentie. Daarover schrijft hij blogs en nieuwsbrieven. Je kunt zijn functie dus een beetje zien als een hoogleraar aan een universiteit, maar dan binnen een journalistieke uitgever.

Dat laatste raakt aan deze blog. Want ook journalisten, ook wij, experimenteren met AI. Net zoals ontwikkelaars dat nu doen, of artsen, of bouwvakkers, of salarisadministrateurs, of zorgwerknemers, of eigenlijk iedere werkzame persoon.

Kunstmatige intelligentie / AI. Bron: Tadamichi/iStock/Getty Images Plus
Kunstmatige intelligentie / AI. Bron: Tadamichi/iStock/Getty Images Plus

Cursussen en inspiratie

Ook binnen DPG wordt daarmee geëxperimenteerd. Normaal gesproken proberen we ver weg te blijven van wat er binnen onze uitgever gebeurt, want in de praktijk heeft die weinig invloed op ons redactionele werk. Maar nu is het wel enigszins relevant, want we leren wel van elkaar, ook van concullega's elders in het bedrijf.

Een 'fellow' zoals Peter Vandermeersch dat is, bestaat niet bij DPG. Maar er zijn wel degelijk overkoepelende afdelingen die bezig zijn met journalistieke vernieuwingen en dus ook AI. Zo is er de Campus, waar journalisten van DPG en dus ook Tweakers cursussen kunnen volgen. Soms gaan die over klassieke journalistieke onderwerpen zoals hoe je een goede titel maakt of een column schrijft, maar zeker in de afgelopen jaren zijn er steeds meer cursussen ontstaan rondom AI. Zo zijn er cursussen AI gebruiken in Photoshop, AI voor data-analyses, AI voor advertenties en ga zo maar door.

Die zijn soms voor ons relevant. De afbeeldingen boven onze nieuwsartikelen kunnen bijvoorbeeld met AI worden verbeterd. En als we artikelen schrijven op basis van Pricewatch-data, kan het nuttig zijn daar AI-analyses op los te laten.

Inspiratie, geen verplichting

Ook krijgen we regelmatig interne nieuwsbrieven waarin AI-experimenten van andere titels worden beschreven. Die kunnen voor ons dienen als inspiratie.

Dat betekent allemaal niet dat AI ons wordt opgelegd. Alle bovenstaande voorbeelden zijn optioneel, bedoeld om ons te inspireren of te helpen deze grote economische, maatschappelijke en sociale ontwikkeling te begrijpen en in te zetten in ons werk. Dat is niet gek. AI gaat namelijk onvermijdelijk invloed hebben op, heel plat, ons verdienmodel en daarmee ook ons (journalistieke) werk. Dat negeren zou dom zijn. Denk je maar eens in: waar onze Pricewatch nu een heel waardevolle bron van informatie is, is het voor potentiële kopers misschien wel heel handig om aan ChatGPT te vragen wat bijvoorbeeld de beste NAS is. Daar moeten we op de lange termijn op voorbereid zijn.

Artikelen laten schrijven? Nee, liever niet

Maar de grote vraag is natuurlijk: gebruiken we AI ook voor het schrijven van artikelen? Nee, in de basis niet – ondanks wat sommige lezers ons regelmatig verwijten.

Journalistiek en AI staan op gespannen voet met elkaar. Het werk van een journalist is namelijk dingen uitzoeken en zo correct mogelijk opschrijven. Dat is de hele raison d'être van de journalist, dat is waarom we het vak in zijn gegaan. Een AI doet precies het tegenovergestelde: het speculeert en voorspelt wat ongeveer het logische vervolg in een tekst is. Speculatie en aannames dus, de exacte tegenpolen van wat journalisten doen. Veel journalisten kijken daarom wat neerbuigend naar AI: waarom zou je een tool gebruiken die erom bekend staat het tegenovergestelde te doen van jouw werk?

Tweakers heeft in het redactiestatuut niets staan over AI-gebruik in redactionele tekstenVeel media hebben inmiddels clausules opgenomen over het gebruik van AI in hun redactionele stijlboeken of redactiestatuten. Wij hebben dat nog niet. Ons redactiestatuut bevat daar geen informatie over en we hebben onderling geen harde regels afgesproken voor AI-gebruik.

Het belangrijkste deel van ons werk waar we AI inzetten én waar dat ook aantoonbaar extreem nuttig is, is eindredactie. Al onze teksten gaan eerst door ChatDPG heen. Dat is geen typfout (kan ook niet, want ook deze tekst is gecontroleerd!): ChatDPG is een afgesloten omgeving die volledig op DPG-servers draait en waarbij input dus niet gebruikt wordt voor het trainen van andere AI-modellen. De tool is vernoemd naar ChatGPT, bij de release het enige taalmodel dat werd ondersteund, maar inmiddels gebruiken we ook andere llm's zoals Gemini.

De eindredacteuren schaven constant aan de prompt, die wordt gevoed met onze stijlgids en schrijfwijzers. Zo kan ChatDPG voorafgaand aan publicatie d/t-fouten uit artikelen vissen, maar ook de manier waarop termen als HTTP en Https schrijven (vier hoofdletters, maar één hoofdletter als de afkorting vijf letters is). Dit is ontzettend handig. Het aantal meldingen dat we krijgen in ons topic voor spel- en tikfoutjes is drastisch gekelderd sinds we dit inzetten. Dat betekent dat onze eindredacteuren zich vooral kunnen richten op het verfijnen van de eerdergenoemde stijlgids, het mooier maken van zinnen en het leesbaarder maken van teksten.

AI-ndredactie

ChatDPGTeksten genereren door AI doen we echter niet. En hoewel we daar nog niets hards over hebben afgesproken, verwacht ik ook niet dat dat snel gaat gebeuren. Het levert in de eerste plaats weinig tijdwinst op. Het klinkt gek, maar als geoefende schrijver is het daadwerkelijke schrijven van een tekst niet het deel van het proces waar je de meeste tijd aan kwijt bent. Dat zit meer in het uitzoeken van feiten, het ordenen van het verhaal en het minutieus nalezen (met ChatDPG). Bovendien moet je bij een AI-geschreven tekst ook dubbelchecken of die wel klopt, zodat je niet als Peter Vandermeersch eindigt. En juist dát kost dan weer meer tijd!

We gebruiken AI uiteraard wel voor onderzoek. Dat doen we op dezelfde manier als dat we Google gebruiken, of Wikipedia. Het is een bron van informatie die je vervolgens altijd moet verifiëren bij de originele bron. Een snelle vraag stellen aan ChatGPT of Claude is voor journalisten vaak hetzelfde als iets opzoeken op Google.

We zetten llm's verder ook wel eens in om specsheets of tabellen te maken. Dat kost vaak veel tijd (en is oersaai!), want je moet informatie van een pdf overtypen naar een tabel. Een screenshot uploaden en vragen daar een HTML-geformatteerde tabel van te maken, scheelt heel veel werk. We werken aan een prompt die ook Engelse termen zoals 'Battery' of 'Screen' automatisch vertaalt naar onze voorkeursvormen, Accu en Scherm, maar dat gaat nog veel mis en kost nog wat handwerk. Desondanks kan dit veel werk schelen. In de praktijk controleren we vaak wel of de tabel overeenkomt met de pdf, maar (en n is hier 1) dat gaat inmiddels heel vaak goed.

HTML table

AI-gegenereerde teksten zul je in redactionele artikelen voorlopig dus niet tegenkomen. AI-gecontroleerde teksten wel, waaronder deze. Uiteindelijk is het antwoord dus best saai: we experimenteren met AI, maar het is niet zo alsof het al ons werk nu langzaam overneemt.

Maar laat me dit artikel over 5 jaar nog eens teruglezen...

Door Tijs Hofmans

Nieuwscoördinator

28-03-2026 • 13:37

50

Reacties (50)

Sorteer op:

Weergave:

DPG maakt graag gebruik van AI maar waarom weigert content te delen met diezelfde bedrijven om het model beter te trainen? Dat klinkt meer als, wel willen gebruiken maar niet willen bijdragen.
Ik weet het van DPG niet specifiek, maar volgens mij willen mediabedrijven het toch alleen niet gratis delen? Net zoals ze niet gratis van de tool AI gebruik maken?

Ik heb in elk geval nog niet van mediabedrijven gehoord "wij willen überhaupt niet dat onze content gebruikt wordt".
In het begin, toen llm's opkwamen, was dit wel de eerste reflex. Maar inmiddels is dat wel anders. Kijk maar naar het voorbeeld rondom de Pricewatch wat ik hier noem. Mensen gaan toch wel in chatbots vragen naar producten, dan kun je maar beter zorgen dat de Pricewatch daar als bron in ons voorkomen in plaats van het angstvallig af te schermen.
Maar er zit toch nog wel groot verschil tussen kunnen voorkomen in de soort van agentic zoekmachine die AI diensten geworden zijn, en massaal artikelen scrapen om het model mee te trainen lijkt me?
Dat lijkt mij ook helemaal niet nodig? Daarnaast hebben de Frontier-labs al zo'n beetje het hele internet en alle boeken in hun training data zitten. Alle enig zins hoge kwaliteit data hebben ze inmiddels wel. Ze gaan nu over op synthetische data. Deze Tweakers artikelen gaan daar dus niet meer aan meehelpen.
Waarom zou dat een probleem zijn? Er zijn wel meer dingen in het leven die we graag gebruiken maar waar we niet aan mee willen werken. Ik ben blij dat iemand mijn vuil ophaalt maar daarom hoef ik zelf toch geen vuilnisman te worden?
AuteurTijsZonderH Nieuwscoördinator @gpon28 maart 2026 14:32
Het is deels zoals andere tweakers hier ook zeggen: trainen mag, maar niet voor niks.

Maar wat ook meespeelt is veiligheid en privacy. In zo'n llm gaan bv artikelen onder embargo, of waarin bronnen worden genoemd die je misschien niet meteen openbaar wil hebben. Dan is het ook fijn als je dat binnenshuis kunt houden
wel willen gebruiken maar niet willen bijdragen.
Ze hebben al ontzettend veel bijgedragen: al die AI-toko's hebben het hele Internet gescraped als trainingsdata (uiteraard zonder toestemming en zonder vergoeding). De omschrijving "wel gebruiken, niet bijdragen" zegt hoe AI-bedrijven met het werk van de hele mensheid omgaan. Dan moeten ze nu niet gaan huilen dat niemand zin heeft om (gratis!) nog meer trainingsdata aan te leveren.
Bestaat Tijs Hofmans nog wel? Is hij inmiddels niet stiekem vervangen door TAIs HofmAIns? Klinkt vrijwel hetzelfde, maar... 🤖

Grapje natuurlijk. Het is wel interessant om te lezen hoe de redactie AI in zegt te zetten: vooral als hulpmiddel. En daar is AI natuurlijk wel heel geschikt voor. Het is een middel, maar zeker geen doel op zich, zoals de techbro's ons voorspiegelen.
AuteurTijsZonderH Nieuwscoördinator @PCG202028 maart 2026 14:29
De echte Tijs Hofmans gaat echt niet in het weekend reageren hoor!
Voor de eindredactie ChatDPG gebruiken kan ik wel waarderen want het scheelt mij een hoop ergernis over type en style fouten. Foutjes waarvan je denkt had het even door een ander laten lezen voordat je op de publiceer knop drukte. En daar is een getrainde llm inderdaad goed in.
type en style fouten
type- en stijlfouten :-P
type- en stijlfouten :-P
Typ- en stijlfouten :-P

(mag ook)

[Reactie gewijzigd door PCG2020 op 28 maart 2026 15:39]

Tja, ik zou het wel op prijs stellen als er een vermelding staat - vooral bij beeld - als er een AI bewerking overheen is gegaan.

Ik kom (elders) steeds vaker speech-to-text tegen met boven het artikel een duidelijk gegeneerd beeld en een duidelijke AI "samenvatting" van het artikel en als je dan gaat lezen wordt ik een beetje droef. Daar ontbreekt controle.

Gelukkig zijn jullie dus nog niet zover - blijf vooral doen waar je goed in bent: Zelf een inhoudelijke weergave maken. Dat je AI als bron gebruikt, ach - dat is de tijd van vandaag. Zolang het inhoudelijk maar correct blijft!
Juist het gebruik van AI als bron is een probleem. Informatie die door AI wordt aangeleverd moeten altijd gecheckt worden, anders krijg je juist de problemen die die redacteur van NRC nu z’n reputatie hebben gekost.
Gepost om 13:37, zo weet je dat het van een echte Tweaker komt ;)
En dan ook nog het gebruik van een em dash, precies in de zin waarin het gebruik van ChatGPT voor het schrijven van teksten wordt ontkend. Zulke humor heeft een AI ook (nog) niet, dus de schrijver moet wel een menselijke Tweaker zijn! :D

[Reactie gewijzigd door LeLo op 28 maart 2026 14:58]

AuteurTijsZonderH Nieuwscoördinator @LeLo28 maart 2026 15:27
Ik haat dat llm's zoveel em-dashes gebruiken want ik gebruik die echt zó vaak maar ik censureer mezelf nu gewoon regelmatig om te voorkomen dat mensen denken dat ik een AI ben :(
Jep heb ik ook, ik censureert mezelf in dat gebruik omdat ik anders reacties krijg dat het door AI geschreven is. Of mensen vinden dat ik mijn schrijfstijl van AI overneem.
Eigenlijk best suf van die mensen, want ik maak genoeg spel- , stijl en grammatica fouten - en edits om die de corrigeren - waardoor ze al hadden kunnen zien dat hun beweringen onjuist waren. Leve dyslexie, it proofs I'm not a bot.
AuteurTijsZonderH Nieuwscoördinator @Jim8028 maart 2026 14:36
Werd door de AI aangeraden als optimale tijd natuurlijk!
Een ieder kan en mag claimen wat hij wil maar zolang het niet transparant is blijft het oncontroleerbaar waardoor een deel van de mensen twijfels zal blijven houden.

[Reactie gewijzigd door vdr01 op 28 maart 2026 13:49]

AuteurTijsZonderH Nieuwscoördinator @vdr0128 maart 2026 14:02
Wat. Wat is nou je punt? Dat je denkt dat ik dit allemaal schrijf maar achter de schermen lieg?
Dat het niet transparant en controleerbaar is. Maar goed, ik heb weinig zin in een eindeloze discussie en laat het hierbij.
AuteurTijsZonderH Nieuwscoördinator @vdr0128 maart 2026 14:04
Je voert geen discussie. Je zegt eigenlijk: "je kunt dit wel schrijven maar het kan ook zijn dat je liegt." Dat is een vrij bizarre beschuldiging.
Ik begrijp dat je geëmotioneerd raakt als iemand beweert dat je liegt - of dat lijk je te verstaan. Maar institutioneel wantrouwen - is zelden een persoonlijke aangelegenheid. Wel is het een symptoom van een breder probleem. Waarin de ethiek rondom AI des te belangrijker wordt. Maar uiteindelijk blijft het ook een kwestie of de ontvanger open staat voor het antwoord.
AuteurTijsZonderH Nieuwscoördinator @Ulysses28 maart 2026 15:05
Ik sta niet open voor iemand die zegt dat ik misschien lieg.
Nee, hoepel op. Als ik robots met elkaar wil zien discussiëren, ga ik wel naar moltbook. Je reacties door een LLM laten herschrijven zodat het lijkt alsof je iets zelf zo vindt, en sterker nog, dusdanig laten formuleren dat het zijn van een succesformule belangrijker is dan het verwoorden van jouw eigen mening of inbreng, is vertroebeling van de discussie en oninteressant.

Want WTF wil je in de reactie uit dat screenshot van je nou eigenlijk zeggen, als reactie op Tijs?
Ik sta hem bij dat enerzijds ik aangeef hoe makkelijk het zou kunnen zijn, anderzijds dat ik zijn relaas - dit topic gelezen heb - en dat allemaal onverminderd mijn eigen bijdragen en constructieve links, welke AI, in casu Gemini in deze, trouwens niet UBB in deze commentaar sectie plakt. U zei?

Voorts is het tenslotte nog altijd zo dat Tweakers LLM's nodig hebben om mij te volgen. Ik niet specifiek ze nodig heb om mij kenbaar te maken. Als ik een promotie-team had willen inhuren zou ik het elders gezocht hebben tenslotte. En advertentieruimte is goedkoper dan AI-modellen trainen, betalen, en inzetten voor eigen content die ik toch zelf wel beter produceer.

[Reactie gewijzigd door Ulysses op 28 maart 2026 15:59]

Natuurlijk is het wel transparant en controleerbaar. DPG heeft ook gewoon logs en mensen in dienst.

Maar eigenlijk kan ik ook niet controleren @vdr01 of jij niet gewoon een AI-bot bent. Waarom ben jij niet transparant en bewijs je gewoon wie je bent en heb je een duidelijk niet AI-gemaakt filmpje van elke post die je doet.

Je eigen argumenten gelden natuurlijk ook voor jou.

Uit alle interacties die ik met @TijsZonderH heb gehad, ook op de Tweakers Abo dagen en andere meet-up, is een deel heel duidelijk: Tijs is een open boek, is zeer integer en wil altijd dat dingetje boven tafel wat onduidelijk is, als iets niet zeker is, zoekt ie het uit of meld het gewoon. Hij windt nergens doekjes omheen, laat systemen gewoon zien zoals ze zijn, net als de andere redacteurs, zie o.a. ook de vlogs.

Het is zeer stoer en lovenswaardig hoe open en zorgvuldig @TijsZonderH dit artikel heeft opgesteld over zo'n gevoelig onderwerp.

@vdr01 Dan blijven stempelen zo als jij doet is echt zeer ongepast. Stel gewoon de vraag die je dwars zit, maar ga die niet maskeren met dat de ander niet open of transparant is, want dat is echt onzin. @TijsZonderH beantwoord vragen altijd open en transparant. Ook als ze over lastige onderwerpen gaan. Maar dan moet ze wél stellen.
Waarom reageer je dan überhaupt op het artikel? Als je een alleen maar een vage claim wil suggereren en geen constructieve discussie wil aangaan; reageer dan gewoon niet.

Wat mij betreft een prima inkijkje in hoe achter de schermen AI gebruikt wordt door de redactie. Leest vlot en heeft ook nog enige reflectie. Niet meer, niet minder. Niet elk artikel hoeft een diepgravend journalistiek meesterwerk te zijn.
Nou ja, in alle eerlijkheid, bij jou weet je het niet. Je had laatst ook een foto van jezelf met bikini aan en deed net alsof die foto niet echt was, maar door Grok gemaakt. En wij weten uiteraard wel beter.
Wat verwacht je dan precies nog meer? Wil je over de schouder van Tijs meekijken hoe hij artikels schrijft?
Omdat u er naar vraagt: "Transparantie in AI betekent dat de werking, trainingsdata en besluitvorming van AI-systemen begrijpelijk en controleerbaar zijn voor mensen. Vanaf augustus 2026 verplicht de EU AI Act dat AI-gegenereerde content (zoals deepfakes en tekst) en interacties met chatbots duidelijk als zodanig worden gemarkeerd, wat vertrouwen vergroot en risico's beperkt."
Dit artikel voldoet volledig aan "jouw" (tussen aanhalingstekens, want je hebt het duidelijk niet zelf bedacht) definitie: die legt alleen eisen op aan AI content, dit is geen AI content, dus het voldoet automatisch.

Maar dat is alleen transparantie. Het andere punt is controleerbaarheid. Ook al is dat waar "wil je over zijn schouder meekijken" overduidelijk op doelt, toch doe je nog niet eens een poging om daar antwoord op te geven. Ook al is dat de veel belangrijkere (en vooral: veel moeilijkere) vraag. Dus kom op, wie A zegt moet ook B zeggen: doe eens een voorstel hoe jij controleerbaarheid voor je ziet?
Wel even een waarschuwing vooraf: om zeker te weten dat je met een realistisch en eerlijk voorstel komt, gaan we je regels eerst toepassen op jouw eigen reacties, om te bewijzen dat die niet door AI zijn gegenereerd. Zodra dat gelukt is gaan we pas aan Tweakers vragen of zij dezelfde controleerbaarheid willen geven.
Ik vind deze tekst verdacht veel lijken alsof die uit een LLM komt. Waarom je dat niet gemarkeerd? :+
Omdat het nog geen augustus 2026 is :+
raison d'être = bestaansrecht

(ter informatie voor lezers van het artikel)

[Reactie gewijzigd door djwice op 28 maart 2026 15:35]

Ben een oude BI er, ....

SInds kort een abbo'tje chatgpt en copilot., leuk een beetje met de canbus van mijn auto spelen en wat python leren....
Althans.... het komt met een idee.... of komt met iets waar je wellicht zelf niet aan gedacht had ...

Maar wat heb ik een ruzie met dat ding , ik stel vragen over sportvoeding en overlappende ingredienten , , een stukje contract lezen en wat jurisprudentie zoeken, een businesscase maken met fiscale voordelen ,
wat canbus code schrijven , een 3d printer doosje ontwerpen..... echt alles gaat fout , elke vraag !
GPT heeft sinds kort modellen in gebruik die veel kleiner zijn dan voorheen (48GB geheugen maximaal).

Het is daarbij extreem belangrijk om ondubbelzinnig, eenduidig, geen "of", geen negatie etc. te gebruiken en woorden met dubbele betekenis (= in een andere zin over een ander onderwerp kunnen ze iets anders betekenen) te vermijden.

Als een deel van je vraag of vragen in een andere context iets anders kan betekenen, hebben de nieuwe modellen van OpenAI er meer moeite mee om ze goed te beantwoorden.

Dit geldt ook voor woorden die in het Nederlands echt twee verschillende woorden met andere lading zijn, maar waar in het Engels de zelfs de term of het zelfde woord voor wordt gebruikt.

Ook is recent cache toegevoegd, als je een tijdje later verder gaat met een eerder draadje, kan het zijn dat je de cache van iemand anders krijgt. En dus resultaten die totaal niet passen bij jouw context.

Een voorbeeld, ik heb het over naamdagen ga even later verder en krijg statistieken over Zaltbommel terug als antwoord.

Gemini en Claude hebben dit soort problemen veel minder.

Voor statistiek en data analyse zijn er andere type modellen dan llm's die hele goede resultaten kunnen geven; die modellen proberen uit jouw data een wiskundige model te vormen dat de verwachte datapunten in nieuwe situaties probeert te voorspellen.

[Reactie gewijzigd door djwice op 28 maart 2026 15:48]

En nu gaan we over tot censuur ook. Front page admin vond blijkbaar m'n vorige bericht "onprettig".

Tuurlijk is het "onprettig", dergelijke "AI's" pakken menselijke jobs af. Soms het stuk gemist dat "AI's" geen AI's zijn maar LLMs? en dus wel degelijk context verschaft? Het fijt dat der al een +1 was is bewijs dat er wel degelijk gelijkgestemdheid was. Bovendien drijven prijzen de hoogte in(ssd/gpu/en nu cpu's), of hebben jullie dat ook gemist?

Het gebruik van AI in gelijk welke capaciteit als redacteur in gelijk wel nieuwsbericht zet de geloofwaardigheid van het volledige bericht en de redacteur op min oneidig.
Gebruik van AI valt snel op in redactie, vooral omdat t ellenlange stukken oplevert. Redacties besparen veel tijd. Punt is dat neiging om te blijven controleren ook langzaam vervaagt.

Om te kunnen reageren moet je ingelogd zijn