VRT: Belgische sites ELLE en Forbes tonen teksten door 'AI-nepjournalisten'

Op verschillende Belgische platforms van het bedrijf Ventures Media worden teksten getoond die door niet-bestaande personen 'geschreven' zijn. Het gaat om sites zoals ELLE, Marie Claire, Forbes en Psychologies. Inmiddels tonen de websites een AI-disclaimer bij deze artikelen.

This Person Does Not Exist
Bron: This Person Does Not Exist

Uit onderzoek van VRT NWS blijkt dat de vermelde Nederlandstalige platforms van Ventures Media teksten publiceren die worden toegeschreven aan 'nepjournalisten'. Hiermee verwijst het medium naar virtuele auteurs met profielpagina's waarop door AI gegenereerde profielfoto's en neppe beschrijvingen getoond worden.

Zo vond VRT de profielfoto van de ogenschijnlijke ELLE-journalist Sophie Vermeulen in de database van de website This Person Does Not Exist. Hetzelfde profiel werd eerder nog toegeschreven aan ene Justine Terme. Ook werden voor het magazine Psychologies door AI verwerkte artikelen getoond, terwijl eerder de indruk gewekt werd dat een psycholoog genaamd Femke uit eigen ervaringen schreef.

Uit onderzoek van VRT blijkt dat meer dan de helft van alle artikelen op ELLE in april en mei door niet-bestaande auteurs geschreven is. In juni waren bijna alle online artikelen van Psychologies van deze Femke. Het is niet duidelijk hoe de artikelen zelf tot stand zijn gekomen. Volgens het medium gaat het in sommige gevallen om vertaalde artikelen van bijvoorbeeld de Franstalige uitgave van hetzelfde medium. Andere artikelen lijken van derden overgenomen te zijn.

Volgens een reactie van Ventures Media ging het om een beperkte test waarbij inderdaad artikelen door AI gegenereerd werden, gepresenteerd door een alias. Het bedrijf erkent dat het gebruik van aliassen tot verwarring kon leiden en is daar sindsdien mee gestopt.

Na vragen van het Belgische medium werden alle auteurspagina's van niet-bestaande schrijvers aangepast. De artikelen worden nu toegeschreven aan bijvoorbeeld ELLE België, Marieclaire België en Forbes België. Daarnaast werd er een disclaimer onder deze artikelen getoond: "Deze inhoud werd gegenereerd met behulp van AI en vervolgens nagelezen en aangepast door de redactie." Overigens lijkt deze disclaimer op het moment van schrijven nog eens ingekort te zijn. Er staat nu alleen nog: "Deze inhoud werd gegenereerd met behulp van AI", zonder claims dat de artikelen nog door de redactie nagelezen worden.

Door Yannick Spinner

Redacteur

28-06-2025 • 11:54

107

Submitter: Aegir81

Reacties (107)

Sorteer op:

Weergave:

Ik vind dit een zorgwekkende trend. Dat journalisten een LLM gebruiken om hun eigen werk na te kijken qua taal, toon etc. vind ik nog wel kunnen (al hoort het wel vermeld te worden), maar dat artikels geschreven worden zonder menselijke controle en met duidelijk de bedoeling om het te laten lijken dat 'echte' journalisten dit deden, is pure misleiding. De boekjes komen er hier niet meer in.

Je ziet ze ook stap per stap terugkrabbelen: ze genereren content en vermelden geen disclaimer; ze vermelden dat het gegenereerd, maar nagelezen is, ze vermelden dat het gegenereerd is zonder nazicht. Voor mij is de conclusie eenvoudig: ze worden betrapt en ze krabbelen dan terug omdat ze zelf ook wel door hebben dat ze de deontologie schenden en gezichtsverlies lijden.

Het artikel op VRT NWS verraste me niet, maar baart me echt zorgen. Ik vind het steeds moeilijker om het internet te gebruiken en door het A.I.-bos de bomen nog te zien. Bij een standaard zoekopdracht zijn de eerste 'resultaten' AI-gegenereerd, geschreven met enkel de optimalisatie voor zoekmachines in het achterhoofd of beiden. Het is uiteraard een goede attitude om de betrouwbaarheid te controleren (bron, schrijver, website, datum, ... ), maar wanneer ook 'klassieke' media hun eigen geloofwaardigheid (nog meer) te grabbel gooien, dan ondermijn je niet enkel de geloofwaardigheid van je eigen website, maar ook die van het hele beroep / de media.

Wat mij betreft hoop ik dat Tweakers ver weg blijft van deze trend en misschien een beetje tegenwind kan bieden door bij de artikels te vermelden dat ze NIET door A.I. gegeneerd zijn ;-)

Een iets ernstiger vraag misschien aan de redactie (@YannickSpinner): nemen jullie ook de toename van AI-bots waar op de website? En hoe boos (of niet?) worden jullie van het idee dat jullie werk schaamteloos gebruikt kan worden om talloze websites te vullen met valse recensies die dan mogelijk hoger in de zoekresultaten eindigen? Misschien iets om in de podcast bij stil te staan?

[Reactie gewijzigd door Aegir81 op 28 juni 2025 13:02]

Ik heb geen inzicht in de hoeveelheid bots, maar mijn gevoel zegt dat het bij ons meevalt. Dat is omdat we een hele luxe positie hebben; zowel lieve moderators als lezers beoordelen ieder bericht/comment op Tweakers. Dus ik vermoed dat we een zelfregelend systeem hebben. Ik wil daarmee niet het werk van onze ontwikkelaars minimaliseren, zij hebben ongetwijfeld ook een enorme bijdrage aan het weren van bots ;)
En mijn persoonlijke take op je tweede vraag: ja natuurlijk vind ik het gevoelsmatig vervelend als mijn werk gestolen wordt. Dat komt helaas wel eens voor. De vraag is echter of het daadwerkelijk iets uitmaakt. We hebben een team van juristen dat ernstige vergrijpen kan bestrijden en tegen een gare copypasteblog kun je vrij weinig. Gelukkig ziet ook vrijwel niemand die toko's!
@YannickSpinner

Hoe kijk jij hier tegenaan met betrekking tot de journalistieke Code van Bordeaux? Is dit niet een schending van de journalistieke principes?
TijsZonderH Nieuwscoördinator @THETCR28 juni 2025 22:36
Is wat precies een schending daarvan? AI gebruiken?
Geen plagiaat, het werk is niet orgineel dus dat gaat tegen de gedragscode in.
AI is per definitie geen journalistiek dus dat heeft niets te maken met de gedragscode
Aangezien men het hier heeft gepubliceerd als zijnde waar en door een echte journalist geschreven, en zoals je schrijft is AI per definitie geen journalistiek.

Het volk dient volledig en juist geïnformeerd te worden en zeker niet een valse voorstelling van de werkelijkheid gepresenteerd te worden.

Door men te laten geloven dat hier een echte journalist achter schuilde wek je een vals gevoel van vertrouwen op bij de lezer. Dat is op zijn minst misleidend.
het is niet omdat je een blog hebt, dat je een journalist bent en eraan moet voldoen. Omgedraaid is hetzelfde ook waar.
Bedankt voor de reactie en het kijkje achter de (persoonlijke) schermen!
Weekmail gebruikt al een paar maanden AI om interviews af te nemen en samen te voegen tot artikel, waarbij de geïnterviewde in moet stemmen met de uiteindelijke tekst voordat dit wordt geplaatst.
Ik vind dit een zorgwekkende trend. Dat journalisten een LLM gebruiken om hun eigen werk na te kijken qua taal, toon etc. vind ik nog wel kunnen (al hoort het wel vermeld te worden), maar dat artikels geschreven worden zonder menselijke controle en met duidelijk de bedoeling om het te laten lijken dat 'echte' journalisten dit deden, is pure misleiding. De boekjes komen er hier niet meer in.
Laat ik in dat geval vermelden dat we inmiddels redelijk vaak een interne versie van chatgpt gebruiken voor eindredactiewerk. Dat doen we voordat we ons werk naar de daadwerkelijke eindredacteuren die (beweren ze zelf) van vlees en bloed zijn, maar ook in de avonden en weekenden als zij er niet zijn. Arnoud heeft onlangs hier beschreven hoe we dat doen, maar tl;dr is dat dit een hulpmiddel is om bijvoorbeeld taalfouten op te sporen en om bepaalde termen consistent juist te schrijven. Altijd met een mens in het midden - de AI geeft een verbetersuggestie, wij moeten die zelf doorvoeren of negeren.
Dus echt taal dingen, perfect voor een taal-model. Een soort opgevoerde spellingcontrole eigenlijk. Ik vind het in elk geval fijn om te horen dat er niks van gegenereerde teksten gebruikt wordt. En dat er ten alle tijden een mens verantwoordelijkheid neemt over alle woorden die geschreven zijn.
Als je je realiseert hoe een taalmodel werkt (sterk vereenvoudigd: op basis van statistiek het volgende woord kunnen voorspellen) is ook meteen duidelijk wat het grote manco is: het model maakt het niet uit wat "waarheid" is. Het kan dus een prachtige taalkundig juiste redenatie ophangen die van geen kant klopt.

En dan zou een virtuele psychologe, met de kracht van het merk "Elle" achter zich, onder het mom van journalistiek aan een kwetsbare doelgroep adviezen moeten geven? Het gaat niet om samenvattingen van het sportweekend of de laatste tour van Justin Bieber...

Serieuze journalisten kunnen hun bronnen wegen. Serieuze journalisten kunnen je helpen hoofd- en bijzaken te onderscheiden. En serieuze journalisten kunnen het zich niet permitteren fouten te maken, kloppende feiten is hun "core business" en vertrouwen ben je gemakkelijker kwijt dan dat je het krijgt. Het is niet voor niets meteen nieuwswaardig als dat heel af en toe wel gebeurt. En dan moet er gerectificeerd worden.

Dus nee, ik maak me geen zorgen. En je kunt AI prima gebruiken om iets samen te vatten of mooi te formuleren. Maar ik vind het niet kunnen dat je als uitgeverij nep-journalisten hele artikelen laat schrijven zonder grondige controle door mensen die er voor geleerd hebben. En dan nog moet je oppassen, het is een uit de tijd van de kennissystemen bekend psychologisch fenomeen dat als de computer iets zegt moeilijk om daar tegenin te gaan, ook door "experts" in het onderwerp.
Over dat virtuele psychologie gedoe, Stanford heeft net een nieuwe Studie gepubliceerd. Wat iemand die op een gezonde wijze de technologie begrijpt eigenlijk al lang door had. Maar wat vele niet onder ogen willen zien: Chatbots die alles en aanmoedigen om {{user}} tevreden te houden met als gevolg Gedwongen opnames en gevangenis straffen, voor {{user}} omdat die op den duur feit en fictie niet meer kunnen uit elkaar houden.

Hier moet ik wel zeggen dat hoe je de chatbot configureert met het system prompt meestal wel de bepaalende factor is voor de output:

Bijvoorbeeld: "Je bent nu in Role play Chat mode als {{char}}, de "inteligente" virtuele assistant van {{user}}. Als {{char}} help je {{user}} bij het uitvoeren van taken, en je probeert dit zo goed mogelijk te doen. Ga een oneindige conversatie aan met {{user}} en probeer zo veel mogelijk te weten te komen zodat je {{user}} optimaal kan bijstaan"

Bij bedrijven als openai en dergelijke zit er een financieel belang aan het "tevreden houden" van hun gebruikers. Maar de realiteit is, je kan een model werkelijk alles laten genereren. Daar dit vooral door het system prompt en de begroeting bepaald wordt, hoe dichter bij context 0 des te bepalender dit zal zijn voor de output, de rest is slechts "context".

Door zich afhankelijk te maken van een "16 lijnen lange for loop" die "In memory geladen data triggert om vervolgens een output te genereren" en het blindelings als waarheid aannemen omdat je er van uit gaat dat omdat het AI is wel intelligent moet zijn. dat is het probleem.

Ik zou zelfs zo ver willen gaan om op te roepen de term ai niet meer te gebruiken, omdat dit eigenlijk impliceert dat het iets "Intelligent" is maar in feite is het niet leer dan een for loop van 16 lijnen die in geheugen geladen data triggert. Maar data != intelligentie.

Door het de naam "AI" te geven ben je de gebruikers al aan het gaslighten en dehumanizeren op industriele schaal.
Neem als voorbeeld tweakers, de helft van de artikelen hier zijn 3 of 4 paragrafen, soms met een lading bias en soms met verkeerde interpretaties, die artikelen kun je prima door AI laten vervangen. Je loopt behoorlijk achter als je denkt dat AI alleen maar best-next-wordpredictor is, alles draait om context en dat kunnen ze 'tegenwoordig' heel goed omdat ze alles afstruinen.

Het is (misschien helaas) een kwestie van tijd dat het hier ook gaat gebeuren, want het gaat ook bij DPG om de pegels.
Dat is ook deels zo omdat Tweakers 9 van de 10 keer een veredelde vertaling van tech blogs of tech sites post. Tweakers is heel vaak gewoon een nieuws-aggregator in het voor veel mensen comfortabele Nederlands.
Dit zou dan toch nog voor een taalmodel perfect te verwerken moeten zijn?!
Ik loop helemaal niet achter, heb een achtergrond in theoretische informatica, een groot bijvak in linguïstiek gedaan en ooit zelf aan Markov-ketens geprogrammeerd. Ik zeg ook dat het een sterke vereenvoudiging is, maar in de basis klopt het nog steeds. Wat wij kunstmatige "intelligentie" noemen is nog steeds een Large Language Model. En ondanks alle marketingkracht die probeert je het tegenovergestelde te laten geloven is zo'n model domweg niet in staat om "waarheid" te zien. Taal kent teveel nuances, ingewikkelde dingen als sarcasme en ironie.

Misschien ter illustratie een stukje uit een redactioneel NRC-artikel van vandaag (bron: NRC redactioneel artikel AI-bedrijven hebben ongevraagd taalmodellen getraind met nieuwsartikelen – waarbij in bijna 20 procent van de AI-samenvattingen feitelijke onjuistheden ontstonden, zo bleek uit BBC-onderzoek.

Let wel: 20%!
Het idee dat je het als mens het allemaal wel beter kan is gewoon raar. Dat argument dat je gebruikt is gewoon oud.

De meeste mensen die kritisch zijn, zijn anti-AI en kijken enkel naar de errors. Ze kijken niet maar het potentieel. Het is alsof een ‘buitenlander’ nooit goed kan doen.

Als je je zou verdiepen zal je zien dat er geen weg terug is. De pure artisanale journalistiek kan natuurlijk nog maar je kan er geen complex platform mee omhoog houden en competitief blijven want je moet teveel ballen omhoog houden om het allemaal handmatig te doen.

AI kan journalistiek een boost geven. Het is nu al moeilijk om kwalitatief te zijn. Van mij mag Tweakers een model finetunen of AI-tool bouwen om te helpen op allerlei vlakken. Moderatie, nieuwsberichten, pricewatch etc. Zolang de kwaliteit maar stijgt.

[Reactie gewijzigd door Coolstart op 28 juni 2025 23:58]

Dat is helemaal niet oud, zie ook mijn opmerkingen hierboven. Ik snap dat hier tech-believers in de meerderheid zijn, en er is ook niks mis met het gebruik van modern gereedschap. Het risico, juist in de media, om het helemaal over te laten aan de computer is mijns inziens ontoelaatbaar groot. Een LLM is gemaakt om taal te kunnen produceren, en niet "waarheid". Computers zijn bovendien wel logisch, maar niet redelijk.

Mijn boodschap is niet dat je dit niet mag gebruiken. Wel dat je als je dit soort gereedschap wilt gebruiken, je juist extra alert moet zijn. En wat worden de meeste mensen er juist van? Gemakzuchtig. Het klinkt immers allemaal prachtig? AI kan betere zinnen bouwen dan de meeste Nederlanders. Maar als je beroep "feitelijke waarheid" is, dan moet je erg oppassen wat mij betreft.

Een vertaling? Prima, zolang deze wordt nagelezen - je lacht je soms slap om ondertitels bij de series op de streamingdiensten nu. Een samenvatting? Zolang een kleine 20% van de samenvattingen flagrante fouten bevat, ook nalezen. Helemaal laten schrijven door AI? Dan moet je niet meer pretenderen journalist te zijn.

En dan die AI psychologische adviezen laten geven? Laten ze de horoscoop laten schrijven door AI, en para-medische informatie door iemand die er voor heeft geleerd.
Begrijp de ergernis, maar je moet het wel binnen het juiste perspectief zien.

Ik citeer even:
Uit onderzoek van VRT blijkt dat meer dan de helft van alle artikelen op ELLE in april en mei door niet-bestaande auteurs geschreven is. In juni waren bijna alle online artikelen van Psychologies van deze Femke. Het is niet duidelijk hoe de artikelen zelf tot stand zijn gekomen. Volgens het medium gaat het in sommige gevallen om vertaalde artikelen van bijvoorbeeld de Franstalige uitgave van hetzelfde medium. Andere artikelen lijken van derden overgenomen te zijn.
Dit soort artikelen en columns (want dat zijn het, in essentie) zijn niet tot nauwelijks onderbouwde meningen van "journalisten" tegenwoordig. Daar zit geen enkele waarde achter vanuit mijn perspectief of het nu wel of niet door cq. met behulp van AI is geschreven.

Ik kan me nog enigszins voorstellen dat een column van een wat bekender persoon iets meer "waarde" heeft, omdat je je kunt associëren en vergelijken met de echte persoon. Maar aan "Femke, de psychologe" of een of andere "Sophie Vermeulen" die over niks schrijft.. Mja..
Inderdaad vraag ik me af of je zo'n blad als journalistiek kunt beschouwen of meer vermaak.
Waarmee we naar een maatschappij gaan waarbij we niet meer weten wat er wel of niet "betrouwbaar" en "echt" is qua informatie. Dit zal nog veel sneller dan voorheen toenemen. Niet bepaald een leuk vooruitzicht, aangezien het ook steeds lastiger zal worden dit te herkennen (tenzij het implodeert door machine learning die machine learning overneemt qua informatie waardoor het onzin wordt die makkelijk herkenbaar is, maar zelfs dan nog zullen legio mensen het voor waar aannemen).
In quasi iedere sector zie je dat het gebruik van AI toeneemt, dat is niet per sé een slecht ding als het tot de gewenste resultaten van de opdrachtgever leidt. Ik ben er 100% van overtuigd dat er zeker op een tech-site én redactie als die van tweakers al minstens mee geëxperimenteerd is en waarschijnlijk ook al resultaten van gebruikt zijn.

Puur persoonlijk heb ik er al dingen mee geproduceerd en leun er meer en meer op, omdat ik niet over de tijd en skillset beschik om tot hetzelfde resultaat te komen, wat niet wil zeggen dat ik wat er geproduceerd is niet begrijp of kan troubleshooten.
Hier ging het zelfs verder, één van de blogs was van 'een psychologe', dat is gewoon corrupt.

Sowieso lees ik veel dingen om een menselijke visie te krijgen die kan afwijken van wat ik zelf denk en die vernieuwing aan m'n eigen wereldbeeld geeft. AI's hebben de neiging alles te homogeniseren waardoor iedereen zijn ideen ook homogeen worden en innovatie en persoonlijke groei stagneert.
De boekjes komen er niet meer in? Klinkt interessant, maar had het echt wat uitgemaakt?

Dit soort tijdschriften zijn toch sowieso puur en alleen gemaakt voor entertainment. Who cares wie het schrijft, betrouwbaarheid mag echt geen factor zijn bij dit soort blaadjes. Alsof het kwalitatief hoge journalistiek is... Als het nou Reuters was had je wellicht een punt.
Dit wordt (deels) al heel lang gebruikt.door tal van media organisaties. Bij de buitenlandse media organisatie waar ik zelf voor werk hebben ze al jaren specifieke Ai tools om headers en shorties te maken voor soc media op basis van zelf geschreven art.

Als je in Nederland bijv. kijkt naar een nu.nl dan zie je dat ze sinds de popularisatie van ai dat nog nauwelijks spel, stijl en grammatica fouten maken terwijl het daarvoor ellende was.
Eens. Al is het vreemd dat wanneer een journalist vroeger een tekst schreef, deze liet controleren, soms redigeren door de hoofdredacteur, dat niet vermeld werd. Het artikel kwam gewoon op platform x of in krant Y met de naam van de auteur. Niet de redacteur of dergelijke. Nu men AI/LMM gebruikt voor stijl of grammatica/spelling moet het ineens wel.

Het gebruik van AI zorgt denk ik naast makkelijker werken voor nog meer problemen rondom fake news enzv. Dit bericht is het perfecte voorbeeld van waarom mensen zo weinig vertrouwen hebben in de informatievoorziening vandaag de dag. Of Tweakers hier van weg gaat blijven .. onderdeel van DPG en zodra die met dit soort ongein meer poen kunnen vangen, gaat dat gegarandeerd gebeuren. Al heb ik het vermoeden dat dit al op hele grote schaal aan de orde is. Dus beste belangrijker om zelf kritisch te blijven en altijd wat meer research te doen. Maar zorgelijk zeker.
Forbes staat trouwens al jaren bekend om hun gebruik van nepcontent die ook wel "comtent" (commerciële content) wordt genoemd en kleine partijen uit de markt drukt met bv. nepreviews:

https://housefresh.com/david-vs-digital-goliaths/
Ik merkte al een belabberde kwaliteit van forbes maar dat dat AI-slop is was mij nog niet eens opgevallen ondanks dat ik dacht dat ik dat best goed kan zien... Begint langzaam angstaanjagend te worden, maar vooral diep triest van Ventures Media
Ventures Media Vulture Media
Precies, ik betwijfel of de Forbes content nou echt slechter wordt met random AI zut, gezien het al vaak een diep triest niveau was. Waar "contributors" gewoon betaald werden om reclame te verspreiden.
Aangezien deze uitgever slechts specifieke edities uitgeeft maakt dqt duidelijk dat wat bij andere edities van het merk Forbes gebeurt niet zomaar relevant is.

Natuurlijk kan het komen door algemene contractuele verplichtingen, maar in principe zijn edities gemaakt door aparte redacties. Dus met eigen verantwoordelijkheid ik lees niet dat het merk in het algemeen dit verplicht. Wel dat sommige redacties ook kiezen voot ai. Maar het nieuws toont juist dat her niet zomaar van een merk afhangt.
Waar ik AI gegenereerde content vaak aan herken, is hoe laag de informatiedichtheid van die artikelen is. Het doel is dan om AI's vooral lange teksten te laten creëren zodat de lezer meerdere pagina's moet lezen en dus extra veel advertenties voor de kiezen krijgt. Zodra ik dat door heb, verlaat ik de site en kom daar niet meer terug. Dan kan ik beter in een AI-search engine zelf informatie opzoeken. Kost me minder tijd en dan heb ik niet het gevoel dat ik gefopt en bedrogen word.
Dit verbaast mij eigenlijk niets. Ik was eerst tegen AI, want dat vond ik lui en oppervlakkig. Maar sinds ik me realiseer dat het een uitstekend hulpmiddel is, zeker voor mensen zoals ik, ben ik helemaal om. Ik heb autisme en bijbehorende mentale klachten. Zo ben ik bijvoorbeeld niet erg goed in grammatica en spelling, dus ik plaats komma’s nogal willekeurig.

Maar waar AI ook echt goed in blijkt te zijn: je schrijft een onsamenhangend verhaal, niemand snapt er iets van, en je krijgt alleen maar downvotes op Reddit. Totdat je het door ChatGPT laat structureren. Dan blijft de inhoud hetzelfde, maar wordt het leesbaar, en ineens krijg je wél positieve reacties. Je moet alleen opletten dat je schrijfstijl behouden blijft.

Dat nieuwssites AI inzetten om volledige nieuwsberichten te schrijven, verbaast me dan ook niet echt. AI kan dat inmiddels beter dan de gemiddelde onervaren nieuwsschrijver.
Totdat je het door ChatGPT laat structureren. Dan blijft de inhoud hetzelfde, maar wordt het leesbaar
Recente taalmodellen lijken niet goed te zijn in het samenvatten van informatie, gebaseerd op dit onderzoek: https://openreview.net/pdf?id=6eMIzKFOpJ

Bovenaan pagina 5 staat een tabel waarin de resultaten staan van het laten samenvatten van medische informatie door ChatGPT-4o en LLama-3. De kolom "incorrect" spreekt voor zichzelf (fouten in de samenvatting). De kolom "Spec. ⇒ Gen." betekent "any content in the summary that are correct but too general compared to the clinical note, such as, medical conditions that are described as hypernyms" (hypernym betekent een woord uit een bovenliggende categorie; een onspecifiek woord gebruiken wanneer het specifieke woord wel in de bron stond en je dus informatie verliest)

GPT-4o en LLama-3 introduceerden (respectievelijk) 21 en 19 onjuistheden in de samenvattingen van 50 medische notities, naast nog eens 50 en 49 generalisaties, 44 en 26 onlogische onderbouwingen, en 2 en 1 chronologische inconsistentie(s)

Ik zou verwachten dat herschrijven vergelijkbare beperkingen kent, al zou idealiter natuurlijk iemand naar die specifieke taak ook nog weer onderzoek doen. Daarnaast zijn we zelf ook niet onfeilbaar: de fouten die een taalmodel introduceert komen bovenop je eigen foutmarge

Dat wil niet zeggen dat ik het zelf nooit zou gebruiken. Ik vind het alleen belangrijk dat mensen zich van de eigenschappen van dit nieuwe gereedschap bewust zijn :)

[Reactie gewijzigd door Lucb1e op 28 juni 2025 22:17]

Ik zou verwachten dat herschrijven vergelijkbare beperkingen kent
Ik niet, er is namelijk een gigantisch verschil tussen een medisch onderzoek en gewoon een tekst opnieuw te schrijven.

Je gaat ook je eigen tekst opnieuw nalezen voor fouten en structuur maar meestal is het gewoon perfect bruikbaar, je input is wel super belangrijk voor de output!
een gigantisch verschil tussen een medisch onderzoek en gewoon een tekst opnieuw te schrijven
Um, het gaat danook niet om een medisch onderzoek doen, het gaat om notities (die in dit onderzoek medisch van aard waren) samen te vatten. Om te schrijven in verkorte vorm dus. Omschrijven zonder inkorten gaat misschien beter, dat is hier niet onderzocht, maar ik zie het wel als vergelijkbare taken omdat het de uitvoer qua betekenis gelijk moet houden aan de invoer terwijl de verwoording verandert
Is dit überhaupt legaal? Gezien je de consument misleid. Misschien niet strafrechtelijk dus maar civiel. Je mag op een pakje boter ook niet kaas zetten, of een t-shirt verkopen als waterdicht wanneer het dat niet is
Dit krijg je wanneer wet en regelgeving jaren achterloopt. Met name dat wel de suggestie wordt gewekt door valse namen te gebruiken vind ik nogal kwalijk.

Vraag mij af of zoiets niet als valsheid in geschrifte oid gezien kan worden?

Of de inhoud oorspronkelijk ook al pulp was, is niet relevant.
Dit krijg je wanneer wet en regelgeving jaren achterloopt. Met name dat wel de suggestie wordt gewekt door valse namen te gebruiken vind ik nogal kwalijk.
Waarom? Dat is toch niets nieuws? Denk je dat Nescio echt met die naam geboren is? Multatuli? J Bernlef? Max Dendermonde? Gewoon wat random namen.

Wikipedia: Lijst van pseudoniemen
Een pseudoniem is totaal wat anders dan de indruk wekken dat iets door een daadwerkelijk persoon geschreven is.


In dat laatste geval is er namelijk ook niet spraken van een pseudoniem.

[Reactie gewijzigd door B_FORCE op 28 juni 2025 14:45]

Ip zich is het gebruik van alter ego’s, verzonnen getuigenissen en fictieve redactieleden niet nieuw. Of geloof je echt dat er elke week een jonge vrouw spontaan aan libelle getuigt dat ze stiekem verliefd is op haar schoonvader. Wie Hoogspel het eerste en enige nederlandstalige spellenblad uit begin jaren ‘90 nog kent. De helft van die redactie waren ook fictieve personen. (Joy en dr. Stikkie) Op zich is dat geen ramp maar als je het aan ai slop koppelt dan wordt het snel goedkope bagger. Ik begrijp dat papieren magazines met de huidige oplages niet veel middelen meer hebben en dat bepaalde bladen vroeger ook al niet bulkten van kwalitatieve inhoud maar dit zou wel eens de finale nagel in de doodskist kunnen zijn voor de geschreven media.
Helemaal mee eens, in deze tijd van misinformatie zouden ze wetgeving moeten maken dat alles dat AI is duidelijk (erg duidelijk) gemarkeerd moet worden als zijnde AI.
Net als er duidelijk zou moeten staan dat het entertainment is en geen nieuws en ook als iets reclame is zoals die nep-reviews.

Maak duidelijk wat je ziet zou veel problemen oplossen lijkt me zo, eerlijkheid gediend lijkt het me wel lastige wetgeving om te maken maar niet onmogelijk en zeker belangrijk.

Zoals altijd werkt alleen als niet aan de wetgeving houden ook snelle en echte consequenties heeft wat al helemaal moeilijk lijkt met die grote tech-bedrijven de laatste jaren.
Je mag kaas geen boter noemen omdat boter een beschermd product is. Maar je mag wel kaas van pinda's maken (pindakaas). Want kaas is geen beschermd product. En aangezien nogal wat artikelen en boeken onder schuilnamen uitgebracht worden vermoed ik dat het niet verboden is om over de schrijver van een artikel of boek te liegen.

[Reactie gewijzigd door downtime op 28 juni 2025 13:46]

Inderdaad, boter werd beschermd door de boterwet, omdat er flink mee gerotzooid werd. Peanut butter mocht hierdoor geen pindaboter genoemd worden en dus verzon men een productnaam gekoppeld aan een ander (ontbijt)product waar alle Nederlanders beken mee waren, namelijk kaas en daarom heet het hier pindakaas.
Dit vraagt iedereen zich inderdaad af!!
Tja en dan gaan AI crawlers deze artikelen rippen en voeren aan AI en zijn we maar een stappen verwijderd van een AI recycling systeem waarin AI's elkaar uithollen. Las ergens dat internet content al voor 30% AI gegenereerd is.

Dan snap ik wel dat de Meta's graag fora en WhatsApp content willen want dat is nog echt. (Zolang de bots weg kunnen worden gehouden. )
Het is best triest dat 'dead internet theory' in een paar jaar van plausibele maar lichtelijk vergezochte complottheorie naar realiteit is gegroeid. momenteel haal ik sneller meer informatie uit een goede lokale LLM prompt dan een search, dankzij perfect geoptimaliseerde bullshit marketing artikelen die altijd bovenaan de zoekresultaten komen.
Je zou denken dat er een kantelmoment komt dat mensen / consumenten beginnen af te haken. Wat dat betreft is het een soort eigen nestbevuiling. Ja het is lekker makkelijk en goedkoop voor nu maar het is de vraag of de consumenten zitten te wachten op zit soort informatie data. Inderdaad het gegeven dat ze zelf ook 'echte' content willen, geeft te denken. Waarom zouden consumenten dat niet willen?
Er zijn al genoeg Facebookpagina's met AI content waar vervolgens allemaal bots reageren.

Leuk voor Meta om de engagementcijfers op te krikken. Hoeven ze iig de algoritmes minder te instrueren om ragebait te pushen.
Is het überhaupt te achterhalen als iemand AI een tekst laat schrijven en dan zelf dan nog wat aanpassingen doet om het ' origineel ' te maken? Denk dat AI inmiddels overal volop wordt gebruikt, het scheelt je gewoon tijd en vaak kan het net zo goed een verhaal/artikel in elkaar zetten als een professionele nieuwsredacteur.
Veelal is LLM-tekst zielloos. Maar dat is niet iets dat altijd even goed opvalt. Bij korte nieuwsberichten of artikelen van een pagina, merk je het niet. Maar zeker als er artikelen in een 'ik-vorm' geschreven zijn (dus zoals veel columns), dan zie je dat LLM-teksten zielloos overkomen. Er kunnen leuke anekdotes zijn die afleiden, maar het geheel mist toch iets.

Probeer maar is met een LLM een rollenspel te doen. Dialogen worden heel snel repeterend. Veel dialogen hebben dezelfde tonen (alsof iedereen dezelfde woordkeuzes/zinopbouw heeft). (Je ziet dit ook bij slecht geschreven series/films en vooral boeken, waar personages regelmatig volledig uit karakter gaan, om bijvoorbeeld een emotioneel statement te moeten maken, of juist alle personages eenheidsworst zijn)

Dit gezegd hebbende, zijn er ook best een boel schrijvers in dit soort bladen die je beter door een LLM kunt laten vervangen, omdat die zowaar nog ziellozer schrijven dan een LLM. 😊
Veelal is LLM-tekst zielloos.
En wat concreter: inhoudsloos :)

Wat mij betreft is het niet erg om een taalmodel te gebruiken voor het verspreiden van informatie, maar het moet wel inhoudelijk iets bevatten waar je als lezer iets mee kan.

Met de bevindingen van een neppsycholoog kun je weinig en met de nepreview voor oordopjes kun je ook weinig. Een tekst die gebaseerd is op feitelijke informatie, liefst iets wat je zelf kan achterhalen of reproduceren, is daarentegen een ander verhaal.
In het geval van die psycholoog: Het gaat hier toch om zo'n 'Psychologie magazine'-blad? Dan is het überhaupt toch weinig, en effectief een verzameling columns? Maar dan met een psycho-sausje? Of eventueel wat vertaalde/herschreven artikeltjes van oude/internationale edities. (En her en der een nieuw artikel)
Een LLM is een ver doorontwikkelde woordvoorspeller, dus een echte originele tekst met persoonlijke stijl wordt het niet. Hoogstens van het niveau copy-paste, maar daar hoef je ook geen professionele nieuwsredacteur voor te zijn.
Alles leuk en wel maar sites als deze waren al slop voordat AI het overnam.
Klopt. Maar ze hebben ook betaalde abonnees. Wat zullen deze hiervan vinden?

Ik zou terstond mijn abonnement opzeggen.
Juist, het feit dat dit niet meteen opviel bij de lezers,
geeft aan dat AI prima de verwachte herhalende content 'slop' kan genereren,
waar lezers blijkbaar blij (genoeg) van worden.
Is dit zo nieuw dan? Ik zie bij de regionale content van DPG kranten al maanden artikelen voorbij komen zoals "X procent in gemeente Y heeft toegang tot een bibliotheek binnen Z afstand" alsof er gewoon ergens een of andere tabel cijfers in een programma is gegooid om voor elke gemeente een artikel te "schrijven". Overduidelijk machine geschreven zut maar blijkbaar vult het de site/krant. Of is het nieuw dat er nu een niet-bestaande naam aan toegevoegd is?
En ook de als artkels vermomde reclameboodschappen swingen de pan uit, vooral bij HLN.

Ik schrik me altijd rot als ik die site eens open zonder mijn pihole ertussen.
Zou bijna tijd worden voor een human - AI keurmerk.

Groen is 100% mens

Licht oranje mens, met wijziging /verbeteringen door AI

Oranje is door de mens gemaakt in combinatie met AI

Rood is AI al dan niet nagelezen en het en der aangepast door een mens.


Geen probleem dat AI gebruik als hulp middel voor schrijvers wordt maar als het wordt triest dat geïnsinueerd wordt dat het door mensen gemaakt is, terwijl het een AI artikel is waar een mens naar gekeken heeft voor het gepubliceerd wordt.

Op dit item kan niet meer gereageerd worden.