Nederlandse toezichthouder: advocaten gebruiken AI soms op verkeerde manier

Nederlandse advocaten gebruikten afgelopen tijd AI soms op een verkeerde manier. Door advies van AI-chatbots gebruikten advocaten soms niet-relevante of zelfs niet-bestaande jurisprudentie in rechtszaken.

In twee gevallen moeten advocaten op cursus om verantwoord met AI te leren omgaan, meldt NOS op basis van informatie van de Nederlandse Orde van Advocaten. Wat er in andere gevallen gebeurt, is onduidelijk. Er lopen ook nog een aantal onderzoeken. Die onderzoeken volgen vaak op uitspraken van rechters, die opmerken dat advocaten zaken aanhalen die niet bestaan of niet relevant zijn voor de zaak.

Wat daarbij onder meer is gebeurd, is dat advocaten hebben overgenomen wat AI produceerde en dat in de rechtszaal hebben gebruikt zonder het zelf te controleren. Vervolgens moeten rechters die redeneringen volgen en de zaken natrekken.

Niet alleen advocaten gebruiken AI in de rechtszaal, dat deden ook eisers die geen advocaat wilden en zich lieten bijstaan door AI. Dat vond de rechter in die zaak niet acceptabel. "De kantonrechter rekent het [eisers] aan dat hij de door AI geproduceerde stukken niet goed naleest en de juridische relevantie en juistheid ervan niet laat controleren door bijvoorbeeld een raadsman. Aannemelijk is dat het [gedaagden] daardoor extra tijd en moeite heeft gekost om de stellingen van [eisers] te doorgronden en zich hiertegen te verweren. Het geheel overziend draagt ook het zonder meer gebruiken van ondermaatse, door AI geproduceerde processtukken bij aan misbruik van procesrecht."

Rechtszaak/Rechtspraak: Bron: Krisanapong Detraphiphat/Moment/Getty Images
Rechtszaak/Rechtspraak: Bron: Krisanapong Detraphiphat/Moment/Getty Images

Door Arnoud Wokke

Redacteur Tweakers

22-02-2026 • 10:10

156

Submitter: SalexSun

Reacties (156)

Sorteer op:

Weergave:

Van een juridisch vertaler, in vaste dienst bij een advocatenkantoor, heb ik mogen vernemen dat menig advocaat, die dacht e.e.a. wel even door AI/LLM te laten vertalen, met het schaamrood op de kaken de werkkamer van de vertaler heeft verlaten, nadat die werd geconfronteerd met de overmaat aan fouten in het erbarmelijke resultaat dat de machinevertaling leverde.

Het corrigeren van dergelijk machinaal broddelwerk kost meer tijd en energie dan het direct goed door een (beëdigd) vertaler laten doen.
Maar dat is blijkbaar een denkstap te ver voor menig overbetaalde bef- en stropdasdrager met een efficiency-tunnelvisie over processen waar ze de ballen van snappen.

[Reactie gewijzigd door trabant op 22 februari 2026 12:26]

Je moet ook niet zomaar een of andere LLM gebruiken. Met DeepL hoef je je al wat minder te schamen.
Ik meen dat die advocaten DeepL gebruikten...
De praktijk is dat een vertaler nog nauwkeuriger naar een tekst kijkt dan een advocaat. En nu al helemaal.
Kijk aan, dan mag die vertaler nog blij zijn. Verder ben ik het volledig met je eens dat een (beëdigt) vertaler natuurlijk beter en betrouwbaarder werk verricht. Inderdaad, nu al helemaal. Pakt het dus toch nog goed uit voor de vertaler(s) want de factuur heeft nu een extra AI-controle post.
Nee, integendeel. En dat is een probleem wat zich ook buiten de advocatuur manifesteert. Het corrigeren van een AI-vertaling kost nog steeds veel meer tijd dan het meteen door een geoefend mens laten doen. Maar die handelaren in bedrukt papier doen alsof het "even" een beetje bijschaven is, en daar is de betaling ook naar.
En helaas zijn niet alle vertalers in de positie dat ze het onderbetaald corrigeren van AI-bagger kunnen weigeren. Vertalen is een prachtig ambacht, maar helaas ook een van de slechtst betaalde academisch geschoolde beroepen.
Sorry, ik zie nog steeds niet hoe dit niet in het voordeel van de vertaler is die gewoon een hogere factuur stuurt doordat het meer tijd kost ai broddelwerk recht te breien. Waarom zouden ze dat onderbetaald doen? Ze zijn beëdigt en sommige documentatie moeten door hun handen heen, dan wordt de prijs toch op hedendaagse ontwikkelingen aangepast?
...de vertaler (...) die gewoon een hogere factuur stuurt ...
Droom verder. Dat doet die vertaler één keer en dan issie die klant kwijt. Zo vrij is die markt niet. De praktijk is dat een uitgever een vertaler benadert met een boek tegen een bepaalde woordprijs, en die ligt doorgaans ver onder het officiële literaire tarief. 't Is slikken of stikken.
klinkt als werk voor een vakbond. als je door ai meer tijd kwijt bent en deze 'ontwikkeling' niet mag/kan factureren en andere vertalers daarmee genoegen nemen in een race to the bottom zul je voor jezelf moeten opkomen.
Ai is zo goed geworden. Dat elk bedrijf zo snel mogelijk ervaring moet op doen, anders doe je straks niet meer mee. Fouten horen er bij, leer er van. Claude code is op dit moment al zo betrouwbaar. Maar ja code is makkelijk te testen, met rechtspraak lijkt mij dit lastiger.
Ai is zo goed geworden.
Toen ik recent op Google zocht naar een storing in het OV haalde Gemini even een artikel van 10+ jaar geleden op en schreef vervolgens een tekst alsof het live was. Ik kan dat niet echt "goed" noemen. Tuurlijk, er zijn zeker een aantal taken waar (gespecialiseerde) AI inmiddels goed in is. Maar de chatbots die de meeste mensen gebruiken zijn nog steeds niet heel goed.
Dat elk bedrijf zo snel mogelijk ervaring moet op doen, anders doe je straks niet meer mee.
Hier ben ik het niet mee eens. Heel veel bedrijven hebben helemaal niks aan AI. Wat moet een schilder bijvoorbeeld met AI?

Daarnaast, ik denk dat de meeste AI toepassingen over een paar jaar alweer verdwenen zijn, omdat het gewoon niet haalbaar is. Er is geen plek voor nieuwe datacenters, geen stroom, geen koeling, en niemand wil opdraaien voor de exorbitante kosten van AI. Ja, nu is het leuk omdat het gratis is. Maar wanneer je tientallen centen per prompt moet gaan betalen, of tientallen tot misschien wel honderden euro's per maand, dan wordt het toch een stuk minder interessant.
Wat moet een schilder bijvoorbeeld met AI?
Een foto maken van een muur en AI vragen "welke en hoeveel soorten van verf moet ik mixen om deze kleur te krijgen?"
"Een foto maken van een muur en AI vragen "welke en hoeveel soorten van verf moet ik mixen om deze kleur te krijgen?"

En dat is EXACT de reden dat alle menselijke (vak)kennis heel snel verloren gaat. De gemiddelde jong-volwassenen vragen alles aan AI waardoor ze zelf steeds minder weten hoe ze oplossingsgericht kunnen denken. Ze weten het simpelweg niet meer "omdat we AI hebben". Tot mijn stomme verbazing zie ik zelfs dat ze er graag voor betalen want ze kunnen niet meer zonder. Gewoon 20 euro per maand 👀.

Ziet niemand deze enorme AI ramp? Of ben ik de enige 8)7
Mja dit is een gevaar. Zeker een risico. Maar laten we nou ook vooral niet doen alsof we dergelijke dingen niet exact 10 jaar geleden niet ook hadden met de rekenmachine.


“Alsof je over tien jaar altijd zo’n ding op zak hebt?”


Ik had exact tien jaar later inderdaad zo’n apparaat altijd paraat en op zak. Heck, er hangt er eentje om m’n pols.


Nee het is bijzonder dat we nu weer zo’n transformatie hebben in zeer korte tijd. Die moeten we inderdaad wel goed begeleiden. Hoe gebruik je AI dan bijvoorbeeld wel?
Het grote verschil is dat een rekenmachine heel betrouwbaar is qua uitkomst. AI is dat juist niet. De gebruiker heeft echt kennis nodig om het antwoord/output van AI in de context te kunnen beoordelen.

Die modellen verkondigen op zeer zelfverzekerde toon soms de grootste onzin.

Zoals ook dit artikel heel goed onderstreept: er zijn gewoon gerechtelijke uitspraken verzonnen door AI en de luie juristen namen het klakkeloos over in hun relaas. Dat is eerlijk gezegd een grote schande en een gevaar voor de rechtspraak. Die juristen moeten wat mij betreft direct uit hun beroep worden gezet; het komt eigenlijk neer op fraude (ook al heeft de AI het verzonnen, die jurist zet er zijn naam onder).

Dit risico is echt van een totaal andere orde dan dat mensen niet meer kunnen hoofdrekenen als ze alles met een rekenmachine doen.
Grappig dat je een vergelijking maakt met een rekenmachine, maar wat mij betreft ook correct.
Ik heb je een plusje gegeven omdat ik je antwoord relevant en nog redelijk ontopic vind.

Antwoord op je vraag:
Ik heb eens iets meegemaakt in de houtbewerking. Ik moest van latjes resthout een kerstster gaan maken. Maar om die opdracht uit te kunnen voeren moest ik twee verschillende hoeken gaan bepalen. Dat helemaal zelf gaan uitrekenen en uittekenen vergde nogal wat van mijn voorstellingsvermogen. Gelukkig bleek er voor de iPhone een app te bestaan die de hoeken heel makkelijk kon bepalen. Hij is er helaas niet voor Android, waar ik inmiddels op ben overgestapt.

Het wordt nog makkelijker als ik ter plekke in de werkplaats via mijn smartphone aan een AI blijk te kunnen vragen op welke hoeken ik de zaagmachine in moet stellen. Zo bezien gaan we een gouden tijd tegemoet.
Om terug te komen op de vergelijking met de rekenmachine. Ik heb altijd geleerd dat je in staat moet zijn om in te schatten of de uitkomst klopt of niet. Geeft de rekenmachine het antwoord wat ik grofweg verwacht dat het zou geven? Zo kun je controleren of je zelf bij de invoer niet per ongeluk een fout hebt gemaakt doordat je bijvoorbeeld een haak verkeerd hebt gezet. Een rekenmachine maakt immers geen fouten, deze doet exact wat je invoert. Dat kan over ai nog niet worden gezegd.
Exact wat @FrankHe hier meldt, en ook gericht aan @supersnathan94

“Alsof je over tien jaar altijd zo’n ding op zak hebt?”

Daar wordt het argument compleet scheef getrokken. Wat als je inderdaad geen toegang hebt tot een rekenmachine, kan je dan helemaal niets meer rekenen? DAT is waar het omdraait. Niet omdat je een handig hulpmiddel gebruikt, maar dat je uiteindelijk zelf helemaal niks meer kan bij de eerste beste storing of andere uitzonderingen.

En dat is dus het grote gevaar met AI, nog wel meer dan een rekenmachine, aangezien je van een rekenmachine redelijk ervanuit gaan dat het ding correct antwoorden geeft (mits je hem goed gebruikt uiteraard), maar die zekerheid heb je absoluut niet met AI, je dient dus nog altijd ALLE uitvoer van zo'n ding te controleren. Met name wiskundige dingen zijn chatbots behoorlijk slecht in.

Gaat heus wel meer dan eens voorkomen dat je vol goedgelovigheid je zaagmachine staat in te stellen precies zoals de AI zegt, en dat er gewoon helemaal niks van klopt, een van die hoeken hoeft maar licht gehallucineerd te zijn, en daar ga je al. Gebruik dan op zijn minst een mathematische app die dit voor je doet, vertrouw aub niet op AI voor dit soort basale dingen. Het is niet alleen gigantisch veel verspilling (hoeveel water en stroom je zoekopdracht kosten wat ook door een lokale app op een accuutje had gekund), zo niet nodig en ook nog eens gevaarlijk.

Ik weet wel dat als ik er achter komt dat mijn klusjeman AI gebruikt om dit soort basale berekeningen te doen, ik heeel erg snel op zoek ga naar een andere klusjesman.
Daar wordt het argument compleet scheef getrokken. Wat als je inderdaad geen toegang hebt tot een rekenmachine, kan je dan helemaal niets meer rekenen? DAT is waar het omdraait.
Maar dat is echt niet het argument.


Het srgument js exact dat je op de middelbare school niet leert om te gaan met de techniek van de toekomst, omdat men veel te veel vasthoud aan het nu.
ipv de nieuwe generatie te leren om te gaan met AI en factchecking en brononderzoek verband men volledig het geheel.


Zelfde voor wikipedia tien jaar geleden. Dat is een prima start om je onderzoek mee te beginnen.


Ik ben dankzij de middelbare school echt niet beter geworden in het toepassen van de ABC formule, maar weet dankzij eigen inzicht hoe ik deze toepas in bepaalde situaties. Zelfde geldt voor natuurkundige formules. Echt niet omdat dit zo goed beschreven staat in een boek, nee juist door programmatuur op de rekenmachine die je er doorheen loodst en uitleg geeft.


Code die ik overigens zelf geschreven heb (andere skillset).
een van die hoeken hoeft maar licht gehallucineerd te zijn, en daar ga je al.
Want measure nonce, cut twice bestond nog niet voor AI?


Uiteindelijk kun je het natuurlijk prima controleren zelf, maar voor een klusjesman is AI wel een mogelijke uitkomst om een bepaald “saai” proces te automatiseren of te versnellen.


We zitten aan het begin van een nieuwe paradigm shift. We moeten echt nog gaan uitvinden hoe we de tools moeten gebruiken, betekent dit dat ik minder oplet bij AI? Nee integendeel, juist meer.


Ik ben wel zo gek om te investeren in mij. Eigen ontwikkeling op dit vlak (en ja dat kost een paar duizend), want dat er dingen gaan gebeuren staat buiten kijf. Dat henk en Ingrid dit ook gaan zien en voelen is ook een gegeven.
(mits je hem goed gebruikt uiteraard), maar die zekerheid heb je absoluut niet met AI
Nou dat is dus niet waar. Het ligt aan de toepassing of je dat kunt stellen of niet.


Als taalmodel ben ik 100% overtuigd dat het een correcte vertaling zal geven van een tekst. Laten we eerlijk zijn. Een taalmodel is voor taal hetzelfde als een rekenmachine voor wiskunde.


Het taalmodel is in principe ook deterministisch. Maar je kunt wel vrijheden meegeven om het minder deterministisch te maken. Ik denk dat we goed het onderscheid moeten maken tussen taal-statistiek en redenatie. Dat laatste zijn we nog naar op zoek, we zijn een heel eind, maar het gaat nog wel even duren. Ondertussen ga ik wel thuis een AI backend neerzetten wat dwars door al het cloudgeweld heen dendert en gewoon secure de boel on prem draait.
Daar hebben ze kleurwaaiers voor uitgevonden.. En daarmee weet je precies wat er gemengd moet worden. Een paar zoekopdrachten kosten meer.
En iets zegt mij dat die klassieke manier nog sneller is ook.
En betrouwbaarder. AI moet je controleren. Zeker niet vanuitgaan dat hij de goede pixels zag op die steen/muur/hout. Daar komen grote blunders uit.
En bij de moderne manier 'vraag je' ai niks maar heb je digitaal een miljoen+ kleur waaiers bij je en kan me de klant exact laten zien hoe hun muren er uit komen te zien bij de meubels en attributen in hun ruimtes. De truuk is om de klassieke manier te moderniseren. Daar KAN ML iets in betekenen (maar dat hoeft niet) in dit geval wel.

[Reactie gewijzigd door TWeaKLeGeND op 22 februari 2026 17:40]

digitaal een miljoen+ kleur waaiers bij je en kan me de klant exact laten zien hoe hun muren er uit komen te zien bij de meubels en attributen in hun ruimtes.
Dat "Exact" is wel wat overdreven: schermen zijn vaak niet kleurgekalibreerd, en het scheiden van lichtkleur en de kleur van de bestaande muren is ook voor AI een moeilijke tot onmogelijke taak. Daarnaast zijn de kleuren vaak ook nog eens vervormd door de camera en fotobewerking (white balancing bijvoorbeeld zal geel licht op een witte muur eerder als "wit" weergeven dan als geel).

Bijkomend kan je met een scherm niet dezelfde kleuren voorstellen als met verf: de kleurengamuts van verf en van schermen verschillen immers.

De enige manier om met zekerheid te zeggen of het de gewenste kleur is, is dus met een ouderwetse analoge kleurenwaaier. Zo kan je ook nagaan of die samengaat met je verlichting.

Het valt me heel sterk op dat mensen voor alles AI willen inzetten, puur omdat ze anders de "boot" denken te missen. Dat terwijl er voor hun taak vaak al lang betere en efficiëntere manieren zijn. Je gaat toch ook geen LLM gebruiken om 5*12+10 uit te rekenen?
Het begint al met het feit dat een foto RGB is en dus additieve kleuren gebruikt. Verf heeft substractieve kleuren en ja dat ga je dus nooit helemaal exact op een scherm kunnen weergeven. Ik vertrouw liever op een ervaren schilder die me eerlijk verteld dat de door mij bedachte kleur niet lekker uit de verf komt, 'pun intended', dat een ai die me zegt dat het er geweldig uit gaat zien.
Sorry, maar het zijn jouw argumenten die niet kloppen.
Jouw scherm hoeft niet gekalibreerd worden, dit is voor je ogen, jouw foto wordt naar AI verstuurd zonder invloed van jouw scherm
En welk denk je dat van tel is bij design van een ruimte? Jouw perceptie of die van de AI? De output telt, en daar zit je scherm tussen.
Fotobewerking kan je deactiveren
Dat kan je niet: élke foto die weergegeven wordt ondergaat bewerking. Dat begint met analoge filters (de lenzen, kunnen o.a. verkleuring en vignetting introduceren), maar eveneens de vereiste debayering, color lookup tables, quantisatie, gamma correctie. Zonder de softwarematige stappen krijg je iets dat er niet uit ziet. Echter zorgen deze stappen niet voor levensechte kleuren.
Om kleur beter te laten scheiden kan je foto in RAW of HDR maken
Hiermee kan je geen kleuren scheiden: een muur die rood lijkt kan komen doordat de muur rood is en met een witte lamp beschenen wordt, of doordat de muur wit is en met een rode lamp beschenen wordt. Dat levert ambiguiteiten op bij materiaalschattingen (al een paar decennia een probleem binnen inverse rendering) en los je niet op met RAW of HDR

Wit licht is ook nooit echt wit: vaak is dat wat blauwer of geler (kleurtemperatuur) en dat beïnvloedt de perceptie behoorlijk. De kleirtemperatuur is echter niet eenvoudig te achterhalen uit een afbeelding.
Om je camera te kalibreren hoef je paar standaard kleuren in bepaalde lichten een foto maken
Dan heb je een gespecialiseerd kalibratiepatroon nodig (kan je niet gewoon afdrukken, want dan zijn je kleuren niet correct) en heb je kennis van camerakalibratie om dat correct toe te passen. Je mag die stappen ook nog eens doen in de verschillende lichtomstandigheden.

Daarbij kan je met een camera nog steeds niet hetzelfde kleurbereik vastleggen als dat het menselijk oog kan waarnemen (ook niet met RAW of HDR). Als je verfkleur buiten dat bereik valt kan de camera die kleur niet correct vastleggen en krijg je een vervorming die je niet met kalibratie kan rechttrekken.
Wat je hier ziet is expertise vs techno-optimisme.
@jerisson heeft waarschijnlijk gelijk dat voor een daadwerkelijk goed resultaat AI je niet gaat kunnen helpen. Maar voor een snel en matig resultaat kan AI inderdaad gewoon een paar kleurcodes uit een foto halen. Dit kan je overigens ook doen door een standaard stukje software los te laten op een foto en de meest voorkomende kleuren eruit te laten pikken en die een beetje op een nette manier over de kleurencirkel te verdelen. Daar is dan weer niets geen LLM voor nodig.

Maar ja, software in de vorm van een chatbot is nu eenmaal hip op dit moment.
Inderdaad. Voor gewoon een ruw resultaat of een impressie is dit zeker goed genoeg. Waar ik vooral over viel is het punt "exact", terwijl dat net veel complexer is dan men laat uitschijnen.
De output is hier het resultaat na het mixen,
Ik denk dat je een andere use-case voor ogen hebt dan degene waarop ik reageerde: dat ging over een digitale kleurenwaaier waarmee je aan AI kan vragen de ruimte op een bepaalde manier in te kleuren. Dus niet het mixen van kleuren waarmee jij de thread eerst begon.

Kalibratiepatronen en witte bollen helpen om kleurcorrectie te doen, maar zijn verre van praktisch voor een schilder om te gebruiken. Overigens welk witpunt wil je gebruiken? D65? D50?
Hoeveel biljoen kleuren heeft een schilder nodig? Meer dan 4 biljoenen bij RAW?
Het aantal kleuren is niet van belang. Als de schilder maar 10 kleuren ter beschikking heeft, maar deze liggen buiten het kleurenbereik (ofja kleurengamma, color gamut) dat je systeem (camera en scherm) aankan dan ben je niks met je systeem. Kijk eens op deze pagina. Dat chromaticiteitsdiagram geeft alle kleuren die een mens kan zien. Een driehoek in dat chromaticiteitsdiagram stelt een kleurengamma voor van een opname of display device. Zoals je ziet vallen daar veel kleuren buiten: een toestel met dat gamma kan die kleuren erbuiten dus niet capteren of tonen. Dat zijn hardwarelimitaties die je niet met software kunt oplossen - ook niet met AI - als kleurechtheid belangrijk is.

Je kan hardware gebruiken met een groter bereik, maar zover mij bekend is er nog niks dat het hele chromaticiteitsdiagram bedekt.

Ja kan AI gaan gebruiken om een impressie te maken, maar niet voor exacte voorstellingen. Voor nauwkeurigheid zijn die dingen overigens ook nooit gemaakt, getuige de loss (foutmetriek) tijdens het trainen: trainen resulteert in een best fit maar geen exact fit.
Het valt me heel sterk op dat mensen voor alles AI willen inzetten, puur omdat ze anders de "boot" denken te missen. Dat terwijl er voor hun taak vaak al lang betere en efficiëntere manieren zijn. Je gaat toch ook geen LLM gebruiken om 5*12+10 uit te rekenen?
Ik denk dat je schrikt van hoeveel mensen daarvoor de rekenmachine gebruiken ;)
Maar een rekenmachine is daarvoor nog redelijk ok in mijn ogen (je gebruikt een tool dat ervoor bedoelt is).

Een LLM zou eerder het inzetten van een kettingzaag zijn voor een chirurgische ingreep: overkill, veel meer resources nodig en het resultaat is niet gegarandeerd correct (aangenomen dat de LLM zelf geen tool aanroept)
En dan maar hopen dat het hele keten correct op kleur is gekalibreerd want anders krijg een uiterst ontevreden klant :'(
Waarom je een +2 voor een "open deur" krijgt, begrijp ik niet helemaal. Datzelfde geldt toch ook als je de verf laat mengen bij de Gamma, Karwei, Praxis, door een gespecialiseerd bedrijf etc. etc.? Op gegeven moment moet je ervan uit kunnen gaan dat de mens of de AI het gewoon goed doet. Fouten kunnen altijd gemaakt worden. Zeker door de mens. En dan wordt het gecorrigeerd. Boeien!
Kleur calibratie begint al bij het nemen van de foto.
Als je, zeker met een telefoon, een foto van een kleur neemt, controleer eens op het scherm in hoeverre die kleur overeenkomt met wat je gefotografeerd hebt. En hoe weet je wat de bijdrage van de camera aan het verschil is, of juist wat de bijdrage van het scherm aan dat verschil. Of is er iets van een "verbetering" in de software die een en ander aanpast? Maak eens een foto van een stoel in een showroom om thuis te kijken of die bij je interieur kleurt, het is mij nog nooit gelukt. Noch ken ik iemand die het gelukt is.

Als je kleuren laat mengen bij Gamma, Karwei of waar dan ook dan doen ze dat op basis van kleurcodes of kleurwaaiers (en daarmee ook met kleurcodes). En dat is wat anders dan een foto.

Mijn opmerking mag dan een open deur zijn maar het verbaast mij altijd weer opnieuw dat mensen vreemd staan te kijken dat een foto op een scherm (of erger, op een printje) er zoveel anders uitzien dan in werkelijkheid. En als je het probeert uit te leggen met kleurruimtes e.d. krijg een uiterst glazig blik terug of een opmerking dat hun telefoon/camera dat automagisch oplost.
Kortom, misschien een open deur, maar dan wel een die verrassend vaak dicht is (en soms op slot).
Als je kleuren laat mengen bij Gamma, Karwei of waar dan ook dan doen ze dat op basis van kleurcodes of kleurwaaiers (en daarmee ook met kleurcodes). En dat is wat anders dan een foto.
En ook dan gaat het vaak zat mis, maar dusdanig dat het never nooit niet opvalt want puur het materiaal verschil is al voldoende om te zeggen , ja dat gaat niet exact hetzelfde zijn. Ik heb een aantal jaar exact dit gedaan bij de lokale bouwmarkt. Niemand geeft enige garantie.
En waarom zou je daar een AI voor nodig hebben? Even los van de inherente inaccuratie kan dat veel simpeler door gewoon de kleur van de pixel te matchen en te compenseren voor kleurtemperatuur.

Ja of gewoon offline met een kleur waaier.

[Reactie gewijzigd door Barsonax op 22 februari 2026 16:31]

Ik zou er mijn boekhouding ingooien en vragen waar er ruimte is om goedkoper te werken (zonder kwaliteitsverlies). Een marktstudie hoe ik in omgeving X nog meer zichtbaar wordt als schilder. Mijn werk filmen en AI laten analyseren hoe en wat er efficiënter kan. Een vergelijking maken met concurrenten uit de buurt......
Allemaal werk voor een accountant of marketing bureau of iets dergelijks, ZEKER geen dingen om naar een AI te gooien, en al helemaal zeker als je er zelf geen verstand van hebt en de AI niet kan controleren en het maar klakkeloos zal overnemen. Dit is precies waar dit artikel gaat "AI op de verkeerde manier gebruiken".
Wie heeft gezegd dat ik de output niet op een grondige manier zal evalueren? De vraag stellen aan AI is toch niet gelijk aan "AI op een verkeerde manier gebruiken"?

Ik speel er toch redelijk wat mee (vibecoding, planning en organisatie, resumés laten opstellen, vergelijking tussen wetten van toepassing in verschillende landen, patroonherkenning in boekhouding (forensic),.....

Daar komt echt heel veel onzin uit, maar soms heb je toch dat "AHA"-gevoel, wat je uiteraard verder uitwerkt en onderzoekt alvorens daar effectief iets mee te doen. Niets verkeerd mee volgens mij...

En wat dat vibecoding betreft laat ik nooit heelder programma's schrijven, maar ik zoek echt doelgerichte oplossingen voor een specifiek probleem/onderdeel. De code die gegenereerd wordt gebruik ik dan om mijn eigen programma te vervolledigen en dan nog NOOIT voor ik volledig begrijp hoe die code dan ook effectief in elkaar steekt.

In België is er enige tijd ophef ontstaan omdat de rector van de UGent wat onbestaande quotes had opgenomen in een toespraak (op basis van AI). Ik gebruik zelf ook wel eens graag een quote, maar iedere prompt in dit verband gaat vergezeld met de vraag naar de bron, die ik ook effectief ga nakijken. Welke oen gebruikt er nu klakkeloos output van een AI machine?

[Reactie gewijzigd door grrfield op 23 februari 2026 16:01]

Maar dat is niet wat je hier verkondigt, gooi je financieen erin om te kijken hoe je goedkoper kan. Als je dan toch alles moet controleren van de AI, en er toch zelf verstand van hebt, waarom gooi je het dan naar een AI? Dat kost je dan alleen maar meer tijd (en 9 van de 10x kost de onzin die hij produceert _nog_ meer tijd).

Brainstormen en ideen opdoen, sure, daar zijn ze goed in, dan heb je juist wat aan zn gehallucineer. Maar dit is dus totaal niet toepasbaar voor de gemiddelde consument (waar we het hier over hadden). Verwachten om je financieen in zon ding te gooien en dat daar ook maar iets bruikbaars uitkomt dat je niet volledig moet _laten_ controleren (want mensen die er zelf verstand van hebben, hebben dit juist niet nodig) is vreselijk advies om rond te gooien.
Omdat dat ding soms verbanden legt die ik op mij zelf nooit zou maken. In een aantal van de voorbeelden zitten er ook een aantal bij die een manueel nazicht zouden vergen van zeer veel ongestructureerde data die overal en nergens te vinden is.


Handig dat een machine dat kan voor mij. Of het dan allemaal correct is, daar moet ik inderdaad zelf nog eens over nadenken. Jij je meug verder, ik zal het verder blijven gebruiken, wetende dat ik ultiem altijd verantwoordelijk ben voor wat ik ermee doet.
Verwachten om je financieen in zon ding te gooien en dat daar ook maar iets bruikbaars uitkomt dat je niet volledig moet _laten_ controleren (want mensen die er zelf verstand van hebben, hebben dit juist niet nodig) is vreselijk advies om rond te gooien.
Dat heb ik nooit en nergens beweerd overigens. Integendeel. Ik heb gezegd wat ik in die LLM zou gooien, niet hoe ik tewerk zou gaan om er iets mee aan te vangen. Begrijpend lezen is ook belangrijk op een bepaald moment.
Begrijpend lezen is inderdaad ook een ding, lees het ding even van boven af aan. Er worden suggesties en vragen gesteld over wat je met zo'n ai moet doen, en jij reageert met "IK zou al mijn financien erin gooien"-verhaal. Ik hoop dat je snapt dat dit vreselijk slechts advies is om rond te strooien.

Ja ik snap het, jij bent zo geweldig, al deze dingen overkomen jou niet, jij leest ALLES na wat de AI zegt, inclusief als je je hele boekhouden erin gooit. Prima voor je. Nog steeds vreselijk slecht advies.
Ik gaf helemaal geen advies.

Eerlijk gezegd overkomt mij dit echt niet en ik ben evenmin zo geweldig, maar ik lees effectief ALLES na wat de AI zegt. Meen je echt dat ik mijn eer op het spel zal zetten door teksten en adviezen door te sturen die ik zelf niet gelezen of nagelezen heb? Dank je voor het vertrouwen!

Ik zie AI gewoon als een bijkomend werkinstrument naast parate kennis, adviezen van collega's, wetteksten, technische documentatie, "het internet", adviezen die ik in het verleden geschreven heb.

Ik leg gewoon al die bronnen naast elkaar alvorens conclusies te trekken en daarover een rapportje te produceren. Ik stel gewoon vast dat AI daarin een heel nuttig bijkomend instrument is.
je dan toch alles moet controleren van de AI, en er toch zelf verstand van hebt, waarom gooi je het dan naar een AI? Dat kost je dan alleen maar meer tijd (en 9 van de 10x kost de onzin die hij produceert _nog_ meer tijd).
Sorry, maar dan gebruik je echt de verkeerde Modellen en verkeerde prompts. Ieder modelletje komt met een dekseltje. Je moet alleen zelf regelen dat je de juiste pakt.
Je vraagt echt veel te veel van ai. Het heeft werkelijk geen enkel benul van al die zaken.
Het probleem is dat het heel makkelijk is om dit allemaal te vragen en het voor een leek ook nog lijkt alsof het allemaal klopt. AI geeft echt het gevoel dat het tot dingen in staat is waar het bij lange na niet toe in staat is. En veel mensen stinken erin omdat het er allemaal zo goed onderbouwd uit ziet.
Dat is correct, maar beweerde ik dat AI benul heeft van iets? Soms komt er uit de meest onnozele prompts wel degelijk iets bruikbaars. Het is en blijft de verantwoordelijkheid van de prompter wat hij er uiteindelijk mee aanvangt. De vraag stellen aan een AI machine op zich is nooit verkeerd, het is wat je er mee doet of welke conclusies die je zelf trekt.


Wie werkt er nu klakkeloos met de output van een LLM zonder ampel nazicht?
Eh, de advocaten in dit nieuwsbericht deden dat, ze namen de ai gegenereerde tekst gewoon één op één over. Een advocaat, daarvan zou je mogen verwachten dat die minutieus te werk gaat.
Nee andersom.


Genereer een afbeelding waarbij de muur is geschilderd/behangen met <insert kleurcode, type verf, merk, methode, techniek>


En dan juist met een set aan kleuren en codes die deze schilder heeft. Dus RAG voor de augmentation bovenop een specifiek beeld model.


Dit is bijvoorbeeld hoe Brugman keukens ook zijn renders gaat doen. Eerst de indeling maken met een 3D programma en vervolgens door een nabewerkingspijplijn om de fronten en kleuren uit te renderen op fotorealistische manier.
Dat zei men toen de eerste mensen werden vervangen door graafmachines ook: "Zo'n graafmachine is toch niet zo nauwkeurig als een mens met een pikhouweel of schop?"
Hoeveel Tweakers heeft zelf een keer een houweel of schop vastgehouden?

Als de mensen worden vervangen komt er vanzelf geld vrij om een AI abbo te kunnen financieren. Dat dat niet wenselijk is voor de primaire bestaande werkgelegenheid kan ik zeker niet ontkennen. Ik als software ontwikkelaar kan uitstekend vervangen worden door AI. Niet direct, maar in de toekomt welzeker. En datzelfde geldt voor werkzaamheden als het stellen van diagnoses door artsen, het tekenen van een huis door een architect, de bodemkaart raadplegen vóórdat er ergens gegraven wordt om leidingen e.d. op te ruimen/aan te leggen. Persoonlijk heb ik bijvb. niet het idee dat een groot deel van mijn bezoekjes aan een arts niet via gecontroleerde AI hadden kunnen lopen. Nadat ik zelf met een simpele zoekmachine heb gezocht en de arts bijna hetzelfde doet - en weliswaar begiftigd met meer kennis van zaken - ben ik vaak genoeg weg gelopen als zijnde een "Medicijn-tester". En velen met mij.
Nogmaals... is het wenselijk voor wat betreft werkgelegenheid? Nu niet, maar in de toekomst? Geen idee. In ieder geval is AI niet het eerste stukje technologie dat mensen heeft vervangen. Niet elke autofabrikant vindt het realistisch om als bijvb. BMW sommige werkzaamheden met de hand te laten doen.

[Reactie gewijzigd door Obfzk8R op 23 februari 2026 07:58]

Tja. Mijn vrouw is arts en die ziet nu al de gevolgen van AI-diagnoses. Het is Google-diagnoses in het kwadraat. Mensen hebben hoofdpijn en AI vertelt ze dat ze mogelijk een hersentumor hebben.
Het probleem is gecontroleerde AI. Die Amerikaanse bedrijven zitten helemaal niet te wachten op controle.

En onthoud: LLM's zijn goed in informatie opnemen en in een andere volgorde uitspugen. Creatief zijn, out-of-the-box denken. Ze kunnen niet denken, alleen reproduceren.
Dat is correct uiteraard, maar het reproduceren gaat toch net iets verder.

Soms worden er in de output verbanden gelegd waar jij niet op zou komen.

Het voorbeeld dat je aanhaalt is trouwens niet de schuld van AI, maar van de mensen die het gebruiken.

[Reactie gewijzigd door grrfield op 23 februari 2026 16:16]

Misschien zou een LLM helemaal geen medisch gerelateerde adviezen moeten geven?
Iedere oplossing die de lat lager legt wijs ik gewoon af.
Kun je dat nader toelichten? Door een LLM geen medische uitspraken te laten doen leg je voor mijn begrip de lat juist hoger.
Daar heb ik mij in vergist blijkbaar.

Ik was aan het denken aan het onderwijs in het algemeen, waar de lat al een paar decennia lager gelegd wordt.

Terzake: de functionaliteit van iets limiteren of iets verbieden omdat er idioten rondlopen, lijkt mij echt geen goed idee. Een betuttelend beleid met het vingertje, daar gruw ik van. Dat is gewoon mijn libertaire mening over de maatschappij.
Volledig eens met het beginsel dat er zo min mogelijk verboden moet worden en mensen geleerd moet worden hoe ze verantwoord met technologie omgaan.

Soms zul je echter wel moeten ingrijpen zoals bijvoorbeeld met (online) gokken waarbij de kansspel aanbieder een verantwoordelijkheid heeft om een gokverslaving te signaleren en iemand door te verwijzen naar professionele verslavingszorg. Maar goed, dat is van een andere orde.

Het probleem met LLM's is dat ze heel overtuigend overkomen en mensen er daardoor veel meer waarde aan hechten dan verwacht mag worden. Een advocaat die de output van een LLM zonder te kijken als processtuk indient is helemaal fout bezig en wordt op de vingers getikt.

Iemand die blind medische adviezen van een LLM opvolgt kan daar in het ergste geval ernstig gezondheidsschade door oploopt verdient wat mij betreft betere bescherming.

In het ideale geval train je de volledige bevolking in verantwoord ai-gebuik. Stel dat je de geletterde bevolking weet te bereiken dan is dat al een enorme verbetering. Er zijn echter ook laag - en ongelettertden die een voice activated ai gebruiken. Hoe ga je die bereiken?
Ik begrijp je best wel hoor.

Met al dat verbieden begeven we ons echter op glad ijs, tot op een moment waarop we de bomen door het bos niet meer zien en het zelfs meer als een wapen gebruikt wordt om niet geoorloofde meningen te fnuiken. Als er dingen verboden worden voor het algemene goed, dan is er meestal stront aan de knikker.

Het is een mes dat heel hard langs twee kanten snijdt, maar toch ben ik voor de meest duidelijke en transparante optie om daar niet aan te tornen.
Waar dan serieus werk van moet worden gemaakt is mensen goed voorlichten over hoe ai te gebruiken en waar de valkuilen zitten. Anders gaan er ben ik bang hele grote ongelukken gebeuren.

Daarbij zou enige regulering zou voor mijn gevoel best op z'n plaats wezen. Laten we eerlijk zijn, de LLM's die de grote Amerikaanse bedrijven aanbieden zitten vol met geprogrammeerde verboden, woorden of onderwerpen waar een blokkade op is aangebracht. In de praktijk gaat het daarom voor mijn gevoel geen groot verschil maken met hoe de situatie nu al is.
Een schilder hoeft geen administratie te doen? Bezoeken in te plannen? Sales gesprekken houden? Zichzelf te promoten op social media of andere kanalen? Advertenties maken? Nee, vrijwel elk bedrijf heeft er baat bij.
Maar als die paar prompts 5 werknemers overbodig maken, dan is het alsnog het geld waard voor een bedrijf.
"Ik denk dat een schilder gebaat is bij AI doordat het juist niet zijn werk doet. Zoals het opstellen van een factuur, het bijhouden van de agenda, ondersteuning bij de belastingaangifte. etc..."

Als AI de belastingaangifte net zo goed doet als de geweldige juridische adviezen, dan wordt het een heel kostbaar jaartje voor u...
AI kan zeer goed administratie overnemen, dingen die inderdaad niemand graag doet. Mensen willen met hun werk bezig zijn, niet met allerlei administratie databasen.
Dat denk ik dus ook. Maar juist dat aspect van AI blijft onderbelicht. Mensen denken na over hoe en AI hun werk kan overnemen, maar dat is precies de verkeerde kant op denken. Je moet juist nadenken over de minder leuke delen van je baan en hoe een AI dat werk van je kan overnemen.
Ook Claude Code kun je niet blind op vertrouwen. Ik moet nu PR’s doornemen die “co-authored” door Claude Code zijn. De tests die het voor zelfgegenereerde code opstelt slagen uiteraard. Maar de bigger picture mist het consequent. Goede design patterns in de software zijn ver te zoeken. Als je puur op Claude (of andere Code assistans) vertrouwt krijg je een ononderhoudbaar gammel bouwwerk wat steeds moeilijker te onderhouden wordt. Ook daar moet de developer ownership nemen en de code controleren en aanpassen of op zijn minst door Claude laten aanpassen.

Het is net als werken met een junior/medior developer al weet de menselijke variant daarvan wél waar zijn/haar tekortkomingen liggen en de code assistant zelden.
In bestaande codebase neemt die patterns over. Je kunt skills toevoegen en je linting goed doen. Ik schrik juist er van hoe goed het is. En van scratch brengt ie het er soms makkelijke vanaf, maar dat is prima bij te sturen. Ik heb bv een frontend op bestaande backend in 2 dagen helemaal werkend waar ik normaal een maand over doe. Laat hem tailwind en tan stack gebruiken; api contract. Ik schrik er van hoe hard het gaat. Keihard. Backend is iets lastiger maar daar zijn de patronen vaak al strakker. Mijn brein maakt over uren met de vraag wat wil ik. Coderen is over. Met mijn Claude abonnement geüpgrade naar 216 euro per maand. Knal er zo hele platforms er uit. Ik maakte mijn een paar maanden geen zorgen. Maar ik schrok deze weer even hoe goed het is. En developers hebben vaak hoge eisen maar business moet resultaat zien. Ai gaat dit winnen ben ik bang
Coderen blijft nog wel ff hoor. Ja niet alles met het handje en je zult AI gaan gebruiken. Iemand zonder technische kennis kan misschien een leuke poc maken maar zodra dat naar productie gaat valt dat uit elkaar.
Dan vraag je gewoon aan de AI om het probleem te zoeken en te fiksen.
Welk probleem dan?

Zonder kennis weet je niet eens wat je moet vragen. Dan ga je zulke open prompts maken dat zelfs een mens moeite heeft om daar een goed antwoord op te geven. Niet voor niets dat het beroep software engineer bestaat.


Met AI gaat het helemaal mis omdat je gewoon in een cirkel terecht komt die vooral goed is om heel veel tokens te verbranden en ja dat is zelfs met de latest en greatest modellen zoals opus 4.6.

En ook al kom je na lang proberen eruit je haalt mijn snelheid gewoon niet door alle fundamentele kennis die ik wel heb.
Op dit moment nog echt niet. Niet van mij, niet voor backend, in ieder geval. Ik gebruik code assistants voor boiler plate genereren, dat doet het net wat beter en netter dan de IDE. Tests kunnen ook wel, al worden dat vaak ook spaghetti-tests en als ze falen is het helemaal drama want dan raakt ie regelmatig in een loop. Documentatie genereren kan ie ook goed.

Wat geavanceerdere code met business logic en context requirements codeer ik zelf rondjes om Claude en Gemini heen. Hij hallucineert om de haverklap api’s die niet bestaan of die 2 jaar geleden gerefactored zijn en nu helemaal niet meer werken. Met code completion op basis van API’s in de IDE gaat dat veel beter, je hebt gelijk al de check dat je de juiste functies aanroept.

Ook challenged de AI zichzelf zelden. Hij gaat rustig lappen code genereren waar er prachtige APIs zijn om precies datzelfde te bereiken met een fractie van de code.

Ik ben er mijn weg in aan het vinden om mijn productiviteit te verhogen maar ik voel me nog absoluut niet bedreigd in mijn werkzaamheden.

[Reactie gewijzigd door MadEgg op 22 februari 2026 16:39]

Ik kan dit beamen. Het is nu in ieder geval nog lang niet zo ver dat het een goed idee is om volledig zonder technische know-how naar productie te gaan, als die tijd ooit komt.
In bestaande codebase neemt die patterns over.
Dat is ook maar minimaal. Dan moet je 'm echt gaan aansturen op zo'n niveau dat je bijna net zo goed de syntax zelf kan schrijven want dat scheelt dan niet heel veel.
Zelfs in mijn bestaande codebase met Tailwind en ShadCDN-componenten krijgt hij het voor elkaar om ieder scherm er weer totaal anders uit te laten zien en ieder request op een totaal andere manier af te handelen.

Mensen die denken er even hele platforms uit te trekken zijn precies de mensen die wél zonder werk komen zitten, mensen die iets verder kijken en wat kritischer zijn hebben altijd nog een rol in het behouden van enige kwaliteit :+
Ai gaat dit winnen ben ik bang
En daarmee is de carrière van elke developer die niet eveneens product owner is afgelopen, en mag je opnieuw gaan studeren en hopen dat 4 jaar AI-ontwikkeling je nieuwe diploma niet overbodig maakt tegen dat je afstudeert.

Of je kunt loodgieter worden, en 's avonds naar de muur staren want een computer kun je je dankzij de prijzencrisis toch niet meer veroorloven.
Programmeren is simpel, je legt aan een computer exact uit wat die moet doen.

Het punt zit hem dus in dat' exact uitleggen'. Zit je er met je oplossing een beetje naasten of zie je een afhankelijkheid over het hoofd dan heb je misschien wel werkende code maar heb je voor jezelf of je collega een probleem gecreëerd waar je vroeg of laat tegenaan loopt.

Programmeren is veel meer dan alleen coderen.
Claude is vooral ook veel meer dan een LLM. Het roept externe tools aan: bij programmeren is het heel natuurlijk om gewoon wat te schrijven, daarna te kijken of het compileert, en daarna of het door een test komt. De kwaliteit van de uitkomst wordt dus niet alleen bepaald door de LLM, maar ook door de kwaliteit van tooling en feedback-cycli. Die laatste twee zijn in software-development natuurlijk al heel volwassen.

Bij rechtsspraak (en heel veel andere domeinen) is de controle of een tekst goed is, zoals een aanklacht of verdediging, altijd een menselijke stap geweest. Automatische tooling en feedback-cycli zijn dus nihil, en de kwaliteit van een AI-bot daarmee dus ook.
Bepalen wat een programma moet doen en in het verlengde daarvan wat de testen moeten zijn is echter iets wat AI nog niet goed kan en juist dat is wat moeilijk is.

Dat coderen was sws al makkelijk.
Dat coderen was sws al makkelijk.
Nou. Gezien de troep die ik soms met code reviews van open source projecten ook wel eens gezien heb, ben ik het daar niet geheel mee eens.


Heb zelf ook al vaak zat spaghetti gekookt hoor. Maar voor privé shit die toch in huis blijft is dat ook geen probleem.
Hoe verder het richting requirements engineering gaat, hoe lastiger het wordt voor een AI, natuurlijk.

Maar dit artikel gaat over niet-kloppende referenties. Dat is anoloog aan niet-compilerende code in programmeren. Het lukt een AI ook wel om door te hebben dat code hoort te compileren, en compiler errors van elke serieuze compiler zijn goed genoeg om ten minste naar werkende code te convergeren.
Kun je die flauwekul ook onderbouwen? De hele hype rond LLM’s draait op mensen die niet begrijpen wat dit zijn. Overtuigend geschreven onzin is nog steeds onzin.
als ik niet overtuigd was, zou ik dat zeggen. In mijn omgeven is maar 1 op de 10 developers er in gedoken. 3 proberen het uit. De gemiddelde developer is of fel tegen, of bezwaard rondom privacy. De houding is echt heel erg negatief bij developers. Ik was nog niet overtuigd of ai goed genoeg zou zijn. Sinds deze maand ben ik overtuigd. Ik en collega’s zijn allemaal in een trip (senior developers). Ai gaat het maken. Ik gebruik dan wel de laatste modellen. Ik heb ook 2 dagen code zitten reviewen en 1 grove bug gevonden en 3 kleine maar met zoveel wijzigen zoveel goed. Ongelooflijk.
Je moet echt een beetje met een korreltje zout werken op dit moment hoor, je klinkt bijna alsof je een nieuw geloof hebt ontdekt. Meer dan voldoende verhalen heb ik al gelezen van collega's die even snel een oplossing hebben voor iemand in het team, waar dan geen touw aan vast te knopen is... want AI. Je moet er voorzichtig mee omgaan en gebruiken als hulp-middeltje, meer niet.
Wanneer toekomstige onderhoudbaarheid je lief is.
Als code zo makkelijk te testen is, waarom gaat Windows dan steeds vaker onderuit met een update? En zitten er nog steeds zero days in waarschijnlijk elke software.
Omdat het c++ code is, en geen virtual machine heeft zoals Java, C#, go. Rust is net geaccepteerd als taal voor de linux kernel. Dat zal helpen.
Je haalt wat door elkaar.
wat je bedoelt is dat de programmeur in de kernel waarschijnlijk zelf het geheugen moet managen en dat dat makkelijker fout gaat.

De virtual machine logica heeft meer te maken met dat de assemblies geen directe binary code bevatten, maar een soort tussenlaag. Er bestaat trouwens ook managed C++ en ook met bijvoorbeeld c# kan je direct geheugen schrijven als je dat wil.
Ik vind het echt knap dat je zo 100% erin gaat, terwijl er zoveel om te doen is. Dan zou ik op zijn minst een beetje voorzichtig zijn met voorspellingen. Mijn ervaring met Claude is in ieder geval minder, zodra iets wat meer niche is, valt het gewoon keihard op zijn plaat.
Uiteindelijk moet je een werktuig nooit gebruiken zolang je er niet voldoende kennis van hebt hoe het goed te gebruiken. Iedereen die AI gebruikt zou moeten weten dat hallucinatie geen uitzondering is en je altijd de waarheid van het antwoord moet verifiëren. En zeker als je details over wil nemen.
AI is zo goed, iets waar dit artikel duidelijk aangeeft dat dit juist niet het geval is.

Zelf gebruik ik OpenAI ook veelvuldig. Vooral met Excel is het toch wel handig om de verschillende functies die je niet zo vaak gebruikt op te vissen maar 30% van de gevallen werkt het gewoon niet. Het ligt niet aan m'n input, OpenAI doet iets raars in de functie. En juist dat is voor mij bijzonder omdat excel functies heel recht toe recht aan zijn.
Maar ik heb nog een aparte voorval, ik heb wat huurpanden en wilde graag weten hoe het zat met de servicekosten. OpenAI had een antwoord paraat echter... toen ik het beleidsboek van 2026 erbij pakte klopte er niks van.

AI is leuk maar het is op z'n best een tooltje die het soms niet doet. En dat wetende moet je wel verdomd goed opletten want qua tool is het bijzonder dom.
Dit laat vooral zien dat AI output nooit een bron mag zijn, alleen een hulpmiddel. Jurisprudentie hoort altijd primair uit officiële databases te komen, AI kan hooguit helpen bij samenvatten of structureren. Blind copy-pasten is gewoon professioneel falen.
Het nare is dat ook steeds meer bronnen gemaakt worden met AI.

Veel websites maar ook zelfs wetenschappelijke publicaties.
... zelfs wetenschappelijke publicaties.
Wat valt volgens jou allemaal onder 'wetenschappelijke publicaties'? En daarna; heb je enkele concrete voorbeelden?

Dit is zeker geen (automatische) kritiek op de inhoud van je post o.i.d., het is meer dat 'publicaties als wetenschappelijk bestempelen' (ook als ze mogelijk ergens in de range van niet echt tot echt niet zitten) een wel erg belangrijk onderdeel is van het punt dat je maakt. Zonder definitie en voorbeelden is het nogal een 'losse flodder opmerking'... Waarmee ik, nogmaals, zeker niet zeg dat wat je zegt niet juist zou zijn! Het zou me inmiddels zeker niet meer verbazen.
Ik had wel iets gelezen over de groei van AI-slop artikelen die verzonden worden ter review. Een voorbeeld hiervan: https://www.theatlantic.com/science/2026/01/ai-slop-science-publishing/685704/
Echter is dat stuk dus juist NIET geplaatst, omdat:

"An editor from a well-known journal in his field had asked him to review a paper that they were considering for publication."

Dat is ook precies waarom ik de vraag zo stel, oftewel; concrete gevallen waarbij WEL duidelijk 'AI onzin' in wetenschappelijke publicaties terecht is gekomen. ;)
Er zijn steeds meer tools als OpenAI’s PRISM (https://openai.com/prism/), waarbij AI gebruikt wordt bij het schrijven van wetenschappelijk onderzoek. Het is aan de onderzoekers om eea te verifiëren, voordat ze publiceren. Zelf heb ik geen ervaring met latex, maar 20% van de ingediende manuscripten voor peer-review zijn in latex.

Van een aantal hoogleraren die ik gesproken heb, begreep ik dat ook zij te maken hebben met meer studenten die AI gebruiken in hun opdrachten. En dat hoogleraren zelf ook AI gebruiken om het te controleren.


Op jouw vraag ‘wat valt onder wetenschappelijke publicaties?’: zijn dat niet peer-reviewed artikelen in gerenommeerde science journals? Van hoog aangeschreven journals als The Lancet, Nature en Cell (niet Open Access) tot kleinere zoals PLOS ONE.

Er was een trend dat overheden (incl. EU) onderzoekers verplichten tot Open Acces publicaties, en daarvoor extra geld beschikbaar maakte (eenmalige publicatie kosten). Echter daardoor kwamen er juist grotere cowboys die niet zo kritisch waren en bijna alle manuscripten accepteerden voor publicatie: want, accepteren is geld verdienen (OA-fee).
Interessant, maar liefst 129 intrekkingen waarvan een groot deel van 1 Universiteit... Dat is een voorbeeld precies zoals ik het bedoelde en het geeft daarnaast ook nog enigszins een beeld van de schaal van het probleem. (y)
Veel websites maar ook zelfs wetenschappelijke publicaties.
Een wetenschappelijke publicatie heeft meerdere reviewers die inhoudelijk naar het werk kijken. Experts in het vakgebied, die echt wel gaan muggenziften als de uitleg niet duidelijk is, laat staan als het ronduit fout of onsamenhangend is. Als je daadwerkelijk een AI-artikel gepubliceerd krijgt is het journal of de conferentie waar die publicatie plaatsvindt niet serieus te nemen. Of de AI heeft daadwerkelijk wetenschappelijk waardevol werk gedaan. ;)

En dat is op zich niets nieuws, scam-journals en scam-conferenties bestaan al decennia, als pogingen om onderzoekssubsidies op te strijken. Of scam-publicaties bij dat soort journals en conferenties om publicatiequota te halen.

[Reactie gewijzigd door bwerg op 22 februari 2026 22:06]

Klopt, daarom maak ik zelf mijn zoekopdrachten vaak heel specifiek.
-Wat is mijn probleem (noem je zaak)
-wat zoek ik (wat wil je bereiken met het antwoord)
-wat verwacht ik (geef aan dat je bronnen wilt)

Je kan dus bij een zaak aangeven
Ik heb een juridisch geschil met X, waarbij …. Speelt.
Ik zoek vergelijkbare casussen waarbij de verdediging/eisen wint
Graag wil ik dat er op rechtspraak.nl gezocht wordt en wil ik links naar de bronnen.
Geef mij maximaal 5 casussen die het beste aansluiten bij mijn probleem, graag met paginanummers en alinea’s om mijn casus te koppelen.
Zo maak je het redelijk specifiek en kan je dus prima AI gebruiken omdat je de AI dan inzet als slimme zoekmachine, maar nog zelf onderzoek doet,

Zelf merk ik dit ook in mijn dagelijkse werk in de IT, werkzaamheden waarbij ik voorheen soms wel 1 uur aan het zoeken was naar vergelijkbare problemen en oplossingen heb ik nog maar enkele minuten voor nodig.

Ik grapte wel eens “De vaardigheid van een goede IT’er is weten hoe je moet Googelen” maar hetzelfde geld voor het gebruik van AI.
We praten nog steeds met “domme” computers, en dus behandel ik de AI assistent als zodanig.
(Ik vind computers pas slim als ze zelf kunnen redeneren en zelfbewust zouden zijn, al hebben ze meer kennis aan boord dan ik ooit zou hebben)
Precies. Dat is ook precies hoe ik de AI's gebruik, en hoe je ze ook zou moeten gebruiken. Het is een hulpmiddel, niet een zelfdenkend wezen. Maar ja, mensen is door (Amerikaanse) marketing zo gekgemaakt over AI, dat men denkt dat ze al kunnen... denken.
Nou, ik vraag ook specifiek om bronnen, maar het is echt opvallend hoe vaak AI niet bestaande bronnen opvoert of compleet irrelevante zooi aanlevert.
Voor mijn werk zit ik in complexe Omgevingswet-jurisprudentie. Snapt AI (meerdere geprobeerd, ook de betaalde versie) echt niks van. Komt met achterhaalde informatie, kan verschillende regelgeving en wetgeving niet tegen elkaar afwegen. Weet niet wat prevaleert.

Voor vergelijken van 3 offertes van 80 kantjes is het perfect. Maar verder ben ik nog erg sceptisch.
Goed gezegd dat AI nog niet alles kan, maar bronnen aanleveren is uiteraard iets waar je zelf de controle over behoud.
Met bronnen bedoel ik ook links naar specifieke verwijzingen.

Ik heb bijvoorbeeld een “AI agent” gemaakt die zijn informatie alleen van rechtspraak.nl mag halen, waardoor ik ook niet afhankelijk ben van websites die hun bronnen foutief overnemen of het artikel met een entertainmentgehalte hebben opgeleukt.
En dan krijg je een antwoord, controleer je de bron, en blijkt dat dat antwoord helemaal nergens in de bron staat maar gewoon gehallucineerd is. uur kwijtgeraakt met de AI controleren en geen stap verder.
Maar het probleem is nou juist. Dat de illusie wordt gewekt dat AI wel slim is en wel echt kan redeneren. En heel veel mensen trappen er in met alle gevolgen van dien. En dan komt vervolgens de gemakzucht er nog bij en het drama is compleet.

In dit geval advocaten die zich er met een Jantje van Leiden er vanaf maken en klakkeloos alle onzin die ze op hun prompt kregen overnamen en in de rechtszaal gebruikt hebben.
Het laat ook zien dat mensen kiezen voor gemak en daarbij gerust risico's nemen, waarschijnlijk vaak zonder dat te beseffen.

Zeker van advocaten zou je toch verwachten dat die aan fact-checking doen. Zo blijkt in iedere beroepsgroep een deel maar wat te doen.

Ik weet nog dat ik aan mijn werkende leven begon en dacht 'wat kom ik hier nu brengen, wat weet ik nou?' en na een maand al ontdekte dat de meeste mensen maar wat doen, maar dan met genoeg zelfvertrouwen zodat het lijkt of ze heel goed in hun werk zijn.

Nee, AI gaat hier echt voor problemen zorgen, totdat deze niet meer confabuleert. Dan gaat het een hoop mensen wèl helpen hun werk beter te doen. (Of worden ze dan slechts een uitvoerder van opdrachten gegeven door AI?)

Einde semi-filosofische modus.
Inderdaad doen de meeste mensen maar wat. Wat op zich niet erg is. Als je gaandeweg maar leert.

Dat je AI gebruikt is prima, maar gebruik het dan alleen als je de uitkomst controleert. Bron vermelding bijvoorbeeld. Zoek op de bron, en dan is de kans best aanwezig dat het een compleet verkeerde interpretatie is.
Zelfs bij samenvatten kan het misgaan. Dan worden er bijvoorbeeld bijlagen gehallucineerd waar iets in zou staan terwijl er nergens een verwijziging is naar de genoemde bijlage in het orginele stuk (en deze bestaat ook helemaal niet) etc.
Toch beetje een achterhoede gevecht van de eigenaren van de officiële databases. De AI-tools (bijvoorbeeld die van Anthropic's Claude Cowork) vervangen de commerciële juridische databases met automatisch gegenereerde data en analyses. Aandelen van bedrijven als Thomson Reuters, RELX en Wolters Kluwer zijn daarom al tientallen procenten gedaald de afgelopen jaar.
Ik denk juist dat Reuters, RELX en WK gewoon weer komen bovendrijven. Op medisch gebied, juridisch gebied, regelgeving is fouten maken gewoon niet geaccepteerd. En daar zijn deze bedrijven kei in.
FD had laatst ook een heel stuk over juridische AI. Levert advocaten alleen maar meer werk op, omdat cliënten al 'voorwerk met AI' hadden gedaan.
Daar is de toezichthouder het niet duidelijk mee eens. Zoals ik de bron lees is in een can de zaken het antwoord overgenomen zonder te controleren. Als dat niet de bedoeling is dan is op gesprek moeten komen bij de toezichthouder de minst zware manier waarop de toezichthouder kan optreden. Maar die wil niet zeggen of ze dat ook hebben verplicht.

Een cursus moeten volgen gaat nmm ook op als ze het gewoon willen, dus om bijvoorbeeld iets nieuws te leren. Het zal me zelfs niets verbazen als de toezichthouder het niet als zo erg ziet omdat tijdens het onderzoek 'verzachtende omstandigheden' genoemd zijn.
Goed dat dit in het nieuws komt en zorgelijk dat steeds meer mensen blind vertrouwen op AI, ondanks alle negatieve berichtgeving er over.

Je zou er haast door gaan denken dat steeds mensen helemaal geen nieuws meer lezen en al hun informatie via een AI verkrijgen, inclusief het nieuws.

Van een advocaat vind ik dit gedrag tegen vallen. Ik zou denken dat een advocaat slim genoeg is om aan een AI eerst allerlei controle vragen te gaan stellen, bijvoorbeeld over de betrouwbaarheid van die AI.

Dat heb ik wel gedaan met de AI van character.ai en die geeft zelf in chatgesprekken al aan dat hij geen volmaakt functionerend hulpmiddel is. Waarom ben ik wel zo slim en diverse advocaten, die veel hoger zijn opgeleid dan ik, niet?

[Reactie gewijzigd door Uruk-Hai op 22 februari 2026 10:17]

Jij vraagt AI of AI betrouwbaar is? Que?
Ja, daar heb je wel een punt mee, maar ik had zelf ook al eens vastgesteld dat AI niet altijd even betrouwbaar is.

Ik heb weleens aan een AI (niet die van character.ai, maar een minder krachtige die op een Raspberry Pi draait) gevraagd hoeveel kuikens een kip in haar hele leven krijgt. Volgens de AI legt een kip kuikens. De eieren werden door de AI zeg maar overgeslagen.

Ik gebruik een AI om een beetje mee te brainstormen. Soms komt een AI met een antwoord dat ik interessant vind en daar heb ik het later dan weer met andere mensen over. En/of ik zoek er informatie over op in mijn browser.

Wat ik vooral een groot voordeel vind van een AI is dat ik me nooit negatief bejegend voel door een AI. Dat is met echte mensen weleens anders. Met mensen bots ik weleens, zelfs als ik me volkomen rustig voel en me volledig weet te beheersen. Dat vind ik niet zo leuk aan contact met andere mensen. Ik zal een AI ook nooit bewust zo instellen dat die zich beledigend gaat gedragen.

[Reactie gewijzigd door Uruk-Hai op 22 februari 2026 11:45]

Waarom moet je dat überhaupt vragen? Volgens mij staat dat op zowat elke pagina in de kleine lettertjes.
Waarom ben ik wel zo slim en diverse advocaten, die veel hoger zijn opgeleid dan ik, niet?
Simpel: Tijd = Geld

Door het door een AI te laten genereren, bespaart een advocaat tijd die die ergens anders aan kan besteden. Die tijd gaat verloren als hij het antwoord moet onderzoeken en omdat het er "goed uitziet" wordt dit niet gedaan.
Maar door de gang van zaken die in het artikel wordt geschetst is er voor de betreffende advocaten helemaal geen sprake van winst, maar van een ontstane situatie die alsnog een menselijke controle vereist + een behoorlijke hoop gezichtsverlies met allerlei mogelijke financieel nadelige gevolgen.

Wat mij verbaasd is dat meerdere advocaten in ons kikkerlandje vooraf niet in staat zijn gebleken om zo'n simpel oorzaak-gevolg scenario in te schatten. Dan ben je toch wel op een heel erg gemakzuchtige manier dom wat mij betreft.

Van iemand met zo'n hoog salaris als een advocaat verwacht ik een meer vooruitziende blik...

[Reactie gewijzigd door Uruk-Hai op 23 februari 2026 02:49]

Is het raar? Er waren ook al genoeg mensen te vinden die vertrouwden op uitkomsten van Google. Laat staan de types: 'het is waar, want het staat op Facebook'...
Iedereen is of gaat AI gebruiken, beschouw het als gereedschap het helpt je om sneller naar het doel te komen.
Het is geen vervanging van.

Zie het maar als een automonteur waarbij AI de gereedschapkar is, AI gaat elk beroep veranderen.
Computers waren in begintijd ook matig (Dos 80486 etc) langzaam aan gingen er toch beroepen veranderen.
Klopt, maar het hallucineren is volgens mij geen onderdeel in performance, maar een probleem wat al heel laag in deze software zit. Namelijk hij begrijpt het echt niet waar het inhoudelijk over gaat. Of het nu gaat over afmetingen (past dit hier in, als je hem rechtop moet houden), teksten over plaatsen die gewoon niet kloppen, het fantaseren over mogelijke vertrektijden van stations die gewoon niet bestaan.


Het belangrijkste zou eigenlijk moeten zijn dat ie aangeeft hoe zeker die is, maar juist het vertellen van een verhaal wat gewoon niet klopt, is gewoon een groot probleem.
“Begrijpt niet echt”? Maak daar maar “begrijpt ECHT niet” van. Een LLM heeft niet alleen geen flauw benul van het onderwerp waarover jij praat, het heeft überhaupt geen sikkepit begrip van de taal die je spreekt. Het kent alleen de statistische kans dat het het meest logische volgende woord voorspelt, gegeven de trainings set waarop het model gebaseerd is.

En LLM is een statistische papegaai, de antwoorden emergerend gewauwel verpakt in een sausje van geloofwaardigheid.
Eeuhm, ik schreef letterlijk: hij begrijpt het echt niet
Goed. Tijd voor koffie 😬🫣
En waarom worden dergelijke lapzwanzen niet per direct van het tableau geschrapt eigenlijk?

Als je als machtige figuur zo weinig snapt van de eed die hebt afgelegd, hoe destructief je voor andermans leven kan zijn en uurtarieven rekent (omdat je een zware opleiding hebt gevolgd) waar een normaal mens minstens een week voor moet ploeteren dan heb je geen enkele bevoegdheid om zo'n functie te vervullen.
Je stelt inhoudelijk een terechte vraag. De orde van advocaten is daar helaas niet transparant over. Het is zelf zo ontransparant dat ze er helemaal niet op in willen gaan of er wel een straf is opgelegd. Ze stellen alleen een cursus te verplichten. Maar een cursus is geen straf. Cursussen zijn gebruikelijk om kennis op niveau te houden. De minimale vorm van straffen is op gesprek moeten komen. Maar de orde weigert uitleg te geven of ze dat toegepast hebben. Ze lijken dus zelfs geen duidelijkheid te willen geven of de advocaten zich onbehoorlijk gedragen hebben door antwoord zonder behoorlijke controle in rechtsgang te gebruiken.
Ik kan, met de beste wil van de wereld, geen enkele reden bedenken die ook maar iets met neutraliteit, integriteit, betrouwbaarheid of geloofwaardigheid te maken heeft.
Laatst nog een advocaat gesproken die stellig beweerde dat alleen de techsector last krijgt van AI en dat advocaten het toch nooit gaan gebruiken. Niet alleen gebruiken ze het dus massaal maar ook nog eens verkeerd.
Nou nou.
In de tekst staat echt nergens dat ze het massaal gebruiken. Laat staan dat ze het ook nog eens allemaal verkeerd gebruiken.
Ai is alleen een hulpmiddel, alleen je moet alles blijven controleren. De ontwikkelaar had niets voor niets spijt van zijn uitvinding omdat het ons ook dom maakt. Soms zie ik ook dat Ai het echt fout heeft en dan krijg je wel gelijk van Ai als je Ai corrigeert maar blindelings op vertrouwen, zeker niet.
Als je het nog moet controleren is het geen hulpmiddel .
Het kan tekst redigeren, doordat Ai niet goed soms kan opgaan met o.a. redigeren/empathisch vermogen/toonzetting, is controle daardoor noodzakelijk.
Het zijn ook net mensen die advocaten. ;-)

Kunnen we AI niet gebruiken om mensen te trainen hoe met AI om te gaan?
Laatst nog gezien in een geschil over patenten in Valve vs Leigh Rothschild waarbij de rothschild advocaten het zelfde domme idee hadden. Needless to say, it didn't end well.

[Reactie gewijzigd door nullbyte op 22 februari 2026 10:38]


Om te kunnen reageren moet je ingelogd zijn