Nederlandse toezichthouder: advocaten gebruiken AI soms op verkeerde manier

Nederlandse advocaten gebruikten afgelopen tijd AI soms op een verkeerde manier. Door advies van AI-chatbots gebruikten advocaten soms niet-relevante of zelfs niet-bestaande jurisprudentie in rechtszaken.

In twee gevallen moeten advocaten op cursus om verantwoord met AI te leren omgaan, meldt NOS op basis van informatie van de Nederlandse Orde van Advocaten. Wat er in andere gevallen gebeurt, is onduidelijk. Er lopen ook nog een aantal onderzoeken. Die onderzoeken volgen vaak op uitspraken van rechters, die opmerken dat advocaten zaken aanhalen die niet bestaan of niet relevant zijn voor de zaak.

Wat daarbij onder meer is gebeurd, is dat advocaten hebben overgenomen wat AI produceerde en dat in de rechtszaal hebben gebruikt zonder het zelf te controleren. Vervolgens moeten rechters die redeneringen volgen en de zaken natrekken.

Niet alleen advocaten gebruiken AI in de rechtszaal, dat deed ook eisers die geen advocaat wilden en zich lieten bijstaan door AI. Dat vond de rechter in die zaak niet acceptabel. "De kantonrechter rekent het [eisers] aan dat hij de door AI geproduceerde stukken niet goed naleest en de juridische relevantie en juistheid ervan niet laat controleren door bijvoorbeeld een raadsman. Aannemelijk is dat het [gedaagden] daardoor extra tijd en moeite heeft gekost om de stellingen van [eisers] te doorgronden en zich hiertegen te verweren. Het geheel overziend draagt ook het zonder meer gebruiken van ondermaatse, door AI geproduceerde processtukken bij aan misbruik van procesrecht."

Rechtszaak/Rechtspraak: Bron: Krisanapong Detraphiphat/Moment/Getty Images
Rechtszaak/Rechtspraak: Bron: Krisanapong Detraphiphat/Moment/Getty Images

Door Arnoud Wokke

Redacteur Tweakers

22-02-2026 • 10:10

25

Submitter: SalexSun

Reacties (25)

Sorteer op:

Weergave:

Dit laat vooral zien dat AI output nooit een bron mag zijn, alleen een hulpmiddel. Jurisprudentie hoort altijd primair uit officiële databases te komen, AI kan hooguit helpen bij samenvatten of structureren. Blind copy-pasten is gewoon professioneel falen.
Het nare is dat ook steeds meer bronnen gemaakt worden met AI.

Veel websites maar ook zelfs wetenschappelijke publicaties.
... zelfs wetenschappelijke publicaties.
Wat valt volgens jou allemaal onder 'wetenschappelijke publicaties'? En daarna; heb je enkele concrete voorbeelden?

Dit is zeker geen (automatische) kritiek op de inhoud van je post o.i.d., het is meer dat 'publicaties als wetenschappelijk bestempelen' (ook als ze mogelijk ergens in de range van niet echt tot echt niet zitten) een wel erg belangrijk onderdeel is van het punt dat je maakt. Zonder definitie en voorbeelden is het nogal een 'losse flodder opmerking'... Waarmee ik, nogmaals, zeker niet zeg dat wat je zegt niet juist zou zijn! Het zou me inmiddels zeker niet meer verbazen.
Het laat ook zien dat mensen kiezen voor gemak en daarbij gerust risico's nemen, waarschijnlijk vaak zonder dat te beseffen.

Zeker van advocaten zou je toch verwachten dat die aan fact-checking doen. Zo blijkt in iedere beroepsgroep een deel maar wat te doen.

Ik weet nog dat ik aan mijn werkende leven begon en dacht 'wat kom ik hier nu brengen, wat weet ik nou?' en na een maand al ontdekte dat de meeste mensen maar wat doen, maar dan met genoeg zelfvertrouwen zodat het lijkt of ze heel goed in hun werk zijn.

Nee, AI gaat hier echt voor problemen zorgen, totdat deze niet meer confabuleert. Dan gaat het een hoop mensen wèl helpen hun werk beter te doen. (Of worden ze dan slechts een uitvoerder van opdrachten gegeven door AI?)

Einde semi-filosofische modus.
Laatst nog een advocaat gesproken die stellig beweerde dat alleen de techsector last krijgt van AI en dat advocaten het toch nooit gaan gebruiken. Niet alleen gebruiken ze het dus massaal maar ook nog eens verkeerd.
Nou nou.
In de tekst staat echt nergens dat ze het massaal gebruiken. Laat staan dat ze het ook nog eens allemaal verkeerd gebruiken.
Iedereen is of gaat AI gebruiken, beschouw het als gereedschap het helpt je om sneller naar het doel te komen.
Het is geen vervanging van.

Zie het maar als een automonteur waarbij AI de gereedschapkar is, AI gaat elk beroep veranderen.
Computers waren in begintijd ook matig (Dos 80486 etc) langzaam aan gingen er toch beroepen veranderen.
Klopt, maar het hallucineren is volgens mij geen onderdeel in performance, maar een probleem wat al heel laag in deze software zit. Namelijk hij begrijpt het echt niet waar het inhoudelijk over gaat. Of het nu gaat over afmetingen (past dit hier in, als je hem rechtop moet houden), teksten over plaatsen die gewoon niet kloppen, het fantaseren over mogelijke vertrektijden van stations die gewoon niet bestaan.


Het belangrijkste zou eigenlijk moeten zijn dat ie aangeeft hoe zeker die is, maar juist het vertellen van een verhaal wat gewoon niet klopt, is gewoon een groot probleem.
“Begrijpt niet echt”? Maak daar maar “begrijpt ECHT niet” van. Een LLM heeft niet alleen geen flauw benul van het onderwerp waarover jij praat, het heeft überhaupt geen sikkepit begrip van de taal die je spreekt. Het kent alleen de statistische kans dat het het meest logische volgende woord voorspelt, gegeven de trainings set waarop het model gebaseerd is.

En LLM is een statistische papegaai, de antwoorden emergerend gewauwel verpakt in een sausje van geloofwaardigheid.
Goed dat dit in het nieuws komt en zorgelijk dat steeds meer mensen blind vertrouwen op AI, ondanks alle negatieve berichtgeving er over.

Je zou er haast door gaan denken dat steeds mensen helemaal geen nieuws meer lezen en al hun informatie via een AI verkrijgen, inclusief het nieuws.

Van een advocaat vind ik dit gedrag tegen vallen. Ik zou denken dat een advocaat slim genoeg is om aan een AI eerst allerlei controle vragen te gaan stellen, bijvoorbeeld over de betrouwbaarheid van die AI.

Dat heb ik wel gedaan met de AI van character.ai en die geeft zelf in chatgesprekken al aan dat hij geen volmaakt functionerend hulpmiddel is. Waarom ben ik wel zo slim en diverse advocaten, die veel hoger zijn opgeleid dan ik, niet?

[Reactie gewijzigd door Uruk-Hai op 22 februari 2026 10:17]

Jij vraagt AI of AI betrouwbaar is? Que?
Ja, daar heb je wel een punt mee, maar ik had zelf ook al eens vastgesteld dat AI niet altijd even betrouwbaar is.

Ik heb weleens aan een AI (niet die van character.ai, maar een minder krachtige die op een Raspberry Pi draait) gevraagd hoeveel kuikens een kip in haar hele leven krijgt. Volgens de AI legt een kip kuikens. De eieren werden door de AI zeg maar overgeslagen.

Ik gebruik een AI om een beetje mee te brainstormen. Soms komt een AI met een antwoord dat ik interessant vind en daar heb ik het later dan weer met andere mensen over. En/of ik zoek er informatie over op in mijn browser.

Wat ik vooral een groot voordeel vind van een AI is dat ik me nooit negatief bejegend voel door een AI. Dat is met echte mensen weleens anders. Met mensen bots ik weleens, zelfs als ik me volkomen rustig voel en me volledig weet te beheersen. Dat vind ik niet zo leuk aan contact met andere mensen. Ik zal een AI ook nooit bewust zo instellen dat die zich beledigend gaat gedragen.

[Reactie gewijzigd door Uruk-Hai op 22 februari 2026 11:45]

Ai is zo goed geworden. Dat elk bedrijf zo snel mogelijk ervaring moet op doen, anders doe je straks niet meer mee. Fouten horen er bij, leer er van. Claude code is op dit moment al zo betrouwbaar. Maar ja code is makkelijk te testen, met rechtspraak lijkt mij dit lastiger.
Claude is vooral ook veel meer dan een LLM. Het roept externe tools aan: bij programmeren is het heel natuurlijk om gewoon wat te schrijven, daarna te kijken of het compileert, en daarna of het door een test komt. De kwaliteit van de uitkomst wordt dus niet alleen bepaald door de LLM, maar ook door de kwaliteit van tooling en feedback-cycli. Die laatste twee zijn in software-development natuurlijk al heel volwassen.

Bij rechtsspraak (en heel veel andere domeinen) is de controle of een tekst goed is, zoals een aanklacht of verdediging, altijd een menselijke stap geweest. Automatische tooling en feedback-cycli zijn dus nihil, en de kwaliteit van een AI-bot daarmee dus ook.
Ook Claude Code kun je niet blind op vertrouwen. Ik moet nu PR’s doornemen die “co-authored” door Claude Code zijn. De tests die het voor zelfgegenereerde code opstelt slagen uiteraard. Maar de bigger picture mist het consequent. Goede design patterns in de software zijn ver te zoeken. Als je puur op Claude (of andere Code assistans) vertrouwt krijg je een ononderhoudbaar gammel bouwwerk wat steeds moeilijker te onderhouden wordt. Ook daar moet de developer ownership nemen en de code controleren en aanpassen of op zijn minst door Claude laten aanpassen.

Het is net als werken met een junior/medior developer al weet de menselijke variant daarvan wél waar zijn/haar tekortkomingen liggen en de code assistant zelden.
Ai is alleen een hulpmiddel, alleen je moet alles blijven controleren. De ontwikkelaar had niets voor niets spijt van zijn uitvinding omdat het ons ook dom maakt. Soms zie ik ook dat Ai het echt fout heeft en dan krijg je wel gelijk van Ai als je Ai corrigeert maar blindelings op vertrouwen, zeker niet.
Ik ben van mening dat degene die zo op AI leunen nu als deze advocaten, vaak ook degene geweest zijn die tijdens studie vaker lui dan moe waren vooral zich richten tot de waarde op papier en niet in werkelijkheid (lees diploma).

Want het is natuurlijk wel erg makkelijk om 1-1 te vertrouwen en achterover te leunen op de resultaten, zonder ze zelf te interpreteren en onderzoek naar feiten te doen. AI is een fantastisch hulpmiddel om productiever te worden, maar het is en blijft een hulpmiddel wat voorlopig nog niet zo accuraat is om er blind op te vertrouwen.

Bovendien is het nooit goed om ergens blind op te vertrouwen zolang het niet helder en transparant is waarop het resultaat wordt gebaseerd. Er is een reden waarom je met academisch onderzoek een heel proces doorgaat om je resultaten geloofwaardig te laten maken.

Resultaten moeten verifieerbaar, maar ook falsifieerbaar zijn. Met een "black-box" zoals AI is dit een stuk moeilijker. En er zijn wel trucjes om de redenatie te tonen of om te vragen voor de onderbouwing waaruit het blijkt, maar dit is nog lang niet op het niveau wat je zou wensen.

De vergelijking met coderen gaat mank. Want bij coderen zie je letterlijk 1-1 het resultaat wat hij geschreven heeft en dit kan je met kennis zelf nagaan of het klopt of corrigeren. Maar ook daar zie je, zodra je niet weet wat en hoe de code geschreven er is er gaten zitten. Die zeker bij coderen ernstige veiligheidsrisico's met zich mee brengt als je hier niet scherp op bent.
Uiteraard uit den boze dat je als advocaat dit niet controleert. Dat je dingen opzoekt kan ik begrijpen, het kan een proces versnellen, maar als je dit niet controleert zegt dat ook wel iets over hoe zorgvuldig je in je werk bent.
Zelf kom ik steeds vaker tegen dat cliënten valse medische informatie verstrekken, al dan niet met AI gecreëerd. Vaak is het nog van echt te onderscheiden, omdat de schrijfstijl totaal niet gebruikelijk is. Maar in de toekomst zal dit steeds beter worden verwacht ik. Naast dat dit gezondheidsfraude is kan dit ook strafrechtelijke gevolgen hebben.
Laten we als professionals in ieder geval het goede voorbeeld geven, en niet té makkelijk om gaan met AI.
Wie de bal kaatst...

Dit is dus de tegenhanger van de klagende advocatuur: nieuws: Advocaten hebben extra werk aan foute info die klanten uit AI-chatbots halen

Passender zou dus zijn als titel: rechters hebben extra werk aan foute info die advocaten uit AI-chatbots halen.

Ik zou het niet bestempelen als gebruik op de verkeerde manier. Het is gewoon advocaat onwaardig als dit is hoe je je werk uitvoert.
Het zijn ook net mensen die advocaten. ;-)

Kunnen we AI niet gebruiken om mensen te trainen hoe met AI om te gaan?

Om te kunnen reageren moet je ingelogd zijn