Advocaten hebben extra werk aan foute info die klanten uit AI-chatbots halen

Nederlandse advocaten zijn extra tijd kwijt aan AI doordat cliënten AI gebruiken voor advies dat onjuist blijkt. Advocaten krijgen de taak om hun AI-geïnformeerde klanten te corrigeren. Het gaat om mensen die bij AI-chatbots informatie inwinnen en plausibel lijkende antwoorden krijgen.

Advocaten lopen tegen verkeerd geïnformeerde klanten aan door fouten van AI-chatbots. Dit ongewenste werk kost de juridische experts extra tijd, schrijft het FD. Het probleem is dat AI-chatbots antwoorden geven die onjuist kunnen zijn. Dit zogeheten hallucineren is soms overduidelijk, maar soms niet.

Juridische adviezen van zo'n chatbot bijvoorbeeld lijken plausibel en noemen 'feiten', gerelateerde rechtszaken en gerechtelijke uitspraken die onjuist zijn of zelfs geheel niet bestaan. Advocaten moeten AI-geïnformeerde cliënten niet alleen adviseren over de eigen procedure, maar eerst fouten in AI-gegenereerde informatie corrigeren en dat uitleggen. Volgens de Nederlandse orde van advocaten blijven zij altijd zelf verantwoordelijk voor hun adviezen en de bescherming van de belangen van hun cliënten.

De afgelopen jaren liepen advocaten en rechters meerdere keren tegen dit probleem aan. Daarbij gingen ze soms ook zelf de fout in. In een aantal gevallen gebruikten advocaten AI om hun werk te verlichten of te doen, maar bleek door AI geproduceerde informatie onjuist of volledig verzonnen. Dit leidde al tot sancties voor advocaten.

'AI-hallucinaties zijn onvermijdelijk'

Wetenschappers van ChatGPT-aanbieder OpenAI stelden vorig jaar in een onderzoeksrapport dat hallucinaties wiskundig inherent zijn aan de huidige aanpak voor AI. De training, opzet en evaluatie van generatieve-AI-modellen is volgens hun onderzoek te veel gericht op het geven van antwoorden. Dat 'beloont' giswerk in plaats van het erkennen van onzekerheid of ontbreken van informatie. Deze fundamentele opzet moet volgens de wetenschappers op de schop om de onvermijdelijkheid van verzinsels weg te nemen.

ChatGPT en Gemini, de AI-apps van OpenAI en Google
ChatGPT en Gemini, de AI-apps van OpenAI en Google

Door Jasper Bakker

Nieuwsredacteur

16-02-2026 • 11:40

78

Submitter: AnonymousGerbil

Reacties (78)

Sorteer op:

Weergave:

Dan leg je als advocaat die tekst gewoon naast je neer en doe je je werk. Waarom kan dat meer werk zijn? Omdat je eerst een tekst moet lezen?
Als iemand al heel veel communicatie heeft gehad met de tegenpartij (gebruikmakende van AI) zal de advocaat toch kennis moeten nemen van al die documenten.

Er blijken mensen te zijn die met behulp van AI stukken op laten stellen van 300 pagina's met juridische zin en onzin (staat ook in het FD artikel). Als je als advocaat daarmee aan de slag moet ben je wel even bezig denk ik.
Klopt, maar daar zit ook een keerzijde aan voor degene die zulke stukken indient. Normaal gesproken krijg je als verliezende partij een proceskostenveroordeling op basis van een staffel met punten, en niet op basis van de daadwerkelijke kosten.

En dit speelt niet alleen in Amerika — ook in Nederland heeft de rechter hier al korte metten mee gemaakt. Eind vorig jaar heeft de rechtbank Oost-Brabant een eisende partij die AI verkeerd inzette veroordeeld tot vergoeding van de daadwerkelijke proceskosten. De rechter achtte misbruik van procesrecht bewezen.
Tot slot weegt de kantonrechter bij het aannemen van misbruik van procesrecht mee dat [eisers] zijn processtukken naar eigen zeggen heeft opgesteld met behulp van een AI-instrument en, belangrijker nog, dat die processtukken verschillende onbegrijpelijke verwijzingen naar wetsartikelen en juridische onjuistheden bevatten.
(...)
De kantonrechter rekent het [eisers] aan dat hij de door AI geproduceerde stukken niet goed naleest en de juridische relevantie en juistheid ervan niet laat controleren door bijvoorbeeld een raadsman. Aannemelijk is dat het [gedaagden] daardoor extra tijd en moeite heeft gekost om de stellingen van [eisers] te doorgronden en zich hiertegen te verweren. Het geheel overziend draagt ook het zonder meer gebruiken van ondermaatse, door AI geproduceerde processtukken bij aan misbruik van procesrecht.
Over dat hallucineren heeft Stibbe eerder al een uitgebreide analyse geschreven, die wellicht ook als inspiratie heeft gediend voor het FD-artikel:
De onjuistheden waarnaar de rechtbank verwijst, zijn symptomatisch voor een breder probleem: generatieve AI-tools zoals ChatGPT kunnen overtuigend klinken, maar produceren volstrekt fictieve rechtsbronnen. (...) Het gevaar schuilt juist in de overtuigingskracht van deze fictieve bronnen. Omdat AI juridisch correct lijkt te formuleren en bronnen presenteert in het verwachte format, vallen onjuistheden niet altijd direct op.
Overigens werkt het ook de andere kant op: in een recente uitspraak stelt een eiser dat het besluit van de overheid zodanig onzorgvuldig is gemotiveerd, dat het wel met een "case matcher" of AI moet zijn opgesteld — en dat dit vanuit effectieve rechtsbescherming gemeld zou moeten worden. De rechtbank zag zich vervolgens genoodzaakt om expliciet te vermelden dat zij geen indicatie van AI-gebruik door verweerder had gevonden, én dat zij zelf bij de voorbereiding en totstandkoming van de uitspraak geen gebruik heeft gemaakt van AI of algoritmes. Het AI-wantrouwen komt dus inmiddels van twee kanten.

[Reactie gewijzigd door gorgi_19 op 16 februari 2026 12:29]

Ik snap dit, maar is het werkelijk misbruik?


Ik/iemand mag mij/zich-zelf vertegenwoordigen en heb dat gedaan m.b.t een dispuut met een gemeente over door de gemeenteraad vastgestelde rechtsregels. Er was een regel die niet overeen kwam binnen het kader dat de landelijke wetgeving en de Grondwet toestaan. Hoe of op welke manier ik aan de informatie kom, of dat het bluf is wat tenslotte Knoops gebruikt dat ook. Had een mooi schrijven wat verworpen werd en daarna gereageerd met info gebruikmaken via AI ( eerste keer met wel wat gecorrigeerde prompts en ingevoerde wet data van andere rechtspraken). Wel in eigen stijl geschreven, maar door AI stond er wel een zin in met een woordkeus in wat wat explicieter was en nog steeds met de wet overeenstemde. Veel gedoe maar kreeg wel gelijk. De gemeentelijke 'advocaat' vond mijn eerdere brief ( niet AI ) meer AI dan mijn tweede ( oké 1 zin maar ), maar had uiteindelijk gelijk gekregen. Ik snapte hun standpunt, en geloof best dat er veel AI stuff binnnen komt maar om gelijk alles te bestempelen als AI is ook overdreven.


Wat handig zou zijn voor de duidelijkheid is dat Bron vermeldingen erbij moeten staan, wet artikel of AI e.t.c.

[Reactie gewijzigd door Lord Anubis op 16 februari 2026 14:22]

Maar dat is een situatie dat dit op gaat. Bij advocaten komen er verschillende conflicten langs. Bijvoorbeeld wanneer een cliënt zelf iets wil of 'moet' en alvast wat huiswerk heeft gedaan. Als advocaat valt dat huiswerk dan prima te negeren of duidelijk te zijn dat dit mee tijd (en dus meer geld) kost. Maar daar horen we deze klagende advocaten niet over.
Tegelijkertijd haal ik dankzij die AI in hoog tempo info naar boven die ik anders nauwelijks zou kunnen vinden. Dan neem ik op de koop toe dat ik de dingen die ik hoor dan moet controleren (of er maar op gok, als het toch vooral om een reactie uitlokken gaat).

Het klinkt mij vooral als krokodillentranen omdat ze net wat minder nodig zijn.
Dat net wat minder nodig zijn zal wel meevallen, de gemiddelde Nederlander stelt niet even een dagvaarding op en laat die betekenen en op de rol plaatsen.

Boven de 25.000 € heb je sowieso een advocaat nodig, en ook in hoger beroep.
Maar wat speelt zich daarvoor af?

De gemiddelde organisatie laat zich niet afschrikken door iemands mededeling dat hij/zij het er niet mee eens is. Maar kom je (juridisch, op het oog) steviger binnen, dan is die dagvaarding (of verdediging ertegen) hopelijk niet nodig.
Mijn ervaring is, dat je nog zulke juiste argumenten kunt hebben, dat organisaties zich pas door een dagvaarding en de daarop volgende beoordeling door een advocaat zich van hun foutieve standpunt af laten helpen. En soms zelfs dat niet. Dan voer je maar procedure en laat de rechter dan maar z'n werk doen.
Ik herken dit ook in mijn dagelijkse praktijk als privacy officer bij de overheid, met bijv. AVG verzoeken. Mensen sturen met een druk op de knop allemaal zwaar juridische brieven waarin ze allerlei specifieke technische logs en weet ik het opvragen, terwijl je ergens al weet dat zo iemand geen idee heeft wat 'ie eigenlijk vraagt. Vaak helpt een persoonlijk gesprek gelukkig al om tot iets redelijks en proportioneels te komen, maar als iemand voet bij stuk houdt mag je er allemaal mee aan de slag. En als iemand daar goede redenen voor heeft met alle plezier, maar mensen die gewoon omdat het kan maar weer eens op een knopje drukken - liever niet.

[Reactie gewijzigd door Wouterkaas op 16 februari 2026 12:20]

In het geval van het opvragen van persoonlijke gegevens is dat, in mijn ogen, ook gewoon een spelletje. Als er allemaal technische logs opgeslagen worden en deze opgevraagd kunnen worden zou ik dat ook willen weten. Imo is het grootste gedeelte overbodig om te bewaren :)
Gelukkig wel, alleen weet je vooraf niet welk deel dat is. Als er een mol bij de politie of fraudeur bij de afdeling burgerzaken van de gemeente werkt, kun je die alleen vinden met zulke logs, terwijl 99,99% van de logs nooit daar behulpzaam zal zijn. Alleen… die ene 0,01% kan wel het verschil maken, in het ergste geval tussen leven of dood.
TopTip? Maar ik denk dat je hem al kent, Grond 63 en dan de laatste zin "Wanneer de verwerkingsverantwoordelijke een grote hoeveelheid gegevens betreffende de betrokkene verwerkt, moet hij de betrokkene voorafgaand aan de informatieverstrekking kunnen verzoeken om te preciseren op welke informatie of welke verwerkingsactiviteiten het verzoek betrekking heeft."
En wil/kan men dat niet leveren, dan niet ontvankelijk.
Totdat men eist een kopie (fysiek) te krijgen..... daar heeft men wettelijk geen recht op. En als ik dan de kosten meld als ik het wel voor ze wil leveren.... dan is het vaak ook snel gedaan.

Maar zoals je zegt, een goed gesprek geeft een veel betere invulling.
Het kost tijd om dingen te weerleggen.

Voorheen is het zo dat iets claimen ook tijd kost om te doen, mensen met minder ervaring en kennis moesten dan meer tijd besteden en dat zorgt er meteen voor dat ze dat minder doen. En als dit gedaan word zullen die mensen ook betere research doen.

Nu kun je in 2 minuten tijd een half boekwerk aan half incorrecte maar goed geschreven onderbouwing leveren.
Het verdienmodel van advocaten is het verdedigen van het (vermeende) gedrag van hun clienten. Voornamelijk door de tijd die ze hiervoor nodig hebben in rekening te brengen. De limiet is wat clienten kunnen betalen. Als er te veel potentiële clienten langs komen waarvoor een advocaat meer tijd nodig heeft dan waar geld voor is lopen ze clienten en geld mis. En dat was voor ai niets anders.

Het probleem is dus niet zomaar ai of gemakzucht van potentiële clienten. Het probleem is geld. Advocaten kunnen prima zaken aannemen die ze meer tijd kost. Behalve als de cliënt het niet kan betalen. Of wanneer de cliënt het wel kan betalen maar de advocaat te weinig confreres heeft om het werk te verdelen.
Misschien omdat de cliënt al verkeerde acties heeft ondernomen op basis van de overname van tekst van AI. Wat ook zou kunnen voorkomen is dat er discussies ontstaan, omdat ze het advies oid. van de advocaat naast het antwoord van AI leggen, waardoor extra werk mogelijk is.
Er zullen vast meer voorbeelden te noemen zijn.
Een tekst lezen is werk voor een advocaat en rekent dat dus gewoon door.
Omdat die cliënt bepaalde verwachtingen heeft, en van jou eist dat jij bepaalde resultaten haalt die totaal niet realistisch zijn. Dus je kunt beginnen met verwachtingsmanagement met in sommige gevallen cliënten die denken dat jij er de kantjes van af loopt.

Overigens zien we datzelfde ook terug in bijvoorbeeld de medische wereld.
Naast het feit dat je het als advocaat niet kan maken om documentatie die jouw cliënt je bezorgt, niet te lezen, is er doorgaans ook het mentale aspect dat de cliënt nu overtuigd is van diens gelijk en dat je daar als advocaat moet tegen opboksen. Niet iedereen staat vervolgens open voor de oneliner "jouw AI-gegenereerde advies is verkeerd".
In de VS is een bekende strategie om je tegenstander te overladen met documenten, zodat je die tegenstander op kosten jaagt omdat de advocaat alles wél moet doornemen. Dat wordt nu met AI nog veel makkelijker.

Gelukkig kunnen advocaten natuurlijk zelf AI gaan inzetten om al die documenten door te nemen. Dus het wordt zo een uiteindelijk nutteloze race van wie de meeste troep bij de tegenstander kan krijgen om die op kosten te jagen.

Hopelijk steken advocaten en rechters daar een stokje voor. Er is niemand bij gebaat om rechtzaken te voeren op basis van wie de meeste AI troep kan aanleveren. AI als tool gebruiken zodat advocaten sneller kunnen werken en/of betere inzichten krijgen is helemaal prima.

Eigenlijk moeten rechters en advocaten afspreken om zaken waarin AI is gebruikt direct te verwerpen. Als klanten eenmaal weten dat ze met AI stukken geen rechtzaak kunnen starten, zal dat snel weer verdwijnen.
Hier laat je zelf zien het artikel niet goed gelezen te hebben. Het gaat niet om de advocaat die naar een AI antwoord kijkt, het gaat om de klant van de advocaat die een AI antwoord gebruikt en daarmee/daardoor denkt iets te bereiken. De advocaat is vervolgens extra werk kwijt om de klant uit te leggen en te overtuigen waarom de klant fout zit door het antwoord van de AI te geloven.

Een extra bijkomstigheid is dan ook dat je relatie gelijk al moeilijk begint waar je als klant wel je advocaat moet vertrouwen als de expert.

De oplossing is vergelijkbaar met de opkomst van internet bankieren of de mobiele telefoon. Mensen moeten leren omgaan met de nieuwe techniek, en daar ook de valkuilen leren kennen. Een AI antwoord is een prima richtlijn, maar je moet wel de onderbouwing controleren of die uit betrouwbare websites komt, en of op die betrouwbare websites ook echt staat wat de AI beweert.
Advocaten hebben intern ook een blokkendoos principe. Ze hebben vele stukken tekst klaar staan, en schuiven het in het document in. En uiteraard iemand met kennis kan er meer uithalen in een kortere tijd. En er hoeft minder nagelezen te worden. Met AI denken we alles te kunnen doen. Zelfs grotereprogramma’s zijn een probleem omdat de prompt erg groot wordt en soms niet alles bevat. Menselijke fouten.
Dan leg je als advocaat die tekst gewoon naast je neer en doe je je werk.
Dat kan niet altijd, ik weet dat dit ook voor AVG verzoeken gebruikt wordt. Die moet je allemaal afhandelen. In sommige gevallen kan dit veel tijd kosten.
Kleine tip: wanneer je denkt dat een gesignaleerd probleem opgelost kan worden door "gewoon" dit of dat te doen, is dat waarschijnlijk geen oplossing. Dit geldt in 99,99% van de gevallen.
Dit verbaast me echt helemaal niets en ik heb de gevaren hiervan van dichtbij mogen ervaren.

Een vriendin van me ligt in een vechtscheiding en van haar kant kan ik de emoties wel begrijpen, maar juist in zo'n emotionele staat is het gevaarlijk dat je onzin krijgt gevoerd. Ik kan me alleen voorstellen dat ze tot laat in de nacht wakker is om "informatie" op te zoeken.

Hoe vaak ik wel niet heb moeten herhalen: "Laat het aan je advocaat over, bemoei je er niet mee, laat het gaan, ga geen acties ondernemen die later nadelig uit kunnen pakken".

En dat is het vooral: als jij iets doet, dan kan dat zeker nadelig uitpakken bij de rechter. Ik was zelfs zo ervaren genoeg om vanaf de voordeur alles te filmen toen we HUN huis ingingen om haar spullen te pakken. HUN auto die ze in gebruik heeft, hebben we direct foto's van gemaakt, vooral alle schade die al aanwezig was gedocumenteerd.

Zij was wel zo dom genoeg om op haar eigen houtje actie te ondernemen, alleen omdat online stond dat dat mocht. Overleg dat dan eerst met je advocaat, denk ik dan!

Als ik met mijn nuchtere kop naar de "informatie" kijk die ze heeft opgezocht, dan zie je meteen dat het onzin is, maar probeer dat haar maar eens wijs te maken.

Ik denk dat LLM's getraind zijn op Amerikaanse wetten of zo, of in ieder geval niet het verschil kunnen maken tussen landen.

Als iemand juridisch advies zoekt, zouden LLM's simpelweg moeten zeggen dat ze contact moeten opnemen met een advocaat. De wet is veel complexer dan een Google-query of het antwoord van een LLM.

[Reactie gewijzigd door TechSupreme op 16 februari 2026 11:55]

Als iemand juridisch advies zoekt, zouden LLM's simpelweg moeten zeggen dat ze contact moeten opnemen met een advocaat. De wet is veel complexer dan een Google-query of het antwoord van een LLM.
Tot op zekere hoogte. Je kan de LLM best eenvoudige vragen stellen als over wettelijke garantie termijnen en allerlei kleine zaken. Je moet ook gewoon direct om links vragen waar je het zelf kan nalezen.
Iets als dit heeft voor en nadelen. Nadeel mogelijk foute informatie, voordeel, minder vermogende of minder slimme mensen zouden weerbaarder kunnen worden.


Voor zoiets als een vechtscheiding in jou voorbeeld, ja, dat moet je aan een echte advocaat overlaten.
Probeer dat maar aan Jan met de Pet of Hannie met de Klompen wijs te maken. Die vertrouwen blindelings op die informatie.

Het is niet alleen met vechtscheidingen; er zijn genoeg andere situaties waarin het gevoel van onrecht sterk heerst en juist in zo'n staat ben je gevoelig voor desinformatie.

[Reactie gewijzigd door TechSupreme op 16 februari 2026 12:13]

Wat dat betreft is het op zich niet zo anders als artsen al jaren meemaken. Clienten die denken de ene na de andere dodelijke ziekte te hebben of het niet eens zijn met de arts omdat Google iets anders zegt.

Dat probleem is zich alleen aan het vergroten nu. Advocaten is één, maar hetzelfde geldt waarschijnlijk ook voor webshops.


Ik gebruik ook LLM's om zaken te laten controlen en vragen op te stellen voor mijn OR werk. Wel controleer ik de uitkomsten vaak door de links te volgen en vaak genoeg laat ik vragen weg omdat ik ze onzin vindt of de informatie niet klopt. Op die manier vragen opgestellen scheelt in ieder geval juridische kosten vanuit de OR. We krijgen nu regelmatig de melding vanuit de juristen die wij raadplegen, dat de informatie die we al hebben opgevraagd tijd scheelt. (en na verloop van tijd heb je al zoveel gelezen over onderwerpen dat je daar niet eens meer direct jurisch advies voor hoeft te vragen).
En toch verwijst mijn arts nu al jaren naar het web voor extra informatie. Bepaalde sites die ze aanbevelen hebben gewoon prima informatie. Maar dat is wel iets anders dan het de AI vragen. Maar ooit vond de arts dat je niet moest googlen, tegenwoordig zeggen ze dat je de juiste site moet googlen :)
Mensen moeten gewoon zelf blijven nadenken, met of zonder AI. Mensen die dat nu met AI niet doen, deden dat ook zonder AI niet. Als iemand iets perse wil vinden ze wel een excuus. Dat maakt niet dat er niet situaties zijn en manier van gebruik die AI nuttig kunnen maken.
Ik denk dat LLM's getraind zijn op Amerikaanse wetten of zo, of in ieder geval niet het verschil kunnen maken tussen landen.
Het Nederlands wetboek is openbare data, dus daar is ongetwijfeld op getrained. Maar het is ook getrained op Reddit, en Tweakers, en andere plekken die niet altijd feitelijk juiste data bevatten. Het model zou specifiek afgesteld moeten worden voor Nederlandse rechtspraak om een hoge mate van betrouwbaarheid te hebben (en zelfs dan blijven hallucinaties een ding).
Als iemand juridisch advies zoekt, zouden LLM's simpelweg moeten zeggen dat ze contact moeten opnemen met een advocaat. De wet is veel complexer dan een Google-query of het antwoord van een LLM.
Maar dat gaan die LLMs natuurlijk nooit doen, want dat druist in tegen het belangrijkste hype point: "AI gaat al het denkwerk vervangen". Die partijen die LLMs (met het naampje "AI") in de markt zetten, hebben er alleen maar belang bij dat zoveel mogelijk mensen ze op hun blauwe ogen geloven.
Niet alleen van cliënten. Ook wederpartijen schrijven soms brieven vol voetnoten met verwijzingen naar jurisprudentie die niet blijkt te bestaan.
Dat is voorgekomen, maar ik zou adviseren elke advocaat die je daarop betrapt naar de tuchtcommissie te verwijzen. Het is onderdeel van zijn werk om elke verwijzing te begrijpen en te controleren. Ik heb er niets tegen dat ze AI gebruiken als hulpmiddel, maar dat is geen excuus om het maar klakkeloos over te nemen.

Het is helaas niet de eerste keer dat een advocaat naar de tuchtcommissie moet (of bar association in de VS) omdat hij een hallucinate niet gecontroleerd had.
In Nederland is het doorgaans niet gebruikelijk om meteen (of voor alles) een klacht in te dienen. Overigens speelde in mijn voorbeeld dat de wederpartij meende geen advocaat nodig te hebben. In zulke gevallen geven wij vaak aan dat het verstandig kan zijn om juridische bijstand in te schakelen (maakt ons werk ook makkelijker).
Dat is altijd goed advies. Maar niettemin is een advocaat niet goedkoop. Als die je zaak verkloot omdat hij ongecontroleerd rommel uit een AI haalt dan vind ik dat wel een goede reden voor een klacht of restitutie.
In de al aangehaalde jurisprudentie zie je dat het een grond is om de daadwerkelijke kosten te verhalen op die wederpartij. Je hoeft je werk niet makkelijker te maken.
Ik zit in de advocatuur en volgens mij is het grootste 'probleem' niet zo zeer advocaten die het gebruiken, maar vooral mensen die door AI denken het wel zonder jurist of advocaat af te kunnen. Daar zit echt voor die mensen een groot gevaar, omdat er niet zelden gewoon complete onzin uit AI komt (al helemaal de gratis versies). Verweren waarmee ze eigenlijk zichzelf ondergraven, of juist aansprakelijkstellingen die nergens op slaan. Toevallig nu voor een klant brieven van verschillende mensen beoordeeld over hetzelfde onderwerp, en allemaal maken ze exact dezelfde juridische fout met een claim die nergens op gebaseerd is. Dat riekt dan toch sterk naar AI. En natuurlijk zijn er goede en slechte advocaten, maar over het algemeen heb je dan wel iemand die je adviseert over wat wel/niet haalbaar of verstandig is. Dat is voor iedereen beter, omdat men dan minder tijd kwijt is met het corrigeren of rechtzetten van totaal onrealistische zaken.
Gewoon professioneel advies is altijd goed en verstandig. Maar voor gewoon consumentrecht vragen is er best wel wat mogelijk. Je moet het wel nalezen aan de bron. Maar dat is voor echt kleine dingetjes als garanties en zo. Ik ben er voor verzekerd, maar voor veel mensen is een advocaat raadplegen een dure grap. En zelfs ik kan niet elke willekeurige vraag daar gaan stellen.

Ik zit er niet mee dat een advocaat het gebruikt om zijn werk makkelijker te maken. Ik ken er minsten 1 die dat doet. Maar die gebruikt het om vlug aanvliegpunten te vinden en samen te vatten zodat hij een startpunt heeft om na te lopen. Controle is nodig.


Maar een advocaat die je zaak verkloot omdat hij AI ongecontroleerd gebruikt? Ja dat zie ik zonder meer als reden voor restitutie en schadevergoeding en mogelijk een tuchtcommissie klacht. Je betaald die mensen voor heel gevoelige zaken en dan mag je wel iets verwachten. En het is niet dat het niet voorkomt. Genoeg voorbeelden in het nieuws.
Een van de grote problemen is dat vertegenwoordiging door een advocaat in Nederland niet altijd verplicht is. Het is onwaarschijnlijk dat je als eiser in een rechtzaak geen advocaat in de arm neemt. Een gedaagde die een paar honderd pagina's AI-hallucinatie combineert met zijn eigen emoties in een antwoord kan ik me heel goed voorstellen. Dat ontregelt niet alleen de schriftelijke afhandeling, maar ook de behandeling ter zitting, kan ik net zo goed voorstellen. Relatief kleine zaken kunnen zo heel snel uit de hand lopen. Dat dit dan leidt tot uurtje-factuurtje en dus voor de advocaat geen probleem, is niet waar. De rekening komt in het privaat recht meestal bij de verliezende partij te liggen, en in dit geval zal dat de partij zijn die op AI vertrouwt. Wie dat ook is, dat is een ramp bovenop een ramp.
Een van de grote problemen is dat vertegenwoordiging door een advocaat in Nederland niet altijd verplicht is.
Waarom zou dat altijd verplicht moeten zijn? Het zou volgens mij bizar zijn als ik een advocaat nodig had voor een simpele zaak waarbij de overheid zich niet aan een beslistermijn houdt. Of waar een Woo verzoek volledig is afgewezen terwijl het om een relatieve uitzonderingsgrond gaat ofzo. Of waar een verwerkingsverantwoordelijke mijn AVG inzageverzoek weigert te beantwoorden. Of etc.

Als voor dat soort zaken vertegenwoordiging verplicht wordt dan moeten we ook af van de vergoeding van de kosten van juridische bijstand die gebaseerd is op forfaitaire vergoedingen die in geen verhouding staan tot de echt gemaakte kosten.
Copilot geeft je zelfs twee totaal verschillende antwoorden wanneer je ‘Werk’ of ‘Web’ selecteert voor een juridische vraag.
Ik zit in de advocatuur en kan je vertellen dat ook de AI modellen van de grote juridische uitgevers dit overkomt. En die baseren zich enkel op juridische literatuur en niet openbare bronnen. Recent samen met een collega exact dezelfde (best uitgebreide) prompt voorgelegd waar een zwart-wit antwoord uit moest komen. Ik kreeg zwart (goed), hij kreeg wit (fout). Geeft aan dat het vooral een tekstanalyse is met voorspellingsfunctie, en niet écht begrijpt waar het over gaat.
Dat komt hoofdzakelijk omdat die bij "werk" het schuifje dichtzet dat hij op internet mag zoeken en het alleen doet met de data in zijn dataset en met data waar hij bij kan omdat het intern open is gezet. Daarmee vervalt de zoekfunctie van Bing die standaard meegepakt wordt.
Niet perse, werk copilot kan ook zoeken op het internet, het is een instelling.
Dit is niet alleen een probleem voor advocaten. Ik werk in tech support en het is nogal schrikbarend hoeveel klanten klagen over problemen die ze hebben die uiteindelijk werden veroorzaakt door volledige onzin die ze van (voornamelijk maar niet altijd) chatgpt hebben gekregen. Ik moet dan steeds opnieuw uitleggen dat ai chatbots gewoon géén betrouwbare antwoorden geven en álles met een flinke korrel zout genomen moet worden.

Te veel mensen zijn volledig onkritisch over de output van ai chatbots, en dat is echt gevaarlijk. Alle AI voorvechters lijken zich hiervan niet bewust te zijn of negeren dit volledig. Ik vrees voor de samenleving als zaken zoals chatgpt zoveel gebruikt wordt als openai graag zou willen.
Dat geloof ik direct! Ik doe een stukje 2e-lijns support op werk en zag dat we sinds kort ook een AI-Agent voor ICT vragen hebben.

je hebt gewoon van die problemen als ik de beschrijving lees ik al 90% zeker ben wat het probleem is.

Dus ik heb de klachten/symptomen in die Agent ingevoerd, meerdere keren maar de oplossing kwam niet eens in de buurt. Al geef ik de oplossing praktisch dan nog neemt het een andere afslag :X
Dit gaat in meer beroepen gebeuren. De AI geïnformeerde klant gaat alles "challengen" wat jij als expert in jouw vakgebied inbrengt. En dat heeft ook goede kanten, ik begrijp ook dat klanten redenen hebben kritisch te zijn. Maar het betekent wel extra werk. Mensen hebben nu een soort van gratis second opinion, die soms goed is, maar soms ook nergens op slaat door ontbrekende context en hallucinaties.
Huisartsen hebben al jaren last van mensen die symptomen Googelen (en vervolgens een discussie aangaan). Dat dit nu met AI gebeurd verbaasd me helemaal niets. Het gaat alleen maar erger worden. Ik ben met Claude.AI aan het stoeien en die komt soms met suggesties op de proppen waarvan ik denk, hoe kom je erbij. Dat laatste is natuurlijk lastig bij content waar je zelf weinig tot geen verstand van hebt.
Mijn broertje zit in een vechtscheiding welke een stuk erger gemaakt werd omdat zowel hij als zijn ex constant chatgpt aan het gebruiken waren en dat zagen als de waarheid.

Meermaals hem op het hart gedrukt dat dit niet de manier is en uiteindelijk toch maar een echte scheidingsadvocaat aangetrokken. Die maakte, na een gepeperde rekening a 600 euro per uur, even gehakt van zijn mooie chatgpt ideeën.


Het hele drama had 6 maanden korter, tienduizenden euros goedkoper, en met heel wat minder drama voor de kinderen kunnen zijn als ze geen vertrouwen in de chatgpt hadden gelegd.
Het zou al helpen als zo'n LLM chatbot kan zeggen;

- Dit weet ik niet.

- Dit weet ik niet zeker.

- Hier moet je mij niet om hulp voor vragen (financieel, juridisch, medisch, psychologisch, engineering en andere gerelateerde gebieden).

Maar nee, dan wordt zo'n general-purpose LLM teveel een stuk speelgoed, en dat is niet goed om bubbels op te kunnen blazen.
Bijna elke moderne chatbot heeft "guardrails" die proberen te voorkomen dat je zulke dingen doet.

Twee problemen: Musk vindt dat soort veiligheid te woke, en andere LLMs kun je nog wel eens overtuigen dat het niet echt is omdat je bijvoorbeeld een boek schrijft. (En dan is juridische nauwkeurigheid niet meer essentieel)
Mensen moeten eens beter geïnformeerd worden, want de kapitalistische wereld verpakt het allemaal veel te rooskleurig. Een LLM is niets meer dan een algoritme dat de volgorde van letters voorspeld. Er zit zo goed als geen logica achter. 1 plus 1 is 2 omdat de data die volgorde bevat, niet omdat het LLM begrijpt wat een 1 is of wat een plus betekend.

Om te kunnen reageren moet je ingelogd zijn