Rechtspraak stelt AI-strategie vast, ziet kansen voor beperkt gebruik van AI

De Nederlandse Rechtspraak heeft een strategie vastgesteld voor het gebruik van AI binnen het rechterlijke domein. De Rechtspraak ziet veel potentie in het gebruik van AI, maar wil het vooralsnog alleen inzetten bij laagrisicoprocessen.

De Rechtspraak ziet naar eigen zeggen het belang om mee te gaan in de ontwikkelingen rond AI, omdat het veel potentie biedt. Denk aan het maken van planningen, het pseudonimiseren van uitspraken of het automatisch samenvatten van uitspraken op B1-taalniveau. Maar AI brengt ook risico's met zich mee, benadrukt de Rechtspraak. Zo heeft AI het potentieel om de rechterlijke autonomie direct en indirect te beïnvloeden. Daar wordt in de Europese AI-verordening al rekening mee gehouden, door strenge eisen te stellen aan de inzet van AI in het rechterlijke domein. "Eisen waaraan huidige beschikbare AI-toepassingen nog niet voldoen", zegt de Rechtspraak.

Om verantwoord met AI om te gaan, heeft de Rechtspraak een tienpuntenplan opgesteld. Als onderdeel daarvan wil de organisatie AI vooralsnog alleen gebruiken bij laagrisicoprocessen. Het gaat dan specifiek om toepassingen die buiten het rechterlijke domein vallen, zoals een chatbot die bezoekers van de website ondersteunt bij het zoeken naar informatie. "Door een 'learning-by-doing'-benadering wordt kennis en kunde opgebouwd, zowel technisch als juridisch en organisatorisch. Hiermee wordt een stevige basis gelegd om in de toekomst te kunnen voldoen aan de strenge eisen die worden gesteld aan hoogrisico-AI."

Verder ontwikkelt de Rechtspraak een afwegingskader voor het gebruik van AI, waarop onafhankelijk toezicht moet komen. Ook worden visies, reglementen en afspraken opgesteld en wordt geïnvesteerd in voorlichting en training voor de omgang met AI. De Rechtspraak wil daarnaast blijven investeren en participeren in publieke initiatieven, blijven experimenteren en investeren in een data- en AI-platform dat kan opschalen om daadwerkelijk toegevoegde waarde te leveren voor gerechten en rechtzoekenden.

De Rechtspraak belooft verder werk te maken van het voortdurend verbeteren van de kwaliteit en beschikbaarheid van rechtspraakgegevens, 'omdat we beseffen dat deze randvoorwaardelijk zijn voor het gebruik van AI'. Tot slot zorgt de organisatie voor adequate besturing en monitoring van AI-projecten en AI-toepassingen, bijvoorbeeld door transparant te zijn over de inzet van AI.

Door Eveline Meijer

Nieuwsredacteur

05-06-2025 • 13:14

32

Submitter: Skit3000

Reacties (32)

32
32
7
2
0
24
Wijzig sortering
Je kan alle AI inzetten die je wil, dat verhelpt het probleem niet: de stapels papier, en strafdossiers die 100.000 bladzijden lang kunnen zijn (om nog te zwijgen van alle beëdigde vertalingen van zodra 1 persoon geen Nederlands spreekt). Daardoor gaat het traag en wordt het onbevattelijk, daardoor kalft het begrip ervoor af bij de samenleving.

Als ze echt effectiever willen werken, dan moet men durven schrappen in procedures en papier. Van de strijdende partijen eisen dat ze hun vordering en argumentatie uiteenzetten op 2 velletjes A4 bijvoorbeeld. Dat zou pas effect hebben.
Het lijkt dat de rechtspraak de ideale kandidaat is om te automatiseren met AI, maar er komt zoveel akelig veel bij kijken. Strafrecht is maar 11% van het werk van de Rechtspraak. Veel van de zaken zijn kantonzaken in Nederland: https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Raad-voor-de-rechtspraak/Jaardocumenten/jaarverslag-rechtspraak-2024/Paginas/2024-in-cijfers.aspx#tabs

De Taghi's in Nederland zijn zeldzaam. Wat je dus hebt is dat de meeste rechters uitspraken doen over scheidingen, huurachterstanden of kleinere conflicten waar je niet een heel team achter zet. Deze uitspraken zijn van zichzelf heel compact en duidelijk omschreven.

Een tweede ding is waarheid bevinding. Op basis van gepresenteerde feiten maakt de rechter een weging wat de waarheid is en kan aan de hand van een wet toetsen en normeren. Wanneer een AI dit proces zou gaan samenvatten of veel compacter maken lopen we het risico dat er gaten ontstaan. Soms wil de rechter iets niet wollig of uitgebreid omschrijven, maar moet dit 100% helder te maken waarom deze persoon een boete krijgt van 10k. Als er iets is wat juist het vertrouwen in de rechtspraak aantast is wanneer een AI in absoluten gaat praten of dingen zo wil versimpelen dat je alle nuance verliest.

De rechtspraak heeft vooral nu aantasting omdat mensen het idee dat rechters politieke partijen tegenhouden. Wat dacht je van een faber die willens en wetens een wet wil doordrukken wat juridisch gewoon niet kan: https://www.nrc.nl/nieuws/2024/12/19/bezorgde-en-geschrokken-juristen-de-wetsvoorstellen-van-minister-faber-stuiten-vooral-op-weerstand-a4877245 . De frame is: deze rechter houd mij tegen, door hem komen immigranten het land in. Dit is niet te fixen met AI.
Zoals ik de berichtgeving interpreteer willen ze nu al teveel tegelijk.
Laat AI zich eerst maar eens bewijzen in herkenning van overlap in wetgeving, jurisprudentie en wetsvorming met controle op overlap met andere wetten.

Hoe efficiënter je wetgeving, des te efficiënter je rechtsspraak zou kunnen zijn. Pas als duidelijk is dat door bovenstaande inzet AI de haken en ogen van de Nederlands/Europese wetgeving bij wijze van spreken in z'n achterzak heeft, dan zou je een experiment van een jaar of vijf kunnen opzetten om conclusies van AI in rechtszaken met die van rechters te vergelijken.

Met het model dat daaruit rolt kun je volgens mij dan eigenlijk pas bepalen of AI in de rechtsspraak een nuttige toevoeging kan zijn. In later stadium zou je ook de wetgeving van je buurlanden aan 't ding kunnen voeren, om 'm wat meer harmonisering in wetgeving met buurlanden voor te laten stellen, eventueel (als hij dat goed blijkt te doen) te toetsen.

Daarna laat je AI uitzoeken wie onterecht vast zou kunnen zitten of is beboet. Het is namelijk wel zo wijs om enig draagvlak voor de toepassing van zo'n systeem te creëren.
Zien Nederlanders er het voordeel van in, dan zal AI ook sneller in een goede vorm worden geaccepteerd.

Het gaat m.i. namelijk niet om 'we doen omdat we het kunnen doen', maar om 'wat als.... dan zou misschien...'. Je zit niet te wachten op 'we doen wat we doen en vraag niet waarom'. Iets om mordicus tegen te zijn, vooral omdat die houding al jaren wordt aangenomen.

Een rechtsspraaktraditie van meer dan honderd jaar donder je niet zomaar even in een machine en al helemaal niet in de prullenbak. Dat laatste is nu nog fictie. Kom daar over tien jaar maar eens om als een nieuwe generatie respectloos met een gevestigde traditie niets blijkt te hebben...
Dat hangt er van af, Ai moet dan wel een toon kunnen zetten en instaat zijn om een indruk op te wekken waarbij de rechter tot een veroordeling komt. Het OM is bepaald niet vrij van vilein of vals spel om tot veroordelingen te komen.
Er zijn natuurlijk genoeg zaken die zich prima lenen voor een argumentatie op twee pagina's, en voor een winkeldiefstal heb je aan een halve ook wel genoeg. Maar de wat meer ingewikkelde zaken lenen zich daar absoluut niet voor. Ik zou werkelijk niet weten hoe je een dossier van 100.000 pagina's (zo lang zijn ze zelden tot nooit hoor) onderuit zou moeten halen met twee pagina's aan argumentatie. Dat heeft weinig te maken met 'durven schrappen'; dat is gewoon volstrekt onzorgvuldig en leidt tot een oneerlijk proces. En dat zeg ik als strafrechter.
Je zou AI kunnen inzetten om die stapels papier te digitaliseren en indexeren? om maar eens iets simpels te noemen.
Ik mag hopen dat AI dan ook vooral lokaal gehost moet worden dan de modellen van grote techbedrijven te gebruiken die ze zich voeden met juridische correspondentie. Lijkt me kwalijke zaak anders, waar volgens mij (indirect en onbewust) hoop gevoelige informatie gedeeld wordt.
Uitspraken zijn vaak al digitaal beschikbaar. Verschil is wel dat die anoniem zijn en de stukken waar ze hier mee beginnen dat niet zijn.
Uitspraken zijn vaak al digitaal beschikbaar. Verschil is wel dat die anoniem zijn en de stukken waar ze hier mee beginnen dat niet zijn.
Dat klopt. Ik zoek af en toe via Rechtspraak wel eens wat op. Maar een uitspraak is slechts een deel van de juridische documenten die je in het proces hebt.
Een strategie zegt alleen iets over het wat niet over het hoe.
Een strategie zegt alleen iets over het wat niet over het hoe.
Ik doelde ook niet inhoudelijk op strategie, maar wel over randvoorwaarden aan het gevolg door het toestaan van AI.
Bij ieder betaald (danwel O365, danwel een andere provider) GPT-achtige oplossing wordt je data uberhaupt niet opgeslagen en ook het foundation model niet op getraind. Er is verder geen enkele reden om daarom modellen lokaal te gaan draaien, en privacy is een van de punten in de AI strategie van Rechtspraak.
Bij ieder betaald (danwel O365, danwel een andere provider) GPT-achtige oplossing wordt je data uberhaupt niet opgeslagen en ook het foundation model niet op getraind. Er is verder geen enkele reden om daarom modellen lokaal te gaan draaien, en privacy is een van de punten in de AI strategie van Rechtspraak.
Hoe weten we dit? En hoe wordt geborgd dat dit echt zo is? Het kan toch juist als extra waardevolle databron fungeren om je modellen te trainen?
Good point.
En om eerlijk te zijn: stiekem heb ik in die context een vermoeden waarom die verherbouwing van het Binnenhof 'ineens' zoveel geld moest kosten... Moeten ze wel zuinig zijn op de data. Universiteiten waren dat vaak niet, waardoor een complete, miljoenen gesubsidieerde historie aan kennismateriaal verloren ging; weet u die nog?
AI gaat zeker niet online publiekelijk gehost worden. AI is nu binnen de Rechtspraak bijna volledig niet toegestaan en AI modellen die online gehost worden bij publieke diensten is een absolute no-go i.v.m de privacy. Het idee is dan ook een interne AI-tool waar de gehele organisatie van rechter tot technische ondersteuning gebruik kan van kan maken zonder zorgen over de privacy en data deling.

[Reactie gewijzigd door jirad op 6 juni 2025 10:55]

Als onderdeel daarvan wil de organisatie AI vooralsnog alleen gebruiken bij laagrisicoprocessen. Het gaat dan specifiek om toepassingen die buiten het rechterlijke domein vallen, zoals een chatbot die bezoekers van de website ondersteunt bij het zoeken naar informatie.
Overheid en ICT is geen goede match, dus met AI is het wachten op problemen.
Ik ben benieuwd naar de proefprocessen(mochten deze er komen)
Dat ligt natuurlijk maar net aan de manier waarop AI wordt ingezet, want de ene soort AI is de andere niet.

Wanneer dat analytisch is (doorzoek alle uitspraken aan de hand van zoekopdrachten A, B, C en D, vat deze samen en geef de bronnen), kan dat heel veel tijd schelen om de jurisprudentie voor een uitspraak in een bepaalde zaak te verkrijgen.

Gaat het om generatieve AI (schrijf een uitspraak aan de hand van zoekopdrachten A, B, C en D) dan kun je daar wél vraagtekens bij zetten; dan zet je de AI op de stoel van de rechter.
De overheid zou een eigen IT-opleiding op moeten zetten.
IT is inmiddels dermate belangrijk geworden, dat je daar wat mij betreft goed opgeleide mensen voor aantrekt, zorgvuldig screent, opleidt en beëdigt. Staatsveilige data zou wat mij betreft ook over een fysiek strikt gescheiden netwerk moeten lopen, niet via digital carbage can internet.

Je kunt beveiligen wat je wilt, maar als je het over een openbaar netwerk jast, dan voorzie ik toch steeds weer problemen. Vooral als je kijkt naar wat ons in het kwantumtijdperk wordt voorspeld.

[Reactie gewijzigd door Mextreme op 6 juni 2025 09:46]

Mooi gezegd.
Ben het met je eens, mensen aantrekken, opleiden en zien te behouden.
Ja, het kwamtumtijdperk, dat wordt vast ook nog heel leuk.
Overheid en ICT is geen goede match[...]
Elke organisatie/ bedrijf heeft problemen met ICT. Maar waar private organisaties en bedrijven hun missers onder het tapijt kunnen vegen, komt het bij de overheid altijd in de openbaarheid, waardoor de perceptie kan ontstaan dat het vooral de overheid is die problemen met ICT heeft.
Nee, het gaat het om compleet uit de hand gelopen projecten, zoals nu ook weer het C2000
dit is publiek geld, daarover is meer verantwoording nodig dan bedrijven die winst maken en daar heeft niemand verder last van.
Ik ben met je eens dat er bij overheidsprojecten meer verantwoording afgelegd moet worden.

Maar dat betekent niet dat er bij bedrijven niet net zulke grote missers gemaakt worden (al zijn er weinig bedrijven die projecten van vergelijkbare omvang hebben). Ze hebben alleen meer mogelijkheden om de missers te verberegen.
Het gaat niet om het verbergen, het gaat om het maken van fouten waarbij belastinggeld wordt verkwist.
Ik lig er niet wakker van, al is het zonder van de tijd en geld, dat bedrijven soms complete projecten stoppen na andere inzichten en miljoenen weggooien, ze hebben het tenslotte zelf verdiend.
Ik ben dit al meerdere keren meegemaakt.
Zo heeft AI het potentieel om de rechterlijke autonomie direct en indirect te beïnvloeden.
Dit gebeurt hoe dan ook, welke keuzes we in NL ook maken. Keuzes die bewust met die realiteit omgaan zijn belangrijk.

Mensen kunnen extern worden beïnvloed en tegen de rechtspraak worden opgezet, of overtuigd van dienst partijdigheid. Als we maar zo voorzichtig mogelijk doen met AI dan kunnen we dat wellicht minder goed pareren. Een webpagina van De Rechtspraak die bijvoorbeeld vonnissen uitlegt en actief misinformatie kan weerleggen zou wel een goed idee kunnen zijn.
Zie de (meerdere) zaken waarbij advocaten een verweer door de AI lieten schrijven (inclusief hallucinaties) ;-) (uiteraard in 'the land of the free').
Chatbots, de uitvinding van de duivel (zou deze bestaan). Wat een ondingen zijn dat. Ik communiceer liever met een mens dan tegen een computerprogramma te "praten". Ai kan misschien een goed hulpmiddel zijn maar ontzettend irritant en vaak compleet nutteloos. En het ergste is dat de bedrijven hun telefoonnummer zo moeilijk vindbaar maken (probeer maar het telefoonnummer van DHL op hun site te vinden)

Ai in de rechtspraak? Ik hoop dat de rechters nooit, maar echt nooit vervangen worden door de huidige (en toekomstige) Ai. Een computerprogramma waarvan niemand echt weet waarom deze bepaalde beslissingen maakt, die het leven van een mens (schuldig of onschuldig) gaat beïnvloed. Dus zonder enige emotie. Probeer dan maar eens de beslissingen proberen terug te draaien bij een bug of wanneer de data die gebruikt was om de AI te leren recht te spreken, "gekleurd" of zelfs dat men per ongeluk (of niet) racisties of discriminerend data gebruikt heeft.
EDIT: Heel raar, ik had een begin gemaakt van een reactie, dat verwijderd en daarna iets anders geschreven. Komt na het plaatsen opeens die eerste versie tevoorschijn.

Ik heb geen zin meer om het opnieuw te typen, dus sorry voor het innemen van ieders verticale pixelruimte.

[Reactie gewijzigd door Skit3000 op 5 juni 2025 15:22]

Laten we eerst even helder stellen dat het nu nog totaal niet de bedoeling is om AI recht te laten spreken. Enkel nog voor het klaarstomen van publieksinformatie over rechtspraak. Op termijn zal daar wellicht het schrijven van een vonnis bijkomen, nadat de rechter uitspraak heeft gedaan.

Wanneer het zo ver zou komen dat een AI zelfstandig recht gaat spreken, zal het net als een menselijke rechter nu een vonnis moeten uitspreken/ uitschrijven waarin de zaak wordt uitgelegd en de uitspraak wordt uitgelegd. Dus welke feiten tot welke conclusies hebben geleid en welke conclusies tot de uitspraak hebben geleid en waarom (op welke rechtsgrond). Dat vonnis is niet enkel de uitleg hoe en waarom tot de uitspraak is gekomen, maar kan ook aanknopingspunten geven om in hoger beroep/ cassatie te gaan.

Zelfs wanneer een AI ooit onfeilbaar zou worden en op basis van de feiten een 100% juridisch juiste uitspraak kunnen doen, zal uit een uitgeschreven vonnis kunnen blijken dat de feiten niet compleet, onjuist of verkeerd geïnterpreteerd zijn.
Ik snapte als Vlaming niet wat " Rechtspraak" inhield, in hun "over" sectie
Verantwoordelijkheid voor de inhoud
Het Landelijk Dienstencentrum van de Rechtspraak (LDCR) beheert de inhoud van de website www.rechtspraak.nl. Dat doet het LDCR in opdracht van de Raad voor de rechtspraak (Rvdr). Uitzonderingen hierop zijn de nieuwsberichten en de organisatie-informatie over de Rechtspraak. Rechtbanken, beroepscolleges en de Rvdr schrijven en plaatsen de nieuwsberichten op deze website. De Rvdr beheert de organisatie-informatie over de Rechtspraak.

IVO Rechtspraak, de ICT-organisatie van de Rechtspraak, beheert mijn.rechtspraak.nl (de digitale diensten van de Rechtspraak) in opdracht van de Rvdr.
als ik het artikel vluchtig doorlees gaat het eerder over hun eigen processen van "De Rechtspraak" en in de bewijsvoering (dus door advocaten), maar daarom nog niet over het gebruik van AI door de rechterlijke macht aka de rechter/rechtbank zélf.
Voor die conclusie kan je ook letterlijk het artikel waar je onder reageert lezen
Als onderdeel daarvan wil de organisatie AI vooralsnog alleen gebruiken bij laagrisicoprocessen. Het gaat dan specifiek om toepassingen die buiten het rechterlijke domein vallen, zoals een chatbot die bezoekers van de website ondersteunt bij het zoeken naar informatie.

Op dit item kan niet meer gereageerd worden.