Rechtbank Rotterdam experimenteert met AI voor hulp bij opstellen strafvonnis

De Rechtbank Rotterdam heeft AI ingezet als schrijfhulp bij het opstellen van het strafvonnis. Het is niet duidelijk welke AI-tool hiervoor gebruikt is. De AI zou geen invloed hebben gehad op het nemen van rechterlijke beslissingen. Het gaat om een proef.

Op rechtspraak.nl is te lezen dat AI als proef is ingezet als hulpmiddel bij het opstellen van een concept voor een strafmotivering. In dat onderdeel van het strafvonnis wordt uitgelegd hoe de rechtbank tot een bepaalde straf is gekomen. Directe betrokkenen in de betreffende strafzaak zijn direct na de uitspraak op de hoogte gebracht van het gebruik van AI als schrijfhulp.

Volgens de Rechtspraak heeft de Rotterdamse rechtbank geen privacygevoelige informatie en feiten die herleidbaar zijn tot de zaak en betrokkenen gedeeld met de AI. In plaats daarvan zijn de suggesties en formuleringen van de AI gebaseerd op 'korte algemene feiten en omstandigheden', die 'zorgvuldig beoordeeld en geselecteerd' zijn door de strafrechters en de griffier. Er wordt benadrukt dat er bij het opstellen van de strafmotivering geen beslissingen zijn genomen door de AI.

Hoewel de rechters en de griffier het gebruik van AI in de betreffende zaak positief ervaren hebben, zal het gebruik van 'openbare' AI-tools mogelijk niet vaak worden herhaald. Volgens de Rechtspraak zou de effectiviteit van AI beperkt blijven door de beperkte invoer van informatie wegens privacyredenen. Als alternatief wordt een intern afgeschermd AI-systeem genoemd, dat speciaal voor de Rechtspraak zou worden ontworpen. Alle gepubliceerde strafvonnissen op rechtspraak.nl zouden volgens de betrokken rechters en griffier verzameld kunnen worden in een afgeschermde database en geïntegreerd worden in een beveiligde AI-toepassing. Daardoor zouden strafrechters relevantere en specifiekere informatie kunnen invoeren.

Het is niet voor het eerst dat AI wordt ingezet als hulpmiddel in de Nederlandse rechtspraak. In augustus vorig jaar refereerde een rechter voor het eerst aan het gebruik van ChatGPT. Daarbij vroeg de rechter de chatbot onder andere naar de gemiddelde levensduur van zonnepanelen. De zaak in kwestie draaide om een huiseigenaar die verwachtte minder rendement te halen met zijn zonnepanelen door de plaatsing van een opbouw op het huis van de buurman. De uitspraak in deze zaak werd deels op het antwoord van ChatGPT gebaseerd.

Door Sabine Schults

Redacteur

26-03-2025 • 14:41

41

Submitter: Anonymoussaurus

Reacties (41)

41
39
22
3
0
10
Wijzig sortering
Het is best even zoeken naar waar inzet van AI voor rechtspraak voordeel gaat opleveren. Als schrijfhulp zie ik het, maar dan houd je die uitvoer héél kort en kernachtig. "Herschrijf deze zin voor helderheid" is voor mijzelf een favoriete prompt, maar blijf met je statistische fikken van mijn feiten af.

Rechtspraak is vrij formalistisch in hoe een vonnis wordt opgebouwd, maar ook hoe je dingen motiveert. Je ziet bij zaken vaak standaardformuleringen om vaste jurisprudentie aan te halen. Een bekende is
Bij een botsing tussen enerzijds het door artikel 7 Grondwet (Gw) en artikel 10 van het Europees verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden (EVRM) gewaarborgde recht op vrijheid van meningsuiting en anderzijds het door artikel 10 Gw en artikel 8 EVRM beschermde recht op eerbiediging van de persoonlijke levenssfeer – waaronder het door haar ingeroepen recht op bescherming van de goede naam/reputatie is begrepen (EHRM 15 november 2007, no. 12556/03, Pfeifer/Oostenrijk, EHRC 2008, 6) – moet het antwoord op de vraag welk van deze beide rechten in het concrete geval zwaarder weegt, worden gevonden door een afweging van alle terzake dienende omstandigheden van het geval.
Daarna moet je al snel de jurisprudentie toesnijden op de zaak. En dat moet op een bepaalde manier, want als je niet de subsidiariteit expliciet benoemt dan kan een partij daarover piepen in hoger beroep. Daar kun je dan een sjabloon voor gebruiken, maar dat komt de leesbaarheid niet ten goede. Een LLM dat je teksten op maat schrijft vanaf jouw sjabloon is dan volgens mij een prima manier.

Ik denk wel dat je écht moet afstappen van het idee dat dit met een one-shot prompt kan.
Gek genoeg is mijn eerste intuïtie juist dat dit een hele goede plek ik om AI in te zetten.
Zoals ik het zie is, laten we zeggen het geschreven recht, bij uitstek een plek waar puur voor de leesbaarheid de bezem wel eens door kan. Ik begrijp best dat het een opeenstapeling van historisch gegroeide rechtsgang en denkwerk betreft, dat laat onverlet dat het deels een archaïsch, complex, onleesbaar en soms regelrecht tegenstrijdige verzameling informatie geworden is. Dat dit voor een deel ook regelrecht het doel van ons rechtssysteem is kan rustig zo blijven, anders zou je met een grote berg als dan regeltjes de boel door een computer kunnen laten beslissen.
Ieder burger wordt wel geacht wordt de wet te kennen, dan is het niet verkeerd in te zetten op verbetering. Ik denk dat AI daar toch veel aan kan bijdragen, dat hoeft natuurlijk geen afbreuk te doen aan de rechtspraak en kan het zelfs rechtvaardiger maken.
Het probleem is dat veel tekst inderdaad aanzienlijk minder archaïsch kan (al zijn de laatste jaren enorme stappen gezet), maar een deel ook JUIST niet. Zolang we met exacte formuleringen in wet en jurisprudentie hebben te dealen, zie ik niet helemaal in hoe losser formuleren van die delen tot meer rechtvaardigheid zou leiden. Ik denk dat je dan het tegendeel bereikt en het er alleen maar onduidelijker op wordt.
Al in de jaren negentig is geprobeerd of we niet met eenvoudiger taal kunnen procederen. Dat is in 1996 keihard afgewezen door de Hoge Raad (Klare Taal I arrest). Je moet álle wettelijke componenten noemen en wel precies met de naam uit de wet, anders weet de verdachte niet waarop hij wordt veroordeeld. In deze dagvaarding stond "Hij heeft op 8 juli 1993 in [plek] de ruiten "van de voordeur van [betrokkene] vernield". ChatGPT zou het ook zo zeggen. Maar nu is niet duidelijk of je bedoelt per ongeluk of opzettelijk, of hij dat mocht of niet, enzovoorts. In de 'oude' tenlastenlegging staat dat wel allemaal. En natuurlijk, je kunt dat er dan even bij zetten maar dan vervang je alleen "opzettelijk en wederrechtelijk" door "niet per ongeluk en zonder dat het mocht".

Ik ben het met je eens dat het systeem als geheel een uit de klauwen gegroeid stelsel van patches en hotfixes is waar geen werkelijke structuur meer in zit. Als ingenieur ben ik dan weer héél huiverig voor Version 2 syndrome (https://www.joelonsoftwar...u-should-never-do-part-i/) want de gedachte dat je met een beetje goeie wil de wet opnieuw kunt opzetten in een mooie serie beslisbomen is al zéér zeer regelmatig keihard met z'n grote teen tegen de werkelijkheid aan geknald. De eerste 80% lukt prima, daarna krijg je de moeilijke gevallen. Ik denk dat er meer nodig is, maar weet niet goed wat.
Dit gaat zo te zien dan ook alleen over de strafmotivering. Dat is een stuk vrijer en ook algemener dan een bewijsmotivering, waar het inderdaad noodzakelijk is om heel precies te formuleren.
Als je iets niet wilt lijkt het me AI in vonnissen wel. AI komt met verzonnen arresten.

https://www.advocatie.nl/...stel%20van%20de%20zitting.
En was dat een AI getraind specifiek voor deze taak? Waarschijnlijk niet. AI is niet 1 model, er zijn heel veel verschillende, met verschillende expertise, verschillende trainingsdata etc etc. Je kunt AI niet zomaar op een hoop gooien als je naar functionaliteit en resultaat kijkt.
Niet reageren op de titel, reageren op de inhoud :) Dit gaat specifiek niet om het vormen van een vonnis maar het process daarna.
Ik ga niet zeggen of het goed of fout is, maar als ik mij niet vergis is een LLM juist gericht op het maken van het gemiddelde rapport, waardoor je in zekere zin een samenvatting krijgt van alle casi die vergelijkbaar zijn en welke straffen er gemiddeld uitkwamen. Dan kan de rechter kijken of deze zaak schrijnender or minder schrijnend is. Is het goed? Dat zullen we dus nog maar moeten zien.
En daarom experimenteer je.

Zolang de mens het laatste woord heeft en er voldaan wordt aan veel criteria, zal het de rechtspraak gaan versnellen. En daar hoop ik op.

Wat denk je dat een rechter nu doet? Oude cases erbij pakken om een strafmaat te bedenken, op basis van de motivatie. Daarbij kan AI zaken versnellen.
Ik ga niet zeggen of het goed of fout is, maar als ik mij niet vergis is een LLM juist gericht op het maken van het gemiddelde rapport, waardoor je in zekere zin een samenvatting krijgt van alle casi die vergelijkbaar zijn en welke straffen er gemiddeld uitkwamen.
In het artikel wordt expliciet vermeldt dat het niet wordt gebruikt voor bepaling vd strafmaat maar voor "...strafmotivering. In dat onderdeel van het strafvonnis wordt uitgelegd hoe de rechtbank tot een bepaalde straf is gekomen."

Verder ben van mening LLM veel te vaak wordt misbruikt/verkeerd wordt gebruikt, maar een LLM kan heel erg worden beperkt in creativiteit en worden toegespitst op zeer specifieke toepassingen.
Dan nog zullen er mensen aan te pas moeten komen om het resultaat te beoordelen, en aangezien het doel is om mensen tijd/werk te besparen is het waarschijnlijk dat er een bias zal zijn om het resultaat goed te keuren, waardoor de kans groter wordt dat onjuiste resultaten worden goedgekeurd.

Het is vergelijkbaar met autos met drive assist waarbij de bestuurder altijd 100% geconcentreerd moet blijven om snel te kunnen ingrijpen terwijl er meestal niets gebeurt, anders loop je het risico dat je moet ingrijpen terwijl net even niet goed oplet.
De vraag is of dat qua veiligheid (correctheid vh resultaat) niet lastiger is dan wanneer de mens zelf continue hands-on werkt.
Ik denk dat ik het veelal met je eens ben, op dit onderwerp.
Ik zie het al gebeuren dat de AI zich vergist met hoe Decimalen werken.
gezien er een verschil is tussen 10,25 jaar en 10.25 jaar

in nederland gebruiken we namelijk een komma, maar in Amerika gebruiken ze bv een punt.

Hierdoor kan je het hebben dat de AI zegt dat iemand voor 10.25 jaar [1025 jaar] in de gevangenis moet, voor iets wat maar bestraft wordt met max 10,25 jaar

JA visueel ziet het er hetzelfde uit, en kan de rechter het verbaal wel corrigeren, maar schriftelijk is het fout
En hoef vaak gebruik je decimalen bij een jaartal?..... beetje onrealistisch voorbeeld.
Weet je wat moeilijk is met computers? Afrondingsverschillen, tijdzones/notaties en valuta. Een systeem wat gebaseerd is op kansberekeningen is dit probleem eenmaal groter.

[Reactie gewijzigd door com2,1ghz op 26 maart 2025 15:39]

Volgens mij wordt er in vonnissen sowieso niet iets als 10,25 jaar gebruikt, maar 10 jaar en 3 maanden cel.

Je voorbeeld is sowieso matig, als ik 2 cijfers achter de komma/punt zie denk ik al, hier klopt iets niet.
1025 jaar schrijf je namelijk als 1.025 jaar, niet 10.25 jaar.
In Nederland schrijven we een punt vanaf duizendtallen, dus die 10.25 van jou zou dan 10.250 jaar en niet 1.025 jaar worden - dus dat is tien keer zo lang. Zulke lange straffen kennen we in Nederland sowieso niet en dat is dus makkelijk te weerleggen in een hoger beroep.

Uiteraard neemt een AI ook geen beslissing over de op te leggen strafmaat, dat doet de rechter. Het is wel een nuttig hulpmiddel om grote hoeveelheden jurisprudentie van vergelijkbare zaken te doorzoeken en te zien welke straffen daarin zijn gegeven. En je kunt misschien ook zoeken op specifieke omstandigheden binnen zaken, die er voor zorgden dat een straf hoger of lager uitviel dan "gemiddeld".
Gelukkig is een celstraf van 10,25 jaar uitdelen sowieso al niet toegestaan.

Zie artikel 21 Wetboek van Strafrecht:
De duur van de tijdelijke gevangenisstraf en de hechtenis wordt in de rechterlijke uitspraak aangewezen in dagen, weken, maanden en jaren, niet in gedeelten daarvan.

[Reactie gewijzigd door Lan Mandragoran op 26 maart 2025 15:59]

Van alles wat je kan bedenken waarom AI binnen rechtspraak geen fijn plan is, is dit wel het meest vergezochte en minst relevante probleem.
Advies om niet de term ‘privacygevoelige informatie’ te gebruiken. Wat is privacy gevoelig? Dat is voor iedereen weer wat anders. Wss wordt hier bedoeld dat er geen persoonsgegevens in staan.
Zolang ze dit (zie link) nog niet onder controle hebben lijkt mij het nogal discutabel om rechtspraken op AI te baseren. Miss kan AI wel een goede tool zijn om door de lange wetboeken heen te waden

https://cybersecurity-bit...idische%20onderzoekstools.
Misschien handig om eerst het artikel eens goed te lezen?
Er wordt dan ook geen rechtspraak op AI gebaseerd. De AI wordt gebruikt om een vonnis uit te schrijven.
Het zal wel zijn omdat nieuwsberichten nooit uitvoerig op alle details in gaan en het dus lastig is om het nieuws precies op waarde te schatten, maar dit komt me vreemd voor:
  • AI wordt gebruikt om een concept motivatie voor het vonnis de straf te schrijven.
  • Maar de AI treft het vonnis bepaalt de straf niet, dat doet de rechter. De rechter is dus degene die de motivatie kent.
  • Invoer voor de AI bestaat uit "korte algemene feiten en omstandigheden van de zaak"
  • Hoe weet de AI wat de motivatie van de rechter was?
De suggesties en formuleringen die door de AI voor de strafmotivering zijn aangedragen op grond van ingevoerde korte algemene feiten en omstandigheden van de zaak zijn zorgvuldig beoordeeld en geselecteerd door de strafrechters en de griffier.
Het lijkt er op dat de AI het een en ander aandraagt en dat de rechter dan zegt "Ja dat bedoel ik".
Als je hier bewust mee omgaat hoeft dat geen probleem te zijn, maar er zit wel een risico aan. Maar zoals gezegd, de nodige details voor een oordeel ontbreken.

edit: @Lan Mandragoran heeft gelijk. aangepast.

[Reactie gewijzigd door locke960 op 26 maart 2025 16:09]

Geen motivering van het vonnis, alleen de strafmotivering. Dus geen bewijsmotiveringen, strafbaarheid en kwalificatie etc., maar de motivering waarom een bepaalde straf bij het bewezenverklaarde past.
mijn eerste gedachte was "oh nee, dat is niet best", maar na de uitleg van hoe ze de AI gebruikt hebben zie ik het wat positiever.
de AI wordt enkel gebruikt voor zijn sterkste kant, taalkunde.
zolang persoonlijke gegevens buiten bereik van een (publieke) AI gehouden worden, en al het werk van de AI goed gecontroleerd wordt op fouten, en de daadwerkelijke feiten, meningen, vonnissen, en uitspraken direct van de rechter komen dan zie ik geen probleem.

een AI die alleen op uitspraken is getraind en geen gegevens terugkoppelt aan een publieke database lijkt me ook geen slecht idee als een volgende stap.

dit gebruik van AI geeft de AI geen macht over mensen, en vervangt geen mensen, maar maakt enkel het werk van mensen makkelijker terwijl de verantwoordelijkheden bij deze mensen blijft.
Slechte zaak, waarom moeten hun nou zo nodig koplopen?
Zou wel de laatste sector moeten zijn die overgaat lijkt mij
Volgens mij reageer je meer op de titel en niet op de inhoud. Daar blijkt duidelijk dat het een proef is, waar er duidelijk rekening is gehouden met zaken zoals privacy en de daadwerkelijke winst die wel of niet wordt behaald bij de inzet van AI.

Ik zou willen dat meer instanties en bedrijven er op een dergelijke bewuste manier mee zouden omgaan.
Ik zou willen dat meer instanties en bedrijven er op een dergelijke bewuste manier mee zouden omgaan.
Ja ik ook, het is een verschrikkelijk handige tool.
Daar blijkt duidelijk dat het een proef is
Dat las ik ook ja.
waar er duidelijk rekening is gehouden met zaken zoals privacy
Rekening houden is niet afdoende in de juridische sector lijkt mij, daar is ai nog helemaal niet geschikt voor.
en de daadwerkelijke winst die wel of niet wordt behaald bij de inzet van AI.
Die winst moet je niet willen hebben in de juridische sector. Ik heb liever dat het dan "duurder" is.
Ik zou willen dat meer instanties en bedrijven er op een dergelijke bewuste manier mee zouden omgaan.
Maar natuurlijk! is ook een gegeven, lijkt me meer dan logisch. Worden overigens ook miljarden per jaar wereldwijd in geïnvesteerd.
Volgens mij reageer je meer op de titel en niet op de inhoud.
Volgensmij reageer jij heel oppervlakkig op mijn reactie en niet inhoudelijk.

TLDR Zou wel de laatste sector moeten zijn die overgaat / experimenteert / proeft / gebruikt maakt van AI lijkt mij.

[Reactie gewijzigd door HellboyFromHell op 26 maart 2025 16:54]

Het gaat hier alleen om de strafmotivering. Dus geen bewijsmotiveringen, strafbaarheid en kwalificatie etc., maar enkel en alleen de motivering waarom een bepaalde straf bij het bewezenverklaarde past. Dat is over het algemeen een vrij generiek stuk tekst. Ik snap het probleem dus niet helemaal.

Verder is het mij een raadsel waarom je geen tijdwinst zou moeten willen hebben in de juridische sector, helemaal nu de personeelstekorten bij zowel rechters als ondersteunend personeel schrijnend zijn en deze achterstanden naar verwachting nog lang niet ingehaald gaan worden.
Slechte zaak.
Er wordt benadrukt dat er bij het opstellen van de strafmotivering geen beslissingen zijn genomen door de AI
Dat is prima en te verantwoorden in de experimentele fase maar vervolgens kan er wel het volgende gebeuren
De uitspraak in deze zaak werd deels op het antwoord van ChatGPT gebaseerd.
Rechters hebben lang moeten studeren om rechter te mogen worden en ook moeten door een strenge selectieprocedure heen om rechter te mogen worden. Nu gaat die ervaring en voorkennis in twijfel getrokken worden door wat een LLM toevallig voorschotelt uit het prompt.
Wat is hier anders aan dan een sjabloon gebruiken, iets dat heel vaak gebeurt bij het opstellen van vonnissen?

Op dit item kan niet meer gereageerd worden.