Rechtspraak wil medio 2024 eigen AI-strategie opstellen

De Nederlandse Rechtspraak wil later dit jaar een 'AI-strategie' opzetten. Daarin worden 'zowel de mogelijkheden als de potentiële risico's van AI' in kaart gebracht. Ook wil de Rechtspraak gaan werken aan digitale zittingen, waarvoor het een eigen platform laat ontwikkelen.

Dat schrijft de Rechtspraak in het Jaarplan 2024, dat door demissionair minister Franc Weerwind voor Rechtsbescherming naar de Tweede Kamer is gestuurd. "De Rechtspraak kan niet om de mogelijkheden van Artificial Intelligence en het belang van data en datakwaliteit heen", schrijft de instantie. "Daarom wordt in 2024 een dialoog gevoerd tussen rechters, bestuurders en experts en wordt samenwerking opgezet op het gebied van AI." Dat gebeurt onder andere met bijeenkomsten en 'goede interne informatie' over het toepassen van AI. "De Rechtspraak moet oog hebben voor zowel de mogelijkheden als de potentiële risico’s van AI", staat in het document. Het doel is dat er medio 2024 een 'AI-strategie' ligt.

De Rechtspraak wil dit jaar ook verder werken aan de mogelijkheid om online rechtszaken te organiseren. Daar werd in 2020 mee begonnen tijdens de coronacrisis, maar de Rechtspraak ging daar later mee door. Inmiddels wordt Microsoft Teams gebruikt. De Rechtspraak wil echter een eigen platform hebben om digitale rechtszaken te organiseren. Daarvoor wordt begin dit jaar een aanbesteding uitgeschreven, waarbij er dus geen thirdpartytools meer hoeven te worden gebruikt. "Ook wordt het concept afwegingskader voor het houden van online zittingen definitief vastgesteld. Daarnaast wordt een set interne en externe spelregels voor online procederen opgesteld", schrijft de Rechtspraak ook nog.

In de afgelopen jaren is de Rechtspraak in sneller tempo gaan digitaliseren. In 2022 trok het kabinet nog 155 miljoen euro uit waarmee onder andere meer digitale zittingen konden worden georganiseerd.

Door Tijs Hofmans

Nieuwscoördinator

09-02-2024 • 20:56

61

Reacties (61)

61
60
12
1
0
23
Wijzig sortering
Ik denk dat de rechtspraak op het moment kan proiteren van een data strategie. Door nu data te verzamelen en goed te structureren, kunnen ze in de toekomst wellicht hier de vructen van plukken.

Ik denk niet dat AI de taak van de rechter over kan nemen, maar het kan dit zeer zeker makkelijker maken. AI zou rechters bijvoorbeeld kunnen helpen om makkelijk relevante uitspraken (en onderdelen daarvan) te vinden die van toepassing zijn op hun zaak.
.Ik denk niet dat AI de taak van de rechter over kan nemen, maar het kan dit zeer zeker makkelijker maken. AI zou rechters bijvoorbeeld kunnen helpen om makkelijk relevante uitspraken (en onderdelen daarvan) te vinden die van toepassing zijn op hun zaak.
Ik denk dat het nog niet kan, omdat ai nu nog inzicht mist, menselijk inzicht. Rechters, juristen etc. hebben de mogelijkheid om complexe juridische kwesties te interpreteren, bewijsmateriaal te evalueren, en specifieke omstandigheden mee te nemen (in verschillende vormen) dat zal voor ai voorlopig nog moeilijk zijn. Maar er wordt al wel ai toegepast, o.a. bij verzekeraars t.b.v. de schuldvraag.

[Reactie gewijzigd door litebyte op 22 juli 2024 18:06]

Hmmm ik vraag mij af of het ooit kan, immers is AI altijd biased en dat wil je zover mogelijk van de rechtspraak houden. Ja mensen zijn zeer zeker feilbaar maar wel na te volgen in principe. AI is zo ongeveer niet te volgen omdat het op een compleet andere manier werkt dan het brein aan kan.
Rechtspraak moet navolgbaar zijn en ik denk niet dat AI dat kan of misschien zelfs nooit gaat zijn. Immers werken die modellen met "big data" dat is al iets wat ons brein niet kan bevatten, als wij iets niet kunnen bevatten moet het naar mijn mening zeker niet op de stoel van de rechter gaan zitten.

Een AI assistent voor de rechter zou misschien interessant zijn maar dat is ook iets heel ingewikkelds en complex. Het liefst wil je dit allemaal bij "simpele" algoritmes houden welke mensen kunnen bijhouden.
Je zou een “pretrial” tool kunnen hebben die je kans om te winnen voorspelt,
Wordt langzaamaan steeds beter en kan helpen met beslissen om wel of niet verder te procederen.

Natuurlijk is dat wel afhankelijk van de input data die beschikbaar is vooraf.
Nee zeker niet mee eens, want stel dat die pretrial tool zegt dat het 99% kans is dat A wint.
Oke een rechter ziet dat, heeft ervaring met het systeem en weet dat het altijd gelijk heeft. Dat kan een rechter laks maken en geneigd zijn eerder te zeggen dat A wint. Kan hartstikke fout zijn.

Daarnaast wat heeft een pre trial voor een zin? Oké systeem zegt zoveel kans dat A gaat winnen met alle beschikbare informatie.
1) de rechter moet nogsteeds alles zorgvuldig behandelen, oftwel workload is hetzelfde
2) niet alle informatie is aan het begin van een zaak bekend of publiek, anders zouden beide partijen gewoon een zipje kunnen opsturen en kunnen we de rechtzaal en debatten afschaffen. Dat zou nu al kunnen, dus nee zie daar geen heil in.

Het huidige rechtssysteem moet je niet aan willen tornen als het gaat om extra factoren en of indrukken toevoegen bij de rechter.
Ik zeg niet of het goed of slecht is, ik zeg alleen dat het kan.

En alsof het nu zo eerlijk is, meestal wint de partij met de grotere schatkist gezien die gewoon meer feiten en conmecties boven water kunnen halen.

Als er een AI was die zou kunnen helpen met “discovery” zoals dat heet in de vs iig dan zou dat het hele gedoe een stuk eerlijker maken voor de kleinere zaak.
(Mits beschikbasr voor iedereen)

[Reactie gewijzigd door freaq op 22 juli 2024 18:06]

Je hebt 10% kans om te winnen zegt die tool, wat doe je?

Een goed advocaat is zijn geld waard, niet alleen zal deze je zelf al zeggen of er een kans is of niet, maar een goed advocaat kan een kleine winstkans ook verzilveren net zoals een slechte advocaat een bijna zeker vonnis in je voordeel alsnog kan verliezen.

En natuurlijk zal zo een tool beter worden, want hoe meer mensen op die tool vertrouwen, hoe meer mensen alleen maar een zaak zullen doorzetten als die tool al voorspeld had dat ze zouden winnen. Daar krijg je bijna letterlijk een vorm van confirmation bias.
Kortom met een slechte kans en teveel geld kan je nu winnen…

Cool ja super eerlijk!

Anyways punt is simpel je kan een tool maken die kansen inschat, die kan evt ook de advocaat kosten van beide partijen meenemen.

Of dat gewenst is is een tweede maar laten we niet doen alsof een aangewezen advocaat of mischien 1 ok advocaat tegen een team van een multinational ook maar een klein beetje fair is.
Rechtspraak is maar deels objectief en bevat een grote subjectieve beoordeling. Zie het verschil in uitspraken. Eerlijk? Neen. Meer informatie kan dit blootleggen en deels corrigeren. Is geen hip woord AI voor nodig. Maar wel een wil. En die is er niet. Want men is erg conservatief. Net als met zoveel vakgebieden trekt het een bepaald soort mens aan. Overheid en efficiënt? We zien juist steeds meer afstand, juist geholpen door techniek, tussen volk en ambtenaren. Maar goed, we dwalen af :)
Het ligt er helemaal aan hoe die informatie gegenereerd en vervolgens gebruikt wordt of het eerlijker is.
Rechtspraak is helemaal niet subjectief. De uitspraak hangt niet af van of de rechter je leuk of mooi vindt. De rechter luistert naar de argumenten van beide partijen en interpreteert dan de bijpassende wetgeving om een oordeel te vellen.

Wetgeving is niet zwart/wit. Niet elke situatie staat in het wetboek uitgelegd, en ook dat is met opzet. Onze wereld veranderd continue en het wetgevend process is traag. Als elke situatie uitgespeld moet worden, wordt het wetboek niet alleen enorm dik, onleesbaar dik, maar loopt het ook continue achter de feiten aan.

Maar interpretatie is niet hetzelfde als subjectiviteit.
De uitspraak hangt niet af van of de rechter je leuk of mooi vindt.
Wel of hij honger heeft of niet. :+
@Horatius
Is een mens niet biased dan?
Nee tuurlijk niet, ik zeg dan ook dat mensen zeer zeker feilbaar zijn. Vervolgens ga ik in op het feit dat een falend mens minder erg is dan een falende AI want mensen zijn bijna altijd navolgbaar. Een AI is dat niet.
Hmmm ik vraag mij af of het ooit kan, immers is AI altijd biased en dat wil je zover mogelijk van de rechtspraak houden. Ja mensen zijn zeer zeker feilbaar maar wel na te volgen in principe. AI is zo ongeveer niet te volgen omdat het op een compleet andere manier werkt dan het brein aan kan.
Het klopt dat je de processen van een AI niet te volgen zijn door onder motorkap te kijken. Je kan de AI wel vragen om zaken uit te werken.
Een rechtzaak bestaat uit feiten, omstandigheden en argumenten die wel of niet relevant zijn en wel of niet belastend of ontlastend zijn. Je kan de AI vragen een overzicht te maken van alle ingebrachte feiten, omstandigheden en argumeneten en stuk voor stuk aan te geven op basis van welke wet of jurisprudentie het wel of niet relevenat en belastend of ontlastend is. En vervolgens om op basis van die gegevens een conclusie te trekken. Dat heb je een verifieerbaar traject tot aan de eindconclusie.
Eigenlijk spreek je jezelf tegen in je eigen reactie. Je begint met te zeggen dat ze onnavolgbaar zijn en dus niet verifiëerbaar, oftewel niet zouden gebruikt moeten worden voor de gehele beslissing.

Ik snap dat je de AI dan een breakdown wilt laten geven maar in de breakdown die je beschrijft zitten al zoveel aannames en zoveel beslissingen dat het niet beter wordt.

Vaak kan je zeggen dat iets door jurisprudentie A wel relevant is en dan door jurisprudentie B niet, daar maakt de AI dan al een beslissing in welke niet navolgbaar is. Recht is niet zwart wit.
Gaat nooit ingevoerd worden; zo'n 30 jaar geleden waren we al bezig met "BOS", Beslissings Ondersteunende Systemen. Het gebied van de rechtspraak was hiervoor zeer geschikt, omdat wetten redelijk gestructureerd, maar helaas "talig" opgeschreven zijn.
Het idee was dat griffiers (die meestal de feitelijke uitspraken schrijven onder toezicht van de rechters) en de rechters op een overzichtelijke manier de relevante wetsartikelen en jurisprudentie gepresenteerd zouden krijgen, en dat de mens de bijkomende omstandigheden zou wegen.

De prototypes die gebouwd waren bleken qua input vs output boven verwachting te presteren; ze waren zó goed dat rechters zich beperkt voelden in hun vrijheid, en toen bleek dat de systemen allerlei hiaten/onvolkomenheden in bestaande uitspraken bloot legde werd alles begraven in de diepe lades van Justitie.

Die sector wil helemaal niet beter of effectiever worden, de meesten vinden het allemaal wel best zo en vinden vrijheid in hun werk (lees: macht) het belangrijkste....
Heb je een bronvermelding voor de uitspraken die je doet over de output van BOS? Benieuwd!
Ik kom deze link tegen. Dat is een hoofdstuk uit het boek "E-Justice, beginselen van behoorlijke elektronische rechtspraak". Daarin staat onder meer: "Het risico bestaat namelijk dat het gebruik van een systeem leidt tot het beëindigen van de rechtsontwikkeling in een bepaald rechtsgebied, als de rechter niet meer kan afwijken van eerder gemaakte keuzen in het beslisprogramma."

Dat lijkt mij een belangrijk gegeven. Zelfs zonder Beslissings Ondersteunende Systemen (BOS) ging het mis in de toeslagenaffaire, waarbij rechters eerdere rechtspraak in ogenschijnlijk vergelijkbare gevallen volgenden met te weinig oog voor de gevolgen van die rechtspraak voor de burger in een specifiek geval. Ik vrees dat introductie van een BOS kan leiden tot meer van zulke rechterlijke dwalingen, omdat een rechter erdoor wordt ontmoedigd om zelf kritisch na te denken.

Ook moet de rechter een belissing nemen die redelijk en billijk is. Een BOS houdt zich meer bezig met de redelijkheid. De billijkheid gaat echter over wat eerlijk en rechtvaardig in de context van een specifieke situatie. Daar kijkt een BOS niet naar.

[Reactie gewijzigd door pmeter op 22 juli 2024 18:06]

Jij denkt dat rechtsontwikkeling en afwijken van een keuze in een beslisprogramma altijd negatief is?

Juist in het geval van de toeslagaffaire was het de wet die heel strikt was: Wanneer de eigenbijdrage voor de kinderopvang niet op tijd door de kinderopvangorganisatie ontvangen is (bv. doordat een tussenbureau die alles zou moeten regelen die bijdrage wel van de ouder ontvangen heeft, maar niet heeft doorgestort naar de kinderopvangorganisatie), dan bestaat er geen recht op kinderopvangtoeslag voor dat het betreffende jaar en moet de ontvangen kinderopvangtoeslag voor dat hele jaar terugbetaald worden. Keiharde wetgeving, zonder coulancemogelijkheid wanneer de ouder alles goed heeft gedaan maar een derde partij heeft verzaakt. (Keiharde wetgeving overigens waar Omzigt zelf nog vóór heeft gestemd.)
Daar kan geen enkel BOS of geen enkel rechter iets aan doen. Die moeten gewoon de wet volgen. Het enige dat rechters kunnen doen wanneer ze zien dat wetgeving wel erg hard uitpakt voor een grote groep mensen die daar zelf weinig schuld aan hebben, is om dat via rechtelijke organisaties of direct bij de wetgever te melden. Een rechter kan er niet voor kiezen om een algemene bepaling in een wet te negeren. Hooguit kunnen ze in een uitzonderlijk geval, wanneer heel specifieke omstandigheden voor een individu tot een nadelige uitkomst zouden leiden, waar bij het maken van de wet geen rekening mee is gehouden, de wet aan de kant schuiven.
Het is nog langer geleden dan ik dacht, jaren 80 vorige eeuw. Toen was het internet nog nauwelijks ontwikkeld; in die tijd waren tijdschriften als Intermediair en Computable onze nieuwsbronnen.
Daar is de griffier voor.
Ik denk niet dat AI de taak van de rechter over kan nemen, maar het kan dit zeer zeker makkelijker maken.
Eigenlijk kan dat al best goed. Maar dan vooral voor civiele zaken, zoals echtscheidingen. Daar komt veel statistiek bij kijken, en is juist de wat minder 'menselijke' kant van belang, maar meer hoe er in vergelijkbare zaken besloten is.

Of we dit willen, is nog maar de vraag. En er is ook helemaal niets mis met het laten van de uiteindelijke uitspraak bij een menselijke Rechter. Maar een A.i is bij uitstek geschikt om objectieve statistiek te doen. En in een gebied waar emoties vaak een grote rol spelen, is objectiviteit erg handig.
Jammer dat ze weer een eigen tool willen ontwerpen. Gaat bakken vol geld kosten en duur in onderhoud.

Het lijkt me nuttiger de weg te volgen zoals het Europees gerechtshof inslaat, zij gaan gewoon gebruik maken van Pega case management software. Gewoon COTS en dat maakt hen vele malen efficiënter.

Waarom zou je met beschikbare software geen zittingen kunnen organiseren? Minder ontwikkeling, gedoe en kosten.
Anoniem: 1872794 @gatlarf10 februari 2024 09:24
Ik deel de zorgen van jou betreft het wiel opnieuw uitvinden. Maar afhankelijk zijn van een bedrijf waar je slechts indirect invloed op kunt uitoefenen voor het uitvoeren van rechtszaken zou ik ook absoluut niet willen.

Mijn idee was gelijk: Laat ze het open source maken, dan heeft iedereen een mooi stukje software er bij in plaats van die happy few!
En als je dan toch minder kosten wil hebben kunnen ook in andere landen veel meer rechtszaken via dit platform werken. Opnieuw het wiel uitvinden is niet erg, want als het daarna een superwiel blijkt te zijn, dan kan iedereen dat superwiel gebruiken.
Daarom ook multi-platform werken. Gebruik MS Teams, Zoom, Google Meet, etc. en wees niet afhankelijk van één enkele vendor. Uiteindelijk is de rechtspraak ook afhankelijk van chipbakkers en producenten, die zijn op een paar vingers te tellen. Het is ook geen probleem om rijksoverheid aan MS Windows te binden, het experiment met Linux zag veel tegenstand.

Onpopulaire menging: vaak gaat het meer om het creëren van werk en FTEs dan echt iets nuttigs toevoegen aan de functionaliteit, betrouwbaarheid en kwaliteit van dienstverlening bij de brede rijksoverheid. Deze bureaucratie en het creëren van kleine keizerrijkjes is IMHO een veel groter en relevanter probleem voor de rijksoverheid om naar te kijken.
De slogan van de overheid is ook “Dat klinkt logisch, dus gaan we dat niet doen
Ik vindt het maar normaal dat zulke gevoelige informatie niet in Amerikaanse handen, of andere niet EU landen komt.
Hoog tijd dat de EU zich wat minder afhankelijk gaat maken van niet EU spelers/landen op het vlak van dataverwerking.
Het is zeker interessant welke uitspraken een zelflerend AI-model maakt t.o.v. mensen.

In welke mate is wetgeving bijvoorbeeld rule-based? En was er niet een datascience initiatief die conflicterende wetgeving er uit filterde?

Het zal een stapsgewijs proces zijn, waarin het gros aan gestandaardiseerde taken al overgenomen kunnen worden om de werkdruk te verlagen. Oplossingen zijn er al als we denken aan producten als Lexis+AI, maar weet eerlijk gezegd niet in hoeverre dit bij Rechtspraak is doorgedrongen.
Dat zal nog even op zich laten wachten denk ik. Eerst maar eens een golf van desinformatie, fake entertainment, fake content etc en de reactie van (groepen) mensen hierop zien te overleven
“The justice system works swiftly in the future now that they've abolished all lawyers.”

Even een film quiz voor de kenners :P
Haha idd. Moest er direct aan denken. Binnenkort bepaalt de AI of je wel of niet schuldig bent.
Dat vindt nu al deels plaats en zal steeds meer worden bij schuldbepalling en andere zaken in de verzekeringsbranche.
Niet meer de zelfscan kassa, maar de zelf-AI kassa, de AI ziet bij binnenkomst al of je gaat stelen en belt alvast de politie.
Minority Report & 1984 voor al uw tought-crimes
De zelfscan kassa's vlaggen mij er erg vaak uit :+ benieuwd of het willekeur is.
Waarschijnlijk proberen ze je te 'helpen'.
Ik ben zelf ook benieuwd of het echt willekeurig is, of dat het geprofileerd is op basis van producten of zo.

Dus stel dat jij vaak gevulde koeken koopt, en er is een correlatie tussen frequente winkeldieven en gevuldekoekenkopers dat je er dan vaker uitgehaald wordt?
Of dat een factor ‘tijd/moment’ ook iets is. Iemand die tussen 1358 en 1421 gevulde koeken koopt, steelt vaker 😊

(Waar stelen/dief staat kun je natuurlijk ook ‘vergissing’ lezen. Iemand kan ook een echt foutje maken natuurlijk)
Ik merk vaak als ik een tijd heb gewacht met een nieuw product scannen, omdat ik bijvoorbeeld mijn tas even aan het reorganiseren ben dat hij daarop triggered.
Dat heb ik ook wel is gedacht. Of als je een onlogische volgorde hebt. (Dus als je met iemand anders bent die een product uit de andere kant van de winkel heeft gehaald)

Maar het is ook niet consequent. Dus misschien is het wel echt willekeurig, en dat je iedere afwijking er dan aan gaat koppelen🤔

Ik weet wel dat als je de eerste keer in een nieuw AH-filiaal scant, je dan dan altijd controle krijgt.
Dat werd een keer door een medewerker beaamt toen ik op vakantie was. Ze noemen gaat een ‘service-controle’ of zo. Dan vragen ze als het goed is ook of je alles gevonden hebt en zo. (De details weet ik niet meer precies hoor, maar daar kwam het toen op neer)
https://www.mr-online.nl/...n-computers-rechtspreken/

Ik was het linkje kwijt, maar gevonden (dit was uit 2016)
Ik zie het zeker gebeuren dat van die winkels vol camera's waar je niet meer hoeft te scannen of langs de kassa gaat binnen niet al te lang gemeengoed gaan worden. Dan wordt stelen ook erg lastig.

[Reactie gewijzigd door borbit op 22 juli 2024 18:06]

hmm, nouja wat als je niet genoeg geld hebt, of de transactie terug getrokken wordt? Of je creditcard opeens ongeldig is?
Niet genoeg geld, of credit card ongeldig zal het poortje om je eruit te laten niet open gaan.
transactie terug trekken zal niet lukken, dan zal waarschijnlijk alleen mogelijk zijn bij een fraude of diefstal van pinpas/creditcard.
Maar die risico's lopen ze nu dan ook al zelfs bij gewone kassa's.
Dat is geen schuldbepaling, die schuldbepaling komt van de persoon die je daadwerkelijk controleert. De AI bepaalt of je 'verdacht' bent (eigenlijk of je verdacht gedrag vertoont).

Ik ben nu ook al 100den keren verdacht geweest (controle in de supermarkt) en geen enkele keer schuldig. Dus dat is gelukkig niet hetzelfde...

Maar helaas (gebeurde in de reacties daar ook) doen mensen op 1 of andere manier of die 2 dingen hetzelfde zijn. Wat mij betreft is dat gedrag juist verdacht :Y)

[Reactie gewijzigd door watercoolertje op 22 juli 2024 18:06]

M'n echtgenote is rechter en heeft gedurende corona vele rechtszaken online behandeld.
A.I. is niet mijn specialiteit.
Betekent de inzet van dit algoritme dat we tijdens de zitting een rondje door de buurt kunnen lopen en dan bij thuiskomst de werklaptop horen zeggen: "Ik sluit de zitting en ik doe over 2 weken/onmiddellijk uitspraak"?
Zou mooi zijn.
Grappig, ze had een paar zittingen waarbij de AIVD betrokken.
Deze dienst had terecht geen trek in online zittingen en dus fietste ze naar het Paleis van Justitie.
Heeft sowieso haar voorkeur.
Ik heb het een paar keer gelezen, maar ik heb echt geen idee waar dit over gaat
Dit verhaal is heel warrig
Klopt. Hoop vrouwlief is minder warrig.
AI zal nog niet de uitspraak zelf doen. AI kan wel gebruikt worden om na het doen van de uitspraak door de rechter(s), de uitspraak op papier uit te schrijven met gebruikmaking van de processtukken, het verslag van de griffier en de overwegingen van de rechter(s)..
Waarom willen ze dan hun eigen systeem ontwikkelen? Teams werkt toch prima?
Hopelijk hebben ze geleerd van hun fouten met digitaliseringsproject Kwaliteit en Innovatie (KEI). Het mislukte project was begroot op 7 miljoen en kostte zo’n 220 miljoen euro.
Straks een AI gaan gebruiken in de rechtspraak! Nou nee, dat is echt mensen werk (wel ter assistentie om werk te ordenen). De uitspraak moet door een fysieke rechter gedaan worden.
Of zijn we al vergeten hoe "goed" (not) de modellen werken die de overheid gebruikt om beleid te maken!

Op dit item kan niet meer gereageerd worden.