EU onderzoekt inzet kunstmatige intelligentie binnen justitiesector

Europese lidstaten moeten het gebruik van kunstmatige intelligentie in de justitiesector verder in kaart brengen. Ook moeten de consequenties van het gebruik van AI in deze sector onderzocht worden. Dat vindt de Raad Justitie en Binnenlandse Zaken van de EU.

De Raad Justitie en Binnenlandse Zaken, ook wel JBZ-raad genoemd, bestaat uit ministers van Justitie en van Binnenlandse Zaken van de EU-lidstaten. Eind juli vond een informele bijeenkomst van de JBZ-raad plaats, waar ook het gebruik van kunstmatige intelligentie binnen de justitiële sector aan bod kwam, zo blijkt uit een verslag van de bijeenkomst.

De ministers van de lidstaten geven onder meer aan dat de toepassing van AI in hun justitiële sector nog in een vroeg stadium zit. Voor nu wordt AI vooral ingezet in ondersteunende activiteiten. "De toepassing ervan in besluitvorming ligt echter gevoelig. De justitiële sector blijft immers mensenwerk", zo staat in het verslag.

De Europese Commissie roept lidstaten nu op om het gebruik van AI in de justitiesector verder in kaart te brengen. Het ontwikkelen van nieuwe wetgeving is voorlopig nog niet aan de orde, werd tijdens de bijeenkomst geconcludeerd. "Om kunstmatige intelligentie de aankomende periode in te kaderen, ligt de focus op de implementatie van de Verordening Kunstmatige Intelligentie en het Raad van Europa-verdrag over AI, mensenrechten, democratie en de rechtsstaat. Nederland onderstreepte dat hoogrisicosystemen in kaart gebracht dienen te worden bij de implementatie van deze wetgeving."

Door Eveline Meijer

Nieuwsredacteur

15-08-2024 • 12:53

53

Submitter: Anonymoussaurus

Reacties (53)

Sorteer op:

Weergave:

A.I. kan de sector prima helpen om alle relevante data in de vaak gigantische dossiers toegankelijk en bruikbaar te maken. Deze technologie hoeft niet op de stoel van de rechter te gaan zitten, maar kan deze wel helpen om recht te spreken met een digitale hand op het wetboek!
Mogelijk, maar dan moeten er Imho wel garanties van 100 procent juistheid liggen dat de gegenereerde output ook voor de volle 100 procent correct is. Gezien het potentieel enorm belang.

Je wil immers niet het risico lopen dat iemand de cel in verdwijnt omdat de AI op dat moment een hallucinatie had en verkeerde uitkomsten geeft.

Dat is bij mensenwerk al dramatisch genoeg, moet je je de krantenkoppen eens bedenken als een celstraf opgelegd wordt op basis van een fout van de AI. De journalisten en het publiek hebben dan een field day...
aar dan moeten er Imho wel garanties van 100 procent juistheid liggen dat de gegenereerde output ook voor de volle 100 procent correct is.
Zo werken LLM's niet. LLM's doen voorspellingen. Wat je er mee doet is aan jou. En een jurist blijft gewoon eindverandwoordelijk anders kan iedereen zich achter algorithmen verschuilen.
Maar het probleem is natuurlijk wanneer een jurist zich baseert op output van zo'n LLM. Als die informatie foutief is, baseert de jurist zich op foutieve informatie. De vraag is wie er in zo'n situatie zijn werk niet goed heeft gedaan. Als de jurist alsnog alles moet controleren, heeft die LLM niet heel veel nut gehad.
Maar het probleem is natuurlijk wanneer een jurist zich baseert op output van zo'n LLM assistent. Als die informatie foutief is, baseert de jurist zich op foutieve informatie. De vraag is wie er in zo'n situatie zijn werk niet goed heeft gedaan. Als de jurist alsnog alles moet controleren, heeft die LLM assistent niet heel veel nut gehad.
Zo wordt er dagelijks gewerkt, met juniors die al van alles uitzoeken en voorbewerken. Daar zitten ook fouten in. Dat is toch niet zo anders dan met een een AI assistent?
[...]
Dat is toch niet zo anders dan met een een AI assistent?
I beg to differ. Een junior begrijpt waar hij het over heeft, kan bronvermelding doen, aangeven waarom een bepaalde case er bij gehaald is en uitspraken doen over de mate van zekerheid.
AI kan heel overtuigend een foutief statement als absolute waarheid presenteren.

Aangezien AI vooral wordt ingezet om tijdwinst te boeken bij het behandelen van zaken door overbelast rechtbankpersoneel heb ik er weinig vertrouwen in dat hier de tijd genomen gaat worden om te 'bewijzen' dat AI soms niet deugt.

Vind het ook ondermijnen van de training van juniors. Die worden niet spontaan senior als ze maar op de bank blijven zitten, die moeten juist door dossiers spitten. Op termijn betekent het gewoon nog minder mensen die het werk kunnen doen.
En precies daarom is 'AI als hulpmiddel binnen de justitiesector' sowieso een heel erg slecht idee...
Bij alles wat je een AI vraagt moet je zelf nagaan of het klopt.
Ik vraag ook regelmatig cijfers en voorbeelden van bepaalde zaken op, de AI die ik gebruik geeft de bronnen terug. Die controleer ik dan vluchtig of ik die cijfers daar in terug kan vinden en of de context klopt.
Kost je alsnog tijd, maar veel minder dan zelf al die bronnen zien te verzamelen en doorspitten.
Hallucinaties zijn 1 ding. Gewoon de nadruk leggen op iets of een nuance kan al veel doen in genoemd voorbeeld.
Totaal niet.
Algoritmes en AI helpen met aanknopingspunten in het onderzoek. Vandaar uit gaat het onderzoek verder. Je hebt bij een rechtspraak nog altijd sluitend bewijs nodig. Dus DNA GPS telefoonverkeer handelingen etc. Hooguit kan met AI een onderzoek sneller opgelost worden.

[Reactie gewijzigd door lighting_ op 15 augustus 2024 15:33]

... wel garanties van 100 procent juistheid liggen dat de gegenereerde output ook voor de volle 100 procent correct is.
Output van een (LLM) AI is probabilistisch, dus de kans dat de output juist is zal altijd kleiner dan 1 zijn. Als het model goed getrained is zal het wel zeer dicht tegen de 1 aan liggen.
... omdat de AI op dat moment een hallucinatie had ...
Hedendaagse AI heeft geen besef/begrip van de kennis die het model bevat (de 'werkelijkheid'). Hierdoor is elk resultaat dat een AI uitspuugt eigenlijk een hallucinatie.

Met andere woorden: je mag er nooit of te nimmer vanuit gaan dat een LLM/AI de juiste aannames doet/maakt om tot een resultaat te komen.
Het ligt net aan hoe je de AI toepast.
Jij gaat er nu van uit dat je het generatief toepast, dat de AI op basis van input waar het op getraind is en een prompt een bepaalde tekst genereert.

Je kan het proces ook stoppen vóór het genereren van de tekst en de AI de bronnen laten geven waar het een tekst mee zou kunnen genereren (simplistisch gezegd.)
Wanneer je een groot dossier hebt, met heel veel informatie, is het vaak lastig om daar bepaalde specifieke informatie in terug te vinden, wanner je niet de exacte steekwoorden weet. Je leert bv. dat een verdachte een bepaalde tijd de beschikking heeft gehad over een rode auto en je meent je te herinneren dat en getuige iets heeft gezegd over een rode auto. Dan geef je een zoek opdracht voor 'rode auto' en je vindt niets. Dan kan je alle getuigenverklaringen aandachtig doorlezen totdat je iets tegenkomt, of je kan een AI laten zoeken. Wanneer die AI juist getraind is, zal die terugkomen met de getuigenverklaring waarin een bordeauxkleurige BMW wordt genoemd, waar je zelf waarschijnlijk overheen gelezen zou hebben.
Hmm... Niet zoals de meeste mensen het kennen. Je hebt namelijk te maken met false positive en false negatives. En hoewel mensen die fouten ook maken, kan je de verantwoordelijkheid niet leggen bij een AI. Voor zeer specialistisch zaken, die te verifiëren zijn, kan het wel, maar wetgeving is een dusdanig breed gebied dat AI alleen een aanvulling kan zijn en geen vervanging.

Verder is er nog al veel onzekerheid over of AI een positief effect zal hebben op werkzaamheden in het algemeen op lange termijn, zo kan AI zich niet zelfstandig ontwikkelen op een positieve manier en is het nog niet veelzijdig genoeg om een mens te vervangen.

En dan heb je nog de hoeveelheid schade die AI kan toebrengen. Rechters kunnen ter verantwoording geroepen, maar een AI niet.

Je ziet overigens ook een kentering op AI. Mensen vermijden een product met AI steeds vaker ipv dat ze ervoor kiezen.
Hmm... Niet zoals de meeste mensen het kennen. Je hebt namelijk te maken met false positive en false negatives. En hoewel mensen die fouten ook maken, kan je de verantwoordelijkheid niet leggen bij een AI.
Dat doet toch ook niemand? Wat jouw computer doet, maakt niet uit, jij bent er wettelijk verantwoordelijk voor.
Verder is er nog al veel onzekerheid over of AI een positief effect zal hebben op werkzaamheden in het algemeen op lange termijn
Sinds de jaren '50 wordt er serieus gewerkt aan AI en de afgelopen 20 jaar zijn er grote doorbraken geweest dankzij betere/snellere processors. De term AI is zo breed, dat ook het feit dat jij thuis gewoon gas, water en elektra hebt, mede mogelijk wordt gemaakt door AI.
zo kan AI zich niet zelfstandig ontwikkelen op een positieve manier
Sinds wanneer kan AI niet meer leren? Dat is juist de sterke kant van AI, het kan feedback en een veranderende omgeving (van data) onmiddellijk toepassen. Wij doen dit al járen...
en is het nog niet veelzijdig genoeg om een mens te vervangen.
Dat is helemaal waar! Maar zou je dat dan willen? Ik niet. Ik wil wel dat mensen worden ondersteund met AI.
En dan heb je nog de hoeveelheid schade die AI kan toebrengen. Rechters kunnen ter verantwoording geroepen, maar een AI niet.
Pfff, kul argument. Mensen richten zoveel meer schade aan, geen enkele AI kan dit overtreffen. Hoeveel duizend jaar maken mensen elkaar al kapot? Geen enkele oorlog is afschrikwekkend genoeg om een volgende oorlog te voorkomen, mensen schieten elkaar met alle plezier kapot en blazen met alle plezier elkaars kinderen op. Misschien een idee om vandaag eens de krant te lezen?
Je ziet overigens ook een kentering op AI. Mensen vermijden een product met AI steeds vaker ipv dat ze ervoor kiezen.
Dit is jouw persoonlijke mening, geen feit. Vrijwel alles waar een chip in zit, heeft ook een vorm van AI in zich. Zaken zoals telefoons gaan nog veel verder en domme telefoons zijn niet of nauwelijks te krijgen omdat vrijwel niemand die wil hebben.
AI bestaat al veel langer dan de jaren 50 en het vereist niet eens een computer. De grote doorbraak was niet snellere processoren maar in de manieren dat o.a. data gemodelleerd werd en verwerkt, de snelheid van processen is nuttig maar niet kritisch. En als je https://amp.cnn.com/cnn/2...ands-avoid-term-customers leest dan weet je dat AI als term in elk geval niet klanten aantrekt.

Gezien de toon van je reactie ga ik niet op de overige opmerkingen. Die toon en felheid is niet nodig en wordt niet gewaardeerd.
Gezien de toon van je reactie ga ik niet op de overige opmerkingen. Die toon en felheid is niet nodig en wordt niet gewaardeerd.
Ik begrijp dat je het niet waardeert, het is nog al confronterend dat mensen ondanks duizenden jaren ervaring nog steeds zo evil naar elkaar toe zijn. Het beroerde is dat AI dit als voorbeeld krijgt aangeboden "om van te leren". Hoewel het niet heel anders dan non-AI, want mensen "leren" hier ook van. Zie het opstoken van hele groepen mensen op social media, bijvoorbeeld in de UK de afgelopen week.

De mens is helaas geen al te fijne diersoort.

En ja, AI is al wat ouder, maar automaton e.d. zijn niet zelf lerend. Dat is sinds de jaren 50 veranderd, toen kwam in elk geval de theorie van hoe je dat kunt doen en met de Turing Test kun je aantonen dat het "werkt".
Ik begrijp dat je het niet waardeert, het is nog al confronterend dat mensen ondanks duizenden jaren ervaring nog steeds zo evil naar elkaar toe zijn.
Niet wat ik bedoelde.
En ja, AI is al wat ouder, maar automaton e.d. zijn niet zelf lerend. Dat is sinds de jaren 50 veranderd, toen kwam in elk geval de theorie van hoe je dat kunt doen en met de Turing Test kun je aantonen dat het "werkt".
De periode 1950~1970 is de eerste AI boom periode waarbij men in staat was om het te programmeren zodat computers het konden uitvoeren. Echter de basis en concepten waren daarvoor al met mechanische onderdelen uitgevoerd (ik baal er ook van dat de Wikipedia geen chemische of biologisch voorbeelden noemt, maar dan had er ook koffiemachines op de lijst gestaan).

Het grote verschil met een Heron's Fountain, Eliza en ChatGPT is de complexiteit van het netwerk. De ene kan ik in een paar minuten op een bierviltje uitleggen. De andere moet ik een paar boeken bij halen en bij ChatGPT heb ik waarschijnlijk meer papier nodig dan dat er bomen zijn.

Om de huidige AI zelflerend te noemen gaat erg ver, maar het is zeker trainbaar. Echter dat heeft eerder te maken met de logica waar Aristotle de hand aan heeft gelegd en het feit dat het in software heel makkelijk is om die logica te herschrijven.

Zoals ik aangaf is het grote verschil niet de processorkracht, maar hoe de data (het neuraal netwerk) gemodelleerd word en verwerkt wordt.
Ik vind het (enigzins) prima als de (openbare) aanklager en beklaagden voor hun zaak AI gebruiken om door data te spitten, afgeleiden te bepalen of connecties te leggen. De andere partij kan dat dan inzien als bewijsstuk/normaal onderdeel van de rechtzaak en daar eigen onderzoek naar doen en/of controleren. Maar wat mij betreft moet dat dan ook als zodanig gelabeld zijn, zodat het duidelijk is dat hoe de informatie verwerkt is waardoor de andere partij daar ook weer makkelijker tegenonderzoek naar kan doen.
Toch liever niet ... Of het moet een garantie hebben van 100% correct te zijn. Dat gaan we nog niet zo snel halen. Je moet maar een veroordeling krijgen voor andere dingen. Deze week kreeg ik op mijn zaak 4x een brief dat ik achterstallige betalingen had van de overheid ... Belde ik daar dus voor ... Maar nee meneer u heeft alles mooi betaald. Ja u bent al de zoveelste ... Wij zitten met een nieuw programma en een grote achterstand. Sorry maar als ze dit nog niet kunnen zie ik ze hier in België nog niet vlug AI gebruiken :)
Lezen is toch wel moeilijk.
Ik begrijp niet dat zo'n beetje de helft van de personen hier over valt "want dit moeten we niet willen, AI in de rechtspraak".

Maar dat staat er ook helemaal niet, het gaat over het gebruik en de consequenties ervan in kaart brengen.
Dat is, zoals sommigen die wel kunnen lezen al aangaven, juist heel goed. Je wilt toch dat dit een aandachtspunt is, zodat datgene waar hier veel mensen bang voor zijn juist niet gaat gebeuren.
Inderdaad. Advocaten gebruiken toch al LLM's. Als hier een richtlijn voor ontwikkeld kan worden dan is dat alleen maar goed.
Tja, komt dit doordat we niet goed lezen of juist doordenken?
Want als ergens onderzoek naar gedaan wordt denken we aan alternatieven en/of toepassingen ervan en zodoende ontstaat er discussie. In de tekst zelf wordt dan misschien niet eens een alternatief genoemd maar dat betekent niet dat het onbesproken blijft.
Dit is dus helemaal niet ok. Ben eigenlijk beetje sprakeloos ervan, want dit gaat echt niet goed komen.
Wat is precies het probleem dan? Ik begrijp ook wel dat je niet moet willen dat een AI juridische beslissingen gaat nemen, maar daar is helemaal geen sprake van. Sterker nog, de "AI" die we nu hebben kan helemaal niet denken of beslissingen nemen. Mijn inziens kan AI prima worden ingezet voor ondersteunende werkzaamheden zoals het opstellen van documenten, zo lang een mens het werk controleert en verantwoordelijk blijft.

Uiteraard moet er ook geen gevoelige data naar Big Tech worden verzonden, maar dat is af te vangen door het gebruikte AI model lokaal te runnen.
Het probleem is dat de informatie waarop je je besluit maakt wel beïnvloed kan worden. Je besluitvorming is een combinatie van je verleden en de informatie die je aangereikt wordt. Als je je hele leven al social nudging ontvangt vanuit socialmedia, en de AI modellen door dezelfde bedrijven gemaakt worden, dan heb je een serieus risico dat er bias in de resultaten ontstaat.

Daar zie je het risico niet van in? Zijn de huidige AI modellen niet bevooroordeeld wil je zeggen? Al de laaste paar jaren iets op google proberen te zoeken?
Zoals bij elke innovatie zijn er ook risicos. Daarom hebben we ook de AI Act en de AVG. Samen is dat een sterk wettelijke basis om verantwoord met dit soort zaken om te gaan.

Maar net zoals bij alle andere technologieën zal het liggen aan tijd, geld en motivatie de mensen hebben die het uit moeten voeren.

Mijn punt is dat dit niet per se een probleem van AI is. Vroeger toen Excel uitkwam waren mensen vast ook huiverig dat men een computer allerlei statistieken liet uitrekenen en daar blind op vertrouwde.
Maar dat betekent dus ook dat soms het risico te hoog is. Daarom hebben we nu niet allemaal een mini kern-reactor in onze tuin om onze huizen van energie te voorzien. Het kan wel, maar het risico is nogal groot...

Dit soort AI geeft een onacceptabele bias bij persoonsbeoordelingen. Het net zoiets als: de kans dat negatieve reviews worden gemaakt is groter dan neutrale reviews (dus okay maar niet uitstekend of slecht). Dus ontstaat er bias - hoe dan ook.
Er zijn risico's, maar ik heb zelf nog geen serieus werk gezien qua verbeteringen. Wel zie ik disclaimers die je vertellen dat je niet moet luisteren naar AI en dat alles wat ze zeggen een leugen of een verzinsel is.

Zodra Google en Microsoft het "geloof ons niet"-labeltje weghaalt en het risico op rechtszaken accepteert, valt het misschien te overwegen. Voor nu zijn LLM's niet te vertrouwen.

[Reactie gewijzigd door GertMenkel op 15 augustus 2024 15:43]

Wanneer je je hele leven al social nudging ontvangt zal je eigen besluitvorming daar ook al door beïnvloed worden. Maar we zitten nog héééél ver van besluitvorming.

Waar AI nu toe in staat is, is het uitschrijven van een vonnis, nadat dat door de rechter is geveld. Wat ook kan is gericht zoeken in jurisprudentie naar vergelijkbare zaken, of zaken met vergelijkbare componenten.
Zolang een mens het werk controleert en verantwoordelijk blijft.
Maar zo werkt het niet. Hoe meer de AI gaat overnemen van mensen, hoe minder mensen dat werk nog doen. Het gevolg is dan dat er steeds minder mensen op termijn nog in staat zijn om het werk van de AI te controleren.

En dan ontstaan er risico's. Een hallucinerende AI kan gekke zaken in documenten opnemen. En als die dan voor waar aangenomen worden, kan dat verstrekkende gevolgen hebben. Er zijn al zaken in de VS geweest waar advocaten met verwijzingen naar niet bestaande jurisprudentie kwamen.

Dus goed dat men nu onderzoek doet om tijdig alles duidelijk af te bakenen.
Alleen controleert niemand de output van AI. Wat je nu gaat krijgen is een hoop juristen die hun dossiers niet meer gaan lezen. Een mens is defacto gemakzuchtig 🤷🏻‍♂️

[Reactie gewijzigd door klakkie.57th op 15 augustus 2024 14:49]

Mij lijkt het juist wél OK om dit in kaart te brengen. Hoe wil je anders duidelijkheid krijgen waar het allemaal gebruikt wordt? Dan kan je er ook geen maatregelen tegen nemen.

Dus ik vind het juist heel erg OK dit, om dit te gaan inventariseren. Dan kan je tenminste de boel nog enigszins in goede banen leiden op een gecontroleerde manier, met wet- en regelgeving, als dat nodig mocht zijn.

Het gebruik zélf van AI in deze sector ben ik ook wat sceptisch over, en ik vraag me af of we dit maatschappelijk moeten willen. Maar daar gaat dit artikel dus niet over, dit artikel gaat puur over de inventarisatie van het gebruik.

[Reactie gewijzigd door wildhagen op 15 augustus 2024 12:59]

De principes achter het gebruik van AI zijn het zelfde als die van ieder computersysteem - prima, maar vertel wel wat er gebeurd, hoe en waarom. Voor velen is AI een black box waar iets inkomt en quasi-magisch iets uitkomt. Dit is niet zo, er zitten altijd modellen en trainingsdata achter.
Als justitie AI gebruikt als toevoeging, dan zie ik geen probleem. Immers, justitie blijft eigenaar en toezichter op de input, output en gebruikte algoritmes zonder dat deze menselijke taken overneemt.

De JBZ-raad wil (begrijpelijk) nog niet te veel inhoudelijk stelling nemen. Want als ze dat doet, dan moet ze zeggen wat wel & niet mag. Er wordt qua AI voorlopig een beroep gedaan op de intergriteit van de sector omdat er, denk ik, geen urgente redenen zijn om meteen iets te ondernemen. De sector zal iets moeten met AI omdat de maatschappij door AI veranderd. Zoals je zelf aangeeft is het goed om er vroeg bij te zijn qua inventarisatie, want als een overheidsinstelling eenmaal op een bepaalde manier werkt is het heel lastig (gebleken) dit te veranderen. Zodra de termen 'AI' en 'bezuiniging' maar niet worden gecombimeerd maak ik me niet direct zorgen.
Het is de vraag of de ongewenste effecten en fouten van de AI wel gedetecteerd en gecorrigeerd worden. Dat er geen probleem is met het gebruik van AI omdat er altijd iemand de uitkomst controleert zeiden ze bij DUO en de belastingdienst ook.
Dit is toch juist helemaal ok?
Ze zeggen niet we moeten kunstmatige intelligentie in gebruik nemen. Maar we moeten dit onderzoeken. Inclusifief de consequenties.

Kan zijn dat het uitkomst van het onderzoek gaat zijn dat het niet in te zetten is in deze sector. Maar je komt niet tot een goed uitkomst zonder het eerst te onderzoeken.
Het probleem is dat het dus al is geimplementeerd. En daar maak ik mij zorgen over.

[Reactie gewijzigd door Yzord op 15 augustus 2024 14:22]

Je beide reacties zijn nogal karig in de zin van wat je precies vindt en waarom. Wat vind je niet ok? En waarom? Want als ik het goed begrijp doen ze precies wat jij wil, namelijk onderzoeken hoe ai wordt gebruikt en hoe ze hiermee om moeten gaan.
Je kan ook gewoon zeggen , “we verbieden het in zijn geheel” zonder onderzoek naar het huidige gebruik 🤷🏻‍♂️. Vervolgens start je een wetenschappelijk cel op die AI voor gebruik in rechtspraak moet onderzoeken , zonder daadwerkelijk gebruik in “echte” rechtspraak. Een soort dubbelblind onderzoek op langere termijn.
Vertel dan op z'n minst waarom het niet ok is.
Ik ben zeer benieuwd hoe de verschillende partijen straks zullen omgaan met de 'textuele expertise'. In grotere zaken gaat er serieus geld om in het zoeken naar een specifieke zin/vormfout in een document/uitspraak/contract (of interpretatie ervan), of juist het zo moeilijk mogelijk (maar binnen regeltjes) formuleren van bepaalde zaken.

Ik test nu af en toe eens chatGPT om bepaalde teksten te vertalen naar iets 'simpels', maar verliest daarmee wel vaak de specifieke context waarin het is geschreven. Anderoms zou het mij niet verbazen dat er regelmatig AI wordt gebruikt om bepaalde teksten te generen in de meest complexe vorm, of juist andere context te geven. Zeker als het gaat om een bezwaarschrift, zou je dus prima een AI een 40 pagina lang 'bezwaar' laten schijven met enkel doel de hele zaak te vertragen, of juist zo'n 40 pagina bezwaar te 'vertalen' naar simpel leesbaar materiaal.

Denk dat je daar toch vooraf aardig wat risico/richtlijnen en kaders wil hebben, voordat het een cowboy land wordt waar de wedstrijd meer wordt wie het meest creatief is met AI dan er daadwerkelijk een discussie loopt over een wet of juridisch geschil.
... maar verliest daarmee wel vaak de specifieke context waarin het is geschreven.
Spijker op z'n kop!!!

Of iets relevant is of niet hangt af van de context. Omdat een AI geen begrip geeft van de kennis die het model bevat is de context slechts een aanname die de AI maakt. Is deze aanname incorrect dan zal er relevante informatie ontbreken in het resultaat. Iets wat mij zeer onwenselijk lijkt in de rechtspraak: een OvJ of advocaat die AI gebruikt waardoor er relevante informatie ontbreekt in het pleidooi.
Ik snap het probleem niet. Gebruik je AI niet correct dan zal je minder effectief functioneren. Maak je echter optimaal gebruik van AI en voeg je zelf de context toe dan zal je meer successen boeken.

Het wordt pas een probleem als de AI zelf als relevante bron wordt gezien.

Overigens wordt de wetgeving volgens mij in geen enkel AI model verwerkt.
Gebruik je AI niet correct dan zal je minder effectief functioneren.
Dat niet alleen. Onkundig of onjuist gebruik van AI kan averechts werken. Lijkt mij een probleem dat verder strekt dan 'minder effectief functioneren'.
"De toepassing ervan in besluitvorming ligt echter gevoelig. De justitiële sector blijft immers mensenwerk", zo staat in het verslag.
De juridische sector is inderdaad mensenwerk. Toch word AI al gebruikt in de totstandkoming van recht, zoals te lezen in nieuws: Voor het eerst refereert Nederlandse rechter in uitspraak aan gebruik.... Ik zou het ook niet raar vinden om voor nu te zeggen "dat gaan we niet meer doen" tot er beter naar gekeken is en een breder besluit over is genomen.
Hier is AI duidelijk niet gebruikt als hulpmiddel, maar gebruikt de rechter de uitkomst van de AI als onderbouwing van de rechterlijke uitspraak.

Helaas ontbreekt in het vonnis de gebruikte versie van ChatGPT, alsmede de door de rechter ingevoerde prompts. Wat doet dit voor de jurisprudentie? De rechter heeft immers een overweging gemaakt op basis van iets waarvan niet alle relevante details in het vonnis zijn opgenomen.
De rechter gebruikt het als onderbouwing, maar is het niet onderdeel van het rechtssysteem dat de aanklager en aangeklaagd dat moeten leveren?

Daarbij zijn er in de comments van dat artikel ook veel terechte twijfels bij de manier van gebruik en het gebrek aan controle van de gegeven antwoorden.

Dus nee, ben absoluut geen fan van deze manier van AI gebruik in rechtzaken.
De rechter gebruikt het (mede) als onderbouwing om een claim af te wijzen. Er werd gezocht naar rendementen en kosten om een claim over gederfd rendement van zonnepanelen te bevestigen of te weerleggen nadat een buurman een dakkapel liet bouwen dat zorgde voor extra schaduw op de zonnepanelen.
Het vonnis zelf vermeldt niet of de rechter de juiste prompt opgegeven heeft en of hij de eerste de beste uitkomst voor waar heeft aangenomen, of dat hij meer stappen heeft gezet om de uitkomst te verifiëren.

Het is nu aan de partij die ongelijk heeft gekregen of er wel of geen jurisprudentie over volgt. Die kan in hoger beroep gaan met als argument dat de rechter een onbewezen hulpmiddel heeft gebruikt, zonder aan te geven waarom hij het antwoord betrouwbaar achtte. Dan moet die partij wel aangeven wat volgens eigen berekeningen en andere, wél betrouwbare, bronnen de juiste gegevens zijn en dat die gegevens de door de eerdere rechter afgewezen claim onderbouwen.

Ik acht de kans groot dat het om te beginnen al een onzin-claim was.
Twee buren die al niet goed door één deur konden, waarvan één een dakkapel liet bouwen die op bepaalde momenten van de dag een beetje schaduw op de zonnepanelen van de andere buur laten vallen, waarna die ander buur helemaal door het lint gaat. Die andere buur wil dan zonder verdere onderbouwing de kosten van zijn zonnepanelen én de toekomstige elektriciteitskosten van de niet zelf opgewekte energie claimen. De ene buur komt dan met een goed onderbouwde berekening dat dat gederfde rendement er meevalt, samen met het argument dat hij een vergunning heeft gekregen voor het bouwen van het dakkapel.
De rechter zal dan gekeken hebben welke van de twee buren gelijk heeft heeft. misschien was een kleine zoekopdracht in ChatGPT genoeg om het gelijk van de enen buur te bevestigen, misschien was de zoektocht iets langer, maar vond de rechter het niet van belang om daar uitgebreid op in te gaan.

Een andere mogelijkheid is dat de rechter hier uitdrukkelijk aan het vissen is naar nadere jurisprudentie.
Misschien heeft hij uitgebreid onderzoek gedaan en daarmee bevestigd dat de claim van de andere buur juridisch totaal niet steekhoudend is. Maar hij ziet dat die buur koste wat kost gelijk móet hebben en bij het afwijzen van zijn claim onherroepelijk in hoger beroep gaat, ongeacht wat er in het vonnis staat.
Dan kan het zo zijn dat de rechter die opmerking over ChatGPT er even tussen frommelt, omdat het gerechtshof waar het hoger beroep behandeld gaat worden daar dan ook wat over moet zeggen, inclusief randvoorwaarden voor het gebruik, etc. of juist een zware afkeuring. Juist omdat de rechter wil weten wat wél en niet mogelijk is met AI.
Dat is één manier waarop jurisprudentie gevormd wordt.
AI gaat in de toekomst denk ik nog een hoop banen kosten. Wat dacht je van het real-time tracken van gedetineerden/ personeel binnen een inrichting? Dan heb je in de toekomst een stuk minder personeel nodig voor het regelen van verkeer.
Denk dat het reuze meevalt. Je hebt altijd wel automatisering, en af en toe kan een functie inderdaad weggeautomatiseerd worden. Maar machine learning is vooral inzetbaar bij data analyse, en gezien het gebrek aan betrouwbaarheid is het maar beperkt inzetbaar daarbuiten. Je zult het vaak over enkele procenten extra productiviteit hebben. Niet heel spannend.

In de AI hype vergeet men de laatste tijd heel erg dat er ook nog andere algoritmes bestaan, die ook de efficientie kunnen verbeteren. Ik denk dat als een organizatie eens kritisch naar z'n software kijkt er altijd wel wat te verbeteren valt.

[Reactie gewijzigd door Wolfos op 15 augustus 2024 14:32]

Waren er niet nog verschillende artikelen hier op tweakers hoe Justie al AI gebruikte en grote fouten mee maakte zoals delen van persoonsgegevens en benoemen van niet-bestaande cases? Ik vind dit een zeer slecht idee.

[Reactie gewijzigd door protected22 op 15 augustus 2024 13:27]

Op dit item kan niet meer gereageerd worden.