Belgische minister Justitie: politie moet AI kunnen inzetten voor proces-verbaal

Paul Van Tigchelt, de Belgische minister van Justitie, vindt dat de politie AI moet kunnen gebruiken voor het opstellen van een eerste versie van een proces-verbaal. Het inzetten van AI-tools zou de administratieve last voor agenten verminderen.

Tijdens het voorstellen van de kieslijsten zei Van Tigchelt dat Belgische agenten gemiddeld 30 procent van hun tijd spenderen aan het opstellen van processen-verbaal en ander administratief werk. Dat meldt Nieuwsblad. AI zou ingezet kunnen worden om een kladversie van een proces-verbaal op te stellen op basis van de beelden van bodycams, zo stelt de minister. Deze eerste versie zou vervolgens worden aangevuld en gecontroleerd door agenten, om het administratief werk van agenten 'te halveren'.

De minister stelt dat hoewel België meer agenten per inwoner heeft dan gemiddeld in Europa, er nog altijd veel vraag is naar personeel bij de overheidsdienst. Door AI-tools te gebruiken, zou het personeelstekort kleiner worden en hoeven agenten minder tijd achter het bureau door te brengen. Volgens Van Tigchelt zorgt dit voor '15 procent meer blauw op straat', zonder daarvoor nieuwe agenten te hoeven aannemen.

Door Sabine Schults

Redacteur

12-02-2024 • 15:46

142

Reacties (142)

Sorteer op:

Weergave:

Weet je waarom het zoveel tijd kost om een PV te schrijven, omdat het juist en secuur gedaan moet worden. Dus nu gaat een AI de eerste draft maken op basis van de beelden van een bodycam, ik geloof er niet in. Er zit zo veel nuance in situaties, emotie, non verbale communicatie etc. Om nog maar te zwijgen van voorwerpherkenning. Heeft iemand een mes vast, of een telefoon, of een <insert random object>. Uiteindelijk zal de agent zelf alles nogmaals door moeten lopen, verbeteren waar nodig etc etc. Is de agent laks en denkt hij het zal wel, wordt het zo van tafel geveegd en gaat er wellicht iemand vrijuit..

Begrijp me niet verkeerd, AI is prachtig, maar laten we alsjeblieft toepassingen gaan bedenken waar het echt iets toevoegt in plaats van het overal klakkeloos te willen invoeren...
Dus een agent mag niet efficiënter zijn werk uitvoeren?
Als een agent alleen maar hoeft te checken en wat wijzigingen moet maken dan kan hij meer zaken in behandeling nemen en zal het hoeveelheid onbehandelde zaken drastisch af nemen.

Dit is onder de streep alleen maar beter voor ons en wat mij betreft een goed gebruik van AI
Op het moment dat je een LLM zover krijgt dat-ie opschrijft wat je wil dat er staat, accuraat en juridisch waterdicht, had je het net zo goed zelf kunnen doen.
Een wetboek doet niet moeilijk over verloren inkomsten.
Een LLM gebaseerd op twitter,reddit,youtube ect. zal altijd domme dingen aangeven omdat er heel veel troep op staat. Shit-in = Shit-out
Een wetboek en andere juridische documenten zijn toch wel in de basis een heel stuk beter geschreven en hebben weinig "tussen de regels" onzin er in staan.

Van alle bron data op aarde is denk ik het juridische systeem de beste vorm van LLM voer.
Klopt, en het is de sector met 1 vd grotere ROI's en mogelijks heel wat jobs die er beter van worden.
Het punt is natuurlijk dat het LLM hier voor een PV maar beperkt zich moet baseren op juridische wetboeken. Het doel van een PV is de situatie accuraat, volledig en correct beschrijven. Dat is iets wat een LLM aantoonbaar niet goed kan; accuraat en feitelijk correct blijven zonder het risico zaken te verzinnen.
Als je veel verder vooruit kijkt, vraag ik me af in hoeverre AI wordt ingezet bij steeds meer rollen. En hoe dat gaat werken? Krijgt straks een rechter ook AI tools om makkelijker tot een oordeel te komen? Ook voor hun is er een enorme werkdruk en men wil overal werkdruk verlagen - of er is iig een verdienmodel daarvoor. Hoe zou dat in de praktijk werken?
Jij misschien wel, maar daarom niet de gemiddelde agent. De gemiddelde agent staat niet te springen om een PV te schrijven, en neem het van mij aan dat PV's wel vaker in brak Nederlands zijn opgesteld en qua kwaliteit te wensen overlaten. LLM's zijn uitmuntend in fabriceren van correcte taal, maar inderdaad niet heel accuraat. Ik denk wel dat de gemiddelde agent en een goed geimplementeerde LLM elkaar mooi kunnen aanvullen.
Sja, alleen een agent die brak formuleert geeft onduidelijke input aan de LLM. Als deze dan een interpretatie uitwerkt die weliswaar taaltechnisch beter is, maar minder ambigu, kan dat de schijn wekken dat er meer zekerheid over de situatie is dan daadwerkelijk het geval is. Een agent die zelf taaltechnisch niet sterk is, ziet dat misschien niet, en levert dan een minder reële PV in.
De LLM doet geen feitelijke situationele inschattingen, alleen goede gemiddelden van wat het kent van algemeen taalgebruik en kennis.
Heel juist, maar de input/prompt hoeft niet uitsluitend van de opsteller van het PV te komen. De input zou kunnen opgesteld zijn door een expertengroep, die bvb de AI programmeren/configureren om bvb in een diefstalscenario anders te functioneren dan in een snelheidsovertreding-scenario. De opsteller van het PV zal daarbij nooit vervangen worden, maar zal ondersteund worden
Ja, maar dan gaat het geen tijdswinst of kostenreductie opleveren. En dat lijkt nu net niet het beoogde doel?
Sterker nog, op dit moment vervang je het "net zo goed" gedeelte beter door 'minimaal 4x zo snel'. ;)
Kanttekening, LLMs zijn super fijn voor het herschrijven van tekst. Als ik snel en zorgeloos schrijf, en een LLM dan 'vraag' het te rephrasen in een bepaalde stijl dan zijn er altijd een paar correcties nodig en mix ik mijn eigen woorden met die van de LLM, maar ik kan een professionele tekst zeker 2x zo snel schrijven met behulp van een LLM. Echter zou ik nooit een LLM willen gebruiken om een eerste draft voor mij te schrijven... kan me ook echt niet voorstellen dat een LLM op basis van bodycam beelden een procesverbaal bruikbaar zou kunnen generen (wie weet misschien over 20 jaar...).
Dit zeiden ze waarschijnlijk ook over de eerste iteraties van de boekdruk, van de computer, van 3d-printen, etc etc.

In het begin is het rommelig en amper beter dan met de hand. Maar blijft dat?
Maar blijft dat?
Ja, dat blijft. Want ultimo is een LLM getraind (door mensen!) op teksten die wij zelf hebben geproduceerd. De output van dat model kan magisch niet beter worden dan de input, want een LLM voegt niets toe. En op een gegeven moment (dat zie je nu al gebeuren) wordt een LLM gevoedt door teksten die het zelf geproduceerd heeft. Garbage in, garbage out, more garbage in.

Los nog van het feit dat niemand zei wat ik zei over de boekdruk, de computer, 3d-printen, want dat zijn allemaal dingen die vanaf het eerste moment sneller en handiger waren dan hun 'voorgangers', en het waren ook nog eens dingen waarvan de use case overduidelijk en helder is.

Jouw argument werd ook gebruikt door crypto-wappies en die zijn na 15 jaar nog steeds niet gekomen tot een probleem waar zij de oplossing voor hebben.
Ik begin tijd meegemaakt met computers in kantoren en er waren een hoop medewerkers die zo onding niet op hun bureau wilde hebben, was nergens goed voor.
Dat is idd iets dat je veel zag bij techniek die tegenwoordig gemeengoed is. Maar dat betekent niet dat alle techniek waar je dit bij ziet ook gemeengoed gaat worden.
Wow, chill dat jij dat al weet, hoe een gloednieuwe technologie zich de komende decennia gaat ontwikkelen! Je zal wel een succesvol zakenman zijn ondertussen door dat soort inzichten. Goed dat je crypto erbij haalt in je verhaal, uit net niets, want daar zitten mensen op te wachten.

Om eerlijk te zijn zijn reacties als de jouwe de reden dat ik niet meer reageer op Tweakers. Dank voor de reminder. Veel plezier in je bubble van alles zeker weten.
Wie zegt dat ik geen succesvol zakenman ben?

Je bent van harte welkom om met een tegenargument te komen. Maar als dat moeilijk voor je is snap ik dat je liever niet op de frontpage komt.
Als een agent "alleen hoeft te checken" wordt confirnation bias hét probleem.

Ik snap werkelijkwaar niet waarom hierop niet álle alarmbellen afgaan, toont alleen maar aan hoe erg de voorsteller het belang van secuur te werk gaan onderschat omwille van "tijdbesparing".

Enig idee hoe veel extra tijd het vreet als er onnauwkeurigheden ontstaan die dan rechtgebreid moeten worden? Na enige tijd zonder noemenswaardige problemen gaan mensen er ook nog eens vanuit dat het systeem mogelijk niet zo makkelijk fouten maakt (of krijgt de beleving dat het gedegen controleren erop onnodig tijd zou kosten) en dan is het hek gewoon van de dam.
Jij gaat ervan uit dat PV's die manueel worden geredigeerd perfect zijn en ik kan je vertellen dat ik er in mijn vorige carrière als advocaat héél véél gelezen heb die minder dan perfect waren, en sommige zelfs ronduit slecht.
Bovendien kunnen ook mensen ten prooi vallen van confirmation bias, zelfs zonder inzetten van AI.

Ik zou volledig met je akkoord gaan als je een beetje minder alarmerig zou reageren. Ik ga volledig akkoord dat dit niet zomaar van de ene op de andere dag moet worden 'geactiveerd' - het moet goed geimplementeerd worden, met goede protocollen die kunnen worden gestuurd door de allerbeste PV-schrijvers en die protocollen kunnen dan gedurende de eerste maanden goed worden opgevolgd en bijgestuurd. Op zo'n manier kan je zeker en vast de gemiddelde kwaliteit van een PV doen stijgen.
@Annihlator stelt als grens dat het niet slechts de taak van een agent is om resultaten van een AI te controleren en dat wel zo beschouwen extra problemen zal geven. Wat een terechte opmerking is, aangezien die taken niet zomaar zijn gegeven, laat staan om vooral aan het bureauwerk te zetten of overhead te hebben. Dat is heel wat anders dan menen dat een agent perfect werk zou leveren.

De alarmering minderen is daarbij niet zomaar redelijk. Het probleem is namelijk dat het plan onderdeel is van een verkiezingsplan om op politiepersoneel te besparen, niet om vooral de processenverbaal duidelijk te verbeteren of agenten duidelijk efficienter in te zetten. Waarbij het uitgangspunt over AI inzetten niet neutraal is, maar juist gericht alsof het vooral meerwaarde zou hebben, zelfs door alvast te suggereren alsof het vooral waardevol zou zijn voor concepten.

Als men nu duidelijk de mogelijkheden zou open houden dat AI niet zomaar besparing geeft en niet zomaar efficientie gaat verbeteren zou het een realistisch plan zijn. Maar dat doet men juist niet. De grens lijkt meer kijken naar hoeveel agenten andere EU landen hebben, zonder af te vragen of men daar wel efficient(er) is. Wat het des te begrijpelijker maakt wel zware kritiek op gebreken in de plannen te hebben.
Als men nu duidelijk de mogelijkheden zou open houden dat AI niet zomaar besparing geeft en niet zomaar efficientie gaat verbeteren zou het een realistisch plan zijn. Maar dat doet men juist niet. De grens lijkt meer kijken naar hoeveel agenten andere EU landen hebben, zonder af te vragen of men daar wel efficient(er) is. Wat het des te begrijpelijker maakt wel zware kritiek op gebreken in de plannen te hebben.
Je maakt een aantal goeie punten, maar hierbij ga je toch wel heel licht over de voorgestelde plannen. Ik durf een zittende minister toch wel iets meer krediet geven dat een voorgesteld plan toch wel iets meer overdacht is dan wat een aantal mensen op 10 minuten in een commentaar onderuit kunnen halen. Het zou mij niet verwonderen dat bvb 'meer blauw op straat' ook voelbaar minder nood aan PV's zou opleveren, en dat is misschien wel het hogere doel? Minder criminaliteit, minder ongevallen, een groter veiligheidsgevoel van de burger?
Waarop baseer je in dit geval dan het krediet? Want het is een partijvoorstel, geen overheidsvoorstel of zelfs maar wetenschappelijk voorstel. Dat men een partijlid die minister is het voorstel laat doen maakt het niet zomaar goed doordacht. De doordachtheid lijkt ook verder nergens uit te blijken met duidelijk doordachte onderbouwingen. Wat het des te redelijker maakt dat tweakers er inhoudelijke kritiek op hebben.

[Reactie gewijzigd door kodak op 23 juli 2024 00:55]

Niet zo lang AI hallucineren. Zelfs voor huis tuin en keukenvragen kan je er niet op vertrouwen dat AI geen fouten maakt of soms dingen compleet fabriceert.

AI inzetten voor een proces verbaal is echt ten zotte |:(
Een AI met bewustzijn is hiervoor wel geschikt, omdat het weet waar het echt moet opletten. Een AI zonder bewustzijn kan dat niet, die volgt gewoon ingeprogrammeerd regels.

Misschien worden AI's met bewustzijn in de toekomst rechters... Daders horen snel straf en juristen hoeven niet langer op rechtszaak wachten. Wachttijd wordt flink verkort als er meer AI rechters komen.

[Reactie gewijzigd door Dark Angel 58 op 23 juli 2024 00:55]

Een AI heeft volgens mij geen bewustzijn. En daarmee ook geen ethisch oordeel over wat een rechtvaardig oordeel is. Op z'n hoogt worden regels an-sich toegepast, paar is ruimte voor nuance onmogelijk (die slechte jeugd van een verdachte is niet in een regel te vatten).

AI is altijd gebasseerd op ingeprogrammeerde regels c.q. kansberekening/waarschijnlijkheden op basis van ingevoerde data. Maar wie-o-wie gaat controleren of de ingevoerde data niet biassed was? Of beperkt.

Ik ben nog wel benieuwd wat er dan met dwalingen in de rechtspraak gaat gebeuren. Wordt de leverancier van het AI model verantwoordelijk als de rechter alleen 'bij het vinkje' getekend heeft (maar het AI model niet snapt)?

Zit er niet ergens iemand die roept: een kinderverstand kan nog wel beoordelen dat AI inzetten in de rechtspraak een dwaas idee is?
Een AI heeft volgens mij geen bewustzijn
Dit is juist het onderscheidende factor tussen wel of niet AI.
Als het geen "bewustzijn" heeft is het niet een AI maar een door de mens geschreven standaard programma.

Er zijn maar een paar bedrijven die iets hebben wat geclassificeerd zou kunnen worden als AI.
De rest gebruiken voorgeprogrammeerde machine learning tools om de illusie te geven dat ze AI gebruiken en harken op massale schaal de investering geld binnen.
In ons bedrijf wordt (of werd) veel tijd besteed aan AI (tbv afbeeldingen). Het is inderdaad waar dat veel data scientists (WO geschoold) wel trainingen op kunnen zetten en parameters aanpassen, maar de groep die zelf modellen kan ontwerpen een heel stuk kleiner is.

Dat gezegd hebbende: ook de een AI model is in de basis een zet programmacode. Er komt niets vanzelf. Maar op basis van input (bijv. plaatjes van auto's) 'weet' AI een auto te herkennen. Dat herkennen zou ik niet met bewustzijn vergelijken. Nog los van het ethische aspect.

Als je AI en rechtspraak zal kunnen gaan combineren (waar de rechter hoe dan ook eindverantwoordelijk blijft) dan is dat meer op basis van 'geleerde jurisprudentie'. Daar kan een AI tool wellicht meer dan een mens en delicten, wetten icm jurisprudentie kunnen combineren.

M.i. vinden een hele hoop mensen AI gaaf, omdat ze zelf niet snappen waar ze mee bezig zijn en voor iemand die wel snapt waarover het gaat, de AI soms zo goed is, dat het behoorlijk wat tijd kost om de fouten erin op te sporen (die er, en dan praat ik over programmeer hulp/Co-pilot achtig) er bijna altijd inzitten.
ook de een AI model is in de basis een zet programmacode. Er komt niets vanzelf. Maar op basis van input (bijv. plaatjes van auto's) 'weet' AI een auto te herkennen. Dat herkennen zou ik niet met bewustzijn vergelijken
Je geeft op basis van input de opdracht om een set pixels of eigenlijk binaire code te herkennen. Dat functie wordt eerst geschreven door een mens dus je weet wat erin gaat en heb een verwachting patroon voor wat eruit komt.
Het doet wat je wil of je tweakt het tot je de gewenste resultaat geeft.
Het resultaat verschil tussen dat "AI" en een mens is feitelijk enkel snelheid.
Men durft het dan nog steeds "machine learning" te noemen terwijl je als mens hebt bepaald wat er gebeurt.

Het punt wanneer het een echte AI wordt is als het een auto kan herkennen via een camera stream zonder een snapshot te maken om te vergelijken met andere pixels. Het moet uit zichzelf zijn eigen manier van oplossing kunnen bedenken en toepassen, geheel buiten de originele set van instructies om.
Dus ja, het komt vanzelf of het is geen AI maar een lange reeks if-then-else.

Als je verder gaat kijken naar het ethische aspect wat is beter dan het system wat wij mensen gebruiken om goed van fout te onderscheiden?
Als je gaat verwachten dat we met zijn alle allemaal wetten en regels bedenken om AI's in toom te houden dan moet een AI toch weten wat die wetten en regels zijn om mee te beginnen?
Neen zolang de controle van de tekst zelf daarna gebeurd.
heaget heeft het over hoe secuur een agent kan zijn en hoe dit mogelijk zal vervallen met AI.
Net zoals jij de opmerking van heaget verkeerd hebt gelezen, kan jij ook de tekst van een AI verkeerd lezen.

Kwantiteit ≠ kwaliteit.
bv. https://www.hln.be/tech/i...akte-grote-fout~a7e9c1aa/ (headline en foto leesbaar voor niet abo)
"Maar Tim, die zelf met artificiële intelligentie werkt, ondervond waarom zo’n systeem voor ophef kan zorgen. Een AI-camera gaf hem een boete van 380 euro, die hij absoluut zal aanvechten. Hij ontdekte zelf wat er precies misloopt met de camera’s. “Een politiemedewerker trekt zo al snel de verkeerde conclusies.”
"
edit: als je de foto bekijkt, al dan niet vrijwillig uitgelokt om een punt te maken :)

Laat dus staan om vanuit beelden door de huidige AI een complete draft te laten maken zonder een wettelijke ondersteuning, de kans bestaat dan reëel, dat een agent die wegens drukte weinig tijd heeft teveel vertrouwt op dit AI stuk en bijgevolg wordt aangevochten in een willekeurige rechtbank.
Dan zijn we jaren vertrokken eer dit weer wordt toegestaan in een rechtbank, het zijn duidelijk achtereen verkiezingen in België, onnoemelijk veel ballonnetjes worden weer opgelaten.

[Reactie gewijzigd door redzebrax op 23 juli 2024 00:55]

Ik ben alleen ingegaan op het situatie waarbij het een hulp middel voor agenten is om hun werk makkelijker te maken.
Geautomatiseerde flitsers of vergelijkbare dingen acht ik een geheel ander onderwerp.
"AI zou ingezet kunnen worden om een kladversie van een proces-verbaal op te stellen op basis van de beelden van bodycams, zo stelt de minister."
Als het al kan mislopen aan de hand van 1 beeld, dan kan je je wel voorstellen dat een interpretatie van een opeenvolging van beelden totaal de mist in kan gaan, waarbij het punt van @Heaget duidelijk naar voor komt : "omdat het juist en secuur gedaan moet worden."
Hoewel gemakkelijker en oorspronkelijk tijd gespaard, heeft dit potentieel geen enkele bewijswaarde meer en kan dit de maatschappij juist meer geld en werk kosten, laat staan dat een onschuldige onterecht in de problemen komt.

edit: dus zoals gezegd weer een ballonnetje van een minister i.v.m. verkiezingen die het ergens heeft horen luiden (als er maar AI in zit), en iets de wereld instuurt zonder het af te toetsen aan wet en recht.
Stel u bv voor dat een werkgever AI gebruikt om zijn werknemers te controleren, zou je dat ook aanvaarden ? Want dat is ook een punt, het AI stuk hoeft niet beperkt te zijn tot alleen de beelden, maar zou bv ook data uit andere databases kunnen combineren.

[Reactie gewijzigd door redzebrax op 23 juli 2024 00:55]

laat staan dat een onschuldige onterecht in de problemen komt.
Ja dat wordt het nieuwe probleem van 2030. We gaan zomaar onschuldige mensen opsluiten aan de hand van verkeerde data.
Oh wacht helemaal vergeten dat doen we al eeuwen...
En juist de nieuwe tech zorgt ervoor dat het beter gaat maar ow wee als het tech AI heet want dan gaan we terug naar de middeleeuwen.
Het AI wat je hier noemt is nog niet echt intelligent of bewust, het genereert antwoorden, samenvattingen aan de hand van het meest kansrijke via matrixen, een black box, het is geen if/else, een grove fout kan er zo maar in zitten. Eigenschappen zoals bewustzijn, denken of etc toekennen aan het huidige complexe taalmodel doen veel, maar zover zijn we nog lang niet.
We spreken ook niet over 2030 , maar over nu , het huidige model is echt nog niet geschikt en gelijk welke advocaat laat geen spaander heel in een rechtbank als dit als bewijslast wordt aangevoerd.
AI heeft en gaat tal van prachtige toepassingen kennen, maar een wetgeving zal volgen, wie zegt er iets van middeleeuwen ? Daar kon alles, wat nu blijkbaar met "AI" mag.
Ja precies, je wil dat de agent alles met de hand opschrijft want ja de autocorrectie in Words heeft ooit een iets gecorrigeerd naar "poep" en de rechtzaak werd verworpen omdat er een schrijf fout in zat?

Je wil wel de agent vertrouwen maar als diezelfde agent gereedschap gebruikt om efficiënter te werken dan vertrouw je hem niet meer dat hij/zij kan lezen?

2030 is dichterbij dan je denkt. Als ze nu beginnen met een eigen AI opzet duurt het nog jaren voordat ze kunnen beginnen en daarna nog een paar jaar om de AI te trainen.
6 jaar om het live te zetten is een realistische gok.
Datzelfde advocaat kan ook de AI gebruiken om zijn eigen werk makkelijker te maken.

Stel dat je nu zegt dat AI geen beeld material mag aanraken want het kan gemanipuleerd worden zonder dat we het door hebben.
Wat houdt een crimineel tegen om er 1 te gebruiken om "bewijs" te faken? Een mens kan het niet detecteren dus je heb een AI nodig om de AI op te sporen.
Hoe je het went of keert AI zal gebruikt worden.
Dit is iets heel anders dan een autocorrectie , dit is AI die een verslag opstelt aan de hand van beelden wat een agent nadien zou moeten nakijken en nadien zijn handtekening onder zetten en we weten allen hoe dat gaat als het even druk is.
Edit : die AI om AI op te sporen werkt trouwens perfect :) Je zet modellen tegen elkaar de ene perfectioneert telkens om het te ontwijken, de andere zegt je bent mis probeer opnieuw. Dat is een niet te winnen situatie.
Voor de duidelijkheid sarcastisch bedoeld.

[Reactie gewijzigd door redzebrax op 23 juli 2024 00:55]

Stel er wordt ergens midden in de nacht ingebroken maar tijdstip is niet bekend. De politie gaat het beeld materiaal van de afgelopen 12 uur door zitten spitten. Eerst scrollen ze er snel doorheen voor direct inbraak activiteit.
Daarna gaan ze het beeld vertraagd af spelen om de details te bekijken rond het moment van inbraak.
Men maakt een ruwe opmaak van de situatie en gaan alle mogelijke opties bedenken en onderzoeken.
Kans is groot dat ze wat missen want het zijn mensen en je kan niet elke pixel even duidelijk zien.

Nu geeft je dat 12 uur beeld materiaal aan een AI.
Na 5 min krijg je een lijstje van de AI terug met alle activiteiten die hebben afgespeeld in de afgelopen 12 uur.
Daarbij heeft de AI het volgende gevonden:
-12 katten en 3 vogels met bij behorende tijdstippen
-6 auto's gedetecteerd waarvan er eentje 2 keer voorbij reed. 1 keer om 00:33 en om 1:41.
-Een gele fiets is om 1:59 voorbij gefietst
-Inbraak heeft om 2:01 plaats gevonden.
-ect....
En dat allemaal binnen 5-15 min tijd. Elke pixel wordt gezien en een AI hoeft iets maar 1 keer te leren om het daarna voor altijd perfect te reproduceren, in tegenstelling tot mensen.
Dit is iets anders, AI als hulpmiddel voor feitelijke observatie kan best, maar dat is geen verslag en dat is niet wat @Heaget zegt : "Er zit zo veel nuance in situaties, emotie, non verbale communicatie etc." Ondervraging getuigen, dader etc.
En dan ga er nog vanuit dat AI de beelden correct interpreteert :) , zie het vb met gsm op de Antwerpse ring.

[Reactie gewijzigd door redzebrax op 23 juli 2024 00:55]

Hoezo is het geen verslag?
"AI zou ingezet kunnen worden om een kladversie van een proces-verbaal op te stellen op basis van de beelden van bodycams, zo stelt de minister."
Het is toch een prima "kladversie"?
Tijdens het voorstellen van de kieslijsten zei Van Tigchelt dat Belgische agenten gemiddeld 30 procent van hun tijd spenderen aan het opstellen van processen-verbaal en ander administratief werk.
Ze zouden ook met dat 30% meer nuance in situaties, emotie en non verbale communicatie kunnen uitpluizen en je maak ze ook nog blij met minder papierwerk.
Win-Win
Je gaat juist er met de pet naar gooien als het papier werk een sleur wordt.
duh ? Fijne avond nog.
Probleem is dat als de zaak voor zou komen je dus krijgt dat er potentieel AI bewijs getoond gaat worden wat niet gecontroleerd is. Dat zal in ieder geval geclaimed gaan worden en dan wordt het lastig. Nu is het woord van een agent meer waard in de ogen van het recht. Is dat nog zo als AI de boel geschreven heeft? En hoe toon je aan dat alles wat de AI schreef gecontroleerd is? Dat kost wellicht net zoveel als alles zowiezo opschrijven.
En mensen maken vandaag de dag geen fouten? Hoe je het went of keert zal het in de toekomst gebruikt worden.
Je keuzes zijn:
1) Je blijft erboven op zitten en zorgt ervoor dat een mens altijd de eind verantwoordelijke wordt
2) Je laat het lopen an AI neemt het hele systeem over zonder tussenspraak van mensen

Politie agenten worden echt niet vervangen door een AI. Ook al zou de "software" het misschien kunnen, hebben we nog een hele lange weg te gaan voor het fysieke gedeelte.
Mensen maken fouten en daar is het 4 ogen principe voor. Gelukkig is de LLM s die we nu hebben zo onbetrouwbaar dat 4 ogen logisch is (want te vaak missers). Het is problematischer als de AI in de uncanny valley weet te komen en mensen lui gaan worden want het gaat meestal goed.

Voor pure rechtsspraak zie ik overigen een grotere rol voor AI omdat alle jurisprudentie in de AI gieten eenvoudiger is en een juridisch proces er een is van woord tegen woord en logische deductie (waarbij LLMs op dat laatste vlak nog verdomd slecht scoren)
Gelukkig is de LLM s die we nu hebben zo onbetrouwbaar dat 4 ogen logisch is (want te vaak missers).
Is dit de werkelijkheid? Wat populair is tegenwoordig, zijn de chat "AI's" op basis van twitter, wiki, facebook, reddit ect. aka webcrawling.
Is het echt zo vreemd dat er soms de meest achterlijk dingen uit komen?

Wat gebeurt er als je niet social media als basis neemt maar enkel gevalideerde data?
De chatbots die dit kunnen zijn echt niet beschikbaar voor de publiek want dat validatie proces is lang en erg kostbaar.
Het juridisch systeem daarentegen is bijzonder geschikt als begin punt. Je heb gelijk het goed vs fout aspect te pakken en men doet de moeite om het taalkundig zeer strak te maken.
Dat OV is het uitgangspunt voor een opvolgende rechtsgang. Dat moet nauwkeurig, AI is niet nauwkeurig. AI maakt er een algemeen gekleurd verhaal van.

Wat je niet wilt is dat iemand door dat PV onterecht wordt beschuldigd en blijkt dat AI het verkeerd in elkaar heeft geknutseld.
Wat je niet wilt is dat iemand door dat PV onterecht wordt beschuldigd en blijkt dat AI het verkeerd in elkaar heeft geknutseld.
Of dat je niet 3 maanden in voorarrest zat te wachten op een onderzoek terwijl een AI in 30 second bewijs had gevonden dat de verdachte niet de dader was.
Of het 6 jarige ontvoerde kind binnen een half uur levend terug was gevonden ipv 2 dagen later in een sloot.
Kom maar door met een voorbeeld, want dit lijkt me erg vergezocht. AI heeft input nodig (bewijs bijvoorbeeld), als die er niet is valt er niks op te lossen. Daarnaast heb je een AI nodig die eerst gebouwd moet worden. Software is niet gratis, zeker niet als het heel complex wordt. De werking moet daarnaast ook gecontroleerd worden, waar je voornamelijk specialisten uit het veld voor nodig hebt...en dat betekend dat je agenten, rechercheurs en dergelijke weer zwaarder gaat belasten. Lang verhaal kort: het is het proces complexer en duurder maken en aan het einde heb je bijna hetzelfde.

[Reactie gewijzigd door Mother_lepard op 23 juli 2024 00:55]

Kom maar door met een voorbeeld
Echt waar? Ik heb letterlijk twee voorbeelden gegeven.
Heb je een voorbeeld van deze doom scenario voor AI? Nee natuurlijk niet... want het wordt niet gebruikt. Het is letterlijk een verzinsel van "wat zou kunnen"

Ja een AI heeft bewijs nodig dat klopt het onderwerp was dan ook video's uitpluizen. Waar een mens dagen tot weken mee bezig is om elke frame te bekijken doet je AI het in minuten.
Zo kan jij je focussen op de echte zaken.
Dat zijn geen voorbeelden van hoe AI het beter zou kunnen doen en waarom. Het is slechts een eindresultaat wat niet onderbouwt is. Dus het is niet "wat zou kunnen" maar "wat ik zou willen".
Soms werkt puin ruimen je tegen. Zelfde in mijn vakgebied. Mensen maken componenten aan (voor print platen), die controleer ik. 9/10 keer moet ik alles weggooien en het zelf maken of delen selecteren uit de library, omdat het al bestaat.
Een AI hoeft een actie maar 1 keer te leren om het daarna perfect te reproduceren.
Voor mensen geldt 9/10
Voor AI geldt 1/1
etc etc. Is de agent laks en denkt hij het zal wel, wordt het zo van tafel geveegd en gaat er wellicht iemand vrijuit..
Dus als de agent het zelf schrijft dan is de agent niet laks? Je kunt er vanuit gaan dat de agent zelf zijn werkt doet.
De andere kant is ook mogelijk: Je zou misschien wel kunnen zeggen dat een AI wel dingen kan observeren die anders over het hoofd hadden gezien.
Belangrijk is dat dit juist wordt ingezet…
Je zou misschien wel kunnen zeggen dat een AI wel dingen kan observeren die anders over het hoofd hadden gezien.
Ja en dat zijn precies de dingen die er dan weer uit geredigeerd worden, want “de AI is weer aan het hallucineren hoor”.
Begrijp me niet verkeerd, AI is prachtig, maar laten we alsjeblieft toepassingen gaan bedenken waar het echt iets toevoegt in plaats van het overal klakkeloos te willen invoeren...
Zoals een concept maken van een proces-verbaal dus. Als een agent alleen nog maar een gegenereerde proces-verbaal hoeft na te kijken op correctheid en volledigheid ipv dat de agent deze zelf moet schrijven, scheelt dat natuurlijk al enorm veel tijd.
Er wordt zo vaak geroepen dat er meer blauw op straat nodig is. Door agenten minder binnen te laten zitten, door het inzetten van AI voor de kantoortaken, kan dat gedaan worden.
Waarom een agent veel tijd laten besteden aan schrijven wat hij op een beeld ziet, als AI dat ook (of beter) kan? Het voegt toch juist iets toe als we hierdoor meer agenten op straat hebben?
Grappig dat direct wordt aangenomen dat die minister kul uitblaat. Jij denkt dat dit ad hoc uit de duim gezogen wordt. Of zou het ministerie dit eerst hebben besproken met de handhavende macht in België? Met andere woorden als het ongewenst zou zijn om een agent AI tools als HULP middel te laten gebruiken, dan hadden ze dit media bericht niet naar buiten gebracht.
Ja, de kans dat die minister kul uitblaat is behoorlijk groot.
Dan doen ministers namelijk aan de lopende band. En zeker waar het AI betreft zie je continue dat mensen in de hype mee springen zonder enige kennis van zaken en zonder dat er goed over nagedacht is. (niet alleen bij ministers maar overal in de samenleving)
Er komen verkiezingen aan in België en deze minister is heel vers aan de macht nadat de vorige tegen een politiecombi heeft gepist (niet verzonnen!) en heeft zich dus op niets kunnen profileren.

Dus ja, de kans dat die met om het even wat afkomt is serieus hoger dan 0. Zijn partij is in de peilingen gecrasht dus horen we nu wel meer nerveuze geluiden uit die hoek. Al zeker nu hij in zijn kieskring niet meer zeker is verkozen te geraken.

AI is een hot item, maar de gewone bevolking snapt er toch nog niet veel van. Deze minister die jurist is waarschijnlijk ook niet.

In Nederland heb je misschien de gewoonte dat ministers eerst dingen met de administratie doorspreken, maar in België is die traditie er niet. In plaats daarvan komen ministers met grote kabinetten gevuld door partijgenoten die soms nogal heel ver van de administratie staan.
Die hadden we wel , maar ik heb sterk de indruk dat ministers tegenwoordig ook meer dingen vanuit de losse pols melden en het dan een 'proefballonnetje' noemen als het in hun gezicht ontploft.
Volgens mij kunnen ze dan net zo goed met templates werken waar ze wat dingen aanklikken en invullen.
Persoonlijk denk ik, dat als AI écht volwassen begint te worden (+ zelflerend/zelfcorrigerend) dat het dan ook spannend begint te worden, vooral voor de mensen die het niet zo nauw nemen met alle 'regeltjes en toestanden':
- voor de minder ervaren of degenen-die-zich-scharen-onder-profi's: chauffeurs in het verkeer ("hoezo moet ik iemand van rechts voorlaten in het verkeer?" en "hoezo is het verstandig om wat ruimte te geven aan de minder snelle voertuigen in het verkeer (zoals vrachtwagens)??" #zelfrijdendevoertuigen (TER AANVULLING)
- voor tekstschrijvers, zoals journalisten (bij voorkeur zonder kleuring, zoals bij Rusland/Oekraïne, want de essentie van nieuws is, dat het onpartijdig zou moeten zijn).

Bovenstaande lijken mij twee punten, waarvan de maatschappij profiteert, in plaats van het individualisme, wat ik dagelijks om mij heen zie. Minder files, minder agressie, (hopelijk) meer en inhoudelijkere/verbindende communicatie, daar heb ik het over.

Oh, a man can dream...

[Reactie gewijzigd door Janbraam op 23 juli 2024 00:55]

Bovenstaande lijken mij twee punten, waarvan de maatschappij profiteert, in plaats van het individualisme, wat ik dagelijks om mij heen zie. Minder files, minder agressie, (hopelijk) meer en inhoudelijkere/verbindende communicatie, daar heb ik het over.
Aan de andere kant, het individualisme is een groot goed. Het zorgt ervoor dat wij als mensen zelf na kunnen denken in plaats van domweg regeltjes te volgen die van hogerhand worden opgelegd. Die vaak helemaal niet in het belang van de samenleving zijn maar voortkomen uit belang van machtspartijen of eeuwenoude boekjes.

Denk aan Iran, waar vrouwen in elkaar geslagen en gedood worden omdat ze weigeren een stukje stof op hun hoofd te doen. Of China (met het confucianisme zo ongeveer de tegenhanger van het individualisme) waar elke vorm van kritiek op de grote partij je duur komt te staan. Rusland, als je niet precies de juiste voorgeschreven woorden "speciale militaire operatie" gebruikt. Hup 20 jaar de cel in.

Wij hebben zo onze problemen ja maar het individualisme heeft ons een stuk weerbaarder gemaakt en tot een hoop emancipatie geleid. Vrouwen mogen werken, autorijden, stemmen, homo's mogen trouwen, kinderen adopteren. Deze dingen zijn allemaal mogelijk geworden doordat mensen zeiden van "fuck de maatschappij, we gaan hier hard tegenin". In haar tijd werden er echt geen standbeelden van Aletta Jacobs gemaakt :)

En over het algemeen houdt de Nederlander zich best netjes aan regels. Vergeleken met andere landen zoals Spanje waar de wet meer als een soort suggestie wordt gezien, zijn Nederlanders behoorlijke regelneven. Het is een van de redenen dat ik niet zo graag in Nederland kom, alles is zo aangeharkt en administratief ingewikkeld. Nou is het verkeer inderdaad behoorlijk agressief, ik heb zelf dan ook een pesthekel aan autorijden. Maar dat is ook niet alleen iets Nederlands (moet je een Italiaan eens auto zien rijden, die hebben aan 4 handen niet genoeg met alle verwensingen die ze maken).
inhoudelijkere/verbindende communicatie
Dit vind ik nou een bijzonder punt vandaar dat ik het even apart uitlicht. Hoe denk je dat mensen beter gaan communiceren met AI? Ik verwacht eigenlijk eerder minder intermenselijke communicatie als iedereen AI gaat inzetten. Want we krijgen dan steeds meer AI's die met elkaar zitten te praten over wat hun menselijke opdrachtgevers willen bereiken.

AI zal juist leiden tot ondermijning van communicatie. Ik zie het nu al, als iemand een heel verhaal binnenkrijgt dan wordt niet niet gelezen want 'het zal toch wel maar AI content zijn, niemand doet moeite om zoveel te typen'. Heb ik in de praktijk al op werk gezien. Bovendien, de ontvanger gaat ook AI gebruiken en zal bijvoorbeeld CoPilot in Outlook gebruiken om de binnengekomen emails samen te vatten. Hele documenten met belangrijke documentatie worden door de samenvattingsmolen gehaald, mensen lezen het origineel steeds minder.

Met als resultaat: Niemand gaat al die extra AI communicatie zien behalve andere AI's. Ik denk dat dit alleen maar gaat leiden tot mindere communicatie en meer onbegrip. Je kan namelijk als communicatie ontvanger je AI ook vertellen wat je belangrijk vindt en wat niet (ik gebruik AI op deze manier al om grote telegram groepen samen te vatten). Maar het gevaar is dat de AI je dan alleen nog maar vertelt wat je wil horen.

[Reactie gewijzigd door Llopigat op 23 juli 2024 00:55]

Ik denk dat er wel potentie is dat een speciaal ontwikkelde chatbot samen met een agent een begrijpelijker, omvattender en eenduidiger PV zou kunnen opstellen in minder tijd dan nu het geval is. Uiteraard moet de agent het wel nalezen wat er staat.
Dat is een hypothese.
Je kunt het ook gewoon doen en dan kijken of het tijd bespaart ten opzichte van een controle groep, de kwaliteit van het pv toeneemt en of de rechter ermee uit de voeten kan.
De selectie van gebeurtenissen is al gedaan, want een agent besluit te gaan verbaliseren.
Het zal niet snel de verbalisant vervangen, maar als het betekent dat een agent een dag in de week extra op straat kan zijn, zonder afname in kwaliteit dan is het een daverend succes.
Ze wouden schoolresultaten enkele jaren geleden ook op een blockchain zetten ipv een rapport mee te geven.
Belgische politiekers in een verkiezingsjaar en hippe IT technologie, het blijft een rare combinatie...
Nee hoor herriner ik me toch echt niet. Wie stelde dat voor?
Ben Weyts heeft er ooit een heel exposé over gedaan in De Morgen tijdens een interview.
De link moet ik je helaas schuldig blijven omdat ik niet over een abonnement beschik.
Nergens iets over terug te vinden, heb je er een link naar?
Helaas, via Gemini even proberen op te snorren maar ze mogen niet meer linken naar journalistieke content.
Vanwaar de grote interesse?
Misschien artikel lezen?
"Een kladversie" dus ja het is niet de bedoeling dat de ai hetboprstelt gewoon een begin en de politie werkt af .
Weet je waarom het zoveel tijd kost om een PV te schrijven, omdat het juist en secuur gedaan moet worden.
Niet alleen dat. Het is ook wel een ding dat de mensen die gekozen worden voor de politie nou over het algemeen niet bepaald de aanleg hebben voor administratief werk. Dat speelt ook wel behoorlijk mee.

Ik had vroeger politie in de familie en zat wel eens op het bureau en als ik zag wat het veelbeklaagde 'papierwerk' nou inhield.. Zoiets tikken wij tweakers in 5 minuten weg hoor. Dan zaten ze daar een uur lang met 2 vingers te prikken in de typmachine :')

Ik zie de toegevoegde waarde wel, vooral voor dertien in een dozijn gevallen. Het zou mooi zijn als de agent gewoon de feiten aangeeft en de AI er een leesbaar verhaal van maakt.

Het checken van afloop is natuurlijk wel een bijzonder belangrijke actie bij het gebruik van AI, ja. En ik vraag me ook af of dat gedaan wordt. Ik zie het zelf op het werk, alle CIO's zijn helemaal hijgerig van alles dat AI biedt, alsof ze een stel tieners zijn op weg naar hun eerste feestje :') Het hele idee van "wel even netjes checken" valt zo helemaal in het water in de hijgerige zucht naar meer 'gratis' winst en de angst de boot te missen (echt extreme FOMO rond dit fenomeen).

Dit zal je in de publieke sector ook zien en dat gaat gewoon tot brokken leiden, zeker.
Ik denk juist dat voor het eerste basale 'boilerplate' PV werk een AI best zou kunnen helpen. Als je beelden van een camera moet beschrijven, zit je waarschijnlijk in eerste instantie veel met beschrijvende beelden van de omgeving ("ik zag dat er een groene auto vanuit de richting ABC op het kruispunt rechts afsloeg, waarbij dit voertuig geen richting aangaf"). Al dit soort teksten kan een AI waarschijnlijk veel en veel sneller genereren dan een politieagent die met twee vingers een verslag in zit te tikken. Iets bijwerken gaat sneller dan iets vanaf niks opbouwen, dus ik geloof inderdaad wel dat dit kan helpen. En vergeet niet: Van Tigchelt stelt zelf ook dat het om kladversies gaat, dus niet iets wat 1:1 in het dossier eindigt.
Even een reactie van een interventielid in België met 13j operationele ervaring (and counting). Ik ben waarschijnlijk veel minder technisch aangelegd dan de meeste tweakers hier en ken zeker niet de beperking of de mogelijkheden van AI. Maar even enkele bedenkingen die ik kan maken.

Een proces-verbaal is een schriftelijke weergave van wat vastgesteld is door de opsteller. Dit kan misschien niet het beste Nederlands zijn maar het is wel wat de opsteller in zijn bewoordingen heeft vastgesteld en heeft geïnterpreteerd. Dit is inherent deels subjectief maar de opsteller ondertekent het PV op het einde wel met "waarvan akte". Dit heb ik vastgesteld. Als een AI een eerste draft voorstelt, zou dit al redelijk objectief moeten gebeuren en in de lijn van hoe de opsteller dingen vaststelt. Nu, dit is een kleine horde die volgens mij nog kan genomen worden.

Volgende probleem is de camerabeelden. Een bodycam filmt niet alles door de bewegingen die je maakt. Vaak zit je ook dicht op de verdachte waardoor er vaak (veel?) dingen buiten beeld gebeuren. Als aanvullend materiaal om een PV te maken, heb ik dit zelf al gebruikt en het werkt fantastisch maar het is aanvullend en zeker niet alles omvattend. Bovendien is er dan ook nog het geroep en geschreeuw die soms ook dient geïnterpreteerd worden en, laat ons eerlijk zijn, sommige Belgische dialecten zullen door AI niet altijd makkelijk te interpreteren zijn. Laat staan dat de tekst die de AI "hoort" ook gekoppeld wordt aan de juiste persoon.

Dan komen we aan het volgende probleem. Helaas is een groot deel van mijn schrijfwerk feiten die al gebeurd zijn. Verkeersongevallen, inbraken in woningen en voertuigen, gestolen voertuigen, intra-familiaal geweld, opzettelijke beschadigingen, stalking, etc. Allemaal feiten die niet gefilmd worden omdat het ook geen meerwaarde heeft. Er worden in de meeste gevallen wel foto's genomen om een fotodossier op te stellen. En natuurlijk ook een verhoor. Dit zijn dan ook meestal PV's waar het qua schrijfwerk wel meevalt omdat je als opsteller niet denderend veel vaststellingen hebt. Je kan enkel maar vaststellen dat een cilinder van een deur afgekraakt is. Of dat er een deur opengepraamd werd.

Uiteindelijk ligt de grote administratieve last niet in het typen van het PV zelf. Wel in het nog steeds ontbreken om "op de baan" een verhoor elektronisch direct te kunnen uittypen en te laten ondertekenen ter plaatse waardoor we nog steeds het verhoor ter plaatse dienen uit te schrijven en ten burele dan te moeten uittypen. Of het feit dat het parket nu alle bijlages die we ontvangen van alle partijen afzonderlijk dienen in te scannen, hernoemen en uploaden in een oubollig systeem. De PV's worden geschreven in Word 6 want zo zit het systeem nu eenmaal in elkaar. En dit houdt in dat er soms een probleem is met "DDE Connect", een oubollig restant van Microsoft maar die we dus nog nodig hebben gezien de oubollige software waar we mee werken. Of het feit dat als je twee PV's naast elkaar opent er kans is dat Word crasht als je het muiswieltje gebruikt om te scrollen en dat het PV verloren gaat en je alles opnieuw mag maken. Het document aanmaken om het PV te starten duurt ongeveer 3 a 4 min. Dit is meestal voor mij tijd om een nieuwe kop koffie te gaan halen. Een fotodossier aanmaken, daarvoor moeten we in principe het programma FOCUS gebruiken, waar je soms gewoon geen foto's kunt in uploaden of vele malen opnieuw moet proberen.

Maar ja, AI die een eerste draft maakt zal de administratieve last verminderen. *zucht*

[Reactie gewijzigd door Dimi83 op 23 juli 2024 00:55]

Dus een echte betere oplossing zou gewoon zijn afstappen van de jaren 90 software en een moderne omgeving die werkt leveren.
Als iemand die regelmatig PV's schrijft denk ik dat AI zeker kan helpen. Maar dan als een soort assistent in handhaving en opsporings software.

Er zit heel veel repetief werk bij wat makkelijk geautomatiseerd kan worden.

Voor het schrijven van PV's zie ik de mogelijkheid dat de AI tijdens het schrijven suggesties doet. Ook in mobiele apps van de politie.

Echt een PV opmaken als kladversie gaat denk ik niet echt werken...
Goed dat ze het dan zien als een 'klad'-versie, en dat het daarna nog door echte ogen gezien wordt.
Ik zou het toch niet prettig vinden als het niet, ook nog door een echte politie agent gecontroleerd wordt.
Genoeg (niet alleen politie) mensen die dan geconditioneerd worden dat dit vaak "goed" is, en dan klakkeloos submit drukken uit luiheid / repetitie :+

Ik ben benieuwd hoe de rechter dan zoiets in een bezwaar verwerkt, want in feite heb je dan niet een verbaal waarbij dat een beschrijving van de agent is.. kan ik dan bij een terecht bezwaar bij de rechter aankomen dat het verhaal niet klopt, en de agent in kwestie feitelijk onjuiste informatie heeft ondertekend?
Uiteindelijk kiezen rechters voor de kant van de agent, want dat woord weegt zwaarder. Ik zou mij dan echt heel naar en machteloos voelen - de computer zegt nee, met de handtekening van de agent erbij.

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 00:55]

Op termijn al AI minder fouten maken dan een agent. Ook zal een AI minder gevoelig zijn voor omkoping. En mits niemand aan de knoppen draait kan die niet KPI gevoelig zijn.

Uiteindelijk zullen de prestaties en mogelijke coulance afhankelijk zijn van de nodige input. Zelf heb ik meer vertrouwen in een computer dan ome Gent waarvan ik meermaals onterecht een ticket van heb ontvangen.

En je hebt gelijk, een rechter zal op termijn meer vertrouwen hebben in een computer dan een individu maar is dat niet eerder een probleem in ons systeem waarbij een burger lager staat dan de overheid?
De AI genereert een kladversie van het PV op basis van bodycams. Indien de AI iets fout noteert en de agent blind op "ok" duwt, dan kan je nog steeds de bodycams opvragen en het hele euvel rechtzetten.
Eens dat dit meer werk is, maar persoonlijk denk ik dat een AI objectiever zal zijn en minder details zal missen.

Dit alles tot de AI begint te noteren waar agenten fout hebben gehandeld... dan zal deze snel als "niet geschikt om te gebruiken" worden geclassificeerd. Ik meen me te herinneren dat er in een verleden ook zo een AI was die klad-vonnissen ging schrijven en dat tijdens het trainen allerhande vonnissen naar boven kwamen waar de rechtbank de wet niet gevolgd had. Was dacht ik ook direct in de prullenbak gegooid ipv het hele gerechtsysteem sneller, goedkoper en rechtvaardiger te maken. Ik zal eens zoeken naar de link als ik die nog terugvind.

Daarnaast is het administratieve deel van de job van een agent een relatief ongevaarlijk deel. Dit betekent dat de agenten in verhouding een gevaarlijkere job gaan krijgen. Hier zullen ze ook - misschien wel terecht - een additionele vergoeding voor willen...
Nogal vreemd eigenlijk. Nu is een PV al een invulformulier.
Naar mijn ervaring is een PV vaak gewoon een tekst of verhaal.
Vaak wel, maar een diefstal is in een kernwoordenop te schrijven. Daar nemen ze echt wel dropdownmenus en invulvelden.
Bij de complexere zaken is het meer ene tekst en dan vraag ik me af hoe AI dat doet.
voorbeeld: professioneel kwamen wij wel eens valse diplomas tegen. Wij melden dat dan aan de school die zogezegd het diploma had afgeleverd. Als zij er mee verder gingen dan kwam de politie wel langs om een PV op te maken.
Benieuwd wat AI daar van zou maken.
wordt hier gedoeld op het concept 'templates', en wil men een buzzword gebruiken om te voorkomen dat er te snel wordt gedacht aan het maken van 'stereotype' proces verbalen die in de buurt komen van 'etnisch profileren'?
Ooit wel eens een process verbaal op laten maken? Ik was verbaast hoe sloom dat ging, maar als je er over na gaat denken... Uiteindelijk is het de tekst op papier (of scherm) waarmee iets een zaak wordt, de woorden etc moeten goed gekozen en gewogen worden want het moet zo min mogelijk voor interpretatie vatbaar zijn. Templates zijn dus niet meer dan de opmaak, header en footer, net zoals in een Word of ieder ander template.

Hoe je van hier de sprong naar 'stereotypes' en 'etnisch profileren' maakt zegt meer over jou dan over de politie?
ik kan me toch echt wel voorstellen dat heel veel aangiftes uiteindelijk wel te categoriseren zijn zodat er uiteindelijk standaard zinnetjes uit kunnen rollen die je prima kan gebruiken, om daarna nog maatwerk toe te passen op een paar details. Maar daar rollen dan bij wijze van spreken die 'vooraf ingevulde aangiftes uit', zoals destijds met Wilders gebeurde. En dat wil je om bepaalde redenen ook niet altijd, maar het kan wel.
Maar dat kon nu ook al: standaardisering. Maar daar is men misschien bang voor en probeert men het nu onder de noemer 'AI' alsnog te doen, want dat is wat een AI ook zal doen: op basis van veelvoorkomende zaken (machine learning) standaardteksten genereren, zelfs als dat op basis van videobeelden gebeurt en dan kom je al snel bij 'etnisch profileren' uit.
Videobeelden: 'persoon met x huidskleur/kledingtype' + 'misdrijf xyz'.
Als namelijk uit de statistieken blijkt dat bepaalde bevolkingsgroepen oververtegenwoordigd zijn in de criminaliteitscijfers, dan krijg je ook vanuit de AI standaardteksten. Immers de AI put immers ook uit een bak met data.
En daar kan commentaar op komen: AI discrimineert/zet hele bevolkingsgroepen weg als crimineel, want template.
Meer dat er aan de hand van een paar keywords een eerste versie van een procesverbaal wordt gemaakt.
Dan hoeft de agent niet het hele verhaal meer in te typen, maar hoeft die alleen te lezen wat de AI ervan heeft gemaakt en waar nodig enkele correcties doorvoeren.
Dit scheelt veel werk, zeker als je maar met 2 vingers zit te typen en elke letter moet opzoeken.

En mogelijk kan het nog geavanceerder door de body-cam te analyseren en daar een verhaal bij maken. Dan hoeft je helemaal niet meer die keywords te verzinnen. En dan kan een concept procesverbaal al klaar liggen als de agenten vanuit locatie weer op kantoor zijn.
maar dat is dan ook wat ik bedoel. Een paar dropdowns met categorieën en je hebt voor veelvoorkomende zaken zo standaard teksten ingevuld. Daar heb je geen AI voor nodig, alleen een inventarisatie van veelvoorkomende situaties om daar een template voor te bouwen.
Een LLM kan veel beter de verschillende situaties aan. Anders heb je weer een hele grote lijst van templates, wat het beheer ook weer lastig maakt.
- de situatie, b.v. inbraak, diefstal, overlast, overval, etc
- "ik kwam aan van links/rechts/<straat> door fiets/auto/te paard/te voet ..."

Dus wat dat betreft, begrijp ik de voorkeur voor een AI wel.
Grappig. Ik heb in de jaren best veel met aangiftes of verklaringen te maken gehad en mij is het vrij duidelijk dat elke agent en rechercheur met 2 vingers typt en elke letter moet kijken waar die zit.

Behalve dat het wat langer duurt geeft dat natuurlijk niets, zij zijn goed in andere dingen, maar het valt wel op. In hun (voor)opleidingen is typen gewoon niet zo heel belangrijk en ook zelf aanleren zit er niet in omdat typen altijd ondergeschikt zal zijn aan “buiten zijn”.

[Reactie gewijzigd door Dennisdn op 23 juli 2024 00:55]

Spendeer het geld dan aan type curssussen ipv AI. Dan vermijd je al die risicos die aan AI kleven.
Maar ja, dat klinkt niet innovatief, we moeten immers met de hype mee.
Ja maar aan de andere kant heb ik weer liever dat zij hun trainingsuren op de schietbaan of in de sporthal maken.

We moeten het nog zien, maar ik denk zelf dat het wel mee valt. Er wordt gesproken over AI en de bodycam. Maar wellicht halen ze bijvoorbeeld alleen de meta-data uit de beelden. De helft van een verbaal bestaat uit wollige teksten als “om die en die tijd op die en die plek, zag ik, opsporingsambtenaar van….”. Dat zou door techniek al mooi voor ingevuld kunnen worden. Het echt analyseren van de beelden zélf is de techniek nog niet ver genoeg voor ben ik bang.

[Reactie gewijzigd door Dennisdn op 23 juli 2024 00:55]

Voor dat soort zaken kun je inderdaad techniek gebruiken. Het gevaar blijft dan wel dat er de roep komt om het te gaan uitbreiden met zaken waarvoor het niet geschikt is. Hoe houd je dat in bedwang?
Ben wel benieuwd naar de uitwerking hiervan. Je moet alsnog context schrijven en deze héél goed binnen kaders aangeven. De A.I. gaat anders aan de loop met je verhaal / beelden. Plots was er ook een blauwe auto betrokken in het verhaal, terwijl deze nooit bestond.

A.I. klinkt prachtig, maar het vult letterlijk gewoon de blanks met "meest voorkomende" antwoord. Dus als het merendeel van de tijd zo is dat er een roze iemand uit een blauwe auto komt en A.I. kan niet goed bepalen wat er uit de auto kwam, dan zal deze invullen dat het een roze iemand was in een blauwe auto.

En dat zijn nou net de details, waar je héél makkelijk overheen leest. Het "roze iemand" ga je wel vangen, maar die blauwe auto vergeet je vervolgens omdat je zo dubbel gelegen hebt met je collega's over de "roze iemand" invulling.
Als jij een programma objecten en hun kleuren laat benoemen, maakt het echt niet uit dat de voorgaande honderdduizend auto's wel of niet blauw waren. Niet alle AI-tools zijn large language models zoals ChatGPT.

Bovendien moet het dus alsnog gecontroleerd en ingediend worden door een bevoegdt persoon die de verantwoordelijkheid draagt.

Maar net als bij alle automatisering geldt, het hoef niet perfect, het hoeft alleen maar gemiddeld beter dan een mens te zijn.
De enige reden dat het woord (PV) van een agent meer waard is dan dat van de burger, is dat de agent een beëdigd ambtenaar is. Gaan ze die AI dan beëdigen? :+
Het gebeurt onder de verantwoordelijkheid van de ambtenaar. Die controleert het definitieve stuk.
De vraag is alleen: Controleert ie ook het juiste?

Als je nu op YT een beetje naar die AI generated subtitles kijkt, springen de tranen je echt in de broek.

Hoe gaat een Agent snel controleren dat een stuk goed is overgenomen? Sommige woorden hebben namelijk eenzelfde uitspraak in een andere taal, maar betekenen iets compleet anders. AI gaat dat onderscheid niet maken, gaat de agent dat wel zien? Transcripties maken is voor mensen soms al erg lastig. Als een AI dat dan maar een beetje gaat gokken op basis van statistiek, is het dan nog een feitenrelaas?
Al kijkt hij de hele video opnieuw, terwijl hij de tekst meeleest, dan heeft hij alles gecontroleerd en toch tijdswinst. In mijn vorige baan dicteerde ik altijd. Dan werkte een secretaresse het uit, en ging ik er daarna weer in werken. Het was dan vaak niet goed, maar het werkte zoveel lekker in al een klad dan als ik zelfs alles moest schrijven.
Het gebeurt onder de verantwoordelijkheid van de ambtenaar. Die controleert het definitieve stuk.
En dat loopt nu al in België wel eens verkeerd: https://www.hln.be/tech/ik-krabde-aan-mijn-hoofd-en-moest-380-euro-betalen-artificiele-intelligentie-die-tim-een-boete-gaf-maakte-grote-fout~a7e9c1aa/
Of deze persoon een goed werkend bezwaar systeem gaat tegenkomen, staat nog open. Maar in feite had het geen boetes mogen uitschrijven op een AI oordeel.

In de praktijk ziet men dit vooral als iets snel veel boete pv's te gaan genereren.

De bewijslast zal ook omgedraaid worden. De AI beslist dat iemand schuldig is op een standaard die helemaal niet dezelfde is als een agent met rechter die later oordeelt. En daarna moet de burger maar alle werk doen om zijn onschuld aan te tonen.
"De minister stelt dat hoewel België meer agenten per inwoner heeft dan gemiddeld in Europa, er nog altijd veel vraag is naar personeel bij de overheidsdienst. Door AI-tools te gebruiken, zou het personeelstekort kleiner worden en hoeven agenten minder tijd achter het bureau door te brengen. Volgens Van Tigchelt zorgt dit voor '15 procent meer blauw op straat', zonder daarvoor nieuwe agenten te hoeven aannemen."

Volgens mij is de snellere oplossing om politie minder te laten registreren van de simpelere werkzaamheden. Of mensen aanstellen die de bureauwerkzaamheden doen en een agent ze enkel door hoeft te lezen...

Maar ja AI is natuurlijk prachtig bullshitbingo voor de bühne
Ondertussen moet een adreswijziging van je vennootschap nog in drievoud op papier naar een rechtbank verstuurd worden.Maar ja; AI voor de politie
Ja. Alleen willen ze in het verdere proces (OM en rechtbank) natuurlijk wel weer die uitgebreide informatie hebben. De foutmarge moet 0% zijn, de blauwe ogen worden niet meer geloofd en als het niet volgens het boekje gaat, dan zorgen "procedure fouten" ook voor vrijspraak. Aan de ene kant is het goed dat er dus geen onschuldigen in de gevangenis komen. Maar aan de andere kant wordt het een heel stuk lastiger gemaakt om echte criminelen achter de tralies te krijgen. In bv El Salvador is het een stuk beter geworden nu bendes hard aangepakt worden en bendeleden sneller in de gevangenis komen.

Wat betreft "meer blauw op straat". Je zou al een deel kunnen oplossen met dicteren en dat door iemand anders laten uitwerken.
Ja, waarom moeten agenten per se alles uitwerken? Als ze dicteren, kan iemand anders er toch een prima verslag van maken? De foutmarge lijkt me daarin zó laag dat dat wel moet kunnen.

Elders gebeurt dat ook: chirurgen schrijven toch ook niet alle verslagen zelf? Dat zijn vaak stagiaires en dergelijke, en voor de administratieve kant zijn er weer boekhouders.

[Reactie gewijzigd door TheVivaldi op 23 juli 2024 00:55]

Volg eens een paar colleges hoe de rechtsstaat werkt...

Minder registreren kan gewoon niet zonder de wet- of regelgeving aan te passen anders zit je met incomplete en dus ongeldige zaken, dan kan je net zo goed niets doen.

En waarom een extra mens aanstellen ipv een computersysteem? Afgezien dat dat mens ook bevoegd moet zijn.
Helemaal goed! Het is natuurlijk hip om het AI te noemen, maar ik juich het van harte toe wanneer technologie wordt ingezet om mensen meer tijd te geven voor het werk wat ze eigenlijk moeten doen. Graag doortrekken naar de zorg en onderwijs want daar gaat men ook gebukt onder een administratieve last. Computer zijn uitblinkers in het saaie, repetitieve en vooral hersendodend werk waar mensen op afknappen. En zijn veel minder vooringenomen dan menig agent.
Het zijn verkiezingen hé vergeet dat niet. De gekste dingen komen naar voor. Misschien kunnen we beter AI het PV laten nalezen op fouten. Alleen hou ik mijn hart vast voor dit soort praktijken, de luiheid van mensen gaat waarschijnlijk er voor zorgen dat er bepaalde rechtszaken ongeldig verklaard gaan worden omdat er A vormfouten in staan, B omdat de agenten 100% gaan steunen op AI en geen review meer gaan doen.....
Exact, het zijn binnenkort verkiezingen.
Als dit nu een doordacht voorstel zou zijn (we houden het origineel van AI bij zodat bij enige twijfel meteen duidelijk kan gemaakt worden of er al dan niet aangepast werd; we stoppen expres 2 fouten in het voorstel van AI zodat dit zeker nagelezen wordt (verdachte zwaaide met een fopspeen)), dan zou je er nog wat op kunnen betrouwen.
En al bestaat het cliché dat politie altijd met 2 op pad gaat, een die kan lezen en een die kan schrijven; zou dit *als het doordacht is* wel een flinke werklastverlaging kunnen geven.

Maar betrouwbaar zonder extra maatregelen is het niet, als ik in Teams de automatische transcriptie aanzet dan is het wel duidelijk dat de artificiële intelligentie nog niet zo ver staat (of dat m'n Amerikaanse collega's extreem onverstaanbaar zijn).
Ik kom zelf uit het justitie wereldje en ik zie hier wél mogelijkheden toe. Niet perse gelijk voor de tekst met de door de ambtenaar waargenomen 'feiten' maar meer voor de aanzet en de opstart. Het kan ook 'augmented' zijn in de trend van "vergeet dit niet" of misschien pas het beter bij "strafbaar feit x dan y" etc.

Op dit item kan niet meer gereageerd worden.