Algoritme reclassering berekende herhalingsrisico criminelen jarenlang verkeerd

De Nederlandse reclassering gebruikt algoritmes op een 'onverantwoorde manier'. Dat oordeelt de Inspectie Justitie en Veiligheid. De belangrijkste algoritmes van die dienst bevatten fouten die negatieve gevolgen voor de maatschappij kunnen hebben.

De reclassering moet die tekortkomingen snel wegwerken of dat algoritme tijdelijk stilleggen, schrijft de Inspectie JenV. Het gaat met name om het OxRec-algoritme. Het wordt gebruikt om te voorspellen hoe groot de kans is dat een verdachte of veroordeelde opnieuw een delict pleegt. Er zaten al sinds de introductie in 2018 fouten in: er waren formules voor gevangenen en verdachten verwisseld en verkeerde getallen gebruikt.

Het algoritme maakte daardoor foute inschattingen, schrijft de Inspectie JenV. In bijna een kwart van de gevallen gaat dat verkeerd. Meestal wordt het risico dan te laag ingeschat, vooral bij drugsgebruikers en mensen met ernstige psychische aandoeningen. De inspectiedienst heeft niet onderzocht hoe vaak de verkeerde adviezen daadwerkelijk zijn overgenomen door rechters en reclasseringsmedewerkers.

Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde. De fouten zijn jarenlang onopgemerkt gebleven, omdat de reclassering niet genoeg stuurt op het gebruik en het onderhoud van de algoritmes.

De reclassering heeft intussen laten weten dat zij verbetermaatregelen zal nemen. Het gebruik van het OxRec-algoritme wordt tijdelijk stopgezet. De reclassering benadrukt ook dat het OxRec-algoritme slechts een hulpmiddel is; uitkomsten van het algoritme worden gebruikt als onderdeel van een compleet advies. De Inspectie JenV wil iedere zes maanden van de reclassering weten hoe ver die dienst is bij het doorvoeren van de nodige verbeteringen.

Door Daan van Monsjou

Nieuwsredacteur

12-02-2026 • 16:25

30

Submitter: Meg

Reacties (30)

Sorteer op:

Weergave:

Voordat de ‘discriminatie-kaart’ weer getrokken wordt; het werkt dus ook de kant op dat idd het risico onnodig als te laag ingeschat wordt. Goed ook dat ontregeling van de maatschappij geschreven wordt. Dat maakt het breder.
Alleen is een onterecht lage risico-inschatting ook niet altijd in het voordeel van de veroordeelde. Het kan betekenen dat je niet de begeleiding krijgt die je nodig hebt om weer goed mee te komen in de maatschappij, het recidive-risico de facto hoger is, en dus ook meer kans maakt om opnieuw een straf opgelegd te krijgen, of een deel van je straf die eerst voorwaardelijk was, toch moet uitzitten omdat er niemand was om de veroordeelde op het juiste pad te houden.

(...en voordat iemand "eigen schuld, dikke bult" zegt: als er een misdaad is gepleegd zijn er ook slachtoffers - bij een recidivist had hun leed mogelijk voorkomen kunnen worden)

[Reactie gewijzigd door Tc99m op 12 februari 2026 16:42]

Voordat de ‘discriminatie-kaart’ weer getrokken wordt; het werkt dus ook de kant op dat idd het risico onnodig als te laag ingeschat wordt.
Positieve discriminatie is ook discriminatie.
Maar in dit geval dus wel positieve discriminatie, ondanks dat het discriminatie is.

Als slachtoffer met blijvend trauma voelde ik de behoefte om dat zeker even uit te spreken.
wil je een semantische discussie starten om "positieve discriminatie" als iets niet-negatiefs aan te merken? of begrijp ik de inhoud hier verkeerd?
als bijvoorbeeld het risico bij een wit iemand ten onrechte te laag wordt ingeschat (positieve discriminatie) is dat alsnog negatieve discriminatie tegen mensen die niet wit zijn, om maar een heel eenvoudig voorbeeld te noemen. Die krijgen dat voordeeltje niet!

[Reactie gewijzigd door m-m op 12 februari 2026 16:44]

"Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde."

Heu ja, dat heeft iets met statistiek te maken.
Onlangs was er een artikel in de media dat, gelet op (het gebrek aan) bepaalde ondersteuning, politiediensten vrij goed kunnen voorspellen welke kinderen van nu binnen 10 jaar in de cel zouden zitten...
Iedereen valt erover, maar ondanks dat mensen in een mindere wijk wonen, wilt nog niet zeggen dat ze allemaal crimineel zijn. Dus dat dit deel uitmaakt van een algoritme is wel erg voorbarig. Dat is net zoiets dat ik in een dure compound woon, automatisch geen crimineel kan zijn. Beiden zijn foute aannames.
Niemand die beweert dat je altijd crimineel bent als je in een bepaalde wijk woont, het zijn verhoogde risico's......als je 86 keer diefstal pleegt en 25 jaar bent, dakloos bent en schulden hebt tegenover iemand die 25 jaar is en nog nooit een diefstal heeft gepleegd, een koophuis heeft en goed in het geld zit, dan is de kans groter dat die eerste persoon een diefstal pleegt dan de tweede persoon. Dat betekent niet dat die eerste persoon een diefstal pleegt, het is een verhoogde kans. Zo werk de oxrec ook
Voor een risico inschatting zinvolle input anders niet significant
Dat zijn beiden inderdaad foute aannames, omdat ze zwart-wit zijn.
Dat is het punt van statistiek net: kansberekening, en dat op basis van meerdere factoren. Het leven is veel genuanceerder dan "ik leef ik een arme wijk dus word ik crimineel"...
Statistiek werkt dus alleen met grote getallen. Als je het goed doet, zou je kunnen zeggen dat in een bepaalde buurt “een groter percentage van de mensen in de criminaliteit belandt.”

Maar: je kunt het niet omdraaien! Je kan niet zeggen dat als een individu in die wijk woont, dat dan de kans groter is dat hij in de criminaliteit belandt. Die statistiek zegt namelijk niks over causaliteit: het zou hee goed kunnen dat het hogere percentage criminelen komt omdat de huren laag zijn in die buurt, en dat mensen met lage inkomens aantrekt die vatbaarder zijn voor criminelen. Maar dat wil niet zeggen dat álle mensen in die buurt een laag inkomen hebben én vatbaar zijn.

Dus: prima als de politie extra surveilleert in een “risicowijk”. Maar de kans op recidive van een individu (mede) baseren op het feit dat hij in die wijk woont, lijkt me een slecht idee.
waarom bewijzen de cijfers dan het tegendeel van wat je zegt...?


Er zijn natuurlijk ook andere socio-economische factoren die een en ander in de hand werken. Dit gaat echt niet alleen over in welke wijk je woont...
Het punt is: is de wijk ia waarschijnlijk een "confounding factor" en het inkomen de echte factor. En je moet zo'n "confounding factor" niet gebruiken in een advies. Het correleert wel, maar dat is niet genoeg. Maar vaak is het vooral "lekker makkelijk want die gegevens hebben we wel".
hoe wil je precies statistieken maken van gegevens die je _niet_ hebt dan...?
Die gegevens moet je dan verzamelen he. En dat kan lastig zijn. Maar dat is geen excuus om dan maar "achternaam en postcode" te gebruiken omdat er niks anders te vinden is.
Een voorbeeld uit het rapport: "Zo is de OXREC ontwikkeld om individuele personen met bijvoorbeeld een ernstige psychische aandoening een hogere risicoscore toe te kennen, maar gebeurt dit niet in de toepassing door de reclassering. Reclasseringsmedewerkers kunnen in de toepassing van het algoritme niet aangeven of een persoon een ernstige psychische aandoening heeft. Hierdoor krijgen personen met een ernstige psychische aandoening een te lage risico-inschatting."
Ongelofelijk dat de reclassering en daarmee hun rol in het rechtssysteem zo'n belangrijke taak als het inschatten van het risico op recidive laat afhangen van een computeralgoritme.
Als je het artikel leest zie je dat het inschatten niet alleen afhangt van dat algoritme, maar dat het slechts één hulpmiddel is:
De reclassering benadrukt ook dat het OxRec-algoritme slechts een hulpmiddel is; uitkomsten van het algoritme worden gebruikt als onderdeel van een compleet advies.
Het wordt dus meegenomen, maar het advies bestaat dus uit veel meer onderdelen dan enkel de uitkomt van het algoritme. Het is dus niet bepalend.
Maar in de Inspectie J&V stelt dus juist vast dat medewerkers zich te veel lieten leiden door het algoritme:
De inspectie ziet ook risico’s dat medewerkers de uitkomsten ervan te makkelijk overnemen en niet meer vertrouwen op hun eigen oordeel. Hen wordt verteld dat hun eigen oordeel net zo betrouwbaar is als ‘het opgooien van een muntje’. Daarmee wordt de betrouwbaarheid van dit algoritme te groot gemaakt.
Het uitkomst van het algoritme werd dus niet alleen maar "meegenomen", het was structureel leidend ten koste van de expertise en ervaring van de medewerkers, en daardoor juist wél bepalend. @Tyrian is dus wel terecht verontwaardigd.

[Reactie gewijzigd door Tc99m op 12 februari 2026 17:36]

Computeralgoritme? Het is toch een prima algoritme alleen ingevoerd met verkeerde cijfers? Dat algoritme ? / eeeuuh tool is volgens mij goedkeurd door de uni van Oxford, het gaat toch om de data?

Ze laten het niet afhangen, het is een hulpmiddel.....maar ja, als je daar steeds van af moet wijken als werker is ook gedoe.
Omdat Tweakers dit kleine detail vergeet te vermelden: dit algoritme wordt 44.000 keer per jaar toegepast. VIERENVEERTIGDUIZEND keer per jaar, in zeven jaar tijd.
Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde..

Leiden tot discriminatie of en veel gevallen een verhoogd risico.

Als je rookt is de kans op longkanker ook groter.

Tevens kan een medewerker van de reclassering een uitkomst overrulen, die is leidend.

Een medewerker van een basisschool zei dat op basis van de opleiding van de ouders en de wijk waar de ouders van een kind woont ze extra geld kunnen krijgen van het ministerie omdat ze dan een 'zwakke' school zijn.


Dat lijkt er ook wel op.
Als je voor hetzelfde vergrijp een zwaardere of lichtere straf krijgt omdat je in een arme / rijke buurt woont of dat je ouders centen hebben, dan is dat natuurlijk krankzinnig en riekt dat naar klassenjustitie en discriminatie.
Alleen zijn bij die voorbeelden er geen consequenties aan het oordeel. Ja, de kans op longkanker is groter, maar daar wordt niemand voor veroordeeld.

Die basisschool krijgt extra geld, maar de individuele leerlingen worden niet als "anders" gezien daarom, als het goed is.

Als het overrulen door de medewerker leidend zou zijn, dan was het computergegenereerde advies niet nodig.
Ik vraag me af of de fout in het algoritme zelf zit, of dat het algoritme door een ontwikkelaar onjuist is geïmplementeerd.

Ik zie dat het artikel over algoritme spreekt, maar ik denk dat normale communicatie medewerker of ambtenaar moeilijk vind om dit onderscheid te communiceren of beseft dat er een onderscheid is tussen deze twee zaken.
Of dat je een algoritme gebruikt voor iets waar het niet voor bedoeld is.

Stel je voor, ik ben een onderhoudsmonteur van vliegtuigen. Ik moet ze op kritieke punten inspecteren na 1000 vlieguren.

Wat zou je ervan zeggen als ik dat door statistiek liet doen? Ik controleer ze gewoon niet meer, tenzij er van dat bouwjaar meer dan gemiddeld zijn verongelukt.

Qua correlatie is dat prima - vliegtuigen ouder dan 20 jaar worden minder veilig, misschien. Maar om onderhoud van individuele kisten op te sturen is het betekenisloos. Om het onderhoudsbudget te bepalen voor een vloot van een bepaalde leeftijd is het dan weer wel nuttig.
Omgekeerd gebeurt ook. Ik ben een kwart eeuw als een halfie behandeld omdat mensen te lui zijn op locatie te constateren wat de werkelijkheid behelst. Krankzinnig. Sowieso moet je geen 'kruisje bij je naam' hebben hier, want dan ben je altijd een makkelijk target om de schuld in de schoenen te schuiven. Well, nu blijken mijn grote schoenen precies te passen, dus deal with it.

Om te kunnen reageren moet je ingelogd zijn