Algoritme reclassering berekende herhalingsrisico criminelen jarenlang verkeerd

De Nederlandse reclassering gebruikt algoritmes op een 'onverantwoorde manier'. Dat oordeelt de Inspectie Justitie en Veiligheid. De belangrijkste algoritmes van die dienst bevatten fouten die negatieve gevolgen voor de maatschappij kunnen hebben.

De reclassering moet die tekortkomingen snel wegwerken of dat algoritme tijdelijk stilleggen, schrijft de Inspectie JenV. Het gaat met name om het OxRec-algoritme. Het wordt gebruikt om te voorspellen hoe groot de kans is dat een verdachte of veroordeelde opnieuw een delict pleegt. Er zaten al sinds de introductie in 2018 fouten in: er waren formules voor gevangenen en verdachten verwisseld en verkeerde getallen gebruikt.

Het algoritme maakte daardoor foute inschattingen, schrijft de Inspectie JenV. In bijna een kwart van de gevallen gaat dat verkeerd. Meestal wordt het risico dan te laag ingeschat, vooral bij drugsgebruikers en mensen met ernstige psychische aandoeningen. De inspectiedienst heeft niet onderzocht hoe vaak de verkeerde adviezen daadwerkelijk zijn overgenomen door rechters en reclasseringsmedewerkers.

Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde. De fouten zijn jarenlang onopgemerkt gebleven, omdat de reclassering niet genoeg stuurt op het gebruik en het onderhoud van de algoritmes.

De reclassering heeft intussen laten weten dat zij verbetermaatregelen zal nemen. Het gebruik van het OxRec-algoritme wordt tijdelijk stopgezet. De reclassering benadrukt ook dat het OxRec-algoritme slechts een hulpmiddel is; uitkomsten van het algoritme worden gebruikt als onderdeel van een compleet advies. De Inspectie JenV wil iedere zes maanden van de reclassering weten hoe ver die dienst is bij het doorvoeren van de nodige verbeteringen.

Door Daan van Monsjou

Nieuwsredacteur

12-02-2026 • 16:25

73

Submitter: Meg

Reacties (73)

Sorteer op:

Weergave:

Voordat de ‘discriminatie-kaart’ weer getrokken wordt; het werkt dus ook de kant op dat idd het risico onnodig als te laag ingeschat wordt. Goed ook dat ontregeling van de maatschappij geschreven wordt. Dat maakt het breder.
Alleen is een onterecht lage risico-inschatting ook niet altijd in het voordeel van de veroordeelde. Het kan betekenen dat je niet de begeleiding krijgt die je nodig hebt om weer goed mee te komen in de maatschappij, het recidive-risico de facto hoger is, en dus ook meer kans maakt om opnieuw een straf opgelegd te krijgen, of een deel van je straf die eerst voorwaardelijk was, toch moet uitzitten omdat er niemand was om de veroordeelde op het juiste pad te houden.

(...en voordat iemand "eigen schuld, dikke bult" zegt: als er een misdaad is gepleegd zijn er ook slachtoffers - bij een recidivist had hun leed mogelijk voorkomen kunnen worden)

[Reactie gewijzigd door Tc99m op 12 februari 2026 16:42]

als bijvoorbeeld het risico bij een wit iemand ten onrechte te laag wordt ingeschat (positieve discriminatie) is dat alsnog negatieve discriminatie tegen mensen die niet wit zijn, om maar een heel eenvoudig voorbeeld te noemen. Die krijgen dat voordeeltje niet!

[Reactie gewijzigd door m-m op 12 februari 2026 16:44]

En vergeet de negatieve gevolgen voor de maatschappij niet als zo iemand (onnodig, door de verkeerde beoordeling) weer de fout in gaat.
Voordat de ‘discriminatie-kaart’ weer getrokken wordt; het werkt dus ook de kant op dat idd het risico onnodig als te laag ingeschat wordt.
Positieve discriminatie is ook discriminatie.
Maar in dit geval dus wel positieve discriminatie, ondanks dat het discriminatie is.

Als slachtoffer met blijvend trauma voelde ik de behoefte om dat zeker even uit te spreken.
wil je een semantische discussie starten om "positieve discriminatie" als iets niet-negatiefs aan te merken? of begrijp ik de inhoud hier verkeerd?
Ongelofelijk dat de reclassering en daarmee hun rol in het rechtssysteem zo'n belangrijke taak als het inschatten van het risico op recidive laat afhangen van een computeralgoritme.
Als je het artikel leest zie je dat het inschatten niet alleen afhangt van dat algoritme, maar dat het slechts één hulpmiddel is:
De reclassering benadrukt ook dat het OxRec-algoritme slechts een hulpmiddel is; uitkomsten van het algoritme worden gebruikt als onderdeel van een compleet advies.
Het wordt dus meegenomen, maar het advies bestaat dus uit veel meer onderdelen dan enkel de uitkomt van het algoritme. Het is dus niet bepalend.
Maar in de Inspectie J&V stelt dus juist vast dat medewerkers zich te veel lieten leiden door het algoritme:
De inspectie ziet ook risico’s dat medewerkers de uitkomsten ervan te makkelijk overnemen en niet meer vertrouwen op hun eigen oordeel. Hen wordt verteld dat hun eigen oordeel net zo betrouwbaar is als ‘het opgooien van een muntje’. Daarmee wordt de betrouwbaarheid van dit algoritme te groot gemaakt.
Het uitkomst van het algoritme werd dus niet alleen maar "meegenomen", het was structureel leidend ten koste van de expertise en ervaring van de medewerkers, en daardoor juist wél bepalend. @Tyrian is dus wel terecht verontwaardigd.

[Reactie gewijzigd door Tc99m op 12 februari 2026 17:36]

Precies. Dat effect zie je bij ALLE software die moet helpen bij beoordelingen. Of het nou om medische scans, belastingfraude, verzekering risico’s of zoals hier recidive inschattingen gaat. De mens is van nature lui, of staat dusdanig onder tijdsdruk, dat aanbevelingen vanuit expert systeem als zoete koek opgenomen worden in de eind aanbeveling.
De mens is van nature lui, of staat dusdanig onder tijdsdruk, dat aanbevelingen vanuit expert systeem als zoete koek opgenomen worden in de eind aanbeveling.
Daarbij is het over het algemeen ook geen leuk werk om het werk van een computer te controleren en wordt het (dus) typisch gedaan door slecht betaalde mensen die (dus) weinig verantwoordelijkheid voelen voor hun werk. Vaak is het dan ook nog zo dat afwijken van de computer meer werk/gedoe oplevert dan gewoon op de "ok"-knop rammen.
Een vriend die als beveiliger op een vliegveld werkt(e) vertelde me ooit over hoeveel moeite ze daar moeten doen om de mensen die achter de scanners zitten helder en gemotiveerd te houden, oa door voortdurend 'false positives' te genereren door bv plaatjes van wapens te laten zien. Dan nog ging was er een aanzienlijke foutmarge. Bij zaken waar het oordeel niet zo binair een eenvoudig te controleren is zal de foutmarge nog wel veel hoger zijn.

In het algemeen kan je mensen dus beter niet in zetten om computers te controleren. Omgekeerd kan wel, een computer die controleert of (bv) alle stappen van een proces zijn genomen of dat alle getallen kloppen is prima. Wat ook werkt is de computer aanwijzingen/bewijs/informatie laten verzamelen op grond waarvan een mens een oordeel valt.
Doet me denken aan iets dat we bij ons op het werk hebben, die stuurt om de zoveel tijd automatisch een (best goeie!) phishing mail. De meest recente ging over voorbereiding voor een beoordelingsgesprek, wat toevallig was want die was ook ingepland. Vorig jaar kreeg ik een mail over een kadobon als kerstpakket, die was legitiem maar door die phishing trainingen ging ik wel even drie keer kijken.
Hier dus het omgekeerde effect. Mensen gooien belangrijke mails weg ‘want phishing’ (laatst iets over brandveiligheid, met link naar nieuwe instructies)
Of ook AI, moet ik er even bijslepen; veel mensen zien een AI gegenereerd antwoord als authoritatief (als dat het juiste woord is) en nemen het klakkeloos over, ook (voornamelijk) om tijd / moeite te besparen zoals je aangeeft. En dit kan gevaarlijk zijn, zeker gezien de data bronnen die ze gebruiken ook mogelijk niet kloppen of bevooroordeeld zijn. Ik bedoel er staat meer in het nieuws over misdadigers dan mensen die dat niet zijn, dus (heeeeel kort door de bocht) er zijn meer misdadigers dan niet-misdadigers.
We hebben al gezien dat mensen de metro inrijden met de auto omdat hun navigatie het zegt (kan ff geen link vinden). Of de plomp in omdat de navigatie (en bestuurder) niet doorhad dat de pont er niet lag/ Of het water in.

Dus wat de les is, de mensen laten zich graag door een computer wat vertellen en gebruiken dan hun eigen hersen capaciteit minder of geheel niet. Misschien omdat ze dan vinden de verantwoordelijkheid daar te kunnen leggen....
Computeralgoritme? Het is toch een prima algoritme alleen ingevoerd met verkeerde cijfers? Dat algoritme ? / eeeuuh tool is volgens mij goedkeurd door de uni van Oxford, het gaat toch om de data?

Ze laten het niet afhangen, het is een hulpmiddel.....maar ja, als je daar steeds van af moet wijken als werker is dat ook gedoe.

[Reactie gewijzigd door supermickopreis op 13 februari 2026 09:17]

Je kunt beargumenteren dat het volledige "algoritme" dan data + algoritme is, maar zelfs dan moet het maar 1 deel van de volledige "rekensom" van de beoordeling. Maar het is makkelijk om het algoritme te vertrouwen, want het is puur rekenen, toch? Harde wetenschap?
Dees wetenschap, ik meen van wel.

https://oxrisk.com/oxrec-9/

Psychologie kan ook wetenschap zijn maar is toch ook een benadering?

Gelukkig kunnen de werkers overrulen (het eindoordeel van het schrijven, niet de oxrec)
"Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde."

Heu ja, dat heeft iets met statistiek te maken.
Onlangs was er een artikel in de media dat, gelet op (het gebrek aan) bepaalde ondersteuning, politiediensten vrij goed kunnen voorspellen welke kinderen van nu binnen 10 jaar in de cel zouden zitten...
Statistiek werkt dus alleen met grote getallen. Als je het goed doet, zou je kunnen zeggen dat in een bepaalde buurt “een groter percentage van de mensen in de criminaliteit belandt.”

Maar: je kunt het niet omdraaien! Je kan niet zeggen dat als een individu in die wijk woont, dat dan de kans groter is dat hij in de criminaliteit belandt. Die statistiek zegt namelijk niks over causaliteit: het zou hee goed kunnen dat het hogere percentage criminelen komt omdat de huren laag zijn in die buurt, en dat mensen met lage inkomens aantrekt die vatbaarder zijn voor criminelen. Maar dat wil niet zeggen dat álle mensen in die buurt een laag inkomen hebben én vatbaar zijn.

Dus: prima als de politie extra surveilleert in een “risicowijk”. Maar de kans op recidive van een individu (mede) baseren op het feit dat hij in die wijk woont, lijkt me een slecht idee.
waarom bewijzen de cijfers dan het tegendeel van wat je zegt...?


Er zijn natuurlijk ook andere socio-economische factoren die een en ander in de hand werken. Dit gaat echt niet alleen over in welke wijk je woont...
Het punt is: is de wijk ia waarschijnlijk een "confounding factor" en het inkomen de echte factor. En je moet zo'n "confounding factor" niet gebruiken in een advies. Het correleert wel, maar dat is niet genoeg. Maar vaak is het vooral "lekker makkelijk want die gegevens hebben we wel".
Het punt is vooral dat je statistiek niet kunt omdraaien: kan je van een grote groep mensen zeggen dat onder mensen met laag inkomen de kans groter is dat ze crimineel worden? Dat kan je statistisch waarschijnlijk wel hard maken. Kan je van een individu zeggen dat de kans groter is dat hij crimineel wordt omdat hij een laag inkomen heeft? Ik denk het niet. Je kan dit soort statistieken alleen gebruiken als je maatregelen wil richten op groepen of wijken. Maar niet om een zinnig advies te geven over een individu. Er zijn namelijk zoveel meer factoren die een rol spelen.
En dan nog moet je heel voorzichtig zijn met maatregelen. In Elsevier Weekblad nota bene stond vele jaren geleden een stuk, dat "zero tolerance" wijken discriminerend zijn naar mensen die het slecht hebben. (Dat was ooit in de mode, onbenullige bekeuringen gaan uitschrijven in slechte wijken, zodat de mensen daar "netjes" zouden worden, terwijl ze in de villawijken dan wel op de stoep mochten fietsen...)
Een andere reden is dat de onderliggende factor niet gebruikt mag worden wegens "discriminatie ".
hoe wil je precies statistieken maken van gegevens die je _niet_ hebt dan...?
Die gegevens moet je dan verzamelen he. En dat kan lastig zijn. Maar dat is geen excuus om dan maar "achternaam en postcode" te gebruiken omdat er niks anders te vinden is.
Ik denk dat het antwoord is: "niet". Statistiek kan soms helpen, vooral als het over grote groepen mensen gaat. Maar voor individuen heb je toch meer aan psychologie, antecedenten, etc.
De echte factor kan ook cultuur zijn of opvoeding en daar zijn je wijk en inkomen indirecte measures van, maakt allemaal niet zoveel uit als je het maar beseft.
Dat maakt dus wel heel veel uit, want als je op de verkeerde basis oordeelt, dan neem je de verkeerde beslissingen.

Een beetje goed, dat is namelijk gewoon helemaal fout.
Statistiek zegt dus precies dat als je in een arme wijk woont je grotere kans hebt om crimineel gedrag te gaan vertonen. Wat je bedoelt te zeggen is dat niet ieder individu daarmee een crimineel is.

Als we iedere keer correlaties gaan ontkennen omdat ze bijvoorbeeld stigmatiserend kunnen zijn kunnen we nooit causaliteit aanpakken
Statistiek zegt dat van de honderd mensen die in die wijk wonen er meer crimineel zullen worden dan van 100 mensen in een villawijk. Maar dat zegt nog steeds NIKS over het ene individu waar het over gaat in een zaak.
De correlatie - arme wijk - is waarschijnlijk niet de oorzaak. Maar door er wel de oorzaak van te maken leid je alleen maar af van de echte oorzaak. En dat is contraproductief.
Misschien moet je je nog even verdiepen in de begrippen correlatie en causaliteit.
Correlatie is niet hetzelfde als een causaal verband maar het geeft richting voor verder onderzoek. Meestal zie je correlaties die wel degelijk een onderliggend causaal verband hebben. Bijvoorbeeld niet rond kunnen komen...
De fout die hier maakt is dat je uitgaat vanuit een nul situatie. Echter een veroordeelde heeft al een andere basis kans dan iemand met hetzelfde inkomen en woonprofiel die zich wel netjes aan de wet houdt en geen crimineel gedrag vertoont.
Nee. Het blijven statistieken. Die kan en mag je niet op een individu toepassen.
Lees het artikel eens. Dit gaat om het inschatten van het recidiverisico. Het is wettelijk verplicht om statistiek toe te passen op een individu.
Ik hebben artikel gelezen. Dat van die wettelijke verplichting staat niet in het artikel en wist ik ook niet. Politici begrijpen duidelijk ook niet hoe statistiek werkt
Iedereen valt erover, maar ondanks dat mensen in een mindere wijk wonen, wilt nog niet zeggen dat ze allemaal crimineel zijn. Dus dat dit deel uitmaakt van een algoritme is wel erg voorbarig. Dat is net zoiets dat ik in een dure compound woon, automatisch geen crimineel kan zijn. Beiden zijn foute aannames.
Dat zijn beiden inderdaad foute aannames, omdat ze zwart-wit zijn.
Dat is het punt van statistiek net: kansberekening, en dat op basis van meerdere factoren. Het leven is veel genuanceerder dan "ik leef ik een arme wijk dus word ik crimineel"...
Niemand die beweert dat je altijd crimineel bent als je in een bepaalde wijk woont, het zijn verhoogde risico's......als je 86 keer diefstal pleegt en 25 jaar bent, dakloos bent en schulden hebt tegenover iemand die 25 jaar is en nog nooit een diefstal heeft gepleegd, een koophuis heeft en goed in het geld zit, dan is de kans groter dat die eerste persoon een diefstal pleegt dan de tweede persoon. Dat betekent niet dat die eerste persoon een diefstal pleegt, het is een verhoogde kans. Zo werk de oxrec ook
Je doet net alsof die ene factor compleet de beslissende factor is. Dat is (natuurlijk) niet zo.

Dit soort "algoritmes" zijn gebaseerd op gemiddeldes - dat alleen maakt het al betrekkelijk tricky om op het individu te betrekken. Maar er zijn wel (veel) factoren die gemiddeld best wat impact hebben.

Het is uiteindelijk allemaal kansberekening - en er komt dan ook een statistische waarschijnlijkheid (of onwaarschijnlijkheid) uit. Geen "JA" of "NEE".
Dat is ook niet de aanname. Als je een brommer dief zoekt is de kans redelijk groot dat die in niet zo'n beste wijk woont en niet bij mij in de wijk. Zoek je echter belastingontduiking zit je in mijn buurt denk ik weer aardig goed.
Dat heet gewoon profilering en dat is op zich prima, je moet het principe alleen niet omdraaien....
Als je in een dure compound woont is er een significante kans dat je een witteboordencrimineel bent
Voor een risico inschatting zinvolle input anders niet significant
Onlangs was er een artikel in de media dat, gelet op (het gebrek aan) bepaalde ondersteuning, politiediensten vrij goed kunnen voorspellen welke kinderen van nu binnen 10 jaar in de cel zouden zitten...
Dat geloof ik zo, maar de vraag is dan, wat gaan (of kunnen) ze nu doen om dat te voorkomen? Sterker nog, als ze weten dat deze kinderen kwetsbaar zijn, is niks doen dan ook niet misdadig of nalatig?

Maar toegegeven, dat is zo'n "slippery slope" ding. Erg lastig. Je zit namelijk aan de ene kant met "ik moet dit kind helpen", maar aan de andere kant moet je hun (en dat van hun ouders) autonomie en privacy respecteren.
Omdat Tweakers dit kleine detail vergeet te vermelden: dit algoritme wordt 44.000 keer per jaar toegepast. VIERENVEERTIGDUIZEND keer per jaar, in zeven jaar tijd.
Wat wil je precies met dit “kleine detail” zeggen? Het ontgaat me even.
Een voorbeeld uit het rapport: "Zo is de OXREC ontwikkeld om individuele personen met bijvoorbeeld een ernstige psychische aandoening een hogere risicoscore toe te kennen, maar gebeurt dit niet in de toepassing door de reclassering. Reclasseringsmedewerkers kunnen in de toepassing van het algoritme niet aangeven of een persoon een ernstige psychische aandoening heeft. Hierdoor krijgen personen met een ernstige psychische aandoening een te lage risico-inschatting."
Hetzelfde algoritme bevat ook 'variabelen die kunnen leiden tot discriminatie', zoals een 'buurtscore' en de hoogte van het inkomen van de verdachte of veroordeelde..

Leiden tot discriminatie of en veel gevallen een verhoogd risico.

Als je rookt is de kans op longkanker ook groter.

Tevens kan een medewerker van de reclassering een uitkomst overrulen, die is leidend.

Een medewerker van een basisschool zei dat op basis van de opleiding van de ouders en de wijk waar de ouders van een kind woont ze extra geld kunnen krijgen van het ministerie omdat ze dan een 'zwakke' school zijn.


Dat lijkt er ook wel op.
Als je voor hetzelfde vergrijp een zwaardere of lichtere straf krijgt omdat je in een arme / rijke buurt woont of dat je ouders centen hebben, dan is dat natuurlijk krankzinnig en riekt dat naar klassenjustitie en discriminatie.
Nee, je krijgt in principe niet een zwaardere straf. 'Vaak' is er bij een slechter buurt/armoede ook sprake van een psychische aandoening, hoe klein ook. De reclasseringswerker kan in de oxrec niet afwijken dacht ik maar omdat de oxrec een klein stuk is van het rapport kunnen ze in het uiteindelijke rapport (gelukkig) wel afwijken. Daarom is ervaring van een werker wel handig. De rapporten worden vast ook door 4 andere ogen gelezen

[Reactie gewijzigd door supermickopreis op 13 februari 2026 09:16]

Maar wat ook elders in deze comments aangegeven wordt, mensen laten zich makkelijk leiden door een algoritme; formeel is het bijvoorbeeld 20% van het oordeel (ik noem maar wat), maar door het stukje mensenwerk en mogelijk gemakzucht is het in de praktijk 50%.

Maar ik wil daar ook niet te hard in zijn, want de mensen die dit soort werk doen zijn ook mensen, voor hun kan het ook niet makkelijk zijn om over mensen hun toekomst te oordelen.
Idd, in den beginne was het alleen een oordeel van een reclasseringsmedewerker, nu krijgen de medewerkers diverse tools die zeer helpend kunnen zijn.....daar moet je als medewerker wel een beetje op kunnen vertrouwen al weet je dat de tool vaak in het begin mogelijk niet valide genoeg kunnen zijn.
Alleen zijn bij die voorbeelden er geen consequenties aan het oordeel. Ja, de kans op longkanker is groter, maar daar wordt niemand voor veroordeeld.

Die basisschool krijgt extra geld, maar de individuele leerlingen worden niet als "anders" gezien daarom, als het goed is.

Als het overrulen door de medewerker leidend zou zijn, dan was het computergegenereerde advies niet nodig.
Als het overrulen door de medewerker leidend zou zijn, dan was het computergegenereerde advies niet nodig.....

Je hebt een punt maar door gebruik te maken van de oxrec kan je het beter staven. Intern zal hierin dus een discussie volgen als je een verschil hebt denk ik.

En in de rapportage moet je het e.e.a. goed moeten uitleggen. De rechter beslist

[Reactie gewijzigd door supermickopreis op 13 februari 2026 09:17]

Hier wordt ook niet iemand mee veroordeeld. Dit gaat over reclassering, dus na het veroordeeld zijn en deels uitzitten van de straf, gaat men nu kijken om die crimineel weer terug in de maatschappij te brengen. Daarbij is een oordeel nodig hoe veilig dat is en hoeveel hulp die crimineel moet krijgen om te zorgen dat die niet weer opnieuw in de fout gaat. Voor een externe factor (zoals woonomgeving) kun je daar algoritmes voor gebruiken, zodat je niet altijd een buurtonderzoek hoeft te doen of uitgaat van het ergste.
Ik vraag me af of de fout in het algoritme zelf zit, of dat het algoritme door een ontwikkelaar onjuist is geïmplementeerd.

Ik zie dat het artikel over algoritme spreekt, maar ik denk dat normale communicatie medewerker of ambtenaar moeilijk vind om dit onderscheid te communiceren of beseft dat er een onderscheid is tussen deze twee zaken.
Of dat je een algoritme gebruikt voor iets waar het niet voor bedoeld is.

Stel je voor, ik ben een onderhoudsmonteur van vliegtuigen. Ik moet ze op kritieke punten inspecteren na 1000 vlieguren.

Wat zou je ervan zeggen als ik dat door statistiek liet doen? Ik controleer ze gewoon niet meer, tenzij er van dat bouwjaar meer dan gemiddeld zijn verongelukt.

Qua correlatie is dat prima - vliegtuigen ouder dan 20 jaar worden minder veilig, misschien. Maar om onderhoud van individuele kisten op te sturen is het betekenisloos. Om het onderhoudsbudget te bepalen voor een vloot van een bepaalde leeftijd is het dan weer wel nuttig.
OxRec is specifiek voor dit doel, dus nee. Je aanname klopt al niet.
Als blijkt uit de statistieken dat na 1000 uren de kans groot is op een motordefect dan is een statistiek handig, een ervaren monteur weet dit ook.....uit een statistiek blijk bv dat na 10 vlieguren er geen controle nodig is dan is dat ook handig om te weten.

Uiteindelijk zal de monteur zelf een afweging moeten maken. Prima toch?
Klinkt als een gevalletje GIGO.

Garbage In, Garbage Out

Verkeerde formules, verkeerde data... daar kan je niet op vertrouwen.
Nu in reclassering mensen werk maar het helpt zeker niet als de excel sheet in de weg zit.
Ik wist niet dat ze in Nederland al aan pre-crime deden. Dat belooft natuurlijk veel goeds!

[Reactie gewijzigd door Sjoeff op 13 februari 2026 12:10]

Omgekeerd gebeurt ook. Ik ben een kwart eeuw als een halfie behandeld omdat mensen te lui zijn op locatie te constateren wat de werkelijkheid behelst. Krankzinnig. Sowieso moet je geen 'kruisje bij je naam' hebben hier, want dan ben je altijd een makkelijk target om de schuld in de schoenen te schuiven. Well, nu blijken mijn grote schoenen precies te passen, dus deal with it.

Om te kunnen reageren moet je ingelogd zijn