Nederlandse overheden voegden slechts acht algoritmes toe aan algoritmeregister

In het Nederlandse algoritmeregister zijn het afgelopen half jaar slechts acht nieuwe algoritmes toegevoegd. Het aantal besluitvormingsalgoritmes in de database staat nu op 117, terwijl dat er bij de introductie in december nog 109 waren. De algoritmes zijn in de laatste maand pas toegevoegd.

Het algoritmeregister lijkt daarmee weinig te leven bij de Nederlandse overheid. Het register ging op 21 december vorig jaar van start. Dat was zondag precies een half jaar geleden. Tweakers schreef daar toen een achtergrondartikel over. Het algoritmeregister bevat informatie over algoritmes die Nederlandse overheden gebruiken voor automatische en semiautomatische besluitvormingen. Het register biedt informatie over die algoritmes, zoals waar ze voor bedoeld zijn, maar ook of er een privacy impact assessment is gedaan, welke databronnen worden gebruikt en of er menselijke tussenkomst is bij de besluitvorming.

Het algoritmeregister ging van start met 109 algoritmes. Die kwamen van verschillende overheidsinstellingen waaronder de Belastingdienst, maar een opvallend hoog aantal kwam van de gemeente Amsterdam. De hoofdstad heeft al jaren een eigen lokaal algoritmeregister. De eerste opzet was 'gemaakt op basis van wat er al was bij bijvoorbeeld de gemeente Amsterdam en Rotterdam', zei staatssecretaris Alexandra van Huffelen van Digitalisering daar toen over tegen Tweakers. Van Huffelen was een van de initiatiefnemers van het register. Het algoritmeregister ging van start met acht algoritmes uit Amsterdam, die er nu nog steeds in staan. Van Rotterdam staan er vier algoritmes online. De meeste zijn afkomstig van de gemeente Utrecht. Die heeft er 38 online staan.

Een van de Amsterdamse algoritmes is de Top 400/600. De hoofdstad gebruikt daarbij data van zorginstellingen en de politie om vooral jongeren te vinden die mogelijk in de zware criminaliteit belanden. Opvallend is dat de gemeente onlangs werd genomineerd voor een Big Brother Award van Bits of Freedom voor dat algoritme, al 'won' de gemeente die niet.

Algoritmeregister v2

Van vrijwillig naar verplicht

De algoritmes in het register worden niet gedateerd, maar volgens data uit de Wayback Machine zijn de acht nieuwe algoritmes in ieder geval niet vóór 5 april ingevoerd. Wel belangrijk om te melden is dat er nooit een definitief einddoel voor het algoritmeregister is voorgesteld. Staatssecretaris Van Huffelen heeft het register altijd als een lopend proces gezien en op de website staat ook dat 'eraan wordt gewerkt om impactvolle algoritmes openbaar te maken'. "Aanmeldingen zijn op dit moment nog vrijwillig. Maar het gaat verplicht worden, mede op verzoek van de Tweede Kamer", schrijft een woordvoerder van de staatssecretaris. Het is niet bekend wanneer dat gebeurt.

Van Huffelen ziet de interesse in het algoritmeregister niet versloffen. "We zien dat organisaties er mee bezig zijn, hoewel zij nog niet gepubliceerd hebben in het Algoritmeregister", aldus de woordvoerder. "Voorafgaand aan het invullen van de velden is het belangrijk dat de relevante algoritmes geïnventariseerd worden en dat de verantwoordelijkheden daaromheen ook intern goed geregeld worden. Het registreren heeft dus een lange doorlooptijd, maar ook niet bij elke organisatie nog urgentie. Capaciteitstekort speelt daarbij een rol."

Staatssecretaris Van Huffelen verwacht dat er in de toekomst meer algoritmes in het register worden opgenomen.De staatssecretaris verwacht in de toekomst meer registraties, 'omdat veel organisaties wel al bezig zijn'. "We stappen actief op overheidsorganisaties en decentrale overheden af om ze te motiveren en te ondersteunen bij het registreren", zegt de woordvoerder. "Daarbij helpt dat we de aanleverfunctionaliteit verbeterd hebben en we ook meer handvatten aan overheidsorganisaties bieden om te publiceren."

Onbekende algoritmes

Het is niet bekend welke algoritmes er als laatste zijn toegevoegd, omdat die niet gedateerd worden. Twee ervan zijn in ieder geval afkomstig van de gemeente Amersfoort. Dat voegde vorige week twee nieuwe algoritmes in, die via een nieuw webformulier werden toegevoegd.

Het algoritmeregister is ontstaan uit een wens van de Tweede Kamer. Die eiste meer openheid over overheidsalgoritmes na het toeslagenschandaal en andere schandalen zoals dat rondom SyRI. De Belastingdienst kreeg ook meerdere keren AVG-boetes voor de algoritmes die tijdens het toeslagenschandaal werden gebruikt. De Tweede Kamer wil dat overheden grotendeels stoppen met zulke algoritmes en dat er meer openheid komt over de algoritmes die nog wel worden gebruikt. Mede daarom werd er eerder al een algoritmetoezichthouder opgericht als afdeling van de Autoriteit Persoonsgegevens, maar ook het nationale register is onderdeel van die wens.

Door Tijs Hofmans

Nieuwscoördinator

22-05-2023 • 15:46

87

Reacties (87)

87
87
39
5
0
40
Wijzig sortering
Wordt met machine learning ook een algoritme bedoeld? Het lijkt me dat de overheid daar wel gebruik van maakt. Vraag is wel wat je aan zo'n algoritme hebt, want de werking ervan hangt af van wat je het algoritme geleerd hebt.
De definitie van algoritme (wat door de overheid gehanteerd wordt) is als volgt:
Een algoritme is een set van regels en instructies die een computer geautomatiseerd volgt om berekeningen te maken om probleem op te lossen, een vraag te beantwoorden, een voorspelling te doen of een beslissing te ondersteunen..

Alles wat onder deze noemer valt is dus een algoritme. Het is behoorlijk breed.
We hebben binnen de gemeente veel algoritmen die ons ondersteunen bij onderhoudswerkzaamheden. Bijvoorbeeld error-loggers, die met een eenvoudig scriptje onderhoudsacties aansturen. Dat valt hier dan dus onder?
Lijkt me nogal weinig boeiend voor de buitenwereld.

[Reactie gewijzigd door blissard op 23 juli 2024 06:06]

De link naar het achtergrondartikel bevat een klein stukje hierover:

""We zoeken naar een niet al te smalle definitie, maar we willen ook niet dat de definitie zo breed wordt dat je de speld niet meer in de hooiberg vindt. Het gaat om algoritmes waarbij bijvoorbeeld risicoselecties worden gemaakt, waar het impact heeft op mensen." Voor het register heeft de overheid op dit moment nog geen harde definitie, maar 'aan die definitie wordt nog verder gewerkt'."

Ofwel, wel als het mensen of privacy raakt, dan moet het geregistreerd worden. En dus niet elke cleanup script wat .tmp bestandjes verwijderd elke dag.
Er wordt nergens privacy genoemd en, bijvoorbeeld, het toeslagenschandaal had ook niets met privacy te maken.
Behalve de inbreuk op mensen hun priveleven omdat er een fraudeverdenking op hen werd gevestigd? Of de verwerking van 2e nationaliteit?
https://nl.wikipedia.org/...king_tweede_nationaliteit
Heck, uit onderzoek naar die praktijk bleek zelfs dat de systemen niet de privacywetgeving volgden.
Je hebt gelijk, maar mijn inziens is dat eerder een gevolg van het daadwerkelijke probleem, het verkeerd profileren. Daar staat de vraag óf bepaalde gegevens gebruikt mogen worden nog los van. In dit geval had het hoogstwaarschijnlijk niet eens geholpen om die gegevens niet te gebruiken omdat je op basis van allerlei andere gegevens meestal vrijwel hetzelfde profiel kunt bouwen (denk aan advertentieboeren die eerder dan de persoon zelf weten dat die zwanger is).
Privacy is juist de kern!! Het heeft er alles mee te maken.

Als gegevens van mensen niet onterecht ge/misbruikt zouden worden (=privacy) dan zouden zij niet in de problemen geraakt zijn.

Privacy betekend niet alleen dat ze jouw (migratie) achtergrond of huidskleur wel of niet mogen weten he? Dat betekend ook dat ze zaken alleen met de juiste reden mogen verwerken.

Bijvoorbeeld mag de overheid geen herkomst registreren (voor zover ik het weet). Maar als dat wél mag, dan mag het sowieso nooit gebruikt worden als variabele in fraudebestrijding.
Je hebt gelijk. Zie ook mijn antwoord op @killercow .
Dank voor de verwijzing. Het verder uitwerken is echt wel interessant. Heel veel assetmanagement systemen hebben invloed op mensen en werken veelal met automatisering. Het is bijvoorbeeld naar mijn mening volstrekt duidelijk dat niemand zit te wachten op registratie van algoritmen die risicogestuurd onderhoud aan VRI's aansturen. Tegelijk valt dat nu 100% onder de definitie.
Helemaal waar.

Maar wat ik nog veel spannender vind, is wanneer het wél gebruikt mag worden. Wellicht (nog) niet zozeer AI, maar deterministische algoritmes.

Ik heb er in principe niks op tegen wanneer een duidelijke formule door een algoritme bepaald wordt, ook niet als mij dit persoonlijk raakt. De truuk lijkt mij uit te zoeken wanneer gegevens 1:1 te bereken zijn en welke niet.

Bijvoorbeeld is de belastingdienst zo'n club. Verreweg de meeste aangifte zijn simpel, logisch en dus deterministisch op te lossen. Je hebt inkomen, mogelijk hypotheek, rekeningen, wat andere velden en belastingschijven. Gechargeerd natuurlijk.

Dit alles is gemakkelijk in een vaste formule te proppen en via een algoritme een uitkomst uit te genereren. De regels liggen vast in de wet.

Uiteraard zijn er uitzonderingen, niet alles is in het standaard formulier te proppen. Dat hier nog een persoonlijke touch bij komt kijken snap ik dan weer.

Maar je kan toch niet 'even' miljoenen aangiftes verwerken zonder enige vorm van automatisering? En dat is gewoon logisch wat mij betreft.

Er moet alleen geen mens zijn die zo idioot is er een regel in te stoppen dat mensen op (rasistische) kenmerken eruit pikt om ze persoonlijk kapot te maken, wat feitelijk wel is gebeurt.
Net als wetgeving gaat er zeker nooit eentje af?
Als systemen worden uitgefaseerd zullen die bijbehorende algoritmes verdwijnen. En er worden regelmatig system uitgefaseerd als je ziet hoe vaak migraties problemen geven…..
Volgens mij worden ze gewoon herbouwd. Zoveel verandert de wetgeving niet.
Formules zijn formules. Migraties zijn vaak databases, tabellen en de (frontend) software. Dat staat los van de formules volgens mij.

X+y=z kan je in alle talen schrijven volgens mij. Nu is bijvoorbeeld de belastingdienst wel wat ingewikkelder, maar berekeningen blijven dezelfde berekeningen.
Als je de wijzigingen in het wetboek bijhoudt komt er een hoop bij, wordt een hoop gewijzigd, maar verdwijnt er ook een hoop.
Zie alleen maar meer toeslagen erbij komen en instanties die geld innen. En dat zijn juist degene die in de uitvoering met algoritmes werken.
Niet elke regelwijziging leidt tot nieuwe algoritmes. Je kunt dat heel mooi generiek oplossen waarbij de formule in een database staat en de parameters (meestal) al bekend zijn. Heel af en toe krijg je een nieuw gegeven erbij dat een rol speelt in de berekening, maar dat is zelden. Regelwijzigingen of nieuwe regels zijn vaak variaties op een bestaand thema, verduidelijking of verfijning van de regels.
Zo'n rule engine IS eigenlijk het algoritme.
Tuurlijk niet, bij de overheid geldt: hoe hoger het getal, hoe tevredener we zijn! }>

Dat geldt voor schandalen, algoritmes, geld, boetes, ontevreden burgers, immigranten en het potje naar Europa of Oekraïne. :+
Zolang het algoritme nog gebruikt wordt neem ik aan dat dat ook niet de bedoeling is.
Ik voorzie wel een paar problemen. Het belangrijkste is dat je van een aantal zaken niet wil dat het grote publiek weet wat het algoritme is. Als de belastingdienst een algoritme heeft dat zegt dat mensen van niet westerse achtergrond met een laag inkomen in een achterstandswijk vaker gecontroleerd moeten worden, omdat men denkt dat die vaker sjoemelen met toeslagen, dan mag dat niet. Of beter gezegd dan is dat politiek gezien licht explosief gezien het recente verleden. Maar moeten wij wel van alles weten welk algoritme de belastingdienst gebruikt? Als ik weet waar de belastingdienst speciaal op controleert, dan zorg ik dat ik dat randje niet opzoek bij mijn aangifte. Sommige weet ik als ZZP-er overigens gedeeltelijk wel. Ik doe iedere drie maanden BTW aangifte en als die niet overeenstemt met wat ik in maart invoer op mijn inkomstenbelasting, dan weet ik zeker dat de computer dat ziet.
Hetzelfde geldt voor de zelfscankassa. Als ik een beetje proletarisch wil winkelen en ik weet dat Albert Heijn heeft gemerkt dat er tussen 9:00 en 11:00 meer wordt gestolen door mensen die vier bonusitems hebben gescand, al minstens drie weken niet gecontroleerd zijn en in een andere winkel winkelen dan de dichtstbijzijnde, dan zal ik dus niet in dat tijdslot gaan en geen vier bonusitems scannen als ik wat vergeet te scannen, omdat ik weet dat het algoritme me dan sneller zal nomineren voor een controle.
Ik denk dat je een essentieel (en behoorlijk fundamenteel) onderdeel van een rechtsstaat niet kent of niet begrijpt, namelijk de 'onschuldpresumptie':
De onschuldpresumptie wordt voorts uitdrukkelijk vermeld in artikel 6, lid 2 van het Europees Verdrag voor de Rechten van de Mens (EVRM):

Een ieder tegen wie een vervolging is ingesteld, wordt voor onschuldig gehouden totdat zijn schuld in rechte is komen vast te staan.
Dus wat jij voorstelt (en de belastingdienst in je voorbeeld zou doen en heeft gedaan), is domweg illegaal.

Dat is andersom eveneens het obstakel waar de copyrighthouders richting torrent gebruikers bijvoorbeeld ook steeds tegenaan lopen: Ze mogen niet het gehele internet tot misdadiger bestempelen omdat er een aantal iets illegaals doet.
Nee, dat is het niet. Dat is iets wat in de hoofden van vele mensen zit. Er wordt noch van schuld noch van onschuld uitgegaan. Je weegt alleen bepaalde zaken meer als je een steekproef neemt. En dat is volledig normaal! Het is niet dat er een portier bij een club staat die alle Marokkanen niet binnen laat. En ook niet een portier die om dat te verbloemen iedereen met een bondkraagje, sportschoenen, grote gouden kettingen of wat hij of zij denkt dat het type mensen dat de baas niet binnen wil hebben, vaak wel draagt, terwijl anderen dat niet dragen, vertelt dat ze niet binnen mogen. Ik vind het doodnormaal dat als op een bepaald punt of een bepaald moment vaak gefraudeerd of gestolen wordt, je juist daar ook meer op gaat controleren. In de tijd dat ik voor mijn werk heel veel onderweg was en heel vaak niet thuis sliep, merkte ik dat AH mij vaker controleerde. Logisch, want mijn bonuskaart werd door heel Nederland gebruikt en dat zal afwijkend gedrag zijn voor het algoritme.
Waar de mensen die het algoritme maken, natuurlijk wel voor moeten oppassen is dat het algoritme geen self forfilling prophecy wordt. Immers, als je meer op een bepaald iets gaat controleren, dan is de kans ook groter dat je daar meer "foutjes" in vindt.
Nou dat het 'in de hoofden van veel mensen zit' is natuurlijk exact waarom die onschuldpresumptie zo belangrijk is, dat heet namelijk gewoon vooroordelen. En ja een individu kan je daar misschien niet direct op afrekenen, maar het punt is nu juist dat de overheid in een rechtsstaat dat niet mág en dat dat ook niet hoort te doen. En dat is ook precies het doel (1 van de) achter dat register.
Als de overheid alleen maar met vooroordelen en grote stappen snel thuis al oordeelt voor er ook nog maar sprake is van een overtreding of misdrijf dan ben je een politiestaat en geen rechtsstaat.
Eens!

Maar iets anders is natuurlijk als je op basis van een profiel kijkt wie er meer kans heeft op het plegen van bijvoorbeeld fraude of meer kans heeft er slachtoffer van te worden en dat beter controleerd.

Dat lijkt me wel acceptabel, mits je goed monitort dat je er geen vooroordelen in verwerkt of versterkt.
op basis van een profiel ... geen vooroordelen
Gaat dit niet per definitie fout?
Het probleem is, dat dat al weer heel erg tegen het schenden van die onschuldpresumptie aanschurkt, dat wordt bijvoorbeeld toch al snel etnisch profileren. En dat mag gewoon allemaal niet. Anders gezegd: Ik ken talloze mensen die luidkeels roepen 'alle <insert ethische groep in> zijn fout, behalve mijn buurman want dat is toevallig een goeie.' En het gaat er dus vaak om dat er uiteindelijk veel (of zelfs meer) mensen de goede zijn dan de 'verkeerde', en dat je die op 1 hoop veegt met de foute. En dat die goed dan ook 'veroordeeld' zijn.
Ik voorzie wel een paar problemen. Het belangrijkste is dat je van een aantal zaken niet wil dat het grote publiek weet wat het algoritme is. Als de belastingdienst een algoritme heeft dat zegt dat mensen van niet westerse achtergrond met een laag inkomen in een achterstandswijk vaker gecontroleerd moeten worden, omdat men denkt dat die vaker sjoemelen met toeslagen, dan mag dat niet. Of beter gezegd dan is dat politiek gezien licht explosief gezien het recente verleden. Maar moeten wij wel van alles weten welk algoritme de belastingdienst gebruikt? Als ik weet waar de belastingdienst speciaal op controleert, dan zorg ik dat ik dat randje niet opzoek bij mijn aangifte.
Hoe kan je als iemand van niet-Westerse achtergrond niet het randje opzoeken van een algoritme dat jou eruit pikt gebaseerd op je niet-Westerse achtergrond?
Iedereen kan dat doen als je weet waar de belastingdienst op zoekt (en dus dan ook weet waar de belastingdienst niet op zoekt). De OP zegt ook nergens specifiek dat iemand met een niet-Westerse achtergrond dat gaat doen.
Ik vermoed dat hij bedoelde dat zo'n algoritme zelf fout is en het dus goed is als zoiets in de openbaarheid komt zodat die misstand verholpen kan worden, maar dat er andere mogelijke algoritmes kunnen zijn waar op zich weinig mis mee is maar waar het niet goed is als iedereen kan zien hoe ze werken. Dus dat voorbeeld waar jij op reageert is er net niet zo een.

Of het klopt is lastig te zeggen zonder specifieke voorbeelden bij de overheid, ik weet het zo niet. Het doet me bijvoorbeeld wel denken aan anti cheat maatregelen bij sommige games waar ze ook bewust heel vaag doen over hoe ze cheaters detecteren want je wil ze niet haarfijn uitleggen hoe ze hun gecheat beter kunnen verbergen. Ik kan me inderdaad wel voorstellen dat dat bij belastingfraude bijvoorbeeld ook zo kan werken.
Hier wordt in de beleidsvorming rond het Algoritmeregister ook over nagedacht. Het in de hand werken van ‘gaming the system’ is bij veel organisaties met een toezichts- of opsporingstaak een angst. Maar uiteindelijk kan je daar best goed omheen werken, door goed na te denken over wat je beschrijft en hoe je het beschrijft. Een voorbeeld hiervan is de beschrijving van het UWV over Verblijf Buitenland. Zij geven wel aan dat ze gegevens verwerken, maar ook duidelijk dat ze niet alles vrij kunnen geven.

Uiteindelijk is een algoritmeregister ook maar één maatregel, dat onderdeel moet worden van een set aan maatregelen. Voor algoritmen in toezicht en opsporing kan ik me voorstellen dat je misschien niet alles publiceert, maar wel een onafhankelijke certificering eist. Dat zie je in de AI Act van de EU al opkomen.

Op dit moment is alles rondom algoritmen bij de overheid in ontwikkeling. Er zijn flink wat ambtenaren bezig om er één geheel van te maken en een sluitend net te maken om verantwoorde inzet van algoritmen binnen de overheid mogelijk te maken.
Dat klinkt fantastisch, maar een democratie kan alleen functioneren zolang burgers en het parlement inderdaad 100% kennis hebben van hoe de uitvoering van taken gedaan wordt. Niet alleen het algoritme, maar ook statistieken en eigenschappen van de data, plus het hele model (wat uiteraard per design sowieso al privacyvriendelijk zou moeten zijn) moeten mijns inziens gewoon publiek gedeeld worden.

Als je het niet publiek maakt dan (1) schaadt dat vertrouwen, (2) werkt het in de hand dat er gefoefeld kan worden door de overheid zelf en (3) zorgt het voor rechtsongelijkheid tussen de haves en de not-haves doordat sommigen de middelen gaan hebben de algoritmes te reverse-engineren en daar geld mee te gaan verdienen door juist wel de randjes op te kunnen zoeken. Misschien zijn er nog wel veel meer nadelen te verzinnen.

Dit geldt voor opsporing van fraude, meten van wie er te hard rijdt, slimme camera's die bedenken of je telefoneert tijdens het rijden, beslissingen of je wel of niet een uitkering krijgt, asielaanvragen, etc. etc. etc.

Een situatie waarin het wellicht bespreekbaar is om het niet volledig transparant te doen is de inlichtendiensten en sommig politiewerk, waarbij geheimhouding essentieel is. Echter zal er ook daar een controlerende instantie moeten zijn op het volgen van procedure's, zoals de rechtbank, die ook potentiële inzage in gevoelige informatie nodig heeft om die controle uit te kunnen voeren.
Ik geloof niet dat overheidsinstanties dergelijke zaken in een programma laten inbakken. Dergelijke specificaties staan dan op meerdere plekken geregistreerd en het is zoals je zelf al aangeeft tegen de wet. Er is altijd wel iemand te vinden die dit aan de grote klok gaat hangen. Ik zou het iig doen als ik dergelijke opdrachten kreeg. Wat er denk ik wél gebeurt is dat ambtenaren zelf in hun data mining tools de data gaan bevragen en dan allerlei criteria invoeren en op die manier hun controlelijstjes samenstellen.

En als jij niet wilt opvallen bij de BD, moet je je zaken zodanig invullen dat het overeenkomt met hetgeen zij verwachten. Als jij geen bijzondere zaken hebt, en ook niet (opvallend) het onderste uit de kan wilt halen, denk ik dat het heel lang kan duren voordat je een controle krijgt. Heel lang geleden heb ik iets gelezen over een bepaald algoritme dat zij los laten op reeksen (zoals km administraties, declaraties) om te ontdekken of deze verzonnen zijn of echt random. Blijkbaar kunnen mensen niet heel erg goed willekeurige reeksen verzinnen en dat algoritme 'ziet' dat en geeft de afwijking/regelmaat aan. Dit is dan een rode vlag om jou eens nader onder de loupe te nemen. Maar men heeft bij de BD ook wel eens een focusgroep. Zo kunnen ze een keer wat nauwkeuriger gaan kijken naar horecamedewerkers, of zzp-ers in de zorg, ik noem maar wat. Dan is men bv achter een bepaalde fraude gekomen in die specifieke groep en dan gaan ze wat beter kijken of meer mensen dat doen.
Maar dat zijn allemaal signaleringsmechanismen. Iemand wordt op basis van deze technieken gecontroleerd, niet meteen veroordeeld.
Dat is te ondervangen door algoritmes te gebruiken die afhankelijk zijn van data.
Bijvoorbeeld; we controleren bij de zelfscan elke 9e persoon die meer dan 2 bonus items heeft.
Of bij de belastingdienst kan je het algoritme afhankelijk maken van "ander aangiftes uit jouw wijk" bijvoorbeeld.
Dan kan je niet meer zelf bepalen of je wel of niet eruit gepikt zal worden.

[Reactie gewijzigd door Zynth op 23 juli 2024 06:06]

Of bij de belastingdienst kan je het algoritme afhankelijk maken van "ander aangiftes uit jouw wijk" bijvoorbeeld.
Dan kan je niet meer zelf brpalen of je wel of niet eeuit gepikt zal worden.
Ah, ja. Mensen gaan oormerken als verdachte gebaseerd op waar ze wonen. Dat heeft nog nooit voor problemen gezorgd. :)

Het probleem is dat je dan een specifieke groep meer gaat controleren. Door meer te controleren komt er meer naar boven t.o.v. groepen die minder gecontroleerd worden. "Zie je wel! Zij doen het meer, dus strengere gerichte maatregelen". En zie daar, je hebt een toeslagenaffaire.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 06:06]

Er komt alleen, procentueel!, meer naar boven als dat daadwerkelijk zo is en dan ben je dus goed bezig.
Je kijkt uiteraard niet alleen naar aantal bevindingen (per controle).
Je lost die kwestie niet ineens op door "procentueel" erbij te roepen, zo simpel is het überhaupt niet. En dan nog, als je al dat soort bias er wel uit weet te halen (in de praktijk zo goed als onmogelijk) dan nog is het niet zo dat het ineens eerlijk is dat je constant gevolgd en gecontroleerd wordt omdat je net pech hebt dat ze een bepaald profiel met een relatief hogere incidentie van bepaalde misdaden hebben opgesteld waar jij onder valt.
Zo simpel is het wel in vergelijking met de reactie van Zep man, simpelweg omdat het (statischtisch) onjuist is.

Ik heb er overigens geen enkele moeite mee om "constant" gevolgd en gecontroleerd te worden, ik doe namelijk niks (bewust) verkeerd.
Sterker nog, ik vind het eerlijker en voel me veiliger als ik vaak gecontroleerd wordt, want dan weet ik dat de kans dat de slechten gepakt worden groot is.
Moet er natuurlijk wel ruimte zijn om misverstanden te bespreken / aan te kaarten, voordat dat hele vervelende consequenties heeft.
Het ligt dus wel een beetje aan het (uiteindelijke) antwoord van het algoritme. "moet gecontroleerd worden" is iets anders dan "schuldig tot tegendeel bewezen".
Ik woon in een land waar dit ook zo is maar dan drie stappen verder. In China wordt ook alles gevolgd en daar heeft niemand moeite mee totdat je iets verkeerds doet. Bijvoorbeeld een foute comment online krijg je een onbekende bericht terug of de politie komt langs. Even protesteren omdat ze de school kapot maken en de politie komt langs.

Wat fout is, laat ik opzettelijk in het midden omdat dit drie stappen verder is. Het is totaal onwenselijk dat iedereen gevolgd wordt want je doet toch niks fout.

Laat de overheid eerst maar eens bewijzen wat ik doe alvorens ik al schuldig ben bevonden. Men heeft totaal geen recht tot algeheel volgen en wat in NL nu gebeurd moet niemand willen. Maar zoals je al zei, hebt er geen moeite mee omdat je toch niks fout doet. Wanneer maatregelen te ver gaan, wordt het heel moeilijk om terug te gaan want dan heeft de overheid mannelijk volledige controle over jou leven. Maar hij doet niks fout, today de overheid daar anders over denkt.
Het maakt niet uit of je bewust of onbewust iets fout doet. Ook onbewust is strafbaar.
Daarnaast, wetgeving is gemaakt en goedgekeurd door ons als volk (via een democratisch proces) met de gedachte dat de pakkans niet 100% is. Als die ineens radicaal veranderd en we dus allemaal de sjaak zijn, moeten we dan niet eens opnieuw over die wetgeving discussieren? En wat als die wetgeving voor sommige mensen buitenproportioneel vaker last oplevert?

Voorbeeldje:
Flitspalen vinden we allemaal oke want veiligheid (en soms zijn we de sjaak).
Als we nu ineens allemaal beboet worden op basis van een snelheids-log in onze auto's en de pak-kans dus 100% is is, dan zijn we ineens niet meer zo voor deze handhaving. (of in ieder geval is de tijd rijp voor een discussie).
Als het nou blijkt dat die pakkans eigenlijk alleen voor oude kleine auto's geldt van alleenstaande moeders met een bijstandsuitkering. Dan kunnen we die discussie wel weer gewoon overslaan toch? Dan is een verhoogde pakkans immers volkomen terecht ofzo.
"...met de gedachte dat de pakkans niet 100% is"
Dit vind ik een rare gedachte.
Dus je vindt het normaal om iets illegaals te doen, omdat je maar 1 op de 100(0) kans hebt om gepakt te worden?
Flitspalen zijn enigszins te voorspellen, maar als de politie bedenkt dat ze (op basis van een algoritme, bv met aantal ongelukken als input) elke dag, de gehele dag op een specifiek punt een mobiele flitser neerzetten moeten we het over de wetgeving gaan hebben?
Dat ik dan ook meer kans loop op een boete op datzelfde punt is toch geen reden om het er niet mee eens te zijn? De kans dat ik (of een ander) te hard rijdt (na een aantal boetes) is daarmee bijna volledig weg, dát moet het uitgangspunt zijn.
Het automatisch loggen van auto's is misschien weer een stapje (of drie) verder, daar kunnen we het wel over hebben.
Het punt is, je moet het er dan inderdaad over hebben.
Het probleem is, als die pakkans onevenredig is naar een bepaalde groep, dan gaan we het er niet over hebben, want het boeit het gros van de mensen geen zier, want zij worden niet geraakt, maar maken gemiddeld gezien wel net zo veel misstappen.
Daar zit de crux. Het gaat niet over twee (of meer) groepen die (gemiddeld) evenveel misstappen maakt.
De pakkans is alleen groter, als je (toevallig) tot een groep behoort die gemiddeld gezien méér misstappen maakt.
Behoor je niet tot die groep, is de pakkans inderdaad kleiner.
Die verbanden zijn aantoonbaar, ondanks dat binnen die groep alsnog 99% van de individuen geen misstappen maakt, en buiten die groep ook wel een paar wel, is dat dan oneerlijk? Of maakt het niet uit als je toch geen misstappen maakt...
Dus als we de politie gaan laten controleren in de plaatselijke bejaardensoos gaan ze daar percentagegewijs evenveel dealers vinden als in een louche club?
Het probleem is dat je dan een specifieke groep meer gaat controleren. Door meer te controleren komt er meer naar boven t.o.v. groepen die minder gecontroleerd worden. "Zie je wel! Zij doen het meer, dus strengere gerichte maatregelen". En zie daar, je hebt een toeslagenaffaire.
Het gaat erom of er relatief/procentueel meer uikomt. Dat word niet meer als je meer mensen uit een groep controleerd (niet helemaal waar, maar te complex om hier in detail te gaan).

Laten we wel eerlijk zijn, bepaalde zaken komen altijd meer voor in bepaalde sociale groepen. In positieve zin, in negatieve zin. Het is ergens heel raar dat men daar niet meer naar op zoek mag. Dat gaat ten koste van je efficientie, maar zorgt er mogelijk ook extra fraude. Je moet weer zoeken naar spelden in hooibergen, en zodra men weet dat de pakkans weer laag is...

De toeslagaffaire word nu toegeschreven aan algoritmes, maar het was gewoon een compleet falen van de overheid en het ambtelijk apparaat. Op alle vlakken en lagen, incompetentie, tunnelvisie, groepsdenken.
[Of bij de belastingdienst kan je het algoritme afhankelijk maken van "ander aangiftes uit jouw wijk" bijvoorbeeld.]

Ah, ja. Mensen gaan oormerken als verdachte gebaseerd op waar ze wonen. Dat heeft nog nooit voor problemen gezorgd. :)
Dat is nu net wat @Zynth niet zegt.
Je gaat niet speciaal naar mensen kijken omdat ze in een bepaalde wijk wonen. Je gaat in alle wijken (postcodegebieden) alle mensen in die wijk met elkaar vergelijken. Wanneer je daar een grote afwijking ziet in één aangiftes, dan kan een belastingdienstmedewerker die aangifte nader gaan bekijken.
In een wijk met veel bejaarden zal je niet iedere aangifte waarin veel zorgkosten worden teruggevraagd hoeven te controleren, een paar steekproeven zal genoeg zijn. In een wijk met veel studenten zijn hoge zorgkosten uitzonderlijker, dus is het handig om daar iemand naar te laten kijken. Ook jongeren kunnen hoge zorgkosten hebben, dus je hoeft ze niet meteen als fraudeur te benaderen, maar de bonnen en rekeningen opvragen als controle kan dan geen kwaad (die bonnen en rekeningen moet je sowieso hebben wanneer je de zorgkosten als aftrekpost opgeeft in je aangifte).
Wait, is dat waarom ik zo vaak getriggerd wordt voor controle bij zelfscan? 2 bonus items al?

Pfff, 1 van de redenen dat ik maar de lopende band pak, is ook omdat die zelfscan toch altijd loopt te zeuren en als je wat meer producten koopt is het toch vaak net zo snel via kassa. Tenminste, als je niet op zaterdagochtend boodschappen gaat doen
Het is veel ingewikkelder:
  • Als je een handscanner of je eigen telefoon gebruikt word de tijd, route en snelheid die je door winkel neemt op genomen. Ben je langer bezig, of loopt een onlogische route voor de producten in je mandje?
  • Als je een product heb gescand wat vaak in combinatie met een andere product word gekocht. Maar jij dat niet in je mandje hebt.
  • Gebruik je een bonus kaart. Dan is het afhankelijk van je vorige aankopen. Zitten producten die vaak gestolen worden gewoon bij je vorige aankopen? Ben je eerder betrapt op het niet scannen van een product?. Is dit je vaste winkel of een ander locatie.
  • Willekeurig.
De "grap" is dat elke keer dat jij een self-checkout gebruikt ze er een datapunt bij hebben, en na elke controle een datapunt met label. Zelfs zonder label is zo'n datapunt waardevol, want in de basis ben je gewoon opzoek naar afwijkende gedrag (de outliers). Daarvoor heb je alleen een berg data nodig, geen labels om te bepalen of iemand afwijkt van de middenmoot.

[Reactie gewijzigd door djexplo op 23 juli 2024 06:06]

De "grap" is dat elke keer dat jij een self-checkout gebruikt ze er een datapunt bij hebben, en na elke controle een datapunt met label. Zelfs zonder label is zo'n datapunt waardevol, want in de basis ben je gewoon opzoek naar afwijkende gedrag (de outliers). Daarvoor heb je alleen een berg data nodig, geen labels om te bepalen of iemand afwijkt van de middenmoot.
theoretisch kunnen ze al datapunten verzamelen zelfs nog voor je binnen bent gestapt (camera's, bareel, ticketautomaat, ...)
Afwijkend gedrag is niet zozeer een probleem, maar het identificeren als zijnde typisch voor slecht gedrag, wat niet altijd diefstal of vergeetachtigheid moet zijn, maar bvb ook het achterlaten van producten op een andere plaats, openen van producten (vb om er aan te ruiken), ... Ik zeg niet dat het nu al zo gebeurt, maar technisch gezien kan het al wel in combinatie met registratie van incidenten door het personeel (al dan niet in burgerkledij).
Apart... Ik word vrijwel nooit gecontroleerd en ben over het algemeen binnen een minuut klaar. Hang scanner in het rek, loop naar een van de terminals, scan bonus kaart, hou mijn horloge bij de pin terminal, pak bonnetje en loop naar buiten. Heerlijk :)
Dat is te ondervangen door algoritmes te gebruiken die afhankelijk zijn van data.
Bijvoorbeeld; we controleren bij de zelfscan elke 9e persoon die meer dan 2 bonus items heeft.
Of bij de belastingdienst kan je het algoritme afhankelijk maken van "ander aangiftes uit jouw wijk" bijvoorbeeld.
Dan kan je niet meer zelf bepalen of je wel of niet eruit gepikt zal worden.
Je geeft zelf al bij je eerste voorbeeld aan dat ik dat dan wel kan beïnvloeden. Als dat het algoritme is, dan kan ik mijn kans dus verminderen door 0 of 1 bonusartikelen te scannen en / of door een beetje te treuzelen bij de zelfscankassa en pas de kassa te gebruiken als iemand anders gecontroleerd wordt. Je geeft wat mij betreft nu prima aan, waarom je dit algoritme geheim wil houden.
Geloof mij. Zo’n winkel heeft veel meer triggers om een controle te doen dan alleen dat.

Als jij een beetje staat te treuzelen voor de kassa en denkt daarmee weg te komen kan ik je wel vertellen dat je dat niet gaat helpen.

Er wordt ook gewoon gekeken naar gedragingen door zowel personeel als filiaal leiders en dat is voor jou vaak helemaal niet zichtbaar.
Echter het personeel kijkt (bewust of onbewust) ook naar achtergrond (kleur, kleding, etc), een algoritme die niet kijkt naar uiterlijk vertoon is bij de AH dan eerlijker, al dan niet effectiever...
Uiteraard, maar het gaat hierbij dan ook om verdachte gedragingen en opvallende kleding. Vrij logische zaken waar ze op letten. Schichtig gedrag, omlaag blijven kijken, zonnebril/pet/hoodie combinatie, dat soort dingen.


Punt was meer dat het algoritme niet de enige is die op je let ;).
Persoonlijke achtergrond moet nooit uitmaken. Omgeving of andere factoren kunnen meespelen, maar puur op basis van een funky achternaam zoals de belastingdienst dus deed, is gewoon not done.
Waarom mag het grote publiek niet weten wat er in de algoritmes staat? Er zijn er vast een paar die expliciet maatregelen nemen om detectie te ontduiken, maar ik vind het dat wel waard t.o.v. transparantie. De pakkans zou niet 0 mogen zijn als je de algoritmes weet te ontduiken, want dan zou dat betekenen dat de gebruikers ervan de algoritmes feilloos vertrouwen. Een beetje publiek toezicht om de overheden in het gareel te houden is m.i. nooit verkeerd.
Wat overheid betreft mag je toch wel eisen dat die zich wat meer aan de wet tegen discriminatie/vooroordelen houdt vind ik.
Hetzelfde geldt voor de zelfscankassa. Als ik een beetje proletarisch wil winkelen en ik weet dat Albert Heijn heeft gemerkt dat er tussen 9:00 en 11:00 meer wordt gestolen door mensen die vier bonusitems hebben gescand, al minstens drie weken niet gecontroleerd zijn en in een andere winkel winkelen dan de dichtstbijzijnde
De AH weet volgens mij pas wie jij bent nadat je betaald hebt. Voordat je je pinpas aangeboden hebt heeft AH geen identificerende info van je. Of je moet een zeer specifiek en herkenbaar boodschappen patroon hebben.
De AH weet volgens mij pas wie jij bent nadat je betaald hebt. Voordat je je pinpas aangeboden hebt heeft AH geen identificerende info van je. Of je moet een zeer specifiek en herkenbaar boodschappen patroon hebben.
Die bonuskaart die ik gebruik om de scanner los te krijgen zegt al genoeg. Zelfs als ik die niet personaliseer en zelfs als AH die niet koppelt aan mijn pinpas, dan nog weet AH wanneer die bonuskaart gebruikt is, waar, wanneer en of die bij steekproeven wel of niet vergeten boodschappen had.
Oh ja, bonuskaart.

Ik ben zo'n dief van eigen portemonnee die de bonuskaart nog nooit gebruikt heeft om privacy redenen ;-)
Bij een hoop is de juridische grondslag niet ingevuld.
Vergeten of een veeg teken dat het gewoon niet goed geregeld is?
Is dat niet een beetje een sprong? Dat er niet veel bij is gekomen, kan ook betekenen dat er echt weinig nieuwe algoritmes in gebruik zijn genomen.
Staan de cookie algoritmes van de organisatie ook in hun eigen register? AVG conform is het openingsstatement van deze overheidsorganisatie alvast niet:
Om content te kunnen personaliseren en gebruik te kunnen analyseren, gebruiken we cookies. Door te klikken of door de site te navigeren, ga je akkoord met het verzamelen van gegevens. Meer informatie over ons cookiebeleid lees je in onze cookieverklaring.
En die cookieverklaring spreekt dat dan tegen en zegt dat er geen personalisatie zou zijn.. :? |:(

[Reactie gewijzigd door Gwaihir op 23 juli 2024 06:06]

Ik vraag me af hoeveel er simpel weg lui zijn en ze nog niet hebben toegevoegd.
Als ik kijk op https://www.rijksoverheid...-en-veiligheid/algoritmen
Dan zie ik er gelijk zeven die niet op https://algoritmes.overheid.nl/nl/algoritme staan.
@TijsZonderH Ik kan geen beschrijving van de API vinden maar als je naar de network requests kijkt kom je toch al snel uit op een json file (Firefox opent deze gelijk in een mooie tree-view) met o.a. de datum van toevoeging. Zie bijvoorbeeld:
https://algoritmes.overheid.nl/api/algoritme/77953126/

De op te vragen ID's kun je uit de API halen, al moet je dan wat data meesturen in de request-body. Je kunt ook de laatste kolom van de csv gebruiken die op de website staat of gewoon de ID's uit de URL's pakken op de website.

[Reactie gewijzigd door Joolee op 23 juli 2024 06:06]

Met die nominatie van de top400/600 in Amsterdam zie je dat Bits of Freedom principes ook wel eens door kunnen slaan. Theoretisch hebben ze helemaal gelijk. Maar uiteindelijk is het denk ik voor iedereen beter is dat er af en toe iemand ten onrechte wordt gesignaleerd die niet de zware criminaliteit in zou gaan als je daarmee vele anderen uit de zware criminaliteit kunt houden.
De Tweede Kamer wil dat overheden grotendeels stoppen met zulke algoritmes
Wat zijn in dit geval "zulke algoritmes"?
Die zin heeft direct betrekking op de zin daarvoor
De Belastingdienst kreeg ook meerdere keren AVG-boetes voor de algoritmes die tijdens het toeslagenschandaal werden gebruikt.
Dus, die algoritmes.
Maar dat is alsnog erg nikszeggend.
Een wiskundige berekening die op basis van een startconditie een eindconditie berekent is een algoritme, dus die worden er sowieso honderden, duizenden of zelfs miljoenen toegepast in iedere laag van de overheid.

Wat is nou zo speciaal aan net die algoritmes dat ze moeten worden geregistreerd, gaat dat om de input, context waaruit die input komt, of de manier waarop de data wordt toegepast?

Misschien meer een vraag voor @TijsZonderH, maar lijkt me wel toegevoegde waarde om dit te verduidelijken
In een vacuüm heb je gelijk. In de praktijk staat dit nieuwsartikel vol met verwijzingen die de context verzorgen waaraan je refereert.
"Zulke" verwijst normaalgesproken naar soortgelijke, maar dat is in dit geval uitermate vaag. In welke opzichten "soortgelijk"?
In een vacuüm heb je gelijk. In de praktijk staat dit nieuwsartikel vol met verwijzingen die de context verzorgen waaraan je refereert.
AuteurTijsZonderH Nieuwscoördinator @hoeksmarp22 mei 2023 16:04
Het algoritmeregister bevat informatie over algoritmes die Nederlandse overheden gebruiken voor automatische en semiautomatische besluitvormingen
De vraag is denk ik ook: Wat is besluitvorming? Als een "algoritme" adviseert dat X moet worden gecontroleerd, is dat dan besluitvorming? Of bijv. "Alle eigenaren van auto's met een kenteken waarvan de trajectcontrole heeft gemeten dat die te hard reed krijgen een boete."? Volgens mij kun je het zo uitleggen dat niets eronder valt, of bijna alles,
De vraag is niet alleen, zoals @RebelClown aangeeft, "Wat is besluitvorming?", maar wat mij betreft ook "Wat is een algoritme?". Een formulier wat handmatig ingevuld wordt en tot een conclusie leidt (denk aan een belastingformulier) kan ook gezien worden als een algoritme. Het heeft input, heeft een aantal regels en komt (semi-)automatisch tot een conclusie op basis van de input en de regels. Dit geldt bijvoorbeeld ook voor een rekenmachine, je geeft input en het apparaat geeft output op basis van een algoritme. Dit is absoluut minder voordehandliggend dan de meeste mensen denken aangezien een regenmachine binair rekent en de output (normaalgesproken) decimaal is. Als er een rekenmachine wordt gebruikt bij de behandeling van een aanvraag, wordt dat dan onderdeel van de besluitvorming? Is het onderdeel van de besluitvorming als die rekenmachine een programma is op de computer? Is het onderdeel van de besluitvorming als het programma zonder tussenkomst van de mens wordt gebruikt? Is het gevolg (op termijn) dat alleen opensource rekentools mogen worden gebruikt door de overheid en (bijvoorbeeld) niet de ingebouwde rekentool van Windows?

De definitie van "algoritme" is wat mij betreft extreem onduidelijk en naar mijn mening mag Tweakers daar best wat preciezer in zijn.

[Reactie gewijzigd door hoeksmarp op 23 juli 2024 06:06]

AuteurTijsZonderH Nieuwscoördinator @hoeksmarp23 mei 2023 12:36
De definitie van "algoritme" is wat mij betreft extreem onduidelijk en naar mijn mening mag Tweakers daar best wat preciezer in zijn.
Die vraag heb ik eerder al aan aan Van Huffelen en Ron Roozendaal gesteld. Zij gebruiken de term algoritme om aan te duiden dat er ergens een besluit op wordt genomen dat een impact heeft op mensen zoals dat bij de toeslagenaffaire of SyRI gebeurde. Ja, technisch gezien is een muisklik ook een algoritme, maar natuurlijk is dat niet waar het register voor bedoeld is.

De algoritmetoezichthouder (die los staat van het register) heeft als een van de eerste taken om de gaan 'normeren', ofwel uitleggen wat de overheid precies onder een algoritme verstaat. Dus ja, die term is nu eenmaal nog onduidelijk. Gevoelsmatig heeft iedereen er wel een beeld bij, maar de exacte definitie wordt nog gegeven.
Dank voor de uitleg.
Wanneer ik Word aan een database koppel om geautomatiseerd brieven aan te maken naar iedereen in die database, en ik laat Word op basis van de geslachtsaanduiding in die database bepalen of de aanhef 'Geachte heer,' of 'Geachte mevrouw,' moet zijn, dan is dat al een algoritme. Dat algoritme besluit op basis van gegevens uit een database hoe de ontvanger van een brief aangesproken moet worden.
Moet dat ook in het register?

Op dit item kan niet meer gereageerd worden.