Nederlands kabinet komt voor eind juni met plan voor algoritmetoezichthouder

De Nederlandse staatssecretaris voor Digitalisering Alexandra van Huffelen komt voor eind juni met een plan voor de algoritmetoezichthouder. Eerder bleek al dat die er zou komen, maar de exacte uitwerking ontbreekt nog.

Van Huffelen zal de brieven over hoe de algoritmetoezichthouder gaat werken, voor eind juni naar de commissie Digitale Zaken van de Tweede Kamer sturen, blijkt uit de planning van de staatssecretaris. Ook komt er voor eind juni meer informatie over het register van algoritmen bij de overheid.

Het is al langer bekend dat Nederland een algoritmetoezichthouder krijgt. Dat bleek uit het regeerakkoord dat de kabinetspartijen eind vorig jaar presenteerden. Die toezichthouder moet controleren of algoritmen voldoen aan eisen op gebied van 'transparantie, discriminatie en willekeur'.

Dat de toezichthouder er komt, is niet meer vrijwillig. De Digital Services Act-wetgeving vanuit de Europese Unie gaat lidstaten verplichten zo'n toezichthouder op te richten. De Nederlandse toezichthouder zal onder de Autoriteit Persoonsgegevens vallen.

Van Huffelen sprak ook over de toezichthouder in een interview met Tweakers enkele maanden geleden. Toen zei ze: "We moeten bepalen wat die nou precies gaat doen en hoe die verschilt van de Europese waakhond, wat de verschillen zijn: wat vinden wij, wat vindt de AP? Veel van de discussie is eensluidend, andere dingen weer niet."

Door Arnoud Wokke

Redacteur Tweakers

16-05-2022 • 14:18

43

Reacties (43)

43
43
23
3
0
16
Wijzig sortering
Dan wordt het toch echt tijd voor een Ministerie van IT Zaken.
Wat ik mij afvraag. Gaat dit over algoritmes die zelf lerend zijn of over alle algoritmes?
In de voorgestelde AI Act wil Europa met een heel brede definitie álle algoritmes vallen. Ja, ook de zeef van Eratosthenes. Het idee is namelijk dat je kijkt naar de impact en risico's, niet naar uit welk domein je de formule hebt gehaald of waarmee je het stappenplan opschrijft. Priemgetallen zoeken heeft nul risico, dus er is dan geen relevante regel in de AI Act op jouw implementatie van die zeef. Een statistiekgedreven machine learning algoritme dat bewoonbare planeten rondom Epsilon Sagittarii detecteert, heeft evenzo geen risico's. Datzelfde algoritme inzetten om fraudegevallen bij bijstandsuitkeringen te vinden heeft wél hoge risico's, dus die implementatie moet aan de allerhoogste regels voldoen.
Ja, precies. Goede opmerking! Men doelt waarschijnlijk meer op AI achtige implementaties met zelflerende algoritmes. Door de kreet 'algoritmes' nu maar overal op los te laten, denkt men nu dat alle programma's met een algoritme (wat dus zo'n beetje alle programma's zijn) 'slecht' zijn. Heel triest.

Als ik uitleg waar ik werk en wat wij doen (software voor het sociale domein) roepen veel mensen al meteen kreten als 'algoritme' en beginnen ze over de toeslagenaffaire. Echt heel jammer, want wij hebben a)niets met de toeslagen te maken en b)onze algoritmes zijn bijna letterlijk Excel formules. Niets zelflerends aan, gewoon de regelgeving van de overheid. En onze software is ook niet autonoom; de ambtenaar die het bedient kan nog van alles aanpassen voordat er iets besloten wordt.

Dus door deze begripsverwarring wordt er heel breed een verkeerd beeld gecreëerd.
...roepen veel mensen al meteen kreten als 'algoritme'...
Vraag je publiek met welk algoritme ze hier gekomen zijn. En reik en cadeautje uit aan degene die het kortste-pad algoritme noemt (van zijn/haar GPS). Heb je gelijk een voorbeeld van een meestal als positief ervaren algoritme :)
Als ex-medewerker van TomTom kan ik je garanderen dat dit zeker niet het geval is. Wijzelf gebruikten ArcFlags, en we wisten uit de performance van Google Maps dat zij rond 2010 ook zijn overgestapt.

Dat is op zich dus niet openbaar, maar Google kon simpelweg de performance karakteristieken niet verstoppen. Het algoritme wat jij aanhaalt (Dijkstra) is onwaarschijnlijk traag. Zelfs de geoptimaliseerde versie (A*) doet minuten over een route Amsterdam-Athene waar je met ArcFlags dat in seconden kan.

Dat Wikipedia claimt dat TomTom Dijkstra gebruikt? Ja, dat zegt dus veel over het nivo van Wikipedia. Dat is nooit het geval geweest, zelfs 20 jaar geleden niet.
Ik heb het ArcFlags algoritme even opgezocht, want ik kende het niet (ik ben ook niet werkzaam in het vakgebied, en dat zal zeker niet stil gestaan hebben). We kunnen best Wikipedia verbeteren, maar zonder openbare bron wordt het lastig natuurlijk.
Wikipedia verbeteren? Ik heb het wel eens geprobeerd, over de Fast Fourier Transform. Ik durf wel te zeggen dat ik er wat vanaf weet - zie bijvoorbeeld mijn github. Maar toen ik wat onzin op de WIkipedia pagina corrigeerde vond de pagina-eigenaar het noodzakelijk om op z'n strepen te gaan staan.

Ik bedoel, dat is wiskunde. Het is niet eens een kwestie van "openbare bron", wat je nodig hebt in subjectieve zaken.

Anyway, dé publicatie over Arc Flags is "Fast Point-to-Point Shortest Path Computations with Arc-Flags", http://citeseerx.ist.psu....01.3778&rep=rep1&type=pdf. Mede-auteur is Heiko Schilling, mijn collega destijds by TomTom.
Nu betekent Dijkstra (en in zekere zin A* ook want dat is Dijkstra met een heuristic) natuurlijk wel de routes van alle mogelijke beginpunten naar een eindpunt dus als je die wilt weten valt dat weer mee of is daar ook nog een sneller algoritme voor?

Van ArcFlags had ik iig nog niet eerder gehoord dus dat is weer leuk om te weten.
Ha. Meestal wordt dijkstra andersom uitgelegd (van een beginpunt naar eindpunten).
A* doet dat absoluut niet, want dan heb je gewoon Dijkstra (de heuristiek voorkomt dat je overal langs moet)
A* doet hetzelfde als Dijkstra maar door een toevoeging van een heuristic zal het algoritme eerst nodes kiezen die dichterbij het einddoel liggen ipv in alle richtingen proberen te zoeken.

Het zoeken is dus veel meer gericht op het eindpunt waar je heen wilt wat tijd scheelt maar verder doet A* eigenlijk hetzelfde.
Neen, hij doet niet hetzelfde, want als je het einddoel bereikt heb kap je hem af!!
Dijkstra evalueert op basis van de absolute kostenfunctie, A* gebruikt een heuristiek. Op een grid kan je met A* bijvoorbeeld de manhattan afstand van begin tot einde, via grid-punt als heuristiek nemen

[Reactie gewijzigd door nandervv op 24 juli 2024 13:35]

Dijkstra kan je ook afkappen zodra je je doel bereikt hebt. Daarin verschillen A* en Dijkstra dus niet.
Het punt van een heuristiek is dat je het eindpunt gemiddeld eerder bereikt, omdat je input 'stiekem' vaak een bepaalde vorm heeft.
En je geeft er garanties voor op.
Dat is dus wat ik eerder al zei.

Als je de nodes die het algoritme afwerkt visualiseert kan je het ook heel goed zien.

Je hoeft zowel met Dijkstra als A* ook niet perse te stoppen nadat je een pad vindt. Misschien wil je ook wel een pad vanaf een andere start weten bijvoorbeeld.

Ligt er maar net aan wat je als resultaat wilt en met wat voor performance karakteristiek. Misschien cache je de nodes wel en ga je op een later punt weer verder waardoor je een gedeelte niet hoeft te herberekenen.
Ook voor A* in de echte wereld gold dat je 't boekje niet letterlijk volgde. A* was standaard dubbelzijdig: je berekende routes van begin én eindpunt gelijk, tot je elkaar ergens tegenkwam. Scheelde weer een paar procent.

Daar zie je dus het ontzettende nivo van details in algoritmes, en de uitdaging voor deze toezichthouder.
Men doelt hier op alle algoritmes. De zelflerende algoritmes zijn daarbij een extra probleem, want die kunnen heel goed in elkaar zitten en aan alle voorwaarden voldoen, maar als je ze voedt met eenzijdige informatie gaan ze toch op de verkeerde manier discrimineren.
Je realiseert je dat een BTW berekening ook een algoritme is? Dus ik hoop niet dat men een heksenjacht gaat openen op elke programma dat iets berekent. Maar dat zal wel niet. Het gaat mij om de begripsverwarring/vervaging. De kreet algoritme is veel te breed en het grote publiek begrijpt dat niet. Als ik zeg dat ons algoritme een uitkering kan berekenen, denkt men meteen dat het zo'n naar ding is dat we niet onder controle hebben. En dat is gewoon niet zo. Wat men wil reguleren is zelflerende algoritmes en AI achtige zaken die dingen doen die wij niet direct zien, of niet zo snel kunnen zien hoe ze dingen bepalen.
Een algoritme is gedefinieerd als een reeks berekeningen. Dat is inderdaad een heel ruime definitie.

De BTW berekening is gewoon een percentage (wettelijk vastgelegd) bovenop de verkoopprijs. Daarmee is dat nu net geen algoritme. De hele berekening van hoeveel belasting je moet betalen bestaat eigenlijk uit een flinke set eenvoudige berekeningen en classificaties. Ieder apart zijn dat geen algoritmes, maar allemaal samen wel!
Naast de belastingdienst zijn er bij de overheid nog veel meer algoritmes in gebruik die geen zelflerende component hebben, maar wel dermate complex zijn dat die het verdienen om geregistreerd te worden. Dit soort algoritmes hoeven maar één keer nagelopen te worden en daarna zal de uitkomst voor dezelfde invoer altijd hetzelfde blijven.
De zelflerende algoritmes zijn een draak om te controleren. Het resultaat voor dezelfde input kan namelijk veranderen. De resultaten zijn immers afhankelijk van eerdere input. Deze algoritmes kan je controleren op de parameters die worden ingevoerd (afkomst en geslacht mogen bijvoorbeeld niet), maar er zijn ook parameters die noodzakelijk zijn (bijvoorbeeld de hoogte van het inkomen), maar wel een link kunnen hebben met afkomst. Mensen van allochtone afkomst hebben bijvoorbeeld vaker een laag inkomen. Moslims mogen vanuit hun geloof geen schulden aangaan en wonen daardoor overwegend in huurwoningen. Op den duur kan een algoritme dus wel degelijk op allochtone afkomst gaan discrimineren, zonder dat dat een parameter is. Het is heel lastig om een algoritme te controleren of dit geen ingebouwd mechanisme is, maar aan de andere kant zijn dit soort mechanismes wel gemakkelijk in te bouwen of achteraf te sturen door door de zelflerende component te voeden met een selectie van de gegevens.

Kortom, registratie is goed. Controle is maar tot op zekere hoogt mogelijk.
Dat zal in de details staan maar niemand heeft tot nu toe gezegd wat de exacte scope moet worden. In ieder geval moet de toezichthouders naar algoritmes van techbedrijven kijken als die nieuws ordenen. Er zullen ook niet-zelflerende algoritmes tussen zitten vermoed ik
AP moet de toezicht houden en is nu al overbelast met de controle op/handhaving van de privacy wetgeving. Ik verwacht niet dat de AP er meer mensen bij gaat krijgen. Lijkt me dat e.e.a. een papieren tijger gaat worden.
De AP heeft bovendien al aangegeven dat de huidige werkzaamheden al aansluiten bij wat een nieuwe algoritmetoezichthouder zou moeten doen. Aleid Wolfsen zei vorig jaar dat het onzin was dat er een aparte toezichthouder zou moeten komen. Ik interview Wolfsen volgende week dinsdag en dit is een centrale vraag die ik voor hem heb want dit is best een rare gang van zaken...
Verrek, wat cool dat je er van tevoren al zo open over bent! Kan niet wachten op de berichtgeving :)
Ik grap met de woordvoering van de AP inmiddels dat het weer eens tijd wordt voor "het jaarlijkse Aleid-interview", ik probeer dat meestal rond de verjaardag van de AVG te doen. Er is altijd veel veranderd en zeker nu met de nieuwe regering en het nieuwe budget ook, dus verwacht het rond die periode ergens te publiceren.
Is volgens mij ook uit het jaarbudget van AP te halen.
Een robot die toezicht houdt zeker…? 8)7
Dat zou wel de best gekwalificeerde en onbevooroordeelde kandidaat zijn, maar ik betwijfel of dat de criteria zijn waar naar gekeken gaat worden.
Hier zou je best bevooroordeelde kandidaat op moeten zetten.

Dit is typisch iets waarbij je uit moet gaan van de slechtst mogelijke bedoeningen.
Het lijkt mij dat dit merendeels geautomatiseerd gaat worden, maar...ik heb verder geen idee.

Ik ben wel benieuwd naar de uitwerking hiervan.
Discrimineren en willekeur zijn juist de basis waarop algoritmes horen te werken. Deze worden wel anders gedefinieerd als in het artikel bedoeld.
Discrimineren in algoritme-land betekend een keuze maken of een waarde toekennen. Willekeur betekent dat een algoritme een compleet willekeurige keuze maakt uit een set van gegevens.
Discrimineren op uiterlijk, afkomst, inkomen enz. is uiteraard uit den boze, maar in geval van zelflerende algoritmes is dat niet helemaal te voorkomen zodra die parameters worden ingevoerd.
Waar blijft het ministerie van digitale zaken!
Er is toch ook geen ministerie van analoge zaken?
het een hoeft het ander toch niet uit te sluiten ?

Het is hoogtijd voor een ministierie van digitale zaken.
Die fosielen in de 2e kamer modderen maar wat aan, blijkt keer op keer.
Alle ministers zijn fossielen, maar die van digitale zaken wordt dat dan niet?
Ja, en met een ministerie van digitale zaken krijg je club digibetische fossielen die nog steeds maar wat aanmodderen. Met meer ambtenaren los je digitale problemen niet op.

We zullen iets beters moeten bedenken...

[Reactie gewijzigd door veltnet op 24 juli 2024 13:35]

En we hebben ook geen ministerie van aanval, terwijl we wel een ministerie van defensie hebben, dus wat is je punt?
Over het algemeen heeft een ministerie taken die domein overstijgend zijn. Een ministerie van digitale zaken zou bv sturend kunnen werken nu de hele samenleving draait op een digitale infrastructuur die door jan en alleman ‘in elkaar geflanst’ wordt. Ik vind het zeker geen gek idee

[Reactie gewijzigd door divvid op 24 juli 2024 13:35]

Nee, klopt. Er zijn er twaalf ;)
Mooi, kunnen ze alles de schuld geven aan het ‘algoritme’. Heel erg handig.
Fijne job voor een wiskundige.
Je verwacht toch niet dat ze hier iemand neerzetten die daadwerkelijk verstand heeft van de materie?
Ik zet mijn geld in op Ferd Grapperhaus. Baantjecarousel komt op hem uit, omdat hij heel erg in te materie zit, zoals bij iedereen wel bekend.
Gaat dit ook van toepassing zijn op bijvoorbeeld verzekeraars? Algoritmes en postcodes bijvoorbeeld. Of leeftijd, opleiding en ga zo maar door. Dan zullen er in de praktijk weinig algoritmes over blijven.

Op dit item kan niet meer gereageerd worden.