Algoritmeregister biedt nog geen zicht op gebruik 'hoog risico'-algoritmes

Het Nederlandse Algoritmeregister van de overheid biedt momenteel nog geen zicht op het gebruik van algoritmes met een hoog risico bij de overheid. Dat zegt staatssecretaris Alexandra van Huffelen in reactie op Kamervragen.

Van Huffelen zegt dat de 'vulling van het Algoritmeregister' zicht moet gaan geven op hoeveel en welke algoritmes met een hoog risico de Rijksoverheid momenteel gebruikt. De bedoeling is dat het in 2025 zover is. "Ik wijs overheden actief op het publiceren van algoritmen en ook spreek ik mijn collega’s in het kabinet erop aan. Het inventariseren, beleggen van verantwoordelijkheden en het uiteindelijke registreren kosten echter tijd en capaciteit voor overheidsorganisaties, omdat dit zorgvuldig moet en tot een toegankelijk resultaat moet leiden."

Het Algoritmeregister moet een overzicht gaan bieden van bij de overheid gebruikte algoritmes. Het register startte een jaar geleden met 109 algoritmes, inmiddels staan er 255 in. Uiteindelijk moeten overheidsalgoritmes vermoedelijk ook Europees geregistreerd staan als de AI Act van kracht wordt. Daarover lopen nu nog onderhandelingen. "Ik wil de nationale verplichting in samenhang bekijken met de inwerkingtreding van de AI-verordening. Het is belangrijk dat regels uit de AI-verordening en die voor het register goed op elkaar aansluiten. Dit om te voorkomen dat de uitvoeringspraktijk met steeds andere verplichtingen wordt geconfronteerd."

Door Arnoud Wokke

Redacteur Tweakers

13-12-2023 • 17:10

17

Submitter: wildhagen

Lees meer

Europese AI-verordening is ingegaan
Europese AI-verordening is ingegaan Nieuws van 1 augustus 2024

Reacties (17)

17
17
7
1
0
8
Wijzig sortering
Wat bedoelen ze hier met 'hoog risico'? Hebben ze het hier over privacy, security, of een AI overlord?

[Reactie gewijzigd door xoleum op 23 juli 2024 06:22]

Hoog risico is een term uit de ai act en ziet op algoritmes die een hoog risico vormen voor de samenleving (in de wet staat volgens mij letterlijk: nadelig effect op veiligheid of op de fundamentele rechten van het individu).

Deze worden dan weer onderverdeeld in twee categorieen:
1. Algoritmes die vallen onder de product veiligheid wetgeving vd EU
2. algoritmes die worden ingezet in 8 specifieke (en in de wet gedefinieerde) gebieden, zoals opvoeding/educatie etc.

Edit:
Heb ook een Nederlands artikel opgezocht waar iets meer info over bovenstaande wordt gegeven, zie ook: https://www.considerati.c...ct-voor-organisaties.html

[Reactie gewijzigd door phytorank op 23 juli 2024 06:22]

Ik denk dat het betrekking heeft op mensenrechten. Dus algoritmes die mogelijk kunnen discrimineren of op andere manier de grondrechten kunnen overtreden.
Of AI voor ziekenhuizen en artsen?
AI wordt door specialisten en ziekenhuizen al gebruikt. Nu nog voor heel specifieke zaken en meestal op basis van vrijwillige deelname van de patiënt en met controle door de specialist zelf. Ik weet dat AI op gebied van huidkanker al een tijdje gebruikt wordt en de AI ziet meer dan de specialist en mist bijna nooit meer iets.
Dit soort AI dient (voorlopig) alleen ter ondersteuning en wordt met een zeer laag risico geclassificeerd.

Zelf probeer ik voorspellende modellen voor de toeristische sector en wandel en fietsverkeer te maken. Dit moet worden gebruikt voor druktekaarten en planning van het personeel.
En ik maar denken dat een "algoritme" van een AI continu veranderd omdat het "leert" van wat een juiste uitkomst is of niet (zeg maar de "kies alle plaatjes met een bus" captcha van google, om maar een voorbeeld te noemen).

Ik ben geen AI expert, dus misschien is het vastleggen van een dergelijk algoritme van een AI wel mogelijk, maar ik heb mijn twijfels.
De meeste huidige modellen zijn niet zelflerend; dat is wel echt een aparte tak van onderzoek.

Bijv. bij ChatGPT wordt de feedback van de gebruikers wel gebruikt bij volgende trainingsrondes waar ze het model updaten, maar het model zelf is statisch en wordt gewoon regelmatig vervangen.
Ik denk dat 99,99% van alle algoritmen helemaal geen AI zijn maar gewoon if else routines etc. (en dat 80% van de AI waar mee geadverteerd wordt helemaal geen AI is maar gewone algoritmes).

[Reactie gewijzigd door Maurits van Baerle op 23 juli 2024 06:22]

Random forrest is ook een AI modellerings techniek, maar de basis voor dat model zijn feitelijk ook if/else constructies alleen zijn ze dan niet voor geprogrammeerd maar heeft het model zelf de aftakkingen uitgepuzzeld a.h.v trainings data.

Verschil alleen is daar waar je zelf nog overzicht kan houden op 10 misschien wel 100 if / else structuren kan een random forrest er nagelang het aantal features en mogelijke labels wel 1000’en hebben.
Ik denk dat 99,99% van alle algoritmen helemaal geen AI zijn maar gewoon if else routines etc. (en dat 80% van de AI waar mee geadverteerd wordt helemaal geen AI is maar gewone algoritmes).
Oh. wow. Uh ... ja, maar, nee.

De meeste techniek is idd niet ML/DL/AI. De meeste software is idd gewoon algoritmes ... maar om dat te reduceren naar 'if/else' is wel erg simplistisch :)

En, ja, de meeste zaken die zich 'AI' noemen zijn idd gewoon .. software. Programma's. Code. Algoritmes.

Maar ... het is nu erg makkelijk om daadwerkelijk LLM modellen te gebruiken. Het probleem? Men noemt dit per definitie bijna AI.

Maar LLM's zijn dat niet echt. Het zijn enkel statistische taal modellen die geen enkele logica kunnen gebruiken.

En het is gevaarlijk dat 'men' denkt dat die modellen wel logische processen volgen ipv enkel 'het meest logische volgende woord op basis van de hele zooi input' uitspuiten.
Men heeft dus gewoon geen idee meer wat ze aan algoritmes gebruiken en blijkbaar niet meer de capaciteit om dat uit te zoeken. Kwalitatief verschilt het ook heel erg wat in het register staat.
Men heeft dus gewoon geen idee meer wat ze aan algoritmes gebruiken en blijkbaar niet meer de capaciteit om dat uit te zoeken
Dat eerste is wel erg kort door de bocht, dat tweede zit meer in de richten. Vaak zijn de algoritmes wel bekend maar heeft het registreren ervan voor de ambtenaar nou niet bepaald de hoogste prioriteit naast alle veel relevantere werkzaamheden.
Wat ook meespeelt is dat je alles een algoritme kan noemen. De typische systemen waar je aan moet denken is een lijst sorteren in excel of tekst doorzoeken op een paar keywords.
Dat klopt helemaal! Dat specifieke voorbeeld komt ook aan bod in deze webinar over AI (vanaf 31:40), alroritmen, en het algoritmeregister. Echter, of een algoritme wel/niet in het register opgenomen moet worden, is weer afhankelijk van hoe impactvol het is op een persoon. Waarden in een Excel sorteren of filteren hoeft an sich geen impact te hebben. Dit kan bijvoorbeeld ook gebruikt worden voor voorspellingen. Er is dan niet direct sprake van impact, en 'dus' is het niet belangrijk genoeg om op te nemen. Maar wanneer op basis daarvan bijvoorbeeld besluiten worden genomen die WEL impact hebben op personen, dan is het dus wel interessant.
Wat is "hoog risico", proberen te berekenen hoeveel mensen de dupe raken van algoritmes bij de belasting of uitkeringsinstanties? Ik snap best dat dit de werkdruk verlagen kan, maar voor zover ik weet moet je voor nuancering toch echt het menselijk vernuft toepassen.
Wat je doet met deze algoritmes is uitzoeken waar je naar moet kijken.

Je weet bijvoorbeeld dat iemand die een kind krijgt om kinderbijslag kan aanvragen. Dat kan een algoritme dat prima signaleren en een brief sturen aan de ouders over hoe dat aan te vragen, desnoods met een vooringevuld formulier online of op papier.
Ik zie wel een bepaald algoritme bij de overheid hoor. Data gaat eerst naar een “PT” module. Die module wordt bestuurd door “EB” met een “FE” classificatie, de output wordt opgeslagen in een “RA” module. /s

Op dit item kan niet meer gereageerd worden.