AP blijft roepende in de woestijn over gevaren van AI-algoritmes

De Autoriteit Persoonsgegevens waarschuwt opnieuw dat Nederlandse bedrijven en overheden niet goed in beeld hebben wat de risico's van AI zijn. Het is code rood, waarschuwt de privacytoezichthouder. Er is geen toezicht op en slechte registratie van hoe algoritmes worden ingezet, en dat levert het risico op nieuwe discriminatieschandalen op.

Daarvoor waarschuwt de Nederlandse privacytoezichthouder in de halfjaarlijkse Rapportage AI en Algoritmes Nederland (RAN). Daarin kijkt de AP naar hoe algoritme-implementaties bij de Nederlandse overheid en in het bedrijfsleven ervoor staan. Het gaat dan bijvoorbeeld om 'geharmoniseerde en praktisch toepasbare standaarden voor AI-systemen', waarvan de voortgang op dit moment onvoldoende is, zegt de AP. Tijdens de vorige rapportageperiode, in de zomer van 2025, noemde de AP nog dat er bij veel van die onderwerpen 'verhoogde aandacht' nodig was. Inmiddels is die status van veel onderwerpen verslechterd, naar 'voortgang onvoldoende'.

Alleen de ontwikkeling van een nationaal AI-ecosysteem loopt op koers, naast 'vertrouwen in, aandacht voor en kennis over algoritmes in de samenleving', schrijft de AP. Dat AI-ecosysteem bestaat onder andere uit investeringen door de overheid en private sector, bijvoorbeeld via de financiering voor een 'AI-fabriek' in Groningen.

FPA hero Aleid Wolfsen 2024

Weinig kaders

Daarbuiten zijn de meeste AI-implementaties onvoldoende. Zo waarschuwt de AP dat er weinig kaders en bevoegdheden zijn waarmee de toezichthouder zijn werk daadwerkelijk kan doen. Ook zijn er weinig leerpunten op basis van incidenten. "Incidenten worden nog onvoldoende aangegrepen als lessen voor de toekomst en daarvoor benut. Incidenten blijven vaak verborgen en er wordt onvoldoende voorbereid op het melden van incidenten die in de toekomst verplicht gemeld moeten worden."

Door al die problemen ontstaat er een risico op ernstige nieuwe incidenten, waarschuwt de AP. De toezichthouder verwijst onder andere naar de toeslagenaffaire, waaraan ook algoritmes ten grondslag lagen. "Vijf jaar na het toeslagenschandaal zijn de lessen duidelijk, maar de opvolging blijft achter", zegt voorzitter Aleid Wolfsen. "Dat komt vooral doordat stevige regels voor algoritmes en AI en handhaving hiervan ontbreken. Nu de druk om AI te omarmen toeneemt, moeten we grondrechten beschermen. Wie een nieuw schandaal wil voorkomen, moet nú handelen."

Bovendien waarschuwt de AP voor de snelheid van de ontwikkelingen. De toezichthouder verwijst onder andere naar agents, die zelfstandig taken kunnen uitvoeren. Organisaties proberen bovendien onder regulering uit te komen door de risico's van hun AI-systemen als te laag in te schatten.

Geen duidelijke regels

Veel van die problemen komen volgens de AP doordat er te weinig duidelijkheid is over de regels. "Het doel van de AI-verordening is helder: betrouwbare AI in Europa bevorderen, met systemen die veilig zijn, grondrechten respecteren en tegelijkertijd innovatie mogelijk maken. De AP waarschuwt dat die doelen door besluiteloosheid niet gehaald worden en dat de invoering van AI-regels in gevaar komt."

De toezichthouder raadt het Nederlandse kabinet dan ook aan 'snel werk te maken' van de implementatie van de AI-verordening. "Dat betekent: de Nederlandse uitvoeringswet vaststellen, toezichthouders aanwijzen, financiering voor toezicht structureren en duidelijkheid scheppen over de toepassing van de regels. Daarnaast moet Nederland in Europa aandringen op snelle afronding van de discussies over uitstel en vereenvoudiging van de regelgeving", schrijft de toezichthouder.

Algoritme

Door Tijs Hofmans

Nieuwscoördinator

05-03-2026 • 06:00

64

Reacties (64)

Sorteer op:

Weergave:

Ik werk zelf voor een (decentrale) overheid.

Ik ben persoonlijk mega terughoudend wat AI betreft, en draag dat ook uit in mijn vakgebied zodat we rust en kalmte bewaren, en niets overhaast doen. Ik word ongetwijfeld door mijn collega's als blokkerende factor aangezien. Maar dat maakt me niet zoveel uit, veiligheid en betrouwbaarheid zijn voor mij belangrijker dan populariteit, of voorop lopen met de hype-train.

Plus dat je het als (decentrale) overheid sowieso nooit goed kunt doen:

Stappen we in, en gaat het mis? "Zie wel, ze kunnen niks daar bij de overheid. Hoe dom kun je zijn?? Het was toch overduidelijk dat het een hype was, en gevaarlijk?? Wat een idioten."

Stappen we niet in, en blijven we 'achter' lopen? "Zie wel, wat een prutsers daar. Ze lopen achter de feiten aan. Geen wonder dat de overheid zo pokke-ineffectief is. Stelletje stoffige ambtenaren. Laat ze eens meegaan met de tijd... Bezem erdoor!"

En tot slot: stappen we wel in, en is het succesvol? Krekelgeluiden, moving on, nothing to see here.

Gotta love it! :+
Als alles goed gaat zijn er volgens mij op de meeste werkplekken wel krekelgeluiden, niet uniek aan de overheid.
Bovendien hebben commerciele omgevingen niet de luxe van gebrek aan verantwoording voor falen en vrijwel eindeloos budget. Dus count your blessings, zou ik zeggen.
En precies die houding ("je hebt de luxe van gebrek aan verantwoording voor falen en vrijwel eindeloos budget") is er 1 waar ik me aan stoor. Want gaat er iets mis bij een bedrijf is het "bedrijfsrisico" of "leergeld" of "eigen schuld dikke bult", en men gaat over naar de orde van de dag.

Is het bij de overheid dan is het moord en brand schreeuwen, wijzen, veroordelen, "ze komen er ook altijd mee weg", "van onze centen", etc. En eindeloos budget? Vergeet het maar in de meeste gevallen- verre van dat.

Precies dat verschil wil volgens mij @trayracing aangeven. De overheid ligt altijd onder een vergrootglas en voor een aantal mensen kunnen ze het nooit goed doen. Ik loop best veel bij overheden rond, en merk dat er tegenwoordig zelfs ambtenaren zijn die als je ze gewoon wat vraagt of een opmerking plaatst ze meteen in een verdedigende stuip trekken - puur omdat ze zo gewend zijn om zich te moeten verdedigen als het gaat om IT.

Ja, niet alles gaat goed bij overheidsinstanties. Maar vergis je niet in het krachtenveld waarin ze moeten opereren. En er gaat ook heel erg goed wat als "normaal" gezien wordt, maar dat niet is.

[Reactie gewijzigd door Calypso op 5 maart 2026 11:35]

Dat heeft misschien te maken door het beschermde ambtenaren statuut van vroeger, eenmaal ze aangesteld waren maakt het weinig uit hoe goed ze hun job deden, je kon ze niet buitengooien.

En als mijn lokale supermarkt mij slecht behandeld kan ik naar een andere gaan, als mijn gemeente(of beter gezegd, de mensen die er werken) mij slecht behandeld moet ik al verhuizen om dat op te lossen.

En de aanstellingen van die ambtenaren zijn ook vaak een groot ons-kent-ons verhaal.

En ivm budget, in België hebben ze bv €76 miljoen uitgegeven aan een gefaald IT-project. Dat is gewoon hallucinant.
Maar is dat zo vreemd? De overheid is in feite het belangrijkste "bedrijf" wat we hebben. Ik ga zeker niet zeggen dat ze het daar gemakkelijk hebben. Ze hebben met een hoop dingen rekening te houden, een hoop verschillende takken die ze hebben, ect (de overheid zelf, gemeentes, belastingdienst, uwv, wetten vanuit de EU, ect ect ect). Maar ik verwacht wel dat als de meeste bedrijven zoveel over de balk gooien als de overheid kan doen dat ze wel failliet zijn. Daarnaast heeft Nederland bijna 500 miljard schuld. (En ja daar hebben we natuurlijk ook een hoop voor gekregen.) Maar bijna 500 miljard is heel veel. En als we toch al 500 miljard hebben waarom maken we er dan niet 700 miljard van of nog meer. Geen 1 bedrijf in Nederland kan zo een grote schuld hebben en nog bestaan. Zelfs in de wereld zullen er weinig bedrijven bestaan die meer als een miljard schuld hebben en toch nog bestaan (en ja er zijn uitzonderingen zoals OpenAI). Dus natuurlijk snap ik dat ze geen oneindig geld hebben maar ik snap de gedachten wel. Vooral als je ook ziet hoeveel belasting we betalen. Ik zeg niet dat het zo is maar het voelt gewoon alsof het zo veel is bij elkaar dat we met een jaar de schuld al betaald zouden moeten hebben. En omdat we hun uitgaves bijna niet zien lijkt dit vaak gewoon weinig al is het natuurlijk wel veel.

Daarnaast verwacht je van de leidinggevende dat ze doet alles in orde hebben. Maar hoe lang heeft het bijvoorbeeld geduurd voordat de meeste websites AVG proof waren (en zijn alle websites überhaupt nu al wel avg proof). Dan praat je niet over iets ingewikkeld zoals nieuwe software voor de belasting (al vraag ik me nu wel af of ze ondertussen al compleet avg proof zijn). Het is leuk dat ze met regels komen maar ze mogen dus zeker wel het goede voorbeeld geven.

En ja natuurlijk blijven het mensen die daar werken en fouten kunnen er gemaakt worden. En de toekomst voorspellen is ook zeker niet makkelijk. Maar het lijkt wel alsof de overheid meer fouten maakt dan een gemiddelde bedrijf. Al zullen we natuurlijk niet alle fouten van bedrijven zien en is het moeilijk te vergelijken. Daarnaast zijn ze gewoon verantwoordelijk voor hun burgers. 1 fout / actie van hun kan grote gevolgen hebben. Dus de vergrootglas op hun gericht snap ik ook heel goed en dat is gewoon de risico van het werk.
Hoe denk jij dat de overheid precies werkt?
Ik begrijp de terughoudendheid in het primaire proces. Even aangenomen dat je op de it afdeling werkt. Zou het niet juist goed voor je medewerkers zijn als IT een goede/geïsoleerde omgeving biedt die ze kunnen gebruiken? Beetje afhankelijk van je sector kan ik me voorstellen dat veel gebruikers toch wel op zoek gaan naar"slimme" toepassingen die dan buiten het zicht van it worden ingezet.
Aan de ene kant ja, goed voor de medewerkers (dat ze beschermd worden) en goed voor de werkgever (dat bijv. datalekken voorkomen worden). Maar toch zie je dat medewerkers zich erg snel beperkt voelen. "Hoezo mag ik niet zomaar deze software installeren?" "Waarom kan ik dit bestandje niet even via wetransfer overhevelen?" "Wat is er mis met ff een whatsappje sturen ipv Teams?", dat soort dingen. En mensen zoeken de grenzen op.

Praktisch voorbeeld, collega kreeg een vraag of ze een plaatje kon resizen. Ten eerste gekke vraag, iedereen kan toch wel een plaatje resizen? Maar dat terzijde. Plaatje doorgestuurd via Teams... mocht ze niet downloaden omdat ze niet op de bedrijfs-VPN zat, en die werkt nooit goed. Dus gingen ze op zoek naar een workaround. Emailen naar prive adres? Plakken in Figma en er weer uit halen? etc.

Dus de beveiliging was wel goed - je mag geen bestanden over onbeveiligde netwerken sturen (even in het midden laten of Teams z'n https wel veilig genoeg is of niet). Maar te goed, omdat ze als het niet werkt gelijk naar een workaround sturen.

Ik denk ook aan toen Slack opkwam, op meerdere locaties gezien dat developers het gewoon maar gingen gebruiken, of het nu mocht van IT of de baas of niet. Totdat het te groot was, berichten kwijt raakten doordat het allemaal in de gratis tier was, of dat er integraties aan toegevoegd werden die toch wel handig waren. En toen moest IT wel overstag. Je snapt het, maar ook weer niet.
De vraag is waar wettelijk precies extra terughoudendheid voor nodig is. Want aangezien een ai-service weinig anders is dan gegevensverwerking gelden daar net zo goed al strenge eisen voor. Bij gebruik van een service of software of een verwerking mag wettelijk niet vaag zijn of er discriminatie is. Gegevens van anderen mogen niet zomaar gebruikt worden omdat het kan of handig is. Resultaten mogen niet zomaar geproduceerd worden omdat een service, software of ander het voor je doet.

Er is niets vooruitstrevend aan het opzettelijk negeren van bestaande grenzen omdat het personen bij een bedrijf of overheid het goed uit komt. Er is niets vooruitstrevend aan dat mensen blijkbaar selecfief maling aan wettelijke eisen hebben om er liever zo los mogelijk mee om te gaan zolang niemand ze stopt.

Ik ben benieuwd hoe dat in dit soort organisaties gaat wat betreft bewustzijn van wettelijke eisen. Want dat personen de wet selectief kunnen toepassen is niets nieuws. Maar het hoort daarbij ook niet nieuw te zijn dat er vooraf behoorlijke juridische toetsing plaats heeft voor men services of software of andermans dienstverlening gaat gebruiken en toepassen. Of het nu gaat om 'gewoon' werk of om 'experimenten'.

Ik krijg bij de vraag om extra en specifieke wetgeving voor ai de indruk dat het meer lijkt te gaan om een zwaar gebrek aan besef van bestaande wetgeving en een zwaar gebrek aan behoorlijke toetsing en controle op bestaande wetgeving omdat veel mensen liever doen wat ze zelf makkelijk uit komt. Dat is meer een probleem van ongeschikt zijn voor uitvoering van het werk dan een gebrek aan wetgeving.
Ik zit in hetzelfde schuitje, alleen dan niet voor de overheid.

We moeten absoluut mee, maar het moet veilig en gecontroleerd. Ik merk ook dat mijn voorzichtigheid vaak niet erg wordt gewaardeerd.
Aan het overweldigende aantal reacties hier te zien, speelt het gelukkig wel bij de mensen die Tweakers bezoeken...


Iets zegt mij dat vrijwel niemand, ook de mensen die denken er verstand van te hebben, beseft wat de risico's nu werkelijk zijn.
"de risico's" zijn m.i. een functie van de gebruikte techniek en de toepassing daarvan. LLM gebruiken om je code te documenteren? Relatief laag risico. LLM inzetten om het beleggingsportfolio van klanten te beheren? Groot risico. LLM gebruiken om juridisch advies te genereren? Groot risico.

Er zijn compliance frameworks voor organisaties zoals ISO27001 die je m.i. ook in moeten zetten voor AI workloads. Die beginnen bij de business, want daar ligt eigenaarschap van risico's. Doe een risico analyse, stel beleid op, voer het beleid uit, evalueer periodiek. Die periodieke evaluatie met bij AI workloads heel vaak omdat de techniek zo snel evalueert.
Erger. Ik denk dat heel veel mensen snappen wat de risico's zijn. Je moet wel echt blind zijn om niet te zien wat voor problemen de blinde adoptie al heeft veroorzaakt.

Maar het interesseert niemand wat, want de rat race is al begonnen. Niemand wil achter lopen dus dan loop je maar mee. Plus het is een leuk nieuw speeltje natuurlijk.

Dat is wat ik hekel. Het moment toen de eerste versie beschikbaar kwam begonnen mensen te rennen, zonder nadenken. Ik heb nog nooit meegemaakt dat er zo'n snelle omslag was, ineens was AI de oplossing voor alles. Vanaf dag 1 stonden de angst campagnes al klaar met de boodschap dat je baan op de tocht stond. Wat. Gebeurt. Hier.

Normaal krijgt het tijd om te integreren. De adoptie van Rust bijvoorbeeld, het heeft jaren geduurd voordat men over ging op de beslissing om het te gaan gebruiken om C/C++ te vervangen in zaken zoals de Linux kernel. En dat is goed, want het is geen heilig middel. Het veroorzaakt net zoveel problemen als dat het oplost en dat is normaal, ook Rust is nog niet de oplossing; enkel een stapje vooruit. Maar pseudo-AI... geen enkel moment van bezinning. Geen terughoudendheid. Rennen, rennen, rennen. Als een kip zonder kop.

Ik vat hem echt niet. En ik doe niet mee. Dan verlies ik de race maar.
Same, same...alhoewel veel mensen (Nederlanders althans) gewoon naïef (willen) zijn voor welke gevaren er in kunnen schuilen. Daarnaast is het natuurlijk ook best wel onduidelijk wat de bedrijven erachter doen en wat de real world consequenties kunnen zijn. Mensen moeten soms praktische voorbeelden voorgeschoteld krijgen waar het fout kan gaan en wat de consequenties dan zijn. Misschien net zoiets als de Odido hack en dan vanuit Ai. Helaas is het geheugen van veel mensen ook niet al te best of selectief, dus dit wordt ook weer zo vergeten.

Voor de 'social' media consequenties op persoonlijk - en maatschappelijk vlak is ook vaak voor gewaarschuwd, zijn veel voorbeelden van en tsja...het interesseert ze ook niet.

We're fooked... :X
Het interesseert mensen pas als het ze raakt, want nu is het nog "te vaag". Pas als er een AI-aangestuurd 'virus' komt die zich zeer succesvol kan voordoen als Jantje -omdat Jantjes data door zichzelf en allerlei bedrijven en instanties in een LLM gegooid is- en deze vervolgens allemaal rare en schadelijke shit uithaalt, dan gaat Jantje achter zn oren krabben en schreeuwen "waarom is hier niet veel eerder voor gewaarschuwd?"

Hetzelfde geldt al jaren voor WhatsApp - beter stoppen we daar allemaal mee, want er gaat een shitload aan data maar Meta die je niet bij Meta wil hebben... maar dat is te vaag. En het is gratis, iedereen gebruikt het, dus waarom zou men overstappen naar iets anders?
In hoeverre dekt de huidige AVG (GDPR) en op Europees niveau de wetten voor grote digitale spelers DMA & DSA - niet al ook de lading voor implementatie van AI?

Want volgens mij is dat dus precies de situatie, dat het verwerken van gegevens al lang aan banden is gelegd. En is het daarom dat AI (taalmodellen in het algemeen) nu al geen letterlijke quotes van je eigen bijdragen leveren bijvoorbeeld. Dat data voor training gestript wordt van persoonsgegevens etc. Daarnaast heeft in ieder geval Google (die ken ik, gebruik ik) via de TakeOut-route, ook beheer over de data mogelijkheden.
Misschien dekt het, misschien niet. Het maakt niet uit. Die regels van de EU worden aan alle kanten gebroken. Ja, er worden af en toe fikse boetes uitgedeeld. Maar die zijn blijkbaar veel te laag, want big tech gaat er gewoon mee door. Bedrijven als Meta en Google verdienen meer aan de data dan dat de boete kost. Simpel rekensommetje.
Ja, okay, maar dan is het topic dus een handhavingsprobleem - niet een ontwerp of implementatieprobleem. En we weten ultiem allemaal hoe er gehandhaafd moet worden. Vraag maar aan Iran. ;)
Klopt. Ik begrijp alleen Europa en Den Haag niet. Waarom elke keer meer regels maken als je ze niet gaat/kan handhaven of als de regels gewoon niet het gewenste effect hebben. Of is het doel om gewoon zoveel mogelijk inkomsten uit boetes te halen?

overigens vraag ik me Weleens af wat er gebeurd met al dat geld wat uit boetes komt.
Het probleem is volgens mij dat we in Europa geen AI bedrijven (die wat voorstellen) hebben. Blijft over China en VS en bedrijven uit deze landen zijn niet gehouden aan onze regels.We hebben dringend goede Europese AI nodig die wel voldoet aan onze regels.

Een vriend van mij werkt bij de rijksoverheid en die zegt hoop te hebben op ontwikkeling van Nederlandse AI bedrijf / bedrijven want we geven subsidie. Dat gaat dan over tientallen miljoenen. Dat klinkt als heel wat, maar het is bespottelijk weinig als je bedenkt wat er in Amerikaanse AI wordt gestoken. Daar gaat het niet om tientallen miljoenen maar om tientallen miljarden. Totaal kansloos dus (die vriend erkent dat ook).

Even los van AI, algorithmes en vaststellen risicogroepen is niet perse slecht. Je moet natuurlijk wel periodiek evalueren of de onderliggende uitgangspunten (nog steeds) kloppen. Als je dat op een goede manier doet dan loopt een eventuele bias er snel uit.
Maar de consequenties van die wetten zijn niet ernstig genoeg. Een bedrijf als Meta of Google kan prima een boete van miljoenen ophoesten, het bijvullen van de koffieautomaten kost jaarlijks al meer. Dus dat wordt afgeschreven als 'kosten' en dankjewel, volgende kwestie.

Het gaat voor zulke bedrijven pas pijn doen als het er écht in hakt voor hun bedrijfsresultaat (en dan heb je het over boetes van miljarden, die ook echt geïnd moeten kunnen worden op straffe van persoonlijk aansprakelijk stellen van het bestuur) of wanneer je bijvoorbeeld maatregelen kan treffen als verbieden van de handel van hun aandelen op de beurs tot ze aan de regels voldoen.
@magician2000 Ik snap best dat het qua toezichthouden slecht geregeld is en dat daar actie op ondernomen moet worden. Maar dat neemt niet weg dat overheden of andere grote veelal publieke bedrijven echt wel goed onderzoek naar de inzet van AI binnen hun bedrijven. Zo blijkt ook uit de DPIA die de Nederlandse overheid met Microsoft rondom het gebruik van Copilot heeft gedaan. Het is echt niet zo dat AI zomaar zonder enige vorm van check op informatiebeveiligingsrisico’s en privacy risico’s wordt ingezet. Hoe dit wordt ingezet vervolgens is ook van belang en bij welke processen bij bijv. overheden en terecht dat daar beter toezicht op moet komen. Maar ik denk dat er weinig mensen reageren omdat iedereen het hier alleen maar eens over kan zijn. Er valt niet veel over te discussiëren, toch?

[Reactie gewijzigd door Sylves op 4 maart 2026 21:17]

Het probleem is “met Microsoft”. Dat bedrijf wat al talloze malen veroordeeld is wegens de regels aan de laars lappen.

waarvan de ceo en lobbyisten doodleuk roepen dat sovereign cloud onzin is, terwijl hun advocaten voor de senaat in Parijs gewoon moesten toegeven dat de Amerikaanse overheid overal bij kan als het dat wil.

als je zoiets doet, moet je dat volledig, 100%, onafhankelijk doen. Niet met een partij die een very big stake heeft. Zeker niet een bedrijf wat meerdere malen veroordeeld is voor ronduit crimineel gedrag.

En liefst ook niet met een overheid die nog structureel dingen naar de cloud probeert te brengen, terwijl de rest van de markt al lang en breed op de noodrem getrapt heeft.


Oh, en dit: geef ze vooral je data. /s

https://www.dutchitchannel.nl/news/726437/amerikaanse-ai-reuzen-akkoord-met-spionage-op-europeanen

[Reactie gewijzigd door arjankoole op 5 maart 2026 08:31]

In dat geval zijn er vele items hier waarop ik dan geen reacties verwacht te zien, toch is dat zeldzaam.
Ik zou het uitblijven van reacties zoeken in het feit dat jullie op vier maart discussiëren onder een nieuwsbericht dat vijf maart pas gepubliceerd is.
Ja hij stond er gisteren s' avonds al tussen, ik kon al zweren dat ik dit artikel die ochtend niet gezien had.
Haha lekker vroeg bij idd ;)
AuteurTijsZonderH Nieuwscoördinator @SirLenncelot5 maart 2026 09:39
Dat was een inplanningsfoutje, dit bericht kwam al onder embargo binnen maar ik had de datum per ongeluk verkeerd gezet. Hij had om 06.00 vanochtend online moeten gaan, dat heb ik vanochtend alsnog gewijzigd.
Dus zijn we door de tijd gereist zeg je nu? Wist ik nu maar hoe ik dat gedaan heb.
Waar mijn zorgen zitten is dat aanbieders van (cloud)diensten overal AI in proppen. Dit in combinatie met afnemers die (on)bewust gemakzuchtig zijn gaat veel ellende opleveren.

Op het werk maken wij gebruik van een Amerikaans recruitment systeem (cloud-dienst). Afgelopen jaar boden zij opeens een selectie tool aan die met AI werkt. Daarmee worden alle sollicitanten (~5.000 per jaar) door een voor ons onbekend AI algoritme, op basis van onbekende afwegingen geselecteerd of afgewezen.

De functie kon met een schuifje geactiveerd worden.

Hier zijn onze CPO, FG en ik toch maar even voor gaan liggen. Met wat gedoe is die functie toen geblokkeerd.

Dat recruitment systeem is 'een grote speler' in de markt.

Ik vind dit zorgwekkend!
De toezichthouder verwijst onder andere naar agents, die zelfstandig taken kunnen uitvoeren.
Het is jammer dat het AP waarschuwt voor "AI" ipv "het gebruik van AI".

Het subtiele verschil is de werking: huidige "AI" bevat geen intelligentie. De beste modellen zijn makkelijk te misleiden omdat de achterliggende tech hetzelfde blijft werken. Het is afhankelijk van de data in het model en de lagen die er handmatig aan worden toegevoegd voor "detectie" van bijvoorbeeld features. Tussen aanhalingstekens, want het begrijpt niet wat de data die erdoorheen gaat is. Dat kan het ook helemaal niet.

De zaken die afgedwongen zouden moeten worden om misbruik te voorkomen worden daardoor zaken die er al lang hadden moeten zijn, of er al zijn maar niet werken, zoals wetgeving die te omzeilen is omdat economische waarde belangrijker is.

Dat maakt van dit verhaal imho ook een beetje een tandeloze tijger. Je wil dat de grote partijen doen wat bv. een Google of Meta al lang hadden moeten doen: bepaalde zaken niet toelaten. Scammen via zoekadvertenties bijvoorbeeld, dat mag onofficieel gewoon van Google en Zuck. Goed met gegevens omgaan dus, zodat niet iedere leek er slechte dingen mee kan doen.

Ik ben het niet eens met de marketing van de betreffende bedrijven omdat het erg misleidend is, maar automatisering aanpakken terwijl de gegevens om die automatisering mee te misbruiken gewoon op straat liggen (hoi Odido!) is ook een beetje naïef. De tech is al uitgebreid aanwezig en gaat niet meer terug in de fles.
Ben ik nou gek of zag ik dit nieuwsbericht er gisteravond al opstaan?
AuteurTijsZonderH Nieuwscoördinator @Nozzit5 maart 2026 08:52
Nee dat klopt. Dit bericht kwam onder embargo binnen. Ik had het gistermiddag al geschreven en ingepland voor vandaag 6 uur, maar ik had de datum verkeerd gezet. Dus het stond er per ongeluk gisteren al op, dat was niet de bedoeling.
Ik bennu opgelucht , dacht dat het AI was.
En gelukkig vinden we menselijke fouten een stuk minder erg dan fouten gemaakt door AI ;)
AI is echt nog walgelijk slecht, nog eens wat tijd verloren met een chatbot van Eneco, daarna een medewerker maar resultaat is hetzelfde. Krijg echt de indruk dat niemand nog zijn eigen software begrijpt.
Ik zat gisteren al te zoeken naar het persbericht van de AP en had al zo'n vermoeden. Overigens opmerkelijk dat er in het nieuwsbericht niets staat over de meest vergaande opmerking van de AP: reclassering heeft doelbewust het OxRec algoritme te laag ingeschaald om onder strengere AI Act verplichtingen uit te komen. Het is wel super belangrijk om die selectieve (of bewust onjuiste) transparantie te benoemen en het is zonde dat de AP niet alvast handhaafd waar dat wel al kan. Ik kan uit het algoritmeregister al behoorlijk wat zeer waarschijnlijke AVG-overtredingen of onjuiste registraties halen waarop de AP al onder de AVG onderzoeken kan starten en handhaven. Er staan bijvoorbeeld verwerkingen van persoonsgegevens in met een vrij duidelijke DPIA-verplichting waarbij registraties aangeven dat er geen DPIA is. De AP zou kunnen opvragen of er toch een DPIA is en bevelen dat de verwerking stopt waar die er onterecht niet is. Ook staat er algoritmes in waar uit de registratie blijkt dat er heel oppervlakkig/selectief naar risico's is gekeken terwijl dat naar de aard van de verwerking zeer waarschijnlijk niet voldoende is. Ook daar kan de AP de DPIA opvragen en de kwaliteit controleren en handhaven waar nodig.
Er waren toen ik keek (tussen 11 en 12 uur s'avonds) maar 3 reacties dus er zijn gelukkig niet veel mensen die het hebben gezien.
Dat moeten ze een rechtszaak starten om de regels definitief te maken. Ja dat kost geld en moeite, maar daarna zijn de regels helder.
Kan niet. De rechter verklaart je niet-ontvankelijk. Het komt niet eens tot een uitspraak.
Hoezo? Er bestaan iets dat heet een "proefproces" juist hiervoor.

Wikipedia: Proefproces
"Een proefproces is een proces of rechtszaak waarin de werking in de wettelijke mogelijkheden op een bepaalde vlak worden onderzocht."

[Reactie gewijzigd door Triblade_8472 op 5 maart 2026 11:09]

Daar heb je dus een concrete zaak. Dan pas kan het. De AP waarschuwt nu nog voor toekomstige mogelijke problemen.

Overigens is een proefproces ook niet in staat om de politiek ergens toe te dwingen. Het toont hooguit aan hoe de bestaande regels wel en niet werken.
Laat alweer zien dat er algemene wetgeving moet komen (op Europees niveau) die de gebruiker ten allen tijden beschermt en de gebruiker de keuze geeft of deze zijn gegevens wil afstaan (opt-in).

Met zulk simpele regels verplicht je elke vorm van data-harken deze bescherming te implementeren.
Sinds zondag 2 februari 2026 gelden de eerste regels van de Artificial Intelligence Act (AI Act) van de EU.

Voor meer informatie over Europees beleid omtrent artificial intelligence is deze pagina omtrent Europees beleid voor AI ook interessant om te lezen.
Hoezo discriminatieschandalen? Het is gewoon patroonherkenning.
Het (mogelijke) probleem zit 'm erin hoe die patronen bepaald worden. Dus als je een set trainingsdata hebt met alleen maar mensen met kenmerk X en je leidt daar iets uit af over (bijv.) criminaliteit, dan is het makkelijk om de (waarschijnlijk) onjuiste conclusie te trekken dat alle criminaliteit gepleegd wordt door mensen met kenmerk X.
Eh nee. Dat werkt dus niet zo. In je voorbeeld is criminaliteit niet afhankelijk van X omdat X constant is (binnen het model)

Het high-level probleem is een correlatie tussen twee variabelen binnen een model terwijl het verband anders is in de werkelijkheid.
Makkelijkste voorbed hiervan is dat je gewelddadige criminaliteit zeer kan verlagen als je alle mannen opsluit :+
Slaat natuurlijk nergens op, maar dit is een mooi voorbeeld om te laten zien dat je niet zo maar kan zeggen dat discriminerende algoritmes gewoon juist handelden
Wie denkt nou serieus dat de AP, of een ACM of onze overheid ook maar iets kan doen, laat staan bezig is met zinvolle zaken? Zodra gegevens op het internet liggen, is het gewoon 'afgelopen'. We zitten allang (vrijwillig) op een digitale titanic en het enige wat we proberen is mensen stoppen om op reddingsboten te gaan en iedereen moet helpen dweilen.

Anoniem op het internet gaan wordt steeds meer en meer tegengewerkt. Dus deze oproep van de AP is komisch. Wat boeit het nou of het 'AI is, 'lekke websites' of databases van bedrijven die op straat worden gedumpt. Alles is in verbinding met elkaar. En dit na een paar maandjes dat de digid provider naar amerika gaat. Kom op zeg.

En overheid en de IT, dat is toch echt al decennia hét voorbeeld dat die niks met elkaar te maken (mogen) hebben.

Om te kunnen reageren moet je ingelogd zijn