Ken je die mop van de uitgeputte programmeur in de badkamer? Inderdaad: 'Aanbrengen, uitspoelen, herhalen', stond er op de shampoofles. Dat algoritme was niet helemaal volledig. Een uitgeputte jurist zul je om die reden niet snel aantreffen; die is gewend zulke instructies naar redelijkheid zelf in te vullen. Deze mop laat precies zien waarom het zo vaak misgaat in discussies over AI, machinelearning en de regulering van algoritmes.
De angst voor algoritmes

Zijn die instructies op de shampoofles een algoritme? Wie de gebruikelijke definities erbij pakt, komt bij termen als 'stappenplan' of 'recept om een wiskundig of informaticaprobleem op te lossen', al dan niet onder verwijzing naar de naam van de Perzische wiskundige Al-Chwarizmi. Die termen zijn zo breed dat die shampoofles er zeker onder valt. In de maatschappij, en dus ook bij juristen, wordt de term 'algoritme' vooral gebruikt voor complexe stappenplannen of recepten, waar je zonder computer er zeker niet uitkomt. En om het nog ingewikkelder te maken: die algoritmes worden ook gebruikt voor uitkomsten van machinelearningsystemen.
Algoritmes nemen steeds vaker beslissingen die grote impact hebben op mensen, en dat is voor juristen een grote bron van zorg. Al sinds 2018 zien we bijvoorbeeld pleidooien voor een speciale algoritmetoezichthouder om deze 'vierde macht', naast de wetgevende, uitvoerende en rechtsprekende machten, aan banden te kunnen leggen. Want die vierde macht is een black box, kan ongecontroleerd vooringenomenheid toepassen en mensen zonder enige transparantie of verantwoording rechten afnemen en sancties opleggen. Anders gezegd: er is geen grip en we zien niet hoe het werkt, maar we zien het wel steeds meer toenemen en de zorgen worden steeds groter.
Het antwoord vanuit wet- en regelgevers en juristen is dan natuurlijk ‘regulering’. Nieuwe trends en ontwikkelingen moeten toch in goede banen worden geleid, met als bijkomstig doel het minimaliseren van nadelige gevolgen of schadelijke neveneffecten. Het lastige is alleen, zoals hoogleraar Law & Data Science Bart Custers al signaleerde, dat dan doorgaans bestaande reguleringskaders als uitgangspunt worden genomen. En die zijn daar dan vaak niet helemaal op toegesneden.
De zorg over gegevensverwerking
De zorgen over AI en besluitvorming zijn indirect te herleiden tot de geboorte van het vakgebied van de gegevensverwerking. Dat begint ergens rond de tweede industriële revolutie, toen grote groepen mensen naar de steden trokken. Als overheid getalsmatige uitspraken doen op basis van geregistreerde gegevens, was een manier om grip te krijgen op deze grote verandering. De snelgroeiende complexiteit van deze gegevensverwerking was een bron van technologische innovatie, met de telmachines van Herman Hollerith, later IBM, als bekendste exponent.
Automatische, weliswaar mechanische, gegevensverwerking werd begin twintigste eeuw enorm populair bij overheden en grote bedrijven. Een veelgehoorde klacht in die tijd was dat hiermee de menselijke maat verdween: met rekenmachines kon men op grote schaal abstracte uitspraken doen zoals wie er wel of geen uitkering kon krijgen of wie moest verhuizen vanwege nieuwe gebiedsontwikkeling. Een individueel gek geval, of zelfs maar een fout geregistreerd geval, had dan al snel een enorm probleem.
Een belangrijk inzicht was dat van Leavitt en Whisler in 1958: informatietechnologie is het vakgebied waarin grote hoeveelheden informatie worden verwerkt voor informatiegebaseerde besluitvorming en voor simulatie van denken van hogere orde. Dit vestigde de aandacht op het belang van informatie in bedrijfsprocessen, wat goed aansloot bij een nieuwe technologische innovatie: de databank, die in de jaren zeventig nog een zetje kreeg door het relationele model en de zoektaal SQL.
Relationele databanken en SQL, en aanverwante technieken, maakten dat het aantal gegevensverzamelingen, en alle bedrijven en overheden die er gebruik van maakten, snel groeide. Dat leidde weer tot een grotere gegevenshonger, want als er zoveel kan, dan is er snel behoefte aan meer. Dat gaf aanleiding tot meer zorgen en protesten over de bescherming van de burger, die zich bijvoorbeeld niet kon verweren tegen fouten in een databank. Een simpele reden was omdat hij niet wist dat hij erin stond. Maar minstens zo hardnekkig was, en is, de overtuiging dat ‘de computer gelijk heeft’; gegevens in een databank hebben een aura van juistheid.
In de jaren zestig en zeventig zagen we een groei in grootschalige dataverzameling. Eerst bij de overheid: volkstellingen, gezondheidszorg en openbare veiligheid. Maar ook in de private sector. Kredietorganisaties automatiseerden bijvoorbeeld hun dataverwerking, zodat veel meer bedrijven konden toetsen of een consument wel financieel betrouwbaar was. Ook konden bedrijven met automatische systemen massaal post versturen, vooral reclame. Dit gaf veel zorg en protest, met de roep om nieuwe wetgeving als gevolg. Het zette het onderwerp gegevensbescherming ook bij juristen op de agenda.
In Duitsland raakte het gebruik van elektronische databanken erg populair bij politiediensten, in reactie op terroristische dreigingen en aanslagen die het land in zijn greep hielden. Met enorme databanken en zoekwerk probeerden de politiediensten de plegers te lokaliseren. Dit gaf veel ophef en discussie: de politie wist zo ongeveer alles van iedereen, zonder enige juridische grip daarop. Het gevolg was de Bundesdatenschutzgesetz van 1976, de eerste wet die expliciet gegevensverwerking aan banden legde. Ook in Nederland was in die periode groot verzet: de volkstelling van 1971, die geautomatiseerd zou plaatsvinden, gaf heftige commotie. Dat leidde tot uitstel, dat in 1991 afstel werd met afschaffing van de Volkstellingswet.
Als gevolg van bovengenoemde protesten en juridische zorgen zien we vanaf de jaren tachtig meer wetgeving verschijnen die de omgang met persoonsgegevens aan banden legt. Van groot belang was het in 1981 vanuit de Raad van Europa geïnitieerde Verdrag tot bescherming van personen met betrekking tot de geautomatiseerde verwerking van persoonsgegevens, ook wel het Verdrag van Straatsburg of Conventie 108 genoemd. Conventie 108 was, en is nog steeds, het enige internationale wettelijk bindende instrument op het gebied van gegevensbescherming. Het verdrag regelt de omgang met persoonsgegevens bij zowel de private sector als de overheid. Veel elementen van de Algemene Verordening Gegevensbescherming (2018) zijn direct terug te vinden in dit verdrag.
De volkstelling van 1983 in Duitsland, uiteraard met geautomatiseerde gegevensverwerking, leidde tot een zaak bij het Hooggerechtshof dat de betreffende wet ongrondwettig verklaarde: de burger heeft het recht van informatieve zelfbeschikking, een recht van zeggenschap over informatie die hem betreft. Dit is de kern geworden van de Europeesrechtelijke visie op persoonsgegevens. Het gaat om zelfbeschikking, om zeggenschap, niet per se over de private ruimte of de persoonlijke levenssfeer.
Dat recht van zeggenschap komt ook terug in de discussie over AI’s die beslissen over mensen: het is een vorm van ontmenselijking als een computer bepaalt waar jij juridisch aan toe bent, zeker als je niet eens in staat bent een weerwoord te geven. En hier zit een stukje beeldvorming waar ik me elke keer over kan opwinden: bij publicaties over juridische AI zien we altijd een robot met een pruik op of een rechtershamer, maar een robot redeneert niet zoals een jurist.
Machines die leren redeneren
De discussie over regulering van AI is enorm vertroebeld door de zienswijze dat computers zelf aan het denken zijn geslagen, en als een soort pseudomens zich zijn gaan bemoeien met onze menselijke bedrijfs- en maatschappelijke processen. “The question of whether computers can think is like the question of whether submarines can swim”, zoals de Nederlandse computerwetenschapper Edsger W. Dijkstra het ooit formuleerde. Computers denken helemaal niet, ze rekenen.
De bedenkers van het concept 'artificial intelligence' wisten dat in 1956 heel goed: 'every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it'. Het ging daarbij om simuleren, om nadoen; het is nooit een streven geweest om daadwerkelijk een nieuwe vorm van intelligentie te realiseren, als dat al zou kunnen. Ook de Turingtest en de Chinese kamer van John Searle gingen altijd over het niet meer kunnen onderscheiden van mensen met simulaties van computerintelligentie.
In de onderzoekswereld rondom AI ging de meeste aandacht uit naar formele logica en expertsystemen die redeneren op basis van vooraf geprogrammeerde beslisregels en databases met kennis. Alle mensen zijn sterfelijk; Socrates is een mens, dus Socrates is sterfelijk. Door genoeg van dergelijke beslisregels te formuleren en genoeg databases aan te bieden om kennis te kunnen extraheren, 'de volgende items zijn planten', 'deze items zijn dieren', zou de computer over alles een beslissing kunnen geven, was de gedachte. Na diverse prille successen in de jaren zeventig en tachtig werd het echter stil in de AI-onderzoekswereld, omdat het opzetten van werkelijk generieke en geavanceerde expertsystemen een stuk ingewikkelder bleek dan gedacht.
Een alternatieve onderzoeksrichting die lange tijd ondergesneeuwd bleef, ging uit van patroonherkenning: machinelearning, ofwel ML. Ook de basis voor dit werk werd al in de jaren vijftig gelegd. Patroonherkenning werkt het beste met grote hoeveelheden data, en daar schortte het nogal aan in de jaren zeventig en tachtig. Ook het verwerken van data kostte veel opslag en rekentijd. Bovendien waren de uitkomsten niet zeker, maar waarschijnlijkheden. Dit terwijl regelgebaseerde expertsystemen juist wel zekerheid konden bieden. ML bleef dan ook lange tijd een ondergesneeuwd kind, totdat begin jaren tien de groei van bigdataverwerking het ineens haalbaar maakte om ML praktisch in te zetten. En dat gebeurde massaal.
ML-systemen zijn technisch zeer knap, maar ook heel ondoorzichtig. Het fundamentele punt is immers dat de machine zelf een patroon of scheidslijn zoekt in de data en op die basis nieuwe invoeren classificeert, bij voorkeur zelfs zonder een startset met door mensen aangebrachte labels. (Ik had nog een grap over dnn's, maar ik krijg hem niet uitgelegd.) En dat leidt weer tot een wezenlijk aspect dat vaak niet wordt begrepen: een ML-uitspraak is niet te herleiden tot de beslisregels die mensen gebruiken om tot een gelijksoortige uitspraak te komen. Volgens een klassiek expertsysteem is dat dier een konijn vanwege de pluizige staart en korte oren; volgens een ML-systeem is dit zo omdat bepaalde neuronen veel waarde aan dat label toekenden.
Er is een cartoon in omloop van een wetenschapper die een statistische plot heeft, er een schilderijlijst omheen doet en het AI noemt. Daar zit een kern van waarheid in: veel AI-toepassingen zijn niet meer dan aangeklede statistiekgedreven processen waarbij de uitvoer ongecontroleerd het vervolgproces in gaat. En dat is best spannend als je dat inzet in een overheids- of bedrijfsproces dat iets doet met mensen.
Machines die beslissen over mensen
Er zijn veel incidenten geweest waarbij AI, zowel klassieke expertsystemen als ML-gedreven systemen, pijnlijke of juridisch onjuiste uitspraken deden. Dat varieert van een ML-gedreven systeem met een grote, maar vooringenomen dataset, zoals het Compas-systeem dat de kans op recidivisme berekent, tot de Fraudescorekaart, een enorme Excel-sheet waarmee gemeentes bijstandsgerechtigden profileerden op frauderisico, op basis van nooit geteste factoren. Vanuit China zijn veel verhalen bekend over socialcreditscoring, waarbij burgers op basis van algoritmisch bepaalde plus- en minpunten sociale rechten ontnomen worden. Uit Terminator 2 is bekend dat autonome wapensystemen de wereld kunnen vernietigen. En nee, dat is geen grap: beeldvorming uit de media is van enorme invloed op het risicogestuurd denken bij juristen en de wetgever. Onze wetgeving tegen computercriminaliteit is direct te herleiden tot WarGames, bijvoorbeeld.
De zorgen over deze besluitvorming zijn al net zo oud als het vakgebied van de gegevensbescherming, maar de eerste grote mijlpaal was in 1995: de Richtlijn bescherming persoonsgegevens (waar onze Wbp vandaan komt), de voorloper van de AVG, bepaalde toen dat mensen niet onderworpen mochten worden aan geautomatiseerde besluitvorming op basis van een profiel. Een profiel is een verzameling persoonsgegevens dat iets over een persoon zegt, en dat geacht wordt representatief voor die persoon te zijn. De bepaling was nogal vaag geformuleerd en werd, net als de rest van de Richtlijn, vrij breed genegeerd door de techsector, mooie woorden in privacystatements daargelaten. Pas met de introductie van de AVG, die concreet een forse boete hing aan een overtreding, begonnen bedrijven zich zorgen te maken over compliance bij automatische besluitvorming en onderscheid te maken op basis van gegevensprofielen.
De recentste poging van de wetgever om dit soort systemen aan banden te leggen heet de AI Act, de verkorte naam voor het 'Voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie', ofwel de Wet op de artificiële intelligentie. Deze leidde tot wijziging van bepaalde wetgevingshandelingen van de Unie. De insteek: risicobeperking voor Europese burgers en beschermen van grondrechten, vooral gericht op problemen vanuit ondoorzichtigheid, complexiteit, afhankelijkheid van data en autonoom gedrag van AI-systemen. De lijst van voorbeelden loopt van bescherming van werknemers tot surveillance in de openbare ruimte, subliminale beïnvloeding en zelfrijdende auto’s. Dat komt door de nogal brede definitie van AI, die nogal wat losmaakte.
AI, expertsystemen, regelgebaseerde algoritmes, zelflerende systemen, ML: er zijn nogal wat termen in omloop die ongeveer hetzelfde bedoelen, maar net op een iets andere manier. Voor de juridische praktijk is de definitie van de EU-expertgroep uit 2019 de belangrijkste: een systeem dat uit ontvangen gegevens informatie extraheert, daarmee beslist welke handelingen het beste een gesteld doel kunnen halen en die handelingen vervolgens uitvoert. Dergelijke handelingen zijn bijvoorbeeld een voorspelling, een aanbeveling of een beslissing, maar kunnen ook zelfgegenereerde uitvoer zoals teksten of afbeeldingen zijn. Een systeem is dus niet pas AI als het autonoom rondloopt of de besluiten zelf oplegt; een door de mens trouw gevolgde aanbeveling maakt een systeem óók AI.
Dit lijkt enorm breed, want een Excel-filter op je klantenbestand, of bestand met bijstandsgerechtigden, loslaten, maakt dus dat je straks onder die AI Act gaat vallen. Maar dat is dan ook precies de bedoeling.
Machines die beslissen
ML-systemen, en meer algemeen AI-systemen, trekken conclusies op basis van invoer en verbinden daar een handeling aan. Een auto die zichzelf netjes inparkeert, een camera die een gezicht matcht met een lijst geautoriseerde bezoekers, of een algoritme dat antwoorden op vragen aan het EHRM voorspelt, de lijst is in beginsel eindeloos. Deze flexibiliteit en schaalbaarheid heeft een enorme populariteit gegeven aan ML-gebaseerde beslissystemen.
:strip_exif()/i/2005355858.jpeg?f=imagenormal)
Er is echter een cruciaal aspect van ML-systemen en dat is hoe deze tot hun conclusies komen. Menselijke beslissers werken, net als expertsystemen, met redeneerregels. Bijvoorbeeld: als iemand samenwoont, en hun gezamenlijke inkomen is meer dan 12.000 euro en de gasrekening bedraagt meer dan 150 euro per maand, dan nader onderzoeken op toeslagenfraude. We noemen dit ook wel deductie, het afleiden van conclusies uit algemene regels. In het voorbeeld is de algemene regel dat de drie factoren elk indicatoren zijn voor fraude, en met zijn drieën genoeg voor nader onderzoek.
ML-systemen werken inductief: zij leiden redeneerregels af uit de data en passen die vervolgens toe op nieuwe situaties. Bijvoorbeeld: de data laat zien dat een gasrekening van meer dan 150 euro vaak samengaat met fraudeurschap, net als een leeftijd hebben tussen de 18 en 32 jaar. De redeneerregel wordt dan: als de gasrekening boven de 150 euro is of de leeftijd is 18 tot 32 jaar, dan nader onderzoeken op toeslagenfraude. In dit voorbeeld is de leeftijdscategorie een toevallige samenloop met fraudeurschap, maar het systeem heeft hier wel de regel mede op gebaseerd omdat de data dit laat zien.
Dit verschil raakt aan de uitlegbaarheid van uitspraken en beslissingen van AI. Redeneerregels van menselijke beslissers zijn te motiveren, omdat de algemene regels beschikbaar zijn. Uit inductie verkregen regels zijn dat niet: het algoritme weet dat de leeftijdscategorie van 18 tot 32 jaar relevant is, maar kan daar geen waarom aan koppelen. Hoewel wetgeving, zoals de AVG, artikel 13 lid 2 sub f, eist dat uitleg over de onderliggende logica gegeven wordt bij automatische beslissingen zoals deze, is dat in de praktijk dus zo goed als onmogelijk. Dat maakt inzet van AI fundamenteel problematisch.
Een belangrijk probleem bij analyse van datasets is vooringenomenheid, oftewel bias. Dit is het verschijnsel dat een ML-systeem patronen in de data heeft gevonden die negatief uitpakken voor bepaalde groepen. Veel mensen noemen dit dan discriminatie. Strikt gesproken zit er geen bedoeling bij om groepen te benadelen. Een algoritme handelt zuiver op basis van de data, en zoekt de verdeling die het beste past bij het gestelde doel. Er is voor ML geen verschil tussen 'geen' uit het veld 'werkervaring' of 'vrouwentennis' uit het veld 'hobby’s' correleren aan 'afgewezen sollicitant'; bits hebben geen kleur. Voor mensen is het onderscheid tussen deze informatie-elementen echter enorm: het is niet de bedoeling dat we mensen afwijzen omdat ze vrouw zijn.
Vanwege deze problemen is de insteek van de AI Act zuiver risicogebaseerd: het doet er niet toe of je werkt met ML, expertsystemen of met een filter in Excel, waar het om gaat is of er risico’s ontstaan voor mensen. AI met zeer hoge risico’s, zoals socialcreditscoring, wordt verboden; bij hoge risico’s, zoals het screenen van sollicitanten, moet de leverancier zware maatregelen nemen om deze in te perken. Deze aanpak heeft het voordeel van daadwerkelijke technologieneutraliteit: het maakt niet uit hoe het werkt, als het maar veilig is.
Regulering van machines
De structuur van de voorgestelde AI Act is opgezet op drie niveaus. Op het hoogste niveau bevinden zich de onacceptabele AI’s: inzet daarvan is in strijd met fundamentele waarden in de EU, zoals bij socialcreditscoring of de inzet van subliminale technieken om mensen schade toe te brengen, zoals analyseren of iemand ongelukkig is en haar dan haarlemmerolieproducten aansmeren. Deze producten mogen niet worden gebruikt in de hele EU.
Het middenniveau zit in AI’s met een hoog risico voor mensen bij ongecontroleerde inzet. Denk hier aan biometrie in de openbare ruimte, beheer van de infrastructuur, selectie en werving van personeel, rechtshandhaving of grenscontroles. Dergelijke systemen zijn alleen toegelaten als ze aan strenge regels worden onderworpen, vooral een AI Impact Assessment om de risico’s vooraf in kaart te brengen, een gedocumenteerd ontwerp- en verbeterproces en transparantie over de manier van werken. Overige AI’s noemen we 'laag risico' en die mogen in principe hun gang gaan. Blijkt het dan toch mis te gaan, dan kan de Europese Commissie ze alsnog 'hoog risico' verklaren.
De AI Act moet nog door het Europees Parlement worden beoordeeld, dus het zal nog even duren voordat, een enige versie van, deze wet erdoor is. Maar het signaal is duidelijk genoeg: het gaat niet om wat AI is, het gaat erom welke risico’s mensen lopen. En die risico’s gaan we aan banden leggen.