De Europese Commissie heeft op woensdag regels voorgesteld voor het reguleren van kunstmatige intelligentie. In het beleidsvoorstel wordt onder andere gesproken over het gebruik van gezichtsherkenning en 'social scoring'.
In het beleidsvoorstel worden gebruiksgevallen voor kunstmatige intelligentie onderverdeeld in vier verschillende risicocategorieën, ieder met een eigen set regels. De Commissie spreekt onder andere over een categorie met AI-systemen die een 'onaanvaardbaar' risico zouden vormen voor de grondrechten en veiligheid van mensen.
AI's uit die categorie zouden volledig verboden worden als het voorstel wordt aangenomen. De EU noemt hierbij als voorbeeld 'social scoring'-systemen, waarmee overheden individuele inwoners een score kunnen geven op basis van hun gedrag. De Commissie noemt ook 'speelgoed dat gevaarlijk gedrag van minderjarigen kan aanmoedigen via spraakassistentie' onacceptabel.
AI met een hoog risico
Direct hieronder valt een categorie met kunstmatige intelligentie die een hoog risico vormt. De Commissie noemt in deze risicogroep onder andere AI's die gebruikt zouden worden voor 'kritieke infrastructuur' als openbaar vervoer. De EU noemt ook software die wordt gebruikt voor werkgelegenheid, zoals het managen van werknemers en sorteren van cv's voor selectieprocedures, AI voor door robots geassisteerde chirurgie, of software voor het beheer van migratie, asielaanvragen of grenscontrole.
Ook kunstmatige intelligentie voor autoriteiten valt onder deze categorie. Ook alle vormen van biometrische identificatie zoals gezichtsherkenning vallen onder deze categorie; gebruik daarvan in publieke ruimtes door autoriteiten wordt in principe verboden, maar er zou hier sprake kunnen zijn van beperkte uitzonderingen, bijvoorbeeld om een vermist kind op te sporen of een specifieke en onmiddellijke terroristische dreiging te voorkomen.
Alle verschillende aspecten van AI's die met een hoog risico worden aangemerkt, zouden streng gereguleerd worden. De datasets die worden gebruikt om ze te trainen moeten van 'hoge kwaliteit' zijn om het risico op discriminatie te minimaliseren. Ook moet onder andere de activiteit van de kunstmatige intelligentie bijgehouden worden om de traceerbaarheid van de resultaten te garanderen, moeten er passende maatregelen zijn voor menselijk toezicht en moeten de AI's voorzien worden van gedetailleerde documentatie, zodat autoriteiten kunnen beoordelen of de systemen aan de eisen voldoen.
Chatbots en spamfilters
Als derde benoemt de Commissie een lijst met AI-systemen die een beperkt risico vormen. Daarbij doelt de Europese Commissie op kunstmatige intelligentie met 'transparantieverplichtingen', zoals chatbots. Het risico daarvan is laag, hoewel 'gebruikers zich er wel van bewust moeten zijn dat ze in gesprek zijn met een machine, zodat ze een weloverwogen beslissing kunnen nemen om het gesprek voort te zetten of af te breken'.
De lijst wordt afgerond met een groep kunstmatige intelligentie die een minimaal risico vormt voor mensen, waaronder 'de meeste AI-systemen' zullen vallen. De Commissie noemt bijvoorbeeld games met AI en spamfilters voor e-maildiensten. De voorgestelde reguleringen hebben geen invloed op deze AI-systemen, zo luidt het beleidsvoorstel.
Uitvoering van het beleidsvoorstel
Wat het uitvoeren van deze voorgestelde regels betreft, stelt de Europese Commissie voor dat de nationale bevoegde markttoezichtautoriteiten binnen lidstaten toezicht houden op de nieuwe regels. Een Europese raad voor kunstmatige intelligentie moet de implementatie van de regels faciliteren en de ontwikkeling van normen voor kunstmatige intelligentie aansturen. Daarnaast zouden vrijwillige gedragscodes worden voorgesteld voor AI zonder hoog risico, naast regelgevings-'sandboxes' om 'verantwoorde innovatie' op het gebied van AI te faciliteren.
"AI is een middel, geen doel. Het bestaat al tientallen jaren, maar heeft nu nieuwe capaciteiten bereikt, aangewakkerd door computerkracht", vertelt Eurocommissaris Thierry Breton in een toelichting van het voorstel. "De voorstellen van vandaag zijn erop gericht de positie van Europa als mondiaal centrum van excellentie in AI van het lab tot de markt te versterken, ervoor te zorgen dat AI in Europa onze waarden en regels respecteert, en het potentieel van AI voor industrieel gebruik te benutten."
Het is nog niet duidelijk of en wanneer het beleidsvoorstel wordt ingevoerd. Het voorstel moet nog worden beoordeeld door het Europese Parlement en de Raad van de Europese Unie. Vermoedelijk zal de EU dan ook nog een aantal jaren nodig hebben om de mogelijke wetten te bespreken en uit te voeren.