Het Europees Parlement en de Raad van de EU hebben een voorlopig akkoord bereikt over de invulling van de AI Act. Hierin zijn een reeks regels opgesteld waar AI-systemen die in Europa actief zijn, aan moeten voldoen. Ook worden bepaalde toepassingen in zijn geheel geblokkeerd.
Het volledige akkoord is nog niet gepubliceerd, maar wel is er een persbericht uitgebracht met daarin enkele van de regels en verboden toepassingen. Onder die laatste categorie valt onder meer kunstmatige intelligentie die wordt gebruikt voor het maken van sociale scores en AI 'die wordt gebruikt om kwetsbaarheden van mensen uit te buiten, vanwege hun leeftijd, beperking, sociale of economische situatie'. Ook applicaties voor emotieherkenning op de werkvloer en onderwijsinstellingen vallen hieronder.
Gezichtsherkenningssystemen 'die gevoelige eigenschappen gebruiken', zoals politieke of religieuze overtuigingen, afkomst en seksuele voorkeur, worden eveneens verbannen, en dat geldt ook voor systemen waarmee gezichten 'niet-doelgericht' van het internet of beveiligingscamera's worden gescrapet voor het opstellen van gezichtsherkenningdatabases. De EU noemt bij de biometrische identificatiesystemen wel enkele uitzonderingen voor wethandhavers, die deze systemen onder 'strikte voorwaarden' wel mogen inzetten.
Verder moeten systemen die als een 'hoog risico' worden beschouwd aan bepaalde voorwaarden voldoen. Dat zijn systemen die de potentie hebben om 'significante schade toe te brengen aan de gezondheid, veiligheid, fundamentele rechten, het milieu, de democratie en de rechtsstaat', aldus de EU. Daaronder vallen bijvoorbeeld systemen die gebruikt kunnen worden om kiezers en de uitslag van verkiezingen te beïnvloeden. Dergelijke applicaties moeten onder meer worden onderworpen aan een verplichte effectbeoordeling, al worden de andere verplichtingen niet genoemd in het persbericht. Wel wordt gesteld dat gebruikers het recht hebben om klachten in te dienen tegen dergelijke systemen en 'uitleg krijgen over keuzes over AI-systemen met een hoog risico die invloed hebben op hun rechten'.
Tot slot zijn er ook regels opgesteld voor general-purpose-AI-modellen, zoals GPT-4, en systemen die die modellen gebruiken. Die moeten onder de AI Act voldoen aan transparantievereisten. Zo moeten de bedrijven achter deze modellen gedetailleerde samenvattingen geven over de content die voor de trainingen wordt gebruikt, zorgen dat de auteursrechtwetgeving niet wordt overschreden, 'technische documentatie' delen en waarborgen bieden tegen het genereren van illegale content.
Als een gpai volgens de EU een 'systemisch risico' met zich meebrengt, moet deze aan strengere eisen voldoen. Zo dienen er dan modelevaluaties uitgevoerd te worden en moeten de vastgestelde systemische risico's worden getoetst en beperkt. Daarnaast moet het model adversarial getest worden, moet de cyberveiligheid gewaarborgd kunnen worden en moeten de makers het energiegebruik bekendmaken. Bij 'serieuze incidenten' moet de Europese Commissie op de hoogte worden gesteld. Er wordt niet genoemd aan welke criteria de systemen dienen te voldoen om als 'systemisch risico' te worden gezien.
Als AI-bedrijven een regel overtreden, riskeren ze boetes van 35 miljoen euro, of hoogstens 7 procent van hun wereldwijde opbrengst, tot een maximum van 7,5 miljoen euro. De AI Act moet nog officieel worden goedgekeurd door de Raad en het Parlement. Dat gebeurt naar verwachting voor het eind van het jaar. De wet treedt niet eerder dan 2025 in werking. Het wordt dan waarschijnlijk de eerste alomvattende AI-wet ter wereld.