EU-ministers zijn akkoord met wet voor reguleren van kunstmatige intelligentie

De telecomministers van de EU-lidstaten hebben een akkoord bereikt over de Artificial Intelligence Act, een wetsvoorstel met als doel om te verzekeren dat AI-systemen in de EU veilig zijn en de fundamentele vrijheden en Unie-waarden eerbiedigen.

De Raad schrijft dat het voorstel uitgaat van een risicogebaseerde aanpak. Dat betekent dat het niet zozeer ertoe doet of het gaat om een complex machinelearningsysteem of een simpel filter in Excel, maar dat er gekeken wordt waar er risico's voor mensen ontstaan. Er wordt dus niet geregeld hoe iets moet werken, als de werking maar veilig is. Het voorstel creëert een uniform raamwerk voor AI waarmee er juridische duidelijkheid komt, wat ook de innovatie en investeringen moet bespoedigen. Daarnaast stelt de Raad dat er ook duidelijk aandacht is voor het toezicht en de handhaving van bestaande regels over fundamentele rechten en veiligheid.

Het voorstel bevat onder meer een definitie van een AI-systeem en gaat uit van een drietal niveaus. Eerst is er het hoogste niveau van AI met een onaanvaardbaar risico. Dat zijn systemen die inbreuk maken op de fundamentele rechten, waarbij gedacht kan worden aan socialcreditscoring of systemen die kwetsbaarheden van bepaalde groepen of personen uitbuiten. Eerder noemde de Commissie ook al het voorbeeld van speelgoed dat via spraakassistentie gevaarlijk gedrag van minderjarigen kan aanmoedigen. Het tweede niveau betreft AI met een hoog risico als er sprake zou zijn van ongecontroleerde inzet. Voorbeelden zijn biometrie in de openbare ruimte, beheer van de infrastructuur, selectie en werving van personeel, rechtshandhaving of grenscontroles. Systemen die daarvoor bedoeld zijn, zijn op grond van het voorstel alleen toegestaan onder strenge voorwaarden. De derde categorie behelst AI met een beperkt risico.

Ook het Nederlandse ministerie van Economische Zaken stelt dat de Europese verordening mogelijkheden en economische kansen biedt. De AI Act zorgt bijvoorbeeld voor duidelijkheid voor ontwikkelaars als ze hun AI-producten op de markt willen brengen, is de gedachte. Ook benadrukt het ministerie dat de nieuwe regels een gelijk speelveld creëren, omdat ook niet-Europese bedrijven en aanbieders die hun met AI gerelateerde diensten en producten in Europa willen uitbrengen, aan dezelfde regels moeten voldoen. Verder wordt genoemd dat als organisaties en kleinere bedrijven kunstmatige intelligentie willen gebruiken, zij erop kunnen vertrouwen dat het goed werkt en dat er daarbij ondersteuning van de ontwikkelaar aanwezig is; voor het mkb is daartoe een specifieke lijst met bepalingen opgesteld.

Het wetsvoorstel werd in april vorig jaar ingediend door de Europese Commissie. Nu de Raad er akkoord mee is, begint de fase van onderhandelingen tussen het Europees Parlement en de Commissie. Het streven is dat in de herfst van volgend jaar een definitieve overeenstemming is bereikt, waarna de verordening in de lidstaten moet worden doorgevoerd. In principe werkt een verordening rechtstreeks door in de nationale rechtsordes van lidstaten, maar er zullen waarschijnlijk nationale wetten moeten worden aangepast ten gunste van de AI Act.

Door Joris Jansen

Redacteur

07-12-2022 • 15:28

57 Linkedin

Reacties (57)

57
56
15
2
0
32
Wijzig sortering
Er is ook een Nederlandse versie van het voorstel beschikbaar: https://data.consilium.eu.../ST-8115-2021-INIT/nl/pdf
Fijn dat er alleen wordt gekeken naar waar het model voor wordt gebruikt. Anders zouden veel partijen ineens enorm veel werk erbij krijgen om te bewijzen dat ze aan de regels voldoen (denk aan A.I. in spellen)
Ik lees niet dat het gaat om hoe of waarvoor het gebruikt wordt, als het maar veilig is.

Ik vraag me af in welke categorie spellen zouden vallen, als je kijkt naar bijvoorbeeld anti-cheat waarbij de door een algoritme gebanned kan worden, wat voor inbreuk is/zou dat dan kunnen zijn?
Ik had daar niet eens aan gedacht, maar dat is wel een goede. Opzich ook wel een goede zaak, want spelers betalen voor de spellen en een onterechte ban is zeer frustrerend.
Dit heeft in mijn ogen dan ook grote overlap met de discussie dat je (bij een mens) in beroep moet kunnen gaan.

Maar op welke manier dacht jij aan spellen dan? NPC's die je spelkarakter in gevaar brengen ofzo?
Ik denk niet dat AI in games in deze discussie thuishoort. Sowieso is de term AI dan veel ste breed, want veel hiervan kan je niet echt AI noemen, maar eerder uitvoeren van patronen, hetzij enigszins random, of aan de hand van variabelen, maar zeker niet "intelligent". Daarnaast zijn ze geen privacygevoelige dataverwerkers. Als een game AI "leert" van de speler, dan is dat in de scope van het spel, gaat dat op basis van gedrag binnen dat spel en is de impact beperkt/niet-bestaand.

Maar toch moet je ermee uitkijken, want dan heb je een Metaverse ofzo, met spel elementen, en wellicht soortgelijke game-ai, dan kan je ingame gedrag wel ineens aan allerlei social zooi hangen. Maar dan praat je dus over een AI systeem die dat doet, en niet individuele game-ai's die movement en pathfinding enzo regelt.

Dus ik denk dat het heel erg belangrijk is om vast te stellen wat we definieren als AI.
Als ik een PONG-cloon maak, met een tegenstander die altijd jouw beweging mirrored, dat is dan ook een game-AI, maar daar maakt niemand zich zorgen over datavergaring/verwerking/privacy etc. Dus is het (imo) de verkeerde term dat teveel op 1 hoop gooit.
A.I. die actief manipuleerd om microtransactie omzet te maximaliseren.
Hmm, klinkt interessant maar als iemand die nog nooit een cent aan microtransacties heeft uitgegeven kan ik me daar weinig bij voorstellen.

Maar gezien hoeveel geld er mee wordt verdient zal het vast wat extra opleveren, alleen spelers zoals ik zou je er juist mee wegjagen.
Tja, ik geef er zelf ook 0 aan uit, maar we zijn in de minderheid. Daarom ook de woekerwinsten en de potentiele maximalisatie. Er komen nu wel mensen in opstand tegen online gokken ook vanuit de overheid, maar als ik sommige lootbox systemen bekijk met A.I. powered matching van mensen om ze toch naar die transactie te bewegen, zie ik daar ook een hoop mis gaan voor mensen die gevoelig zijn voor verslaving.
Gokken is toch een heel ander verhaal en andere tak van sport, ten minste, als we het over echte casino spellen om echt geld hebben.
De impulsen op het beloningssysteem en de winsten maken het akelig vergelijkbaar.
Dat zal ik zeker niet ontkennen, maar bij een casino is het duidelijk dat je om en voor echt geld speelt, iets wat met microtransactie bewust niet zo is, je moet diamanten kopen om vervolgens in goud ofzo om te wisselen zodat het je uit het oog verliest dat en hoeveel echt geld je uitgeeft. Daarnaast is casino strikt 18+.

Tuurlijk zijn online casino's net zo smerig (goed in) het vinden van mazen in de regels en maximaliseren van winst als ieder ander bedrijf, maar doordat ze onder een vergrootglas liggen en aan veel véél strengere regels moeten voldoen vind ik dat er duidelijk onderscheid moet worden gemaakt.

Zaken als reclame, promoties, timers of andere manieren om spelers meer en meer uit te laten geven/spelen zijn bij casino's (met een Nederlandse vergunning) expliciet verboden en daar wordt op gehandhaafd.

Ik zie casino persoonlijk net als kroegen, ze draaien voornamelijk op de klanten die op het randje van verslaving balanceren. Dat wil niet zeggen dat het grootste gedeelte van de klanten er wel verantwoordelijk mee om kan gaan. Niet dat ik daarmee de ernstige gevolgen van gokverslaving wil baggetaliseren, maar je kunt niet iedereen straffen voor de problemen van een paar. Sigaretten, alcohol, fast food, allemaal zaken die je in mijn ogen dan ook aan zou moeten pakken. De maatschappelijke kosten(schade) daarvan liggen nog vele malen hoger.
Maar voor wie geldt deze regulering dan? Iedereen die een AI maakt ? Of alleen leger, overheid ? Lijkt me dat de gemiddelde AI nou niet echt zodanige beslissingen kan maken die bedreigend zijn voor EU...

Apart stukje hieronder. Dus de wet geldt niet voor nationale veiligheid, defensie en militaire doeleinden? Dat lijkt mij juist het doel van regulering.

Scope and provisions relating to law enforcement authorities.
An explicit reference has been made to the exclusion of national security, defence, and military purposes from the scope of the AI Act. Similarly, it has been clarified that the AI Act should not apply to AI systems and their outputs used for the sole purpose of research and development and to obligations of people using AI for non-professional purposes, which would fall outside the scope of the AI Act, except for the transparency obligations.

[Reactie gewijzigd door PFY op 7 december 2022 15:54]

Uiteraard geldt deze EU wet niet voor terreinen waarop de EU niet bevoegd is. Dit is een compleet standaard verduidelijking, die je in wel meer EU regels ziet.

De EU is een samenwerking van soevereine staten. Die staten hebben een deel van hun soevereiniteit uitgeleend aan de EU, bijvoorbeeld om de Interne Markt mogelijk te maken. Maar omdat de soevereiniteit fundamenteel bij de staten ligt, geldt dus de regel dat de EU bij elke beslissing moet aantonen dat het gerechtvaardigd is op basis van overgedragen soevereniteit.
Ai - dat verandert opeens wel het speelveld. "Wij van de overheid willen vooral anderen reguleren maar blijven daar zelf graag buiten".

Oude wijn in nieuwe zakken...
Nee, dat betekent het niet. De exclusion slaat er op dat de EU niets daarover heeft te vertellen, dus ook niets daarover in de richtlijn kan zetten. Sommige politici willen je weliswaar laten geloven dat we in een United States of Europe zitten, maar de EU kan en mag eigenlijk over maar heel weinig onderwerpen iets zeggen. Dat is een voordeel maar ook meteen een nadeel.
Maar wat hebben wij dan aan die richtlijn? Als burger hebben we te maken met bedrijven en overheden die AI kunnen gebruiken.
Volgens mij geld het heel simpel voor iedereen die en AI maakt en op de markt wilt brengen. Van het wetsvoorstel:
Against this political context, the Commission puts forward the proposed regulatory
framework on Artificial Intelligence with the following specific objectives:
* ensure that AI systems placed on the Union market and used are safe and respect
existing law on fundamental rights and Union values;
[...]
Ik verwacht dat het stukje dat jij quote er is omdat er al systemen/reguleringen in plaats zijn voor die groepen, die groter zijn dan AI alleen. Bijvoorbeeld,
AI systems exclusively developed
or used for military purposes should be excluded from the scope of this Regulation
where that use falls under the exclusive remit of the Common Foreign and Security
Policy regulated under Title V of the Treaty on the European Union (TEU).
[..]
En wat nou als China een AI ontwikkeld die maling heeft aan de EU en US regulering, hoe gaan ze dat dan voorkomen?
"omdat ook niet-Europese bedrijven en aanbieders die hun met AI gerelateerde diensten en producten in Europa willen uitbrengen, aan dezelfde regels moeten voldoen."

Ze mogen doen en laten wat ze willen, maar die AI niet dan niet in producten en diensten in de EU/US gebruiken.

Als ze (gebruikers) data naar hun eigen servers in China kopiëren hebben de EU en US daar verder geen invloed op, goede reden om dat dus nog meer in de gaten te gaan houden en een goede reden om apps zoals Tiktok en produkten van Huawei etc te verbieden.
Dan mag die AI niet op de Europese Interne Markt verkocht worden.

Ik bedoel, zo moeilijk was dat ook weer niet om uit te vinden. Het is letterlijk de eerste paragraaf na de inleiding.
2.1. Legal basis
The legal basis for the proposal is in the first place Article 114 of the Treaty on the Functioning of the European Union (TFEU), which provides for the adoption of measures to ensure the establishment and functioning of the internal market.
De EU heeft de bevoegdheid om te bepalen wat er wel en niet op de interne markt verkocht mag worden, dus dat geldt ook voor AI die op de interne markt verkocht wordt.
Dat gaan ze niet voorkomen maar ze gaan het zelf ook ontwikkelen. Deze regels of hoe je ze wilt noemen zijn totaal onzin. Amerika is al heel lang bezig met killer drones die zelf kunnen bepalen wanneer ze vuur openen dus ga er maar vanuit dat die straks AI gestuurd zijn.
Nationale veiligheid en defensie zijn (logischerwijze) uitgezonderd, het gaat hier om consumenten producten en diensten.
Want dat is logisch waarom?

Ik heb liever een verkeerde AI die wat spullen van me jat als een verkeerde AI van defensie die een kogel door mijn hoofd schiet... Juist "Nationale veiligheid" en defensie vind ik iets waar ze in het kader van AI moeten oppassen. Zonder AI is al gebleken dat ze lak hebben aan regels, als de AI straks het zelfde gaat doen hebben we toch wel een redelijk probleem.
Idd. Ik wil vooral een AI de taken van de politici overneemt omdat deze tegenwoordig vooral bezig zijn, zichzelf een beter leven toe te bedelen. Helaas is dat wel een probleem als deze AI ook gevoelig is voor lobbies...

Maar serieus; bijzonder weer dit. Ze zien dus wel degelijk het nut in van AI (anders hadden ze uitzondering niet genoemd) maar willen vooral alles wat niet-overheid is, beteugelen.
En wat nou als China een AI ontwikkeld die maling heeft aan de EU en US regulering, hoe gaan ze dat dan voorkomen?
Ik zat laatst ook al aan deze verhouding te denken. We zijn als EU (en VS) zijnde goed bezig door zaken als dit te reguleren. Alleen AI gaat natuurlijk veel verder dan dat. Ik ben blij dat we hier met zulke ontwikkelingen rekening houden, maar ik ben bang dat als we de poort wijd open laten voor producten en diensten uit China, zij van onze reguleringen gaan profiteren (lees: voordeel uithalen van situatie ten opzichte van de EU en VS).
Om te beginnen voorkomen dat die ai hier in europa van invloed is. Zoals ze nu ook al doen met beeld-verwerking.... Wanneer wordt tiktok geblokkeerd?
Wat is daar anders aan dan wat we nu al zien bij bijvoorbeeld de GDPR? Als je daar niet aan voldoet mag je het hier niet verkopen.
Ikzelf heb al maanden een probleem met Google Docs, 'bepaalde inhoud' van een paar van mijn spreadsheets zou 'schadelijk' kunnen zijn, maar het is onmogelijk om antwoord te krijgen wat die melding precies triggered zodat ik het op kan lossen. Ik weet niet precies of dit onder deze definitie van AI valt, maar gezien ze in het artikel ook over "een simpel filter in excel" spreken neem ik aan van wel.

Op dit moment kan ik sommige van die documenten nog wel delen, maar niet samen met anderen bewerken, anderen zijn zelfs alleen voor mij zichtbaar, dus ook niet meer te delen. Gezien ik deze documenten voor werk gebruik ben ik als de dood dat ze toegang volledig blokkeren, of erger nog, mijn hele account gaan beperken. Er is dus een risico op grote schade voor mij door deze AI.

In dit soort situaties moet je toch juist info over de werking hebben zodat je de oorzaak weg kan nemen? Of zou deze hele toepassing verboden worden doordat het dit risico creeert?
Dit valt expliciet onder de Digital Services Act, een recente andere EU maatregel
Als dit 'veroorzaakt' wordt door een AI, dan overlapt het toch, of is het op z'n minst een aanvulling?

DSA ging toch ook over het (bij een mens) in beroep kunnen gaan? Ik heb al een paar uur met (een echt mens bij) Google gechat, en er zijn meerdere tickets aangemaakt en naar de betreffende afdeling gestuurd, maar drie maanden laten heb ik nog steeds geen reactie, laat staan een oplossing.
Het is bij wetten gebruikelijk dat een wet die speciaal over een situatie gaat voorrang heeft over algemene wetten die alleen in bredere zin van toepassing zijn. (lex specialis)

Inderdaad heb je gelijk dat je bij een mens in beroep moet kunnen gaan. Daaruit blijkt dat de DSA al voorziet dat AI's de eerste belissing mogen nemen. Daarmee is de DSA de speciale wet die hier voorrang heeft over een algemene AI-wet.
hmm, ik mijn hoofd is het omgedraaid :+

De AI wet is specialistischer, want die bepaald of AI überhaupt gebruikt mag worden.

Als een AI risico's laat ontstaan, mag deze geen beslissing nemen en is er dus geen beslissing om volgens de DSA aan te vechten?

Mijn probleem is niet dat ik niet in beroep kan gaan, maar dat er een beslissing is genomen waartegen ik in beroep moet/wil gaan.
Op een gegeven ogenblijk helpt een juridische opleiding. Intuïtie helpt maar tot zo ver. "X in situatie S" is gespecialiseerder dan "X in alle situaties (waaronder S)"

En voorlopig is er nog weinig waar je volgens de DSA tegen in beroep kunt gaan. "Schadelijk" is simpelweg een mening, en Google mag die mening hebben.
Ene kant mooi. Aan de andere kant drijft dit de investeringen in AI niet naar andere tolerantere landen?
De EU markt is dusdanig groot dat bedrijven wereldwijd hier rekening mee zullen gaan houden, net zoals nu met de GDPR. Veel bedrijven van buiten de EU hanteren de GDPR als richtlijn ook als die in andere markten niet van toepassing is.
Wat ik in dit verhaal mis is wie/waar de verantwoordelijkheiden liggen. Voor mij als Europeese consument hoop ik dat de verantwoording van de indeling in de klasses bij de overheid ligt en bij twijfel tussen 2 klasses in de zwaarste van de 2 valt.

En daarnaast dat als/zodra zo'n systeem in gebruik is, bij wie ligt de verantwoording van de uitvoering van de functies? Naar mijn idee zou dat voor zakelijke en overheids instanties bij die instantie moeten liggen omdat er van uit gegaan kan worden dat zij daar de inzichten in hebben.

Maar voor consumenten zou de verantwoording deels ook bij de leverancier/importeur/fabrikant moeten liggen omdat zij veel beter in staat zijn om de gevolgen in te zien. EN ja, als zij die verantwoording niet kunnen/durven/willen dragen dat zij het product dan ook niet leveren en eventueel wel terugnemen dan wel uitschakelen.

Natuurlijk zijn er dan ook verzekeringen en dergelijke die daar van invloed kunnen zijn. Voor particulieren zou de algemene wettelijke-aansprakelijkheids verzekering daar voor kunnen zijn. En bij voertuigen dan de wa-verzekering van de voertuigen en zo. Laat daarom de verzekeraars ook hun zegje doen, misschien wel om een extra 'onafhankelijke' partij te hebben.
Verantwoordelijkheid voor de indeling in klasses? Dat suggereert een toelatingsregime, en dit is geen toelatingsregime.

Dit is een toetstingsregime, en toetsing gebeurt door onafhankelijke rechters. Als een rechter met een concreet geschil geconfronteerd wordt, dan is het nog steeds denkbaar dat indeling overbodig is. Als iets sowieso illegaal is, dan hoeft een rechter ook niet uit te zoeken of het illegaal in klasse I of illegaal in klasse II is.

Indeling kun je dus uitstellen totdat er een concreet geschil is waarbij de aanklager stelt dat een AI illegaal is, en de verdediging aanvoert dat hun AI legaal is omdat die in een lagere klasse valt dan dat de aanklager stelt.
Ik ben geen rechtsgeleerde, maar als ik het volgende lees:
Eerst is er het hoogste niveau van AI met een onaanvaardbaar risico. Dat zijn systemen die inbreuk maken op de fundamentele rechten, waarbij gedacht kan worden aan socialcreditscoring of systemen die kwetsbaarheden van bepaalde groepen of personen uitbuiten.
En vervolgens de derde artikel van deze fundamentele rechten erbij pak:
Article 3

Right to the integrity of the person

1. Everyone has the right to respect for his or her physical and mental integrity.
Bron: https://eur-lex.europa.eu...TXT/?uri=CELEX:12012P/TXT

Dan moet ik nogal denken aan een zeker sociaal-media algoritme dat complot-theorieën voert aan kwetsbaren.

Valt dit hieronder?
... waarbij gedacht kan worden aan socialcreditscoring...
ESG rating bij deze verboden dus?
Van de ene kant logisch dat ze het willen proberen, maar AI kun je gewoonweg niet tegenhouden, hoe geavanceerder het wordt hoe lastiger het wordt om het te beperken. En dan zijn er natuurlijk nog altijd meer dan genoeg groepen die zich van dit soort regeltjes niets zullen aantrekken (oa veiligheidsdiensten) en dus gewoon gevaarlijke AI blijven ontwikkelen.
Het wordt ook niet tegengehouden maar er worden kaders gesteld. Je kunt ook niet tegenhouden dat mensen in een auto idioot veel te hard rijden, maar door kaders te stellen kan je daar wat tegen doen als het toch gebeurt. Zo moet je dit ook zien. Zonder enige regelgeving kan iemand AI op allerlei manieren inzetten, zonder dat je er iets tegen kunt als het verkeerd uitpakt.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee