Europese lidstaten sluiten voorlopig akkoord over AI Act

Europese regeringsleiders zijn akkoord met een voorlopige versie van de AI Act. De wet moet nog door het Parlement en de lidstaten worden aangenomen, maar met het voorlopige akkoord is een belangrijke stap voor de AI-regulering genomen.

De Commissie van Permanente Vertegenwoordigers, Coreper, is akkoord gegaan met een opstelling van de AI Act. De AI Act is bedoeld om de opkomst van kunstmatige intelligentie te reguleren. Daarmee is de wet nog niet door de Europese Raad, maar Coreper doet daar wel het voorbereidende werk voor, waardoor het nagenoeg zeker is dat de individuele lidstaten ook voor het wetsvoorstel zullen stemmen.

Met het akkoord van Coreper is een belangrijke stap genomen voor de AI Act. De laatste maanden lagen enkele lidstaten, met name Frankrijk, dwars over de wet. Frankrijk wil dat Europese bedrijven kunnen blijven innoveren en wijst daarbij specifiek op start-ups zoals Mistral AI uit dat land. De AI Act zou die bedrijven te veel beperken in hun mogelijkheden. Ook Duitsland en Italië hadden moeite met delen van de wet.

In het voorlopige akkoord is onder andere vastgelegd op welke onderdelen het verboden wordt om AI in te zetten. Dat is bijvoorbeeld het geval voor het toekennen van risicoscores, zoals Nederland bij verschillende algoritmes als SyRI jarenlang gebruikte. Ook is vastgelegd dat applicaties met een 'laag risico' niet onder de wet komen te vallen en AI-chatbots moeten duidelijk aangeven dat er gebruik wordt gemaakt van kunstmatige intelligentie.

Door Tijs Hofmans

Nieuwscoördinator

02-02-2024 • 19:49

41

Lees meer

Reacties (41)

41
40
16
1
0
17
Wijzig sortering
Wat ik het liefste zo willen zien is een eenduidige en goede definitie van AI. Is een algoritme een AI? En een generale AI een AI? Moet het een (nieuwe versie van) een Turing test weten te doorstaan?

Algoritmes kunnen namelijk een heel stuk beter gecontroleerd worden door mensen.

Voor zover ik het weet, is het doorgronden van een 'AI' zoals we die tegenwoordig van ChatGPT en Bard kennen nauwelijks of niet te doen. De vragen 'waarom' er een bepaald antwoord uit komt is er niet meer uit te krijgen. En dat is wel een ding natuurlijk.
AI volgens de EU :
A machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.
Redelijk breed in eerste aanleg, maar als je verder leest zie je dat de EU de klassieke indeling hanteert. AI is onder andere Machine Learning, maar ook oudere technieken zoals rule-based systems ("if-else AI") of combinaties daarvan.
Oei, met die definitie kan je echt alles er onder steken.
De manueel geprogrammeerde belastingen berekening bijvoorbeeld, maar zelfs een game op je PS5
A machine-based system
Draait op server dus ja. De PS5 is ook een machine.
that, for explicit or implicit objectives
Alles is een expliciet of impliciet doel. Belastingen innen zeker. Entertainment leveren eigenlijk ook.
infers,
Elke verwerking of berekening voldoet.
from the input it receives,
Belastingaangifte voldoet zeker als input. Controller input ook.
how to generate outputs such as predictions, content, recommendations, or decisions
Hoeveel belasting je betaalt is een beslissing. Content is ook een extreem brede, het beeld dat je ziet in een spel voldoet al.
that can influence physical or virtual environments.
Rare manier om gewoon alles te zeggen. Niets bestaat buiten de fysieke of virtuele wereld.

Volgens deze site, zou het een beetje anders geformuleerd worden:
“AI system” is defined as “a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments
Maar ook dat ontsnapt niet aan heel brede interpretatie.
Nee, zo werkt een wetsuitleg niet.

"Alles is een impliciet of expliciet doel" kán niet de goede uitleg zijn, want dan is die term betekenisloos.

"elke verwerking voldoet"- nee, alweer kun je een term niet zomaar betekenisloos maken, dan weet je alweer dat je de verkeerde uitleg probeert. "Infers" c.q. "inference" is een specifieke term in A, en gezien de context (AI wet) is die specifieke uitleg de goede.

AI's kunnen op alle input draaien, dat is correct. Hoeveel belasting je betaalt is géén AI beslissing. Dat volgt uit de formules die door de minister van Financien zijn opgesteld, en door de Kamers goedgekeurd. Maar in-game content is zeker een valide soort AI output.

En tenslotte, "physical or virtual environments" mag je alweer om dezelfde reden niet uitleggen als "alles", want het maakt wederom die clausule overbodig. Wetsuitleg moet logisch zijn, en je kunt daarom niet driekwart van de tekst negeren.
that can influence physical or virtual environments.
Rare manier om gewoon alles te zeggen. Niets bestaat buiten de fysieke of virtuele wereld.
Dit zal mogelijk nog een deur openhouden voor experimenten in afgesloten omgevingen. Zo kun je AI onderzoeken intern, zonder bij voorbaat al aan de AI Act te hoeven voldoen. Je beïnvloed dan geen omgeving vermoed ik, maar ben geen jurist.
Zo, dat is een wel heel ruime definitie. Ofwel alle predictiemodellen mogen dan niet meer gebruikt worden in sommige sectoren. Zo lijkt het alsof ze computergebruik willen afschaffen. Wat willen ze dan in die sectoren? Mentats? (Frank Herbert's Duin referentie)
Het lijkt mij met die definitie een stap terug in ontwikkeling, naar pre 1950.

[Reactie gewijzigd door MeMoRy op 22 juli 2024 21:58]

In de laatste versie van de AI act die ik zag, betrof het alles met code. Ook een excel spreadsheet. Ik weet niet of die definitie nog teeds is gehandhaaft
Definitie is dezelfde (of mogelijk bijna dezelde) als die van de OECD gepubliceerd op 9 november 2023: “An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that [can] influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment” https://oecd.ai/en/wonk/ai-system-definition-update

Deze definitie is ook overgenomen in de AI Treaty van de Raad van Europa. Deze Treaty kan mogelijk meer impact hebben dan de AI Act, omdat je een assessment moet doen voor alle AI/Algoritmes binnen een organisatie (net zoals de DPIA voor de GDPR/AVG). Het enige is dat we nog niet weten hoe deze Treaty (wettelijk) wordt omgezet in Nederland of andere lidstaten (mag je zelf min of meer bepalen). De assessment raakt dezelfde onderwerpen/requirements van de AI Act voor high-risk AI systemen (annex 3). Je zal dus aan vergelijkbare normen moeten toetsen (in bepaalde sectoren gelden vergelijkbare eisen over bv. datakwaliteit, dus in principe niks nieuws :) ).

Aangezien de Treaty (en de AI Act) ook nog niet definitief is, kunnen er nog wijziigngen komen... O-)
Heeft iemand al gekeken hoe zij precies AI definieren?

Het zou o.a. hilarisch (en mogelijk ook terecht) zijn als mensen zelf er ook blijken onder te vallen.

Maar de tekst maakt sowieso nieuwsgierig: wat is AI eigenlijk?

[Reactie gewijzigd door Siaon op 22 juli 2024 21:58]

Kort gezegd is AI een autonoom computersysteem dat zelf regels afleidt om doelstellingen te halen. Het maakt niet uit of je dat met ML of Prolog doet, maar de eigenschap van afleiding (inference) is cruciaal.
"inference" is absoluut niet "afleiding van regels". Het is een woord wat in de context van AI een specifieke betekenis heeft. Om precies te zijn: het is het gebruik van input data om voorspellingen te doen, waar er geen bekende goede uitkomst is. Hiermee staat inference haaks op training, waar je het verschil van voorspelling en bekend goede uitkomst gebruikt om het model bij te werken (regels af te leiden, voor rule-based AI's)

(Ik ben 25 jaar geleden al in AI afgestudeerd, deze tegenstelling tussen training en inference is praktisch universeel.)
Ik waardeer je input zeer maar waarom is "het gebruik van input data om voorspellingen te doen" fundamenteel niet hetzelfde als "regels afleiden"? Input data analyseren leidt tot een statistisch inzicht dat je toepast op een nieuw geval. Als a kleiner dan 5 en b tussen 3 en 6 en c is maximaal de helft van a, dan is de uitkomst 1. Waarom is dat geen 'regel'?
Als je een "normale" AI gebruikt om voorspellingen te doen op basis van inputs, dan verandert er helemaal niets aan de de interne toestand ("de regels") van die AI. Voor een neuraal netwerk bijvoorbeeld veranderen de gewichten niet; voor een Random Forest veranderen de beslisbomen niet.

Die regels worden alleen afgeleid tijdens training, wanneer je een voorspelling hebt maar ook een ground truth, en dus aanpassingen kunt maken op basis van het verschil tussen voorspelling en ground truth.

"Regels" zijn algemeen, niet specifiek voor één input, en inference is in de basis één voorspelling voor één input.
Waarom zou je niet kunnen innoveren met respect voor de burger zijn rechten 🤷🏻‍♂️
Als ik aan AI denk, dan gaat het voornamelijk over wetenschappelijk onderzoek, nieuwe medicijnen, …
Ik denk meer aan Criminelen, Hackers en landen zoals Iran, Rusland e.d.

Het zijn niet alleen de bloemetjes en bijtjes ben ik bang ;-)
De AI Act kan dus in extreme gevallen dus om 100% betrouwbare en transparante kunstmatige deep learning neurale netwerken en vooraf een oneindig langdurige CE-keurmerk wachtlijst traject afwachten gaan eisen voordat het AI systeem officieel pas op de markt gebracht mag worden. Statische neurale netwerken kunnen nog lang niet 100% betrouwbaar en transparant zijn, zelfs 99% betrouwbaar met XAI is al een technologische doorbraak! Dus met zulke onmogelijk hoge eisen en tegelijkertijd BrainDrain van top AI onderzoekers naar de VS met aantrekkelijke hoge inkomens en visums kunnen ze AI bedrijven in de EU kapot maken.

[Reactie gewijzigd door Minimise op 22 juli 2024 21:58]

Dat hangt dus af of de AI wordt gebruikt voor high risk toepassingen. Veelal profiling en rechtstreekse besluiten over individuen of groepen burgers
Dat zal echter veelal leiden tot misclassificaties!

Toeslagenaffaire 2.0 kan echter zo geïmplementeerd worden dat het annex III van de EU AI Act wellicht zou kunnen omzeilen: https://www.euaiact.com/annex/3
De Nederlandse overheid zou kunnen stellen dat de data-analyse en het risicomodel geen sociale score of krediet toekennen aan de burgers, maar alleen een indicatie geven van de kans op fraude, dat echter nog in zekere mate nog steeds een valide rechtsgrond voor gegevensverwerking onder de AVG is. Ook zou de overheid kunnen betogen dat de kinderopvangtoeslag geen essentiële dienst of voordeel is, maar een discretionaire subsidie die afhankelijk is van de naleving van de wet.

Net zoals een “onschuldige laag risico chatbot” mensen tot zelfmoord kan overhalen: https://www.euronews.com/...-himself-to-stop-climate-

Maar er gewoon doorheen komt als niet hoog risico, maar zelfs laag risico of soms ook gewoon tot de open source uitzondering behoort!

[Reactie gewijzigd door Minimise op 22 juli 2024 21:58]

Als het om mensenlevens gaat is 99% echt niet genoeg dus terecht dan dat dat er niet doorheen komt. Dan zijn er gewoon meer waarborgen nodig.

Krijgen we anders weer een toeslagenaffaire 2.0.
Toeslagenaffaire 2.0 kan echter zo geïmplementeerd worden dat het annex III van de EU AI Act wellicht zou kunnen omzeilen:
De Nederlandse overheid zou kunnen stellen dat de data-analyse en het risicomodel geen sociale score of krediet toekennen aan de burgers, maar alleen een indicatie geven van de kans op fraude, dat echter nog in zekere mate nog steeds een valide rechtsgrond voor gegevensverwerking onder de AVG is. Ook zou de overheid kunnen betogen dat de kinderopvangtoeslag geen essentiële dienst of voordeel is, maar een discretionaire subsidie die afhankelijk is van de naleving van de wet.


Net zoals een “onschuldige laag risico chatbot” mensen tot zelfmoord kan overhalen: https://www.euronews.com/...-himself-to-stop-climate-

Maar er gewoon doorheen komt als niet hoog risico, maar zelfs laag risico of soms ook gewoon tot de open source uitzondering behoort!

[Reactie gewijzigd door Minimise op 22 juli 2024 21:58]

Is de EU een speler op AI gebied? Welke grote AI outfits zijn gevestigd in de EU?
De wet heeft toepassing op AI producten die worden aangeboden in de EU. Dus een ChatGPT moet zich hier ook aan houden.
Het gaat niet alleen om bedrijven maar ook om onderzoek en ontwikkeling. Qua bedrijven zitten clubs als Mistral AI in de EU maar er vindt ook ontzettend veel ontwikkeling en onderzoek plaats dat (nog) niet op de markt te koop is. De technologie achter Stability AI komt bijvoorbeeld uit een universiteit in München en een handige (of doortrapte, afhankelijk van wie je het vraagt) jongen heeft daar een licentie op genomen en er een bedrijf omheen gebouwd, Stability.

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 21:58]

Onderzoek en open source is vrijgesteld
Tja en Amerika en China en al die andere landen gaan ons op AI gebied gewoon weer voorbij.
voorbij de afgrond in?

prima, geen problemen mee
Misschien. Misschien missen we een gouden boot en zijn wij relatief gezien dadelijk de nieuwe Afrika van de wereld. Wie zal 't zeggen.

Persoonlijk denk ik dat het echt niet de grootste ramp van de wereld is om AI in te zetten zoals nu gebeurt. Wat auteursrechten schendingen hier of daar. Niet tof, maar realistisch gezien geen ramp. Ik ken nog geen auteurs oid die erdoor miljoenen aan inkomsten door zijn misgelopen.

Het is wat anders als het daadwerkelijk beslissingen gaat nemen over levens, zoals bij een belastingdienst of immigratiedienst. Dat gaat mij (nog) veel te ver.

Hiernaast stoppen andere landen echt niet met het ontwikkelen ervan. Ik zeg niet dat we geen regels moeten hebben, maar om een gevecht aan te gaan met twee handen geboeid en een blinddoek om, lijkt mij in deze wereld onverstandig.
Zonder regels is het eerste waarvoor de bedrijfswereld AI gebruikt om geld te verdienen. Jij denkt dan aan gouden bergen voor iedereen maar ik ben wat pessimistisch dus ik denk aan mensen die geen gezondheids/levensverzekering meer kunnen betalen omdat een AI zegt dat ze grote kans hebben op kanker, cholesterol of iets anders, mensen die geweerd worden van werk omdat ze grotere kans hebben voor depressies en dergelijke.
Dat doen ze nu toch al? Alleen áls ze dat al met AI zouden aandurven, wordt het systeem wellicht wel eerlijker/beter.
Ik ken nog geen auteurs oid die erdoor miljoenen aan inkomsten door zijn misgelopen.
Het hoeven toch geen miljoenen te zijn? Voor veel mensen is tienduizend per jaar mislopen al genoeg om er niet meer van te kunnen leven. En dat zie je nu gebeuren met illustratoren.

Nou vind ik een hoop van die beelden die text-to-image generatoren uitspuwen erg lelijk en lijken ze allemaal op elkaar. Daardoor lijkt het een beetje een stijl te zijn, en dus met een tijdelijke levensduur voordat de smaak weer verandert. Het zorgt er dus ook een beetje voor dat het een beetje goedkoop aan doet. Het is leuk voor memes maar een serieuze publicatie zal zich toch liever willen onderscheiden met hun beeldmateriaal.
Om eerlijk te zijn zijn de meeste 'kunstenaars' elkaar nu al flink aan het kopiëren. Biologische AI? Laat dat gewoon lekker aan de computer over en laat er een paar unieke mensen tussen zitten die wél weer iets nieuws voortbrengen. Nu schiet het ook niet op.

Wie ondervindt er dan last van? Ik heb niemand gehoord of over gelezen die (redelijkerwijs) nadeel heeft ondervonden. Fanart? Fanfictie? Alsof dat ooit een auteur schade heeft gebracht. Ze vinden het misschien niet leuk, dat kan. Het werk is hun kindje. Maar ja dat is wel het risico van het vak als je iets publiceerd.
Het gaat wel helemaal los met AI de laatste maanden zeg.
Ik ben blij dat de EU er wel boven op zit! Naast USB-C e.d. een hele welkome ontwikkeling wat mij betreft.
Ik bedoelde gewoon dat het om de paar berichten over AI gaat, maak er zelf ook centen mee, maar het blijft nog altijd knip en plak werk. Het is nog niet dat robots echt zelf kunnen denken ofzo.
De ontwikkeling zit in een snelvaart.

Denken is wel een heel vaag begrip. Wat ik wel kan stellen is dat AI begrijpt wat ik bedoel, of in ieder geval vaak. Ook die ontwikkeling gaat hard.

Zeggen dat het knip en plak werk is, dat is echt niet zo. Ik zou zeggen ga eens wat dingen proberen, ga eens wat afbeeldingen laten genereren op basis van de info die je geeft. Dat gaat veel verder dan jij hier stelt.
A.I. kan (nog)niet voor zichzelf nadenken. Voor het begrip denken heb je een entiteit nodig, een geest zo je wil...die door vallen en opstaan, en door zelf-bewustzijn van de omgeving waarin het zich bevindt bewust wordt en kan handelen naar eigen belang / waarde. A.I. zoals het nu commercieel wordt gebruikt is niets meer dan algoritme's die wat dingetjes geautomatiseerd kan uitvoeren o.b.v. verwachtigen en snelheid, nothing else....er wordt door marketing en PR lui interessant over gedaan, natuurlijk om hier vies veel mee te vangen, maar da's natuurlijk hoe de kapitalistische wereld in elkaar zit. Zodra A.i. zelfbewus ( ooit ) gaat worden voorzie ik voor de mensheid een giga grooit probleem....of beter gezegd, de mensheid wordt een gevaar voor a.i. maar dan hoop ik niet meer te leven.
'Denken' 'entiteit' 'geest'. Het zijn begrippen die ongelooflijk vaag zijn. We hebben ze nooit hoeven uit te leggen, want of iets kan het, of het kan niet. Een boom niet, een dier wel. Maar wanneer je hier AI naast legt wordt het ongelooflijk vaag.

Je kan alles reduceren tot een algoritme, ik weet niet of je dieren en/of kleine kinderen hebt/had, maar alles wat ze doen is ook voorspelbaar, is nadoen, is aangeleerd. Tot in hoeverre denken ze zelf na, vs gebruiken wat ze is aangeleerd en passen dit toe op wat er gevraagd wordt. Hetzelfde kan je ook zeggen over volwassen mensen.

Als jij op Google naar iets zoekt, dan werk je met een simpel algoritme, a.d.h.v. je zoektermen zal die altijd dezelfde resultaten geven, deze resultaten zijn dan weer op basis van wat populair is.
Neem je AI dan zullen deze resultaten iedere keer anders zijn, en daarnaast begrijpt het de vragen die je stelt en past zich daarop aan. En ja ergens kan je dat ook gaan reduceren tot algoritmes, maargoed dan blijf ik erbij dat dit ook zo is bij de mens. Echter wat AI anders maakt dan een zoekmachine, is dat je nooit dezelfde antwoorden krijgt. Ieder antwoord is uniek.

Wanneer je plaatjes laat genereren dan begrijpt het wat je wilt, wil jij een plaatje van Spongebob als een Sith Lord in de stijl van DaVinci, dan weet het wat jij ong wilt. Als jij dan vervolgens zegt dat je er meer groen in wilt hebben, begrijpt dit het ook.

Maar ik zou je vooral willen uitdagen om te denken over wat de mens nu zo anders maakt, en dan niet vast te zitten in begrippen, maar door de verdieping in te gaan hoe wij als mens werken, hoe wij reageren en waarom wij zo reageren. Waarom zijn wij als mensen voorspelbaar, zowel als groep als individu.
Persoonlijk vind ik USB-C het slechtste wat ooit bedacht is. De stekker past altijd, maar je hoeft de functionaliteit niet te ondersteunen…

Zo hebben wij op werk prachtige docking stations, werkt goed op Dell laptops maar een HP laptop herkent hem niet en laad er ook niet mee op.

Geef mij maar een standaard waarbij je altijd weet dat het werkt mits de kabel past en je OS de driver heeft (denk HDMI, alle vorige USB versies, DP etc).
Dan moet je ermee terug naar de fabrikant en het apparaat als DOA aanmelden
Nou een usb-c docking station moet voldoen aan een standaard want anders mag het zich zo niet noemen. Mijn ervaring met dell en Lenovo dockings stations is dat alles perfect werkt met verschillende merken BEHALVE de aan-knop. Ik heb dat eens nagekeken en blijkbaar moet de aan-knop niet aan eisen voldoen en werkt die bijgevolg enkel als docking en laptop hetzelfde merk zijn. Bijgevolg moeten veel mensen bij ons hun laptop open doen om hen aan te zetten en vervolgens weer dichtklappen want ze werken op een extern scherm |:(

Op dit item kan niet meer gereageerd worden.