Door Arnoud Engelfriet

ICT-jurist / Specialist internetrecht

Hoe de EU AI hoopt te reguleren

Ict-jurist Arnoud Engelfriet over de AI Act

21-04-2024 • 06:00

79

De AI Act: hoe de EU de nieuwste innovatie hoopt te reguleren

In het afgelopen half jaar is de AI Act een keer of twaalf aangenomen, doorgevoerd of akkoord bevonden. En juridisch gezien is de wet er nog niet; het Europese wetgevingsproces is bepaald ondoorzichtig. De vele berichtgeving over de wet onderstreept het belang van deze innovatieregulerende wet. Wat betekent de wet voor de praktijk, beginnend bij de belangrijkste vraag voor mensen die AI ontwikkelen of inzetten: val ik onder de AI Act met dit systeem?

Regulering van AI

De AI Act is als wet het sluitstuk van een proces dat al in 2018 is ingezet. De Europese Commissie identificeerde de opkomst van wat toen nog 'Big Data' heette als een belangrijk aandachtspunt. Omdat de regulering van zoiets nieuws nog knap ingewikkeld was, begon de Commissie met een iets 'zachtere' aanpak: een set ethische richtsnoeren door een expertgroep, de High-Level Expert Group. De richtsnoeren benoemen vier ethische beginselen voor AI:

1. Respect voor de menselijke autonomie: Menselijke autonomie en waardigheid zijn kernwaarden van menselijkheid, en mogen dus niet worden aangetast. Ook niet wanneer een algoritme of AI dat per ongeluk zou doen door automatische analyses of handelingen. Dit impliceert dat een AI altijd onder menselijke beheersing of toezicht moet werken.

2. Preventie van schade: Dit betreft zowel fysieke als mentale of sociale schade. Een AI mag dus geen fysiek gevaar veroorzaken, maar bijvoorbeeld ook niet de ongelijkheid tussen bevolkingsgroepen verhogen of consumenten nadeel bezorgen in hun interacties met bedrijven. Dit vertaalt zich naar eisen als non-discriminatie.

3. Rechtvaardigheid: De gelijke en rechtvaardige verdeling van zowel de voordelen als de kosten van AI. Ook moet er onder dit beginsel voor worden gezorgd dat personen en groepen vrij zijn van onrechtvaardige vertekening, discriminatie en stigmatisering. Een kernaspect hierbij is in beroep te kunnen gaan of bezwaar te kunnen maken tegen handelen van AI.

4. Verantwoording: Transparantie en kenbaarheid van het hoe en wat van een AI-systeem. Dit is een cruciale tegenkracht tegen wat vaak het 'black box'-gedrag van AI wordt genoemd, waarbij niet te achterhalen is hoe een systeem werkt of waarom bepaalde keuzes zijn gemaakt.

De richtsnoeren pleitten voor een wettelijk kader dat de ethische regels een stevig fundament moest geven. Dit was een uitdaging. Er is vaak gepleit voor een algemene wet op AI, maar het grote nadeel hiervan is dat AI vaak niet als zodanig wordt ingezet, maar als deel van een groter systeem. Een zorgrobot (carebot) die bejaarden verzorgt, roept heel andere vragen op dan een AI die belastingaangiftes controleert of een bezorgdrone die een verjaardagstaart veilig bij een bedrijf moet zien te krijgen.

Op 21 april 2021 introduceerde de Europese Commissie een conceptverordening 'tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie', kortweg de AI Act genoemd. De opzet was bijzonder: enerzijds probeert deze verordening alle vormen en al het gebruik van AI te reguleren, anderzijds wordt daarbij uitgegaan van de risico’s die de maatschappij loopt bij de inzet van AI. Dit sluit aan bij de bredere trend binnen de EU om op basis van risico’s te reguleren, zoals ook bij de AVG gebeurde.

Meerdere niveaus

De structuur van de voorgestelde AI Act bestaat uit drie niveaus. Op het hoogste niveau bevinden zich de onacceptabele AI's: de inzet daarvan is in strijd met fundamentele waarden in de EU, zoals bij socialcreditscoring of de inzet van subliminale technieken om mensen schade toe te brengen, bijvoorbeeld door te analyseren of iemand ongelukkig is en die persoon dan haarlemmerolieproducten aansmeren. Deze producten mogen niet worden gebruikt in de hele EU.

Het middenniveau betreft AI's met een hoog risico voor mensen bij hun ongecontroleerde inzet. Voorbeelden zijn biometrie in de openbare ruimte, beheer van de infrastructuur, selectie en werving van personeel, rechtshandhaving of grenscontroles. Dergelijke systemen zijn alleen toegelaten als ze aan strenge regels worden onderworpen, waaronder vooral een AI Impact Assessment om de risico’s vooraf in kaart te brengen, een gedocumenteerd ontwerp- en verbeterproces en transparantie over de manier van werken. Overige AI's worden beschouwd als laag risico en die mogen in principe hun gang gaan, al moeten ze transparant zijn dat ze AI zijn. Blijkt het dan toch mis te gaan, dan kan de Europese Commissie ze alsnog hoog-risico verklaren.

De AI Act zal worden aangevuld met een wijziging van de Richtlijn productaansprakelijkheid, die fouten gemaakt door AI in consumentenproducten op hetzelfde niveau schaart als ontploffende onderdelen of giftige stoffen daarin. Met deze laatste optie is een schadeclaim vanuit getroffen burgers direct mogelijk, met zelfs de optie tot een massaclaim bij lastig kwantificeerbare zaken als vooringenomenheid. Bij dergelijke claims staat een omdraaiing van de bewijslast in de steigers: de AI-exploitant moet aantonen dat de dataset wél eerlijk is ontworpen en dat maatregelen zijn genomen om bias te voorkomen.

Kunstmatige intelligentie en auteursrecht

Halverwege de behandeling van de wet gebeurde er iets bijzonders. ChatGPT, Midjourney en nog wat diensten groeiden als kool: de hype van generatieve AI was geboren. Deze diensten pasten niet goed in de systematiek van de AI Act, die uitging van AI verpakt in producten, of commercieel aangeboden diensten, die een specifiek doel dienden. Voorbeelden hiervan zijn biometrische toegangscontrole, autonome bezorgdrones, zelf inparkerende auto’s en smarthomes die verzinnen wanneer de markiezen dicht kunnen. Maar de AI die nu de markt veroverde, kon alles tegelijk en was tegelijkertijd voor niets echt specifiek ontworpen. Hoe moest dat nu in de wet worden opgenomen?

Wat niet meehielp, was dat al deze diensten uit Amerika kwamen, gratis werden weggegeven en weinig blijk gaven zich aan de ethische beginselen van de EU te houden. Het anti-Amerika-sentiment kan soms sterk zijn. Binnen enkele maanden was dan ook een heel hoofdstuk toegevoegd over de regulering van 'AI-modellen voor algemene doeleinden' (general purpose AI models). Kort gezegd komt die neer op transparantie van keuzes en beperkingen bij het ontwerp, en documenteren van beoogd gebruik en beperkingen zodat integratoren daar rekening mee kunnen houden.

Een definitie van AI

De focus van de AI Act ligt op systemen en toepassingen. De definitie van AI is dan ook geschreven als die van een systeem:

An AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content , recommendations, or decisions that can influence physical or virtual environments.

In eerdere versies werd in deze definitie nog verwezen naar gebruik van allerlei technieken, zoals neurale netwerken of expertsystemen. Dat is nu achterwege gelaten; waar het bij AI om gaat, is dat systemen autonoom beslissingen nemen. Het gebrek aan menselijke tussenkomst of toezicht is waar de risico’s door ontstaan en dus zijn systemen in principe AI wanneer ze autonoom opereren.

Inference, oftewel afleiding

In principe, want er is meer: de systemen moeten bepaalde doelen (objectives) gesteld zijn en zelfstandig achterhalen hoe daarbinnen uitvoer te genereren, zoals voorspellingen, content of aanbevelingen. De doelen kunnen expliciet zijn, zoals bij een ChatGPT-prompt, of implicieter, zoals bij een systeem dat objecten in beeld classificeert zonder precies te weten waarom. Overweging 6 van de AI Act legt uit: "The techniques that enable inference while building an AI system include machine learning approaches that learn from data how to achieve certain objectives; and logic- and knowledge-based approaches that infer from encoded knowledge or symbolic representation of the task to be solved." Het gaat er dus om dat het systeem zelfstandig afleidt wat er moet gebeuren.

Prompt engineering volgens ChatGPTEen chatbot voor klantenservice die natuurlijketaalverwerking gebruikt om vragen van klanten te begrijpen en passende antwoorden te genereren, valt bijvoorbeeld onder de definitie, omdat het autonoom opereert en zelfstandig uitvoer genereert, zoals antwoorden en aanbevelingen, binnen impliciete doelstellingen (de klant helpen). Hetzelfde geldt voor een systeem dat via machinelearning getraind is om medische beelden te analyseren om ziekten te diagnosticeren. Dit systeem genereert uitvoer op basis van zelf afgeleide regels, wat inherent is aan machinelearning. Het proces gebeurt autonoom; je drukt op de knop en krijgt de analyse. Dit is dus een AI-systeem, ook al is het autonoom handelen niet meer dan de behandelend arts wijzen op symptomen op het beeld.

Geen AI is bijvoorbeeld een 'slim irrigatiesysteem' dat de grondvochtigheid en omgevingstemperatuur meet en via een opgegeven formule autonoom bepaalt hoeveel water toegevoegd moet worden. Hoewel dit autonoom opereert, valt het niet onder de definitie, omdat er geen sprake is van 'afleiden' (inference) van hoe de uitvoer te maken op basis van invoer. De regels zijn vast: bij 20 graden en een grondvochtigheid van vijf procent wordt 0,2 liter water toegevoegd.

Twijfelachtig is een muziekstreamingdienst die nieuwe liedjes voorstelt op basis van luistergeschiedenis (metadata) en sonische kenmerken van andere muziek. Dit systeem handelt autonoom en doet aanbevelingen. Twijfelachtig is of sprake is van 'inference'. Het gebruik van sonische kenmerken (lied A lijkt op lied B) zou je kunnen zien als een vorm van afleiden van wat bij lied A past, maar of dat genoeg is? Is het slechts een oppervlakkige vergelijking of impliceert het een dieper begrip van muzikale voorkeuren?

Producten op de markt

De AI Act is gericht op producten en diensten; je valt er dus eigenlijk pas onder wanneer je die op de markt brengt. Dat kan ook bij een gratis dienst zijn, al dan niet advertentiegedreven, maar je moet het wel bedrijfsmatig doen. AI voor wetenschappelijk onderzoek en wetenschappelijke ontwikkeling is expliciet uitgezonderd, en even verderop bepaalt de Act nog een keer dat zij niet van toepassing is op 'onderzoeks-, test- of ontwikkelingsactiviteiten' zolang het nog niet gaat om producten of diensten die op de markt zijn. Software maken om te zien wat er kan en dat vervolgens vrijelijk weggeven, zou dus geen probleem moeten zijn.

De Nederlandse tekst spreekt van gratis licenties, maar dat betekent natuurlijk een vrije licentie.
Er is een tussenvorm die nieuwe vragen oproept: opensourcesoftware. De Nederlandse tekst van de AI Act spreekt van 'gratis en opensourcelicenties', maar bedoelt natuurlijk vrije en opensourcelicenties. Want open source gaat niet over prijs, maar over vrijheid: de mogelijkheid hebben dat je verder gaat met andermans werk. Veel onderzoekers gebruiken open source als basis voor hun werk of publiceren hun eigen programmeerwerk onder een opensourcelicentie, zoals de GPL, Mozilla Public License, BSD- of MIT-licentie.

De AI Act worstelt hier met een dilemma. Enerzijds is open source een zeer innovatief en succesvol model voor het ontwikkelen van software. Anderzijds zijn er veel bedrijven die bergen geld verdienen rond open source. Het zou al te gemakkelijk zijn als die bedrijven zich onder de AI Act uit konden worstelen enkel omdat hun software open source is. Daarom bepaalt de wet (artikel 2 lid 12) dat open source is uitgezonderd, tenzij deze een hoogrisicoproduct vormt, een verboden praktijk realiseert of direct interacteert met eindgebruikers (artikel 50).

In de praktijk zal het verschil vooral moeten blijken uit de positionering van de partij die aangesproken wordt. Bijdragen aan een opensourcecommunity zal niet leiden tot verantwoordelijk gehouden worden voor een AI Act-schending. Een bedrijf dat dienstverlening levert boven op opensourcesoftware, moet zich wel aan de AI Act houden. De meest logische toets lijkt mij te zijn of wat de partij doet, uniek is voor open source of dat de partij 'gewoon' open source in plaats van een commerciële leverancier gebruikt.

Geografische scope

Nu kunnen we de geografische scope van de AI Act beter duiden. Artikel 2 werkt in lid 1 zeven situaties uit waarin een entiteit onder de AI Act valt. De kern is zoals gezegd of je producten (of diensten) op de markt brengt in de EU, ongeacht waar je zelf gevestigd bent. 'Op de markt brengen' vereist meer dan enkel toegankelijk zijn vanuit de EU. Dit principe kennen we van de AVG en uit het consumentenrecht: je moet je richten op de EU, bijvoorbeeld door betaling in euro's mogelijk te maken, expliciet te vermelden dat je in de hele EU levert of een helpdesk in vijf Europese talen aan te bieden.

AVG boetes

Er staat nog een bijzondere in: als de uitvoer van een AI wordt gebruikt in de EU, valt dat ook onder de AI Act. Dit is bedoeld tegen loopholes. Wanneer een leverancier of afnemer zelf buiten de EU gevestigd is, maar de uitvoer van de AI in de EU gebruikt wordt, dan is de AI Act alsnog van toepassing. Een Nederlands bedrijf zou klantdata naar een organisatie in India kunnen sturen om klantretentievoorspellingen ('churn') te doen en de resultaten gebruiken om gerichte marketing te doen. De AI wordt dan in India ingezet, maar omdat de uitvoer in de EU wordt gebruikt, vallen beide bedrijven onder de AI Act.

De risicoanalyse voor AI-systemen

Goed, we vallen onder de AI Act. Laten we even aannemen dat we geen gpai zijn, maar een ‘gewoon’ AI systeem met een specifiek doel, oftewel een use case in het jargon. Daarbij kunnen zich concretere risico’s voordoen, en dat is waar de AI Act op gericht is. De AI Act kent daarbij drie risiconiveaus: onacceptabel, hoog en laag.

Verboden AI

Een AI is onacceptabel als deze in strijd handelt met Europese fundamentele normen en waarden, en mag dan niet op de Europese markt worden ingezet. Een voorbeeld is predictive policing: AI laten voorspellen of iemand crimineel gedrag zal gaan vertonen. Maar ook emotieherkenning op de werkplek staat op de 'verboden' lijst van artikel 5. Dit is vanwege de grote kans op verkeerde uitkomsten en discriminatie.

Over biometrie is altijd veel discussie geweest.
Biometrie ligt complexer. Over dit onderwerp is veel politieke discussie geweest, omdat biometrische herkenning gekoppeld aan handelen door AI als zeer riskant wordt gezien. Zie bijvoorbeeld wat Bits of Freedom over dit onderwerp zegt. Uiteindelijk is er uitsluitend een strikt verbod opgenomen op biometrische analyse om bijzondere persoonsgegevens, zoals etnische afkomst, politieke voorkeur, religie of seksuele gerichtheid, te achterhalen. Er is ook een verbod op realtimebiometrie op afstand voor politiediensten, maar dat kan worden gepasseerd bij specifieke zoektochten naar vermiste personen of slachtoffers van mensenhandel, het handelen bij een directe bedreiging of het zoeken naar een verdachte van een ernstig misdrijf.

Laag en hoog risico

Tegenover de verboden AI staat de laagrisico-AI: denk aan chatbots bij webwinkels of simpele plaatjesgeneratoren. Deze moeten transparant zijn over hun status als AI en mogen niet betrokken zijn bij besluitvorming, maar krijgen verder geen verplichtingen. Nou ja, er is één verplichting: generatieve AI die 'synthetische' tekst, afbeeldingen, audio of video maakt, moet deze markeren:

Providers of AI systems, including gpai systems, generating synthetic audio, image, video or text content, shall ensure the outputs of the AI system are marked in a machinereadable format and detectable as artificially generated or manipulated.

Bij dergelijke markeringen moet je denken aan al dan niet zichtbare watermerken. Deze zijn nu nog niet echt in gebruik en het is de vraag hoe effectief dit werkelijk gaat zijn. Maar gezien de enorme vlucht die deepfakes en nepnieuws op basis van AI ondertussen genomen heeft, is dit zeker een stap in de goede richting.

De meeste eisen gaan gelden voor AI-systemen die een hoog risico vormen voor de gezondheid, veiligheid, grondrechten of het milieu. Zo moet duidelijk zijn waar de data vandaan komt waarmee de AI is getraind, is menselijk toezicht vereist en moet de technische documentatie op orde zijn. Het afhandelen van verzekeringsclaims, bepaalde medische hulpmiddelen en algoritmes die sollicitanten beoordelen zijn voorbeelden van hoogrisico-AI.

Bepaling hoogrisicostatus

De AI Act heeft meerdere manieren om te bepalen of een systeem een hoog risico heeft.De AI Act kent een driestappentoets om te bepalen of een systeem hoog risico is. De eerste stap is de vraag of het systeem een veiligheidscomponent is van een bij de wet gereguleerd product. In een bijlage (bijlage I) van de AI Act staan alle betreffende richtlijnen en verordeningen genoemd. Een AI die bepaalt of de lift dicht moet, is bijvoorbeeld hierom hoog risico; liften zijn gereguleerd en de deur dicht doen is een veiligheidscomponent. Een leuk liedje kiezen voor de passagiers, is dan weer geen veiligheidscomponent.

Als de toepassing geen veiligheidscomponent is van zo’n gereguleerde technologie of gereguleerd product, komen we bij een ingewikkelde afweging: de risicolijst van bijlage III. Deze noemt acht categorieën en omschrijft daarbinnen een aantal specifieke toepassingen die als hoog risico worden gezien. De belangrijkste categorieën zijn de fysieke veiligheid van kritieke infrastructuur, toegang tot onderwijs, recruitment, toegang tot publieke diensten en verzekeringsrisicoassessments. Maar let op: niet alle inzet van AI in onderwijs is dus hoog risico; het gaat om de onder dit kopje genoemde specifieke toepassingen.

Toepassingen die niet op de lijst staan, zijn dus per definitie géén hoog risico, ook al zouden er enorme risico’s denkbaar zijn. De Europese Commissie mag toepassingen toevoegen aan de lijst, maar dat moet duidelijk gemotiveerd worden en gebeuren via een speciale procedure waarbij onder meer het raadplegen van vooraf geselecteerde AI-experts hoort.

Een paar voorbeelden van toepassingen die wel of niet hoog risico zijn:

  1. Een AI screent essays van studenten die toegang willen tot een master voor excellente studenten. Dit valt onder toegang tot onderwijs, specifiek onder de toepassing 'determine access or admission or to assign natural persons to educational and vocational training institutions'. Daarom is de toepassing hoog risico.

  2. Een AI screent essays van studenten op plagiaat. Hoewel dit onder toegang tot onderwijs valt, is deze specifieke toepassing binnen dat onderwerp niet genoemd en is dus geen hoog risico.

  3. Een AI evalueert afval dat in een ondergrondse container wordt geplaatst en geeft boetes wanneer het afval in een andere container had gemoeten. Dit betreft weliswaar toegang tot publieke diensten, maar de specifieke toepassing is te beperkt geformuleerd. De tekst daarvan is immers: 'evaluate the eligibility of natural persons for essential public assistance benefits and services, including healthcare services, as well as to grant, reduce, revoke, or reclaim such benefits and services.' Hoewel afval een 'essential service' is, wordt deze dienst niet geweigerd.

Uitzonderingen

Valt een toepassing binnen een genoemd toepassingsgebied, dan is de toepassing in principe AI. Er zijn echter vier uitzonderingen toegevoegd, die maken dat een AI in zo’n risicogebied toch weer geen hoog risico bevat. Als aan een van deze vier voorwaarden is voldaan (de derde stap), dan is de AI kort gezegd slechts een randzaak en is het gerechtvaardigd dat deze buiten de zware regels valt.

De vier uitzonderingen zijn:

  1. De AI voert slechts een beperkte, specifieke procedurele taak uit. Denk aan het structureren van een vragenlijst, het categoriseren van binnenkomende data of het herkennen van duplicaten bij inzendingen.

  2. De AI verhoogt alleen de kwaliteit van het werk, zoals door aantekeningen op te werken tot een formele brief, vergelijkbare gevallen aan te dragen of de leesbaarheid te verbeteren.

  3. De AI detecteert afwijkingen van gebruikelijke 'beslispatronen', zoals het signaleren dat in dit soort zaken meestal A wordt besloten en dat nu ineens B gekozen is, waarna de mens een dubbelcheck kan uitvoeren.

  4. De AI verricht alleen een voorbereidende taak, zoals procesbegeleiding bij een intake, het analyseren of opschonen van teksten, het vertalen van invoer, suggesties toevoegen of de kwaliteit van invoer controleren. Ook een AI die tekstsuggesties doet bij het schrijven van een beslissing, valt binnen deze uitzondering.

Hierbij moet dan nog worden opgemerkt dat wanneer je AI-systeem een vorm van profileren van mensen toepast, je je niet op deze uitzonderingen mag beroepen. De Europese Commissie heeft de taak gekregen om een lijst met voorbeelden te maken van AI-systemen die wel of niet een hoog risico zijn en de reden(en) waarom dat het geval is. Ik wacht dat vooralsnog niet af.

Verplichtingen voor hoogrisico-AI

De AI Act benoemt in Afdeling 2 acht aspecten waar hoogrisicosystemen aan moeten voldoen:

  1. Artikel 8: Raamwerk voor compliance

  2. Artikel 9: Systeem voor risicobeheer

  3. Artikel 10: Privacy en data governance

  4. Artikel 11: Documentatie

  5. Artikel 12: Registratie en logging

  6. Artikel 13: Transparantie naar gebruikers toe

  7. Artikel 14: Menselijk toezicht

  8. Artikel 15: Betrouwbaarheid en veiligheid

Ik licht er een even uit: datagovernance. Veel zorgen over AI gaan over het onderwerp 'bias' of vooringenomenheid, waarbij AI-systemen besluiten nemen over mensen of handelen tegen mensen waarbij onderscheid wordt gemaakt op ongepaste kenmerken zoals etnische afkomst. Maar er kunnen zich veel meer dingen voordoen die te herleiden zijn tot problemen met de data waarmee AI-systemen worden getraind.

Datasets voor training, validatie en tests op hoogrisico-AI moeten voldoen aan bepaalde kwaliteitscriteria, aldus artikel 10. De wet kent geen harde testcriteria, maar houdt het bij 'stroken met het beoogde doel van het AI-systeem met een hoog risico'. Specifieker: je data moet 'voldoende representatief, en zoveel mogelijk foutenvrij en volledig met het oog op het beoogde doel' zijn, en bovendien de 'passende statistische kenmerken' hebben. Er zijn helaas nog geen keurmerken waarmee je snel kunt zien of een openbare dataset hieraan voldoet.

Eindejaars AI 2023 2024

Het opsporen van bias is een lastige, omdat de AVG verwerking van de hiervoor benodigde bijzondere persoonsgegevens verbiedt. De AI Act doet iets bijzonders: die schept een rechtsgrond om dat wél te mogen doen, mits strikt noodzakelijk om opsporing en correctie van bias te waarborgen. De hoogste waarborgen tegen misbruik zijn dan nodig en er moet aangetoond worden dat er geen andere optie is.

De risico’s van algemeen inzetbare AI

De bovenstaande analyse is bedoeld voor systemen met een specifiek doel. AI voor algemene doeleinden, aangeduid als general-purpose AI, ofwel gpai, heeft dat niet en wordt dus apart geregeld. Van gpai is sprake bij 'een AI-model dat een aanzienlijk algemeen karakter vertoont en in staat is op competente wijze een breed scala aan verschillende taken uit te voeren'. Wie nu denkt dat dat een tikje vaag klinkt: klopt.

Bekende gpai's zijn de grote taalmodellen zoals GPT-4 (van OpenAI) en BERT (van Google), maar ook beeldgeneratiesystemen zoals DALL-E (wederom OpenAI) en Stable Diffusion (de technologie achter Midjourney) voldoen aan deze definitie. De stormachtige opkomst van vooral de AI-systemen ChatGPT en Midjourney heeft ervoor gezorgd dat hier een aparte sectie in de AI Act voor ingericht werd. Dat gaf dan weer heftige onderhandelingen, omdat ook de Europese markt de nodige gpai-providers kent, zoals het Franse Mistral dat naar verluidt zware druk op haar regering zou hebben uitgeoefend om deze sectie af te zwakken. Vervolgens sprongen ze met Microsoft in bed, maar dat is weer een ander verhaal.

Dall-E 3 in ChatGPT

De AI Act kent een apart hoofdstuk voor gpai. De basisregels zijn kort en simpel: transparant zijn, synthetische uitvoer voorzien van markering (een onzichtbaar en niet te slopen watermerk) en een trits aan technische documentatie verschaffen waaronder een overzicht van de brondata; auteursrechthebbenden lopen zich al warm. De meeste van deze verplichtingen gelden overigens dan weer niet als je gpai open source is, inclusief de trainingsparameters.

Extra regels gaan gelden als je gpai 'systeemrisico's' kent. Dit is het geval als het systeem een cumulatieve hoeveelheid rekenkracht gebruikt voor zijn training, gemeten in floatingpointoperaties, ofwel flops, die groter is dan 1025. De huidige top van gpai zit rond de 1024 flops, zodat er momenteel geen gpai's zijn die daadwerkelijk als systeemrisico worden aangemerkt. De Commissie heeft echter de bevoegdheid om ook los van de hoeveelheid flops een gpai als systeemrisico aan te merken, als zij daarbij bepaalde criteria gebruikt. Dit is een van de manieren waarop de weerstand uit de AI-industrie is meegenomen: die criteria moeten nader worden uitgewerkt en daarbij zal inspraak uit diezelfde industrie zwaar wegen.

Maar wat zijn dan 'systemische risico’s of systeemrisico's? Kort gezegd komt het neer op grootschalige verstoringen of schade aan basisprocessen of -behoeftes uit de maatschappij. Een autonome auto die bij winterweer massaal botst omdat de AI niet om kan gaan met sneeuw, zou een voorbeeld zijn, maar ook AI die eenvoudig ingezet kan worden om verkiezingen te manipuleren of onherkenbare fake news kan genereren kan als dergelijke risicocategorie worden aangemerkt. Een systeem dat als zodanig aangemerkt is, mag op de markt blijven, maar zal door de EU van duidelijke waarschuwingen worden voorzien.

Wanneer wordt de AI Act van kracht?

Wanneer de AI Act van kracht wordt, is nog niet zo simpel te zeggen.Dan moeten we nog even kijken naar het tijdspad van inwerkingtreding. Dit is nogal complex. De hoofdregel is simpel: 20 dagen nadat de wet in het Official Journal van de EU is gepubliceerd, wordt deze van kracht. Het streven is om ergens in mei dit jaar die publicatie te doen. Daarna treden de diverse bepalingen getrapt in werking. Het verbod op de onacceptabele AI zal zes maanden later, oftewel in oktober, van kracht worden, en dergelijke systemen moeten dus dan van de markt zijn.

Over een jaar moeten de zogeheten notifying authorities aangewezen zijn, die de conformiteitsassessment van hoogrisico-AI gaan uitvoeren. Deze moeten dan ook de procedures klaar hebben om dergelijke AI, die meestal in producten met een CE-logo zit, te kunnen evalueren, dus dat wordt nog krap. Ook gaan over een jaar de regels voor gpai gelden, omdat ontwikkelaars van AI-systemen vaak rekenen op gpai als basis en dus moeten weten welke zij kunnen bouwen.

Over twee jaar wordt vrijwel de gehele AI Act van kracht. De opmerkelijkste uitzondering is artikel 6 lid 1; dit zijn AI-systemen die een hoog risico zijn omdat ze een veiligheidstoepassing zijn van een gereguleerd product (stap 1 uit de driestappentoets hierboven). De fabrikanten hiervan hebben meer tijd nodig en krijgen van de wetgever een jaar extra. En nog later (2031!) moeten bepaalde genoemde legacysystemen van de overheid, zoals voor grensbewaking, eindelijk aan de AI Act voldoen.

Regulering van innovatie

Als laatste onderwerp rest nog de vraag waarom. Was het echt nodig om met zo’n reeks regels te komen om iets nieuws aan banden te leggen? Dat regels innovatie hinderen, is een vrij algemeen bekend principe. Tegelijkertijd hebben we in de ict-sector vaak genoeg gezien dat ongebreidelde innovatie ook veel dingen stukmaakt, en niet alleen de vervelende. We hebben enorme techmonopolies, het open en vrije internet is verworden tot één grote privacyslurpende reclamezuil en het idee van wetten en regels is vervangen door bergen terms of service die niemand leest en waaraan niemand zich houdt. Misschien is het dan juist goed om de laatste stap op dit gebied met iets meer toezicht te laten gebeuren?

Reacties (79)

79
79
29
4
0
47
Wijzig sortering

Sorteer op:

Weergave:

Dank voor deze samenvatting, die ik met veel plezier gelezen heb.

Ik blijf echter sceptisch over de toekomstige impact van deze complexe wetgeving omdat ik verwacht dat het uiteindelijk enkel in het nadeel van de EU zal uitpakken. De rest van de wereld, met de VS voorop, zullen zich hier waarschijnlijk niet door laten weerhouden om “verder” te gaan, d.w.z. voorbij de hier opgeworpen barrières. Eenvoudig omdat de EU weinig tot niets voorstelt op AI gebied. Zie hiervoor bv. ook de volgende publicatie uit The Economist van september vorig jaar:
https://www.economist.com...ds-digital-uber-regulator
Dan heb je het wel over mensen en wetgeving die niet in wil zien hoeveel schade de social media al hebben aangericht. En AI in de handen van dat volk zal dezelfde uitwerking hebben, alleen dan in 3 tot 5 jaar waar social media 15 jaar voor nodig had.

Social media is echter niet weg, dus in het beste geval mag je de schadelijke bijwerkingen van AI en SM bij elkaar optellen. Zelf verwacht ik dat het eerder een vermenigvuldiging zal zijn.

Laten we dan maar hopen dat Europa slim genoeg is om zich af te sluiten voor de brabbelende onzinspuwers en iets goeds van de grond af aan opbouwt, wat dan weer een voorbeeld zal zijn voor de rest van de wereld, welke door veel schade en schande wel inziet dat vrij markt zonder regulering niet werkt zolang er management in bedrijven zit waarvoor winst maken het enige is wat er bestaat.

Dat volk is nogal vol van zichzelf en meent dat ze alles beter kunnen. Het enige wat ze goed hebben gedaan is een beslissing genomen welke toevallig goed uitpakte. Of 1 van hun voorvaderen, want van de huidige lichting heb ik helemaal geen hoge pet op.
Dat volk is nogal vol van zichzelf en meent dat ze alles beter kunnen.
Ik denk dat als/zodra ze doorhebben dat hun gebrek aan dit soort regelgeving zwaar aan de poten van hun democratische-, communie- en vrijhedelijke waarden aan het zagen is, ze er ook wel mee komen.

Voor wie dit een onbegrijpelijke opmerking is, zou ik willen uitnodigen, onder andere, het volgende boek eens te lezen:
https://tweakers.net/geek...j-daar-nee-op-zeggen.html
Tevens zou ik een betoog willen schrijven over de biopsychosociale mens, maar dat is mogelijkerwijs weer gigantisch offtopic.
Politieke bias is idd waarom Social Media een boel heeft kapotgemaakt. Censuur is nooit het antwoord.
Er zijn twee redenen waarom je denkt dat AI niets voorstelt in de EU:
  • Amerikaanse bedrijven willen dat jij denkt dat zij de enige zijn, ze moeten tenslotte ook hun investeerders tevreden stellen.
  • Europese onderzoekers willen graag meer geld ontvangen en brengen het ‘straks lopen we achter, geef ons snel meer geld’ riedeltje veel te graag naar voren.
Er is hier zowel internationaal leidend onderzoek aan de universiteiten als dat de Amerikaanse bedrijven hier heel succesvolle onderzoeksafdelingen hebben (van de big five weet ik alleen van Apple niet of ze hier groot zijn, ze hebben wel ook onderzoek in de UK).

Het is wel zo dat hier minder startups zijn en het moeilijker is te groeien. Er is hier minder ongebreideld kapitalisme. De vraag is of we onze rechten in de prullenbak willen smijten om onszelf ‘competitiever’ te maken.

Als wetenschapper in de AI heb ik daar een simpel antwoord op: we zijn hier gelukkiger, gezonder, hebben een beter functionerende democratie, etc., vanwege die hardbevochten rechten. Er is nul reden om het grootkapitaal nog meer zijn gang te laten gaan, daar we op de korte termijn slechter van en op de lange termijn al helemaal.
Volgens mij ben je veel te optimistisch over de staat van AI in de EU.
we zijn hier gelukkiger, gezonder, hebben een beter functionerende democratie, etc., vanwege die hardbevochten rechten.
Ik ben het helemaal met je eens dat dit prachtige dingen zijn. Het zijn misschien inderdaad ook redenen om de kans tot een sterke AI industrie in de EU ons voorbij te laten gaan, maar ik vind het enorm naïef om te stellen dat we er als EU niets voor inleveren.
Er zijn twee redenen waarom je denkt dat AI niets voorstelt in de EU
De EU heeft:
  • Geen big tech fundering om op door te bouwen.
  • Een achterstand op alle data.
  • Flinke beperkingen op openbare data.
  • Flinke beperkingen op interne data.
  • Als het tekst/spraak/documenten aanraakt: een minuscule hoeveelheid data(sets) voor de bijbehorende taal.
  • Samen investeringen in AI die ongeveer even groot als de UK zijn, nog geen tiende van de US, minder dan de helft van China.
  • Veel regels, heel veel regels, waarvoor de jurisprudentie de komende jaren nog moet komen.
  • Deelt gigantische boetes uit als de jurisprudentie wel komt en anders oordeelt dan het bedrijf had verwacht.
  • Hoge stroomprijs plus aversie tegenover datacentra, wat samen zorgt voor weinig beschikbare rekenkracht.
  • Bijna geen grote investeringen in startups.
  • Bijzonder lage salarissen (en hoge belasting daarvan) in vergelijking met de internationale markt voor het benodigde talent.
Amerikaanse bedrijven hier heel succesvolle onderzoeksafdelingen hebben
Dat Azure ook datacentra in Europa heeft staan maakt de US niet minder dominant in de techniek. Het blijven Amerikaans bedrijven die daarmee de geopolitieke invloed van Amerika enorm vergroten. Het zegt toch juist iets dat er zoveel voorbeelden zijn (zoals Yann LeCun of Huggingface) van dingen die in Europa zijn begonnen, maar dat ze om iets te bereiken het in het buitenland moesten zoeken?

[Reactie gewijzigd door MarkHart op 22 juli 2024 13:55]

Verder gaan impliceerd in deze, naar mijn optiek, maatschappelijk zwaar de bocht uit vliegen.

Wat betreft verder gaan kwa ontwikkeling van de techniek; er staat in het artikel dat deze beperkingen niet gelden binnen de muren van de ontwikkeling van de techniek zelf; louter het uitrollen ervan.
Het probleem is dat met afstand de meeste ontwikkelingen in machine learning niet uit de academische hoek komen. Beperkingen aan het uitrollen is daarmee een beperking aan de (ontwikkeling van) de techniek.
Men zal geen winst kunnen maken met criminele zaken, maar dat betekend niet dat het crimineel is om winst te maken met producten/diensten die goed uitpakken voor de mens.
Ik blijf echter sceptisch over de toekomstige impact van deze complexe wetgeving omdat ik verwacht dat het uiteindelijk enkel in het nadeel van de EU zal uitpakken. De rest van de wereld, met de VS voorop, zullen zich hier waarschijnlijk niet door laten weerhouden om “verder” te gaan, d.w.z. voorbij de hier opgeworpen barrières.
Men zei dat ooit over de GDPR. Dat is zoveel meer onnodig werk. Veels te moeilijk voor bedrijven. Die jaag je weg. Die laten de EU links liggen...

Ondertussen heeft het Brussels Effect toegeslagen, en spelen bedrijven netjes mee. En als ze dat niet doen? Good riddance.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:55]

Bedankt voor het schrijven!
maar je moet het wel bedrijfsmatig doen. [...] Software maken om te zien wat er kan en dat vervolgens vrijelijk weggeven, zou dus geen probleem moeten zijn.
Uit 3(10): "‘distributor’ means any natural or legal person in the supply chain, other than the
provider or the importer, that makes an AI system available on the Union market;" maak ik op dat het juist expliciet geen bedrijf hoeft te zijn. Wetenschappelijk onderzoek en daarna de source/gewichten publiceren is ook volgens mij juist expliciet verboden, het wetenschappelijk onderzoek zelf alleen niet.
Geen AI is bijvoorbeeld een 'slim irrigatiesysteem' dat de grondvochtigheid en omgevingstemperatuur meet en via een opgegeven formule autonoom bepaalt hoeveel water toegevoegd moet worden. Hoewel dit autonoom opereert, valt het niet onder de definitie, omdat er geen sprake is van 'afleiden' (inference) van hoe de uitvoer te maken op basis van invoer. De regels zijn vast: bij 20 graden en een grondvochtigheid van vijf procent wordt 0,2 liter water toegevoegd.
Zelfs dit lijkt me niet zo zeker, er moet basis statistiek gedaan zijn om deze grenswaarden te een te onderbouwen. Dat de statistiek buiten het programmeren, maar in een los paper gedaan is lijkt me geen excuus. Veel van de probleem "AI", zoals de toeslagenaffaire, is ook niet meer dan een handvol van dit soort regels combineren.
Datasets voor training, validatie en tests op hoogrisico-AI moeten voldoen aan bepaalde kwaliteitscriteria
Volgens mij is dit een gigantisch probleem van de Act. Ik ben heel sterk van mening dat kwaliteitscriteria aan het model gesteld moeten worden, niet aan de data. Een weloverwogen keuze voor slechte kwaliteit data kan het model juist enorm verbeteren.
Uit ... maak ik op dat het juist expliciet geen bedrijf hoeft te zijn. Wetenschappelijk onderzoek en daarna de source/gewichten publiceren is ook volgens mij juist expliciet verboden, het wetenschappelijk onderzoek zelf alleen niet.
Een bedrijf (als in: bv, nv) hoeft niet, een stichting kan ook aan het handelsverkeer deelnemen. Maar er moet wel een aspect van handel, ondernemen in zitten. Een stichting die in het algemeen belang handelt, geen winst nastreeft (wat zou mogen, alleen winst uitkeren aan bestuur is verboden) en modellen, broncode en gewichten publiceert onder een CC licentie valt buiten de AI Act. Dit valt binnen artikel 2 lid 6:
Deze verordening is niet van toepassing op AI-systemen of AI-modellen, met inbegrip
van hun output, die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk
onderzoek en wetenschappelijke ontwikkeling als enig doel.
Probleem is natuurlijk dat er geen definitie is van 'wetenschappelijk' in enig Europees wetgevend document. Zelfs het Handvest werkt dit niet uit.

Daarnaast is er lid 8:
Deze verordening is niet van toepassing op onderzoeks-, test- of ontwikkelingsactiviteiten
met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of
in gebruik worden gesteld.
Dit komt weer terug bij waar ik mee opende: is hier sprake van handelsverkeer, van commercie, van zakendoen. Doe je dat niet, dan val je erbuiten.
Zelfs dit lijkt me niet zo zeker, er moet basis statistiek gedaan zijn om deze grenswaarden te een te onderbouwen. Dat de statistiek buiten het programmeren, maar in een los paper gedaan is lijkt me geen excuus.
Voor mij wel; de kern van de definitie is dat het systeem "voor expliciete of impliciete doelstellingen,
uit de ontvangen input afleidt hoe output te genereren". Het systeem, het kastje, de dienst moet dus afleiden welke uitvoer nodig is. Een getraind neuraal net voldoet daaraan. Dit volgens mij niet:
MOV R1, 20
MOV R2, 5
CMP R1, 20
JNE END
CMP R2, 5
JNE END

Eens dat hiermee een gat ontstaat waarbij je in het lab een neuraal netwerk traint, daaruit een enorme hardcoded beslisboom extraheert en die integraal in je apparaat stopt. Dat apparaat loopt die boom langs en leidt dus niets af.

De toeslagenaffaire was bewust kwaadaardig menselijk handelen en heeft niets met AI te maken. "SELECT * FROM citizens WHERE lastname like "% el %" valt buiten de AI Act.

Welke soort kwaliteitscriteria zou jij aan het model stellen?
Dit valt binnen artikel 2 lid 6
Ah, dat is aangepast tov de januari versie die ik op mijn PC had staan. Ik wist niet dat ik achter liep.
Voor mij wel; de kern van de definitie is dat het systeem "voor expliciete of impliciete doelstellingen,
uit de ontvangen input afleidt hoe output te genereren". Het systeem, het kastje, de dienst moet dus afleiden welke uitvoer nodig is. Een getraind neuraal net voldoet daaraan. Dit volgens mij niet:
De input van de sensoren, of anders gebruikers, is essentieel voor ieder programma. Het waren specifiek de 3 genoemde "magic" numbers (plus de selectie van deze 3) die volgens mij eigenlijk gewoon door statistiek of trial-en-error komen, waarmee de lijn tussen dat en AI bijzonder blurry is.
Eens dat hiermee een gat ontstaat waarbij je in het lab een neuraal netwerk traint, daaruit een enorme hardcoded beslisboom extraheert en die integraal in je apparaat stopt. Dat apparaat loopt die boom langs en leidt dus niets af.
Ik deel nu ook geen code (maar alleen de gewichten) tussen trainen en productie. Die laatste zin is in zekere mate ook direct toepasbaar op de grootste en modernste AI die alleen een aantal matrixvermenigvuldingen doet.
De toeslagenaffaire was bewust kwaadaardig menselijk handelen en heeft niets met AI te maken.
Ben ik helemaal met je eens, maar toch is dat vaak het voorbeeld dat aangehaald wordt voor problematische AI.
Welke soort kwaliteitscriteria zou jij aan het model stellen?
Deze zou heel sterk verschillen per model/geval en in alle gevallen een uitdaging. Uiteindelijk is de kwaliteit van een model meten, waarborgen en verbeteren natuurlijk letterlijk de hele baanomschrijving, daar gaat een Act niks aan veranderen.

Ik zou zeggen dat er bij ieder project een testset gemaakt moet worden dat apart gehouden wordt en waarmee de bias gemeten kan worden. Het stomme is dat deze per definitie (bijzondere) persoonsgegevens moet bevatten. Voor het bepalen van de bias in al je data zou je dit eigenlijk voor al je data moeten doen. Of als je dingen automatisch wilt categoriseren voor het bepalen van deze bias, dan ben je ben je hier een classifier voor aan het ontwikkelen, waar ik me ook liever niet aan wil branden. Bijzonder vaak gaat deze bias om minderheden, dus al gaat het meten van de bias perfect, dan heb je daar nog steeds per definitie minder data voor.

Op ethisch vlak moet volgens mij nog een aantal dingen bepaald worden: Hoe gaan we om met het toevoegen van data die "de score" voor categorie A en B beter maakt, maar het verschil in score tussen beide vergroot? Hoe groot mag het verschil worden? Hoeveel categorieën die we willen controleren zijn er in het echte leven? Hoe gaan we om met combinaties van deze categorieën? Wat is de balans tussen privacy en zekerheid over deze scores?

Als bedrijf zou ik in ieder geval enorm afwachten wat er uiteindelijk verwacht wordt. Als je kan aantonen dat je zoveel procent van je personeel op deze uitdaging gezet hebt dan zal je wel veilig zitten?? (Duidelijk geen jurist hier, haha)

Als overheid zou ik asap met duidelijke richtlijnen proberen te komen. Een zo kort, maar zo duidelijk mogelijk voorbeeldrapport Aangezien het meten van de kwaliteit de hele baan al is, misschien een soort peer review systeem tussen bedrijven?

Als big tech zou ik alle ontwikkeling buiten de EU trekken en daarna in de EU alleen nog met synthetische data en afgeleide modellen werken. Het gaat ten koste van de kwaliteit, kost een bak met geld, voegt voor de globale ontwikkeling niks toe, maar je kan wel duidelijk aantonen hoe je je trainingsdata gesampled hebt.
De (naar verwachting) finale tekst: https://www.europarl.euro...024-0138-FNL-COR01_NL.pdf
De input van de sensoren, of anders gebruikers, is essentieel voor ieder programma. Het waren specifiek de 3 genoemde "magic" numbers (plus de selectie van deze 3) die volgens mij eigenlijk gewoon door statistiek of trial-en-error komen, waarmee de lijn tussen dat en AI bijzonder blurry is.
Ik zie wat je bedoelt. De definitie is gericht op systemen die zelf met statistische trial-and-error tot beslisregels komen en die dan autonoom gaan lopen uitvoeren. Een magic number is geen statistische trial-and-error, dat is een extern gegeven getal.
Ik zou zeggen dat er bij ieder project een testset gemaakt moet worden dat apart gehouden wordt en waarmee de bias gemeten kan worden.
Is wettelijk geregeld, artikel 10 lid 2: "Datasets voor training, validatie en tests worden onderworpen aan praktijken op het gebied van databeheer die stroken met het beoogde doel van het AI-systeem met een hoog risico".
Het stomme is dat deze per definitie (bijzondere) persoonsgegevens moet bevatten. Voor het bepalen van de bias in al je data zou je dit eigenlijk voor al je data moeten doen.
Is toegestaan, artikel 10 lid 5: "Voor zover dit strikt noodzakelijk is om de ▌opsporing en correctie van vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico overeenkomstig lid 2,
punten f) en g), van dit artikel, mogen de aanbieders van dergelijke systemen uitzonderlijk bijzondere categorieën persoonsgegevens ▌verwerken (...)".

Ik zou ook niet weten wanneer een dataset "in orde" is. Als deze exact de bias reflecteert die er nu ook is, zou je zeggen dat dat prima is (want hij simuleert het huidige procede) maar toch zou niemand accepteren dat een systeem wordt opgeleverd dat categorisch alleenstaande moeders die kapper zijn als fraudeur aanmeldt (https://www.gelderlander....de-met-bijstand~a099ea22/).

In het geheel geen bias is natuurlijk leuk gezegd, maar daar zal te weinig data voor zijn.

Je kunt ontwikkeling buiten de EU doen, maar op het moment dat je systeem de markt betreedt, moet het als nog AIA compliant zijn en daar moet je met onbeperkte aansprakelijkheid voor durven gaan staan (CE keurmerk). Dus kom maar door met je testrapporteren.
Ik betwijfel of kwaliteit in de context van die verordening en kwaliteit in context van het probleem domein hetzelfde zijn. De eerste zal voornamelijk gaan over zaken als aantonen dat er geen bias in het model kan komen doordat er een bias in de dataset zit.
Het tweede kan ook zijn dat je bewust incorrecte data voert aan een model, bijv. 1 voor analyse van beleidsteksten waar je ook bewust social media posts aan voert. Kwaliteit in context van het probleemdomein is dan laag, maar in de context van de verordening mogelijk niet.
De eerste zal voornamelijk gaan over zaken als aantonen dat er geen bias in het model kan komen doordat er een bias in de dataset zit.
Maar ook die is nu expliciet verwoord als aantonen dat er geen bias in de dataset zit.
Het tweede kan ook zijn dat je bewust incorrecte data voert aan een model, bijv. 1 voor analyse van beleidsteksten waar je ook bewust social media posts aan voert. Kwaliteit in context van het probleemdomein is dan laag, maar in de context van de verordening mogelijk niet.
De wet zegt zelf: "the best extent possible free of errors", dus ook deze weet ik niet zo zeker.
Ja, maar wat is een "error". In het probleemdomein foutieve data kan nog steeds van voldoende kwaliteit zijn. Zoals ik het lees moet je alleen aantonen dat het ook zo is. Dus bijv. dat de incorrecte data bewust is ingebracht en dat het algoritme op een dusdanige manier werkt dat het bevorderlijk is voor de uiteindelijke uitkomst én dat het uiteindelijke model vrij is van bias en die andere eisen die er aan gesteld worden.

Maar we zullen de jurisprudentie wel moeten afwachten

[Reactie gewijzigd door Caelorum op 22 juli 2024 13:55]

Arnoud, allereerst wat een onwijs sterk artikel. Verplicht leesvoer voor zakelijk NL, want je legt het onwijs mooi uit. Blij dat we dit in de EU zo aanpakken.

Nou ben ik zelf heel benieuwd waar je zelf vindt dat de regulering nog te kort komt, waar risico's zitten en wat je met jouw pet wellicht anders zou hebben gedaan. En wellicht nog mooier: welke tips heb je voor mensen en bedrijven die AI inzetten of ontwikkelen? Waar kan men nu al rekening mee houden. Wellicht ook kijkend maar her onderscheid tussen model en toepassing.

Daarbij zijn er grote initiatieven voor NL specifieke AI centers. Zie je dat meerwaarde hebben?

Deze triggerde mij overigens het meest.

Rechtvaardigheid: De gelijke en rechtvaardige verdeling van zowel de voordelen als de kosten van AI.

Want het risico is dat de productiviteitswenst van AI alleen ten goede komt aan de aandeelhouder en ik zou het heel graag in brede welvaart en welzijn terecht zien komen.

[Reactie gewijzigd door Ma_rK op 22 juli 2024 13:55]

Ik denk dat de AI Act een noodzakelijke basis is en dat we vanaf hier vooral moeten focussen op handhaving. De AVG (en eerder de ecommercewet met haar beperkte-aansprakelijkheidsregels) heeft als belangrijkste probleem dat naleving niet vanzelf gaat omdat niemand handhaving ziet gebeuren. Je kunt doen wat je wilt, en die ene keer dat iemand in de spotlights staat huur je een advocaat en ben je vijf jaar verder voor je misschien een boete moet betalen.

Bij de DSA/DMA zie je dat de Commissie héél scherp er bovenop zit en daar reageren bedrijven ook weer snel op. Laat nú zien hoe je minderjarigen gaat beschermen. Je hebt één maand om maatregelen tegen verkiezingsfraude te geven. Geef voor eind van de maand inzicht in je adverteerdersgedrag. Doe je dat niet, dan komt er metéén een boetebesluit en iemand van de Commissie gaat meebesturen. Dus dat is wat ik zou willen: snelle, harde handhaving. Prima in het klein: stuur gewoon iedereen met een hoogrisico-AI een brief "laat zien hoe je compliant bent, op straffe van 25k boete". En dan beboet je wie überhaupt geen antwoord geeft. Klinkt volgens Aleph Alpha de brief reëel, dan doe je niets.

Tips: begin met nagaan waar je überhaupt AI systemen hebt, want de helft weet dat niet. Werknemers hebben privé een abonnement op ChatGPT, of gebruiken SaaS diensten waar nu AI in kruipt als added value dienst. Denk aan workflow management voor HR, het verwerkt al intake van sollicitanten en voegt daar een prescreening aan toe. Wie denkt er dan "ho wacht, dit is high-risk AI over twee jaar"?

In feite is dit gewoon het shadow IT probleem maar dan geinstantieerd op AI natuurlijk. Dus alle tips die daarvoor werken, ook hier invoeren.

Ik worstel serieus met hoe om te gaan met die grote modellen. Moet dat niet een commons zijn, een algemeen bruikbare bron voor iedereen. Elektra en water zijn dat ook. En prima als iemand daar bovenop flesjes water uit een specifiek rotsgebergte verkoopt als premium, maar in de kern hoort dit volgens mij algemeen beschikbaar te zijn. Tegelijkertijd, het zijn enorme kosten dus ik snap dat je dat zonder ondernemersrisico niet goed rond krijgt. Dan blijft voor mij over, krijgen we straks wéér zo'n Big Tech oligopolie alleen dan met OpenAI en Alphabet ipv Meta en Google?
Gaan we in europa niet ontzettemd achter lopen qua kwalitatieve AI als wij er allerlei beperkingen op leggen waar andere landen dat minder of helemaal niet doen?
Wellicht. Aan de andere kant: liever iets achterlopen, maar wel gecombineerd met de best mogelijke bescherming van privacy en mensen-/consumenten-rechten dan andersom lijkt me.

AI zou Imho een tool moeten zijn, de consument en zijn bescherming heeft imho ten allen tijde een aanzienlijk hogere prioriteit.

Het zou niet als een Heilige Graal gezien moeten worden, waar al het andere voor opzij gezet dient te worden.
Denk ik ook. Het is allemaal erg idealistisch.
Denk dat een aantal van de principes uit de wetgeving in direct conflict zijn met de basis principes van AI. Zoals AI mag geen black box zijn. AI wordt veel slimmer dan de mensheid, wij kunnen dat gewoon niet begrijpen.

Nu de innovatie raket van AI langzaam begint op te stijgen is er eigenlijk geen weg meer terug. AGI is er dit decenium.
Het kapot reguleren van AI zal er voor zorgen dat Europa in een soort digitale steentijd achterblijft.

Je kunt het namelijk leuk vinden of niet: een innovatie blijft en kan zich niet ongedaan maken. De wens AI in te dammen is net zo achterhaald als hopen dat de atoombom verdwijnt. Gezien alle risico's is het denk ik beter dag er geen AGI en ASI komt, maar er is geen weg terug. Uiteindelijk zal er ergens op de wereld een ASI systeem ontstaan. Het is doodeng maar het is niet anders. Dit soort ambtelijk idealisme staat los van de realiteit.
Het kapot reguleren van AI zal er voor zorgen dat Europa in een soort digitale steentijd achterblijft.
Ik denk dat het eerder zo zal zijn dat we hetzelfde krijgen als bij social media. We laten hier alsnog social media toe, maar die zijn allemaal Amerikaans of Chinees. Een Nederlandse variant als Hyves of een Europese variant bestaan niet (meer). Dus we zijn overgeleverd aan het buitenland, waar de EU een achterhoede gevecht voert om de bedrijven toch een beetje aan hun regels te laten voldoen. Maar de echte macht ligt allemaal in de VS en China.

Bij AI zul je zien dat we hier in Nederland allemaal AI gaan gebruiken die gebaseerd is op Amerikaanse normen en waarden, en de Amerikaanse cultuur. De pogingen van de EU om controle uit te oefenen zullen ook alleen maar wat effect hebben in de marge.
De "regels" klinken heel erg veel als de Drie wetten van de robotica van Isaac Asimov. En we weten al prima dat die regels problematisch zijn...

Ik denk dat de EU hier niet bepaalt verstandig bezig is en vrijwel volledig AI ontwikkeling in de EU gaat blokkeren. Waardoor de EU gewoon gaat achterlopen op de rest van de wereld.

[Reactie gewijzigd door ShadLink op 22 juli 2024 13:55]

AI die ingezet of uitontwikkeld wordt binnen het kader van de wetenschap heeft een uitzonderingsstatus. Je mag deze dus alleen niet binnen andere kaders, wat voor een groot deel op digitale groot-commercie zal neerkomen, tegenover natuurlijke personen inzetten zonder aan de waarborgen van de verordening te voldoen.

Dat is niet anders dan dat je na een lang R&D traject, geen halfbakken half-kapot tuf-product de markt op mag slingeren. En dat is gewoon een goed iets.

[Reactie gewijzigd door R4gnax op 22 juli 2024 13:55]

Wat ik mis in de wetgeving zijn regels omtrent het menselijk handelen in relatie tot AI.

Er wordt gereguleerd op eigenschappen van AI; het mes mag niet te scherp zijn of te lang, maar niet op het gebruik ervan; je mag het mes niet gebruiken om iemand neer te steken.

De samenleving is het meest gebaat bij regelgeving die voorkomt dat mensen AI inzetten om andere mensen te beschadigen. Denk aan massabeinvloeding rondom verkiezingen.
Volgens mij staat dat er een heel eind in, inclusief invloed op het democratisch proces en verkiezingen (Annex III punt 8b). Maar het is regulering van apparaten, dus dan is menselijk gedrag reguleren een tikje moeilijk.
Dank @Arnoud Engelfriet
Wat in mijn ogen nog steeds een heikel punt blijft: de overheidssystemen waar het afgelopen jaren flink fout is gegaan (denk aan DUO) zijn ouderwetse rule-based systemen, welke volgens mij buiten scope van de AI act vallen.

Hiermee blijft er een soort wilde westen voor niet-AI, terwijl daar de risico’s ook aanzienlijk zijn.

Wat is jouw afdronk hiervan?
Systemen met hardcoded regels vallen inderdaad buiten de AI Act. Ik zie je ergernis (en deel die) maar de AI Act is geen algemene softwarekwaliteitswet, het gaat specifiek om autonoom opererende statistische papegaaien.
Prachtig artikel!

Lijkt mij een goed idee. Er is goed gekeken naar verantwoordelijkheid, maar voornamelijk naar de impact van geautomatiseerde systemen die van invloed zijn op de mens. Van mij mag dit aspect veel breder getrokken worden, dus ook op elk algoritme toegepast mogen worden dat er bestaat.

Mensen zouden beslissingen over mensen moeten moeten maken, ook zeker gezien het aspect van het tot verantwoording kunnen roepen. Mensen zouden ook zeker, met betrekking tot hun eigen autonomie, hun keuzevrijheid moeten kunnen behouden.

Maar ik vind ook erg belangrijk dat systemen, waar je mee te maken krijgt als mens, voorspelbaar moeten zijn. Zo is alles in de natuurkunde, op zeker hoog niveau, logisch voorspelbaar, en dat zou “cyberspace” ook moeten zijn.
Hele mooie en rake laatste alinea. Deze act laat zien dat het digibetisme onder bestuurders sinds twintig jaar geleden enorm is afgenomen.
AI is hier en diens capaciteiten zullen exponentieel toenemen. Veel mensen begrijpen niet wat exponentieel betekent, maar dat zal de komende jaren wel duidelijk worden.

En als je denkt dat AI content het meest schadelijke zal zijn, dan zul je versteld staan van het moment dat AI in alle facetten slimmer is dan de mens. /s Gelukkig doen we er alles aan om dat te voorkomen.

[Reactie gewijzigd door Fornoo op 22 juli 2024 13:55]

Definieer inteligentie. Er is zoiets als vaardig zijn in de logica, wat niet beter kan dan correct zijn. Wat de meeste mensen zien als intelligente derden zijn mensen die met creativiteit een hoop probleemstukken kunnen oplossen, daar waar er weinig hints zijn, of daar waar de informatievoorziening cryptisch is, of zelfs foutief.

Waar kan AI dan beter in zijn dan de mens, anders dan zeer vaardig zijn in heel erg veel zaken en het bevatten van heel erg veel kennis? Er zijn slechts een tweetal te overtreffen aspecten, ten opzichte van de mens: de grootte van het werkgeheugen en snelheid.
Zoals je zelf zegt, de mens en AI verschillen in principe niet van elkaar behalve de hardware waarop ons cognitieve systeem draait. Dit had ik 20 jaar geleden al door.

AI kan dus ontelbaar veel meer denkkracht krijgen doordat de hardware zo goed als oneindig kan worden opgeschaald.

Dan hoef je intelligentie verder niet te definieren, en krijg je toch een idee waar het heen gaat. Het enige stukje dat nog ontbreekt is een feedback-loop en een enorme bak werkgeheugen zodat het systeem zelfbewustzijn kan ontwikkelen.

/s Daar zijn we gelukkig heel terughoudend in, zoals Open AI die zegt 7 triljoen dollar nodig te hebben.
Je bedoeld verschil in de cognitie? Want een mens is nogal behoorlijk meer dan dat. Cognitie is nogal een secundair ding dat niet bepaald sterk ontwikkeld is in kinderen, die nog vrij emotioneel ‘redeneren’. Dat wil zeggen dat cognitie helemaal niet de basis is van hoe wij in elkaar zitten.

Die “denkkracht” is niet veel meer dan complexere zaken kunnen behandelen, hoewel dat niet zozeer zit in vindingrijkheid maar meer in het kunnen zetten van triljarden stappen in een spelletje schaak.

Dat zelfbewustzijn is ook een dingetje. Zolang AI geen karakter/eigen wil heeft om zichzelf te sturen, valt er vrij weinig bewust van te worden. Je kan dan louter de output hergebruiken als input en dan wordt het een stuurloze bak ellende.
De mens is een biologische machine, en bezit niets dat een computer niet kan emuleren.

Kwestie van tijd.
Vliegen was vroeger ook onmogelijk geacht om te kunnen. Kwestie van natuurkunde. Ik denk dat in theorie je ook een mensenbrein zou kunnen runnen op een computer. Maar natuurlijk.

… Alleen: waarom? Moeten we dan ook maar eens mensenrechten toe gaan kennen aan computers? 8)7

Maar dat betekend niet dat er generatio spontanea ontstaat in een dom neuraal netwerk. Ik bedoel maar: je hebt zelf ook cognitie: wel eens last gehad van een spontaan opgedoken derde persoonlijkheid in je hoofd?
Waarom? Omdat het kan!

Verder is er helemaal niets spontaans aan het ontstaan van AI, en ook niets magisch aan ons brein (tenzij je religieus bent). Momenteel werken de slimste koppen eraan en worden er miljarden ingepompt. Kwestie van tijd totdat ergens een lichtje aangaat.
Maar dan moet je wel serieus goed begrijpen hoe je dat moet maken en wat je dan maken moet. Gezien alle kennis van nu is het brein gewoon nog steeds grotendeels “magisch”, oftewel ongrijpbaar. Daar hoef je niet religieus voor te zijn om het niet te begrijpen.

Het is natuurlijk leuk dat je een multi-skilled taalmodel kan maken, maar dan heb je nog niet eens het oppervlakte van breinkennis mee geschaaft. Met alle respect, AI is nog steeds gewoon bagger. Het maakt zelfs gewoon fouten van heb ik jou daar. Probeer niet menselijkheid te verwarren met een getrainde reproductie van menselijk gedrag.

Laten we eens beginnen met dat het gross van de wetenschap nog steeds probeert te onderzoeken hoe men in de toekomst hersenziektes kan genezen, terwijl het gewoon allemaal logische resultanten zijn van bepaalde dynamieken die er horen te zitten. Hintje: het brein is niet een los te zien orgaan van onder andere de rest van het lichaam en de sociale omgeving.

[Reactie gewijzigd door Some12 op 22 juli 2024 13:55]

Wij mensen maken ook fouten.

En AI hoeft ook niet perfect te zijn. De output zal ook analoog zijn, zoals ons brein werkt. Alleen tandje beter in het herkennen van patronen.
Wij mensen maken zeer zeker fouten in bepaalde omstandigheden, maar wij zijn geen product dat output dient te leveren.

Wij mensen zijn bedraad om verbonden te zijn met anderen. Een Nazi-experiment heeft aangetoont dat als een pasgeboren kind geen emotionele interactie met andere mensen kan hebben het zelfs doodgaat. Om maar even te schetsen dat mensen meer zijn dan een dom cognitief ding, maar in essentie een sociaal onderdeel van een geheel aan mensen wat eigenlijk bedraad is voor liefde en beschermd kan worden (traumatisch) voor haat.
We doen allemaal niets meer dan de input verwerken en daar komt output voor terug. Een gedachte, een beweging. En ik zeg ook nergens dat de mensen een dom cognitief ding zijn. Maar je lijkt mensen (of wellicht levende wezens) meer toe te kennen dan we zouden kunnen meten.

Dat we ons brein nog niet kunnen meten, betekent niet dat het onmogelijk is namelijk. We hebben er simpelweg nog niet het gereedschap voor. We trouwens nog niet eens een 'simpele' LLM als chatGTP 3.5 ontcijferen. En die hebben we ook zelf gemaakt...
Input-output verwerken… Dat is zoiets als de werking van een gebouwde kraan van Lego bestuderen door individuele steentjes door een scanner te halen 8)7 :+

Je model klopt niet. In de basis niet. Het is zo niet hoe het brein als geheel werkt. Sterker nog: de activiteit shaped de neuronen en niet andersom.
Je noemt steeds weer dingen die zogenaamd niet te reproduceren zijn. Dat is mijn bottomline. Veel meer heb ik niet meer te melden.

Analogieën kunnen nuttig zijn, maar ik volg de jouw analogieën niet.
Oké… Het brein bestaat uit neuronen. Prima. Dat valt ook te emuleren. Maar het systeem is niet een optelsom van alle onderdelen. Waarom niet? Net als een Lego kraan niet een optelsom van alle steentje is: het geheim zit hem in hoe de onderdelen aan elkaar relateren. Want ik kan bijvoorbeeld ook de kraan uit elkaar halen en met dezelfde steentjes een auto bouwen: heel andere werking ;)

Mijn punt is: we snappen de bedrading wel: het zijn nanotechnologische apparaten. Simpel. (En beetje complex) Maar de samenhang van hoe het een systeem vormt, is gigantisch onbekend. En dat noemen ze in de religie ook wel “geestelijk” als metafoor voor “ongrijpbaar”, oftewel onbekend in werking.
Nou ja, we vallen nu in herhaling. Let's agree to disagree.
Volgens mij was jouw statement dat de hardware verschilt van AI. Ik geloof dat je bedoeld: de compositie van de neuronen. Klopt gewoon.

Alleen waar ik over viel was dat je het brein als systeem gelijkschaarde met het concept intelligentie. Ik viel erover omdat intelligentie een klein onderdeel van de compositie van het brein is, laat staan de mens. ;)

Maar als je daar het mee oneens bent, dan schaar ik mij achter “let’s agree to disagree”.

Op dit item kan niet meer gereageerd worden.