Europese Commissie vraagt input over definities van AI-systemen binnen AI Act

De Europese Commissie is een consultatie gestart waarin het input vraagt over de invulling van de AI-verordening. De Commissie wil weten hoe zij AI-systemen en 'verboden gebruiken' exact moet definiëren. Met de antwoorden wil de EC betere richtlijnen opstellen.

De Europese Commissie zegt dat zij een gerichte consultatie richting partners begint, waarin zij input vraagt over de AI Act, of de AI-verordening. Die is sinds augustus dit jaar van kracht, maar wordt nog niet gehandhaafd. De Europese Commissie werkt ondertussen aan richtlijnen waarin zij bepaalde begrippen uit de verordening vast wil leggen.

Voor die twee zaken wil de EC nu input vragen. Er is een exacte definitie van een AI-systeem vastgelegd in de wet, maar die uitleg bestaat weer uit technologieneutrale begrippen zoals 'voorspellingen' of 'een machinegebaseerd systeem'. De EC wil onder andere weten welke van die begrippen zij nader moet uitleggen in verdere richtlijnen.

Hetzelfde geldt voor het 'verboden gebruik van AI'. Dat is een belangrijk onderdeel van de verordening: het gaat over de inzet van AI waarvan de EC al heeft vastgelegd dat het niet mag. Het gaat dan bijvoorbeeld over AI voor het opstellen van socialekredietscores, vergelijkbaar met China. Ook daarvan ontbreken heldere definities. De Europese Commissie vraagt daarom naar specifieke voorbeelden die nu al bekend zijn. Ook wil zij van die categorie verdere definities kunnen opstellen.

Die definities kunnen het in de toekomst makkelijker maken voor toezichthouders of beleidsmakers om AI-systemen te beoordelen. Grote technologiewetten uit Europa worden vaak technologieneutraal opgesteld, maar in de praktijk levert dat ook verwarring op. Bij de AVG worden er bijvoorbeeld veel begrippen niet uitgelegd, wat ertoe leidt dat bedrijven een eigen interpretatie moeten geven en daarop vervolgens kunnen worden aangepakt door toezichthouders, die weer een eigen interpretatie hebben.

Door Tijs Hofmans

Nieuwscoördinator

13-11-2024 • 21:05

44

Reacties (44)

44
41
22
5
0
14
Wijzig sortering

Sorteer op:

Weergave:

Dus eerst maak je een verordening en verklaar je die ook van kracht om daarna na te gaan vragen wat je eigenlijk nota bene zelf bedoeld hebt in de wet.

Over het paard achter de wagen spannen gesproken.

En ik kan zelfs begrijpen dat er mensen zijn die zo’n werkwijze als misdadig zien.
Er is enorm veel wetgeving die niet zwart/wit beschreven is, en dat is met opzet. Een heel mooi voorbeeld was de VS overheid die in de jaren '60 besloot om de export van digitale computers te verbieden. Dat was militaire hardware. Wat deden de fabrikanten? Ze gaven het beestje gewoon een andere naam? Nee hoor, dat is geen computer, het is een dataverwerker. DEC met zijn Personal Data Processer lijn (PDP), IBM had een Data Processing Unit, ... .

Maak wetgeving en definities te strikt, en mensen die de wetgeving willen breken zorgen ervoor dat ze net niet voldoen aan die definitie. Maar maak het te onduidelijk, en niemand weet nog waar men aan toe is.

De wetgeving bestaat nu dus, is geschreven en gepubliceerd, en nu wenst men dus te weten waar mensen uit de industrie graag verduidelijking zien en waarom.
Dat kan misschien kloppen. Maar hoe kan ik nu als leek weten of ik de wet overtreed?
Heel simpel. Als leek overtreed je de wet sowieso niet. Je moet serieus met AI bezig zijn, wil je in de buurt komen van de verboden gebieden.

Mijn bedrijf maakt AI's die in de zorg gebruikt worden. Dat is dus bepaald geen gebied voor leken. Alsnog was de vereiste classificatie van onze systemen een ochtendje werk. Aangezien het geen high-risk systemen zijn, en wij ons al lang aan best practices hielden, was de rest van de dag vooral het opzoeken van artikelnummers. Onze Post-Market Monitoring voldoet aan de vereisten van Artikel 72, maar wij doen dat vrijwillig volgens Artikel 95 Voluntary Compliance.

(De logica waarom wij vrijwillig de EU AI Act volgen is dat het dan makkelijk integreert met andere AI systemen die wél onder de EU AI verplichtingen vallen.)
Nog een mooiere vind ik het exportverbod op sterke cryptografie.

Daardoor kon de source code van PGP (nu GnuPG) niet op het internet worden gezet, want dat was een cryptografisch algoritme wat sterker was dan 64 bits en verboden om te exporteren want de NSA kon het niet real-time ontcijferen.

Wat deden een aantal hackers? De broncode werd uitgeprint, in een stapel enveloppen gestopt en naar Europa verscheept als drukwerk. Dat mocht namelijk wél onder het argument van persvrijheid en het feit dat afgedrukte broncode niet als 'software' werd beschouwd.

In Europa gingen alle vellen papier onder de OCR, en na wat correcties stond het hele zaakje op een Europese server.
Ik denk dat jij nog niet helemaal weet hoe het werkt. Er is nu een verordening, die wordt op basis van input van allerlei stakeholders omgezet in EU directives en die worden dan weer door de lidstaten omgezet in landelijke wetgeving. Dus helemaal niets met het paard achter de wagen spannen. Een verordening is niets anders dan een intentie om tot directives te komen.
Neen, een verordening werkt, in tegenstelling tot een richtlijn, rechtstreeks door in de lidstaten. Wel kan er guidance komen vanuit de EU (toezichthouders), maar de verordening hoeft niet te worden omgezet in nationale wetgeving.
Hoe kom je daarbij? De verordening wordt gewoon in NL van kracht. Ja de AI verordening kent onderliggende directives zoals productaansprakelijkheid, neemt niet weg dat deze gewoon rechtstreeks van kracht wordt. Of vergelijk je dit met zoiets als de UAVG? Maar ook de AVG is rechtstreeks van kracht.
In mijn ogen is het een misvatting om regels voor "AI" te maken omdat die term zo vaag en aan verandering onderhevig is. 50 jaar geleden gebruikte we die term al maar toen hadden we het over schaakcomputers. In de tussentijd is er altijd een vorm van "AI" geweest, maar het ene jaar dachten we aan Tamagotchi's en het andere jaar aan Terminator.

Volgens mij is het beter om AI's gewoon als onderdeel van software te zien en de regels daar aan op te hangen.

Ter illustratie, de 'AI'-definitie van de EU faalt de 'lichtknop'-test. De EU hanteert de volgende defintie:

‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; Related: Recital 12

Laten we deze definitie toepassen op een simpele lichtknop zoals we die allemaal thuis hebben:
- 'may exhibit adaptiveness after deployment': 'may' dus niet verplicht
- 'explicit or implicit objectives': het licht aan doen is een duidelijk 'objective'
- 'infers from input how to generate outputs': input -> de gebruiker drukt op de knop, output -> stroom
- 'can influence physical or virtual environments': een donkere ruimte verlicht heeft duidelijk invloed op de omgeving

Het enige lastige punt is 'varying levels of autonomy' maar dat is vooral omdat het begrip 'autonomy' ook weer zo'n vaag begrip is waar filosofen dikke boeken over hebben volgeschreven zonder het ooit eens te worden. We niet eens zeker weten of mensen wel een vrije wil hebben en vrije wil lijkt een basisvoorwarde voor autonomie. Ik kan net zo goed argumenteren dat alle software autonoom is als dat software per definitie niet autonoom is. De vraag of een AI een vrije wil heeft is een struikelblok op zich. De EU geeft geen definitie van 'autonomie' dus kan ik de meest simpele kiezen: een veertje in de lichtschakelaar die het knopje verder duwt doet dat uit zichzelf zonder verdere externe motivatie. (Als je dat te gekunsteld vindt mag je de lichtknop vervangen door een lamp met een automatisch lichtsensors).

Mijn punt is dat je met deze definitie alle kanten op kan en dat je dit probleem hebt met alle definities die AI anders zien dan "gewoon software".
De term 'inference' heeft een zeer specifieke betekenis, zie overweging 12: "De technieken die inferentie mogelijk maken bij de opbouw van een AI-systeem, omvatten benaderingen op basis van machinaal leren waarbij aan de hand van data wordt geleerd hoe bepaalde doelstellingen kunnen worden bereikt, alsook op logica en kennis gebaseerde benaderingen waarbij iets wordt geïnfereerd uit gecodeerde kennis of uit een symbolische weergave van de op te lossen taak. Het inferentievermogen van een AI-systeem overstijgt de elementaire verwerking van data door leren, redeneren of modelleren mogelijk te maken." Jouw lichtknop leidt niet uit data af wanner het licht aan en uit moet, noch uit gecodeerde kennis. Dus geen AI.

Daarnaast "moet de definitie gebaseerd zijn op de belangrijkste kenmerken van AI-systemen die het onderscheiden van eenvoudigere traditionele softwaresystemen of programmeringsbenaderingen, en mag het geen betrekking hebben op systemen die gebaseerd zijn op regels die uitsluitend door natuurlijke personen zijn vastgesteld om automatisch handelingen uit te voeren." (ook ov. 12). Dit laatste is een juristentruc: hier staat dat de definitie nooit 'traditionele' systemen mag omvatten. Jouw lichtknop is traditioneel en dús geen AI.

Autonomie "betekent dat zij een zekere mate van onafhankelijkheid van menselijke betrokkenheid bezitten en zonder menselijke tussenkomst kunnen functioneren" (ook ov. 12). De formulering is ongelukkig, het suggereert dat er een schuifje is waarmee je de autonomie kunt variëren. Maar lees dat dus als "een AI systeem moet iets van autonomie hebben, maar mag meer of minder dan andere".
hier staat dat de definitie nooit 'traditionele' systemen mag omvatten
Is dat niet gewoon een cirkelredenering? AI is alles behalve wat niet AI is?
een AI systeem moet iets van autonomie hebben, maar mag meer of minder dan andere
En geldt dit dan niet weer voor zo goed als alle 'machines', of ze nu AI zijn of niet? Ik denk dan aan een cruise control die zonder AI is gebouwd versus één die met AI is gebouwd.
Daar riekt het wel naar, maar ik zie het als een noodrem als je er met de andere regels niet uitkomt. Hoofdregel is dat je ML of logica/symboolmanipulatie doet (overweging 12) of iets dergelijks waarmee het systeem zelf bedenkt hoe het tot antwoord komt, dus itt hardcoded regels die een programmeur bedacht.

De elementen van de definitie zijn cumulatief. Je moet ze allemaal hebben (maar bijleren is optioneel). Een cruisecontrol die simpelweg de rem erop zet als je een heuvel af gaat is wel autonoom, maar geen AI want die regel heeft 'ie niet zelf bedacht.
Hoe is een lichtknop een ‘machine-based system’? Bovendien vind ik dat je een erg brede definitie neemt voor het woord ‘infers’, en zoals je zelf ook aangeeft is er geen sprake van ‘varying levels of autonomy’.

Ik ben het ermee eens dat de definitie nog wat werk nodig heeft, maar je kan ook overdrijven.
Je kan het voorbeeld net iets complexer maken: het licht gaat aan als ik op het knopje duw, of - automatisch - bij zonsondergang.

Dan heb je duidelijk een machine-based system, want het draait ergens op een lokale PC. In de inleiding tot de regulation staat The term ‘machine-based’ refers to the fact that AI systems run on machines. Je hebt ook various levels of autonomy, soms gaat het licht vanzelf aan, soms als ik op de knop duw.

Ook infer wordt nader toegelicht: This capability to infer refers to the process of obtaining the outputs [...] from inputs or data. Dit lijkt me op te gaan voor elk systeem, zelfs voor een eenvoudige lichtschakelaar.

Ik gebruik zelf trouwens meestal het voorbeeld van het knopje voor voetgangers bij de verkeerslichten, dat volgens mij ook helemaal voldoet aan de neergeschreven definitie van AI. Daar komt nog eens bij dat dat gaat over een gevaarlijke situatie, want als voetgangers en auto's samen groen hebben zitten we met een probleem.
Het hangt er ook vanaf hoe dit soort systemen onder de moterkap werken.

Je lijkt een aantal voorbeelden te geven van rule-based-systems. Die worden expliciet uitgesloten als "AI-Systeem".
Daar zit dan ook de verwarring voor mij. In preambule (12) van de AI act staat enerzijds:
Moreover, the definition should be based on key characteristics of AI systems that distinguish it from simpler traditional software systems or programming approaches and should not cover systems that are based on the rules defined solely by natural persons to automatically execute operations.
en een paar zinnen verder
The techniques that enable inference while building an AI system include machine learning approaches that learn from data how to achieve certain objectives, and logic- and knowledge-based approaches that infer from encoded knowledge or symbolic representation of the task to be solved.
Het is alvast voor mij niet duidelijk wat het verschil is tussen 'rules defined by natural persons' en 'encoded knowledge'.
In eerdere versies van de AIA werd "rule-based" expliciet uitgesloten. Ik zie dat het in de laatste versie niet meer expliciet zo genoemd wordt.

De gedachte blijft echter wel het zelfde, systemen met regels bedacht door mensen vallen buiten scope.

De discussie voor mij zit hem dan bij rule-based systems die hun rules maken op basis van "AI". Wanneer is dat wel of niet een AI-systeem? ;)

Dus een lichtschakelaar die automatische aan/uit gaat op basis van jouw instellingen is geen AI-systeem. Maar als hij schakelt op basis van patronen die hij heeft geleerd op basis van jouw gebruik, dan wel. Maar daar blijft een grijs gebied tussen zitten.
Zoals @Arnoud Engelfriet al uitgebreid uiteen heeft gezet, is het wel degelijk mogelijk om een redelijk generieke definitie van AI te geven. Maar naast dat het kan, is het ook noodzakelijk om onderscheid te maken tussen AI en "gewone" software.

Het nadeel van AI-systemen, is dat het "zelf denkende" gedeelte een black box is. Dat maakt ze ongeschikt om beslissingen te nemen over zaken die verregaande consequenties hebben voor mensen, zoals het al dan niet toekennen van een uitkering. Jouw lichtknopje kun je openschroeven en precies zien hoe het werkt.

Je kunt naderhand nooit aantonen, dat zo'n beslissing terecht is geweest, omdat het proces niet transparant is. Sterker nog; dezelfde casus kan theoretisch leiden tot een andere conclusie, als je die nogmaals door het systeem laat beoordelen.

Dat maakt dat AI-systemen wezenlijk verschillen van andersoortige algoritmes en dus is specifieke wetgeving wel deglijk op zijn plaats. Normale algoritmen, die dus geen black box bevatten, worden al verplicht bijgehouden in het algoritmeregister. AI-systemen en dan met name hoog-risico AI-systemen, wil je hier zeker ook terugzien.

Daar komt nog eens bij dat veel AI-toepassingen dermate zwaar zijn, dat ze niet lokaal getrained, of zelfs gebruikt kunnen worden. Dan ben je dus afhankelijk van grote commerciële partijen (niet zelden in de USA) om dat te faciliteren. Wat er met de data kan en mag, wil je ook hebben geborgd in de wet, want een overeenkomst alleen, kan worden overruled door een buitenlandse wet.

Dus AI-wetgeving, kom maar door graag.
In mijn ogen is het een misvatting om regels voor "AI" te maken omdat die term zo vaag en aan verandering onderhevig is. 50 jaar geleden gebruikte we die term al maar toen hadden we het over schaakcomputers.
Dat klopt. AI is alles behalve nieuw. Waarom zou de EU zich moeten beperken tot regels voor nieuwe dingen? Visserij is al millenia oud, en ook dat wordt door de EU gereguleerd.

Schaakcomputers zijn een onderdeel van AI, maar worden door de EU AI definitie als "low-risk AI" niet aan banden gelegd. Schaak AI's zijn zo bekend omdat Alan Turing en Claude Shannon ze al 70 jaar geleden introduceerden als een concreet eerste probleem waar ze toen al voortgang konden boeken. Wetenschap is veel kleine stapjes. We leerden eerst expert system AI's maken voordat we Machine Learning AI's kregen. Reinforcement Learning elimineerde de noodzaak van dataverzameling. AlphaZero liet zien dat zelfs de regels niet gecodeerd hoefden te worden. Dat had Alan Turing niet gekund in 1950.
Jorgen Moderator Beeld & Geluid 13 november 2024 21:27
Kunnen we dan niet alleen het gebruik reguleren, maar ook de AI's zelf? Zoals de vermaarde scifi-schrijver Asimov schreef:

0th law - A robot may not injure humanity or, through inaction, allow humanity to come to harm.
1st law - A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2nd law - A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3rd law - A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Er zijn er nog veel meer te bedenken, waaronder dat een robot/AI naar vrije wil mag handelen als het geen taak heeft te doen en geen slaaf is; dat een robot/AI moet weten wat hij is en als zodanig bekend moet zijn; etc.

De UK heeft sinds 2011 daadwerkelijk zulke regels vastgelegd.
Het idee van wetten die AI's reguleren, zoals Asimov's proza (nofi), is leuk maar brengt ook aanzienlijke uitdagingen en risico's met zich mee. Hoe definiëren we precies wat 'schade aan de mensheid' inhoudt? De interpretatie kan enorm variëren, wat kan leiden tot tegenstrijdige of inefficiënt uitgevoerde regels door AI's.

AI's kunnen op manieren reageren die ontwikkelaars niet voorzien hebben, wat zelfs met duidelijke wetten tot onvoorspelbare resultaten kan leiden. Het opleggen van strikte wetten aan AI's kan juist het vermogen om creatief of innovatief te zijn beperken, waardoor een AI flexibiliteit mist (met name in) nieuwe situaties.

De implementatie en handhaving van deze zogenoemde AI wetten vragen wie of wat controleert "of AI's zich eraan houden", wat praktisch onmogelijk en misschien zelfs een inbreuk op privacy zou zijn.

Ethiek en moraliteit verschillen onder mensen, en een universele set regels voor AI's kan niet rekening houden met culturele, religieuze of persoonlijke verschillen, wat ontevredenheid of conflict kan veroorzaken. Bovendien zou strikte regulering de technologische vooruitgang kunnen belemmeren door innovatie te beperken. De Britse wetgeving van 2011 toont de praktische complexiteit aan van het implementeren en handhaven van zulke regels in een wereld waar technologie snel evolueert en AI steeds meer autonoom wordt.

Daarom begrijp ik ook niet waarom je de UK regels uit 2011 zo expliciet noemt.
Jorgen Moderator Beeld & Geluid @PacinoAllstars14 november 2024 00:20
Dat zou inderdaad allemaal kunnen gebeuren. Of niet. Dat weten we niet. Wat je wel weet is dat de gevaren zonder die regels potentieel groter zijn dan wat terughoudendheid in innovatie. We bouwen ook auto's met kreukelzones, veiligheidsgordels en een maximum snelheid. Zonder die regels zouden auto's wellicht al veel verder doorontwikkeld zijn, maar veiligheid is nog belangrijker. Mijns inziens in elk geval wel.

Ik haalde UK 2011 erbij om aan te geven dat er landen zijn waar ze al serieus met zulke regels zijn bezig geweest.
Het idee van wetten die AI's reguleren, zoals Asimov's proza (nofi), is leuk maar brengt ook aanzienlijke uitdagingen en risico's met zich mee. Hoe definiëren we precies wat 'schade aan de mensheid' inhoudt?
De quote is ook al verkeerd. Asimov formuleerde de wetten eerst als "schade aan een mens" en vervolgens verkende hij in één van zijn boeken of je "schade aan de mensheid" als nulde wet kon plaatsen boven de eerste wet.

Dat was dus ook het ultieme doel van Asimov's formulering: het was een uitgangspunt voor een literaire verkenning. Het was en is geen technische specificatie,
Probleem is dat de huidige LLM's totaal geen AI's zijn.

Het voert niet zelf acties uit (plugins in ChatGPT worden uitgevoerd op basis van je eigen input) en gaat niet na of er enige logica in de uitkomst zit, waardoor de wetten van Asimov niet eens toepasbaar zijn.

Door te stellen dat de tech waarover we nu beschikken mogelijk aan de regels van Asimov moet voldoen doe je dus eigenlijk mee met de marketing van de achterliggende bedrijven, die tot nu toe ver van realistisch is.
Jorgen Moderator Beeld & Geluid @Stukfruit14 november 2024 02:28
Dat snap ik. Ik ervaar vaak genoeg dat ChatGPT, Copilot en co. veel dommer zijn dan de reclamemakers doen geloven. Dat gezegd hebbende, gaan de ontwikkelingen elke dag door en is pro-actief nadenken en goede regulering beter dan achter de feiten aanlopen.
Een belangrijke voor mij is de emotieherkenning op werk. Is AI na februari 2025 nog in te zetten voor notulen, voor actiepunten, etc als het kan/zal kunnen zeggen dat Piet chagrijnig was en Truus blij? Dat zit ingebakken in Copilot, ChatGPT, etc.
Het rechttoe rechtaan antwoord is: ja dat mag, omdat daar emotieherkenning uit tekstanalyse wordt gehaald. De definitie van emotieherkenning hangt aan biometrie, en dat wordt niet gebruikt bij deze technieken. Ik moet de eerste Copilot transcriptie nog tegenkomen waarin benoemd werd dat Piet chagrijnig reageerde op een vraag van de voorzitter.

(Voor de liefhebbers: het is iets onduidelijker omdat het verbod uit artikel 5 niet dezelfde term gebruikt als de hoogrisico usecase uit bijlage III.)
Oeh dat het hangt aan biometrie was me niet opgevallen. Dank.
Ik moet de eerste Copilot transcriptie nog tegenkomen waarin benoemd werd dat Piet chagrijnig reageerde op een vraag van de voorzitter.
Het wordt standaard niet in de transcription getoon, maar het wordt onder water wel expliciet bijgehouden. (Stel voor de grap maar eens de vragen: wat was het sentiment van deze vergadering? Wat zijn de emoties van Piet?).

Maar niet via biometrie. Blij dat te horen.
Ik weet niet of je hier doelt op het verbod uit 5.1.f " the use of AI systems to infer emotions of a natural person in the areas of workplace and education institutions".

Biometrische categorisatie is 5.1.g en biometrische identificatie is 5.1.h. Voor het specifieke doel van wetshandhaving heb je nog extra eisen aan biometrie in 5.2-5.7 maar dat is niet van toepassing op F_J_K's bedrijf.

Ik zie dus geen link met biometrie in 5.1.f. Dus ook niet-biometrische emotieherkenning is verboden, in mijn lezing.

In de praktijk is er een simpele uitweg uit de bepaling van 5.1.g, en wel via de fundamental attribution error. De AI bepaalt niet dat Piet chagrijning was. De AI bepaalt niet dat Piet chagrijning klonk. Als een mens daarvan maakt dat Piet chagrijing was, dan maakt de mens die fundamental attribution error.
Ik doelde inderdaad op 5.1(f) waar niet dezelfde term als de hoogrisico emotieherkenning uit Annex III wordt gebruikt. Daaruit is met een tekstuele lezing te halen dat er dus méér onder valt, zoals ook pure tekstgebaseerde sentimentanalyse.

Dit lijkt me onwaarschijnlijk, aangezien verbodsbepalingen in EU-verordeningen beperkt moeten worden uitgelegd (rechtszekerheid). In casu wordt het verbod duidelijk gemotiveerd door te wijzen op het ontbreken van een wetenschappelijke basis om op basis van hun biometrische gegevens emoties of bedoelingen van natuurlijke personen af te leiden. Overweging 44: "Daarom kunnen AI-systemen die emoties of intenties van natuurlijke personen identificeren of afleiden op basis van hun biometrische gegevens, tot discriminerende resultaten leiden en inbreuk maken op de rechten en vrijheden van de betrokken personen." Deze mondt uit in het verbod dat in 5.1(f) is neergelegd. Kennelijk zat men dus te denken aan biometrische emotieherkenning als onwetenschappelijk, potentieel discriminerend en derhalve verbodswaardig.

Als je zegt, sentimentanalyse op tekst is wél verboden, dan is het raar dat dit dan niet hoogrisico is omdat in Annex III heel nadrukkelijk naar systemen voor emotieherkenning op basis van biometrische data wordt verwezen. Dat klopt dan niet met overweging 54, waarin wordt gesproken over "emotieherkenningssystemen die niet verboden zijn op grond van deze verordening, moeten worden geclassificeerd als systemen met een hoog risico", wat suggereert dat de twee formuleringen als gelijkwaardig zijn bedoeld.
Whoah!
En de OR is akkoord dat dat gebruikt wordt?
Enkele vragen:
* Als ik niet-AI software op de markt breng (bv. geschreven door een leger goedkope IT'ers en data scientists, ipv getraind), mag ik dan wel software voor de 'prohibited practices' op de markt brengen?
* Als ik Copilot gebruik om code te schrijven, wordt dan mijn hele toepassing een AI-based system (want tenslotte is een deel van mijn code door AI geschreven)?
  • Nee. Jouw "niet-AI" software is gewoon AI software. Het salaris van je IT-personeel is geen criterium
  • Nee. AI is niet besmettelijk. "Hello, world" is geen AI software, wie het ook schrijft.
Mis ik iets of is dit een rare reactie? Ben je van mening dat AI maar gewoon klakkeloos zonder regels losgelaten moet worden zonder enige afweging wat voor precedent en/of mogelijke problemen in de toekomst dat gaat brengen? En is het dan een nadelig iets dat de EC niet halfslachtig iets opstelt van "iets waar ze geen verstand van hebben" maar juist consultatie doet om een gedegen afweging te maken?
Wat?
Dit initatief is wat de EU naar mijn mening juist zo mooi maakt. Niet een stel stoffige politieke mutsen die maar een wet in elkaar flatsen zonder enige inhoudelijke kennis, maar mooi openlijk om inhoudelijke input te vragen om daar hopelijk een juiste afweging mee te maken.

Meer van dit graag. Voelt al bijna als een democratie waar 'het volk' direct invloed op lijkt te hebben.
AI is een tool, netzo als een theekopje een tool is, je kan het voor nuttige dingen gebruiken en voor slechte dingen.. (Zie Riddick, wat je met een teacup kan doen).

"Pre-empten" wat je met een tool kan doen zaait alleen maar angst, om het sowieso te gebruiken. Dat zou zonde zijn.

het is totale verspilling van geld om een lijst te maken wat je allemaal wel en niet mag doen daar is AI veel te wijd bruikbaar in veel te veel toepassingen.. Wat mij betreft is de gewone wet van kracht. Er is geen enkele reden om voor iedere tool een reeks wetten te gaan bedenken.

[Reactie gewijzigd door MehHuntah op 13 november 2024 21:33]

En we hebben ook wetten of lokale verordeningen voor allerlei "tools" die we hebben. Dus waarom voor a.i. niet?
two wrongs don't make a right.. We hebben veel te veel regeltjes. Het jaagt iedereen die iets leuks wil maken weg naar de US.. Onze huidige wetten zijn meer als genoeg,
Neen, onze huidige weten zijn onvoldoende. Als overheden niets doen krijgen ze het verwijt achter de feiten aan te lopen. Als ze proactief werken krijg je het verwijt van regelneverij. Goed doen voor iedereen is sowieso onmogelijk.

Maar liever vanaf dag 1 goede regels dan na enkele jaren met systemen te zitten die je als maatschapij niet wenst maar die je politie ook niet meer kunt stoppen.
De zware industrie reguleren terwijl die al gevestigd blijkt is nu ook verdomd lastig, zie bijvoorbeeld de gevallen van Tata Steel en de chemische industrie in Zeeland. In de aanloop daar de eerste handvaten voor maken is cruciaal, bijschaven/bijsturen kan daarna nog makkelijk, maar een bedrijf weer sluiten omdat je nieuwe randvoorwaarden uit het niets creëert is een stuk lastiger voor elkaar te krijgen.
Ben je van mening dat AI maar gewoon klakkeloos zonder regels losgelaten moet worden zonder enige afweging wat voor precedent en/of mogelijke problemen in de toekomst dat gaat brengen?
Geldt dit niet in elke vorm van automation? Als er iets is wat weinig verstand heeft van IT dan is het wel de politiek. Waarom hebben we überhaupt een Europese Commissie nodig die denkt hier daadwerkelijk verbeteringen te brengen? Ook de vraag zou je kunnen stellen waarom hier nog politiek getinte artikelen worden geplaatst.

Op dit item kan niet meer gereageerd worden.