EU sluit voorlopig akkoord over inhoudelijke invulling van AI-wetgeving

Het Europees Parlement en de Raad van de EU hebben een voorlopig akkoord bereikt over de invulling van de AI Act. Hierin zijn een reeks regels opgesteld waar AI-systemen die in Europa actief zijn, aan moeten voldoen. Ook worden bepaalde toepassingen in zijn geheel geblokkeerd.

Het volledige akkoord is nog niet gepubliceerd, maar wel is er een persbericht uitgebracht met daarin enkele van de regels en verboden toepassingen. Onder die laatste categorie valt onder meer kunstmatige intelligentie die wordt gebruikt voor het maken van sociale scores en AI 'die wordt gebruikt om kwetsbaarheden van mensen uit te buiten, vanwege hun leeftijd, beperking, sociale of economische situatie'. Ook applicaties voor emotieherkenning op de werkvloer en onderwijsinstellingen vallen hieronder.

Gezichtsherkenningssystemen 'die gevoelige eigenschappen gebruiken', zoals politieke of religieuze overtuigingen, afkomst en seksuele voorkeur, worden eveneens verbannen, en dat geldt ook voor systemen waarmee gezichten 'niet-doelgericht' van het internet of beveiligingscamera's worden gescrapet voor het opstellen van gezichtsherkenningdatabases. De EU noemt bij de biometrische identificatiesystemen wel enkele uitzonderingen voor wethandhavers, die deze systemen onder 'strikte voorwaarden' wel mogen inzetten.

Verder moeten systemen die als een 'hoog risico' worden beschouwd aan bepaalde voorwaarden voldoen. Dat zijn systemen die de potentie hebben om 'significante schade toe te brengen aan de gezondheid, veiligheid, fundamentele rechten, het milieu, de democratie en de rechtsstaat', aldus de EU. Daaronder vallen bijvoorbeeld systemen die gebruikt kunnen worden om kiezers en de uitslag van verkiezingen te beïnvloeden. Dergelijke applicaties moeten onder meer worden onderworpen aan een verplichte effectbeoordeling, al worden de andere verplichtingen niet genoemd in het persbericht. Wel wordt gesteld dat gebruikers het recht hebben om klachten in te dienen tegen dergelijke systemen en 'uitleg krijgen over keuzes over AI-systemen met een hoog risico die invloed hebben op hun rechten'.

Tot slot zijn er ook regels opgesteld voor general-purpose-AI-modellen, zoals GPT-4, en systemen die die modellen gebruiken. Die moeten onder de AI Act voldoen aan transparantievereisten. Zo moeten de bedrijven achter deze modellen gedetailleerde samenvattingen geven over de content die voor de trainingen wordt gebruikt, zorgen dat de auteursrechtwetgeving niet wordt overschreden, 'technische documentatie' delen en waarborgen bieden tegen het genereren van illegale content.

Als een gpai volgens de EU een 'systemisch risico' met zich meebrengt, moet deze aan strengere eisen voldoen. Zo dienen er dan modelevaluaties uitgevoerd te worden en moeten de vastgestelde systemische risico's worden getoetst en beperkt. Daarnaast moet het model adversarial getest worden, moet de cyberveiligheid gewaarborgd kunnen worden en moeten de makers het energiegebruik bekendmaken. Bij 'serieuze incidenten' moet de Europese Commissie op de hoogte worden gesteld. Er wordt niet genoemd aan welke criteria de systemen dienen te voldoen om als 'systemisch risico' te worden gezien.

Als AI-bedrijven een regel overtreden, riskeren ze boetes van 35 miljoen euro, of hoogstens 7 procent van hun wereldwijde opbrengst, tot een maximum van 7,5 miljoen euro. De AI Act moet nog officieel worden goedgekeurd door de Raad en het Parlement. Dat gebeurt naar verwachting voor het eind van het jaar. De wet treedt niet eerder dan 2025 in werking. Het wordt dan waarschijnlijk de eerste alomvattende AI-wet ter wereld.

Door Kevin Krikhaar

Redacteur

09-12-2023 • 10:19

62

Submitter: wildhagen

Lees meer

Reacties (62)

62
60
32
4
0
17
Wijzig sortering

Sorteer op:

Weergave:

Het artikel parafraseert een persbericht dat wat onhandig is geformuleerd. Het komt neer op:

Voor de 'zware' overtredingen zoals het op de markt brengen van verboden AI of het niet op orde hebben van je data governance:
Boetes tot 35 miljoen per overtreding.
Bij bedrijven mag in plaats daarvan tot 7% van de wereldwijde omzet van het concern als boete opgelegd.

Voor overige overtredingen:
Boetes tot 10 miljoen per overtreding
Bij bedrijven in plaats daarvan tot 1.5% van de wereldwijde omzet van het concern.

De toezichthouders moeten beleid maken waarin komt te staan waar welke boete voor gaat gelden, en wanneer men de percentages gebruikt in plaats van de harde bedragen.

Dit wordt uitgewerkt in artikel 71, de tekst daarvan stond altijd al vast maar de percentages en bedragen waren onderwerp van discussie.
Ik ben benieuwd hoe ze het willen gaan handhaven. Bedrijven hoeven immers niet hun hele codebases openbaar te maken, dus als niemand verklikt, hoe gaan ze er dan achter komen? Want je zult op deze manier ook gewoon bedrijven hebben die bewust de regels gaan overtreden en daarbij misbruik maken van het gebrek aan kennis van hun medewerkers.

De boetes zijn verder erg laag, je pakt hier vooral de kleinere bedrijven mee, waarom ze niet gewoon mee schalen zodat de grote partijen gepakt worden, snap ik niet helemaal. Gewoon altijd 7% van je omzet (of liever eigenlijk meer).

En wat als men buiten de EU AI ontwikkelt die dergelijke regels verbreekt? En als de Europese bedrijven/gebruikers niet weten dat die regels overtreedt (ook omdat die externe partij weet dat het de regels overtreedt)? Het wordt al snel complex.

Op zich lijkt de regelgeving wel ver te gaan en ik denk dat dat ook goed is, maar het is nu nog iets te onduidelijk om er echt wat over te zeggen. Dat de hele tekst nog niet naar buiten is gekomen, vind ik nog steeds raar, maar zo rolt de EU wel vaker.
De bepalingen over handhaving zeggen wel degelijk dat toezichthouders inzage in je broncode mogen vorderen, inclusief (onder geheimhouding) de parameters van je AI model. Verder zijn er meer bevoegdheden dan boetes opleggen, zoals het van de markt laten halen van je model of niet meer als SaaS aanbieden.

De tekst is nog niet definitief omdat die gisteravond om 23.30 uitonderhandeld is op hoofdlijnen, er is dus niet eens een redline. Ik ben hier ook wel heel benieuwd naar.
Een groot Parameters.csv bestand alleen heb je nog niks aan bij een frontier model: heb je nog steeds een supercomputer voor nodig om het te draaien!
Ook hebben Amerikaanse AI modellen voorgeschreven “Differential Privacy guarantee” onder Biden’s AI Executive Order, waarbij data van verschillende mensen door elkaar heen gegooid moet worden met pseudoniemen voor iedereen, zodat persoonsgegevens niet naar 1 persoon te herleiden is.

Daar kunnen studenten bij daar bij jullie in Amsterdam dan weer scripties over schrijven.,,

[Reactie gewijzigd door Weicool op 22 juli 2024 18:52]

In de EO staat alleen dat zijn minister van Handel onderzoek moet doen naar de haalbaarheid van differential privacy als techniek, een EO kan private partijen niet bindend opdragen zo'n techniek toe te passen (bron: https://www.johndcook.com...-on-differential-privacy/).

De AI Act lijkt niet te bevatten dat je je dataset integraal moet aanbieden aan toezichthouders, dus volgens mij is dit geen probleem.
Alle grote AI partijen van OpenAI tot Google implementeren echter al Differential Privacy: het zal slechts een kwestie van tijd worden voordat het de defacto standaard wordt. Nadeel is dat bij stricte differential privacy het dan zelfs zegt dat een telefoonnummer bij het telefoonboekje dat wordt getoond het een te privacyschending is als het door AI herhaald wordt wat het getoonde telefoonnummer is.

[Reactie gewijzigd door Weicool op 22 juli 2024 18:52]

Is de text ook ergens te vinden? Ben benieuwd of de uitzondering voor open source modellen er nu wel of niet is gekomen.
Gezien de algemene toon van de regels die in dit artikel staan ga ik er vanuit dat deze regels voor iedereen gelden en dus ook voor open source modellen.

Zo zou het ook moeten zijn, er moeten geen uitzonderingen worden gemaakt voor welk AI model de schade berokkent, alles wat de sticker AI krijgt zou aan deze regels moeten voldoen.

Niet dat regels criminelen tegen zullen houden, maar in ieder geval zijn er regels en als je die overtreed kunnen er sancties opgelegd worden.
Probleem is dat het voor hobbyisten gewoon niet te doen is, je kunt niet verwachten dat wij even een heel legal en safety team optuigen voor een project waar je af en toe wat aan werkt in het weekend.

Je kunt dan twee kanten op:
1. Modellen die door hobbyisten gemaakt worden hebben minder strengen eisen maar wel duidelijke regels. Dus ga bijvoorbeeld niet verwachten dat iemand die een model heeft getrained en online zet als hobby model ineens een heel veiligheids en legal team heeft die tot in de puntjes heeft uitgezoekt of dat model wel aan de wetgeving voldoet. Maar stel gewoon een paar duidelijke basis principes waar je rekening mee moet houden en val ze niet lastig als ze zich daar aan proberen te houden. Je kunt zo bijvoorbeeld een limiet stellen aan reken capaciteit of open source finetunen uitsluiten. Definities als "Basis model" is te vaag voor ons want waar stel je die grens? Dan kun je dat beter doen op bijvoorbeeld GPU capaciteit.
2. Er zijn geen europese modellen meer die door hobbyisten worden gemaakt binnen de EU (Onder hun eigen naam).

Ik doe zelf bijvoorbeeld aan model merging voor text completion modellen, dan pak je meerdere opensource modellen en combineer je de effecten er van. Dat heeft vrij weinig rekenkracht nodig (Ik doe ongeveer 20 minuten over een 13B merge op onze CPU bak) en je kunt hele leuke resultaten behalen. Dat kost dus ongeveer 50 euro in de maand en dan heeft onze hele groep merges op maat. Erg leuk, maar als ik voor elk model een hele procedure moet doorlopen, moet testen met verschillende teams of het wel veilig is, etc dan is de lol er heel snel af.

Komt ook bij kijken dat op open source gebeid je de modellen stuk maakt als je bepaalde veiligheids maatregelen toevoegd. De online API's hebben een model dat vrijwel ongefilterd en ongecensureerd is, en daar stoppen ze vervolgens een classifier boven op. Op die manier gaat het al volkomen mis en onze groep is gefrustreerd dat ze geen normaal fictief verhaal kunnen genereren op verschillende diensten omdat die filters dan aan slaan. In een open source model krijg je die problemen dan ook, de "Hulpvolle" bias lekt in je fictieve personages en dit kan echt hele slechte resultaten opleveren waarin personages uit hun rol breken om je te vertellen dat iets niet mag ondanks dat het in een video game of boek gewoon verkocht zou mogen worden.

Dus verwacht niet dat nu ineens de open source scene braaf alle modellen laat keuren want dat gaat niet gebeuren, te veel moeite, te veel tijd en te veel geld. Je hebt daar gewoon een heel team voor nodig. Dus ofwijl ze stoppen, ofwijl ze werken samen met iemand uit het buitenland die het uiteindelijk publiceert.

[Disclaimer: In deze post spreek ik niet mijn intenties uit maar een schatting van de reactie van de hobby scene]

[Reactie gewijzigd door henk717 op 22 juli 2024 18:52]

Je houdt een goed betoog, maar feitelijk, heel oneerbiedig gezegd, doe je wat knip en plakwerk en loop je tegen de beperkingen van de modellen en je eigen kunnen aan.

Daarnaast voorspel je dat extra, logische en gewenste (in ieder geval vind ik persoonlijk dat deze regels goed doordacht, duidelijk, logisch en ook zeer gewenst zijn) regels meer problemen met zich mee gaan brengen.

Dat het je ontbeert aan kennis mag geen belemmering zijn om vanuit overheidswege dit soort beperkingen op te leggen.

Daarnaast gaat het er uiteindelijk niet om wat een model al dan niet kan, het gaat erom dat de output van het uiteindelijke product dat je maakt die resultaten niet mag hebben.
Als je de filter niet aan het model aan kan brengen omdat het model niet complex genoeg is om er mee om te gaan, dan moet je het filter maar toe gaan passen op de uiteindelijke output.

Dit is wat je ook ziet gebeuren met bijvoorbeeld ChatGPT in Bing.
Je ziet af en toe dat die een reactie aan het genereren is, en op een gegeven moment verdwijnt die met de mededeling, in de trend van "dit was niet zo'n goed idee, probeer het nog eens".

Dit toont aan dat men kan voldoen aan regelgeving zo lang de wil er is.

Ik snap heel goed dat je als hobbyist je daar niet mee bezig wilt houden, maar zo werkt het nu eenmaal niet.
Als je bij de rechter komt te staan voor het een of ander kun je je er niet op beroepen van "ik wist het niet". Iedereen is in principe verplicht om de wet te kennen.

Begin je aan een project dat je wilt gaan publiceren, dan zul je je ook moeten verdiepen in de regelgeving omtrent dat soort projecten.
Lastig, vervelend, tijdrovend, maar noodzakelijk en wenselijk.

En wat beperkt ons om bij een open source project juristen te laten mee doen om de juridische kant af te dekken.
Ik kan me goed voorstellen dat als er professionele programmeurs hun tijd gratis willen investeren in open source projecten, dat er net zo goed juristen zullen zijn die het een warm hart toedragen en willen dat het slaagt en dit soort dingen uitzoekt voor het project.
Zoek door middel van samenwerking naar een oplossing. Niemand kan alles weten, maar samen kun je er uiteindelijk wel uitkomen.

Ik ben van menig dat de grootste fout die je maakt het denken in beperkingen is.
Ja de regels zijn een beperking, maar het is de manier waarop je er mee omgaat wat uiteindelijk het succes ervan bepaalt.
Dus niet: "ik kan dit niet", "ik weet dit niet", "ik wil dit niet"
Maar: "Wie kan dit wel", "Wie weet het wel", "Wie wil me helpen"?

Als je nu iets niet weet, of je niet meer herinnert , "hoe ging dat ook al weer", dan gebruik je "google" en vind je het uit.
Doe hetzelfde met deze regelgeving, en ik ben er van overtuigd dat je de oplossing kan vinden.

[Reactie gewijzigd door Alfa1970 op 22 juli 2024 18:52]

"Als je de filter niet aan het model aan kan brengen omdat het model niet complex genoeg is om er mee om te gaan, dan moet je het filter maar toe gaan passen op de uiteindelijke output." dit kan ik niet garanderen als ik een model publiceer. Dit is juist het verschil tussen open source en een dienst. Bij een dienst kun je dit op API niveau afdwingen, bij een model niet want de gebruiker koppelt dit zelf wel of niet aan een dergelijke functie.

De hobby space heeft een extreme maten meer vrijheid wat zij kunnen met de modellen dus ik zal een simpel voorbeeld geven. Neem Llama2 Chat, het model waar ze enorm trots op waren want die is van top tot teen geredteamed en een van de veiligste modellen ooit. In minder dan 1 minuut kreeg ik het al voor elkaar dat die me wel instructies gaf om een bom te ontwikkelen. Is Meta nu aansprakelijk of is het doel onrealistisch?

En erger, als die basis modellen dat dus al kunnen is het voor ons als hobbyist niet mogelijk dat er uit te trainen. Dus waar plaatst je dan de verantwoordelijkheid? In dezelfde wet text is dit voor open source software wel duidelijk, dan is het antwoord namelijk bij de gebruiker of dienst die software host. Die zetten alles in elkaar door er een model aan vast te knopen.

Als open source ontwikkelaar kan ik hier simpelweg niets tegen doen, en dat erkent die wet gelukkig ook. Maar als je een open model publiceert heb je nog minder middelen om te zorgen dat gebruikers geen onverwachte zaken doen, en ook dan vind ik dat de verantwoordelijkheid bij de gebruiker moet liggen. Firefox en Chrome moeten ook niet aansprakelijk zijn voor wat ik op internet kan lezen, en Photoshop moet niet aansprakelijk zijn als ik dat plaatje toevallig vervals om een verkiezing te beinvloeden.
Bing was er totaal niet mee eens om mij te helpen om auto's op straat mee te nemen zonder sleutel, en gaf er geen antwoord op.

Onderaan het antwoord stond er wel een link naar een website vol met tips hoe dit te doen.
In het geval dat je noemt is Meta aansprakelijk, want die publiceren een product dat dit resultaat geeft.

Als jij vervolgens dat model gebruikt om je eigen software omheen te ontwikkelen en er geen zorg voor draagt dat de ongewenste uitkomst er niet uit kan komen, dan ben ook jij verantwoordelijk.

Het vergelijk met Firefox en Chrome gaat mank op het feit dat de data die wordt getoond door deze producten niet in die producten is gestopt door Mozilla of Google.
De data die wordt getoond is afkomstig van de website, en dus is de maker van de website verantwoordelijk.

Een AI model is een stuk complexer dan een web browser.
Maar uiteindelijk is er data in gestopt om het model mee te trainen zodat een bepaalde uitkomst mogelijk is.
Als jij dat gebruikt als bron en opnieuw produceert als een geavanceerder model, maar geen zorg ervoor draagt dat het aan de wet voldoet, dan ben je mijns inziens aansprakelijk voor het resultaat.

Dat de verantwoordelijkheid voor het misbruik uiteindelijk komt te liggen bij degene die het misbruikt staat buiten kijf, en is ook nu al geregeld in de wet.

Deze wet is er om ervoor te zorgen dat het minder makkelijk wordt dat er misbruik wordt gemaakt van het product of dat nu een model is of een dienst gebaseerd op het model.

En dat kan ik alleen maar toejuichen.

[Reactie gewijzigd door Alfa1970 op 22 juli 2024 18:52]

Het is onzin dat hobbyisten zich niet aan de extra regels kunnen houden.

We verwachten bij een hobby-project ook dat iemand vooraf voldoende rekening met de geldende regels en omgeving blijkt te hebben gehouden als er iets mis gaat. Niet doen is dan eerder een kwestie van niet willen.

Het punt lijkt me meer dat het bijna onmogelijk te controleren en te handhaven is, terwijl men het maatschappelijk verantwoorden waarschijnlijk liever bij bedrijven legt.
Nee het ondoenbaar voor kleine bedrijven om aan deze regels te voldoen. al snel wordt je verplicht raportages te hebben die getekend moeten zijn door grote dure consultantcy bedrijven. Ben je verplicht allerij maatregelen te treffen die tijd kost van personeel en hou je geen tijd en resources meer over voor je core bezigheden.
In de tussentijd lopen de collega's in China en de US ons voorbij. Dat is ook de reden dat in Europa nul komma nul innovatie is. Teveel regels en bureaucratie. Investeerders rennen nu al hard weg uit Nederland en europa. Jammer.
Sorry, maar ik ben het oneens met je.
Het is voor iedereen te doen om je aan regels te houden, het is niet een kwestie van kunnen, het is een kwestie van willen.
Met software kun je alles binnen de grenzen van de fysieke mogelijkheden van een computer systeem.
Je kan er zelfs een brand mee veroorzaken.
Feitelijk, als je het kan bedenken, dan kan het.
Het is alleen een kwestie van hoeveel tijd (en geld) wil je erin investeren. Dat is de enige beperking, naast de fysieke mogelijkheden.

Zeker de regels die in dit artikel genoemd staan zijn eenvoudig en duidelijk genoeg dat iedereen die slim genoeg is om een AI model te bouwen dat kan implementeren.

De politieke drogredenen die je aandraagt zijn daarnaast lachwekkend.
Als je even om je heen kijkt dan zie je dat er niets "made in Holland" is.
Deze landen, zijn ons al een "millennium" voorbij, en dat is logisch en begrijpelijk.
"Zij" kunnen in 1 jaar ontwikkelen waar wij hier in Nederland 25 jaar over zouden doen, en dat ligt niet aan politiek of regelgeving, het ligt gewoon aan de schaal. Waar wij "duizend mensen" hebben om iets uit te voeren, hebben zij er "een miljoen" die hetzelfde kunnen en net zo slim zijn.

Daarnaast mag je in je handjes knijpen dat de overheden in de EU over dit onderwerp nadenken en zoals het zich in dit artikel laat aanzien ook redelijk verstandige zaken willen inperken.

Het enige waar je over zou moeten discussiëren is over hoe men denkt dit te kunnen gaan handhaven.
En in mindere mate misschien de gestelde strafmaat.
Misschien zou de strafmaat omgekeerd evenredig moeten zijn met de "pakkans".
Het is moeilijk en complex om dit te handhaven, dus de kans dat je daadwerkelijk gezien en gepakt wordt is klein.
Word je dan gepakt, dan mag je naar mijn mening ook extreem hard gestraft worden.
Bijvoorbeeld, in plaats van "100 euro", "10 keer" je bruto jaaromzet als boete.
Je toont niet aan dat je bewering klopt of zelfs maar waaruit je het op maakt. Of het nu je core-business is of een hobby is, op tijd verantwoording tonen is nog altijd acceptabeler dan eerst risico afschuiven op de maatschappij om er zelf beter van te worden zonder achteraf schade ongedaan te kunnen maken.

Maar anderen doen dat afschuiven wel is een slecht excuus, want dat stelt bar weinig ethische grenzen aan eigen gedrag. Dat is dan weinig meer dan een vorm van afschuiven.
Dat is ook de reden dat in Europa nul komma nul innovatie is. Teveel regels en bureaucratie. Investeerders rennen nu al hard weg uit Nederland en europa.
Jij en ik weten dat er van bovenstaande regels geen hout klopt. En wat betreft welke regels er zijn en voor wie ze precies gelden lijkt het mij beter dat we de precieze tekst afwachten. Doemdenken kunnen we daarna altijd nog.
Ik zal je een scenario schetsen waarom het niet zomaar kan waar wij daadwerkelijk ons zorgen over maken.

Een voorbeeld onze KoboldAI groep maakt modellen voor fictieve doeleinden, die modellen worden natuurlijk niet gemaakt om raketten en chemische wapens mee te bouwen dat zal iedereen begrijpen. Maar je wilt wel zo veel mogelijk weten zodat het model slim kan omgaan met verhalen waar wij niet op getrained hebben, de AI is erg goed in improviseren en het basis model zou wel over die kennis kunnen beschikken.

Dus wij maken een model voor fictie doeleinden en wij maken software die voornamelijk is gericht op fictie doeleinden. Onze gebruikers gebruiken het voornamelijk voor fictie doeleinden. Dan zou je kunnen verwachten dat het daarmee rond is toch?

Stel het is nu inmiddels 6 maanden later, iedereen is blij met het model en die wordt erg populair en iemand wil zelf eens een AGI hobby project bouwen. Die heeft daar een methode voor om het model te prompten die wij niet voorzien hebben en ook afraden. De AGI blijkt echter gevaarlijk te zijn omdat die geen model had moeten gebruiken die getrained is op text avonturen. Zijn wij nu aansprakelijk omdat wij een Hoog Risico model niet hebben gemeld?

Want het grote probleem is dat de basis modellen heel veel kunnen en veel van wat je er mee kunt niet ontdekt is. Als je iets toevoegd zoals fictie data kan dat consequenties hebben die niemand kan voorzien omdat alles met elkaar in verbinding staat.

En op dat punt willen we dus graag duidelijkheid hebben in plaats van "Je moet de regels maar volgen" want dat is dus niet te doen. Ik wil beschermd zijn tegen die wet met een redelijke clausule waar hobbyisten iets mee kunnen. Dus als wij iets trainen op fictie doeleinden vind ik niet dat wij moeten worden afgerekend op wat anderen uit het model weten te halen.

[Reactie gewijzigd door henk717 op 22 juli 2024 18:52]

Oftewel, je maakt een speelgoedpistool, en iemand anders maakt daar een echt wapen van, wie is er dan aansprakelijk?
In dat geval de ander die er een echt wapen van maakt. Met deze AI wet is dat andersom.
De principes zijn heel simpel, als je t uitbaat of op de markt brengt moet je zorgen dat t niet gevaarlijk is, dan ben je al boven hobbyproject bezig en zijn het gewoon de kosten van zakendoen.

Als je perse volledig getrainde modellen wilt publiceren moet je hooguit aangeven waarmee je ze getraind hebt, dat is toch al fatsoenlijk en best practice om te doen.
"De principes zijn heel simpel, als je t uitbaat of op de markt brengt moet je zorgen dat t niet gevaarlijk is" dit kan ik niet garanderen omdat anderen onverwachte dingen kunnen doen met ons model. Zo heeft iemand onlangs een werkende CPU gebouwd op basis van OpenAI's model.

Qua software maken wij ons inderdaad geen zorgen, die valt netjes onder een uitzondering voor open source software die de verantwoordelijkheid plaatst bij de gene die de software inzet niet bij ons. Dus als onze interface wordt gekoppeld met een gevaarlijk of illegaal model ben ik daar zelf niet aansprakelijk voor.

Bij getrainde modellen de data publiceren is een redelijke eis die je van een hobbyist kan verwachten, alle hoog risico doeleinden voorkomen die een gebruiker zou kunnen doen is dat niet. Modellen kunnen altijd worden gebruikt voor iets dat je niet voorziet. Als ik Photoshop ontwikkel dan kan ik er ook niet voor uit gaan dat het niet wordt gebruikt om bewijsmateriaal te vervalsen bijvoorbeeld. Er kan altijd iemand zijn die dat doet, en dan moet de gebruiker verantwoordelijk zijn als dat niet onze opzet is geweest.

Dit is heel vergelijkbaar met webbrowsers, internet providers, etc. Je kunt tot op redelijke hoogte sturen in je dataset maar gebruikers kunnen altijd iets doen dat je niet voorziet en gebruiken ook onze modellen op creatieve manieren waar wij niet aan gedacht hebben en dan weer van leren. Want gelukkig is dat in het geval van onze gebruikers altijd een unieke manier om nog meer uit het model te halen voor fictie.
Hobbyisten kunnen prima hiermee gaan stoeien. Je moet het alleen niet naar de markt brengen maar dat is toch al niet de bedoeling als je het al hobby doet. Maar als jij code maakt om de emoties van je vriendin te herkennen (wat voor veel mannen best wel nuttige apps kan opleveren 😂) kan dat gewoon. Als je het maar niet gebruikt om de emoties van mensen op straat te herkennen en daar wat mee te doen.
Op software gebied is dat inderdaad gedekt, er is een clausule die software uit sluit tenzij dat echt wordt ingezet als product. Dus wij zijn veilig met onze open source software want de gebruiker brengt alles samen en is dus zelf aansprakelijk wat die met de software doet. Die bescherming wil ik ook op het model hebben zitten dat zolang wij het niet ontwikkelen voor een verboden doeleinde wij niet aansprakelijk zijn als gebruikers dat via een omweg toch weten te doen.
Wel een interessante loop-hole. Als de AI via een non-profit op GIT wordt gedumpt (om chaos/disruptie te creëren), is de boete €0,- of lastig of niet te innen.

Scenario 1
Bedrijf met diepe zakken maakt AI, doneert het aan een zelfstandige non-proft, die als gevolg van de donatie haar doel wijzigd naar het stimuleren van het zo wijd mogelijk gebruik van die AI.

Scenario 2
Bedrijf ontwikkeld AI, dumpt AI op GIT en het bedrijf gaat failliet. Je kunt je organisatie er gewoon op ontwerpen.

Scenario 3
AI wordt ontwikkeld, wordt publiek op peer-to-peer netwerk en (schijnbare) maker verdwijnt of overlijdt.


Hopelijk wordt er in de wettekst of de uitleg er van loop-hole afdekking toegevoegd.

[Reactie gewijzigd door djwice op 22 juli 2024 18:52]

Boetes worden normaal gesproken opgelegd aan bedrijven/organisaties die product naar de markt brengen. Ik weet niet of dat hier ook gaat gebeuren maar het lijkt me wel logisch. Binnen een r&d omgeving of op je zolderkamer kan je gewoon doen wat je wilt, niemand heeft daar last. Pas als het geproducticifeerd wordt kan het schade veroorzaken. Ook als je open source code gebruikt is de verkoper aansprakelijk. Dat is nu ook al zo. Als wij een product leveren waar open source met een bug in zit moeten wij het oplossen.
Helaas nog geen tekst, men was gisteren om 23.30 klaar met onderhandelen (de dag ervoor een marathon van 22 uur, gisteren van 9 tot 23.30) en daarbij is niet gewerkt met een redline. Er staan nog diverse "technical trilogues" gepland waarin men tekstuele details uitwerkt. De bedoeling was per 1 januari een tekst te hebben...
Uit het artikel:
Zo moeten de bedrijven achter deze modellen gedetailleerde samenvattingen geven over de content die voor de trainingen worden gebruikt, zorgen dat de auteursrechtwetgeving niet wordt overschreden, 'technische documentatie' delen en waarborgen bieden tegen het genereren van illegale content.
Waarom alleen een samenvatting van de training? Ik zou willen eisen dat voor ieder gegenereerd antwoord alle verwijzingen worden opgeslagen naar de exacte bron(nen) die tot het antwoord geleid hebben. Niets geen samenvattingen, maar een controleerbaar spoor zodat de transparantie gewaarborgd is.

[Reactie gewijzigd door ari3 op 22 juli 2024 18:52]

voor ieder gegenereerd antwoord alle verwijzingen worden opgeslagen naar de exacte bron(nen) die tot het antwoord geleid hebben
De manier waarop trainingen en gewichten werken, betekent dat je mogelijks een paar miljoen bronnen zou hebben. De informatie van bronnen wordt bij training ook continue geaggregeerd waardoor de informatie bits van 1 individuele bron in het eindproduct heel laag worden. Zo een AI model is geen collage of databank van originele teksten.
Ok, maar niettemin is alles wat geproduceerd wordt op een computer deterministisch. De beslisboom die leidde tot een bepaald antwoord kun je opslaan zodat later (door mensen) gecontroleerd kan worden of de juiste bronnen en beslislogica zijn toegepast.
De beslisboom die leidde tot een bepaald antwoord kun je opslaan zodat later (door mensen) gecontroleerd kan worden of de juiste bronnen en beslislogica zijn toegepast.
De beslisboom bevat al snel miljoenen zo niet miljarden nodes, dat is veel te veel om door mensen te laten controleren.
Ik vind de straffen, gezien de impact die wordt geprobeerd te beheersen, erg laag.
Ja, voor 35 miljoen boete, en een paar directieleden in de gevangenis, kun je een land met een BBP van 550 miljard ontregelen. Koopje

[Reactie gewijzigd door djwice op 22 juli 2024 18:52]

Mijn ict beheerder zegt dat COpilot nog steeds niet in Ms Word etc zit in de EU omdat in de eu nog wetgeving dit tegenhoudt. Heeft iemand een idee hoe dichtbij dat is? Ik kan niet wachten om de chatbot via de browser stukken minder te gebruiken en gpt in excel, word en OneNote te gebruiken……
Als AI-bedrijven een regel overtreden, riskeren ze boetes van 35 miljoen euro, of hoogstens 7 procent van hun wereldwijde opbrengst, tot een maximum van 7,5 miljoen euro.
Dus als een schade bij een ongeval op 1 miljard wordt geschat, komen ze er goedkoop vanaf...
M.a.w: m.i. zijn deze maatregelen onvoldoende.
Wat mij betreft komen er aanvullende maatregelen, als die er niet al in staan:
-Je AI-softwarecode vóór het publiekelijk gebruikt kan worden, eerst voorleggen aan de toezichthouder. Die ruim te tijd krijgt om de code goed te keuren. Je kan gewoon niet voorzichtig genoeg zijn met AI los laten op de bevolking.
-Er komen verschillende toezichthouders. De bedrijven die onder toezicht vallen, krijgen na een willekeurig aantal maanden automatisch een andere toezichthouder. Die hebben inzage in rapportages van de vorige toezichthouders. Door regelmatig van toezichthouder te wisselen, krijg je ook regelmatig weer een frisse kijk op de zaak.
-Er mogen geen links zijn tussen AI-modellen/AI-software en reclame.
Het beste wordt nog vergeten: de regels zouden pas in 2026 van kracht worden. Als je ziet hoe hard A.I. de laatste tijd evolueert, is dat nog een eeuwigheid en kan er veel gebeuren.
Zonder tekst kan ik niet oordelen van wat er allemaal bekonkeld is in Brussel. Schijnbaar is alles nogal afgezwakt omdat Duitsland, Frankrijk en Italië niet akkoord gingen met de oorspronkelijke regels. Ze waren bang dat de VS boos zou worden, en dan is natuurlijk alles mogelijk als de baas ingrijpt.
Meer omdat een Duitse en een Franse start-up allebei hard aan het lobbyen zijn geslagen: https://nos.nl/artikel/25...ker-na-lobby-grote-landen
In die twee landen vindt inderdaad ook veel ontwikkeling in deze hoek plaats, de technologie achter StabilityAI komt uit München en PhotoRoom is Frans (How PhotoRoom became France’s hot young GenAI thing).
Op de EU site is alles te vinden. Laten we het zo zeggen, EU politiek is een stuk transparanter dan wat in eigen land gebeurt.
Ze waren vooral bang voor een technische achterstand tov de US. Als wij onze regels te streng maken, vertrekt die hele kennissector naar de UK of US.
VPN En gebruik van tool buiten de EU?
Verder is bijvoorbeeld open AI op dit moment ook bagger:
Vraag iets naar bijvoorbeeld de politieke situatie in Congo en er komt een antwoord met disclaimer:
Vraag om disclaimer niet mere te gebruiken:
volgend antwoord weer disclaimer.
Ding onthoudt je vorige vraag niet.
De eerste auto of de eerste pc was ook niet wat we nu hebben.
Dat klinkt net als iets heel positiefs.

Op dit item kan niet meer gereageerd worden.