Europese AI-wetgeving gaat mogelijk niet gelden voor opensourcemodellen

De Europese AI Act krijgt mogelijk een uitzondering voor opensourcemodellen. Dat blijkt uit compromisvoorstellen die Reuters en TechCrunch hebben ingezien. Als dergelijke modellen een 'hoog risico' hebben, vallen ze volgens de documenten wel onder de regels van de AI-wet.

Eerder pleitten softwarebedrijven als GitHub en Creative Commons al voor een uitzondering voor opensourcesoftware. Volgens Reuters en TechCrunch krijgen dergelijke partijen nu deels hun zin. Er gelden wel enkele uitzonderingen op die uitzondering. Als een opensourcemodel 'op de markt wordt gebracht of anderszins als dienst beschikbaar wordt gemaakt', valt deze bijvoorbeeld wel onder de AI Act. Het is niet duidelijk hoe dit precies wordt geïnterpreteerd en of dit bijvoorbeeld betekent dat alleen opensourcesoftware die niet commercieel beschikbaar is, kan worden uitgezonderd.

Ook als de software een hoog 'systemisch risico' heeft, is de AI Act-uitzondering niet van toepassing. Volgens TechCrunch wordt daaronder verstaan dat het model 'een hoge impact' kan hebben. Dat geldt onder meer als de cumulatieve hoeveelheid rekenkracht die voor de training wordt gebruikt, meer is dan 1025 flops, ofwel floating point operations per seconde. Er zijn momenteel maar weinig modellen die daaraan voldoen.

Als de AI Act in werking treedt, moeten AI-systemen die in Europa opereren, aan verschillende regels voldoen. Zo moeten generatieve-AI-modellen voldoen aan bepaalde transparantie-eisen, zoals openbaar maken dat de content door AI is gegenereerd. Ook moeten ze duidelijk maken welk auteursrechtelijk beschermd materiaal voor hun training wordt gebruikt en waarborgen bieden tegen het genereren van illegale content. AI-systemen die worden gebruikt voor 'sociale scores', zoals beveiligingscamera's met automatische gezichtsherkenning, worden onder deze wet geheel verboden.

Een hoop partijen hebben de afgelopen maanden geprobeerd om Europese wetgevers over te halen om uitgezonderd te worden van de AI Act. Vooral de Franse AI-start-up Mistral en het Duitse Aleph Alpha hebben flink gelobbyd om foundation models te laten uitzonderen van de AI Act. Zij hadden als tegenvoorstel om zichzelf te reguleren. Hier lijkt de EU niet in mee te zijn gegaan, maar ze kunnen mogelijk dus uitgezonderd worden als ze gratis en open source zijn.

Het was de bedoeling dat het Europees Parlement en de Raad van de Europese Unie woensdag voor het laatst zouden onderhandelen over de invulling van de AI Act. Reuters schrijft echter dat de partijen het over bepaalde cruciale punten nog steeds niet eens waren, waardoor ze de onderhandelingen hebben doorgetrokken naar donderdag. Eurocommissaris Thierry Breton laat op X weten dat de gesprekken voor donderdag zijn beëindigd, maar dat ze vrijdag opnieuw om de tafel gaan. Wel beweert Reuters dat de partijen het donderdag eens zijn geworden over de regulering van de foundation models, al schrijft het persbureau niet wat de uiteindelijke consensus is geworden.

Door Kevin Krikhaar

Redacteur

07-12-2023 • 15:41

52

Lees meer

Reacties (52)

52
50
17
3
0
31
Wijzig sortering
Volstrekt geen logica te bedenken waarom open source modellen niet onder de AI act zouden vallen.

Je ziet dat alle bedrijven, zowel closed sourced als open sourced bezig zijn geweest om zo snel mogelijk een model de wereld in te slingeren en transparantie en bias op de achtergrond zijn geschoven.

En dan komt er een AI act, en dan is iedereen bang, want ze weten dat ze daar geen goed antwoord op hebben.

Deels ook omdat de AI act ook wel vanuit een theoretische benadering is geschreven.
Wat er in de AI act staat is op zich niet zo bijzonder. Iedereen die met een aantal mensen om de tafel gaat zitten om te kijken waar AI aan moet voldoen komt op die punten uit.
bv met neutrale data getraind zonder biases.
Maar hoe kom je aan een set training data waar geen bias in zit? Hoe bepaal je dat het neutrale data is zonder bias? De AI act geeft daar geen antwoord op.

Zoiets roepen is makkelijk, maar het in de praktijk ten uitvoer brengen niet.

Geen enkel model is op dit moment getraind met neutrale data, want ze hebben vooral gekeken hoe ze zoveel mogelijk data konden verzamelen en zo snel mogelijk. Data scapen van internet is natuurlijk nooit neutraal.
Maar betekent dat daarmee dat de data onacceptabel is? Dat het model ook biased is?
Hoe bepaal je dat? Wanneer is het dan wel goed genoeg? Als we het opnieuw gaan trainen kunnen we dan vaststellen dat het model wel goed is?
Daar geeft de AI act geen antwoord op.

Eén ding is duidelijk, of het open source is of closed source heeft daarop geen enkele invloed. En zou dus niet moeten uitmaken of de AI act van toepassing is.
je kan van opensource modellen niet verwachten dat erover gemodereerd kan worden, in mijn opinie zou ze erin zetten betekenen dat je opensourcemodellen gewoon illegaal maakt en alleen grote bedrijven.AI mogen maken en bepalen wat je wel en niet mag doen met AI.

in mijn opinie een goede take van de EU hier.
Opensource betekend niet dat je geen voorwaarden aan het gebruik mag hangen.

Sterker nog, er zijn zat licenties die van alles en nog wat al beperken en je ziet dat een aantal opensource AI projecten ook gewoon zaken uitsluiten van hun modellen.
Opensource betekend niet dat je geen voorwaarden aan het gebruik mag hangen.

Sterker nog, er zijn zat licenties die van alles en nog wat al beperken en je ziet dat een aantal opensource AI projecten ook gewoon zaken uitsluiten van hun modellen.
Ja, alleen hangt het afdwingen van die licenties natuurlijk weer wel af van de advocaten en dus ook van het doorzettingsvermogen van een ontwikkelaar.

Als een particulier een GPL-gelicensed project maakt bijvoorbeeld en een groot bedrijf maakt daar misbruik van, dan mag die particulier het bedrijf daarvoor gaan aanklagen. Ook al heb je dan strikt genomen gelijk en sta je in je recht, veel succes om die zaak te winnen.
Ja, alleen hangt het afdwingen van die licenties natuurlijk weer wel af van de advocaten en dus ook van het doorzettingsvermogen van een ontwikkelaar.
Is dat hier relevant? Zoals ik @LOTG begrijp, stelt hij voor in de voorwaarden op te nemen dat een gebruiker van de source code zich houdt aan de EU-regelgeving. Als hij of zij dat niet doet is dat niet het probleem van de aanbieder van de open source code, die heeft zich netjes aan de wet gehouden.

Alleen hoef je in de licentie niet dingen op te nemen die al per wet geregeld zijn, of begrijp ik het verkeer @LOTG ?
Alleen hoef je in de licentie niet dingen op te nemen die al per wet geregeld zijn, of begrijp ik het verkeerd.
Maar het staat wel interessant. Kijk maar eens naar al die verkoopvoorwaarden, waarin de consumentenbescherming wordt gepresenteerd alsof ze die zelf hebben uitgevonden en kijk is hoe vriendelijk wij zijn. :)
Dit inderdaad. Op deze manier kunnen kleine(re) spelers ook nog aan AI werken.
Ik begrijp totaal niet wat je wilt zeggen.
Waarom zouden opensource modellen illegaal gemaakt worden als ze aan de AI act moeten voldoen? En hoe is dat dan anders dan closed source modellen?
En waarom zou dat betekenen dat alleen grote bedrijven AI kunnen maken?
Het probleem met open source modellen is dat deze niet alleen gemaakt worden door grote bedrijven, maar ook door hobbyisten en kleine groepen. Die delen graag modellen en hebben een significante contributie op de voortgang van de technologie. Daarnaast zijn het de hobbyisten die vaak het meest enthousiast zijn over deze tech en gaan onderzoeken!

Zo'n wet maakt open source modellen niet direct illegaal, maar maakt het wel bijna onmogelijk om open source te kunnen werken. Het trainen kost vaak al honderden euros, en om er dan verplicht duizenden euro's aan keuringen en regulaties aan te hangen maak je het onmogelijk voor deze groepen om zelf te maken.

Grote bedrijven daarentegen kunnen zich veel meer veroorloven, wat is een paar duizend euro nou als je er honderden duizenden aan gaat verdienen? Voor bedrijven is het een investering, maar voor hobbyisten die er niks aan verdienen zijn het waardeloze extra kosten.

En een bedrijf (zoals Facebook of Mistral, maar ook OpenAI als ze nou eens echt open waren) kunnen gewoon hun modellen open source maken... Maar dat doen ze niet want het gaat alleen om de portemonee bij hun.
n verplicht duizenden euro's aan keuringen en regulaties aan te hangen maak je het onmogelijk voor deze groepen om zelf te maken.
Welke duizenden euros? Daar is totaal geen sprake van!
Ik raad je aan de AI Act eens te gaan lezen.

Alleen maar in het geval dat jij een "high risk" AI oplossing maakt, word er overwogen om een daar een soort CE keurmerk voor te verplichten.
Maar hobbyisten maken geen high risk AI's. Dan moet je denken aan volledig zelfrijdende autos op niveau 5.
Dat je voor zoiets overweegt een keurmerk van te maken, daar kan toch niemand op tegen zijn?
hmm, toevallig zijn de llama2 modellen van Meta en Mistral(niet van Meta) volledig open source... OpenAi en bv Anthropic zijn zeker close.
Een hobbyist gaat geen producten aan de markt leveren. Als dat wel gebeurt is het geen hobbyist meer en is het niet meer dan logisch om de geldende richtlijnen toe te passen. Als je producten gaat leveren moet je die kosten gewoon meenenem in de business case. Als hobbyist mag je nu ook niet zomaar elektronische producten gaan verkopen die niet aan de richtlijnen voldoen.
Op zich snap ik je punt wat betreft opensource, maar dat is niet het probleem van wetgeving. Dat wapenwetten het voor particulieren lastig maken om wapens te fabriceren, betekent niet dat particulieren maar uitgezonderd moeten worden. Als er wetgeving is voor AI, moet iedereen zich daar gewoon aan houden, ook al hebben grote bedrijven dan een voordeel. Maar met de rekenkracht die nodig is voor AI, denk ik niet dat er veel particulier initiatieven zullen zijn, eerder grote bedrijven die zich slinks aan de regels zullen proberen te onttrekken.
Volstrekt geen logica te bedenken waarom open source modellen niet onder de AI act zouden vallen.
De logica is dat regulier wetenschappelijk onderzoek anders de facto onmogelijk zou worden, de administratieve lasten zijn veel te hoog. Alleen bedrijven die in het geheim research kunnnen doen tot ze een commercieel kansrijkproduct hebben zouden anders nog aan AI kunnen werken.

Ik ben het met je eens dat het botst met de doel van de wet, nl de angst voor AI beteugelen (ik laat even in het midden of dat terecht is).

Ik denk dat de angst dat deze techniek exclusief in de handen van een enkel bedrijf valt ook mee speelt. Het is nu al steeds meer het terrein van de megabedrijven die miljarden uitgeven aan onderzoek. Een te strenge wet zou het vakgebied helemaal exclusief maken voor de megatech bedrijven.
Dat zou dan weer botsten met alle pogingen die we doen om hun macht te beteugelen.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 22:30]

Probleem met de AI act was dat hobbyisten en onderzoekers geen geld hebben om elke versie van hun open source model of uberhaupt een versie door de EU te laten keuren. Dat kost duizenden euros en het trainen zelf kost al snel honderden euros. Dus in onze eigen groep was al het plan om de europeanen niet meer te laten tunen en ik was zelfs bereid af te treden in mijn eigen positie als dit door kwam.

Dus dit is voor de hobby communities zeer belangrijk dat wij gewoon onze hobby mogen uitoefenen en met AI mogen spelen / leren. Anders heeft de EU straks geen AI talent.
Er is helemaal geen sprake van dat je een AI door de EU moet laten keuren. Er is dus ook geen sprake van dat je duizenden euros moet uitgeven.

Net zoals je voor GDPR niks hoeft te laten keuren.

Maar je moet je wel aan de wet houden wanneer de AI Act actief word.
En je moet kunnen laten zien dat je je er aan houd. En dat kost natuurlijk wel tijd en daarmee geld.
Maar dat is heel wat anders dan wat jij beweerd.

[Reactie gewijzigd door mjtdevries op 22 juli 2024 22:30]

Ik denk dat de grootste waarde hierin is dat onderzoek naar AI alsnog gedaan kan worden zonder rekening te houden met de AI act, die mogelijk beperkend is op het onderzoek.
Dus de waarde is dat je dan onderzoek kan doen waarbij je een AI op een on-ethische manier kan trainen.
Hebben we daar echt behoefte aan?

Helaas is in de menselijke geschiedenis de nodige nuttige kennis uit on-ethische experimenten gekomen, maar ik zou dat richting de toekomst toch zoveel mogelijk willen vermijden.

Waarschijnlijk had je helemaal niet in deze richting gedacht, maar de AI act is echt niet zo beperkend. Wat er in staat is allemaal nogal voor de hand liggend als je op een verantwoordelijke manier met AI wil omgaan.
Dus de waarde is dat je dan onderzoek kan doen waarbij je een AI op een on-ethische manier kan trainen.
Hebben we daar echt behoefte aan?
Dat verhindert de AI Act dan ook totaal niet. Het verhindert alleen dat een model op een onwettige manier getraind wordt.

Je moet echt niet vergeten dat die twee fundamenteel verschillend zijn. Niet alles wat onwettig is, is onethisch, en niet alles wat onethisch is is ook onwettig.
Wat wil je hier mee zeggen?
De inhoud van de AI Act gaat juist over veel ethische zaken.
Als dat dan een wet is geworden en je houd je er niet aan, dan word het onwettig ja.

Wat heeft dat te maken met waar we het over hadden?
> maar de AI act is echt niet zo beperkend

Als ik me niet vergis mag alleen getraind worden op "unbiased" data sets. Bestaat zoiets uberhaupt? En zo ja, hoe kom je er aan, en hoe bewijs je dat de set unbiased is?
Goede vragen ja, die niet zo makkelijk beantwoord kunnen worden.

Maar ben je het er ook niet over eens, dat het belangrijk is dat daar over nagedacht word, vóórdat je een AI gaat trainen met je data sets?

Zou het niet vanzelfsprekend moeten zijn dat AI ontwikkelaars dat doen?
En als dat vanzelsprekend is, dan is de AI Act niet zo beperkend.

Of ben je happy met de huidige situatie waar iedereen maar aan kan klooien, alleen maar gericht op snel veel geld verdienen en dat ethiek er niet toe doet?
Voor die partijen is de AI Act wel beperkend. Maar met die partijen heb ik geen medelijden.
Je zegt daarmee eigenlijk dat je AI in Europa wil verbieden, door er onhaalbare eisen aan te stellen. Dat lijkt me niet wenselijk, gezien de rest van de wereld wel blijft ontwikkelen.

Zijn biases een probleem? Ja, natuurlijk. Maar mensen hebben ook biases (dat is natuurlijk waar de AIs ze vandaan hebben). Bij mensen vragen we ook niet om vooraf (voordat ze bijvoorbeeld een belangrijke functie gaan vervullen) te bewijzen dat die van hun niet zeer sterk of schadelijk zijn. Dat is immers onmogelijk te bewijzen. Maar mensen die overboord gaan met hun biases kunnen daar op worden afgerekend. Dat kan en zal met AIs ook gebeuren. Daarom denk ik dat zelf-regulatie in dit geval werkt.

Ik schrijf bovenstaande overigens met content generation in het achterhoofd. Voor het beoordelen van krediet aanvragen en fraudegevallen door AI mag de lat wat mij betreft zeer hoog gelegd worden.

Waar zelf-regulatie naar mijn idee minder werkt: het voorkomen dat er een super AI wordt gecreëerd dat per ongeluk een godcomplex ontwikkelt.
Ik zeg helemaal niet dat die eisen onhaalbaar zijn. Dat maak jij er van.
Microsoft is er van overtuigd dat hun modellen in OpenAI nu al volledig aan de AI Act voldoen. Die vinden het dus ook niet onhaalbaar.

Dus mijn vraag aan jou: Waarom zijn het volgens jou onhaalbare eisen?
Niemand kan modellen creëren zonder enige bias, laat staan bewijzen dat dat het geval is.

Ik denk dat Microsoft hier gewoon bluft: hun advocaten kunnen, als dat nodig is, een zaak jaren lang rekken en nuanceren. Door zich achter dit plan te scharen sluiten ze alle competitie buiten die dat zich niet kan veroorloven.
Geen enkel model is op dit moment getraind met neutrale data, want ze hebben vooral gekeken hoe ze zoveel mogelijk data konden verzamelen en zo snel mogelijk. Data scapen van internet is natuurlijk nooit neutraal.
Maar betekent dat daarmee dat de data onacceptabel is? Dat het model ook biased is?
Hoe bepaal je dat? Wanneer is het dan wel goed genoeg? Als we het opnieuw gaan trainen kunnen we dan vaststellen dat het model wel goed is?
Data is nooit neutraal, je kan proberen te bewijzen waarom een set data neutraler is dan de andere maar dat betekent niet dat het beter is. De wereld is inherent biased dus neutrale data is een utopie, ook zullen modellen die neutrale data gebruiken waarschijnlijk een heel stuk slechter presteren want de gebruikers die het testen zijn biased.

Als het opensource is kan het getest worden op de bias en kijken waar het mis gaat, dan kan er openljk naar gekeken worden hoe een model "zich gedraagt". Daarom is het een reden om open source het er niet onder te laten vallen, omdat je dan kan onderzoeken hoe het model werkt.
Dit moedigt het open source maken van aan en zorgt dus ook voor minder closed source projecten als dat veel gedoe is met regel en wetgeving.
Juist - wel regels bedenken maar niet hoe je deze regels gaat controleren.... typisch....

En ook vooral nogal vaag "Het mag geen illegale content genereren". En hoe werkt dat dan? Desinformatie mag niet...okay....maar sprookjes vertellen mag wel.... (want religie en films en boeken zitten er vol mee).
Echte mensen tonen die dingen doen die ze niet hebben gedaan is ook niet altijd gewenst maar toch is dat weer afhankelijk van de context.

De AI Act in een notedop: het mag alleen gebruikt worden voor goede dingen en het mag niet kwaadaardig zijn..... :9
Tja, dat is wel een beetje zo. Maar het alternatief is dat BigTech lekker aan klooit zonder ergens rekening mee te houden. Die situatie willen toch ook niet door laten gaan?

Dan is het niet zo slecht dat een begin is gemaakt om te kijken hoe je AI op een goede manier implementeert, zodat het mensen niet schaadt.
Dat het niet meteen een perfect wetgeving is, is niet vreemd. Maar de AI producenten zouden ook eens mee kunnen denken hoe dat beter gemaakt kan worden, ipv alleen maar te proberen alle wetgeving te ontwijken of torpederen.

Hoewel Microsoft wel lijkt in te zien dat de AI Act een goede start is.
Dat ben ik wel met je eens [dat bedrijven een rem nodig hebben] maar gezien het feit dat het nogal vaag is kun je hier weer weinig mee.

Het probleem zit veel dieper - bedrijven zouden maatschappelijk belang voorop moeten stellen i.p.v. winst maken. Dat is in een notendop ook wat er scheelt aan kapitalisme....

Ook hebben we dus een AI act die moet zorgen dat de maatschappij er niet onder zal lijden - het doel van een bedrijf blijft "winst maken" en als dat betekent de regels een beetje oprekken / omzeilen / bestrijden / breken (met positief financieel resultaat ook na boete), dan zullen bedrijven zich er dus niet aan houden.
Ik ben het helemaal eens met uw stelling bijzonder frappant , we zien een gevaar in ai en willen dat beteugelen. Stel ik maak een wapen, waarbij ik alle specificaties publiceer, en geef iedereen de mogelijkheid om die zonder licentie en kosten te maken. Maar de patronen van mij zijn eigenlijk extreem gevaarlijk, revolutionair zeg maar. Dan hoef ik opeens niet meer aan nieuwe wetgeving te voldoen, maar alleen aan de bestaande.
Zij hadden als tegenvoorstel om zichzelf te reguleren.
:') :') :') Dit is als een slager die zijn eigen vlees keurt. Blij dat de EU hier niet in is mee gegaan.

En vraag mezelf ook af wat een opensource model dan precies is.
[...]
En vraag mezelf ook af wat een opensource model dan precies is.
Stable diffusion is opensource, de code is zichtbaar en je kan kiezen tussen verschillende trainingsmodellen. Bovendien kan je het zelf hosten en dus runnen op je eigen hardware
Ik denk dat opensource in deze niet alleen over de beschikbaarheid van het model gaat, maar ook over de trainingsdata. Ik kan dit niet echt concreet terug vinden in het bronmateriaal, maar heb dat dan ook geskimmed.
De kern van wat ik langs zie komen is dat de modellen "are made accessible to the public under a licence that allows for the access, usage, modification, and distribution of the model, and whose parameters […] are made publicly available”. Dus zowel source van je software als parameters van je model. De dataset zelf lijkt niet meegenomen.
Dat is wel opmerkelijk (ik geloof het, hoor) maar ik zou verwachten dat daar de crux zit.
Ik kan een model met parameters trainen op wikipedia of hetzelfde model met dezelfde parameters trainen op nazi propaganda. Het 1 lijkt me een risicovoller ding in gebruik dan het ander.

Het model en de parameters bepalen de complexiteit en de nauwkeurigheid, de dataset bepaalt wat eruit komt. Persoonlijk lijkt het me eerder dat je inzicht wilt hebben in de dataset, en dan pas in het model en ten slotte in de parameters.

[Reactie gewijzigd door Anoniem: 718943 op 22 juli 2024 22:30]

Maar als je een onderzoeker bent die nazi's probeert te doorgronden is het opeens wel een handige tool.
Maar Je moet die nAzI uiteraard niet je belastingdienst laten runnen.
Dat is wel goed, maar ik denk dat de grote bedrijven dan meer de nadruk gaan leggen op het niet kunnen draaien van zulke gigantische modellen op consumenten hardware.

edit: En wat is een opensource AI model nou precies, een grote bak weights dumpen?

[Reactie gewijzigd door cane op 22 juli 2024 22:30]

De source code van een model open maken is natuurlijk leuk, maar de waarde zit juist in de trainingsdata.
Als de code open source is, maar de trainingsdata niet weet je nog steeds niet welke bias er in de data kan zitten, of die data op een ethische manier verkregen is en of die data eventueel auteursrechtelijk beschermd materiaal bevat.

Het lijkt mij dat eventuele uitzonderingen op die wet juist hun trainingsdata openbaar moeten maken zodat onafhankelijk getoetst kan worden of de uitkomsten van het model bruikbaar zijn voor het doel waarvoor hij gemaakt is.
Het artikel gaat over de trainingsdata van AI projecten, en de verantwoordelijkheid en transparantie die daar bij komt kijken.
Zo moeten generatieve-AI-modellen voldoen aan bepaalde transparantie-eisen, zoals openbaar maken dat de content door AI is gegenereerd. Ook moeten ze duidelijk maken welk auteursrechtelijk beschermd materiaal voor hun training wordt gebruikt en waarborgen bieden tegen het genereren van illegale content.
En verder gaat het er juist om dat opensource projecten dus een uitzondering willen. Om te voorkomen dat iemand opensource roept en er dan mee weg komt betekend het ook dat het als dienst of verwerkt in een product niet mag worden aangeboden zonder aan de act te voldoen.

[Reactie gewijzigd door LOTG op 22 juli 2024 22:30]

Een beetje offtopic, maar wat zijn goede voorbeelden van open source AI-modellen? Ik heb zelf een keer gezocht en kon wel openbare datasets vinden (waar de AI's mee getraind worden), maar geen echte open-source modellen zoals GPT-3 ofzo.
Deze werd gisteren door Google gelanceerd. Lijkt een van de besten tot nu toe.

https://tweakers.net/nieu...ano-pro-en-ultra-aan.html
Llama modellen van Facebook, en vooral alle finetunes daarvan. Er is ook Mistral 7B (en opkomende andere modellen van hun) en de finetunes daarvan. Laatst is er vanuit China Yi 6B en 34B gekomen (hoewel dat niet open source is).

Deze modellen zijn altijd te vinden op Huggingface. Je kan op Reddit ook r/LocalLLaMA bezoeken voor een gemeenschap van gebruikers van open source LLM's.

De nieuwste modellen komen dichtbij of verslaan GPT-3.5 in performance, maar kunnen nog lang niet op tegen GPT-4.
Slaat nergens op, OF alle AI vallen onder dezelfde regels of geen, er moet geen verschil zijn tussen opensource en closed source. Is echt raar waarom de 1 wel en de ander niet. Uiteindelijk zal men zich toch niet aan die regels houden, en AI al helemaal niet.
Er zijn twee kanten hier natuurlijk, maar ik sta vooral aan de kant van open source als vrije markt.

Het reguleren van AI model training is dat er dus extra werk bij komt kijken. Open source developers kunnen zich zulke extra bsniet veroorloven, dus voor echt veel werk betekend regulatie dat enkel grote bedrijven nog AI modellen kunnen maken.
Vrije markt als hoogste doel en enige ethische verantwoordelijkheid is alleen maar lastig.
Dat is eigenlijk wat je zegt.

En ik moet ook gewoon een onveilig voertuig voor op de weg kunnen verkopen zonder keuring, want regulering is maar lastig en slecht voor de vrije markt.

Wat dat met open source te maken heeft is mij een raadsel.

We hebben in het dagelijks leven te maken met talloze wetten die er zijn om de veiligheid van producten te garanderen. Denk aan allerlei wetten om te voorkomen dat er met ons voedsel gerommeld word. We blokkeren mais vanuit de VS omdat hun wetgeving op dat gebied veel zwakker is.

Maar bij AI willen we dat niet en willen we anarchie? Dat begrijp ik niet.
AI-systemen die worden gebruikt voor 'sociale scores', zoals beveiligingscamera's met automatische gezichtsherkenning, worden onder deze wet geheel verboden.
Zeer slecht voorbeeld, automatische gezichtsherkenning wordt helemaal niet verboden.
Hi allen,

ik schrijf een krantenstuk.

Wat is jullie mening over deze alinea:

Een van de meest prangende kwesties is de omgang met open-source AI-modellen. De AI Act is hier namelijk deels niet van toepassing op. De AI Act lijkt niet volledig voorbereid te zijn op de impact en de unieke uitdagingen die deze modellen met zich meebrengen. Terwijl de wet zich richt op commerciële en grootschalige toepassingen biedt de open-source natuur van dergelijke modellen een achterdeur voor potentieel misbruik en ethische problemen. Denk hierbij aan het creëren van geavanceerde malware of het uitvoeren van cyberaanvallen. Ook het maken van deepfakes, het verspreiden van nepnieuws, of het manipuleren van openbare meningen en verkiezingen zijn risicos die open-source AI met zich meebrengen.


Kunnen jullie hier nog wat aan toevoegen??

Ik ben benieuwd!

Met vreindelijke groet,
Maartje

[Reactie gewijzigd door maartjeclaartje op 22 juli 2024 22:30]

Anoniem: 718943 @Heloise7 december 2023 21:34
Ik vind het zoch wel goed dat heel deze AI ontwikkeling daar de aandacht krijgt. Het is een krachtige ontwikkeling en je wil voorkomen dat losslaat of gemonipoliseerd wordt.

De intentie is goed, maar zoals gewoonlijk heb ik lichtelijke vraagtekens bij de uitvoering.
Er is helemaal geen onduidelijkheid over wat er wel en niet onder de EU AI Act gaat vallen. Dat is heel netjes gedefinieerd in die act.

Maar er zijn nu allerlei lobby groepen die niet onder die act willen vallen, omdat ze weten dat ze niet aan die wet voldoen. En die proberen nu van alles om maar niet onder die wet te vallen.

Dat heeft geen zier te maken met vermeende haastige spoed van de EU.

Op dit item kan niet meer gereageerd worden.