GitHub en bedrijven pleiten bij EU-politici voor bescherming van opensource-AI

Een aantal softwarebedrijven, waaronder GitHub en Creative Commons, pleit in een open brief aan het Europees Parlement voor een betere bescherming van opensourcesoftware in de AI Act. De bedrijven denken dat die manier van werken AI juist veiliger kan maken.

De brief is opgesteld door GitHub, Creative Commons, EleutherAI, Hugging Face, Laion en Open Future. De schrijvers richten zich op Europese beleidsmakers die werken aan regelgeving omtrent kunstmatige intelligentie en dan vooral de restricties die daaraan worden opgelegd. De bedrijven, die allemaal een verdienmodel hebben rondom opensourcesoftwareontwikkeling, pleiten er bij het Europees Parlement voor dat dergelijke ontwikkeling op bepaalde punten wordt uitgezonderd van de restricties in de AI Act. "De wet kan upstream-opensourceprojecten reguleren alsof het commerciële of al uitgebrachte AI-systemen zijn", schrijft GitHub. Dat kan volgens de briefschrijvers vervelende gevolgen hebben voor ontwikkelprocessen. Ook waarschuwen de schrijvers dat op die manier individuele onderzoekers en nonprofitonderzoeksinstituten hun werk niet meer kunnen doen.

De briefschrijvers denken dat opensourceontwikkeling juist van meerwaarde kan zijn voor kunstmatige intelligentie. "Open source ligt aan de grondslag van AI-ontwikkeling en beleid", zegt GitHub. Opensourceontwikkelaars zouden voor best practices zorgen, modellen documenteren en voor transparantie zorgen. Ook zou zulk beleid bijdragen aan verantwoordelijke ontwikkeling, samenwerking en concurrentie, zeggen de schrijvers.

In de brief staan vijf suggesties voor hoe de beleidsmakers volgens de ondertekenaars met AI moeten omgaan. Ze zouden moeten beginnen met het definiëren van de componenten van kunstmatige intelligentie. Europese techwetten, zoals ook de AVG, zijn bewust technologieneutraal opgeschreven. Zo kunnen nationale toezichthouders en juristen daar interpretatie aan geven via uitspraken en besluiten. De briefschrijvers willen echter dat die definitie direct uit de politiek komt.

Een andere suggestie is dat samenwerkende groepen die aan opensource-AI-projecten werken, worden uitgezonderd van de AI Act. Dat is geen altruïstisch voorstel, want het zou betekenen dat de bedrijven die de brief ondertekenen, niet onder de wet vallen, maar hun concurrenten wel.

De briefschrijvers pleiten er verder voor dat Europese toezichthouders meer samenwerken met ontwikkelaars en dat de wet voorziet in praktijktests voor onderzoeken. Tot slot willen de schrijvers dat de wet een duidelijk onderscheid maakt tussen verschillende soorten kunstmatige intelligentie, waarbij open source een aparte categorie is.

Door Tijs Hofmans

Nieuwscoördinator

26-07-2023 • 10:23

34

Reacties (34)

34
33
14
0
0
18
Wijzig sortering
ah.. edit kwijt door refresh omdat ik nooit fipo wil zijn :( de ironie.

anyway.. recap:
Is er al Dark-AI, wat is het en wie gebruikt het waarvoor. Misschien leuk artikel.
Niets over gehoord nog dus misschien is het er nog niet.
AuteurTijsZonderH Nieuwscoördinator @MrMonkE26 juli 2023 10:53
Er zijn inmiddels zoveel AI's dat ik door de bomen het bos amper meer zie. Het is zo moeilijk om daarin kaf van koren te scheiden...
Het is eigenlijk ook niet zo belangrijk. Ik las net ergens dat ze llama2 LLM middels tooling kunnen de-censureren. Nog niet de moeite genomen er in te duiken maar als dat inderdaad kan zullen die Dark-AI's waarschijnlijk gedecensureerde mainstream modellen zijn.
Ik zie dat probleem ook en je weet niet meer waar je mee moet beginnen, tevens zullen al die oplossingen uiteindelijk tot een oplossing samengevoegd worden verwacht ik logischerwijs.
Als iemand een Dark-AI wil maken kunnen ze gewoon een pretained open-source AI model zoals LLama2 pakken en ze bijtrainen op een hoop PDFs die ze op het darknet vinden.

Qua performance waarschijnlijk ook niet op dat chatgpt niveau met antwoorden die helemaal kloppen. De malware die het schrijft zal waarschijnlijk van simpel niveau zijn en/of niet perfect out-of-the-box werken.

Als iemand nu illegale spullen wil maken kunnen ze dat ook al. AI maakt het misschien iets makkelijker om informatie te vinden maar het is nog geen autonome Terminator software ofzo.

[Reactie gewijzigd door Osiummaster op 23 juli 2024 06:40]

Nog niet. Maar AI kan dat wel al in beperkte mate. Met sommige code op .github kun je een AI al informatie laten zoeken in internet pagina's bv. Maar de code is open dus je kunt er van alles zelf aan plakken. Ik verwacht op gegeven moment hacker-models die net als een hacker met geduld en vaardigheid langzaam een systeem kan binnen dringen. Alleen niet gewapend met de kennis van 1 hacker maar met de gemeenschappelijke kennis van zeg 1000 hackers. Dan zul je aan de andere zijde waarschijnlijk weer AI-security systemen tegenover die actief alles in de gaten houden met de kennis van 100000 sysadmins. Een wedloop. :o
Ja, exact dat.
Dank je voor de link.
Ik heb het verhaal nu al 3x gelezen en snap het nog steeds niet.
Probeert de voorgestelde AI Act om Open Source AI projecten te bestempelen als commercieel, waardoor er mogelijk licentie problemen ontstaan?
En Github (lees: Microsoft) is hier tegen en wil graag meer erkenning van Open Source binnen de AI Act?
De wet is geschreven alsof de wereld bestaat uit grote bedrijven als Google en Microsoft en verder niks. Sommige regels waar die grote bedrijven aan kunnen voldoen zijn onuitvoerbaar voor open source projecten.

Zo moet je controleren of je software aan de wet voldoet. Dat klinkt heel simpel en logisch maar dat kan pas op het moment dat je iets hebt dat klaar is voor gebruik. Juristen kunnen niet iedere patch checken, die willen een kant en klaar product dat ze in één keer kunnen beoordelen.

Open source developers hebben ontwikkelversies typisch publiek toegankelijk online staan. Het is niet realistische om te verwachten dat de eerste alpha versie van een applicatie direct door een leger van dure juristen wordt gecontroleerd.

Een ander probleem is dat de maker van het model verantwoordelijk wordt gesteld voor de werking van de software bij klanten. Het idee is dat als de AI een fout maakt dat je daar de verkoper de schuld van kan geven en niet te gebruiker. Bij open source mag iedereen alles vrij downloaden en aanpassen, je kan de oorspronkelijke programmeur moeilijk verantwoordelijk stellen voor wat anderen met zijn werk doen.

Zo zijn er nog veel meer punten waarop de wet er van uit gaat dat er een groot bedrijf is met veel geld voor juristen, personeel, licenties etc. Open source developers kunnen daar niet aan mee doen. Dat is dubbel zuur omdat al het zware werk is gedaan door wetenschappers die typsich open source werken. Nu wordt hun werk overgenomen door grote bedrijven en krijgen ze eigenlijk een wettelijk verbod om nog verder te gaan aan hun eigen onderzoek.
Dank voor deze uitleg!

Als ik het goed begrijp, dan komt het erop neer dat grote bedrijven een kunstmatig schaalvoordeel krijgen als gevolg van de vereiste juridische check. Dat lijkt mij zeer onwenselijk. Wel vraag ik me af hoe je een ander mechanisme kan opzetten dat kan afdwingen dat AI projecten binnen de wettelijke grens blijven.
Als ik het goed begrijp, dan komt het erop neer dat grote bedrijven een kunstmatig schaalvoordeel krijgen als gevolg van de vereiste juridische check. Dat lijkt mij zeer onwenselijk. Wel vraag ik me af hoe je een ander mechanisme kan opzetten dat kan afdwingen dat AI projecten binnen de wettelijke grens blijven.
De juridische check is maar een voorbeeld, er zijn meer punten waarop de wet er van uit gaat dat er een groot/rijk bedrijf is om mee te praten en te onderhandelen. Wetenschappers en open source development werkt niet zo. Zo iets simpels als "vul hier het telefoonnummer van de klantenservice in" is al een probleem, die is gewoon niet want die ontwikkelaars zijn niet bezig met het maken van een commercieel product.
Overigens bestaan er nog allerlei tussenvormen en grijstinten. Er zijn bijvoorbeeld ook kleine bedrijven die tegen ongeveer dezelfde problemen aanlopen.
Ok. goed punt dat kleine bedrijven hieronder te leiden hebben.
Echter, het initiatief van deze brief komt toch vanuit GitHub = Microsoft. Github Copilot is nu al bekritiseerd omdat het langs de grens van auteursrecht loopt (ze noemen het nu "fair use"), dus ik kan me voorstellen dat ze geen zin in strakke regels hebben.

Microsoft is een zeer commercieel bedrijf, met commerciële belangen. En ze hebben een groot en duur team aan marketeers en juristen (en gedragspsychologen, analysen, etc) om dingen zo te formuleren dat het lijkt alsof hun voorstel voor het "grotere goed" zijn. Microsoft weet ook precies welke partijen ze bij zo'n brief moeten betrekken om het zo te laten lijken en heeft de mensen en macht om die partijen over te halen mee te doen.
Zeker zo'n publiek blog is ook goed voor beïnvloeden van de publieke opinie/stemmingsmakerij: er staat wel een naam van een schrijver bij zo'n stuk, maar het is waarschijnlijk samengesteld door experts en 10x gecontroleerd voor posten.
Als ik dit anders lees, pleiten ze vooral voor meer vrijheid en inspraak, c.q. macht. Ik vind het meer lobbyisme.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 06:40]

Ik snap waar je vandaan komt, maar het voelt alsof je de complexiteit van deze situatie een beetje vermindert.

Ja, het klopt dat Microsoft de eigenaar is van Github, en dat door deze aankoop een connectie met OpenAI is ontstaan, wat uiteindelijk tot de opkomst van Copilot en de daarbij horende controverse heeft geleid. Desondanks, opereert Github over het algemeen nog behoorlijk zelfstandig. Ondanks het feit dat Microsoft de meerderheid van de aandelen bezit, blijft Github qua bedrijfsvoering vrij autonoom. Er is ontegenzeggelijk een zekere mate van invloed, maar deze is niet direct. Net zoals bij LinkedIn heeft Microsoft Github gekocht vanwege zijn succes, met meer kapitaal geïnvesteerd, maar heeft het de structuur niet volledig overgenomen en van binnenuit veranderd.

Daarnaast huisvest Github een van de grootste opensource-communities, waarin over het algemeen iedereen alles deelt met iedereen. Github heeft zich altijd sterk gemaakt voor de bescherming van deze projecten en het faciliteren van de deelnemers, en heeft zich meermaals uitgesproken voor deze bescherming.

Ik spendeer het grootste gedeelte van mijn tijd op Github aan het werken met opensource code, en ik ben zeker niet de enige. Github begrijpt dit maar al te goed, dus is het van cruciaal belang voor hen om deze opensourceprojecten te beschermen, zelfs als deze wetgeving specifiek gericht is op het AI-gedeelte van de opensourceprojecten.

Dit is minder een kwestie van Microsoft en meer van Github die zijn marktpositie en de community die het heeft gecreëerd, verdedigt. Wat volkomen begrijpelijk is voor een bedrijf.

Bovendien staat Github niet alleen in deze strijd. Microsoft is ook erg actief in het ondersteunen en aanmoedigen van de opensource community.

Het probleem dat hier wordt aangesneden is zeer zeker relevant voor de opensource community waar Github zo sterk omheen is gebouwd.
Volgens mij is het probleem dat het voor open source projecten moeilijk of onmogelijk kan zijn om aan de voorgestelde regels te voldoen, zeker als er geen groot bedrijf achter zit.
In principe zou dat geen probleem moeten zijn. Uiteindelijk is het de leverancier van een product (dat al dan niet open source componenten bevat) die verantwoordelijk is. Een open source project levert niets aan de consumenten of bedrijven.
Dat hangt van je definitie van leveren af.

Als je de broncode vrij kan downloaden kan dat als levering gezien worden.

Het probleem kan zijn dat als ik morgen Tweakers-AI-plus als project aanmaak op github, en er alleen een README.TXT neerzet, ik mogelijk volgens de voorgestelde wet al aan allerlei eisen moet voldoen.
Er komt regelgeving voor AI, deze bedrijven willen dat er een uitzondering voor opensource AIs komt omdat ze direct geld verdienen daarmee.
Als deze voorstellen er toe zouden leiden dat meer AI projecten open source gaan dan kan ik het alleen maar toejuichen. Veel van de zorgen omtrent AI kunnen worden weggenomen door het beschikbaar te maken aan iedereen die het zou willen gebruiken.
Zolang de trainingsdata van een AI model niet Open Source is is het slechts een binairy blob en dus niet Open Source. Geen van de genoemde bedrijven hebben hun AI echt open source gemaakt.
Ben benieuwd hoe je dat bedoeld, want op github groeit het aantal oplossingen en kun je afhankelijk van de wensen verschillende datasets downloaden die je via ML in de gekozen oplossing toepast.
Anoniem: 1777010 26 juli 2023 11:45
Opensourceontwikkelaars zouden voor best practices zorgen, modellen documenteren en voor transparantie zorgen.
En daarna kan Microsoft ermee vandoor. Dat zagen we eerder. Pak op wat open source heeft gemaakt, verpak het in een commerciële licentie en de developers mogen kruimeltjes bedelen middels een donatie model.
Op de eerste plaats is dat het licentie model waar je voor kiest. Als je niet wil dat dit gebeurt, waarom kies je dan voor een licentie die het expliciet toestaat? Open-source hoeft niet gratis te zijn, en ook niet verplicht gratis voor commerciële doeleinden.

En op de tweede plaats word er weldegelijk geïnvesteerd door dit soort bedrijven in open-source projecten. Misschien niet allemaal, maar als ze er grootschalig gebruik van gaan maken dan word er meestal dan wel financieel, dan wel met developers gesteund. Wel zo handig als je wilt dat het blijft bestaan en door ontwikkeld word.

En meestal is het geen wat in een commerciële licentie verpakt is een eindproduct. In veel gevallen het zelfde als een Linux systeem mee leveren met een betaalde oplossing.

Soms is het inderdaad niet sjiek wat er gebeurt, maar het is niet de de facto standaard.
Misschien is het beter om de wetgeving rondom ai door opensource ai te laten schrijven.
Al deze lobbyclubjes hebben een averechtse invloed op politici.
Er kunnen toch ook andere lobbyclubjes opgericht worden die het tegengeluid laten horen?
Leuk weetje: AI detectors zeggen dat The Constitution van de US vrijwel zeker door een AI is geschreven.
Bron Arstechnica
Oops, ik dacht dat dit over de copyright delen van de wetgeving ging ipv de veiligheidsregels.

[Reactie gewijzigd door Pinkys Brain op 23 juli 2024 06:40]

Het Europese bedrijfsleven is eveneens niet te spreken over dit wetsvoorstel:
European companies claim the EU’s AI Act could ‘jeopardise technological sovereignty’ / Over 150 executives from companies like Renault, Heineken, Airbus, and Siemens have signed an open letter urging the EU to rethink its plans to regulate AI.
(Bron: European companies claim the EU’s AI Act could ‘jeopardise technological sovereignty’)
Dit is toch een beetje de omgekeerde wereld.
De reden waarom AI "Open Source" is geworden kwam omdat een paar partijen hun modellen per ongeluk publiek gemaakt hadden, en vervolgens kwam men er achter dat de open-source community zelf sneller en met betere oplossing kwamen. Waardoor uiteindelijk Google heeft aangegeven dat er geen grote partij zal zijn die de AI-race zal winnen. Het enige waar ze op kunnen winnen is bij de eerste initiële training van het model.

Het helpt ook dat open-source heel breed gedefinieerd kan worden. Maar laat nu net deze partijen hun trainings data juist niet willen of kunnen publiceren. Nee, de voorstellen zijn niet echt een verbetering.
M.a.w. ai moet in de EU restricties krijgen, zodat de bedrijven in de VS meer vrijspel hebben vergeleken bij bedrijven in de EU. En zo wordt de EU buitenspel gezet in de Ai race.

Slim van ze.

Op dit item kan niet meer gereageerd worden.