Ceo ChatGPT-maker OpenAI: wetgeving voor AI is essentieel

Sam Altman, de directeur van ChatGPT-maker OpenAI, gaat dinsdag in de Amerikaanse Senaat betogen dat wetgeving voor AI-toepassingen essentieel is. Wel moet er volgens de topman ruimte blijven voor innovatie.

Altman gaat volgens de Financial Times zeggen dat hij staat te 'popelen om beleidsmakers te helpen terwijl zij regels bepalen die veiligheid stimuleren en tegelijkertijd garanderen dat mensen toegang hebben tot de voordelen van de technologie'. AI-bedrijven zouden volgens Altman moeten voldoen aan een reeks eisen om de veiligheid te garanderen. "En daar moeten ook interne en externe tests vóór de release tussen zitten."

Die regels moeten wel flexibel blijven, zo zal Altman gaan benadrukken. Zo moet het nieuwe ontwikkelingen in de komende jaren niet in de weg zitten. Altman komt getuigen voor een commissie van de Amerikaanse Senaat om te praten over regels rondom AI. De Amerikaanse overheid wil stappen ondernemen om regels te maken rondom kunstmatige intelligentie en generatieve AI. Het is nog onbekend hoe die eruit zullen moeten gaan zien. De Europese overheid is ook al bezig met wetgeving rond kunstmatige intelligentie, de AI Act. De commissie van de Senaat zal de hoorzitting livestreamen.

Judiciary-commissie van Amerikaanse Senaat
Zaal van de judiciarycommissie van de Amerikaanse Senaat

Door Arnoud Wokke

Redacteur Tweakers

16-05-2023 • 14:27

38

Reacties (38)

38
38
22
1
0
16
Wijzig sortering
Ik zit met een dilemma:
Langs de ene kant: de gevaren van AI zijn natuurlijk wel voor iedereen duidelijk.
Maar de keerzijde is natuurlijk: criminelen gaan zich NIET aan de regels houden.
Dus riskeren criminelen een voorsprong te krijgen op de normale ... Bedrijven / gebruikers.
Dus regelgeving is zeker een goed idee, maar we moeten voorzichtig zijn!
Voor mij zijn die gevaren helemaal niet zo duidelijk.
Als je een hamer in handen geeft van een psychopaat is het een gevaarlijk wapen, maar dat ligt niet aan de hamer en speciale wetgeving voor hamers gaat daar niets aan veranderen. (Tenzij je alleen nog hamers van schuimrubber gaat toestaan natuurlijk.)
Dat is het "guns don't kill people" argument dat de NRA al decennia voert. Dus dat werkt ook niet.
Wat betreft wapens (en het gebruik van alledaagse dingen als wapens) hebben we anders regelgeving genoeg

[Reactie gewijzigd door jaapzb op 27 juli 2024 05:08]

Nee, zo zwart wit is het niet. Het is niet zo dat "de goede" alles netjes zullen doen en alleen de "boeven" er misbruik van zullen maken.
Ook al lang niet iedereen zich bewust van de potentiële gevaren van dit soort technieken.

Het is sowieso de taak van de overheid/-heden om de burger te beschermen tegen kwaadwillende en ook tegen zichzelf. Dus er zijn sowieso regels nodig.
En denk bijvoorbeeld ook aan aansprakelijkheid: wat als een apparaat dat automatisch dingen voor jou doet schade veroorzaakt: wie is aansprakelijk?

[Reactie gewijzigd door MeMoRy op 27 juli 2024 05:08]

De gevaren van AI zijn voor de meeste mensen helemaal niet duidelijk. In tegenstelling tot wat velen denken zit het gevaar niet in de mensen die het gaan gebruiken. Het gevaar zit juist in de AI zelf, zodra die 1000x slimmer en meer capabel is dan ons mensen, deze niet meer te controleren is en doelen na gaat streven die niet in lijn zijn met onze eigen doelen.
Ga eerst eens bestaande wet- en regelgeving handhaven die AI overtreedt, zoals dat van het auteursrecht en algemene voorwaarden van sites die niet gerespecteerd worden. Luister daarna naar onafhankelijke experts (niet de CEO's van grote organisaties) voor het implementeren van nieuwe wet- en regelgeving.

[Reactie gewijzigd door The Zep Man op 27 juli 2024 05:08]

Ga eerst eens bestaande wet- en regelgeving handhaven die AI overtreedt, zoals dat van het auteursrecht en algemene voorwaarden van sites die niet gerespecteerd worden.
Volgens sommigen valt dit onder 'fair use', en in de USA kan dat, dacht ik, alleen 'aangetoond' worden in een rechtszaak met een jury.

Dus misschien in de wet zetten dat bij alle 'fair use' een zichtbare link naar de bron moet staan? Maar dat zal dan alleen gelden als minimaal x achter elkaar staande woorden uit die bron komen, en dat kun je met een GPT makkelijk afwisselen. Ik vermoed dat Sam Altman zo'n idee niet naar voren gaat brengen.
Volgens sommigen valt dit onder 'fair use', en in de USA kan dat, dacht ik, alleen 'aangetoond' worden in een rechtszaak met een jury.
Een 'probleem' met een dergelijke rechtszaak is dat daarmee ook 'fair use' voor mensen wordt gedefinieerd, en daar zijn (grote) organisaties niet blij mee. Zo kan bijvoorbeeld Nintendo lastiger YouTube filmpjes neerhalen als gebruikers zich makkelijker kunnen beroepen op fair use.
Een 'probleem' met een dergelijke rechtszaak is dat daarmee ook 'fair use' voor mensen wordt gedefinieerd, en daar zijn (grote) organisaties niet blij mee.
Dat is inderdaad een belangrijk punt. Je zou verschil kunnen maken wat betreft het soort gebruik. Ik heb geen ervaring met wetgeving opstellen :+ maar de 'professionals' zullen het wel zo doen dat de grote bedrijven er blij mee zijn.
Ik vind het altijd best opmerkelijk dat wanneer het over AI gaat, zoveel mensen ineens de meest fanatieke medewerkers van Stichting Brein doen verbleken.
Volgens mij is het pro-piratenkamp ook niet zo sterk hier op Tweakers dus ik vraag me af of je punt daadwerkelijk zo solide is als je denkt.

En dan heb je ook nog 't verschil tussen downloaden/auteursrechten schending voor eigen consumptie of als verdienmodel...

[Reactie gewijzigd door Polderviking op 27 juli 2024 05:08]

Het idee achter de auteurswetgeving is weggevallen, alleen de rechthebbenden en belangenbehartigers verdienen (disproportioneel) aan auteursrecht. Volgens het AR mogen er geen kopieën van teksten/muziek/beeldmateriaal gemaakt worden. Iedereen die weet hoe een computer werkt weet dat er semi-ontelbare kopieën worden gemaakt van bestanden via caches van bijvoorbeeld de SSD en RAM.
Die regels moeten wel flexibel blijven, zo zal Altman gaan benadrukken. Zo moet het nieuwe ontwikkelingen in de komende jaren niet in de weg zitten.
'Ja er moet controle komen, maar pas over 7 jaar zodat we in de tussentijd kunnen doen wat we willen. 7 jaar geleden had niemand (!) verwacht dat de ontwikkelingen in AI zo snel zouden gaan, dus over nog eens 7 jaar staan we heel veel verder. Ja dan, wanneer het speelveld wéér radicaal is veranderd, dán moet er wetgeving komen'. 8)7

510(k) clearance bevat een enorm loophole (die levens heeft geëist).
De wapenhandel in de VS zit ook vol met loopholes. Amerikaans lobbysysteem idem.

Oh ik geloof wel dat Sam Altman staat te popelen. Dan kan bij aan tafel zitten en ogenschijnlijke geitenpaadjes introduceren die later enorme inpact hebben. Vanwege de draaideurpolitiek gaat er, denk ik, niet heel veel terecht komen van wetgeving die burgers moet beschermen. Eerst aan tafel zitten als politicus, dan het bedrijfsleven in om je zakken te vullen, om vervolgens weer de politiek in te gaan en je eigen (en/of die van je companions/businesses) commerciële opnieuw te verdedigen en de weg vrijmaken van eventuele juridische obstakels. :/

[Reactie gewijzigd door 5pë©ïàál_Tèkén op 27 juli 2024 05:08]

Cynisme ten top, maar ik vermoed ook dat Sam Altman daar voornamelijk bij wil zitten om zijn eigen belangen te behartigen.
Ga je mensen ook vervolgen die een verhaal navertellen?

Want a) ChatGPT kan bij lange na geen boek naschrijven en b) dit is een samenvatting/herschrijving, dus niet origineel.

Hiernaast mag ik toch ook thuiskopieeën hebben, dus ik mag wel de Harry Potter dvd kopiëren, maar geen boek van ChatGPT herverteld krijgen voor eigen gebruik. Ik heb de stichting al gedwongen geld betaald omdat ik kopieën maak.

Er wordt ook niet direct verdient hieraan. Feitelijk is het een slimme Wikipedia, mag dat ook niet meer?
Al die innovatie in de open source wereld, met dingen als LoRA die het tunen van LLMs in bereik brengen van de gewone burger moeten echt stoppen! Ze weten niet wat ze doen, wij van WC Eend, uhm, OpenAI, weten wel wat we doen.

Voor deze man is de democratisering van LLM technologie een bedreiging voor zijn (nooit echt doordachte) business model. En het is dat businessmodel wat hij hier aan het verdedigingen is... Niet de samenleving, imho.

[Reactie gewijzigd door teek2 op 27 juli 2024 05:08]

Als je https://technomancers.ai/...-us-open-source-software/ leest, is het bijna dat de lobbyisten van Microsoft proberen OpenAI als eerste en enige te laten certificeren, zodat ze voorlopig de enige met een cash-cow gaan zijn inderdaad.

Er jammer van de beleidsmakers in de EU imho.

[Reactie gewijzigd door BCC op 27 juli 2024 05:08]

Ja ik vraag mij ook sterk af wat ze denken te bereiken door een monopolie toe te eigenen. Google releasde hun PaLM-2 model (New Bard) al niet in de EU vanwege het strenge beleid.

EU wetgevingen kunnen zomaar een jaar duren. Met de vele opensource modellen die nu uitgebracht worden op hugginface en met een enorme vaart getraind doormiddel van bijvoorbeeld Mosaic MPT-7B service en modellen.

Als Google hun Bard model dan over een speculatief jaar kan introduceren omdat de Europese wetgeving is aangepast en Bard is getuned naar die standaarden/eisen, Of OpenAI een monopolie heeft. Is het dan niet zo dat de nieuwe opensource modellen al zo ver doorontwikkeld zijn omdat dat in een belachelijk tempo gebeurt nu? Iedereen kan een H100 GPU afbetalen in 3 jaar tijd en een Python Library installeren, Vervolgens het gewenste model uitzoeken, uitbreiden en voeren met je eigen informatie.

Ik sta er sterker nog echt niet van te kijken als binnen nu en een jaar het mogelijk is dat een MPT-7B of VICUNA model zichzelf/zijn eigen model volledig zou kunnen reproduceren in een gewenste andere programmeer taal als F# of C++ of dat je hem zou kunnen uitbreiden met extensies die je terplekken zou kunnen verzinnen en die hij via een virtuele muis en toetsenbord driver rechtsreeks in VSCode schrijft, zichzelf optimaliseert via een hardware monitor met verschillende memory management profielen etc. etc.
Al die innovatie in de open source wereld, met dingen als LoRA die het tunen van LLMs in bereik brengen van de gewone burger moeten echt stoppen!
LoRa die het tunen van LLM in bereik brengt van de gewone burger? Heb je hier meer informatie over? LoRa netwerken zijn toch proprietary?

@ArawnofAnnwn bedankt voor de verheldering!

[Reactie gewijzigd door Jerie op 27 juli 2024 05:08]

Andere Lora. Er is kennelijk een methode van Microsoft die ze ook lora hebben genoemd, terwijl Lora al een bestaande en steeds meer gebruikte technologie is. De Microsoft lora heeft met stable diffusion te maken in language models. Iets dat ik ook pas sinds vandaag weet (en dus te weinig van af weet). Verwarrend en onhandig gezien de bestaande lora. Alsof je een opvolger van USB maakt en PCI noemt.

@teek2 Geen enkel probleem!

[Reactie gewijzigd door ArawnofAnnwn op 27 juli 2024 05:08]

Ik vond het ook onduidelijk. Maar het gaat hier over Low-Rank Adaption of Large Language Models. En niet over het Long Range datanetwerk.
Voor de volledigheid: LoRA is open-source gemaakt door Microsoft, net zoals DeepSpeed. De initiatieven die Microsoft openbaar maakt zijn echt fundamenteel voor onderzoekers en hobbyisten. Het is daarom fascinerend (in mijn ogen) dat OpenAI zo een gesloten houding aanneemt maar hun partner Microsoft (in dit gebied!) veel opener is.
Je maakt wel erg veel insinuaties.
Al die innovatie in de open source wereld, met dingen als LoRA die het tunen van LLMs in bereik brengen van de gewone burger moeten echt stoppen!
Wat wil je daarmee zeggen? Ik moest het even opzoeken. "LoRA, short for Low-Rank Adaptation, is a novel approach to fine-tuning large language models." Je wil zeggen dat mensen dan een bestaand model kunnen fine-tunen voor oplichting of hacking doeleinden?
Voor deze man is de democratisering van LLM technologie een bedreiging voor zijn (nooit echt doordachte) business model. En het is dat businessmodel wat hij hier aan het verdedigingen is... Niet de samenleving, imho.
Wat wil je zeggen, geen doordacht business model? Heel de wereld staat op zijn kop. Of wil je zeggen niet doordacht wat de neveneffecten zouden zijn?

Had je dan liever dat hij niet mee dacht over AI wetgeving? Ben je van mening dat andere mensen of politici het beter kunnen? Of denk je dat hij de wetgeving op zo'n manier naar zijn hand wil zetten? Het blijft wat gokken naar wat je bedoelt.
https://www.reddit.com/r/...n_openais_business_model/

En hij mag er best over denken maar hij is toch wel een beetje vooringenomen.

[Reactie gewijzigd door teek2 op 27 juli 2024 05:08]

Dit klinkt zoals Sam Bankman-Fried (van FTX, de crypto exchange die omviel door extreem slecht management), die stevig aan het lobbyen was voor de DCCPA.

Een mogelijk voordeel zou zijn geweest dat mensen dan meer richting gecentraliseerde exchanges worden geduwd door "decentralized finance" moeilijker te maken en het leven voor een exchange als FTX te verbeteren.

Ik wil deze twee heren met dezelfde voornaam niet met elkaar vergelijken omdat deze Sam hopelijk beter management voert, maar net als Elon Musk die een "AI pauze" wil om zelf een concurrent op te kunnen zetten lijkt het me sterk dat de heer Altman dit uit de goedheid van zijn hart doet.

De volgende uitspraak van hem lijkt mij bijvoorbeeld al direct tot een voordeel voor OpenAI te zorgen:
"En daar moeten ook interne en externe tests vóór de release tussen zitten."

[Reactie gewijzigd door Stukfruit op 27 juli 2024 05:08]

Even wat context, Elon was een van de oprichters van OpenAI. Dat hij een pauze wilt is logisch, dat hij zelf een chatbot opzet is ook logisch aangezien dat iets is dat hij wilt integreren in Twitter. Net zoals dat hij nu Twitter gaat gebruiken als video platform als alternatief voor YouTube. Het ene maakt het andere niet waar.
Ik heb niet gezegd dat de beweegredenen voor hen niet logisch zijn. Ik benoem met een recent voorbeeld wat de motivatie kan zijn voor de topmensen achter deze bedrijven om zelf actief achter (bijvoorbeeld) wetgeving aan te gaan om te benadrukken dat het hier niet om een uiting van liefdadigheid gaat.

Dat laatste is op het eerste gezicht niet per se logisch omdat het in de bijbehorende uitspraken wordt afgedaan als "for the safety of our users" tot aan het extreme "voor de toekomst van de mensheid", wat op zichzelf een twijfelachtige uitspraak is omdat het misbruik van de output van deze technieken al gaande was voordat deze vorm van automatisering bestond, terwijl het eigenlijk om marketing en "first-mover advantage" lijkt te gaan.
Ik hoor altijd alleen maar over deze CEO wanneer hij rond loopt te rennen paniekerig te roepen hoe eng hij het allemaal wel niet vind en niet snapt hoe de AI van zijn eigen bedrijf nu echt doet wat het doet. Héél apart. Maar wel positief om vanuit een doordacht traject met regelgeving te komen met oog voor innovatie.
Kijk en dat is het mooie van dit verhaal. Nu OpenAI zoveel aandacht heeft vergaard met ChatGPT, zou het natuurlijk wel heel mooi zijn dat als je voor AI wetgeving adverteert alse CEO van dat bedrijf en dat je deze wetgeving dat zo kan helpen inrichten ten voordele van ontwikkelingen van jouw bedrijf.

Dit is ruikt naar een lobby techniek die in de VS vrij vaak werkt, want de commercie mag eigenlijk nooit echt lijden onder de wetgeving :)
Ik ben vooral bang dat bedrijven als OpenAI hun tools buiten het bereik van de gewone burger willen houden. Ja, de plebs mogen betalen om gebruik te maken van ChatGPT, maar niet zelf een vergelijkbaar programma lokaal draaien.

Ik ben al lang blij dat Stable Diffusion open source is.
Lijkt wel een beetje op de discussie in de 19e eeuw toen de eerste treinen gingen rijden. Het bloed zou uit je oren spuiten met de snelheden die de treinen konden halen.
Ik heb de indruk dat voornamelijk de witte boorden klasse zich zorgen begint te maken dat hun werk in gevaar komt.
Ja dit inderdaad. Mensen vinden toch wel weer ander werk maar zijn gewoon bang voor verandering. Als je nu financiele medewerker bent of bij een servicedesk werkt moet je jezelf afvragen of je over tien jaar nog een baan hebt of gemakkelijk kan vinden.
Ik vind het altijd grappig dat mensen de vergelijking maken met eerdere uitvinding of innovatie van eenvoudig mechanische techniek. De trein. De auto. Het wiel.

Terwijl de mogelijke complicaties van AI op tal van domeinen zovele malen dieper gaan. Lijkt mij zo voor de hand liggend dat die vergelijking ( "Ik ben bang, snelle trein doet pijn") totaal niet op gaat en wel zeer simplistisch is.

En ivm de impact op de informatie, financiële & diensten sector. Als een regio in de wereld op een paar decennia helemaal evolueert naar een tewerkstelling in de "witte boorden" sector en de productie en arbeid naar de andere kant van de wereld is verschoven en er komt een shift waardoor die diensten & informatie sector een grote hap aan tewerkstelling opgeeft... dan lijkt het mij duidelijk dat we met een probleem zullen zitten. Hoe groot of klein dat zal zijn, moet nog blijken.
Ik ben bang dat "analoge" wetgeving veel te sloom is om het tempo van de AI ontwikkeling bij te houden.
Anoniem: 1486766 16 mei 2023 15:17
Ik voorspel 0 privacy voor de burger uiteindelijk terwijl het echte gevaar zoals autonome wapens met AI niet veel over gesproken gaat worden in de toekomst.
Dit soort utonome wapens komen er. Waarschijnlijk een speerpunt onderzoek van de VS en China.

[Reactie gewijzigd door bva op 27 juli 2024 05:08]

Israel gebruikt deze systemen als
sinds 2021 tegen palestijnen

“Israeli Defense Forces (IDF) has operationally deployed Jaguar robotic vehicles armed with machine guns to patrol the Gaza border wall

the barrier has cut off Gazans from employment, emergency medical care, and other services. “
https://nationalinterest....guard-jaguar-robot-192061
"Robot" betekent niet meteen "autonome robot", dus je linkje heeft helemaal niets te maken met dit artikel (totdat ze een AGI in die Jaguar robot proppen, maar AGI hebben we voorlopig nog niet).

Op dit item kan niet meer gereageerd worden.