Google, Microsoft, OpenAI en anderen doen beloftes om AI veiliger te maken

Zeven AI-makers hebben tegenover de Amerikaanse regering beloofd maatregelen te nemen om hun kunstmatige intelligentie veiliger te maken. De bedrijven zeggen de beloftes meteen te implementeren. Het gaat om vrijwillige beloftes, zonder consequenties als ze worden overtreden.

Met de beloftes zegt de Amerikaanse overheid dat de AI van de bedrijven veiliger en betrouwbaarder moet worden. Zo beloven de bedrijven hun AI intern en extern te testen, waarbij de testen deels door onafhankelijke experts worden gedaan en er wordt gekeken naar de grootste risico's. De bedrijven zeggen ook informatie over bijvoorbeeld AI-risico's te delen binnen de branche, en met overheden en wetenschappers. De bedrijven beloven ook onderzoek naar zulke risico's te blijven doen.

De bedrijven beloven verder te investeren in cybersecurity om belangrijke AI-onderdelen te beschermen, om te voorkomen dat onveilige AI wordt uitgebracht. Ze beloven ook onderzoek door derden mogelijk te maken en zeggen toe dat onderzoekers kwetsbaarheden in hun AI kunnen melden.

Op het vlak van betrouwbaarheid beloven AI-makers met bijvoorbeeld watermerken aan te geven wanneer iets door AI is gemaakt, zodat anderen dit kunnen zien. De organisaties beloven daarnaast duidelijk aan te geven wat hun AI kan en waar hun kunstmatige intelligentie minder goed in is. Daarbij zeggen de bedrijven toe AI-systemen te ontwikkelen die voor maatschappelijke doeleinden kunnen worden gebruikt, zoals onderzoek naar kanker en klimaatverandering.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI hebben de beloftes tegenover de Amerikaanse regering gedaan. De regering werkt daarnaast aan een executive order om AI-maatregelen in wetgeving te verankeren, al geeft de regering hier vooralsnog geen details over.

Door Hayte Hugo

Redacteur

21-07-2023 • 16:43

38

Lees meer

Reacties (38)

Sorteer op:

Weergave:

Tja. Hoe vaak moeten we de deksel nog op de neus krijgen om in te zien dat zelfregulering van bedrijven niet werkt?
Als ze nu slim zijn in de Amerikaanse regering dan pak je al deze beloftes en zet je ze meteen om in wetgeving. Die bedrijven kunnen niet klagen als ze verplicht hun systemen door onafhankelijke derden moet laten testen als ze dat zelf vrijwillig hebben aangeboden.
Nadeel daarvan is dat je als land juist vooruitstrevend wilt zijn met nieuwe technologie, vooral AI wat de potentie heeft om de wereld orde te veranderen.
Superhandig. lig je voor, ga je regels maken om het voor anderen moeilijker te maken.

Zie ContentID van Youtube.
Wat de bedrijven zeggen is alleen maar goed wil kweken. Een hele zooi van de AI (taal) modellen zijn open source. Als je kwaad wilt dan is dat prima mogelijk mits je een beetje kennis hebt van computers.
Als zelfregulering werkelijk zo'n goed middel is om het beste in mensen en de bedrijven te laten bovendrijven vraag ik mij toch af waarom het wetboek van strafrecht ooit is ingevoerd voor mensen die niet de middelen hebben om te schikken..

laat die mensen zelf bepalen of ze ermee weg mogen komen, alleen maar nette mensen, dus integriteit regelen ze zelf.

[Reactie gewijzigd door meathome op 23 juli 2024 04:24]

het wetboek komt er bij als ze het niet zelf oplossen.

Dus eerst vragen we ze het zelf te doen zoals PEGI. En als het niet lukt zoals met laders, dan wordt het per wet vastgelegd.
het lijkt mij iets risicovoller dan een laadstekkertje

https://www.theverge.com/...pons-generative-models-vx
Het is erg moeilijk om te voorspellen waar AI heen gaat, en je wil ook niet overhaast beslissingen maken die onnodig deze industrie schaden.
Aan de andere kant moet je ze ook niet 10 jaar hun gang laten gaan als het wel fout gaat zoals met het hele online privacy verhaal 8)7
Veel beloven, weinig geven, doet een gek in vreugde leven.
Toch wel weer interessant dat ze een probleem, wat de veiligheid van de complete mensheid zou kunnen bedreigen, in de handen van bedrijven laten die in het verleden keer op keer hebben laten zien dat ze niet te vertrouwen zijn. Het zegt wel weer genoeg over hoeveel macht de techgiganten hebben en hoe weinig overheden van dit specifieke probleem weten.
Afijn, wellicht krijgen we dan excuses dat een robot terroristische acties uitvoert, gezien dat blijkbaar een rage is tegenwoordig.
AI is zijn huidige vorm brengt niks in gevaar. Denk je dat AI een hitman gaat huren of jou persoonlijk gaat komen bezoeken
Banen maar vooral de creativiteit een daardoor de ontwikkeling van de menselijke geest.
Dat klopt. Maar de huidige vorm verandert dagelijks en nieuwe ontwikkelingen gaan enorm hard in deze sector. Het heden is dan ook geen garantie voor de toekomst en gezien de potentie die AI heeft, waarbij ook zeer grote gevaren zitten, groter dan we tot nog toe gekend hebben, is het belangrijk om daar preventief in op te treden ipv wanneer dat te laat is. Dat is juist ook iets wat vrijwel elke onafhankelijke AI expert beaamt.
Je hebt gelijk op het punt dat er op het moment nog niks aan de hand is.
Toch wel weer interessant dat ze een probleem, wat de veiligheid van de complete mensheid zou kunnen bedreigen, in de handen van bedrijven laten die in het verleden keer op keer hebben laten zien dat ze niet te vertrouwen zijn.
Persoonlijk zie ik dat liever dan een regering, die in het verleden massamoord heeft gepleegd op gewone burgers, moet zorgen voor de veiligheid van de wereld.
Inderdaad, en teksten zijn sowieso niet te watermarken. Dus mijn inziens is dit een maatregel die niet echt iets toevoegt, maar vooral iets is waar bedrijven naar kunnen wijzen bij kritiek of problemen. 'Wij doen er alles aan om misbruik tegen te gaan, zie maatregelen x en y'

Ik vind overigens dat AI veel goede en slechte potentie heeft en zeker wel gereguleerd mag worden. De vraag is natuurlijk hoe dan. De genoemde dingen in dit artikelen komen grotendeels neer op een PR verhaaltje.

[Reactie gewijzigd door Raphire op 23 juli 2024 04:24]

Volgens mij hoeft AI niet gereguleerd te worden, maar de mensen die er gebruik van maken. Het is niet AI wat het probleem is.
Het vuurwapen argument.
Ik denk dat we wel van de AI aanbieders een bepaalde verantwoordelijkheid mogen dragen. Net zoals grote tech bedrijven verantwoordelijk zijn voor hun online platformen e.d. Hoe dat reguleren van AI er precies uit zou moeten zien durf ik niet te zeggen.

De dingen die in dit artikel worden genoemd klinken wel leuk en aardig, maar hebben denk ik niet veel effect. Dat zal ook wel de bedoeling zijn geweest van deze bedrijven.

[Reactie gewijzigd door Raphire op 23 juli 2024 04:24]

Iedereen een kernbom en hopen dat het goed gaat.
GPT 4 heeft het nog steeds aardig vaak fout. Foute code, foute berekeningen, en foute beweringen. Het grootste gevaar vind ik dat mensen dingen 1:1 van GPT gaan overnemen zonder het zelf te controleren.
Tja, hetzelfde zou je kunnen zeggen van letterlijk elke website op het hele internet. Als je informatie kopieert en het als waarheid accepteert, of dat nu van ChatGPT of van een ander persoon is, dan ben je zelf niet slim bezig. Het grootste gevaar is in die zin dan dus de kortzichtigheid van bepaalde mensen en niet zozeer de geboden informatie.
Ik had inmiddels graag een subforum op Tweakers gezien om het over AI en de gevolgen ervan te hebben. Best wel bijzonder dat een te ch forum het onderwerp in een forum vrijwel onbesproken laat.
Niet specifiek over ChatGPT, wel over AI in het algemeen: forumtopic: Ontwikkelingen omtrent Artificial Intelligence
Volgens mij is het wel zo ver dat het de gevestigde orde aan contentproviders op de zenuwen werkt. AI gaat vermoedelijk alle content die wordt gepusht met lokkertjes maar geen moeite heeft gekost devalueren. De hele madia-tak die het succes te danken heeft aan clickbait, copy/pasted, bron-loze of automatisch gegenereerde content gaat afgestraft wordenj. Dat is echt wel een significante meerderheid van wat er op internet is te vinden.
Ik denk niet dat ze gestraft worden maar just nog goedkoper nog meer zooi kunnen produceren…
Op dit moment wordt de hele wereld gescraped. Er gaan hoe dan ook koppen rollen. Straks kom je als nieuws-site met een bericht en kan per direct een AI de bezoeker vertellen of het werkelijk waarde heeft of dat het gekloonde content van een ander is en geen toegevoegde informatie bevat. In het beroerdste geval sturen je eigen geregistreerde gebruikers je content door naar een harvester voor een beloning. Het is allemaal niet te voorspellen, maar die situatie zou mij niet verbazen.
Oh interessant zo had ik er nog niet naar gekeken. Ja, dat zou kunnen ja.
Op het vlak van betrouwbaarheid beloven AI-makers met bijvoorbeeld watermerken aan te geven wanneer iets door AI is gemaakt, zodat anderen dit kunnen zien.
Je krijgt gelijk websites die het watermark verwijderen of de tekst die gemaakt wordt kopieert en het gewoon herschrijft zonder watermark met video misschien wat moeilijker maar ook niet onmogelijk lijkt me.

[Reactie gewijzigd door Zyphlan op 23 juli 2024 04:24]

AI die watermerken gaat verwijderen is de logische stap die hierop volgt.
Allemaal leuk en aardig, maar er zijn buiten de USA/Europa ook nog andere landen. Denk hierbij aan China, Noord-Korea en anderen die niet het niet zo nauw nemen. Door de onderlinge concurrentie tussen de grote tech giganten en ook nog eens landen onderling, kan dit snel uit de hand lopen. Waar trek je de grens en wie bewaakt die? Het grootste gevaar is voor onze vrijheid.
Wat valt er precies te reguleren?
  • De data waar op getraind wordt.
  • Welke hardware ze kunnen aansturen.
  • Algorithme dat ze gebruiken.
Mis ik nog wat?
Fun fact: Facebook heeft deze week nog llama 2 uitgebracht, die sinds vandaag gekraakt is zodat ie je ook kan uitleggen hoe je bv een bom kunt maken, etc.
Gaan overheden ook nieuwsberichten als BT voorkomen?

Nu zal het wellicht marktwerking zijn en wellicht gaat zelfs in sommige gevallen de kwaliteit van een klantenservice omhoog ipv dat je eerst een halfuur in de wacht staat voor alsnog een van het scherm opgelezen antwoord van een persoon waar je niks mee kan.

Stel aan een bedrijf als Zalando bijvoorbeeld maar eens de vraag om inzage in persoonsgegevens en waarop hun systeem de keuze maakt welke betaalwijzen er beschikbaar zijn. Niemand kan je antwoord geven en per mail krijg je standaard antwoorden.
Wellicht per post het hoofdkantoor in Duitsland aanschrijven maar ik betwijfel of ik daar een ander antwoord van ga krijgen.

Op dit item kan niet meer gereageerd worden.