Eurocommissaris wil binnen paar weken AI-gedragscode voor techbedrijven

Eurocommissaris Margrethe Vestager wil dat de VS en EU grote techbedrijven aansporen om binnen enkele weken een vrijwillige gedragscode op te stellen voor AI. Die moet dienen als tijdelijke maatregel terwijl er aan een bindende Artificial Intelligence Act wordt gewerkt.

Vestager zegt tijdens een persconferentie in Zweden dat zo'n gedragscode het volk 'comfortabeler' kan maken met het feit dat generatieve AI bestaat en zich snel ontwikkelt, meldt Reuters. Ze wil dat de EU en VS gezamenlijk de leiding nemen en ervoor zorgen dat er met techbedrijven afspraken worden gemaakt over zo'n code. Binnen een paar weken moet er een kladversie zijn van zo'n gedragscode; de definitieve versie zou dan 'heel, heel snel' klaar kunnen zijn. "Zo'n snelheid heb je nodig als je wil dat de maatschappij de huidige ontwikkelingen vertrouwt."

Hoewel er al aan een Europese AI-wetgeving wordt gewerkt, gaat die volgens de Eurocommissaris op zijn vroegst over tweeënhalf à drie jaar in. "Dat is duidelijk te laat. We moeten nu handelen." Wat er in die gedragscode zoal moet worden afgesproken zegt ze niet, maar wel moeten er overeenkomsten in komen te staan 'over details, niet alleen algemene verklaringen'. Eerder gaven Google en Eurocommissaris Thierry Breton al aan aan een AI-pact te werken.

De Europese Artificial Intelligence Act werd in 2021 ingediend en werd in 2022 goedgekeurd door de telecomministers van de EU-lidstaten. Als deze in werking treedt, is het mogelijk de eerste alomvattende AI-wet. Deze wet moet duidelijk maken wanneer een AI-systeem veilig wordt geacht en daarvoor een aantal criteria opstellen. Hiermee moeten AI's ingedeeld kunnen worden in drie niveaus: onaanvaardbaar risico, hoog risico en beperkt risico. Het eerstgenoemde AI-niveau is na invoering van de wet verboden in de EU; systemen die voldoen aan het tweede niveau zijn alleen toegestaan onder strenge voorwaarden.

Door Kevin Krikhaar

Redacteur

31-05-2023 • 17:03

62

Reacties (62)

Sorteer op:

Weergave:

Je merkt duidelijk dat de EU geleerd heeft van hun eerdere tech-ervaringen en er nu redelijk bovenop zitten. Een goede ontwikkeling als je het mij vraagt.
Er redelijk bovenop zitten… We hadden er jaren geleden al mee bezig moeten zijn. Nick Bostrom waarschuwt hier al een decennia voor. Dit is niet meer op te lossen. AI ontwikkeling is een race geworden en daar komen we niet meer van terug.
Dit is niet meer op te lossen. AI ontwikkeling is een race geworden en daar komen we niet meer van terug.
Wat hadden ze dan veel vroeger moeten doen, eventjes AI verbieden?

Als het westen AI had verboden of zware limitaties opgelegd dan stonden we hopeloos achter op de rest van de wereld.

Het is ingediend in 2021, duidelijk voor de hype. Als je te vroeg indient heb je de kans dat je totaal verkeerde dingen toelaat of blokkeert.

Uiteindelijk is die gedragscode veel waard. Bedrijven gaan zich zich toch richting die code ontwikkelen. Alle neveneffecten zoals fake news verspreiden kan je al via andere wetten bestrijden.
Dat veranderd niets aan het feit dat we hier veel te laat mee zijn. En je haalt zelf in je 2e alinea al aan waarom dit reguleren op deze manier niet gaat werken.

Het is hopeloos, leer er mee leven. Maar maak jezelf toch niets wijs.

[Reactie gewijzigd door BlaDeKke op 27 juli 2024 01:46]

Dat veranderd niets aan het feit dat we hier veel te laat mee zijn. En je haalt zelf in je 2e alinea al aan waarom dit reguleren op deze manier niet gaat werken.

Het is hopeloos, leer er mee leven. Maar maak jezelf toch niets wijs.
Wat is hopeloos en te laat? Regulering vereist kennis en ervaring met een onderwerp, die moet eerst opgedaan worden...
Zo hebben ze dat ook gedaan met nucleaire energie en dat heeft ondertussen 2 keer bijna de planeet gekost. Imo moeten we nu de ontwikkeling van ai zelf pauzeren en eerst wijsheid krijgen op dit gebied. Dat gaat imo ook langer duren dan ai zelf ontwikkelen. Het gaat achter de feiten aanlopen zijn vanaf nu. En dat wil je niet doen tot er een agi is want dan ben je te laat.

De hoop die er nog rest is dat we met stable diffusion tegen een muur aanlopen en dat ons dat nog hopen tijd geeft om te filosoferen over ai. Ik vermoed wel dat dit gaat zijn, ik neem aan dat je met stable diffusion enkel een agi kan maken als je er onmogelijk veel resources naar toe gooit met een von neumann architectuur en dat er een nieuwe architectuur nodig is, of een nieuw algoritme en waarschijnlijk beide om een agi te bekomen.

Maar we nemen hier toch grote risico’s, niet?
Ja en ik las vandaag dat dit weer een tegenvaller is voor het klimaat en de klimaatdoeleinden. Nu hebben we naast cryptocurrence ook nog AI die een behoorlijke impact gaat hebben op de energievoorziening. De impact zal door de concurrentie alleen maar groter worden en ook al is men bezig met met energiebesparende ontwikkelingen op gebied van AI, voordat dit echt een impact gaat maken zijn we tig jaar verder.
Terwijl men op dit moment erg druk is met AI trainingen en als ik lees hoeveel Co2 uitstoot dit met zich meebrengt (volgens de NOS staat een enkele trainingsessie van ChatGPT gelijk aan ongeveer 500 ton CO2 uitstoot, duizend auto's die duizend km rijden) dan moeten we ons toch echt afvragen waar we nu mee bezig zijn. Ik weet dat AI niet te stoppen is, maar dan wordt het wel tijd dat dit soort bedrijven ook een bijdrage doen aan klimaatmaatregelen en verantwoordelijkheid nemen. Of dat Overheden grootverbruikers gewoon erg zwaar belasten...
Je vergelijkt dus 200 miljoen gebruikers met 1000 auto's. appels met peren
Oh dus jij denkt dat zo'n enkele trainingsessie voldoet ? Hoevel trainingen denk je dat men met het huidige ChatGPT al gedaan heeft. En dan praten we ook nog maar over 1 bedrijf en een enkele vorm van AI. Beetje naief ofniet?
Nou ik heb het net even berekent ik kan de berekening fout doen maar volgens mij is het per persoon 0,2 meter met de auto. Dat is niets. Je zit te zeuren.
Wat knap dat jij zo’n berekening kan doen zeg. Ik ben verre van een expert op gebied van AI, maar het houd niet op bij een enkele training, maar dit gedeelte uit mijn reactie negeer je gewoon. Maar steek vooral je kop in het zand en noem het zeuren, tot je de impact zelf merkt. Maar dan is het vaak al te laat.

Toch ook knap hoe selectief bepaalde mensen kunnen lezen.

https://kaspergroesludvig...mption-pt-ii-225e7e43f22b

https://techhq.com/2023/03/data-center-energy-usage-chatgpt/
Uit die tweede link:
What we do know is that training ChatGPT used 1.287 gigawatt hours, roughly equivalent to the consumption of 120 US homes for a year.
Kijk je dan naar Bitcoin:
https://rmi.org/cryptocurrencys-energy-consumption-problem/
127 terawatt-hours (TWh) a year

Moet er voor de AI power consumption wel ook een directive komen ergens, maar kun je daar niet met droge ogen om energie alleen aankomen terwijl Bitcoin nog staat te stampen en niet verboden is, qua energie aan banden gelegd wordt of zo.

Blockchain van zichzelf is technologisch mooi, en wat AI ons hopelijk ooit gaat brengen ook. De huidige ChatGPT output is echter zodanig onbetrouwbaar, dat zou je ergens moeten inperken als enkel universitair studieobject, en/of verplichte disclaimer in elke tekst, kopie en verdere afgeleide openbaring ervan: "Pas op: deze tekst kan mogelijk hallucinaties bevatten van een voorspellend taalmodel.... vele mensen die het gebruiken maken het de moeite om die modellen zo vaak opnieuw te trainen toch ook, voor enkel onderzoek doeleinden heb je dat nog niet nodig.

[Reactie gewijzigd door OruBLMsFrl op 27 juli 2024 01:46]

Misschien moet je mijn eerste reactie lezen, want daar kaart ik juist aan dat we naast crypto nu ook AI gaan krijgen die een grote impact gaat maken op onze energievoorziening. Daarbij zijn er wel degelijk voorbeelden te noemen waar bepaalde crypto of crypto minen aan banden is gelegd om meerdere redenen.
Gesproken vanuit het EU referentiekader vind ik het snel. De tech is nu pas echt mainstream aan het worden, bereikt nu pas bekendheid bij de grote mensenmassa. Dat is dan in ieder geval sneller als bijvoorbeeld bij social media tech, of zoals bij de microsoft, google dominantie, lees: achteraf.
Het is snel. 10 jaar geleden stelde het nog niks voor. EU heeft dit ook niet op een achternamiddag bedacht. Ze zijn er al een tijd mee bezig.
Inderdaad , uiteindelijk komt het wel goed. We hebben het ontstaan van internet ook mee gemaakt.Het is natuurlijk wel een spannende ontwikkeling :)
Welke race? Wat is er op dit moment voor nadelig effect?
Volgens mij doe je een enorm grote aanname en ben je slachtoffer van het grote doemdenken.
Nooit in de historie heeft nieuwe technologie voor meer negatieve dan positieve zaken gezorgd. Ook bij AI zullen er voornamelijk positieve zaken zijn. De negatieve zaken kunnen we prima oplossen.
Het ding met AI is dat het steeds sneller gaat totdat wij mensen het niet meer kunnen bijbenen en er op een bepaald moment geen controle meer over zullen hebben, en dat het simpelweg onvoorspelbaar en onvoorstelbaar is waar het heen gaat / eindigt.
Waar en wat gaat sneller dat wij het niet kunnen bijhouden? Allemaal aannames. Verzonnen door doemdenkers. Mensen houden echt wel controle.
De ontwikkeling ervan en waarvan de uitkomst totaal onvoorspelbaar is.
Niet iets om lacherig over te doen en je kop voor in het zand te steken..
Zoals iemand bij het vorige bericht al aangaf: het risico is dat de bedrijven vooral een pact maken wat hun eigenbelangen beschermd en evt. nieuwe spelers buitensluit.
En die eigenbelangen zijn vaak niet in het belang van de algehele bevolking.
Is dat niet een fact of life? Meer regulering betekent het implementeren van bepaalde controle mechanismen.

Beetje hetzelfde als financiële audits, avg, gdpr etc. Afhankelijk van je afzet gebied heb je naast een programmeur sowieso een infra engineer, security engineer, jurist etc etc nodig om een nieuw product of dienst te lanceren.

En dit is niet eens beperkt tot de IT wereld. (even overdreven gezegd) 20 jaar geleden kon je zomaar naar China gaan om een productje te kopen. Vol met weekmakers en in elkaar geflanst door wat kinderhandjes. Dit productje kon je zomaar via de supermarkt verkopen aan consumenten.

Tegenwoordig verplichten ze je om zowel je product/ proces en personeel te auditten om zeker te zijn dat er geen weekmakers en kinderarbeid zijn gebruikt.

Natuurlijk creëert dit een situatie dat het voor nieuwe bedrijven lastiger zal zijn om de markt te betreden mja kinderarbeid en weekmakers....
Kinderarbeid en weekmakers is iets anders dan een aanname dat AI gevaarlijk en potentieel destructief kan zijn. Want dat is helemaal niet zo. Er is nog niks aantoonbaars dat AI een gevaar zou zijn.
Alle pogingen hiertoe komen voort uit bedrijven die belang hebben om andere spelers buitenspel te zetten.
Dit heeft niks, maar dan ook niks met mensenrechten, arbeidsrechten, moraal of wat dan ook te maken.
Puur economisch zelfbelang.
Natuurlijk zit er een vorm van zelf belang bij maar aannemen dat AI ongevaarlijk is kan ik ook niet echt serieus nemen. De wereld besturen we nu al grotendeels o.b.v. algoritmes. Zogenaamde "uitlegbare" rekenmodellen.

Deze modellen zijn al een fiasco. Neem bijvoorbeeld alle rekenfoutjes van het RIVM tijdens corona. We zijn niet goed in het opslaan/ tracken van input data, modellen en output data :p Dit gecombineerd met onderzoekers die gewoon enorm slecht zijn in het uitleggen van hun werk heeft het vertrouwen in de wetenschap flink verpest.

Dit is maar een voorbeeld natuurlijk maar hier AI aan toevoegen hoeft niet perse een succes te zijn ;)

Mja mijn verhaal gaat natuurlijk over AI, nja eigenlijk zelfs over algoritmes in het algemeen. Terug naar dit topic, ik hoop dat veel meer partijen zich aansluiten bij dit soort initiatieven. Ik zit zelf in een rol waarin ik beleid moet opstellen en dat gaat echt een stuk sneller als alle betrokken stakeholders al o.b.v. eigen richtlijnen zichzelf hebben georganiseerd.

[Reactie gewijzigd door Mellow Jack op 27 juli 2024 01:46]

Je focussed teveel op negatieve zaken. Algoritmes in het algemeen hebben gezorgd voor een veel betere en leefbaardere wereld. De rekenfouten van RIVM waar jij op doelt hebben op geen enkele manier gezorgd voor een echte grote beschadiging in onze samenleving. Dat terwijl rekenmodellen wel veel bijdragen aan heel veel andere gezondheid gerelateerde zaken.
Het probleem van (met name) Nederland is precies hoe jij redeneert. Regels en beleid maken voor iets wat potentieel/ theoretisch kan gebeuren, maar het nog nooit heeft gedaan. Resultaat is een inflexibel land waar op ten duur niks meer mogelijk is. Alles loopt vast en er word niks meer voor elkaar gebokst.
Het initiatief van dit artikel is net zoiets. Het zorgt voor belemmering in innovatie en uiteindelijk vertraging in onze ontwikkeling.
Jij komt er nu zelf mee, maar die rekenfouten en onjuiste opslag en vergaring van data is wel gebruikt als argument waarom politici en de authoriteiten met hun grijpgrage handjes aan de levens van mensen "moesten" zitten. Dus die negative impact die jij niet ziet, zie ik wel. Hoe dan ook, regels gaan hiervoor (ai) nooit werken. Met een beetje compute en geld doe je alles gewoon zelf zonder er ooit na te denken over het ethische gedeelte. En niemand die daar ooit achter komt. Gaan wij Rusland en China vertrouwen als ze hun overheid een pamfletje maakt met AI regels? Daar komt dit op meer.
Dat zou ik toch niet zo stellig willen beweren. Er bestaat al jaren een hele tak van de wetenschap die zich bezig houdt met de nu al gerealiseerde gevaren en de mogelijk toekomstige gevaren van AI. Die schrijven al zeker een decennium peer-reviewed papers met risico-analyses en aanbevelingen.

Dat een paar CEO's van AI bedrijven een combinatie van kennisgebrek en eigenbelang gebruiken om een onzinlijst met gevaren op te stellen wil natuurlijk niet zeggen dat er niet ook serieuze lijsten met gevaren bestaan. En die gevaren gaan nou juist om discriminatie, nadelige impact op zo'n beetje iedereen die niet multi-miljonair is, of niet de juiste kennis heeft om zich te behoeden voor valkuilen.

Dit soort dingen zijn nog maar het begin: Eating Disorder Helpline Disables Chatbot for 'Harmful' Responses After Firing Human Staff of mongolen die denken dat je ChatGPT kunt gebruiken als search engine voor dingen die belangrijk zijn: Are you just catching up on the bonkers story about the lawyer using ChatGPT for federal court filings? This is a thread for you.. Daar gaan echte slachtoffers vallen.

[Reactie gewijzigd door Maurits van Baerle op 27 juli 2024 01:46]

Precies, ik ben ontwikkelaar en wil ook eens kijken wat ikzelf allemaal kan programmeren. Als die "ai" crimineel wordt, word ik opgepakt ipv de ai? Hoe moet ik dat voor me zien als de ai tot leven komt en mijn controle kwijt is om God te behoeden. Ik vind dit wel een leuke want dat is het begrip van de ai. Ze weten niet waarom die zo goed werkt. Mijn waarzegger, want dat doet het (voorspeld het volgende karakter / woord) als ik de interviews moet geloven met kansberekening. Vul in ipv karakter volgende ... Dan kun je toch niet verantwoordelijk worden gehouden als programmeur. Daarnaast tijdens mijn opleiding telematica geen enkele beperking gehad. Hacken: com poortje opblazen door hem te warm te laten worden, dat lukte toen nog aardig.

Stel ik geef mijn ai toegang tot ssh. Hoe weet ik dan dat de ai dat (hacken) doet terwijl die zijn logging uit heeft staan (hergeprogrammeerd)

Tsja, enge tijden...
Tja. Als mijn kind iets doet, ben ik als ouder ook verantwoordelijk.
Verder wat hypothetisch wat je oppert. Regelgeving lijkt me zeker op z'n plek. Maar die moet dan niet vanuit bedrijven verzonnen worden
En wie bepaald de volwassenheid van de ai dan? Ik neem aan dat Stel er een atoombom af gaat door een ai die als 'volwassen' wordt beschouwd. En als die een alarm bij de buren laat af gaan 'kinderlijk' gedrag vertoont?

Rare tijden
Dat is precies in de orde van waar ze nu dus regels voor willen gaan vaststellen.
"Vestager zegt tijdens een persconferentie in Zweden dat zo'n gedragscode het volk 'comfortabeler' kan maken met het feit dat generatieve AI bestaat en zich snel ontwikkelt"

Dit is dan dus om de weerstand de kop in te drukken, niet om de daadwerkelijke risico's in te perken.

Ze zitten dus nog steeds nergens bovenop, het is slechts een trucje voor de beeldvorming.
Goed voor wie? Voor de grote bedrijven zoals OpenAI (nagenoeg uitgekocht door Microsoft) in ieder geval wel, die gaan wel in de oren fluisteren van de politiekers.

In "een paar weken" kun je geen degelijke democratische wetgeving samenstellen, vooral niet voor een filter die de meeste mensen, laat staan de politiekers niet goed verstaan.

Alle regulering heeft een avers effect op de bedrijfsgang, we hebben in Europa al nagenoeg geen productie noch tech bedrijven, ze zitten allemaal in Amerika, Israel, VK of een Aziatisch land. Cloud, AI en Fintech was een kans voor Europa om van een eeuw aan reguleringsfouten te leren en bedrijven hun gang laten gaan, ipv daarvan gaan we alles omtrent die applicaties vervolgen of afsluiten.

[Reactie gewijzigd door Guru Evi op 27 juli 2024 01:46]

Het heeft voor en nadelen. Zo zie je dat de technologie boost in de USA mede is veroorzaakt door de financiële wetgeving in de USA. Alleen de grote vd grote banken moeten bijv stresstesten etc doorstaan. Kleinere (maar nog steeds best grote) banken konden doen wat ze willen en vallen nu als dominostenen. Laat dat nu net zo'n partij zijn als silicon valley bank... de place 2 be voor de tech startups

[Reactie gewijzigd door Mellow Jack op 27 juli 2024 01:46]

Als er nou een continent uitblinkt in FinTech is het toch wel Europa. De Amerikanen spelen daar waarschijnlijk niet eens in de top drie.

Nederland is geen groot tech productieland maar Duitsland, Italië en Frankrijk zijn dat wel. De halve Chinese maak-industrie draaien op Duitse en Italiaanse machines. Waar dook het coronavirus voor het eerst op in Europa? Precies, in Italiaanse en Duitse industriegebieden omdat Italianen, Chinezen en Duitsers bij elkaar de deur plat lopen. Mijn schoonmoeder heeft een fabriek en iedere keer als ze in Europa is is een bezoek aan Duitse en Italiaanse leveranciers van geavanceerde machinerie een vast onderdeel. Datzelfde geldt ook voor de autoindustrie, over niet al te lange tijd gaat de laatste Amerikaanse autofabrikant uit de top vijf vallen als Ford wordt ingehaald door BMW of Mercedes-Benz.

Van de tien grootste exportlanden ter wereld liggen er vijf in Europa. En een hoop van die export zijn auto's, vliegtuigen, helikopters, satellieten, robots, machines, computers, gereedschap etc. Europa heeft de op-één-na grootste ruimevaartindustrie ter wereld.

Waar Amerikaanse bedrijven in uitblinken is grote internetplatformen, daar komen alleen Booking.com en Spotify misschien enigszins in de buurt.

AI kan interessant zijn (en zowel Google Bard als Stable Diffusion komen uit Europa) maar ik zie LLMs toch meer als de Metaverse, enorm gehypt maar niet de heilige graal en mogelijk met meer nadelen dan voordelen. Behalve een manier om veel geld te verdienen voor enkele honderden mensen zie ik niet de gigantische economische voorspoed die dat een heel continent kan brengen.

Europa (en Frankrijk al helemaal) is erg goed bezig met QuantumComputing en daar verwacht ik meer van dan van LLMs.

Ik zou je aanraden niet zoveel Amerikaans nieuws te consumeren. Dan lijkt het net alsof alles uit de VS komt omdat ze ontwikkelingen in de rest van wereld gewoon negeren (en helaas heeft Tweakers daar ook een handje van, vooral Amerikaans nieuws brengen). Hou voor de balans eens Europese tech media als Tech.eu, Sifted en EU-Startups in de gaten om te zien wat er allemaal vlak om ons heen speelt.

[Reactie gewijzigd door Maurits van Baerle op 27 juli 2024 01:46]

Verwijderd @Sebje31 mei 2023 18:06
Weet niet of het echt een goede ontwikkeling is, het feit dat ze zich er mee bezighouden wellicht maar denk dat velen al zien waar dit uiteindelijk naartoe gaat, namelijk het opleggen van restricties voor individuelen en bedrijven qua AI-gebruik. Maar overheden gaan hoogst waarschijnlijk ongestoord verder met het AI zelf inzetten voor mass surveillance en andere doeleinden zoals Frankrijk van plan is tijdens de Olympische spelen van 2024.

https://www.amnesty.org/e...u-efforts-to-regulate-ai/

Het is uiteindelijk maar de vraag in hoeverre die restricties reiken, voor wie ze gaan gelden en welke addertjes onder het gras je hieruit kan opmaken. Persoonlijk kan ik het haast niet voorstellen dat overheden niet AI gaan inzetten voor dit soort doeleinden, daarvoor is het te krachtig, efficiënt en kost het minder mankracht om dit systeem te opereren vergeleken met traditionele opties.
Het risico is wel dat ze een stap te ver gaan, zoals met biotechnologie.
Het is niet zo dat ze de ontwikkeling kunnen sturen en het gebruik kunnen stoppen. Het is een internationaal proces.
Mogelijk kunnen ze het gebruik voor bepaalde doeleinden verbieden, dat zou prima zijn.
Wat wordt er eigenlijk ontwikkeld aan AI zelf in Europa? Door drukte volg ik niet al het tech-nieuws meer maar ik heb de indruk dat net als bij ruimtevaart de grootste stappen zo’n beetje alles in de VS gedaan wordt en in dit geval dan ook China en dat de ontwikkelingen ongekend hard gaan en niet zijn te stoppen.
We kunnen dan leuk regels opstellen en eigen innovatie tegenhouden en ondermijnen maar daar hebben die andere partijen geen boodschap aan.

[Reactie gewijzigd door Gethijsem op 27 juli 2024 01:46]

Hoewel er al aan een Europese AI-wetgeving wordt gewerkt, gaat die volgens de Eurocommissaris op zijn vroegst over tweeënhalf à drie jaar in.
Beetje vreemd dat de eurocommissaris dit roept, want de AI act kan dit jaar nog actief worden. Mits alle EU landen bij de komende stemming voor stemmen.
Moet ook nog geratificeerd worden door de lidstaten, voordat het echt van kracht is.
Je bedoelt de stemming in de Raad van Ministers? De term 'ratificatie' past meer bij verdragen, dit is een Verordening.

Het Parlement zou rond 12 juni gaan stemmen, daarna zou de Raad in theorie vrij snel er ook wat van kunnen vinden. Maar nog steeds op z'n vroegst dan 1 januari 2024 van kracht worden (publicatie in OJ) en er staat een 24-maanden overgangstermijn in (consolidated draft is https://artificialintelli...mendments-16-May-2023.pdf). Pas daarna krijg je alle maatregelen in je nek. Dus hoe dan ook is er pas over tweeëneenhalf jaar een AI Act.
Chatgpt schrijft die gedragscode veel sneller:
AI Gedragscode voor Techbedrijven

1. Transparantie en verantwoording:
a. Techbedrijven moeten transparant zijn over het gebruik van AI in hun producten en diensten. Ze moeten duidelijk communiceren welke gegevens ze verzamelen, hoe ze deze gebruiken en met wie ze deze delen.
b. Techbedrijven moeten verantwoordelijkheid nemen voor de gevolgen van hun AI-systemen. Ze moeten mechanismen implementeren om eventuele negatieve impact op gebruikers, samenleving en milieu te identificeren en aan te pakken.
c. Bedrijven moeten begrijpelijke uitleg geven over hoe hun AI-systemen werken en welke beslissingen ze nemen, zodat gebruikers en belanghebbenden een duidelijk inzicht hebben in het functioneren van deze systemen.

2. Privacy en gegevensbescherming:
a. Techbedrijven moeten de privacy van gebruikers respecteren en de nodige maatregelen treffen om persoonlijke gegevens te beschermen. Ze moeten zorgen voor adequate beveiliging, gegevensminimalisatie en transparante gebruikerscontroles.
b. Bedrijven moeten duidelijke en begrijpelijke privacyvoorwaarden bieden, waarin gebruikers worden geïnformeerd over welke gegevens worden verzameld, hoe deze worden gebruikt en met wie ze worden gedeeld. Gebruikers moeten toestemming kunnen geven voor het gebruik van hun gegevens op basis van duidelijke en vrijwillige keuzes.

3. Bias en eerlijkheid:
a. Techbedrijven moeten zich inspannen om vooroordelen en discriminatie in AI-systemen te vermijden. Ze moeten ervoor zorgen dat hun systemen eerlijk zijn en gelijke kansen bieden aan alle gebruikers, ongeacht hun achtergrond, geslacht, ras of andere persoonlijke kenmerken.
b. Bedrijven moeten regelmatig evaluaties en audits uitvoeren om de impact van hun AI-systemen op verschillende groepen mensen te controleren en eventuele ongewenste effecten te corrigeren.

4. Veiligheid en beveiliging:
a. Techbedrijven moeten de veiligheid en beveiliging van hun AI-systemen waarborgen om misbruik, hacking of schadelijk gedrag te voorkomen. Ze moeten regelmatig beveiligingsaudits uitvoeren en passende maatregelen nemen om risico's te minimaliseren.
b. Bedrijven moeten proactief samenwerken met de bredere technologiegemeenschap en overheden om informatie te delen over beveiligingslekken en best practices te bevorderen.

5. Maatschappelijke impact:
a. Techbedrijven moeten rekening houden met de bredere maatschappelijke impact van hun AI-systemen. Ze moeten ethische en sociale overwegingen inbouwen in het ontwerp, de ontwikkeling en de implementatie ervan.
b. Bedrijven moeten luisteren naar feedback van gebruikers, belanghebbenden en experts om de impact van hun AI-systemen op de samenleving te begrijpen en waar nodig aanpassingen door te voeren.

6. Samenwerking en verantwoordelijkheid:
a. Techbedrijven moeten [... Denk dat ik moet betalen voor langere reacties]
Je kan "continue" typen dan gaat hij door. Max aantal output chars per response
Je kan hier gewoon vragen "ga verder vanaf punt 6, hij stopte ermee" werkt meestal :)
' ga verder vanaf punt 6'

6. Samenwerking en verantwoordelijkheid (vervolg):
a. Techbedrijven moeten samenwerken met overheden, academici, maatschappelijke organisaties en andere belanghebbenden om de ontwikkeling en implementatie van AI op een verantwoorde manier te bevorderen. Ze moeten openstaan voor externe audits en onafhankelijk toezicht om de naleving van ethische normen en regelgeving te waarborgen.
b. Bedrijven moeten zich bewust zijn van de bredere impact van hun AI-technologieën en streven naar het opbouwen van positieve relaties met de gemeenschappen waarin ze actief zijn. Ze moeten zich inzetten voor het oplossen van problemen en het leveren van maatschappelijke waarde, rekening houdend met de behoeften en zorgen van lokale gemeenschappen.
c. Techbedrijven moeten transparant zijn over eventuele samenwerkingen met overheden en zich houden aan de wet- en regelgeving op het gebied van gegevensbescherming en privacy. Ze moeten ook open en eerlijk zijn over hun inspanningen om gebruikersgegevens te beschermen tegen ongerechtvaardigde toegang of misbruik.

7. Onderzoek en ontwikkeling:
a. Techbedrijven moeten actief investeren in onderzoek en ontwikkeling op het gebied van ethische AI. Ze moeten middelen toewijzen aan de ontwikkeling van methoden en technieken die de betrouwbaarheid, verantwoordelijkheid en transparantie van AI-systemen vergroten.
b. Bedrijven moeten een cultuur van ethisch bewustzijn bevorderen binnen hun organisaties. Ze moeten werknemers aanmoedigen om ethische overwegingen in acht te nemen bij het ontwerpen, ontwikkelen en implementeren van AI-technologieën.

8. Educatie en bewustwording:
a. Techbedrijven moeten zich inzetten voor het vergroten van het bewustzijn en de kennis van AI-ethiek bij hun werknemers en de bredere gemeenschap. Ze moeten educatieve programma's en middelen aanbieden om mensen te informeren over de impact, uitdagingen en verantwoordelijkheden met betrekking tot AI.
b. Bedrijven moeten gebruikers voorzien van duidelijke en begrijpelijke informatie over hoe ze AI-technologieën kunnen begrijpen, gebruiken en beheren. Ze moeten ervoor zorgen dat gebruikers de mogelijkheid hebben om geïnformeerde keuzes te maken over het gebruik van AI-gerelateerde producten en diensten.

Deze AI Gedragscode dient als leidraad voor techbedrijven om ethische normen en verantwoordelijkheden na te leven bij de ontwikkeling en implementatie van AI-technologieën. Door deze code te volgen, kunnen techbedrijven bijdragen aan de positieve impact van AI op de samenleving, terwijl ze tegelijkertijd de rechten, privacy en veiligheid van gebruikers beschermen.
Tja, allemaal wel en goed. Tot dat een rogue nation lekker zijn militaire macht en interne veiligheid aan AI koppelt en lastig gaat doen. Voor je het weet moet iedereen het doen.
Zie ze al een plugin schrijven met controle over alle wapens etc. ‘Je kunt nu alles aansturen, welk land of welke stad zou je nu aanvallen?’
Hier heb je toch niets aan als je dit niet in elk land in de wereld doet? Mag het niet in de EU dan gaan we wel ergens in Afrika een server gebruiken of Azië of iets dergelijks.
Er worden ook moorden gepleegd terwijl dat volgens de wet echt niet mag. Moeten we dan geen wetten hebben?

Regelgeving is er om de samenleving beter te maken. Dat kwaadwillenden altijd een weg daaromheen vinden is juist, daar hebben we dan de rechtspraak voor.

Maar jouw standpunt om het dan maar niet te doen is zwak.
Je bashed hem lekker maar je mist wel zijn punt. Hij zegt niet dat mensen wetten breken, hij zegt dat op andere stukjes wereld andere wetten gelden. Dus in de EU hier beperkingen opleggen betekend dat in andere landen, waar het dus volgens wet wel mag, men gewoon gaat ontwikkelen.
En je kan zeker een argument houden voor het niet invoeren van wetten die per definitie niet nageleefd kunnen en zullen gaan worden. Dat is nergens goed voor.

De geest is uit de fles en niemand stopt die terug, ga je mee in er van leren en goed mee om leren gaan of ontkennen terwijl de rest dat doet. Ook hier kan men van de geschiedenis leren, je kan landen wel afsnijden van kennis via sancties, maar uiteindelijk snappen ze het truukje ook wel zonder je.
Moorden leveren geen hoge produktiviteit op (alhoewel, denkend aan sommige 'managers' tijdens mijn carriere.... }) )

Daarmee schieten we ons in de voet als we het in de EU gaan verbieden. Dan gaan de andere werelddelen een stuk produktiever zijn dan wij en dan raakt de EU economie nog verder in het slop dan die al is.

En inderdaad, de geest is uit de fles zoals @Kaoh zegt. Of het nou hier ontwikkeld wordt of elders, het gaat gewoon gebeuren.

[Reactie gewijzigd door GekkePrutser op 27 juli 2024 01:46]

En wanneer wordt een AI als gevaarlijk geduid?
Slechte zaak vind ik. Zo slaan ze de ontwikkelingen in een vroeg stadium al plat. We weten nog niet eens waar AI in de praktijk echt voor ingezet gaat worden.

Als ze hetzelfde hadden gedaan met bijvoorbeeld internet hadden we ons altijd al moeten identificeren, zoals het "e-ID" plan is van die Thierry Breton. Tijdens Corona zag hij zijn kans schoon om zijn e-ID wallet plannen door te drukken maar gelukkig is het momentum een beetje verdwenen. De enige reden dat we nog anonimiteit hebben op internet is doordat het in het begin een "wild westen" was (wat het zo geweldig maakte) en dat lastig is het terug te draaien. Maar ze zullen het blijven proberen.

[Reactie gewijzigd door GekkePrutser op 27 juli 2024 01:46]

Zoals dit? Bestaat al een jaar

https://www.microsoft.com...ivetab=pivot1%3aprimaryr6

[Reactie gewijzigd door Yalopa op 27 juli 2024 01:46]

Bedrijven en ''vrijwillige gedragcodes'' LOL

Op dit item kan niet meer gereageerd worden.