Indiase regering wil dat bedrijven toestemming vragen voor uitbrengen AI-tools

De Indiase regering wil dat techbedrijven om goedkeuring vragen voordat ze AI-tools op de markt brengen. Het gaat specifiek om software die 'onbetrouwbaar' is of zich in de testfase bevindt. Ook wil de regering dat deze tools als zodanig gelabeld worden.

Het Indiase ministerie van Elektronica en Informatietechnologie heeft nieuwe richtlijnen opgesteld waarin het bedrijven vraagt om toestemming te verkrijgen voordat ze nieuwe AI-tools uitbrengen. Dat meldt persbureau Reuters. Aan bedrijven wordt gevraagd om de 'mogelijke onbetrouwbaarheid' van hun AI-modellen 'op gepaste wijze' te labelen.

Het verkrijgen van toestemming voor publieke release is nog niet bij wet verplicht, maar dat zit er volgens plaatsvervangend minister Rajeev Chandrasekhar wel aan te komen. Hoewel het om een advies gaat, stellen de richtlijnen dat vervolging mogelijk is als bedrijven ze niet naleven.

De richtlijnen volgen een week na Indiase kritiek op Gemini nadat het de Indiase premier Narendra Modi als fascistisch bestempelde, terwijl het taalmodel van Google bij andere politieke figuren ontwijkend antwoordt. Google heeft excuses aangeboden voor het voorval.

Naast India werken ook Europa en de Verenigde Staten aan regelgeving voor AI. Europese lidstaten hebben vorige maand een voorlopig akkoord bereikt over de AI Act.

Door Sabine Schults

Redacteur

04-03-2024 • 16:15

30

Reacties (30)

Sorteer op:

Weergave:

Gezien de recente problemen met AI, zoals bijvoorbeeld de genoemde problemen die door Google met Gemini zijn begaan, lijkt me dit een prima en begrijpelijk besluit.

We moeten 'n voorkomen dat AI een wildgroei zonder enig toezicht en regelgeving wordt, dan wordt dat een beetje het Wilde Westen.

Zeker in combinatie met de gevaren van AI, zoals bijvoorbeeld verspreiding van fake news, deepfakes, en beïnvloeding van publieke opinie en misschien zelfs verkiezingen, lijkt het invoeren van wat basis regels me een prima idee.
Gezien de recente problemen met AI, zoals bijvoorbeeld de genoemde problemen die door Google met Gemini zijn begaan, lijkt me dit een prima en begrijpelijk besluit.
Maar het is helemaal geen probleem. Gemini bracht hier een duidelijk gebalanceerd antwoord. Hij heeft niet gezegd dat Modi fascistisch is, maar alleen dat zijn politiek volgens experts sommige kenmerken daarvan heeft. En dat is ook gewoon zo, zie bijvoorbeeld de documentaire van de BBC die verbannen is uit India (overigens ook een van de kenmerken die worden aangehaald).

Natuurlijk moet er bij staan dat een chatbot geen orakel is dat altijd juiste antwoorden geeft. Dat vind ik ook wel. Maar dat is meer een perceptieprobleem.

[Reactie gewijzigd door Llopigat op 23 juli 2024 05:09]

Als een AI selectief een inhoudelijk antwoord geeft dan is dat niet zomaar gebalanceerd te noemen. De AI toonde hier een selectieve voorkeur om wel over een Indiase premier een inhoudelijke reactie op een vraag over mogelijk facistische kenmerken te geven maar niet over andere regeringsleiders.
Het antwoord staat dus niet op zichzelf. En het probleem met AI staat hoe dan ook niet op zichzelf, er zijn veel meer problemen mee die maar beter voorkomen kunnen worden dan eerst maar meer en meer te laten gebeuren.
Als een AI selectief een inhoudelijk antwoord geeft dan is dat niet zomaar gebalanceerd te noemen. De AI toonde hier een selectieve voorkeur om wel over een Indiase premier een inhoudelijke reactie op een vraag over mogelijk facistische kenmerken te geven maar niet over andere regeringsleiders.
Het ziet er meer uit alsof de andere regeringsleiders waar over gevraagd wordt handmatig al geblokkeerd waren, net zoals ChatGPT weigert om dat te doen.

Ik zou liever zien dat het helemaal niet gedaan wordt, persoonlijk.
Aangezien het volledige onduidelijk is wat de oorzaak van het verschil in antwoorden is lijkt het me vooral nodig dat er genoeg transparantie is waarom er verschil is. Want of dit verschil wel of niet door direct menselijk ingrijpen komt, het verschil en de onduidelijkheid blijken niet zomaar acceptabel.
Als een AI selectief een inhoudelijk antwoord geeft dan is dat niet zomaar gebalanceerd te noemen. De AI toonde hier een selectieve voorkeur om wel over een Indiase premier een inhoudelijke reactie op een vraag over mogelijk facistische kenmerken te geven maar niet over andere regeringsleiders.
Als de consensus is dat die andere regeringsleiders niet fascistische kenmerken hebben, dan valt daar inhoudelijk toch weinig over te zeggen?
De democraten noemen Trump al jaren een fascist. Dus die consensus is er overduidelijk niet.
Niet alle democraten zeggen dat, en consensus betekent niet dat iedereen er hetzelfde over denkt.

[Reactie gewijzigd door BadRespawn op 23 juli 2024 05:09]

> Zeker in combinatie met de gevaren van AI, zoals bijvoorbeeld verspreiding van fake news, deepfakes, en beïnvloeding van publieke opinie en misschien zelfs verkiezingen, lijkt het invoeren van wat basis regels me een prima idee.

Vervang AI door "zoekmachines", "internet", "televisie", "radio" en "de krant". Wat is er precies écht nieuw aan LLMs dat nog niet door voorgaanden werd gedaan?

Als er één gevaar is van AI, dan is dat wel dat het het acceptabel heeft gemaakt om deze vorm van informatievoorziening te censureren, om zogenaamd "mensen te beschermen", en machtige bedrijven en instanties zijn druk bezig zichzelf als poortwachter op te stellen om "het domme plebs" te beschermen.
Lijkt mij sowieso niet verkeerd om dit soort ding (AI en ander Big Tech ideeën) aan banden te leggen. Farmaceuten moeten eerst hun medicijnen langdurig laten testen of ze niet schadelijk zijn voor de gezondheid. Op dit moment wordt alles maar op de markt gegooid en zien we dan wel of het schadelijk is en lopen wij achter de feiten aan (wetgeving, schade voor de gebruiker).
Geen voorstander van dat je de overheid toestemming moet vragen vooraf je iets mag doen. In Nederland kennen we vergunningen of vaardigheidsbewijzen maar deze zijn zeker niet hetzelfde als ‘toestemming’ want je kan vooraf controleren of je voldoet aan de eisen voordat je het verzoek indient en het is geen ‘spin the wheel’ om te kijken of je iets toegekend krijgt.

De overheid moet transparante regels (wetgeving) maken en je moet zelf vooraf kunnen controleren of je eraan voldoet anders wordt het een roulette wiel met veel vriendjespolitiek.
op zich wel komisch. Het kan zomaar zijn dat de uitlatingen van Modi, die de fundamenteel Hindoeistische kiezers naar de mond praat, vogens bepaalde deifnities ook echt faschistische uitlatingen doet. Ik denk ook dat vrijwel iedere politicus in Nederland het predikaar populistisch aangemeten kan worden, hoewel sommigen dat niet leuk zullen vinden. Misschien zijn dit geen fouten van de AI maar legt het bepaalde sentimenten bloot!
voordat ze AI-tools op de markt brengen
De vraag is dan, welke definitie hangt daar aan. Letterlijk overal wordt tegenwoordig het label 'AI' aan gehangen.

Als je het dan niet AI noemt maar ' slim algorithme kan je het gewoon op de markt brengen !?
dat hele AI gebeuren opzich is al een groot gevaar,
Wat ik zo lees zal dit TZT ook heel wat banen kosten, want wat een werknemer nu doet kan AI ook...uiteindelijk komt straks alle informatie, en beslissingen van een AI
Nu en nu roept zelfs de Indiase regering wil dat bedrijven toestemming vragen voor uitbrengen AI-tools.
Dat zeiden ze ook toen de lopende band z'n intrede deed, de automatisering z'n intrede deed en toen robots hun intrede deden. Nooit iets van uitgekomen, omdat er weer andere banen geschapen werden door die introducties. Dit zal niet anders zijn.

Edit: woordje gewijzigd.

[Reactie gewijzigd door Aldy op 23 juli 2024 05:09]

Sorry maar alles gaat vandaag de dag toch, wordt toch door robot's gedaan,geautomatiseerd. waar vroeger 50 man aan het werk was kan nu toch via een of een paar robots, korte lopendeband gedaan worden, gebeurd toch al, is toch al.
Kijk maar eens hoe een degelijke auto de fabriek uitrold. Wat loopt daar nog rond als arbeider, persoon.
10 jaar geleden kon ik nog mijn bank binnen lopen. Plots was die weg en is er nog een service winkeltje, waar ik voor vragen over en/of credit,hypotheek terecht kan.
Dus als ik zo terug kijk, staan er inmiddels heel wat kantoren leeg en ook hele grote.
Sorry in mijn optiek heeft die hele automatisering zeer zeker wel zijn gevolgen.
Ik heb zelfs kennis die daar slachtoffer van is , nu doet een robot zijn werk, en zo menig daar werkloos is geraakt.
Volgens mij is er momenteel een tekort op de arbeidsmarkt. Daarnaast is het heel normaal als je supergespecialiseerd bent en het werk kan geautomatiseerd worden, dat je dan werkloos wordt. Aanpassen wordt moeilijker, maar is niet onmogelijk. De automonteur van 50 jaar geleden deed ook heel ander werk dan de automonteur vandaag de dag.
Toen het bedrijf waar ik werkte ging automatiseren, zijn er heel wat personeelsleden bijgekomen. Dat kon omdat er efficiënter gewerkt werd en dat de facturen eerder betaald werden omdat die eerder de deur uitgingen. Dus automatisering levert ook banen op.
Tja lastig verhaal dat AI, zal zeker goede dingen brengen, maar zeker en niet te onderschatten gevaren.
Beteken dit dat de iPads niet komen of?
Ik weet niet om welke specifieke rede India dat doet dus of dat dan wel of niet een goede zet is houd ik even in het midden. Wel zou ik er voorstander van zijn dat er vanuit de regering meer controle komt op al die AI tools. Zeker al wanneer deze eigenlijk ongevraagd in OSsen word geimplementeerd zoals Microsoft nu met Copilot. Denk dat het een goede zaak is dat AI aan banden gelegd word.
Een andere mogelijke oplossing is om het woord "intelligentie" alvast te verbannen. Het lijkt er op, maar dat is het verre van. Het is een woord generator en zo moet het ook bezien worden. Zolang mensen en bedrijven er op deze manier mee omgaan mag het van mijn part volledig stopgezet worden.

Op dit item kan niet meer gereageerd worden.