De Indiase regering wil dat techbedrijven om goedkeuring vragen voordat ze AI-tools op de markt brengen. Het gaat specifiek om software die 'onbetrouwbaar' is of zich in de testfase bevindt. Ook wil de regering dat deze tools als zodanig gelabeld worden.
Het Indiase ministerie van Elektronica en Informatietechnologie heeft nieuwe richtlijnen opgesteld waarin het bedrijven vraagt om toestemming te verkrijgen voordat ze nieuwe AI-tools uitbrengen. Dat meldt persbureau Reuters. Aan bedrijven wordt gevraagd om de 'mogelijke onbetrouwbaarheid' van hun AI-modellen 'op gepaste wijze' te labelen.
Het verkrijgen van toestemming voor publieke release is nog niet bij wet verplicht, maar dat zit er volgens plaatsvervangend minister Rajeev Chandrasekhar wel aan te komen. Hoewel het om een advies gaat, stellen de richtlijnen dat vervolging mogelijk is als bedrijven ze niet naleven.
De richtlijnen volgen een week na Indiase kritiek op Gemini nadat het de Indiase premier Narendra Modi als fascistisch bestempelde, terwijl het taalmodel van Google bij andere politieke figuren ontwijkend antwoordt. Google heeft excuses aangeboden voor het voorval.
Naast India werken ook Europa en de Verenigde Staten aan regelgeving voor AI. Europese lidstaten hebben vorige maand een voorlopig akkoord bereikt over de AI Act.