De gouverneur van Californië, Gavin Newsom, heeft wetgeving geblokkeerd die de veiligheid van generatieve-AI-modellen moest waarborgen. Newsom erkent dat er maatregelen nodig zijn, maar vindt het wetsvoorstel te alomvattend.
De SB 1047-wet kwam met veiligheidsverplichtingen voor makers van geavanceerde of dure AI-modellen, schrijft Reuters. Ontwikkelaars moesten ook een 'kill switch' integreren in het AI-model, waardoor het eenvoudig uitgezet kon worden. Met de wet zou er ook een staatsautoriteit ingesteld worden om toezicht te houden op de ontwikkeling van toekomstige, geavanceerde 'frontier models'.
Onder meer Googles moederbedrijf, Microsoft, OpenAI en Meta hadden kritiek op de wet en vonden deze te ver gaan. Dat vindt ook Gavin Newsom, gouverneur van de staat. Hij heeft daarom zijn veto uitgesproken en daarmee de wet geblokkeerd. Hij zegt dat de wet de 'juiste intenties had', maar te breed was. Zo had de wet volgens Newsom rekening moeten houden met of systemen gevoelige data gebruiken, of ze in 'hoogrisico-omstandigheden' gebruikt worden, of dat ze zelf besluiten nemen.
"In plaats daarvan stelt de wet strenge standaarden in voor zelfs de basaalste functies, zolang er een groot AI-model wordt gebruikt. Ik geloof niet dat dit de beste manier is om inwoners te beschermen tegen de echte dreigingen van de technologie", zegt Newsom. Hij erkent dat kunstmatige intelligentie risico's heeft voor bijvoorbeeld de democratie en online privacy, maar vindt dat de wet te veel focuste op de grootte van een model. Kleinere modellen kunnen ook schadelijk zijn, terwijl die niet onder SB 1047 vallen.
De wet zou inwoners daardoor de schijn van veiligheid geven, maar ze niet per se volledig beschermen. Newsom wil daarom met de staat, experts en wetenschappers werken aan maatregelen om de schadelijke gevolgen van AI te beperken.