Zeven AI-makers hebben tegenover de Amerikaanse regering beloofd maatregelen te nemen om hun kunstmatige intelligentie veiliger te maken. De bedrijven zeggen de beloftes meteen te implementeren. Het gaat om vrijwillige beloftes, zonder consequenties als ze worden overtreden.
Met de beloftes zegt de Amerikaanse overheid dat de AI van de bedrijven veiliger en betrouwbaarder moet worden. Zo beloven de bedrijven hun AI intern en extern te testen, waarbij de testen deels door onafhankelijke experts worden gedaan en er wordt gekeken naar de grootste risico's. De bedrijven zeggen ook informatie over bijvoorbeeld AI-risico's te delen binnen de branche, en met overheden en wetenschappers. De bedrijven beloven ook onderzoek naar zulke risico's te blijven doen.
De bedrijven beloven verder te investeren in cybersecurity om belangrijke AI-onderdelen te beschermen, om te voorkomen dat onveilige AI wordt uitgebracht. Ze beloven ook onderzoek door derden mogelijk te maken en zeggen toe dat onderzoekers kwetsbaarheden in hun AI kunnen melden.
Op het vlak van betrouwbaarheid beloven AI-makers met bijvoorbeeld watermerken aan te geven wanneer iets door AI is gemaakt, zodat anderen dit kunnen zien. De organisaties beloven daarnaast duidelijk aan te geven wat hun AI kan en waar hun kunstmatige intelligentie minder goed in is. Daarbij zeggen de bedrijven toe AI-systemen te ontwikkelen die voor maatschappelijke doeleinden kunnen worden gebruikt, zoals onderzoek naar kanker en klimaatverandering.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI hebben de beloftes tegenover de Amerikaanse regering gedaan. De regering werkt daarnaast aan een executive order om AI-maatregelen in wetgeving te verankeren, al geeft de regering hier vooralsnog geen details over.