Google heeft zijn belofte om geen kunstmatige intelligentie voor wapens te maken teruggetrokken. In een blog legt Google uit dat het zijn AI-principes aanpast omdat het vindt dat democratische landen het voortouw moeten nemen in AI-ontwikkeling.
Google publiceerde in 2018 voor het eerst zijn AI-principes, waarin het bedrijf beloofde om geen AI-technologieën te ontwikkelen die (zeer waarschijnlijk) schade toebrengen. Mocht er een risico op schade bestaan, dan zou Google de technologie alleen verder ontwikkelen 'als we geloven dat de voordelen aanzienlijk opwegen tegen de risico's', zo viel in januari nog op de website van Google te lezen, blijkt uit een gearchiveerde pagina in het Internet Archive. Ook beloofde Google dan passende veiligheidsbeperkingen op te nemen.
Maar die belofte is verdwenen van de vernieuwde pagina met AI-principes, ontdekte The Washington Post. In een blogbericht schrijft Google dat er sinds 2018 veel veranderd is rondom AI en dat het vindt dat democratische landen het voortouw moeten nemen in de ontwikkeling van AI. Daarbij moeten ze zich laten leiden door 'kernwaarden als vrijheid, gelijkwaardigheid en respect voor mensen'. "Wij geloven dat bedrijven, overheden en organisaties die deze waarden delen, moeten samenwerken om AI te creëren die mensen beschermt, wereldwijde groei stimuleert en de nationale veiligheid ondersteunt."
Diverse andere AI-ontwikkelaars hebben hun beleid eerder al aangepast. OpenAI liet zijn verbod op het gebruik van zijn software voor militaire toepassingen en oorlogvoering in januari vorig jaar vallen. Het bedrijf kondigde toen ook aan met het Amerikaanse leger te werken aan tools voor cyberveiligheid. Meta besloot afgelopen november om zijn AI-modellen voor militaire doeleinden beschikbaar te maken. Dit bedrijf gaat bovendien samenwerken met defensiebedrijven als Lockheed Martin en Palantir. Palantir heeft sinds november bovendien toegang tot Anthrophics Claude-modellen.