Microsoft heeft een rechter verzocht om de aanwijzing van Anthropic als risico voor de toeleveringsketen te blokkeren. Het Amerikaanse ministerie van Defensie zette het bedrijf eind februari opzij en sloot een deal met ChatGPT-maker OpenAI.
In een document dat is ingediend bij de rechtbank van San Francisco schrijft Microsoft dat de 'drastische' en 'ongekende' maatregelen tegen Anthropic 'verstrekkende negatieve gevolgen' zouden hebben voor de technologiesector en het Amerikaanse bedrijfsleven. Microsoft vraagt de uitvoering van het besluit dan ook op te schorten totdat de rechter de rechtszaak van Anthropic behandelt.
Volgens Microsoft zou een opschorting ervoor zorgen dat de overgang naar andere AI-diensten soepeler verloopt en voorkomt zij dat het AI-gebruik van het Amerikaanse leger wordt verstoord. Mocht de blokkade er niet komen, dan zou Microsoft de producten en contracten die door het ministerie van Defensie worden gebruikt, meteen moeten aanpassen. "Dit zou de Amerikaanse soldaten op een cruciaal moment kunnen belemmeren", schrijft Microsoft.
Anthropic vangrails voor AI-gebruik
Microsoft is het eerste techbedrijf dat openlijk een kant kiest in de strijd tussen Anthropic en de Amerikaanse overheid. Het Amerikaanse ministerie van Defensie schoof Anthropic eind februari aan de kant en sloot een deal met OpenAI. Volgens Anthropic-ceo Dario Amodei liepen de onderhandelingen stuk omdat Anthropic niet wilde dat zijn AI werd ingezet voor autonome wapens of massasurveillance van Amerikaanse burgers.
Door de aanwijzing als risico voor de toeleveringsketen mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen. Die aanwijzing werd voorheen alleen gebruikt voor buitenlandse bedrijven.
/i/2008046064.png?f=imagenormal)