Anthropic ligt eruit bij het Amerikaanse ministerie van Defensie, terwijl concurrenten OpenAI en xAI juist nieuwe overheidsdeals voor militair gebruik sluiten. Grok, ChatGPT en Google Gemini waren al in dienst bij de VS. Het lijkt erop dat Anthropics ethische overtuigingen reden waren voor de afwijzing door Defensie, maar het ligt allemaal wat genuanceerder. Vijf vragen over OpenAI, Trumps ministerie van Defensie, Anthropic en de aanval op Iran.
Krijgt OpenAI nu van Defensie garanties die Anthropic niet kreeg?
Het lijkt er sterk op dat OpenAI in wezen dezelfde overeenkomst sluit met het Amerikaanse ministerie van Defensie als wat Anthropic wilde, maar niet kreeg. Beide AI-aanbieders verklaren met het oog op militair gebruik bepaalde ethische grondslagen en garanties na te streven. Anthropic was uit op bepaalde voorzieningen en formuleringen in zijn contract met Defensie. Ter verduidelijking: in zijn nieuwe, uitgebreidere contract met Defensie. De twee partijen hadden sinds juli vorig jaar al een overeenkomst.
Het nu geëscaleerde conflict gaat over AI-gebruik voor massasurveillance op Amerikaans grondgebied en AI-gebruik voor volledig autonome wapensystemen. Anthropic wil dat expliciet uitsluiten voor zijn AI-technologie en dat specifiek opnemen in het contract met Defensie. Het ministerie wil dat niet op die manier vastleggen.
Ceo Sam Altman van OpenAI doet het voorkomen dat zijn bedrijf tot hetzelfde resultaat is gekomen als wat Anthropic wilde. De duivel zit hier in de details. Altman stelt dat het ministerie, dat hij aanduidt met de door Trump gegeven naam ministerie van Oorlog, 'een diep respect toont voor veiligheid' rond AI. De hoogste baas van het marktbepalende AI-bedrijf verklaart dat Defensie het eens is met 'twee van onze belangrijkste kernprincipes'. Dit betreft het verbieden van massasurveillance in de VS en het behouden van menselijke verantwoordelijkheid voor geweld, waaronder het gebruik van AI-gestuurde wapensystemen.
Volgens Altman is dat opgenomen in de overeenkomst, waarbij hij aangeeft dat Defensie dit verankert in wetgeving en beleid. Ontwikkelingen van de afgelopen maanden tonen dat overheidsbeleid en -handelen haaks kunnen staan op wetgeving. De regering Trump in het algemeen, maar ook ministeries als Justitie, Homeland Security en Defensie voeren acties uit die wettelijke toetsing door de rechterlijke macht niet blijken te doorstaan. Bovendien kan de overheid wetgeving natuurlijk aanpassen.
In tegenstelling tot Anthropic lijkt OpenAI erop te vertrouwen dat Defensie zich houdt aan de wet en dat dit gelijkstaat aan moreel of ethisch juist handelen. Altman kwam maandag nog wel met aanvullingen op de al gesloten overeenkomst, die naar zijn zeggen te haastig is gesloten. De ceo van OpenAI zegt nu met het ministerie te werken aan veranderingen. Het is de vraag of en hoe ver het ministerie daarin meegaat, nu het kennelijk de gewenste AI-deal heeft met een grote aanbieder.
De door Altman genoemde aanvullingen betreffen 'doelbewust volgen en surveilleren' plus 'opzettelijke binnenlandse surveillance'. Mogelijkheden om zulke formuleringen te omzeilen, kwamen in 2013 aan het licht door de onthullingen van NSA-klokkenluider Edward Snowden. De Amerikaanse inlichtingendienst NSA, die onder Defensie valt, bleek Amerikaanse burgers af te luisteren. Het deed dat niet rechtstreeks en niet op eigen grondgebied. Het surveilleren van Amerikanen gebeurde door communicatie van anderen af te tappen, via verbindingen, communicatienetwerken en partners buiten de Verenigde Staten. Zo was er strikt gezien geen sprake van binnenlandse surveillance, volgens het argument van de Amerikaanse spionagedienst.
Anthropic is dus de ethische AI-aanbieder in deze kwestie?
De haastig gesloten overeenkomst van OpenAI en het schijnbare vertrouwen van ceo Altman in de Amerikaanse overheid werpt vragen op over ethisch gedrag. Anthropic lijkt in deze kwestie dus de ethische partij te zijn, die oog heeft voor mogelijk militair AI-misbruik. Ceo Dario Amodei deed vorige week nog ferme uitspraken dat het eindbod van het Pentagon 'onacceptabel' was. Toch valt er wel wat aan te merken op de aanpak van de Amerikaanse AI-aanbieder.
Zo deed Anthropic recent al water bij de wijn. De concurrent van OpenAI schrapte een belangrijke veiligheidsbelofte uit zijn beleid voor het ontwikkelen van AI-systemen. Topmensen van Anthropic onthulden vorige maand dat ze de centrale veiligheidsbelofte van het bedrijf loslaten. Het gaat om de belofte van 2023 dat de AI-aanbieder nooit een AI-systeem zou trainen als het niet vooraf kon garanderen dat de veiligheidsmaatregelen van het bedrijf adequaat zijn. Deze belofte is de kern van de responsible scaling policy (rsp) van het bedrijf, maar die kern is dus losgelaten.
Toch hield Anthropic wel vast aan andere zaken rond militair AI-gebruik, veiligheid en ethiek. Het loslaten van de centrale veiligheidsbelofte in het bedrijfsbeleid was voor Defensie blijkbaar niet genoeg. Het ministerie en de OpenAI-concurrent kwamen er niet uit over binnenlandse surveillance en autonome wapens. Het eerstgenoemde struikelblok gaat om gebruik van Anthropics AI-technologie voor het afluisteren, monitoren en analyseren van communicatie, gedrag en andere gegevens van Amerikaanse burgers, op Amerikaans grondgebied. Het tweede struikelblok betreft het overlaten van kritieke beslissingen over leven of dood aan AI-gestuurde wapensystemen, die dan zonder menselijke inmenging functioneren.
Wat heeft de Amerikaanse aanval op Iran hiermee te maken?
OpenAI sloot afgelopen vrijdag een bredere overeenkomst met Defensie voor AI-gebruik in de geheime systemen en netwerken van het ministerie. Begin die week werd bekend dat xAI van miljardair Elon Musk ook een bredere deal sloot met Defensie voor de omstreden AI-chatbot Grok. Verder zou een soortgelijke deal met Google nabij zijn. Met het sluiten van zulke deals is de veelbelovende AI-technologie nog niet direct toegepast in militaire systemen en inzetbaar voor operaties. Dat kost tijd en moeite.
Slecht nieuws voor het Amerikaanse ministerie, dat AI-gedreven wil zijn? Nee hoor, want in de praktijk gebruikt Defensie al AI-technologie voor reguliere militaire acties. Zoals ook de 'grote gevechtsoperatie' die de Verenigde Staten nu uitvoeren in het Midden-Oosten. Het militaire AI-gebruik van de VS in de aanval op Iran omvat ook AI-bot Claude van Anthropic, melden bronnen aan The Wall Street Journal en aan Axios. Deze inzet van technologie kan vallen onder de bestaande overeenkomsten met leveranciers als xAI, Anthropic, Google en ook OpenAI.
Eerder gebruikte Defensie al Claude in de ontvoering van de Venezolaanse president Nicolás Maduro. Dat zou de oorzaak zijn geweest voor het conflict tussen het ministerie en Anthropic. Bij de aanval op Iran zou de Amerikaanse legerleiding de AI-technologie van Anthropic gebruiken voor verschillende doeleinden. Dit omvat volgens The Wall Street Journal het vergaren van inlichtingen, het uitvoeren van slagveldsimulaties en het bepalen van doelwitten.
Anthropic verliest nu Defensie als grote klant, so what?
De vechtscheiding tussen Anthropic en het Amerikaanse ministerie van Defensie betekent weliswaar verlies van een grote klant en is dus erg voor het AI-bedrijf. Maar er speelt meer. Niet alleen Defensie verbreekt de banden met Anthropic. Alle Amerikaanse overheidsinstanties krijgen het bevel om te breken met die AI-aanbieder.
President Donald Trump kondigde dit vrijdag aan, vlak voor de start van de militaire operatie tegen Iran. Hij noemt de dwarsliggende AI-aanbieder 'een radicaal-links, woke bedrijf' dat eropuit is om te bepalen hoe het Amerikaanse leger moet vechten en hoe het oorlogen moet winnen. Trump uit verdere klassieke MAGA-kritiek op Anthropic en kondigt aan het bedrijf in de ban te doen voor overheidsgebruik in brede zin.
Bovendien zet de Amerikaanse regering Anthropic nu op de zwarte lijst als 'risico voor toeleveringsketens'. Dit heeft verstrekkende gevolgen. Anthropic staat hierdoor namelijk ook buitenspel voor bedrijven die toeleverancier zijn voor overheidsinstanties in de VS. Naast defensiebedrijven en reguliere ondernemingen raakt dit ook AI- en cloudreuzen als Nvidia, AWS en Google. Die zouden geen zaken meer mogen doen met Anthropic, die dan geen AI-chips meer kan afnemen of cloudcapaciteit gebruiken. Er zou hierdoor sprake zijn van 'bedrijfsmoord' die de regering-Trump pleegt op Anthropic.
Defensieminister Hegseth beschuldigt Anthropic van 'arrogantie en verraad'. Hij stelt dat zijn ministerie volledige, onbeperkte toegang moet hebben tot de AI-modellen van Anthropic. Daarbij benadrukt hij dat dit voor 'wettelijke doeleinden' is ter verdediging van de Verenigde Staten. Woordvoerders van de Amerikaanse overheid omschrijven de aanval op Iran als een defensieve maatregel, vanwege de verwachte wraak van Iran op Amerikaanse doelwitten in reactie op een aankomende aanval op Iran door Israël.
Is dit een herhaling van de ban op Huawei en Kaspersky?
Het conflict tussen Anthropic en Defensie, de escalatie, het uiteenspatten en de algehele ban heeft veel weg van eerdere Amerikaanse overheidssancties tegen techbedrijven. Denk aan het Chinese Huawei en het Russische Kaspersky, dat later bewust verhuisde naar Zwitserland. De huidige AI-situatie rond de regering Trump en Anthropic, maar ook OpenAI, xAI, Google en andere techleveranciers, is op belangrijke punten anders.
Allereerst is er het feit dat Anthropic Amerikaans is. De ban die de Amerikaanse overheid oplegt, is de eerste voor een onderneming van eigen bodem, schrijft de BBC. Daarnaast is de huidige AI-industrie, net zoals de ict-industrie, afkomstig uit de VS. Het harde optreden van de Amerikaanse regering nu zet de grote AI-aanbieders onder druk en heeft een vlekwerking op wereldwijd belangrijke techreuzen als Nvidia, AWS en Google.
Bovendien kan de hele zaak een bekoelend effect hebben op investeringen in AI, op ontwikkeling en gebruik van Amerikaanse AI en mogelijk uiteindelijk op gebruik van Amerikaanse IT in bredere zin. Dit komt dan bovenop huidige zorgen over AI-hallucinaties, vrees voor het uiteenspatten van de AI-zeepbel en het groeiende streven naar digitale soevereiniteit.
Zelfs ceo Altman van OpenAI maakt zich zorgen. Hij spreekt van 'een angstwekkend precedent' voor wat nu gebeurt met zijn concurrent. Ondertussen speculeren experts over een dreigende nationalisering van de Amerikaanse AI-industrie, spreken werknemers bij techbedrijven zich uit tegen de ban op Anthropic en dreigt de toch al precaire situatie in het Midden-Oosten te escaleren, met AI opgenomen in het wapenarsenaal.
Redactie: Jasper Bakker • Eindredactie: Monique van den Boomen