Anthropic klaagt VS aan vanwege aanwijzing als veiligheidsrisico

Claude-maker Anthropic heeft het Amerikaanse ministerie van Defensie aangeklaagd vanwege de aanwijzing als veiligheidsrisico. Volgens Anthropic heeft het ministerie dat gedaan om druk uit te oefenen op de onderhandelingen en mag dat niet.

AI, Claude, Anthropic (beeld: Anthropic)Alle contracten met Amerikaanse overheidsdiensten komen momenteel snel tot een einde, claimt Anthropic in de aanklacht. Dat bevoordeelt concurrenten zoals OpenAI en benadeelt Anthropic. Volgens het AI-bedrijf heeft het Amerikaanse ministerie van Defensie Anthropic alleen maar aangewezen als veiligheidsrisico als 'straf' voor het niet meegaan in bepaalde voorwaarden voor een samenwerking en dat zou illegaal zijn.

Door de aanwijzing als veiligheidsrisico heeft het ministerie schade gedaan aan Anthropic, zo staat in de aanklacht. "De federale overheid heeft wraak genomen op een toonaangevende AI-ontwikkelaar omdat deze vasthield aan haar beschermde standpunt over een onderwerp van groot publiek belang – AI-veiligheid en de beperkingen van haar eigen AI-modellen – in strijd met de Grondwet en de wetten van de Verenigde Staten", aldus het bedrijf. "De gedaagden proberen de economische waarde te vernietigen die is gecreëerd door een van 's werelds snelstgroeiende particuliere bedrijven, een leider in de verantwoorde ontwikkeling van een opkomende technologie die van vitaal belang is voor ons land. De aangevochten acties brengen onmiddellijke en onherstelbare schade toe aan Anthropic en aan anderen van wie de meningsuiting zal worden beknot."

Het Pentagon heeft nog niet gereageerd op de aanklacht. Hoewel Anthropic zegt dat het ook vragen van andere bedrijven krijgt over dat het als veiligheidsrisico geldt, bleek deze week dat in elk geval Microsoft nog zaken doet met Anthropic. Het is voor het eerst dat de Amerikaanse federale overheid een Amerikaans bedrijf aanduidt als een veiligheidsrisico. De Amerikaanse overheid sloot een deal met OpenAI.

Door Arnoud Wokke

Redacteur Tweakers

09-03-2026 • 19:34

12

Reacties (12)

Sorteer op:

Weergave:

Wat ik nog mis in dit artikel, en wat wel van groot belang is, is dat volgens Minister van Oorlog Pete Hegseth dit ook betekent dat geen enkele leverancier van het ministerie van Defensie nog zaken mag doen met Anthropic. Anthropic zegt dat dit wettelijk gezien niet klopt, maar de wet lijkt momenteel ondergeschikt aan de grillen van het Trump regime.
Pete "we are currently clean on opsec" Hegseth? Dat is één van de marionetten van Trump, ik zou zijn gezwets toch niet snel als waarheid aannemen.
Correct. Maar de usa werkt momenteel niet meer op logica maar op trump-gevoel. Dat betekent oa dat zelfs als het witte huis geen gelijk heeft niemand dat durft te zeggen omdat je er dan niet meer bijhoort. Beetje zoals het schoolplein van groep 4.
Het ligt er vinger dik op dat de reden dat ze voor OpenAI gekozen hebben en Anthropic weren, gewoon puur is omdat Anthropic niet wou toegeven aan de gestelde eisen. Niet omdat het een echt veiligheidsrisico vormt. Dus dat lijkt me op zich wel een duidelijk punt om een rechtzaak over te beginnen.
Dit is eigenlijk een juridisch popcorn moment en een wedstrijdje welk beursgenoteerd bedrijf het meest ok is met het schenden van mensenrechten voor geld.

Blijkbaar heeft Anthropic net ietsje pietsje meer scrupules dan OpenAI.
Anthropic noch OpenAI zijn beursgenoteerd.
Daar heb je helemaal gelijk in. Ik bedoelde eigenlijk private investeerders, bedrijven en hedge funds..

Maakt het verhaal er niet leuker op. In tegendeel zelfs.
Ik zal wel de enige zijn die het probleem niet zo ziet. Dan gebruik je gewoon geen LLM. Prima, nu de andere LLM-boeren nog verbieden. Scheelt een hoop energieverbruik, AI-slop en andere kwalijke zaken.

Wat voegt het nu werkelijk toe aan de wereld?
Ik verwacht dat je inderdaad de enige bent die het probleem niet ziet. Het gaat er uiteraard niet om dat je dan een LLM niet gebruikt maar dat een van die LLM's op naar eigen zeggen onterechte gronden buiten spel wordt gezet. In de EU doet de overheid haar best om een gelijk speelveld te creëren en concurrentie te bevorderen, in de VS geldt blijkbaar het tegenovergestelde.
Over het algemeen gezien heb je gelijk. Het gebruik van LLM's vind ik echter ûberhaupt een kwalijke zaak, en ik juich het dan ook toe dat Anthropic op deze manier buitenspel wordt gezet. Zoals ik schreef: nu die andere LLM-toko's nog.

Gelukkig mag de OpenAI-slop autonome wapens gaan aansturen. Topidee! /s


[edit: phrasing]

[Reactie gewijzigd door Jim de Wit op 9 maart 2026 20:11]

Was het Anthropic zelf niet dat onlangs nog riep dat ze Claude helemaal niet in de hand kunnen houden?
En dat ze daarom ook in de voorwaarden voor gebruik hebben opgenomen het niet de morele limieten zoals het inzetten om wel/niet volledig autonoom (zelfstandig, zonder tussenkomst van een mens) een target uit te schakelen met een drone (of groter) te overschrijden.

Wat Hegseth, de Minister of War wel dolgraag wil.

[Reactie gewijzigd door DropjesLover op 9 maart 2026 21:20]


Om te kunnen reageren moet je ingelogd zijn