Microsoft vraagt rechter om maatregelen tegen Anthropic op te schorten

Microsoft heeft een rechter verzocht om de aanwijzing van Anthropic als risico voor de toeleveringsketen te blokkeren. Het Amerikaanse ministerie van Defensie zette het bedrijf eind februari opzij en sloot een deal met ChatGPT-maker OpenAI.

In een document dat is ingediend bij de rechtbank van San Francisco schrijft Microsoft dat de 'drastische' en 'ongekende' maatregelen tegen Anthropic 'verstrekkende negatieve gevolgen' zouden hebben voor de technologiesector en het Amerikaanse bedrijfsleven. Microsoft vraagt de uitvoering van het besluit dan ook op te schorten totdat de rechter de rechtszaak van Anthropic behandelt.

Volgens Microsoft zou een opschorting ervoor zorgen dat de overgang naar andere AI-diensten soepeler verloopt en voorkomt zij dat het AI-gebruik van het Amerikaanse leger wordt verstoord. Mocht de blokkade er niet komen, dan zou Microsoft de producten en contracten die door het ministerie van Defensie worden gebruikt, meteen moeten aanpassen. "Dit zou de Amerikaanse soldaten op een cruciaal moment kunnen belemmeren", schrijft Microsoft.

Anthropic vangrails voor AI-gebruik

Microsoft is het eerste techbedrijf dat openlijk een kant kiest in de strijd tussen Anthropic en de Amerikaanse overheid. Het Amerikaanse ministerie van Defensie schoof Anthropic eind februari aan de kant en sloot een deal met OpenAI. Volgens Anthropic-ceo Dario Amodei liepen de onderhandelingen stuk omdat Anthropic niet wilde dat zijn AI werd ingezet voor autonome wapens of massasurveillance van Amerikaanse burgers.

Door de aanwijzing als risico voor de toeleveringsketen mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen. Die aanwijzing werd voorheen alleen gebruikt voor buitenlandse bedrijven.

AI, Claude, Anthropic (beeld: Anthropic)

Door Imre Himmelbauer

Redacteur

11-03-2026 • 17:32

50

Submitter: RonnieKo

Reacties (50)

Sorteer op:

Weergave:

Deze bui zag ik al hangen. Microsoft Copilot Cowork, dat ze eergisteren hebben aangekondigd, leunt volledig op modellen van Anthropic.

Copilot Cowork is de Claude Code onder de Office 365 omgeving. Waarbij documenten, zoeken, openen, aanmaken, door Cowork wordt uitgevoerd. Blijkbaar is het model van Anthropic zo goed getraind in 'tools' (input output volgens bepaald json stramien waarmee de client weet welke tool aangeroepen moet worden) dat ze niet een OpenAI model durven te gebruiken.

[Reactie gewijzigd door Mic2000 op 11 maart 2026 17:41]

Dan moet je ook wat van de geschiedenis weten. Anthropic gaat een heel andere kant op dan OpenAI.

Anthropic wilde mensen helpen met Claude Code waarmee de gehele code autonoom aangepakt wordt. Omdat mensen het in de terminal/powershell omgeving draaide konden ze ook hele andere dingen ermee doen zoals software instellen en hele servers configureren. Daarop kwam het product cowork, omdat ze zagen dat het voor meer dan alleen programmeerwerk werd gebruikt.

ChatGPT heeft zelf nog niet veel bruikbaars op dat gebied en is meer een all-round AI die in hele andere taken goed is. Laat door beide bijvoorbeeld eens een afbeelding genereren. Bij ChatGPT krijg je iets heel moois eruit en bij Claude krijg je iets heel simpels eruit alsof een kind van 5 jaar het heeft getekend.

Qua programmeren loopt Claude toch behoorlijk ver voorop en cowork hadden ze eigenlijk al dus dat hoefde niet opnieuw uitgevonden te worden.
Claude kan veel maar geen images genereren.

tenminste ik kan het niet vinden en Claude zelf vind ook dat tie het niet kan.

[Reactie gewijzigd door InflatableMouse op 11 maart 2026 18:24]

Claude kan veel maar geen images genereren.

tenminste ik kan het niet vinden en Claude zelf vind ook dat tie het niet kan.
Claude kan ook geen foto's genereren, ook geen video's. Dat is omdat Anthropic zijn prioriteiten compleet anders heeft dan een Chatgpt. Zij investeren liever in Cowork en met name Coding. En vooral dat laatste is Claude momenteel heer en meester in en lopen mijlenver voor op de concurrentie. Nadeel is dan wel dat Claude in gebruik een heel stuk duurder is dan Chatgpt, zeker als je het Opus model gebruikt.
Claude kan meer dan je denkt. Maar voor afbeeldingen maakt hij een Python script die de afbeelding maakt. Vandaar dat het niet een hele uitgebreide afbeelding is.

Ook leuk is om Claude aan Blender te koppelen en hem daar zelf effecten mee te laten maken. Alles wat via de command line, powershell of api kan dat kan Claude bedienen.
Ik heb net even getest en claude kan wel svg's maken, niet dat dat is wat jij nu bedoelde, maar wellicht toch leuk, je kunt dus simpele illustraties maken met de tool.

Voor de liefhebbers, het kan ook bij mistral. En lokaal lukte het ook met devstral.

N.B. mistral heeft ook nog een aparte image generatie mogelijkheid, ik heb de SVG laten maken met de chat tool zelf.

[Reactie gewijzigd door demianmonteverd op 12 maart 2026 07:58]

svg is een xml format, niet zo gek dat een taal model dat kan. De eerste AI's konden ook geen 3d modellen maken zei men, maar als je ze vroeg om openscad code kwam het er zo uitrollen.
Voor afbeeldingen in de zin van architectuur flows ofzo, is Google Gemini heel goed. Inclusief delen van zijn zojuist gemaakte afbeeldingen aanpassen. Bv tekst is niet helemaal goed.
Die laat ik altijd in mermaid format maken, dan kan elke LLM het, ook een ministral, qwen, etc.
OpenAI heeft gewoon Codex en zal binnenkort ook wel met een variant komen aangezien Cowork in anderhalve week gebouwd is met CC https://x.com/bcherny/status/2010813886052581538?s=20

GPT-5.4 doet ook niet onder voor Opus 4.6
Als ik moest kiezen gebruikte ik Opus 4.6. Ik heb beide, maar chat GPT 5.4 levert goede resultaten maar doet er 10 keer langer over met allerlei vage controles, extra tests en wat al niet. Misschien is dat mijn gebruik, zelfs bij mij wisselen de resultaten naar gelang de vraag. Maar Opus produceert structureel sneller een goed resultaat dan GPT 5.4. Onder copilot for github (enterprise) is Opus echter wel veel duurder een x3 op credit in plaats van GPT 5.4 met 1x. Dus dat is in het voordeel van GPT
.oisyn Moderator Devschuur® @bzuidgeest11 maart 2026 23:09
Hou zou je zeggen dat het zich verhoudt tot Sonnet 4.6? Ik gebruik Opus voornamelijk de grotere aanpassingen of geheel nieuwe code, maar als ik wat mundane taakjes of refactorings te doen heb dan is Sonnet daar prima genoeg voor (en dat doe ik idd omdat het me een stuk minder credits kost). Ik heb GPT nog niet echt gebruikt als agent.
Ik doe hetzelfde. Laat opus e.d research en documentatie klaarzetten voor goedkope modellen om uit te voeren. Tactische inzet is heel belangrijk als je credits will sparen.

Ik gebruik sonnet dus ook nog steeds. Hoe het zich verhoudt? Moeilijk te zeggen. Dat ligt erg aan je use case. Voor dagelijks programmer werk, websites, .net of c hebben de high end modellen niet zo veel voordelen vind ik. Met haiku kom je dan nog een heel eind en die kost 0,33 tokens bij GitHub copilot. Daar kan je wel een extra correctie vraag aan op offeren. Maar als ik via mcp met ghidra verbind is het verschil enorm. Vooral op gebied van redeneren en overzicht houden.

Ik gebruik ook nog eens de tooling van augment code. Hun ding is een speciale "indexer" opzet die de ai helpt met grote codebases en overzicht houden. Ze hebben daar ook alle modellen, got, sonnet, opus etc. Maar hun toevoegingen zijn super in mijn opinie. Prijzig, maar super.

Uiteindelijk hangt ook veel van context af. Als je met erg ingewikkelde vragen de context van de ai vol hebt, dan gaan ze gesprekken lopen samenvatten en comprimeren. Maar zeker in grote analyses verliezen ze dan overzicht en kunnen ze in een redeneer loop vallen. Iets dat ik vooral gpt 5.4 heb zien doen. Die was gratis bij augment code voor een week. Zonder grenzen. Heb ik dankbaar gebruik van gemaakt. Je kan gratis niet verslaan met zoiets.
Opus is toch echt vele malen beter dan GPT - handjes voor in het vuur hier. Als ik GPT wat laat coderen dan ben ik en langer aan het wachten en ik moet echt veel meer controleren.
Helaas is opus ook een van de duurste modellen in gebruik. Ik gebruik gewoon ook nog haiku voor verschillende dingen. Dat is 0,33x credits per verzoek in plaats van 3x bij GitHub copilot.
Snap ik! Ik heb gewoon een max 20x plan, en voor als ik een grotere context window nodig heb zet ik de API aan of extra-usage :+
Naast een Max 5x plan, heb ik ook een ChatLLM Pro plan + $30 dollar extra credits per maand. De extra aangekochte credits blijven gewoon staan indien niet gebruikt en de 20.000 standaard credits welke je elke maand krijgt worden eerst opgemaakt voordat de extra credits worden aangesproken. Die $150 verdient zicht echt snel terug.

Zeker als je code of acabusai CLI tools gebruikt. Wij doen nog steeds veel in de full Visual Studio en daarvoor is allen co-pilot en Jetbrains AI beschikbaar. Met met de CLI tools (welke ik draai onder GIT bash) kan ik ongeveer hetzelfde en veel meer.

Ook hebben wij de tools gebruikt om config bestanden te documenteren. 95% staat direct goed en wij hoeven alleen nog een kleine moderatie slag te doen. Via ChatLLM kunnen wij ook images (icons) en audio genereren.
Maar ondertussen blijven ook de Nederlandse directiekamers vol inzetten op AI en AI agents in de Amerikaanse cloud.

Als zelfs een bedrijf als Microsoft dit zomaar kan overkomen en het waarschijnlijk niet opgelost gaat krijgen als het tegenzit, wat ga je als Nederlands mkbertje dan doen nadat je net een paar fte hebt opgegeven en tonnen op die zooi hebt stukgeslagen.
Onderliggende kan er gewoon geschakeld worden naar een ander model. Dit is vooral voor Microsoft zelf heel vervelend. En buiten trainingen en implementatie kosten zitten buiten de abbo kosten er geen kosten voor een mkb aan verbonden. En geen van die kosten is verloren. Nog los van het gegeven dat dit alleen in de VS op gaat.
Je mist het punt, als Trump de verkeerde knop omdraait heb je niks meer.
Als Trump de knop omdraait heeft de VS niks meer. Trump heeft geen zeggenschap over wat er in andere werelddelen wel of niet gebruikt wordt.
Formeel niet.
Hij kan alleen wel heffingen opleggen of dreigen daarmee als je geen [vul hier naam in] van VS-bodem wenst te gebruiken.
Dat heeft sowieso een verstorend effect, ook al trekt hij meestal z’n keutel wel weer in.

[Reactie gewijzigd door GeeBee op 11 maart 2026 22:35]

Ik zou graag lokaal AI draaien, maar ik kan de hardware prijs niet verantwoorden. Dus is Amerika zo een beetje de enige optie. Tenzij je Chinees wil. Maar dat heeft ook zijn problemen.
Ik gebruik regelmatig Mistral, en de resultaten zijn goed. Ik heb eerder ook chatGPT geprobeerd, maar ik mis het niet. Mistral voldoet aan mijn verwachtingen, of zelfs boven verwachting goed. Uiteraard kan dit per use case verschillen, maar ik blijf bij Mistral.
Ik kan op hun site niet eens ontdekken wat hun product nou eigenlijk is. GitHub copilot entreprise of augment code zijn allebei heel duidelijk integreert met je programmer tools. Wat Mistral nou eigenlijk doet kan ik van de site niet afleiden.
Dat ligt aan de eisen die je stelt, toch?
Voor eenvoudig thuisgebruik kan het voor niet al te veel geld al wel lukken.

[Reactie gewijzigd door GeeBee op 11 maart 2026 22:41]

Je hebt alleen maar een video kaart van de juiste generatie met 40Gb geheugen nodig.

De eis is dat het in de buurt van online diensten moet komen. Als je gewend bent aan Claude opus, gpt5.4 en nog een paar van dat soort dan wil je echt niet meer met een 7B speeltje aan de gang. Dat is leuk voor home automation, maar obsolete voor serieus werk.
7B is idd wat klein, maar genoeg modellen die prima in 32GB passen, als je die toegang geeft tot Google kom je een eind voor het generieke werk. Gebruik zelf gpt-oss voor zakelijke automatiseringen en RAG. Dikke prima en zakelijk gezien een stuk goedkoper zelfs met aanschaf hardware.

Met 100 gebruikers in je bedrijf ben je per maand een goede gpu kwijt aan openai abbo.

En natuurlijk voor programmeren direct in je code tools blijven de online opties beter. Maar voor het gemiddelde kantoor gebruik is het echt prima te doen en binnen 6 maanden een stuk goedkoper.
Maar ik ben geen bedrijf en als ik zie hoe de prijzen omhoog zijn, dan ga ik dat echt niet betalen voor een hobby ai. De 22b modellen passen misschien net in 32Gb. Maar die kunnen echt niet op tegen opus. En je hebt ook niet de codebase "indexing" tooling/context engine van augment code.
Simpelweg, een lokaal model is leuk voor de hobby, maar het wil je bedrijf niet zo limiteren. Je moet uiteindelijk concurreren met bedrijven die het wel high end cloud based AI inzetten en daar extra productiviteit uit halen. Er zijn meer factoren dan puur de abbo kosten in het bedrijfsleven.
Zelfs als dat allemaal niet het geval was, het feit dat de Amerikaanse overheid een bedrijf op deze lijst zet puur en alleen omdat dat bedrijf niet wil dat hun technologie gebruikt wordt op illegale manieren is ook gewoon een vreselijk gevaarlijk precedent.
Het is dan ook nogal dom van Anthropic, militaire toepassingen zijn waarschijnlijk de enige rendabele toepassingen van AI op dit moment.
Als Microsoft zo hard pushed voor een bedrijf waar ze zelf geen direct aandeel in hebben dan is het bijna zeker dat er meer achter zit dan dat ze hier vrij geven.

Ik kan alleen maar hopen dat de rechter hier heel kritisch naar kijkt en mee om gaat.
Microsoft kiest de weg dat uiteindelijk hun producten het beste zal doen. En blijkbaar biedt Anthropic duidelijk betere producten dan OpenAI en wilt Microsoft dit maar wat graag integreren in hun producten. Dit doen ze echt enkel zodat hun eigen O365 producten beter verkocht worden.
Microsoft kiest de weg dat uiteindelijk hun producten het beste zal doen.
Tot hier met je eens.
En blijkbaar biedt Anthropic duidelijk betere producten dan OpenAI en wilt Microsoft dit maar wat graag integreren in hun producten. Dit doen ze echt enkel zodat hun eigen O365 producten beter verkocht worden.
Nu ben je aan het speculeren, het kan ook gewoon omdat Microsoft graag de concurrentie wil behouden. Of iets anders, maar dat weten we niet.
Ja er zijn gekke mensen aan de macht, dat zet het systeem wel wat onder druk. Rechterlijke macht kan amper volgen met de overtredingen.

De VS worden ontmanteld van binnenuit door een president die veel zaken doet om de VS en hun historische bondgenoten te verzwakken en verdelen. Als China en Rusland hem daar niet gezet hebben kunnen ze in ieder geval blij zijn dat hij er zit.
  • Bondgenoten verdeeld en economisch beschadigd door handelstarieven.
  • Oekraïne niet meer financieel gesteund en ook militair beperkt.
  • Al zijn militaire slagkracht op onbenulligheden zoals Iran, Cuba (wie weet Groenland) richten zodat China ruimte heeft voor Taiwan.
  • Bij gevolg gas en olie duur = cadeau voor Rusland op een moment dat ze het hard nodig hebben, pijnlijk voor bondgenoten
  • En dan is er nog zijn poging tot burgeroorlog dmv inzetten van ICE
Typisch zoals deze clowns van de administration in de VS besluiten nemen.
Ze hebben geen enkel idee over de gevolgen.
Het staat Anthropic geheel vrij om volledig naar Europa te verhuizen. Er zijn meer landen op deze wereld dan de VS die een rechte rug wel kunnen waarderen. Stel je voor: Europa zou een flinke voorsprong opbouwen ten opzichte van de VS als Anthropic besluit om alles te verhuizen naar bijvoorbeeld Nederland. Dan ontploft Trump zo hard, dat hij de hele oval office stijf scheldt.
Het zou heel tof zijn, maar helaas een utopie. De regel en wetgevingen zijn hiervoor helaas nog te belemmerend om het aantrekkelijk te worden voor Anthropic om naar Europa te verhuizen. Misschien Noorwegen of Zwitserland?
Het is nu toch: Het Amerikaanse ministerie van Defensie Oorlog
Je moet niet alles serieus nemen wat iemand met 2 hersencellen zegt.
Dat is inderdaad de roepnaam. De officiële naam is nog steeds Ministerie van Defensie.
Wat hier eigenlijk speelt is een fundamentele discussie over wie bepaalt hoe AI gebruikt wordt: de overheid of de bedrijven die de technologie bouwen.

Als je het artikel leest, lijkt het erop dat Anthropic een paar duidelijke rode lijnen had: hun AI niet gebruiken voor autonome wapens of massasurveillance. Toen dat niet werd geaccepteerd door het Amerikaanse ministerie van Defensie, werd het bedrijf vervolgens als “supply-chain risk” bestempeld en praktisch uitgesloten van militaire contracten.

Wat opvallend is: zelfs Microsoft, toch een grote partner van OpenAI, schaart zich nu achter Anthropic en vraagt de rechter om die maatregel tijdelijk te blokkeren, omdat die volgens hen “drastische en ongekende gevolgen” kan hebben voor de hele techsector.

Voor mij raakt dit ook aan een bredere discussie rond AI. Ik ben de laatste tijd zelf verschillende modellen aan het testen en merk dat ik ChatGPT langzaam aan het afbouwen ben vanwege de richting die OpenAI lijkt te kiezen.

Tot nu toe bevallen alternatieven zoals Le Chat, Claude van Anthropic en Lumo van Proton eigenlijk verrassend goed. Het voelt daar vaak wat meer alsof veiligheid en privacy nog echt onderdeel zijn van het product, in plaats van een marketingterm.

De AI-markt begint zo wel steeds interessanter te worden. Een paar maanden geleden was ChatGPT bijna synoniem met AI, maar nu zie je dat er echt een ecosysteem van concurrerende modellen ontstaat.

Ben benieuwd hoe anderen hiernaar kijken. Gebruik je nog vooral ChatGPT, of zijn jullie ook aan het experimenteren met andere AI-tools?
Chat-GTP is zo slecht dat ik die alleen gebruik om opdrachtprompts die ik voor andere modellen gebruik aan te scherpen en te verbeteren. En dan klopt het nog steeds regelmatig niet....
Als je het artikel leest, lijkt het erop dat Anthropic een paar duidelijke rode lijnen had: hun AI niet gebruiken voor autonome wapens of massasurveillance. Toen dat niet werd geaccepteerd door het Amerikaanse ministerie van Defensie, werd het bedrijf vervolgens als “supply-chain risk” bestempeld en praktisch uitgesloten van militaire contracten.

Wat opvallend is: zelfs Microsoft, toch een grote partner van OpenAI, schaart zich nu achter Anthropic en vraagt de rechter om die maatregel tijdelijk te blokkeren, omdat die volgens hen “drastische en ongekende gevolgen” kan hebben voor de hele techsector.
Dat Anthropic uitgesloten is van militaire contracten is die supply-chain risk bestempeling niet voor nodig. Maar door die bestempeling mag Microsoft zelf ook geen zaken meer doen met Anthropic.
Trump roept iets en de schaapjes voeren dan de opdracht uit maar overzien de rest niet, de gevolgen. Alleen dat bedrijf raken is het doel omdat het niet wil dansen naar de pijpen van Trump. Wat zullen die zich later afvragen als ze oud en krakkemikkig zijn, dan zeggen ze vast we zaten fout...ja dagggg
Ik ken de onderlinge afhankelijkheden tussen verschillende partijen niet goed genoeg, maar ik denk wel dat alle grote partijen grotendeels afhankelijk zijn van, of contracten hebben met, de grote AI-spelers — en dat zijn er niet veel. Dat op zich is natuurlijk al een grote zorg.

Het feit dat ketenafhankelijkheid nu ook politiek wordt beïnvloed [of: wordt ondermijnd] is economisch natuurlijk nog zorgelijker (en plaatst investeringen meer in de volatile hedging-categorie), waarbij investeringsrisico’s feitelijk politiek worden gemaakt en onderliggende principiële bezwaren terzijde worden geschoven.

Dit kan m.i. alleen leiden (en lijden) tot verdere globale escalatie.
Wat heeft microsoft met anthropic te maken? Dat is toch een concurrent want microsoft heeft al copilot

Om te kunnen reageren moet je ingelogd zijn