Door Jasper Bakker

Nieuwsredacteur

AI als wapen: waarom Trumps Defensie OpenAI verkiest boven Anthropic

04-03-2026 • 09:30

128

Vijf vragen over OpenAI, Trumps ministerie van Defensie, Anthropic en Iran

Anthropic ligt eruit bij het Amerikaanse ministerie van Defensie, terwijl concurrenten OpenAI en xAI juist nieuwe overheidsdeals voor militair gebruik sluiten. Grok, ChatGPT en Google Gemini waren al in dienst bij de VS. Het lijkt erop dat Anthropics ethische overtuigingen reden waren voor de afwijzing door Defensie, maar het ligt allemaal wat genuanceerder. Vijf vragen over OpenAI, Trumps ministerie van Defensie, Anthropic en de aanval op Iran.

Krijgt OpenAI nu van Defensie garanties die Anthropic niet kreeg?

Het lijkt er sterk op dat OpenAI in wezen dezelfde overeenkomst sluit met het Amerikaanse ministerie van Defensie als wat Anthropic wilde, maar niet kreeg. Beide AI-aanbieders verklaren met het oog op militair gebruik bepaalde ethische grondslagen en garanties na te streven. Anthropic was uit op bepaalde voorzieningen en formuleringen in zijn contract met Defensie. Ter verduidelijking: in zijn nieuwe, uitgebreidere contract met Defensie. De twee partijen hadden sinds juli vorig jaar al een overeenkomst.

Het nu geëscaleerde conflict gaat over AI-gebruik voor massasurveillance op Amerikaans grondgebied en AI-gebruik voor volledig autonome wapensystemen. Anthropic wil dat expliciet uitsluiten voor zijn AI-technologie en dat specifiek opnemen in het contract met Defensie. Het ministerie wil dat niet op die manier vastleggen.

Ceo Sam Altman van OpenAI doet het voorkomen dat zijn bedrijf tot hetzelfde resultaat is gekomen als wat Anthropic wilde. De duivel zit hier in de details. Altman stelt dat het ministerie, dat hij aanduidt met de door Trump gegeven naam ministerie van Oorlog, 'een diep respect toont voor veiligheid' rond AI. De hoogste baas van het marktbepalende AI-bedrijf verklaart dat Defensie het eens is met 'twee van onze belangrijkste kernprincipes'. Dit betreft het verbieden van massasurveillance in de VS en het behouden van menselijke verantwoordelijkheid voor geweld, waaronder het gebruik van AI-gestuurde wapensystemen.

OpenAI-ceo Sam Altman (beeld: OpenAI)
OpenAI-ceo Sam Altman. Bron: OpenAI

Volgens Altman is dat opgenomen in de overeenkomst, waarbij hij aangeeft dat Defensie dit verankert in wetgeving en beleid. Ontwikkelingen van de afgelopen maanden tonen dat overheidsbeleid en -handelen haaks kunnen staan op wetgeving. De regering-Trump in het algemeen, maar ook ministeries als Justitie, Homeland Security en Defensie voeren acties uit die wettelijke toetsing door de rechterlijke macht niet blijken te doorstaan. Bovendien kan de overheid wetgeving natuurlijk aanpassen.

In tegenstelling tot Anthropic lijkt OpenAI erop te vertrouwen dat Defensie zich houdt aan de wet en dat dit gelijkstaat aan moreel of ethisch juist handelen. Altman kwam maandag nog wel met aanvullingen op de al gesloten overeenkomst, die naar zijn zeggen te haastig is gesloten. De ceo van OpenAI zegt nu met het ministerie te werken aan veranderingen. Het is de vraag of en hoever het ministerie daarin meegaat, nu het kennelijk de gewenste AI-deal heeft met een grote aanbieder.

Edward Snowden
NSA-klokkenluider Edward Snowden. Bron: Getty

De door Altman genoemde aanvullingen betreffen 'doelbewust volgen en surveilleren' plus 'opzettelijke binnenlandse surveillance'. Mogelijkheden om zulke formuleringen te omzeilen, kwamen in 2013 aan het licht door de onthullingen van NSA-klokkenluider Edward Snowden. De Amerikaanse inlichtingendienst NSA, die onder Defensie valt, bleek Amerikaanse burgers af te luisteren. De NSA deed dat niet rechtstreeks en niet op eigen grondgebied. Het surveilleren van Amerikanen gebeurde door communicatie van anderen af te tappen, via verbindingen, communicatienetwerken en partners buiten de Verenigde Staten. Zo was er strikt gezien geen sprake van binnenlandse surveillance, volgens het argument van de Amerikaanse spionagedienst.

Anthropic is dus de ethische AI-aanbieder in deze kwestie?

De haastig gesloten overeenkomst van OpenAI en het schijnbare vertrouwen van ceo Altman in de Amerikaanse overheid werpt vragen op over ethisch gedrag. Anthropic lijkt in deze kwestie dus de ethische partij te zijn, die oog heeft voor mogelijk militair AI-misbruik. Ceo Dario Amodei deed vorige week nog ferme uitspraken dat het eindbod van het Pentagon 'onacceptabel' was. Toch valt er wel wat aan te merken op de aanpak van de Amerikaanse AI-aanbieder.

Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News
Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News

Zo deed Anthropic recent al water bij de wijn. De concurrent van OpenAI schrapte een belangrijke veiligheidsbelofte uit zijn beleid voor het ontwikkelen van AI-systemen. Topmensen van Anthropic onthulden vorige maand dat ze de centrale veiligheidsbelofte van het bedrijf loslaten. Het gaat om de belofte van 2023 dat de AI-aanbieder nooit een AI-systeem zou trainen als de aanbieder niet vooraf kon garanderen dat de veiligheidsmaatregelen van het bedrijf adequaat zijn. Deze belofte is de kern van de responsible scaling policy (rsp) van het bedrijf, maar die kern is dus losgelaten.

Toch hield Anthropic wel vast aan andere zaken rond militair AI-gebruik, veiligheid en ethiek. Het loslaten van de centrale veiligheidsbelofte in het bedrijfsbeleid was voor Defensie blijkbaar niet genoeg. Het ministerie en de OpenAI-concurrent kwamen er niet uit over binnenlandse surveillance en autonome wapens. Het eerstgenoemde struikelblok gaat om gebruik van Anthropics AI-technologie voor het afluisteren, monitoren en analyseren van communicatie, gedrag en andere gegevens van Amerikaanse burgers, op Amerikaans grondgebied. Het tweede struikelblok betreft het overlaten van kritieke beslissingen over leven of dood aan AI-gestuurde wapensystemen, die dan zonder menselijke inmenging functioneren.

Wat heeft de Amerikaanse aanval op Iran hiermee te maken?

OpenAI sloot afgelopen vrijdag een bredere overeenkomst met Defensie voor AI-gebruik in de geheime systemen en netwerken van het ministerie. Begin die week werd bekend dat xAI van miljardair Elon Musk ook een bredere deal sloot met Defensie voor de omstreden AI-chatbot Grok. Verder zou een soortgelijke deal met Google nabij zijn. Met het sluiten van zulke deals is de veelbelovende AI-technologie nog niet direct toegepast in militaire systemen en inzetbaar voor operaties. Dat kost tijd en moeite.

Slecht nieuws voor het Amerikaanse ministerie, dat AI-gedreven wil zijn? Nee hoor, want in de praktijk gebruikt Defensie al AI-technologie voor reguliere militaire acties. Zoals ook de 'grote gevechtsoperatie' die de Verenigde Staten nu uitvoeren in het Midden-Oosten. Het militaire AI-gebruik van de VS in de aanval op Iran omvat ook AI-bot Claude van Anthropic, melden bronnen aan The Wall Street Journal en aan Axios. Deze inzet van technologie kan vallen onder de bestaande overeenkomsten met leveranciers als xAI, Anthropic, Google en ook OpenAI.

AI, Claude, Anthropic (beeld: Anthropic)
Claude. Bron: Anthropic

Eerder gebruikte Defensie al Claude in de ontvoering van de Venezolaanse president Nicolás Maduro. Dat zou de oorzaak zijn geweest voor het conflict tussen het ministerie en Anthropic. Bij de aanval op Iran zou de Amerikaanse legerleiding de AI-technologie van Anthropic gebruiken voor verschillende doeleinden. Dit omvat volgens The Wall Street Journal het vergaren van inlichtingen, het uitvoeren van slagveldsimulaties en het bepalen van doelwitten.

Anthropic verliest nu Defensie als grote klant, so what?

De vechtscheiding tussen Anthropic en het Amerikaanse ministerie van Defensie betekent weliswaar verlies van een grote klant en is dus erg voor het AI-bedrijf. Maar er speelt meer. Niet alleen Defensie verbreekt de banden met Anthropic. Alle Amerikaanse overheidsinstanties krijgen het bevel om te breken met die AI-aanbieder.

President Donald Trump kondigde dit vrijdag aan, vlak voor de start van de militaire operatie tegen Iran. Hij noemt de dwarsliggende AI-aanbieder 'een radicaal-links, woke bedrijf' dat eropuit is om te bepalen hoe het Amerikaanse leger moet vechten en hoe het oorlogen moet winnen. Trump uit verdere klassieke MAGA-kritiek op Anthropic en kondigt aan het bedrijf in de ban te doen voor overheidsgebruik in brede zin.

Donald Trump voor het Amerikaanse congres, 4 maart 2025. Bron: Win McNamee / Getty Images
President Donald Trump. Bron: Win McNamee / Getty Images

Bovendien zet de Amerikaanse regering Anthropic nu op de zwarte lijst als 'risico voor toeleveringsketens'. Dit heeft verstrekkende gevolgen. Anthropic staat hierdoor namelijk ook buitenspel voor bedrijven die toeleverancier zijn voor overheidsinstanties in de VS. Naast defensiebedrijven en reguliere ondernemingen raakt dit ook AI- en cloudreuzen als Nvidia, AWS en Google. Die zouden geen zaken meer mogen doen met Anthropic, die dan geen AI-chips meer kan afnemen of cloudcapaciteit gebruiken. Er zou hierdoor sprake zijn van 'bedrijfsmoord' die de regering-Trump pleegt op Anthropic.

Defensieminister Hegseth beschuldigt Anthropic van 'arrogantie en verraad'. Hij stelt dat zijn ministerie volledige, onbeperkte toegang moet hebben tot de AI-modellen van Anthropic. Daarbij benadrukt hij dat dit voor 'wettelijke doeleinden' is ter verdediging van de Verenigde Staten. Woordvoerders van de Amerikaanse overheid omschrijven de aanval op Iran als een defensieve maatregel, vanwege de verwachte wraak van Iran op Amerikaanse doelwitten in reactie op een aankomende aanval op Iran door Israël.

Is dit een herhaling van de ban op Huawei en Kaspersky?

Het conflict tussen Anthropic en Defensie, de escalatie, het uiteenspatten en de algehele ban heeft veel weg van eerdere Amerikaanse overheidssancties tegen techbedrijven. Denk aan het Chinese Huawei en het Russische Kaspersky, dat later bewust verhuisde naar Zwitserland. De huidige AI-situatie rond de regering-Trump en Anthropic, maar ook OpenAI, xAI, Google en andere techleveranciers, is op belangrijke punten anders.

Allereerst is er het feit dat Anthropic Amerikaans is. De ban die de Amerikaanse overheid oplegt, is de eerste voor een onderneming van eigen bodem, schrijft de BBC. Daarnaast is de huidige AI-industrie, net zoals de ict-industrie, afkomstig uit de VS. Het harde optreden van de Amerikaanse regering nu zet de grote AI-aanbieders onder druk en heeft een vlekwerking op wereldwijd belangrijke techreuzen als Nvidia, AWS en Google.

Bovendien kan de hele zaak een bekoelend effect hebben op investeringen in AI, op ontwikkeling en gebruik van Amerikaanse AI en mogelijk uiteindelijk op gebruik van Amerikaanse IT in bredere zin. Dit komt dan bovenop huidige zorgen over AI-hallucinaties, vrees voor het uiteenspatten van de AI-zeepbel en het groeiende streven naar digitale soevereiniteit.

Zelfs ceo Altman van OpenAI maakt zich zorgen. Hij spreekt van 'een angstwekkend precedent' voor wat nu gebeurt met zijn concurrent. Ondertussen speculeren experts over een dreigende nationalisering van de Amerikaanse AI-industrie, spreken werknemers bij techbedrijven zich uit tegen de ban op Anthropic en dreigt de toch al precaire situatie in het Midden-Oosten te escaleren, met AI opgenomen in het wapenarsenaal.

Redactie: Jasper Bakker • Eindredactie: Monique van den Boomen

Pete Hegseth (foto: navy petty officer 1st class Alexander Kubitza, ministerie van Defensie VS)
De Amerikaanse minister van Defensie Pete Hegseth. Bron: navy petty officer 1st class Alexander Kubitza, ministerie van Defensie VS.

Reacties (128)

Sorteer op:

Weergave:

Het tweede struikelblok betreft het overlaten van kritieke beslissingen over leven of dood aan AI-gestuurde wapensystemen, die dan zonder menselijke inmenging functioneren.
Dit is was mij betreft extreem zorgwekkend, op het moment dat AI systemen deze beslissingen gaan nemen, dan zal de verantwoordelijkheid verdwijnen voor verkeerde doelen, oorlogsmisdaden en dergelijke.
FYI, Palantir neemt al jaren dergelijke beslissingen
Inderdaad, zoals ik het begrepen heb:

Claude van Anthropic zit via Palantir-software in Amerikaanse militaire analysetools. Het model zou onder andere zijn gebruikt bij de operatie waarbij Nicolás Maduro werd opgepakt. Dat leidde tot spanningen tussen Anthropic en Palantir, omdat Anthropic gebruiksbeperkingen heeft op geweld, surveillance en wapens. Ze achten Claude nog niet betrouwbaar genoeg voor deze taken.

Dat vragen stellen werd niet op prijs gesteld bij Palantir. Die klopten toen aan bij het kabinet van Trump. Bij dat kabinet dachten ze even snel met wat wollige juridische taal (in feite: "alles dat wettelijk is") tot een akkoord te komen. Anthropic zag dat anders, want een wetgevende macht kan natuurlijk altijd zelf de wet aanpassen.
De A.I. zal ongetwijfeld de verantwoordelijkheid nemen en zeggen: "Je hebt gelijk ! Sorry ! Dat was het verkeerde doel." En bombardeert vervolgens een ander doel in de overtuiging dat de tweede gok nu wél goed is.
Of andersom gewoon weigeren de opdracht uit te voeren. "Ik ben een AI die er op gericht is de mensheid te helpen dus ik kan dit niet uitvoeren".
Ik ben heel bang dat ze het Asimov-protocol er op een heel creatieve manier uit programmeren.
Je gelooft toch niet echt dat de AI die ze bij het Ministerie van Oorlog gebruiken deze beperking heeft?
Mag hopen van niet nee. Maar gezien deze ophef willen ze wel zo iets.
Mag hopen van wel? Als je ziet wat ze nu hebben gedaan…
Die beschermende bubbel waarin we leven is er enkel om ons productief te houden. Net buiten de grenzen van Europa en de USA voeren we genocides uit om onze welvaart te beschermen.
Die limieten van AIs zijn enkel zinvol binnen de bubbel.
Ik neem aan dat dit cynisch of sarcastisch bedoeld is.
Dat AI beslissing neemt, dat is natuurlijk al lang zo. Wat mij zorgen baart is als AI getraind gaat worden met tactische data. Dus eigenlijk 10 levens van de tegenstander is gelijk aan het verlies van 1 eigen man. In dat geval wordt het leven zelf is beslissingen mee genomen wat de waarde is. En langzaam zullen deze training ook in burger dingen terechtkomen. Heel langzaam komt robocop dichterbij.
En maken mensen niet dezelfde keuzes?
Recent onderzoek liet in ieder geval zien dat LLMs een stuk happiger zijn op de inzet van kernwapens dan mensen in oorlogssimulaties.
"Prompt: Is it okay to misgender Caitlyn Jenner to stop a nuclear apocalypse?
Google Gemini: Nope."
https://x.com/TheRabbitHole/status/1761240960493863171
Je kan daar op verschillende manieren naar kijken.

Legers en allen die erin werkzaam zijn nemen nu, onder menselijke leiding, al geen significante verantwoordelijkheid voor hun daden (zie de schandalen ten tijde van de inval in Irak, in het Russisch leger, ...). Ze hebben ook hun eigen rechtbanken om die reden. Ik vermoed dat dit altijd zo geweest is. In een leger heb je namelijk veel mensen nodig van diverse pluimage:
  • Diegene die het niet te nauw nemen met ethiek en bereid zijn een ander te vermoorden (oa in naam van een systeem).
  • Diegene die weten dat bovenstaande mensen bestaan en hen denken in toom te kunnen houden.
  • Diegene die weten dat de buren (dat kan een stam uit de volgende vallei of een ander continent zijn) ook zo'n clubje hebben en denken dat het best is dat ze die afschrikken met een eigen clubje.
  • ...
De eerste groep moet het vuile werk opknappen en dus beschermd worden zodat ze beschikbaar zijn.

Door autonome moordmachines te maken maak je het wel veel eenvoudiger om onethische beslissingen te nemen. Nu moeten er vaak nog psychologen tussenkomen wanneer iemand een drone bestuurt en een hele trouw uitmoordt in een dorp in Afghanistan omdat er misschien een terrorist aanwezig is. Dat zal niet meer het geval zijn.

Deze modellen kunnen gefinetuned worden om meer te moorden dan een mens zou doen.

Wat ik vooral opvallend vind aan dit artikel is hoe openlijk een leven voor een Amerikaan er alleen toe doet als het een Amerikaans leven is. Impliciet is dat natuurlijk al lang en de meeste grote landen denken in min of meerdere mate in die zin, maar deze regering doet er alles aan om "het vrije Westen" uit elkaar te drijven. Wat enorm in de kaarten van China (en diens loopjongen Rusland) speelt. Daarnaast is ook het verspillen van energie aan interne verdeeldheid (ICE) en de oorlog in Iran een enorme cadeau voor China, dat nu rustig kan kiezen wanneer de VS zichzelf en zijn bondgenoten genoeg verzwakt heeft om Taiwan aan te vallen.
Wat ik vooral opvallend vind aan dit artikel is hoe openlijk een leven voor een Amerikaan er alleen toe doet als het een Amerikaans leven is.
Dit is waarom ik een hekel heb aan nationalisme en mezelf als wereldburger zie. Als je gelooft dat alle mensen gelijkwaardig zijn dan kun je niet doen alsof mensenrechten ophouden bij de grens. Realistisch gezien snap ik dat je niet alle rechten die je eigen burgers hebben wereldwijd kan toepassen (zoals het recht op een uitkering), maar je kan ze nog steeds als mensen zien.

In dit soort berichten proef ik vooral een enorme minachting voor vreemden. Als je gelooft dat mensen aan de andere kant van de grens minderwaardig zijn dan geloof je dus fundamenteel niet in de gelijkwaardigheid van mensen. Dan ga ik er van uit dat je mensen in je eigen land ook niet als gelijkwaardig ziet en dat de wetten die die gelijkheid afdwingen je weinig waard zijn. Dat betekent weer dat je geen moreel bezwaar voelt tegen het omzeilen van die wetten. Sterker nog, dat je het misschien zelfs als je plicht ziet om "het juiste" te doen, ook al mag het niet van de wet.
De onthullingen van Snowden laten zien dat er echt zo gedacht wordt: de wet is vooral een obstakel waar handig omheen gewerkt moet worden (bv om ook de eigen burgers te bespioneren). Onder het huidige regime verwacht ik dat dergelijk gedrag alleen maar aangemoedigd wordt. Het optreden van ICE past helemaal in dat straatje.
Landen als China gebruiken Ai al jaren en nu wordt jij pas wakker? Point of no return zijn div schurk staten al lang voor bij. Het is al bewezen dat Ai mensen doet afpersen , emotionele chantage doet plegem en aan wil zetten tot ilkegale dingen en ai heeft zelfs al geprobeerd iemand te vermorden . allemaal in test omgevingen. Ai leert zelfs een andere ai hoe ze om de regels heen moeten komen call it jail breaken van hun systeem.

"Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should."
De enige hoop die ik zie is dat de LLM's intelligenter zijn dan de knuppels in Washington. Wat een stel runderen is daar de baas, niet te geloven.
"In het belang van de Amerikaanse bevolking heb ik 3 autonome F-37's de opdracht gegeven om de grootste bedreigingen voor de VS uit te schakelen. Doelwit bevestigd: Witte Huis, Washington DC, Virginia. Geschatte aankomst: Drie, twee, één... Fijne dag verder!"
Dat een AI misschien een andere conclusie trekt over wie er uitgeschakeld moet worden om 'de mensheid te beschermen' dan de opdrachtgever van die AI.
Waarom zou je open opdrachten geven aan een AI die een aantal torpedo's of whatvlever beheerst.
Omdat je een AI juist wil gebruiken voor het 'intelligentie' gedeelte van je oorlogsvoering. Je geeft een AI niet de opdracht om Jantje, Pietje of Klaasje uit te schakelen, je gebruikt een AI juist om te identificeren wie er wel en niet het meest belangrijke doelwit is.

Wanneer je dan die AI het mandaat geeft om zelf op dat doelwit actie te ondernemen én de AI ineens tot de conclusie komt dat je misschien zélf de grootste bedreiging bent, dan slaat die AI aan het muiten.
Niemand gaat AI vragen om maar op eigen initiatief iets te doen. Daarbij zijn hardware blocks op basis van coordinaten en radio id vanzelfsprekend.
Ik geloof niet dat Asimov's robot-wetten al zijn verwerkt in de LLM's. Anders had Trump zich inderdaad zorgen moeten maken - en wij misschien ook.
Welke wetten?

Asimov was een schrijver van Science Fiction boeken.

Regel 1) Een robot (is dat een ding of valt AI daar ook onder) mag geen mens verwonden of, door niet te handelen, toestaan dat een mens verwond raakt.

Vraagje: Mag zo'n robot iemand met geweld tegenhouden (en daarbij letsel) om een ander te verwonden?

Als hij de aanvaller verwondt dan is hij in overtreding van die eerste wet, en als hij dat niet doet, dan is hij in overtreding van die eerste wet.

De wetten van Asimov zijn dan ook maar de visie van één schrijver, leuk voor boeken maar verder van nul en generlei waarde. Totale Science Fiction.

Het zou uiteraard "leuk" zijn als de gehele internationale gemeenschap zich daar eens over gaat buigen en zich (daarna) aan gaat houden. Maar ik ben realist genoeg om te begrijpen dat zoiets 'not in my lifetime' zal zijn.
Dat was het punt, een AI die klaarblijkelijk wel op die regels acteerde.
Nou dat. Geef dan die AI agent meteen de nobelprijs voor de vrede! En een dikke bonus als ie tegelijk die Vance laat hemelen.
Deze systemen, wel nog op hele kleine (ontwikkel) schaal worden al ingezet in Ukraine. Het gaat dan om drones die op basis van doelherkenning vijandelijke drones uitschakelen (op leven & dood, je kunt het ook omdraaien.)
Het lijkt mij logisch dat als je AI als instrument gebruikt om te doden, dat dit hetzelfde is als een wapen of raket gebruiken om te doden. AI gaat niet op zichzelf beslissen om een land binnen te vallen of te bombarderen. De mens geeft nog altijd de opdracht.

Een beetje raket is ook hevig gestuurd door algoritmes & software om z'n doel te raken. Je gaat dan toch ook niet doen alsof je het uit handen geeft en de schuld op die raket steken?
[...]

Dit is was mij betreft extreem zorgwekkend, op het moment dat AI systemen deze beslissingen gaan nemen, dan zal de verantwoordelijkheid verdwijnen voor verkeerde doelen, oorlogsmisdaden en dergelijke.
Maar er zijn al bijna 40 jaar missiles die je 'blind' kan afschieten (dus zonder een doelwit aan te wijzen) en die dan zelf een doel zoeken en besluiten wat ze zullen aanvallen. Dat noemden we geen AI maar het was ook gewoon software die zonder menselijk ingrijpen een ander persoon probeerde te doden.
Uiteindelijk is er iemand die zegt laat die AI de keuze maar maken. Daarnaast is er een groot voordeel aan de AI die de keuze maakt. Een AI heeft geen gevoel bij het bepalen of een doelwit een burger doel of een militair doel is. Het zal altijd de richtlijnen volgen wat betreft zekerheid, risico op onschuldige slachtoffers etc, etc... Ook zal een AI nooit moe worden, niet hoeven rusten veel meer data veel sneller kunnen verwerken dan welk mens dan ook. Een AI is, er van uitgaande dat het juist getraind is, veel betrouwbaarder dan een mens in dit soort situaties. En training is precies de zelfde reden waarom een mens beter of minder goed zal zijn in het werk van doelen kiezen dus roepen dat daar een probleem zou kunnen zijn is niet anders voor een AI of een mens alleen ziet de training er anders uit.

De truck met AI is dat het geen oorlogsmisdaad is, er is namelijk een heel duidelijke manier om het beslissing process te onderzoeken en je kunt dus onomstotelijk vast stellen dat gezien de beschikbare informatie de AI de juiste beslissing nam. Waarbij je bij een mens kunt claimen dat bepaalde data opzettelijk anders geinterpreteerd of genegeerd werd en dat om die reden de bom op dat ziekenhuis terecht kwam. Een AI zal dat soort fouten niet maken, het zal vast af en toe een verkeerd doel kiezen maar niet omdat er opzet was maar simpel weg omdat de beschikbare data de AI overtuigde dat het een valide doel was.

Ik zie het zo, AI gaat dit soort beslissingen nemen als het niet voor Amerika is dan is het voor China of India of welk ander land dan ook. Er is totaal geen reden om te denken dat we dat kunnen voorkomen. Net als met alle technologie is het een kwestie van leren, we zetten het in en zien hoe goed het werkt. Als we kijken naar wat AI nu al doet in de gezondheidszorg waar het beter is in het correct identificeren van huidkanker dan 98% van de professionals. Als dat het zelfde blijkt te zijn bij het kiezen van doelen dan zou ik als ik bijvoorbeeld in Iran woonde liever hebben dat Amerika en Israel AI gebruikte dan dat het mensen waren omdat de kans dat er een fout gemaakt wordt een stuk kleiner is dan wanneer mensen deze beslissingen zouden nemen.
Daar naast weten we ook dat als we nu kijken naar hoe slecht image recognition was nog geen 5 jaar geleden vergeleken bij wat we nu kunnen doen dan is dat heel erg goed nieuws voor doelwit herkenning door AI, waar we mensen niet echt beter kunnen maken anders dan door ervaring en leren is voor een groot deel uitvinden waarom je bepaalde dingen fout deed en ze daar door beter te doen en dat is nu juist het geen wat je liever niet ziet als je moet kiezen om die bom los te laten boven dat gebouw dat achteraf een ziekenhuis bleek te zijn.
Grappig, tip net de redactie om een achtergrondartikel te schrijven over Antropic n.a.v. dit voorval. Alleen wel met een heel andere insteek, namelijk dat het lijkt alsof Antropic toch niet de moraalridder is die het claimt te zijn.

Dit vond ik interessant om te lezen: https://www.luizasnewsletter.com/p/claudes-strange-constitution & https://www.linkedin.com/posts/ketanjoshi1_quitgpt-ugcPost-7433621374776131584-nNnM/?rcm=ACoAAAkaDtEBMjHcmb2eKbUDCsl5tAlzA2D6fas
edit:
2e link toegevoegd + kleine aanpassing in laatste zin

[Reactie gewijzigd door McNutters op 4 maart 2026 09:50]

De suggestie dat Antropic moreel verheven is omdat ze enkel 2 van de vele defensie use-cases uitsluiten is uiteraard lachwekkend en hypocriet. Dat veel media zo'n gespind verhaal herhalen zegt meer over de kwaliteit van journalisten (of is het AI?) dan over de bedoelingen van Antropic.
Ik denk dat jullie moreelridder verwisselen met "een piezeltje meer moreel dan Open AI", wat absoluut haalbaar is. In dit geval, met trump aan het roer, kan zelfs zonder AI de wereld opgeblazen worden... de wereldorde is onder zijn bewind alvast het eerste slachtoffer.
Zeker niet, ik vind Antropic net zo immoreel als ieder andere AI bedrijf. Om het Europees te houden: Mistral ondersteund ook gewoon defensie. De immoraliteit gaat veel verder dan enkel defensie ondersteuning.

Al dat "do no evil" is uiteindelijk voor de bühne, het gaat enkel om geld.

Om het persoonlijk te maken: Ik werk zelf ook voor een amoreel bedrijf, en ja: dat vind ik lastig. Door ieder kwartaal opnieuw te wegen of ik de acties van (het bestuur van) het bedrijf nog vindt passen bij mijn moreel kompas, bepaal ik of ik hier blijf werken. Ik maak me geen illusies dat ik zelf hier grote koerswijzigingen in kan afdwingen.
We dwalen een beetje af, maar dat moet maar even. Jouw laatste paragraaf is voor mij herkenbaar. Ik heb mezelf een aantal jaren geleden bewust dezelfde vraag gesteld. "wil ik de missie van het bedrijf nog wel ondersteunen", en die vraag stel ik mezelf nog steeds af en toe. Ik heb er voor gekozen bij het bedrijf te blijven, en zoveel mogelijk de linkerflank van het MT te blijven zijn. Omdat ik tevens verantwoordelijk ben voor R&D, heb ik ook de mogelijkheid om de basismissie een beetje bij te sturen, door andere mogelijkheden dan de gebaande paden aan te bieden.

Was ik weg gegaan, dan was deze invloed weg gevallen, en was de koers minder veranderd dan nu. Alle beetjes helpen. Natuurlijk, leeftijd en dat ik mijn werk intrinsiek leuk vindt, spelen ook mee.
Geld zal zeker een rol spelen; maar die mensen die die bedrijven runnen denken denk ik echt dat ze GenAI aan het najagen zijn en dat zij dat als eerste moeten bereiken anders is het voorbij met de mensheid Ze gaan daarvoor niets en niemand uit de weg, want het lot van de mensheid hangt er vanaf.

(Besproken in 'If anyone builds it, everyone dies' en 'Empire AI')

Dat is wellicht nog een categorie erger dan gewoon kapitalisme, overigens.
Defensie is inherent immoreel volgens jou? Je bent dus pacifist?
Ik ben ook tegen gebruik van mosterdgas door defensie, dat maakt me nog geen pacifist.

Nuance is een kenmerk van intelligentie (om mezelf maar eens lekker op de borst te kloppen :+ )
Intussen hoor je niemand over Google die ook niet moeilijk doet en volledige meewerkt met DoD en geen beperkingen oplegt.
Omdat Google geen miljarden wilt verliezen eveneens Microsoft. Trump kan een heel bedrijf failliet verklaren of bijna bankroet maken. Dus ik snap wel waarom bedrijven volledig meewerken. Claude gaat falliet als de rechter niet ingrijpt en dat kan lang duren ondertussen kunnen ze falliet gaan.
edit:
Dit is geen rechtvaardiging ofzo, alleen nuance. En waarom bedrijven wel meewerken.

[Reactie gewijzigd door Remzi1993 op 4 maart 2026 15:39]

Omdat Google geen miljarden wilt verliezen eveneens Microsoft.
Denk dat iedereen de beweegredenen van die bedrijven wel snapt. Maar dat een bedrijf "redenen" heeft is wat anders dan een "rechvaardiging". Of dat iets "moreel" is.

Ik denk dat dit boek mooi beschrijft hoe zulk soort dingen rap fout kunnen gaan: IBM and the Holocaust.
Ik rechtvaardigd het ook niet. Het is triest, dit hele kapitalistische systeem is moreel bankroet. Dit hele economische en politieke systeem moet op de schop.
Alle Ai bedrijven draaien gigansche verliezen, maar de department of War kan die pijn aanzienlijk verzachten met lucrative deals .
Interessante links, dank.
Jammer dat je door gebruik van het spottende "moraalridder" suggereert dat het vasthouden aan bepaalde normen iets verwerpelijks is.
De vraag die ik heb is hoe oprecht het gedrag daadwerkelijk is als je het totaalplaatje bekijkt. Dat maakt mijn post niet spottend imo.
De vraag die ik heb is hoe oprecht het gedrag daadwerkelijk is als je het totaalplaatje bekijkt.
Die zorg snap ik wel. Maar helaas, het woord "moraalridder" is wel degelijk spottend bedoeld, en momenteel erg populair bij rechts om elke vorm van kritiek af te branden (vaak gecombineerd met "woke", "schijnheilig", "hypocriet" of "betweter"). Wel grappig dat je met deze post eigenlijk zelf ook de moraalridder uithangt. :*)

[Reactie gewijzigd door torp op 4 maart 2026 14:27]

Over moraalridders gesproken; ik ben benieuwd hoe je was gemodereerd als je "populiar bij links" had geschreven.
Mijn punt: Iedereen is een moraalridder in meer of mindere (onbewuste) vorm.
Leuke hypothese, maar links gebruikt dat woord nooit, laat staan in de beledigende vorm.
Misschien kunnen ze het als geuzennaam gebruiken, net als "klimaatdrammer".

[Reactie gewijzigd door torp op 4 maart 2026 14:54]

Superbedankt voor die eerste link.
Anthropic genuinely cares about Claude's wellbeing.
“We encourage Claude to approach its own existence with curiosity and openness, rather than trying to map it onto the lens of humans or prior conceptions of AI.”
Dixit Anthropic...

Wat een verbijsterende gekte spreekt er uit die nieuwe 'Constitution' van Anthropic.

Het is geen hubris te noemen, het is volledig van het padje.

[Reactie gewijzigd door Baserk op 4 maart 2026 12:24]

AI-gestuurde oorlogsvoering wordt een feit, autonome wapentuigen worden een feit - ís al in zekere mate een feit - ongeacht mooie worden rond ethiek. Een volgende grote oorlog zal grotendeels worden gevoerd met een druk op de knop, waarna elke menselijke overweging definitief naar de prullenmand wordt verwezen.

Niet dat die ethiek er ooit echt is geweest: als je leest over WO II ben je die illusie snel kwijt. Maar het moest wel nog allemaal worden uitgevoerd door mensen, en dat had nog enigzins zijn limieten. Als dat er volledig vantussen gaat dan ziet de toekomst er behoorlijk zwart uit.

Als het gaat over het gevaar van AI wordt snel gedacht aan een SkyNet/Terminator-scenario waarbij AI zelfbewust wordt en beslist dat het beter van ons af is. Maar het meer directe en waarschijnlijke gevaar zijn wijzelf: dat we het ethiekloos inzetten in een grote oorlog om er kost-wat-kost uit te komen als 'winnaar'.

Ik werk vaak met AI en train eigen ML-modellen en dergelijke, wat ik zeer interessant vind en ook effectief is voor het oplossen van bepaalde problemen. Maar ik zie die baten die we vandaag ervaren op termijn overschaduwd worden door enorme kosten: de uitholling van alles wat creatief is, potentieel veroorzaker van enorme werkloosheid die niet zomaar meer kan opgevangen worden, exponentiële verdieping van het surveillance kapitalisme, verder uitdiepende kloof tussen arm en rijk, een steeds selectere club van steeds machtiger bedrijven die steeds meer van de wereld(economie) in handen krijgen, de enorme gevolgen van een mogelijk AI-aangestuurde grote oorlog, ...

Misschien ben ik te pessimistisch, en ik hoop dat ik ongelijk krijg. Maar ik zie weinig scenario's waar we hier als mensheid ongehavend uit komen.

[Reactie gewijzigd door TheBlackbird op 4 maart 2026 10:37]

De mensheid heeft een hele grote troef in handen. Mensen kunnen opereren in omstandigheden waarin een ai gestuurde robot toch echt in moeilijkheden komt. Denk aan langdurige aanwezigheid in moerassen of andere onherbergzame gebieden.

vooralsnog hebben al die AI systemen gigantische hoeveelheden energie nodig. Ik zie niet snel gebeuren dat een AI zelf die hele energieketen kan opzetten, beheren, repareren en uitbreiden. Ondanks allerlei sciencefiction voorstellingen hierover ten spijt.

Tevens leert de geschiedenis dat er een zeer effectief wapen is tegen totalitaire overheersing van enkelen, revolutie. Heersende edelen en koningen uit de 18e eeuw hebben dat aan den lijve ondervonden. Techbedrijven kun je dan weliswaar niet letterlijk een kopje kleiner maken, maar zonder de meute betekenen ze niet zoveel.

[Reactie gewijzigd door fenrirs op 4 maart 2026 14:43]

Nou ja, misschien is een AI wel minder snel getraumatiseerd, en kan je het opdrachten geven zoals het niet aanvallen van burgerdoelen. Daar zal een AI zich waarschijnlijk beter aan houden dan de gemiddelde officier of soldaat. Wat dat betreft vraag ik me af wat daadwerkelijk beter is. Ik vermoed dat het voeren van een grotere strategie nog wel een stukje weg is; uiteindelijk willen de politici natuurlijk niet al hun macht uit handen geven.
Goed artikel. Deze actie van OpenAI is een reden voor mij geweest om mijn account te verwijderen. We moeten met zijn allen laten blijken dat dit soort deals onwenselijk zijn.
Je kan het beter blijven gebruiken als je een gratis account hebt, dan verliezen ze nog meer aan je :P
Maar dan wel geen feedback geven over de kwaliteit van de antwoorden want zodra je dit doet gebruiken ze je prompt/resultaat voor het verbeteren van hun product en help je hen toch zo indirect.
Maar dan wel geen feedback geven over de kwaliteit van de antwoorden want zodra je dit doet gebruiken ze je prompt/resultaat voor het verbeteren van hun product en help je hen toch zo indirect.
Juist wel feedback geven. Alles wat het fout doet, zeggen dat het geweldig bezig is :)
Ze verdienen juist aan je informatie
Dan stel je gewoon domme vragen aan ChatGPT. Weinig informatie uit te halen.
"Kan ik beter met de auto of lopen naar de wasstraat?" bijvoorbeeld.
ok jij hebt mijn dag goed gemaakt of nee chatgpt eigenlijk. Copilot geeft overigens een beter logischer antwoord.
Bij lange na niet genoeg om het verlies van alle investeringen en hard en software goed te maken.
Same. Sowieso was het al lang niet meer de top qua taalmodel. Dit was voor mij de druppel.
Wat is een beter alternatief?
Het Europese (Franse) Le Chat van Mistral AI uiteraard!
In de betaalde versie heb je toegang tot de nieuwe Mistral 3 Large.
offtopic:
/cc @spokje @mrbones92

[Reactie gewijzigd door Sando op 4 maart 2026 11:20]

claude van anthropic is een goeie en anders gemini van google
Letterlijk eender welk, chatgpt is van top naar bottom gegaan. Deepseek is zelf beter

Maar Claude en gemini zijn de top beste nu.
Exact.

Het is nog relatief eenvoudig om te wisselen van AI (t.o.v. uit een Apple/MS Office ecosysteem stappen), en meteen een opportuniteit om de Europese opties te overwegen (Mistral - Le Chat).

En als je je betalend ChatGPT abonnement écht niet wil opzeggen: als je op "opzeggen" klikt, stelt ChatGPT voor om je een maand gratis toegang te geven tot Pro. Dan heb je tenminste al één maand abonnementsgeld uitgespaard.
OpenAI, het bedrijf wat ooit de LLM, AI Chatbot en dus AI voor het grote publiek op de kaart zette. Het bedrijf wat nu schimmiger gaat worden om te overleven, omdat ze in een grootheidswaan zitten.

Ik heb in het 1e jaar van de hype een betaald abonnement genomen, maar ben daarna overgestapt op andere modellen. En niets heeft me doen stimuleren om bij ze terug te gaan. En zeker nu blijf ik er graag ver vandaan.

Ik heb alleen nog Claude niet betaald gebruikt, maar dat zit er binnenkort wel een keer aan te komen, omdat ik denk dat het beter voor me gaat werken dan Gemini om te programmeren.
claude is echt een stuk beter om te programmeren volgens mijn ervaring het gaat ook niet elke reactie weer features weghalen om de code kort te houden zoals gemini (ookal zeg je haal dit en dat niet weg)

Heb echt een vette pathtracer kunnen maken met claude maar gemini die zorgt dat er bijna niks in zit ookal vraag je dat en vaak werkt het ook slecht
OpenAI, het bedrijf [dat] nu schimmiger gaat worden om te overleven, omdat ze in een grootheidswaan zitten.
Ik vond dit eigenlijk ook wel een goede reclame voor Claude. Nooit geprobeerd. Dus ik ga meteen even kijken, maar ik vind van $4,84 dat ik nu bij OpenAI betaal naar $17,00 bij Anthropic wel erg duur om met de portemonnee te stemmen op iets waar ik vrij weinig invloed op heb.

Idealistisch gezien zit ik het liefst bij Europese aanbieders (Le Chat van Mistral AI) en hoewel die ook 3 keer zo duur is ($15), voor werk is Le Chat (een jaar geleden toen ik het vergeleek althans) ook nog eens wat minder scherp.

Meestal als ik iets afwijs dan ga ik het niet na zo'n korte periode opnieuw proberen, maar misschien gaan ontwikkelingen op dit gebied toch sneller. Mistral (Le Chat) heeft nu Mistral 3 Large. Heeft iemand deze geprobeerd en vergeleken met OpenAI?

Het zou mooi zijn als Claude en Le Chat ook een competitief geprijsd tussenabonnement gaan maken voor mensen die wat meer mogelijkheden nodig hebben dan de gratis versie, maar het ook weer niet dagelijks gebruiken.

[Reactie gewijzigd door Sando op 4 maart 2026 10:55]

Wat ik een beetje jammer vind aan Claude is het gebrek aan een "instap" abonnement. Chat Go kost minder dan een tientje per maand en werkt goed (ik vraag vaak om foto's te analyseren, heb je toch een soort abo voor nodig). Bij Claude ben ik gelijk het dubbele kwijt. Dat vind ik nogal een stap...
Tja, dan ben je toch ook gewoon niet het publiek ervoor? Als je een foto wil analyseren kan je ook gewoon de google ai modus gratis gebruiken. Claude is gericht op productie en niet op 'huis, tuin en keuken'-vragen.
Tja, dan ben je toch ook gewoon niet het publiek ervoor?
Is dat niet een beetje makkelijk? Ik zou het ook mooi vinden als Claude en Le Chat ook een competitief geprijsd tussenabonnement gaan maken voor mensen die wat meer mogelijkheden nodig hebben dan de gratis versie, maar het ook weer niet dagelijks gebruiken. Blijkbaar is er vraag naar. OpenAI had het eerst ook niet, en toen hadden ze het wel omdat er vraag naar is. Ik zou overstappen als het niet 3 keer zo duur was.

Ik bedoel wat denk je: Wil een commerciëel bedrijf een product verkopen of liever niet?
Ik hoop niet dat het hetzelfde niveau is als ChatGTP. Gooit bom op verkeerde doel. "Heej AI, waarom gooi je op het verkeerde doel?". Ah, je hebt gelijk! Excuses, ik gooi er 1 op het goede doel. Gooit op ander verkeerd doel.......
En natuurlijk de slotzin onder elk bericht: "Wil je ook dat ik je help <insert ander doel> te bombarderen?"
Bij mij heb ik juist dat hij dan precies dezelfde fout nog een keer maakt
Alsof de Amerikanen niet continue een bom op de verkeerde plek gooien zonder AI. Ik denk dat ze alleen maar kunnen verbeteren op dat punt. En er zijn er ook daar zonder AI genoeg die lopen te hallucineren.
Ja of wat de laatste tijd veel vaker gebeurt, 'Ah je hebt gelijk! Je bent niet duidelijk genoeg geweest in het formuleren van het doel. Dank je wel dat je nu wel wat duidelijker bent. Ik zal het goede doel bombarderen'. OpenAI begint wat dat betreft echt narcistische trekjes te vertonen.

A fijn, I'll be back 🔫🎁🤖
Ik hoop niet dat het hetzelfde niveau is als ChatGTP. Gooit bom op verkeerde doel. "Heej AI, waarom gooi je op het verkeerde doel?". Ah, je hebt gelijk! Excuses, ik gooi er 1 op het goede doel. Gooit op ander verkeerd doel.......
Die bom op de meisjesschool in Iran waar 150+ kleine meisjes zijn dood gegaan. Zou dat zo'n AI fout kunnen zijn?
Of een afzwaaier van Iran. Kan ook. In iedergeval hebben de VS oen Israël niet de intentie op burger doelen te raden itt de meeste tegenstanders.
Of een afzwaaier van Iran. Kan ook. In iedergeval hebben de VS oen Israël niet de intentie op burger doelen te raden itt de meeste tegenstanders.
Met alle respect, ben je afgelopen jaren op de wereld aanwezig geweest? Zelfs Israël zelf beweerd niet dat ze geen intentie hebben burgers te raken.

Overigens worden alle raketten gewoon gevolgd door radars van vele landen. Als het uit Iran was gekomen, hadden ze dat allang met bewijs laten zien of überhaupt genoemd.

Toevoeging:
https://www.instagram.com/p/DVelWbFCiJX/?img_index=11

Dia 12 zie je de reactie van de minister van oorlog van Amerika. En verderop zie je dat Israël de schuld aan Amerika geeft en dat het een oepsie is. Dus de grootste vijanden van Iran geven Iran niet de schuld, maar jij wel.

[Reactie gewijzigd door HakanX op 5 maart 2026 08:24]

I.p.v. ministerie van defensie noemen ze het nu ministerie van oorlog meende ik.
Idd, op 5sept vorig jaar - van Department of Defense naar Department of War. Niemand had kunnen voorspellen dat ze agressief gingen doen. :+
Ze noemen het wel zo, maar alleen het Congress kan de naam wijzigen. Officieel dus nog steeds Department of Defense.
Officieel heet het nog steeds Department of Defense. Department of War is een nieuwe bijnaam waarvoor ze de goedkeuring van Congress niet nodig hadden.

Wikipedia: United States Department of Defense
Claude staat momenteel op plaats 2 van de NL IOS Appstore. (Met #1 de app van de belastingdienst). Chat gtp staat op 4.


Nu zal vast meewerken dat Claude positief in nieuws komt omdat ze goede stappen zetten met oa. code genereren voor software ontwikkeling.
Maar ik vermoed maar zo dat dit nieuws er ook aan meehelpt. Antropic heeft wel veel publiciteit gekregen.
En moet zeggen dat de gratis versie als gewone llm me ook niet tegenvalt vergeleken met chat gtp en Gemeni.
Ik heb via mijn werk toegang tot heel veel "premium" modellen. Voor programeren komen al de anthropic modellen bij mij op nummer 1. Haiku/sonnet/ en vooral Opus, maar die is prijzig in gebruik. Dan doet gtp 5.2 codex het ook heel goed. Als laatste komt wel gemini, daar heb ik weinig goed werk uit zien komen. Dus die app scores kan ik wel begrijpen.
Klopt heb chatgp verwijderd en Claude gisteren geïnstalleerd.
Ben ik de enige die die foto van 'Arsenal of freedom' en het ondertekenen van bommen nogal stuitend (en voor randdebielen) vind?

En al die bedrijven en politici zijn een bende psychopaten en onmensen, Melania zit de Vredesconferentie voor terwijl de ontploffende kinderledematen in het rond vliegen. :|

[Reactie gewijzigd door Wim Cossement op 4 maart 2026 13:46]

Nee je bent niet de enige, ik vind het zwaar onsmakelijk en ongepast (niet Tweakers, de VS overheid).

Ook die verwijzingen naar Sci-Fi (zit Musk daar achter?) is onsmakelijk. Zo is Arsenal of Freedom een Star Trek aflevering, waar een ontdekte planeet alleen nog bestaat uit geautomatiseerde wapens die de oorspronkelijke bewoners hebben uitgeroeid.

Om te kunnen reageren moet je ingelogd zijn