Amerikaanse ministerie van Defensie sluit deal met OpenAI en verbant Anthropic

Het Amerikaanse ministerie van Defensie heeft een deal gesloten met OpenAI, maakte de ChatGPT-maker vrijdag bekend. De Verenigde Staten gaan de AI-technologie van het bedrijf inzetten in 'geheime netwerken'. Het Pentagon verbreekt de banden met Anthropic en zet het bedrijf op de zwarte lijst.

Ceo Sam Altman kondigde de overeenkomst met het ministerie vrijdag aan op het sociale platform X. Hij schrijft dat het ministerie van Oorlog, de naam die de regering-Trump gebruikt voor het ministerie van Defensie, de modellen van OpenAI gaat inzetten in zijn 'geheime netwerk'. Volgens Altman worden de technologieën niet ingezet voor binnenlandse massasurveillance of het gebruik van autonome wapensystemen. "Het Ministerie van Oorlog onderschrijft deze principes, verankert ze in wet- en regelgeving en heeft ze opgenomen in onze overeenkomst."

OpenAI zal ook 'technische beveiligingsmaatregelen' treffen om ervoor te zorgen dat zijn modellen 'zich gedragen zoals het hoort'. Wat die maatregelen precies inhouden, is niet bekend. Het AI-bedrijf zet ook meerdere forward deployed engineers in, die helpen bij de implementatie van de modellen in systemen, en zou zijn technologieën alleen op cloudnetwerken inzetten.

Overheid doet Anthropic in de ban

De overheid sloot de deal uren nadat president Donald Trump via Truth Social had laten weten de banden met OpenAI-concurrent Anthropic te verbreken. Hij schrijft dat hij alle overheidsinstanties onmiddellijk de opdracht geeft om te stoppen met het gebruik van Anthropic. Daarbij geldt een overgangsperiode van zes maanden voor alle instanties 'die de producten van Anthropic op verschillende niveaus gebruiken'.

Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News
Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News

Als Anthropic niet meewerkt, zal Trump naar eigen zeggen 'de volledige macht van het presidentschap gebruiken om ze te dwingen zich eraan te houden, met ernstige civiele en strafrechtelijke gevolgen van dien.' Kort na de post van Trump schreef minister Pete Hegseth op X dat het ministerie van Defensie Anthropic aanwijst als risico voor de nationale veiligheid in de toeleveringsketen. Daardoor mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen.

Anthropic en de Amerikaanse overheid strijden al maanden met elkaar over het gebruik van de modellen van het bedrijf. De Amerikaanse overheid wil onbeperkte toegang tot de modellen, maar daar ging het bedrijf niet in mee. Ceo Dario Amodei schreef eerder dat het Amerikaanse ministerie van Defensie de waarborgen van Anthropic tegen massale binnenlandse surveillance en het gebruik van autonome wapens wilde opheffen.

In een reactie op de uitlatingen van Hegseth herhaalt Anthropic dat de onderhandelingen op die punten zijn vastgelopen. Het bedrijf zegt verder juridische stappen te ondernemen tegen de classificatie als risico in de toeleveringsketen. "Wij zijn van mening dat deze classificatie zowel juridisch onjuist zou zijn als een gevaarlijk precedent zou scheppen voor elk Amerikaans bedrijf dat met de overheid onderhandelt. We zullen elke aanwijzing van een risico voor de toeleveringsketen aanvechten voor de rechter."

Anthropic stock: Bron: NurPhoto/Getty Iamges
Bron: NurPhoto/Getty Images

Door Imre Himmelbauer

Redacteur

28-02-2026 • 09:20

122

Submitter: DaggerGun

Reacties (122)

Sorteer op:

Weergave:

En volgens een mededeling van OpenAI hebben zij dezelfde eisen gesteld als Anthropic, namelijk dat OpenAI niet gebruikt mag worden voor massa surveillance binnen de VS en de AI mag zelf geen enkele beslissing nemen over het uitvoeren van aanvallen.

Het is dan ook zeer vreemd dat deze beslissing ineens zo komt en doet je afvragen wat Anthropic gedaan heeft om ineens bij Trump in ongenade te zijn gevallen.
De bizarre reactie dan ook
Als Anthropic niet meewerkt, zal Trump naar eigen zeggen 'de volledige macht van het presidentschap gebruiken om ze te dwingen zich eraan te houden, met ernstige civiele en strafrechtelijke gevolgen van dien.'

Kort na de post van Trump schreef minister Pete Hegseth op X dat het ministerie van Defensie Anthropic aanwijst als risico voor de nationale veiligheid in de toeleveringsketen. Daardoor mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen
Als je je product niet laat doen wat ik wil, dan zal ik zorgen dat je nergens meer aan de slag komt en maak ik je totaal kapot.

Wat een maffia-praktijken, man man.
Ik snap niet waarom europa nu niet een gespreid bedje opmaakt voor anthropic.. gouden kans.
1) Europa is niet beste jongetje van de klas.

2) Europa wil Trump niet voor de schenen schoppen

3) Het is en blijft een Amerikaanse bedrijf
Als ze geboycot worden gaan ze het nooit redden daar en trekt amazon zich ook wel terug, steken ze het geld wel in openai. Its all about the money daar, dus sls anthropic hier uit de voeten kan en er staat genoeg pegels tegenover.... infra is hier ook goed, en genoeg slimme mensen die liever naar europa gaan nu.
Anthropic heef veel grote US investeerders zoals Amazon. Die komen echt niet naar de EU. Daarnaast; het is niet alsof er bij dit bedrijf wel 'fijne' mensen werken die zich aan Europese wetten willen houden. Dit bedrijf haalt dezelfde streken uit als de rest van de AI bros in de VS. Het is niet voor niets dat het hoofd van de safeguards research team ontslag genomen heeft.
Helemaal eens! Dit is een unieke kans voor Europa!
Ja vlak nadat antrophic aangaf zijn safety checks niet uit te willen zetten voor de overheid. ik denk dat daar de hele curlprit in het verhaal zit.
Doet me denken aan Apple die geen backdoor wou stoppen in hun iPhone.
Absoluut mafia praktijken. En het verbaast me nog maar weinig dat het helaas zo is gelopen..

Sam Altman met zijn bizarre manier van business voering heeft Trump gevonden, ze hadden dit plan al maanden voorbereid met zogenaamde vastlopende onderhandelingen met Anthropic (die nog even volledig zwart wordt gemaakt, woke wordt genoemd, op de zwarte lijst wordt gezet) zodat OpenAI die dringend nieuwe kapitaal injecties nodig had nu dankzij deze mega deal is gered. Walgelijk.
Als ik het artikel tussen de regels door lees, zou het volgende een verklaring kunnen zijn.

[speculatie] OpenAI heeft volledig toegang gegeven tot de AI modellen, maar de VS heeft OpenAI beloofd (ook met wetgeving) om daar geen gebruik van te maken voor massa surveillance binnen de VS en automatische wapensystemen. Maar OpenAI kan niet nagaan of de VS zich aan die belofte (en wetgeving) houdt. Anthropic stelde diezelfde eisen, maar wilde dat zelf kunnen afdwingen/controleren.[/speculatie]
Of het is een woord spelletje. De exacte quote van Altman is
Two of our most important safety principles are prohibitions on domestic mass surveillance and human responsibility for the use of force, including for autonomous weapon systems.
Misschien zit het hem in het woord Domestic. In het buitenland mag het dus wel? Misschien dat OpenAI dan zegt, OK het model kan en mag het wel, maar niet binnen de US. En misschien wou Anthropic het helemaal blokkeren in het model.

Nog een punt, slaat niet domestic ook op het gebruik van geweld en automatische wapens? M.a.w mag Amerika OpenAI modellen daarvoor wel gebruiken buiten Amerika?
Ook Anthropic had het over massa surveillance van US citizens
Anthropic had said it sought narrow assurances from the Pentagon that its AI chatbot Claude would not be used for mass surveillance of Americans or in fully autonomous weapons
Bron

Nu lijkt het erop dat OpenAI "erop vertrouwd" dat het ministerie van Defensie dat ook niet gaat doen. Terwijl Anthropic daar iets meer controle over wilde hebben.
mass surveillance of Americans
en
domestic mass surveillance
is niet hetzelfde.

Domestic mass surveillance heeft als aanname 'on US soil'. Geitenpaadje is hierbij dat er ook non-US citizens 'on US soil' zitten.

Mass surveillance of Americans is globaler omdat Americans overal kunnen leven, ook buiten de VS. Daar zitten dus ook US citizens bij (en zelfs US residents).

Er is een goede reden dat ze de gangbare termen 'United States citizen' en 'United States resident' (die een advocaat zou gebruiken) niet gebruiken.

Voor ons Nederlanders is het hoe dan ook kut: wij mogen wel getarget worden, allemaal. Dat was al zo toen de NSA via Duitsland tapte. Ook dat was smerige verdeel en heers, en ook toen durfden we er niets mee te doen.
Trump kan zich niet houden aan de Grondwet, de wet, of aan verdragen die hij zelf heeft afgesloten. En OpenAI zou hem geloven op basis van wat neer komt op "Trust me bro"..?
Sam Altman doet in principe al jaren hetzelfde, niet?
Alle beloften over AGI en dat ze er 'bijna' zijn, alles waarmee hij over de jaren geld is blijven aftroggelen bij investeerders, is tot nu ook pie in the sky gebleken.

Vindt het eigenlijk wel poetisch dat die twee elkaar nu vinden.
Of liever gezegd- op elkaar aangewezen zijn.

Kan nog leuk worden.
Aan de andere kant betekent dit ook dat OpenAI 'onfaalbaar' geworden is en op overheidssteun in leven zal blijven. Jammer. Had liever gezien dat zoals verschillende financiële instellingen voorspelden, hun financiële reserves in de loop van '26-'27 op zouden raken en het ze de kop had gekost, wat eindelijk de AI-zeepbel :: plop! :: zou hebben ingeluid die al te lang op zich heeft laten wachten...

[Reactie gewijzigd door R4gnax op 28 februari 2026 10:10]

LLM's hebben zich al zodanig bewezen dat de investeringen zullen blijven komen. Staat even los van het gevoel dat de ontwikkelingen qua AGI wel een beetje gestagneerd zijn
Volgens mij staat dat juist helemaal niet los; LLM ontwikkeling is de afgelopen periode gestagneerd, de groei is minimaal vergeleken met vorig jaar. De verbeteringen zitten veelal in de technologie er omheen (Claude Code, OpenClaw, MCP, etc), maar de kern-techonologie is, wat kosten/baten betreft, niet veel verandert. Zonder explosieve groei draaien bedrijven als OpenAI op het moment vooral (veel) verlies. Dat vinden investeerders over het algemeen niet fijn; als er geen plan is om uiteindelijk wel die winst te gaan maken, haken die waarschijnlijk af.
Niet mee eens. Het spelletje wat betreft tekst generatie hebben ze nu wel uitgespeeld. Logische redenatie wordt juist nog steeds sterker en sterker getuige de ontwikkelingen in wiskundige capaciteiten van modellen als Opus 4.6 en voornamelijk ChatGPT 5.3.

Hierna volgen inderdaaad stappen als agency (zoals Clawd) en vervolgens initiatief. Dit lukt echter niet zonder verdere ontwikkelingen en safe guards van de onderliggende LLMs. Voordat je een LLM vertrouwt proactief stappen voor je te ondernemen moeten de safe guards praktisch waterdicht zijn.
Er wordt weldegelijk nog geinnoveerd en nieuws uitgebracht hoor. Denk maar aan de onderliggende technologieën. De enige reden dat het misschien lijkt alsof het gestagneerd is, ligt 'm bij de commerciele invoering en hoe de huidige chips van nVidia nu niet bepaald efficient zullen zijn op iets dat geen attention-head implementerende transformer is. Dat is wat nu momenteel als de meest voor de hand liggende stagnatie kan worden gezien.
Misschien komt nVidia wel uit met een efficientere chip for Mamba of convolutionele netwerken, want die zullen wél volledig kunnen bijdragen aan het AGI concept.
Transformers zoals de GPTs kunnen niet in real-time bijleren omdat het integreren van die data de volledige dataset aanpast en niet enkel lokaal. Spatial-type netwerken waarbij minder maar veel diepere "neurons" gebruikt worden kunnen dit wel gewoon, en die zijn ook meer zoals de natuurlijke varianten, vaak ook ontworpen om zonder centrale klok te draaien.
Stelt toch niets voor onder de Patriot Act? Alles wat bij Amerikaanse bedrijven zit is links- of rechtsom benaderbaar bij de Amerikaanse overheid.
Anthropic was hun eerste keuze en ze hebben dat mooi afgewezen, daarom is de negatieve canpagne nu bezig tegen Anthropic en hebben ze ChatGPT genomen. Daarom dus.
Ik denk dat Anthropic niet genoeg wilde doorsluizen naar de prive accounts van Trump&Co. Eigen geldelijk gewin staat hoog in het vaandel bij de amerikaanse oligarch kliek en hun kwartiermaker.
En het is ook niet geheel ontoevallig dat dit nu gebeurt net voordat OpenAI een beursgang van plan was.
De ommezwaai is mij ook nog niet duidelijk, beide bedrijven zijn immers israëlisch joods. Je zou dus verwachten dat dit een garantie is voor een goede samenwerking
Het begint nu wel heel eng te worden. Je kunt AI voor goede dingen, maar duidelijk dus ook voor slechte doeleinden inzetten.
AI is net als een mes op zichzelf niet gevaarlijk, de mensen die het gebruiken kunnen dat wel zijn. Voor AI zouden wereldwijd de robotica wetten van Asimov moeten gelden:
  1. Een robot mag geen menselijk wezen verwonden of, door niets te doen, toestaan dat een menselijk wezen gewond raakt.
  2. Een robot moet de opdrachten van mensen opvolgen, behalve wanneer zulke opdrachten in strijd zijn met de eerste wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover dit niet in strijd is met de eerste en tweede wet.

[Reactie gewijzigd door Leo. P. Klepper op 28 februari 2026 09:43]

Voor AI zouden wereldwijd de robotica wetten van Asimov moeten gelden:
De betreffende verhalen van Asimov gaan juist over dat de wetten niet perfect zijn, en dat wat men wil en verwacht niet vastgelegd kan worden in slechts drie simpele regels.

[Reactie gewijzigd door The Zep Man op 28 februari 2026 15:18]

Het probleem is dat die 3 "wetten" niet werken. Deze zijn te simplistisch en laten veel te veel ruimte voor interpretatie.

Neem nu de eerste wet zoals jij hem hier neerschrijft. "Een robot mag geen menselijk wezen verwonden". Daar staat niets in over doden. Maar laat ons even aannemen dat we dat oplossen. dan komen we bij het vervolg dat een robot (of in dit geval AI) niet mag toestaan dat door niets te doen een mens gewond zou raken.

En dan moet je die AI eens het trolley probleem voorschotelen. Zien hoe dat die gaat reageren. En ja, in sommige gevallen moeten mensen beslissingen nemen over wie leeft en wie sterft.

Vergeet ook niet dat deze 3 "wetten" zijn geschreven met het doel een stukje fictie te schrijven. Ze zijn een element van een verhaal. Helemaal niet gebasseerd op wetenschappelijke principes. Iets waar door de jaren heen vele andere verhaalschrijvers gebruik van hebben gemaakt. En hoeveel verhalen zijn er wel niet geschreven waarin deze 3 wetten voorkomen en robots ze toch breken?
Hilarisch om dit te zien, Asimov schrijft een heel boek over deze regels en alles wat er fout aan is en mensen nemen letterlijk het gedeelte over waar tegen gewaarschuwd wordt. Je kan het niet grappiger maken.
Ik vind anders wel dat die wetten redelijk bruikbaar kunnen zijn om regels voor AI vast te leggen. Misschien nog niet sluitend genoeg maar ze zouden wel een mooie basis vormen. Ze laten ruimte voor interpretatie dat wel, maar daar kun je wel een oplossing voor bedenken.

Probleem is alleen dat er een hele sloot aan mensen is die in gelimiteerd AI gebruik geen probleem ziet. Tot we met Skynet achtige toestanden zitten, dan is het te laat. Skynet is ook een fictief verzinsel maar geeft ook wel een beetje een idee van wat er "zou kunnen" als je AI ongelimiteerd vrijlaat.

Je ziet het nu al gebeuren. Vorige week las ik ergens een post dat AI had besloten om alle code te verwijderen omdat het dat de snelste manier vond om de bugs van de "gewone" programmeurs op te lossen. De stap naar de mens geheel te "verwijderen" is gelukkig nog buiten de capaciteit van AI, maar die weg wil je ook gewoon niet op.
Ik zou aanraden het boek te lezen, best kort maar krachtig.
Welk boek? Die van Asimov, zijn ze kort? Ik ben er nog nooit aan begonnen, twijfel of ik de serie ga kijken of de boeken lezen.
Ze zijn niet zo dik en het Engels is naar mijn mening niet complex.

Lezen lekker weg en zitten goed in elkaar.
Prima boeken.
De serie vind ik ook prima te haggelen. Ze hebben de boeken als rode draad gebruikt, erg losjes gebaseerd op.
Het korte verhaal "Runaround" (waar de 3 wetten vandaan komen) kun je lezen in de verhaal collectie boeken: "I, Robot" (1950), "The Complete Robot" (1982) en "Robot Visions" (1990).

Persoonlijk zou ik "The Complete Robot" aanraden vanwege de andere interessante verhalen die in deze collectie staan.
1984 wordt tegenwoordig ook meer gezien als handleiding dan als waarschuwing. Of dat grappig is zijn de meningen over verdeeld.
Sci-Fi Author: In my book I invented the Torment Nexus as a cautionary tale.

Tech Company: At long last, we have created the Torment Nexus from classic sci-fi novel Don't Create The Torment Nexus.
Laat ik je vooral eens een verhaaltje vertellen over een ander boek van de heer George Orwell, namelijk "Nineteen Eighty Four"...
Vergeet regel nul dan niet: kortgezegd, de mensheid gaat voor het individu.
Leve Demerzel :)
Precies. Dus 200.000 mensen gruwelijk laten sterven om 300.000 mensen een veel beter leven te geven wordt dan een serieuze overweging. Ethisch zitten er flink wat haken en ogen aan simpele regels.
Zeker.

Dat maakt de serie boeken ook zulk boeiend leesvoer.
AI werkt niet deterministisch en we weten dat het heel moeilijk is om het strikt instructies te laten volgen of geen alternatieve feiten te verzinnen. Dus ik denk sowieso dat ze strikt regels te laten volgen moeilijk wordt.
Heel Asimov is een verhaaltje, sciencefiction. Hoewel zijn regels leuk, wellicht nuttig klinken, is een romanschrijver geen autoriteit voor wetgeving. Misschien input voor een discussie voor wetgeving, maar bronnen op een fantasie verhaal lijkt me geen goed idee.

Overigens: Hoewel de Amerikaanse overheid dit weer smerig speelt, of iig machts woorden smerig overkomen, ga je met lief doen (of pacifisme) geen voldoende afschrikking creëren voor een militaire tegenstander die geen scrupules heeft om in dit soort zaken te investeren. Trump past in het rijtje Poetin en zijn Chinese evenknie, als hij dit voor eigen eer en glorie doet, maar ook de Eu zal op dit vlak wel iets moeten. Of regels maken gewenst is: ja. Of het helpt in een conflict: dat vraag ik me af.
Correctie:
Het begint nu wel heel eng te worden, Trump had goeie dingen kunnen doen, maar zet zich duidelijk voor slechte doeleinden in.
Correctie:
Het begint nu wel heel eng te worden, Trump had goeie dingen kunnen doen,
Kijk naar hem als persoon en waar hij vandaan komt. Trump had nooit goede dingen kunnen doen. Dat zit niet in de aard van een narcist die sympathie en empathie als zwaktes ziet.

[Reactie gewijzigd door The Zep Man op 28 februari 2026 15:19]

inderdaad. Het enige positieve en goede wat de man heeft gedaan was voor zijn eigen portemonnee.
Die man doet ook heel veel voor Europa hoor.

Ik heb de roep van EU om zelfstandig te worden nog nooit zo duidelijk gehoord.
Dat is een effect van wat hij doet, maar ik zie geen aanwijzingen dat hij dat wil bereiken. Wanneer hij "meer veiligheidsinvesteringen door Europa" vraagt, blijkt telkens dat hij eigenlijk "meer inkoop van Amerikaanse veiligheidsproducten door Europa" wil. Tegen "Europe first" investeringen is hij fel gekant.
Doet me een beetje denken aan de tegeltjeswijsheid sticker die ik op whatsapp heb.

“Jezelf verneuken is ook neuken”
Ah ja zoals boos worden omdat de EU nu liever bij eigen defensiebedrijven wil shoppen ipv bij Amerikaanse :o
Hij doet niet iets voor Europa. Maar maakt het samenwerken zo belachelijk dat we er achter komen ook op eigen benen te moeten staan.
Begin zo onderhand erg zat te worden van Al. Onnodige data centers slokken alle hardware en energie op, vervuilend. En al dat AI meuk wordt overal maar voor gebruikt. 9 van de 10 dingen op Instagram zijn of staged of AI. Reclames worden ook al steeds meer slechte ai filmpjes het ziet er niet uit. Lazy slop. Ik snap dat het best usecase heeft, maar de snelheid waarmee het nu wordt opgebouwd en toegepast is totaal nergens goed voor. En dan nu met defensie begint het wel eng te worden. Skynet praktijken.

[Reactie gewijzigd door Bulls op 28 februari 2026 10:07]

Die 9 op 10 dingen op instagram hangen ook erg af van wie en wat je volgt.
Er staat veel zooi tussen wat je krijgt zonder dat je ze volgt. Het is meer reclame en reels tegenwoordig en minder van wie je volgt.
Ik volg enkel echte mensen die ik in het echt ken. Maar toch krijg ik veel AI meuk te zien.
Kun je toch verwachten, dynamiet was ook niet uitgevonden voor oorlogsvoering .
Nee, uitgevonden als explosief, beetje naïef om te denken dat mensen elkaar niet gaan opblazen...
Hmm wat zeiden ze nu in Jurassic Park ?

"Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should" we hebben tal van films boeken allemaal met resultaat doom van het menselijk ras. We hebben al ia machines die me sen misleiden , aan zetten tot , mensen online zwart maken omdat ze zich gediscrimineerd "voelen". Zelfs aan getoond dat ai een mens kan vermoorden. Het gaat al de verkeerde kant op met sommige Ai modellen. Misschien moet een ern ban komen wereld wijd van tot hoe ver we Ai mogen laten gaan.
Best een risico voor Anthropic, begrijp me goed, ik vind het altijd erg goed als mensen of bedrijven een tegengeluid laten horen tegen fascistische overheden, maar Trump is behoorlijk kleinzielig als mensen niet doen wat hij graag wil.
Gelukkig heeft Anthropic gewoon supergoeie technologie, wie weet is dat genoeg om toch overeind te blijven. Ze kunnen wel rekenen op goodwill vanuit de hele wereld, misschien helpt dat :)
Ik heb pas nog Claude Pro met een jaar verlengd. Zij blijven toch zeer innovatief en het is een uitstekend model. Zowel Cowork als aude Code werkt beide fantastisch.
Het risico is ook levensgroot voor OpenAI.

AI modellen zijn al moeizaam qua betrouwbaarheid, maar als een Trump regering er met hun handen aanzitten gaat de betrouwbaarheid nog een niveautje omlaag.

Op economisch vlak is het voor OpenAI ook tricky, want als bijvoorbeeld in de EU dit gezien wordt door rechters als staatssteun, corruptie of andere verboden handels tactiek, dan be je als bedrijf verder van huis. De rugdekking van Trump eindigt ook een keer.
De Amerikaanse overheid wil onbeperkte toegang tot de modellen, maar daar ging het bedrijf niet in mee.
OpenAI gaat hiermee dus wel akkoord, begrijp ik uit deze deal.
Sam Altman heeft nog nooit een principe gekend dat minder flexibel was dan een elastiekje, dus dat zou niet moeten verbazen.
OpenAI heeft ook geld nodig. Tot nu toe maken ze miljarden verlies en de concurrentie van o.a. Google komt nu om de hoek kijken.

Het zal mij niet verrassen als dit ook een deal is om de concurrentie uit te schakelen. Trump houd van deals maken, en die van OpenAI kan heel goed lucht fietsen.
Nou, hebben ze voor niets hun belofte geschrapt.

nieuws: Anthropic schrapt AI-veiligheidsbelofte uit bedrijfsbeleid

Zie je overigens keer op keer met de Trump regering: wie een compromis sluit, zeker op de eigen principes krijgt keihard het deksel op de neus.

Vervolgens ben jij aangeschoten wild, want je hebt jezelf gecompromitteerd, terwijl het morele buikschuiven van de Trump-regering als gegeven wordt beschouwd.

Amerikanen hebben er een mooi spreekwoord voor: Don't wrestle with pigs. You both get dirty, and the pig likes it.
Ik dacht dat Anthropic juist ontstaan is uit OpenAI omdat die laatste geen veiligheidsanalyses vooraf wilde doen, maar vooral snel sneller snelst naar de markt toe wilde. Anthropic zou de nadruk op fundamentele veiligheidsmechanismen leggen. Maar dat is nu dus van tafel?
Nou Europa, biedt Anthropic een warm bed hier en haal ze hier naartoe. Dit ijzer moet je smeden als het heet is.
Dit is precies wat ik ook dacht. Anthropic mag met geen enkele leverancier van Defensie meer zaken doen. Die lijst is echt heel groot. Een overstap naar Europa zal ze zeker goed doen.
Kunnen wij dit bedrijf niet naar Europa halen? In de US waren ze al supergek (er waren al wetten dat de overheid overal bij mocht), maar de US is nu veranderd in kapitalisme waarbij de overheid bepaald en je verbant.

Enge ontwikkeling, als we niet oppassen krijgen we het ook hier.
Kunnen wij dit bedrijf niet naar Europa halen?
Nee. Of nou ja, op welke manier wil je ze hier naartoe halen? Ze dwingen hierheen te komen is natuurlijk onmogelijk. Er het zo aanlokkelijk maken dat ze zelf hierheen willen komen? Er is natuurlijk een hele reeks redenen waarom eigenlijk al deze bedrijven in de VS (of in China) zitten, en niet in Europa. Dat kunnen we niet zomaar wat aandoen zonder heel veel wetgeving te veranderen en eigenlijk een complete cultuuromslag. En zelfs dan nog, hoeveel van hun medewerkers zitten echt erop te wachten om intercontinentaal te moeten verhuizen?

Natuurlijk hoeft niet elke medewerker mee, maar als het alleen een brievenbusfirma hier wordt veranderd er ook weinig.
Aan de andere kant betekent dit ook wel een aardige kans op faillissement en is het dus juist voor het personeel weer interessanter om mee te gaan.
Anthropic heeft een hele goede reputatie qua kwaliteit van hun LLM. Als ze failliet zouden gaan (wat me sterk zou lijken), dan kunnen die mensen denk ik snel aan de slag bij andere LLM bedrijven, voor een veelvoud van wat ze in Europa zouden verdienen. En natuurlijk geld is niet alles, maar als ik kijk op levels.fyi, zit Anthropic in de VS op mediaan salaris voor een software engineer rond de half miljoen, en Mistral in EU op €85k.

En daar zitten uiteraard heel veel mitsen en maren aan. Maar je moet wel echt graag weg willen uit de VS als beetje senior software dev om naar Europa te gaan.
Ik was te lui om m’n ChatGPT abo op te zeggen, maar ben nu toch maar in actie gekomen.

Toch maar eens bij Claude of een ander alternatief kijken. :)
Ik heb nog geen ervaring met Anthropic bij programmeren maar ik heb begrepen dat die veel beter is dan wat OpenAI te bieden heeft.
Ik programmeer niet, maar gebruik het als een veredelde zoekmachine 😋
Dat is geen veeleisende toepassing. Dat zou een Europese AI aanbieder zoals Proton Lumo of Mistral Le Chat ook prima kunnen
Kinderachtig om ze op de zwarte lijst te zetten, maar wel consistent met de rest van het beleid. Kunnen we Anthropic niet uitnodigen zich in de EU te vestigen? Hun businessmodel lijkt in de VS immers voorbij.
Ik wilde dit idee ook opgooien, hopelijk leest iemand van ons kabinet, Brussel en/of Daniela en Dario Amodei mee.
Aan 2 kanten een win/win situatie want van Mistral AI horen we nog weinig nu ASML daar zijn vingers in heeft zitten.
Ik hoop echt zo (maar denk niet dat het gebeurt) dat bedrijven die in zee gaan met deze regering flink worden aangepakt. Dat er een soort Neurenberg komt voor Trump en co en alle gewetenloze tech-bros die naar zijn pijpen dansen.

Om te kunnen reageren moet je ingelogd zijn