Regering VS moet Anthropic van de zwarte lijst halen

Een Amerikaanse rechter heeft de aanwijzing van Anthropic als risico voor de toeleveringsketen voorlopig geblokkeerd. Volgens de rechter komt de aanwijzing voort uit wrok, omdat Anthropic zich tegen de overheid uitsprak.

De rechter heeft de maatregel van het Amerikaanse ministerie van Defensie tijdelijk opgeschort om onherstelbare 'financiële en reputatieschade' te voorkomen terwijl de rechtszaak nog loopt. Het lijkt er volgens de rechter op dat de aanwijzing van Anthropic als veiligheidsrisico niet alleen onwettig is, 'maar ook arbitrair en grillig'.

Er is 'geen legitieme basis' voor het ministerie om aan te nemen dat Anthropic een risico voor de nationale veiligheid is, stelt de rechter. De Amerikaanse overheid eiste onbeperkte toegang tot de modellen van Anthropic, maar daarin ging het bedrijf niet mee. Anthropic wilde niet dat het ministerie van Defensie zijn AI-modellen zou inzetten voor autonome wapens en massasurveillance van Amerikaanse burgers.

Orwelliaans idee

"De advocaat van de overheid suggereert dat Anthropic zijn subversieve neigingen toonde door het gebruik van zijn technologie in twijfel te trekken, er 'bezwaren' over te uiten en de overheid in de pers te bekritiseren", schrijft de rechter. "Niets in de wet ondersteunt het orwelliaanse idee dat een Amerikaans bedrijf als potentiële tegenstander en saboteur van de VS kan worden bestempeld omdat het zijn verschil van mening met de overheid uitspreekt."

De Amerikaanse overheid heeft zeven dagen de tijd om het tijdelijke bevel aan te vechten. Pas daarna wordt de maatregel opgeschort. De regering heeft nog niet gereageerd op het gerechtelijke bevel.

Het ministerie van Defensie zette Anthropic eind februari opzij en sloot tegelijkertijd een deal met ChatGPT-maker OpenAI. Door de aanwijzing als risico voor de toeleveringsketen mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen. Het is voor het eerst dat de overheid een Amerikaans bedrijf op de zwarte lijst heeft gezet. Anthropic klaagde het ministerie van Defensie hiervoor aan.

Door Kevin Krikhaar

Redacteur

27-03-2026 • 09:56

41

Submitter: udontknowme

Reacties (41)

Sorteer op:

Weergave:

Klinkt als een zeer verstandige uitspraak. De regering gaat hier haar boekje ver te buiten wat mij betreft (vind ik overigens ook heel vaak van zaken die de EU doordrukt en bedenkt).
Maar stel je voor dat een amerikaanse bedrijf aan een onderdeel van de NL overheid allerlei voorwaarden stelt die ons niet bevallen....

Stel je voor dat Microsoft tegen de gemeente amsterdam zegt: jullie mogen Azure wel gebruiken, maar niet om klimaatonderzoek te doen, omdat wij niet geloven in klimaatverandering.
(beetje gek voorbeeld, maar je snapt wat ik bedoel).

Persoonlijk zou ik willen dat Amsterdam dan zou zeggen: geen enkele amsterdamse overheidsclub gaat nog zaken doen met Microsoft. Sterker, ik zou willen dat NL overheid zegt: geen enkel NL overheidsclub gaat nog zaken doen met Microsoft. Sterker, ik zou willen dat de EU...etc.

Kun jij je vinden in deze uitspraak, omdat je het in dit geval eens bent met de - in jou ogen - ethische principes van Antropic? En wat vind je ervan als een ander bedrijf 'onethische' voorwaarden stelt. Mag de overheid geen actie ondernemen?
Volgens mij is het heel simpel. Het Amerikaanse ministerie van Defensie wil iets met AI doen wat Anthropic niet toe wil laten. Het staat het Amerikaanse ministerie van Defensie helemaal vrij om dan met een andere partij in zee te gaan.

Waar ze buiten hun boekje gaan, is de beschuldiging dat om die reden Anthropic een risico voor de nationale veiligheid is en ze daarom op een zwarte lijst te zetten. Die zwarte lijst zou toegepast kunnen worden als Anthropic bijvoorbeeld wel andere legers toegang geeft tot hun AI, of als het overgenomen zou worden door een buitenlandse entitieit.
Maar stel je voor dat een amerikaanse bedrijf aan een onderdeel van de NL overheid allerlei voorwaarden stelt die ons niet bevallen....
Tot voor kort bevielen die voorwaarden prima, maar men besloot ineens dat Antropic een gevaar voor de samenleving was omdat men niet met militaire toepassingen wilde meewerken. Dat is een sterk overtrokken reactie van DOD, en ook buitenwettelijk volgens de rechter.
Stel je voor dat Microsoft tegen de gemeente amsterdam zegt: jullie mogen Azure wel gebruiken, maar niet om klimaatonderzoek te doen, omdat wij niet geloven in klimaatverandering.
(beetje gek voorbeeld, maar je snapt wat ik bedoel).

Persoonlijk zou ik willen dat Amsterdam dan zou zeggen: geen enkele amsterdamse overheidsclub gaat nog zaken doen met Microsoft. Sterker, ik zou willen dat NL overheid zegt: geen enkel NL overheidsclub gaat nog zaken doen met Microsoft. Sterker, ik zou willen dat de EU...etc.
Er bestaat iets als proportionaliteit. Het kan niet zo zijn dat van de ene op de andere dag je tot staatsvijand benoemd wordt en al je contracten per direct ontbonden worden.

Als je met voorwaarden niet kunt leven, dan geldt dat voor dat contract wat niet gesloten of zelfs ontbonden gaat worden. Maar totaal ongerelateerde contracten per direct opzeggen, die geen last hadden en hebben van die voorwaarde, is buitenproportioneel. Dat is het fundamentele probleem hier.
Kun jij je vinden in deze uitspraak, omdat je het in dit geval eens bent met de - in jou ogen - ethische principes van Antropic? En wat vind je ervan als een ander bedrijf 'onethische' voorwaarden stelt. Mag de overheid geen actie ondernemen?
Je ziet zelfs met Microsoft 365 dat overheidscontracten uitgediend worden terwijl daar serieuze security concerns ontstaan zijn het afgelopen jaar. Als er echt acute beleidszaken spelen moet je accuut reageren, maar als iets al jaren bekend is, en dan ineens zo'n groot probleem vormt voor de hele overheid zodat je acuut de stekker trekt, dan laat je als opdrachtgever je eigen incompetentie wel erg duidelijk zien.

[Reactie gewijzigd door J_van_Ekris op 27 maart 2026 10:38]

Als een bedrijf voorwaarden stelt die een overheid niet bevalt, dan ga je er niet mee in zee. Heel simpel. En dat is het 'm net. Die voorwaarden waren al afgesproken.

Anthropic zegt dat zijn defensiecontract altijd beperkingen bevatte op “dodelijke autonome oorlogsvoering” en “massale surveillance van Amerikanen”. Anthropic beweert dat het te goeder trouw met Hegseth heeft onderhandeld om de contracttekst te herzien en tegemoet te komen aan de militaire behoeften met inachtneming van deze ethische grenzen totdat de President van Venezuela werd ontvoerd en die afspraken op losse schroeven werden gezet.

Deze onderhandelingen werden echter stopgezet toen president Trump Anthropic publiekelijk bekritiseerde, het bedrijf een “linkse gekkenclub” noemde en alle overheidsinstanties opdroeg te stoppen met het gebruik van zijn AI-tools.

Hegseth bestempelde Anthropic vervolgens als een “risico voor de toeleveringsketen”, waardoor overheidsinstanties en hun aannemers in feite werden uitgesloten van het gebruik van de AI-technologieën van Anthropic, waaronder het populaire Claude-platform.

Technologiebedrijven zoals Google, Meta, Amazon en Microsoft gebruiken allemaal Claude en hebben overheidscontracten met de US. Lekker over nagedacht 8)7
1 volgens mij stond het al in de voorwaarden waarmee het contract in eerste instantie aan was gegaan. (Ze proberen gewoon onder een contract uit te komen als het ware)

2. het is een ethische kwestie. Ik weet niet welke voorwaarden er aan AI en de regering verbonden zijn. Maar in sommige beroepen mag je zelfs werk weigeren op ethische gronden.

Die nuance die daarin zit is wel iets anders.
edit:
Ik moet wel zeggen in deze: welk van de 2 partijen had de grootste klont boter op zijn hoofd?

[Reactie gewijzigd door rob12424 op 27 maart 2026 11:00]

Er zit wel nog een verschil tussen wat jij zegt en wat het Amerikaanse DoD zegt. Jij zegt ik wil niet dart er nog eender welke overheidsinstantie met Microsoft werkt.

Het amerikaanse DoD zegt echter, ik wil niet dat eender welk bedrijf dat samenwerkt met eender welke overheidsinstantie nog met antropic werkt. Dus ipv Antropic toegang te weigeren tot 20% van de markt (overheid) ontzeg je hen toegang tot 95% procent van de markt, want bijna ieder tech bedrijf heeft ergens wel een band met de overheid.

De percentages zijn trouwens niet gesteund op statistieken, maar gewoon een voorbeeld om mijn punt te maken. Dit kan evengoed 30% en 90% zijn...
Je had met minder tekst kunnen zeggen dat je geen idee hebt waar het nou inhoudelijk over gaat.

Het niet willen gebruiken van iets is opzich prima, maar ze bestempelen (enkel omdat ze hun zin niet krijgen, niet omdat het daadwerkelijk gevaarlijk is) Anthropic als 'risico voor de nationale veiligheid' wat veel meer gevolgen dan ze gewoon links laten liggen.

[Reactie gewijzigd door watercoolertje op 27 maart 2026 11:18]

Mijn punt is dat ik graag zou willen dat de inkoopmacht van de NL of EU overheid gebruikt wordt om de impact van BigTech te verminderen.

Maar ik begrijp dat de meesten hier op Tweakers dat anders zien....
Ik zou inderdaad zeggen: dan gaat amsterdam dus niet in zee met ms. De volgende stap: niemand mag meer zaken doen via een zwarte lijst is denk ik niet de route die je moet bewandelen (die hier wel bewandelt wordt). Wel zou je, eventueel, een rechtzaak aan kunnen spannen wegens discrimenerende voorwaarden. In heel veel software die ik voorheen gebruikte stond bijvoorbeeld een clausule dat het niet gebruikt mag worden voor het draaien op een nucleaire installatie (was nog in de Sun tijd). Dat is logisch als het gaat om reputatieschade (reactor doet boem omdat software het niet goed deed en de leverancier was ...). Moet nu iedere nucleaire reactor gaan lobbyen om die clausule eruit te krijgen of anders het bedrijf op zwart. Hier speelt iets soortgelijkt: in de telegraaf van morgen "AI van Anthropic maakt een foutje: raket land op kinderdagverblijf". Dat wil je al niet vanuit reputatie (nog los van het morele/ethische probleem maar het gaat hier om Amerikanen en die doen daar niet echt aan).
Stel je voor dat Microsoft tegen de gemeente amsterdam zegt: jullie mogen Azure wel gebruiken, maar niet om klimaatonderzoek te doen
Microsoft has ceased and disabled a set of services to a unit within the Israel Ministry of Defense
(vind ik overigens ook heel vaak van zaken die de EU doordrukt en bedenkt)
Heb je daar voorbeelden van?
De heffing die voor pakketjes gaan gelden vanuit buiten Europa.

En nog steeds de onbewezen netwerk apparatuur die nu verboden worden.

[Reactie gewijzigd door Lord Anubis op 27 maart 2026 10:58]

https://businessam.be/eu-bereikt-akkoord-over-nieuwe-douaneregels-met-extra-taks-voor-kleine-pakketten/
Het Europees Parlement en de lidstaten hebben overeenstemming bereikt over een uitgebreide hervorming van de douanevoorschriften
Het in rekening brengen van de enorme douane verwerkingskosten bij de importeurs is besloten door de EC, het Europese parlement en de lidstaten zelf en wacht nog op de formele goedkeuring van het Europees Parlement en de lidstaten.

Niemand gaat zijn EU boekje dus te buiten, het democratische proces wordt gewoon netjes gevolgd. Er wordt ook niks opgelegd vanuit Europa, de lidstaten moeten zelf instemmen met deze maatregel.
'De EU' kan niets doordrukken, landen hebben vetorecht.
Gezien de hoeveelheid onderwerpen op deze site waar de EU bij betrokken is, is het misschien een idee voor de redactie om eens een artikel te schrijven over wat de EU is, wat de EU doet, en hoe de EU werkt. Dan kan dan eventueel toegespitst zijn op de tech-sector. Je ziet in bijna ieder onderwerp wel dat er bij reageerders heel veel kennis ontbreekt. Zoals in dit geval waar men denkt dat de EU zomaar iets er door kan drukken.
Dat is democratisch besloten, de EU kan simpelweg niks 'doordrukken'. De EU is geen persoon, noch staat een autocraat of dictator aan de macht. De lidstaten hebben het voor het zeggen. Voor sommige zaken moet dat unaniem, voor sommige zaken bij meerderheid.

De heffing is bedoeld om de onevenredig hoge douanakosten voor pakjes te compenseren. Normaal komen goederen in grote hoeveelheden in containers binnen. Met de populariteit van Chinese webshops komen er heel veel verschillende individuele pakketjes binnen, die allemaal gescreend moeten worden. De kosten zijn explosief gestegen.

Wie moet dat volgens jou betalen? De Nederlandse belastingbetaler, ook voor alle pakjes die naar Duitsland doorgaan? Ten koste van ons wegennet of onze gezondheidszorg? Of de consument die die pakjes bestellen? De gebruiker betaalt, lijkt mij fair.
En daarom is het dus belangrijk dat we een correct en functioneel gerechtshof hebben op zowel nationaal als EU niveau.

Maar daar schuurt het dus. "Wij" hebben geen hof om aan te kloppen, waar ze dat in America dus wel hebben. Het consistutioneel hof dus, essentieel onderdeel van trias politica en bewust ter zijde geschoven. Ons huidige systeem legt de lat zodanig hoog dat het voor de normale burger onmogelijk is om onredelijke wetten te bestrijden.

Er is een hoop mis in de VS, dat is zeker. Maar op bepaalde punten is de rechtspraak (en inspraak) een stuk beter geregeld.
Ons systeem is zo ingericht dan onredelijke wetten al in een eerder stadium tegengehouden kunnen worden, namelijk door naar de adviezen van de Raad van State te luisteren en de Eerste Kamer te laten doen waar ze voor zijn. De RvS werkte altijd goed totdat er partijen kwamen die de adviezen naast zich neer legden. En de Eerste Kamer moet zich weer gaan bemoeien met hun kerntaak en geen politieke spelletjes gaan spelen. Dan werkt het weer zoals het is bedoeld. Meer vangnetten zou je niet nodig moeten hebben.
Daarom is vrijheid van meningsuiting zo'n mooi recht, waar je zelfs zonder onderbouwing of toelichting gebruik van kan maken.
Dit is wel een glijdende schaal hoor. Als een bedrijf niet blind mee wil werken aan defensie-eisen, dan ben je ineens een risico voor de nationale veiligheid. Dat voelt meer als drukmiddel dan als serieuze beoordeling.

Zeker als het gaat om dingen als autonome wapens en massasurveillance, daar mag je als bedrijf best een grens trekken zonder meteen afgeserveerd te worden.

En dan ook nog exclusief met OpenAI in zee gaan (daar lijkt het op). Overigens ligt Anthropic nu deels plat volgens Downdetector. Timing is weer opvallend. #aluhoedje
Op zich ben ik het daarmee eens. Alleen plaats ik wel een paar vraagtekens bij de houding van Anthropic. Je gaat een contract aan met Defensie. Waar denk je dat ze AI voor willen gebruiken? Pinda's pellen?
Autonome wapensystemen lijkt mij een redelijke aanname waar Defensie Ai voor zou willen inzetten. En zo zijn er nog wel een paar zaken te noemen waar je AI voor kunt inzetten bij Defensie, en die hebben allemaal te maken met het doden/verwonden van zoveel mogelijk mensen in een zo kort mogelijke tijd, met zo min mogelijk moeite. Dat is toch wel de core business van Defensie.
Dus...waarom zeg je dat niet op voorhan? Nadat de handtekening is gezet de moraalridder uithangen vind ik een beetje laat en opportunistisch. Ik vind het meer ruiken naar een poging hun imago te redden nadat veel mensen problemen hebben met hun defensie contract.
Snap wel wat je bedoelt hoor. Als je met Defensie in zee gaat, weet je inderdaad ongeveer in welke hoek je zit.

Alleen zit er wel nuance in hoe zo’n traject loopt. In het begin gaat het vaak over vrij generieke toepassingen: analyse, planning, tooling, pas later worden use cases concreter en schuift het richting operationeel. Dan wordt het voor zo’n partij ineens een stuk gevoeliger. Dit is in het verleden natuurlijk met andere technieken al veeel vaker gebeurd (denk aan autofabrikanten).

En ook, onbeperkte toegang tot modellen is echt een andere categorie dan een scoped contract. Dan geef je in feite de controle uit handen over waar je tech eindigt. Dat is voor een AI-bedrijf gewoon link.

Dus ja, timing is een beetje ongelukkig en het oogt opportunistisch. Maar het kan ook gewoon zijn dat de echte implicaties pas later duidelijk werden en ze toen pas op de rem gingen staan.
Tsja...ik snap dat zo'n traject misschien een beetje oppervlakkig begint, maar ik bedoel...defensie...je wéét toch in welke business ze zitten?
Heel wat jaren geleden kwamen universiteiten, onderzoekers en studenten met een campagne om te verbieden dat hun onderzoeken gebruikt werden door defensie om bijvoorbeeld kruisraketten te maken. Ze hadden onder andere een poster gemaakt met de bekende paddestoelwolk met de tekst 'de fout zat in regel 74632564'. Een veelzeggende boodschap. Defensie shopt graag bij universiteiten om te zoeken naar talentvolle onderzoekers en veelbelovende studenten. Ook grappige onderzoeken met lego autootjes die autonoom allerlei dingetje doen vinden zijn erg interessant. Of autonome drones enzo. Ja, alle research is openbaar, dus kunnen zij dat heel mooi gebruiken. Vandaar die actie indertijd. Zij hebben niet eens een contract met defensie, maar zij voelen de bui al hangen. Dat had Anthropic ook kunnen doen. Als ik het kan bedenken, kunnen die bigbrain gasten dat ook.
Lang verhaal, maar de boodschap is duidelijk: opportunisme en de drang om een lukratief contract af te sluiten wint het van de moraal. Die kwam later pas kijken....
Dit is wel een vrij bekrompen gedachtengang. Dus als je aan Defensie diensten levert is dat altijd omdat ze oorlog voeren en dat jouw dienst daar dan altijd voor gebruikt mag of moet worden? Nee, je kunt gewoon diensten leveren met een bepaald doel en bepalen dat het alleen doorvoor gebruikt mag worden. Dus de AI-tool mag gebruikt worden voor administratieve ondersteuning of algemene kennissystemen, maar niet voor het bepalen van doelen en het aansturen van de middelen om die doelen te vernietigen.

Daar hebben ze trouwens Palantir voor. Alex Karp is daarin een voorbeeld, hij had duidelijke(linksere) doelen en principes maar veegde die van de tafel toen hij miljardair kon worden met het leveren van zijn product aan Defensie van de VS, met koppelingen met alle informatie- en kennis-, en surveillancesystemen in de VS. Maar ook die van EU-staten en Defensie en Politie binnen Nederland. Hij zei dus geen nee, had geen scrupules hiervoor en koos voor de dark-side voor het geld. Antropic doet dat dus niet...

Dat is dus geen zwakte of een naïviteit maar een visie en missie, een mening en hun goed recht om dat te stellen. De regering kan ze wel heel andere doelen met hun toepassing hebben voorgesteld en daarna met andere eisen zijn gekomen. Dat weet ik niet maar gezien de staat waarin de overheid van de VS zich nu bevindt kijk ik daar niet van op. Zie trouwens verder de Podcast "Het Brein achter 's-werelds eerste AI-oorlo: Alex Karp van Palantir" van Tom Jessen.

[Reactie gewijzigd door Ootje70 op 27 maart 2026 11:45]

Dit is wel een vrij bekrompen gedachtengang. Dus als je aan Defensie diensten levert is dat altijd omdat ze oorlog voeren en dat jouw dienst daar dan altijd voor gebruikt mag of moet worden? Nee, je kunt gewoon diensten leveren met een bepaald doel en bepalen dat het alleen doorvoor gebruikt mag worden.
Nouja...je hebt best veel woorden nodig om precies hetzelfde te zeggen als ik :+
Ik zeg toch ook dat ze op voorhand moeten bepalen dat hun AI alleen voor bepaalde zaken of juist niet voor andere specifieke zaken ingezet mag worden? Dat was juist de hele crux van mijn betoog. Tuurlijk mag je aan defensie leveren. Maar als je met je klomp aan kunt voelen dat het wel eens voor doomsday gebruikt gaat worden en je vindt dat niet ok, moet je dat op voorhand zeggen. Niet als je het contract hebt getekend.
Dus...waarom zeg je dat niet op voorhan?
Dus.... dat hadden ze gedaan. Die beperkingen stonden in het contract, defensie wilde daarop komen.
Als dat zo is, is het een hele andere zaak. Maar zo is het nooit voorgesteld. Het leek altijd alsof ze achteraf pas gingen piepen.
Het is een beetje alsof een bommenfabrikant achteraf gaat vertellen waar je allemaal wel en niet een bom op mag gooien. Dat gaat natuurlijk niet. Dat doet je zelfs afvragen of ze er niet achteraf een kill-switch in kunnen gooien om de boel helemaal uit te zetten.
Zeer belangrijk voor de context is dat in het geval van bommen er altijd een menselijke keuze achter het gebruik zit.

Een bom zelf de beslissing laten maken is een compleet ander (moreel) probleem.
Bij AI niet dan? Die zal toch ook een opdracht moeten krijgen om achter bijvoorbeeld lanceerinstallaties aan te gaan.
Antrophic werd opzij gezet en als "national security threat" bestempeld omdat ze:
  • Niet wilden dat hun technologie gebruikt zou worden voor massa surveillance, vooral van het eigen volk
  • Niet mee wilden gaan in het maken van fully autonomous weapons. Dit is waar ik op doelde: er komt geen mens meer bij te pas met wat het VS regime wil dat wapens kunnen
Dit is een interessant verklaring van Antrophic die de moeite van het lezen waard is: https://www.anthropic.com/news/statement-department-of-war
Dat gaat wel. Je kan de bommen wel te pas en te onpas gaan gebruiken. Er zijn wereldwijde afspraken hierover en aan de hand van deze afspraken maak en lever je bommen. Ga jij als bommenmaker toestaan dat de arbitrair en grillige Trump het op Venezolaanse woonwijken in de VS of op kinderscholen mag gaan gooien? Jij vindt dat dus oké?


Kill switch? Die zitten er toch in de naar het buitenland verkochte vliegtuigen die de bommen gooien maar bedient worden door de VS.
Leg mij geen woorden in de mond aub. Een leger neemt materieel af met het doel dat te gebruiken waarvoor ze dat nodig achten. Het zou een beetje rare situatie worden als je in tijden van oorlog eerst moet gaan bellen of je op doel x wel of niet die bom mag gooien. En die kill switch word dan altijd nog vanuit defensie aangestuurd, niet eenzijdig vanuit de fabrikant.
Nu heeft de Amerikaanse overheid met enige regelmaat schijt aan rechterlijke uitspraken, maar dit geeft wel wat verlichting bij partijen die zowel met Anthropic als de Amerikaanse overheid werken. Denk bijvoorbeeld aan Microsoft die hierdoor niet meer kan worden aangepakt als ze met Anthropic blijven werken.

Voor de directe samenwerking tussen Anthropic en de Amerikaanse overheid betekent deze uitspraak waarschijnlijk niets. Men heeft inmiddels voor OpenAI gekozen en zal daar ook mee verder gaan.
“De advocaat van de overheid suggereert dat Anthropic zijn subversieve neigingen toonde door het gebruik van zijn technologie in twijfel te trekken, er 'bezwaren' over te uiten en de overheid in de pers te bekritiseren"
Ligt het aan mij of klinkt dit als de beredenering van een kleuter?

Lijkt me dat al die punten voor Anthropic gewoon mogelijk zijn en onder vrijheid van meningsuiting vallen.

Dit als argumenten aanvoeren waarom die partij daardoor opeens een gevaar voor de nationale veiligheid is klinkt toch wel heel erg als ‘ik kreeg mijn zin niet en nu straf ik jou lekker’ ofwel kleutergedrag :?
Het Amerikaanse ministerie van defensie heet tegenwoordig het ministerie van oorlog.
Nee, de naam van dat ministerie ligt vast in (o.a.) de National Security Act uit 1947 en de United States Code. In zijn decreet heeft Trump besloten en vastgelegd dat het ministerie en de minister als secundaire titel 'Department of War / secretary of War' mogen gebruiken. Hoewel ze zelf dus de titel 'DoW' gebruiken en daarnaar handelen, heet het officieel nog gewoon Department of Defence.
arbitrair en grillig, zo vind ik ook de beslissingen van zowel de VS en EU over nog steeds onbewezen netwerkwerk apparatuur die nu verboden zijn.
Goede uitspraak maar grote vraag of het "MAWA" gebeuren zich hier iets van aan zal trekken?

Het is immers dezelfde regering die persee TikTok moest hebben want och en wee de kinders zitten op een chinees platform, maar binnen een week nadat er een speciaal los staande Amerikaanse versie beschikbaar was zijn de algemene voorwaarden aangepast en mag TikTok (in Amerika) nu met AI allemaal behoorlijk verontrustende dingen bepalen, bijvoorbeeld wat je immigratie status of sexuele geaardheid is...?!

(Dat is waarschijnlijk ook een van de hoofd redenen dat Anthropic het nodig vond om te benoemen dat het niet wilt dat hun AI gebruikt word voor "massasurveillance van Amerikaanse burgers")

En uhhhh, ik hoop dat Anthropic dit wint & lekker door kan timmeren aan AI (niet dat de meeste mensen nou zulke fans zijn van AI in het algemeen, maar hey, punten verdient voor dit hele verhaal & doe lekker je ding) maar dat zal uiteindelijk toch niets uitmaken? De Amerikaanse overheid gaat gewoon door met de enge plannen/dingen/etc, maar dan met andere bedrijven? 🤷‍♂️

Volgens mij moet de EU Amerika op een zwarte lijst plaatsen & het wordt steeds duidelijker dat onze overheid echt even wat dingen recht moet gaan breien wat betreft welke bedrijven hier (lees: gegevens) in Amerikaanse handen zijn ☹️
Op een gegeven moment zullen ze wel moeten, defensie is waarschijnlijk de enige rendabele toepassing van A.I. op dit moment. Dat kun je erg vinden, maar zo gaat dat altijd bij nieuwe techniek: "Kunnen we er een wapen van maken?". Internet is uiteindelijk ook defensietechniek.

Om te kunnen reageren moet je ingelogd zijn