OpenAI sluit deal van 200 miljoen dollar met Amerikaanse ministerie van Defensie

OpenAI heeft een contract van 200 miljoen dollar gesloten met het Amerikaanse ministerie van Defensie. Het is de eerste samenwerking onder het OpenAI for Government-initiatief, dat als doel heeft om de tools van OpenAI aan te bieden aan overheidsfunctionarissen in de Verenigde Staten.

Met het pilotprogramma gaat het Amerikaanse ministerie van Defensie experimenteren met manieren waarop AI administratieve processen kan veranderen. Het bedrijf schrijft bijvoorbeeld dat het de manier waarop militairen en hun families toegang hebben tot gezondheidszorg wil verbeteren. Ook moet het programma de manier waarop medewerkers naar bepaalde gegevens kijken stroomlijnen en 'proactieve cyberdefensie' ondersteunen.

Het Amerikaanse ministerie van Defensie zegt dat OpenAI AI-capaciteiten zal ontwikkelen om 'kritieke uitdagingen' op het gebied van nationale veiligheid aan te pakken, zowel op het gebied van oorlogsvoering als in bedrijfsvoering. Wat die kritieke uitdagingen precies inhouden, maakt het ministerie niet bekend. Naar verwachting loopt de samenwerking tot juli 2026.

OpenAI bundelt al zijn eerder aangekondigde samenwerkingen met Amerikaanse overheidsinstanties, waaronder met NASA, het Air Force Research Laboratory en het ministerie van Financiën, onder het nieuwe OpenAI for Government-initiatief.

Ook het in januari aangekondigde ChatGPT Gov, een variant van ChatGPT die specifiek is ontwikkeld voor overheidsinstanties, wordt onder die paraplu ondergebracht. Amerikaanse overheden krijgen, naast speciale modellen, ook praktische ondersteuning en inzicht in de bedrijfsplannen, zodat overheidsklanten kunnen anticiperen en nieuwe manieren kunnen bedenken om de tools van OpenAI te gebruiken.

Door Imre Himmelbauer

Redacteur

17-06-2025 • 11:23

45

Reacties (45)

45
45
12
0
0
24
Wijzig sortering
Dit lijkt me geen goede evolutie. Dit gaat alleen maar meer van de bestaande biases en vooroordelen in de hand werken, en leiden tot meer structurele discriminatie.
Ik vind dat altijd een slecht argument, eerlijk gezegd.. Die vooroordelen zijn er met een reden, dat we ze discriminatie noemen maakt ze in een kansberekening niet minder relevant, mits correct toegepast.
Risicofactoren snel verwerken kan juist levens redden in militaire toepassingen. Een goed getraind herkenningsmodel kan in enkele microseconden een correcte afweging maken op basis van bekende informatie.

Natuurlijk hopen we dat er nog menselijkheid tussen blijft zitten, maar het is toch echt wel een denkfout dat statistische gegevens en bekende risicofactoren gebruiken om een beoordeling te doen iets slechts zou zijn. Dat doen mensen de hele dag door, alleen doen wij het met veel minder gegevens en veel meer vooroordeel.
Vooroordelen zijn als aannames. Als vooroordelen volgens iemand gebaseerd zijn op iets, dan moet je uit gaan van dat iets waar die vooroordelen op gebaseerd zijn en dat meten, in plaats van uitgaan dat die vooroordelen de aanleiding zijn. Dus heb je last van radicalisatie, kijk dan waar die radicalisatie vandaan komt. B.v. economische factoren. Wellicht kom je er dan ook achter dat er dan radicalisatie op andere plekken ook plaatsvindt.

Door systematisch uit te gaan van vooroordelen (want dat doe je met een (AI) systeem), die inderdaad in ieder mens zitten, vergroot je vooroordelen extreem uit. Dit kan goed gaan, maar ook extreem fout.
Vooroordelen zijn als aannames
Maar als je nog niet meer hebt en je moet acteren, dan is het beter om deze te gebruiken. Natuurlijk is dat in normale (sociale) interactie totaal ongewenst. Maar tijdens een gevecht is dat noodzakelijk. Dit kan (achteraf gezien) een ongewenst effect hebben inderdaad maar als iemand op je af komt met iets dat lijkt op een wapen en is dat toch niet, dan heb je als poltieagent wat uit te leggen. Maar een soldaat weer veel minder.

Ons hele reactie systeem is gebaseerd op aannames. Omdat we nu eenmaal niet alle informatie op hetzelfde moment hebben en omdat we dan pas zouden reageren als het te laat is [bij achteraf beoordeling]. Dus als we iemand iets zien gooien dan doen we allerlei aannames en bepalen dan de reactie voordat we eigenlijk hebben vastgesteld waar dat object gaat landen.

Ik bedoel hiermee: het doen van aannames en daarop acties baseren is an sich niet fout.
Het gaat hier niet over het gedrag van een enkele militair, wiens inschattingsvermogen je ook zoveel mogelijk laat baseren op objectieve feiten, maar zij wie zonder zonde is... Maar aannames, biases, vooroordelen accepteren en versterken in het systeem, lijkt me toch echt een zeer zorgelijke ontwikkeling.
Tja, maar van soldaat naar sectie naar groep naar peleton...enz. Allemaal zullen ze dit doen.

En ja, je hebt gelijk; de aannames versterken zichzelf. Maar in dergelijke situaties is daar, ook zonder AI, ook al sprake van (wat zeker niet helpt om conflicten te vermijden helaas).
Vooroordeel of niet, als er een tijger voor mij staat ga ik er toch vanuit dat hij mij wilt op eten.
Noem mij dan een tijgerist o.i.d. maar wat wil je dan wat men doet? Eerst aan de tijger vragen wat zijn intenties zijn? En dan wel te denken kortere en langere termijn.
En het maakt mij verder niet helemaal uit waarom de tijger mij doodt / opeet, het feit is dat hij dat doet.
Die vooroordelen zijn er met een reden, dat we ze discriminatie noemen maakt ze in een kansberekening niet minder relevant, mits correct toegepast.
Correlatie is niet hetzelfde als causaliteit. Ik zie een AI (of geen enkel algoritme) causaliteit berekenen, enkel correlatie. Wij mensen roepen dan automatisch causaliteit omdat de AI een verband zag. Zo werkt statistiek niet :)
Volgens mij heb je iets fundamenteel verkeerd begrepen over AI. Het is niet zo dat die vooroordelen de voorspellingen beter maken. Modellen lijden keihard aan regression-to-the-mean waarbij de outputs gewoon slecht zijn, ook gemeten op de data uit het verleden waar het op ontwikkeld is. Daarnaast verandert de wereld en zijn vooroordelen uit het verleden vaak gewoon niet voorspellend voor de toekomst en dus evenzo een pure verslechtering van de voorspellingen.

Er is niets woke aan incorrecte vooroordelen rechtzetten bij de ontwikkeling van AI-systemen, ze zullen daardoor in alle opzichten gewoon beter werken.
er is geen enkele klant van AI bias free. Het US leger heeft momenteel een strikte gender policy ingevoerd wat in mijn ogen bizar is, maar klanten als Meta of anderen zijn natuurlijk net zo erg.
Ik heb in de tekst niets kunnen lezen wat tot discriminatie kan leiden omdat OpenAI en Amerikaanse ministerie van Defensie gaan samenwerken.
Ik vind, dat het woord "discriminatie" haar betekenis volledig is kwijtgeraakt door het misbruik ervan.
Maar verwacht je dan dat de negatieve effecten vermeld zullen worden? Vooral bij zo een groot bedrag? Misschien dat de visie / redenen in de toekomst veranderen waardoor er problemen komen. Denk aan de ai toeslagenaffaire. Ik verwacht ook niet dat ze daar ooit gezegd zouden hebben dat het meer problemen geeft. Alleen de positieve kant zal belicht zijn. Dat er dus juist minder valse beschuldigingen zouden zijn omdat ai dit beter kan zien.

Dat dus iets niet (op het moment) te lezen is betekent dus niet dat het er niet is of komt (in de toekomst). Elke situatie is anders dus misschien komt het nooit omdat het dit keer goed werkt en de visie / redenen niet veranderd. Maar dit betekent ook niet dat we er geen rekening mee moeten houden met de slechte scenario's.
AI toeslagenaffaire?

Kan je dat toelichten?
@Daoka gaat er hiervan uit dat de toeslagenaffaire veroorzaakt werd door AI. Dat is niet het geval. De toeslagenaffaire was de voorloper van AI, namelijk algoritmes.
https://www.uva.nl/shared...rland-vooroploopt.html?cb
Duizenden ouders werden door de Nederlandse belastingdienst ten onrechte beschuldigd van fraude door discriminerende algoritmes. De gevolgen voor gezinnen waren desastreus.
Algoritmes inderdaad......
Maar dit betekent ook niet dat we er geen rekening mee moeten houden met de slechte scenario's.
Ik vermoed zomaar dat dat een van de redenen is waarom dit een pilotprogramma is.
En uit welke feiten concludeer jij dat? Ben wel benieuwd.
200 miljoen voor AI bij Defensie klinkt als innovatie, maar voelt als de logische volgende stap in de weaponization van big tech. ‘Toegang tot zorg verbeteren’ is een mooi verkooppraatje, maar als je kijkt naar de vage termen als ‘proactieve cyberdefensie’ en ‘kritieke uitdagingen’, weet je: dit gaat vooral om surveillance en strategische automatisering. Weinig transparantie als je het mij vraagt.
Oh? De grootste (Amerikaanse) bedrijven zijn altijd al betrokken geweest bij US Army. IBM, GE, Boeing, BAE, Honeywell... En die lijst gaat maar door...
Natuurlijk. Maar dat waren meestal fysieke producten die zeer betrouwbaar moesten zijn. AI is een heel ander paar mouwen.

Trouwens, big tech had tot enkele jaren terug altijd de boodschap dat hun technologieën niet gewaponized mochten worden, en dat grote samenwerkingen met de wapenindustrie of het leger dus uitgesloten waren.
Maar aangezien AI niet het geld oplevert wat het gekost heeft, lijken ze nu toch overstag te gaan.
> Natuurlijk. Maar dat waren meestal fysieke producten die zeer betrouwbaar moesten zijn. AI is een heel ander paar mouwen.

IBM was al decennia "big tech". GE, Honeywell, LM, Boeing, het is allemaal high tech. Een radarsysteem en wat al niet aan een immersive F35 helm koppelen, is zeer complexe software en die ontwikkeling is ook al decennia gaande.

> Trouwens, big tech had tot enkele jaren terug altijd de boodschap dat hun technologieën niet gewaponized mochten worden, en dat grote samenwerkingen met de wapenindustrie of het leger dus uitgesloten waren.

Andere discussie. Bedrijven liegen. En dat is sinds millennia het geval.


> Maar aangezien AI niet het geld oplevert wat het gekost heeft, lijken ze nu toch overstag te gaan.

Het kost geld en marktaandeel als een andere partij het doet.
Het blijft een uitermate vaag verhaal. Het ingenieurskorps van het Amerikaans leger was vroeger toonaangevend en stuwde een bepaalde mate van technische innovatie. Nu hobbelt het maar mee met big tech die toch andere belangen heeft wat meestal haaks staan op de belangen van het leger.
Voor het vereenvoudigen van administratieve taken heb je geen AI nodig: meer een soepel proces met zo min als mogelijk schakels. En daar zit het hem in: de administratieve rompslomp bij de overheid is tegenwoordig schrikbarend.

Ik zie niet in hoe de LLM van OpenAI iets gaan bijdragen aan oorlogvoering. Wat gaan ze doen, de vijand doodspammen met querys?
"Try to sell me this pen", "it's agentic" ... "how many billions do you need?"
"Minority Report" was geen instructievideo :+
En Nineteen Eighty-Four geen handleiding.
"Minority Report" was geen instructievideo :+
Voor big tech was het een business plan.
Bijzonder dat de VS van big tech altijd eist dat er een gov versie komt, zoals gov cloud en ai, waar zijn veel meer controle op hebben. Maar in Europa nemen onze overheden genoegen met de standaard versie, vaak op advies van big tech.
Uhm, nee. Europese overheden houden zich ook aan Europese wetgeving. Het hosten van bijvoorbeeld gemeente-data in Amerikaanse clouds, op Amerikaans grondgebied, is echt niet aan de orde. Natuurlijk kan er wel eens een rotte appel inzitten, maar dat maakt het niet structureel.
Ik vermoed dat je niet bekend met Gov cloud. Nederlande overheid maakt gebruikt van de standaard cloud en AI diensten. Data staat in EU (of hoort daar te staan) maar het is nog steeds een standaard cloud oplossing.

Amerikaanse overheid eist een eigen cloud omgeving, zoals https://azure.microsoft.c...nfrastructure/government/
Ik heb 5 jaar voor project digitale overheid gewerkt...

GovCloud is mij bekend. En daar gaat het dus over. Helemaal niks kan een US bedrijf stoppen als ze wat met die data willen doen. Het valt gewoon onder de US. Regering USA kan zo opdracht geven aan AWS, zet de boel daar uit. En daar kan Europa niks aan doen.
Tja Amerika kan wel mooi een Gov versie hebben maar dat betekent niet dat het altijd soepeltjes loopt, er waren immers al leaks vanuit de aangepaste Gov versie van Signal. Daarnaast waarom boeit het de Trump administratie nu pas? Zij hebben immers 3 maanden lang een ketamine junk carte blanche op kritieke systemen laten rondneuzen en de gehele social security database laten uitlezen.
Dat heeft niets met een Gov oplossing te maken. Dat heeft te maken met mensen die zich niet houden aan de regels, hun eigen oplossingen gebruiken (zoals Signal) en (per ongeluk) mensen toevoegen aan vergaderingen die daar niet thuis horen.
Tja volgensmij was het vrij duidelijk dat Hegseth het had geleaked, maar de source code was kort daarna ook geleaked. Daarnaast was het niet hun eigen oplossing het was letterlijk een Signal clone maar dan aangepast door de Amerikaanse overheid....

https://www.reddit.com/r/...or_the_unofficial_signal/
En weer een stapje dichterbij de grote rode knop die het probleem mensheid op gaat lossen.
Thanos zou er jaloers op zijn.
dus skynet of legion scenario word mogelijk aangezien al een paar keer voor is gekomen dat gpt loog tegen onderzoekers
Exact wat ik dacht: de basis voor Skynet is hier gelegd.
Een karige $200 miljoen?

With all due respect, gepruts in de marge tov de bedragen die naar toko' s als Palantir en Anduril gaan.
Of in de AI zelf als ontwerp toko van 55 man ook 6.5 miljard ophaalt...
Zelfs een AI weet nog begrijpelijkere zinnen te formuleren.
Wanneer huawei in china of kaspersky in russia een soortgelijk contract aangaan met hun overheid zal er het verwijt zijn van invloed van het leger en gevaar voor inzage in data van andere gebruikers plus een oproep voor sancties.


Om te kunnen reageren moet je ingelogd zijn