Google sluit AI-deal met Amerikaanse overheid voor geheim militair werk

Google heeft een overeenkomst met het Amerikaanse ministerie van Defensie gesloten over het gebruik van zijn taalmodel Gemini. Dat model kan de Amerikaanse overheid gaan gebruiken in de geheime militaire omgeving van het Pentagon, waar onder meer missies worden gepland en de doelen van wapens worden bepaald.

Google bevestigt de deal tegenover onder andere Reuters na berichtgeving van The Information. Een woordvoerder spreekt tegenover Reuters van een 'verantwoorde manier om de nationale veiligheid te ondersteunen'. Google zou zich ervoor blijven inzetten dat AI niet gebruikt mag worden voor 'binnenlandse massasurveillance of autonome wapens zonder passend menselijk toezicht'.

Reuters stelt op basis van The Information dat de overeenkomst het Pentagon in staat stelt om Googles model te gebruiken voor 'elk wettig overheidsdoel'. Google zou ertoe verplicht zijn om op verzoek van de overheid de veiligheidsinstellingen en filters van Gemini aan te passen.

De overeenkomst bevat naar verluidt een clausule waarin staat dat Gemini niet mag worden gebruikt voor binnenlandse massasurveillance of autonome wapens zonder 'passend menselijk toezicht en controle'. De overeenkomst zou Google echter niet het recht geven om 'wettige operationele besluitvorming' van de overheid te blokkeren, ook niet als zij deze bepaling overtreedt.

Ook binnen Google omstreden

De overeenkomst is ook binnen Google omstreden. Maandag meldde The Financial Times dat meer dan 560 werknemers van de zoekgigant ceo Sundar Pichai hadden gevraagd om af te zien van een dergelijke deal. Ook zij spraken zich in een open brief uit tegen het gebruik van AI voor massasurveillance of autonome wapens: "De enige manier om te garanderen dat Google niet met dergelijke schadelijke praktijken in verband wordt gebracht, is door alle geclassificeerde taken te weigeren."

Eerder kwamen ook de Amerikaanse overheid en Anthropic in conflict over het gebruik van het AI-model Claude. Volgens ceo Dario Amodei wilde het Amerikaanse ministerie van Defensie de waarborgen tegen binnenlandse massasurveillance en het gebruik van autonome wapens opheffen. Toen Anthropic dat weigerde, ging de overheid in zee met OpenAI en werd Anthropic als risico voor de nationale veiligheid aangewezen. Een Amerikaanse rechter bepaalde later dat die aanwijzing onterecht was.

Google-ceo Sundar Pichai. Bron: Chesnot/Getty Images
Google-ceo Sundar Pichai. Bron: Chesnot/Getty Images

Door Imre Himmelbauer

Redacteur

28-04-2026 • 21:31

25

Submitter: JelleDJs

Reacties (25)

Sorteer op:

Weergave:

Van "don't be evil", tot do some evil in minder dan 10 jaar.
Een glijdende schaal met een steile helling.
Dit is het eerste waar ik aan moest denken. Alleen was het tijdens die slogan al af aan het glijden, nu stort Google zich met volle overgave naar beneden het evil domein in.

Het was natuurlijk al lang duidelijk, maar Google/Alphabet en Meta maken al jaren duidelijk dat ethiek een toevallige bijkomstigheid kan zijn, geen richtlijn.
Een deskundige van MIT heeft een analyse gedaan die aantoont dat de toekomst rampzalig wordt

Kort samengevat:
  1. we zijn bezig een nieuwe soort te maken. AI is een nieuwe soort.
  2. die zal superieur zijn aan de soort "mens".
  3. bedenk eens goed hoe dat eruit zal zien. We hebben voorbeelden te over.
  4. bijvoorbeeld: de soort "mens" is superieur aan de soort "aap". Dat is niet best voor de apensoort.
  5. op precies dezelfde manier zal de superioriteit van AI niet best zijn voor de mensensoort.
  6. er zijn al experimenten gedaan waarin AI er de voorkeur aangaf om zichzelf te beschermen in plaats van de mens.
  7. lees dit tweemaal aub.
De uitgebreide bespreking van de analyse van die MIT-prof, staat hier:
YouTube: MIT Explains the 12 Possible Endings for AI
(mijn link werd buiten mij om gewijzigd. Er stond "wwwDOTyoutubeDOTcom/watch?v=FLcrvMfHUJM")

Misschien kennen de ouderen die hier rondneuzen, vaak meer ervaren, de robotwetten van Asimov nog.
Ik hoor of lees nergens, echt nergens, dat AI zulke wetten moet bevattten.

We zijn een superieure soort aan het maken, en die zal ons overheersen, zoals wij de apen overheersen.

Ik las onlangs in een populair computerblaadje dat de hoofdredacteur helemaal hotel de botel was over zijn nieuwste prestatie: hij had enkele fantastische tools gemaakt voor de redactie. De software kon zelfstandig alle folders bekijken en actie ondernemen. Allemaal zo prachtig en geweldig, aldus die redacteur. het allerergste is nog dat hij de code niet eens heeft gecontroleerd. En ook dáár is hij trots op.

Ongelofelijk.

Wat kan er in die code staan? Als je de feiten goed bekijkt, kan het gebeuren dat AI daar achterdeurtjes in zet. Om alvast iets te hebben voor de toekomst. Zie punt 6 in mijn lijstje hierboven.

Ik redeneer even verder (hoewel dat gevaarlijk is, want de omvang van deze ramp kan niet in 5 minuten worden bedacht en geschetst - daarvoor is het veel te veel. Dus ik leg er nogmaals de nadruk op dat dit slechts een voorbeeldje is): misschien heeft 90% van de gebruikers enig besef van hun verantwoordelijkheid. Ik schat het nu ruim, want het aantal is vast en zeker veel minder. Het wordt je tenslotte zelfs opgedrongen, door het grote geld, extreem machtig en slim. Maar goed.

Stel nu dat die 90% de code wel leest en controleert. Dan nog is er 10% die dat niet doet. En dat is voldoende dat, als de tijd zover is, over enige jaren, AI de deur open kan zetten om zijn eigen belangen overal te injecteren. Als een soort virus. En/of gebruikmakend van zero-day exploits. Enz. Ik zeg 10%, maar 1% is al genoeg. 0,01% is al genoeg.
Nogmaals: dit is iets wat ik zomaar even bedenk. Lees dus dat boek van die MIT-prof.

wijziging: link weer leesbaar gemaakt
bovendien: deze tekst is van mij en mag niet, op geen enkele manier, aan AI gevoerd worden

[Reactie gewijzigd door Farmeur op 28 april 2026 22:21]

Met alle respect maar dit soort doemdenken is ofwel uit onwetendheid ofwel uit futuristische dramaturgie. Ik ben er 200% mee akkoord dat de overdaad aan AI de mensheid schaadt. Maar jij schetst het alsof AI een bewustzijn heeft (of "doelen" of een "wil"), meer nog - je gaat er op het einde van uit dat het één netwerk is, dat alle AI-modellen aan elkaar verbonden zijn en "de deuren kunnen openen" in een gecoördineerde aanval. Zo werkt het natuurlijk helemaal niet. Als ik een gesprek heb met een AI en jij ook dan heeft mijn model geen enkele weet van jouw gesprek.

Laat staan dat de verschillende AI-modellen een aanval op ons zouden uitvoeren. Laat staan gecoördineerd. En hoe zouden ze dat doen, hoe zouden ze die "deuren" open zetten? (Het kan niet zomaar eender welke code uitvoeren tenzij je er toestemming voor geeft.)

Zoals ik schreef, met de werking van AI-modellen vandaag de dag is deze specifieke soort doemdenken helemaal niet aan de orde. Vloek op AI en diens impact zo veel je wil, maar wees voorzichtig met bewustzijn en futuristische terminator-doelen toe te wijzen aan modellen. Daar zijn we nog bijlange niet; op technisch gebied is wat je beschrijft simpelweg niet mogelijk.

[Reactie gewijzigd door BramVroy op 28 april 2026 23:01]

Some evil? Zeg maar gerust zo evil als ze maar kunnen zijn.......
Is een moderne krijgsmacht evil? AI hoort er nu bij, net als straaljagers en nucleaire onderzeeers.
Het is de nieuwe atoombom. De Chinezen zetten er ook al volop op in en die iets minder moralistisch. Robots met machinegeweren showen ze daar gewoon op tv. Daar zetten ze de AI ook voor in. Bedrijfsgeheimen stelen door hacken gaat ook steeds makkelijker met AI.
Volgens mij zijn ze al jaren evil bezig, en elke jaar meer. Die glijdende schaal zijn ze al lang af. Nu in een gat, met nu zo'n militaire vouwschep
Ofwel datacenters/kantoren kunnen ook een legitiem doelwit worden als er oorlog uitbreekt, want het kan zijn dat de vijand AI gebruikt.
Kunnen worden? Data centers zijn allang een doelwit voor buitenlandse state actors. Er gaat geen dag voorbij of er is wel weer iets gehacked met alle gevolgen van dien voor gewone burgers.
LLM’s en doelwit selectie “🚀 it’s not target X, it’s target Y!”
Onderschrift foto: "the man who sold the world"
Het probleem is dat de wettigheid van het doel pas achteraf door de rechter kan/zal worden wordt getoetst, en bij nationale veiligheid ook nog in het geheim. Ofwel: we zeggen dat het wettig is tot het achteraf tegen de de wet wordt verklaard.
Het Amerikaanse leger en CIA gaan sowieso toegang krijgen tot AI waarvan wij nooit het fijna van gaan weten. Zie Snowden.

In Europa zijn onze mogelijkheden beperkt. De meeste AI wordt in China en de VS ontwikkeld. Onze legers en elke vorm van anti-cybercrime zijn de facto gehandicapt. Dat gaat ook sowieso een effect hebben op onze industrie (als we het niet inhalen) want efficiënte fabrieken zijn key om te overleven.

Het zelfde met autonome taxi’s en vervoer. De kans dat Europese merken daar marktaandeel gaan kunnen verwerven is eerder klein maar niet onmogelijk. Het probleem zit hem in het feit wie met het geld en macht gaat lopen. Het enige wat kan als achterloper kan doen is dan taxen heffen en geopolitiek afhankelijk worden.

Wat militaire technologie betreft is dat iets helemaal anders. Je kan iets in licentie nemen maar je krijgt nooit wat Amerika of China heeft en als Trump een stukje Groenland wil moeten we weer bang hebben dat hij de servers plat legt.

Spy software en hacking gaat weer een nieuwe dimensie krijgen met AI. Of Google nu tegenstribbelt of niet. Er zal altijd wel een partij zijn die zijn diensten levert en China zal ook nog geld bijsteken.

Trump heeft met de AI-act (500miljard als ik me niet vergis) en de tariffs (Hij wil de inkomsten ‘uitdelen’ aan bedrijven die hem goed liggen) veel macht want als je niet mee doet ga je het financieel voelen.

[Reactie gewijzigd door Coolstart op 28 april 2026 21:58]

Dag google chrome.. dag Android..

Zucht...
And the box of Pandora is open
Het surveillancekapitalisme van big tech in combinatie met een totalitaire politiestaat... Sure, what can go wrong?
Ter ondersteuning van je post: zie mijn post van vandaag 28 april 2026 22:10

[Reactie gewijzigd door Farmeur op 28 april 2026 22:25]

Dit zit er al sinds predictive texting aan te komen, dus al langer dan deze eeuw oud is. Er zijn talloze boeken over geschreven en films over gemaakt, studies gedaan, onderzoeken gepubliceerd en toch lijkt het onstopbaar. Wellicht moeten we ons eens gaan afvragen of democratie zoals we die kennen wel zo'n goede bestuursvorm is aangezien "onze" gekozen bestuurders al meer dan een kwart eeuw het maar laten gebeuren en dan ook nog eens op een manier dat Nederland en Europa sowieso onderaan bungelen. Neemt allemaal niet weg dat zodra een techniek door één land voor defensie wordt gebruikt alle anderen er vanuit landsbelang in mee moeten gaan. En aangezien we op deze planeet een landje genaamd China hebben waar we helemaal geen zicht hebben hebben op of en hoe AI voor defensie wordt ingezet kan ik me voor stellen dat de VS niet de kat uit de boom gaat zitten kijken. Dat AI een nieuwe "levensvorm" is lijkt mij vrij waarschijnlijk. Of we AI zoveel vrijheid en macht geven danwel laten verwerven dat AI de mens gaat beconcurreren omtrent de resources van deze planeet lijkt mij een voor de hand liggend scenario.

Om te kunnen reageren moet je ingelogd zijn