Google heeft een overeenkomst met het Amerikaanse ministerie van Defensie gesloten over het gebruik van zijn taalmodel Gemini. Dat model kan de Amerikaanse overheid gaan gebruiken in de geheime militaire omgeving van het Pentagon, waar onder meer missies worden gepland en de doelen van wapens worden bepaald.
Google bevestigt de deal tegenover onder andere Reuters na berichtgeving van The Information. Een woordvoerder spreekt tegenover Reuters van een 'verantwoorde manier om de nationale veiligheid te ondersteunen'. Google zou zich ervoor blijven inzetten dat AI niet gebruikt mag worden voor 'binnenlandse massasurveillance of autonome wapens zonder passend menselijk toezicht'.
Reuters stelt op basis van The Information dat de overeenkomst het Pentagon in staat stelt om Googles model te gebruiken voor 'elk wettig overheidsdoel'. Google zou ertoe verplicht zijn om op verzoek van de overheid de veiligheidsinstellingen en filters van Gemini aan te passen.
De overeenkomst bevat naar verluidt een clausule waarin staat dat Gemini niet mag worden gebruikt voor binnenlandse massasurveillance of autonome wapens zonder 'passend menselijk toezicht en controle'. De overeenkomst zou Google echter niet het recht geven om 'wettige operationele besluitvorming' van de overheid te blokkeren, ook niet als zij deze bepaling overtreedt.
Ook binnen Google omstreden
De overeenkomst is ook binnen Google omstreden. Maandag meldde The Financial Times dat meer dan 560 werknemers van de zoekgigant ceo Sundar Pichai hadden gevraagd om af te zien van een dergelijke deal. Ook zij spraken zich in een open brief uit tegen het gebruik van AI voor massasurveillance of autonome wapens: "De enige manier om te garanderen dat Google niet met dergelijke schadelijke praktijken in verband wordt gebracht, is door alle geclassificeerde taken te weigeren."
Eerder kwamen ook de Amerikaanse overheid en Anthropic in conflict over het gebruik van het AI-model Claude. Volgens ceo Dario Amodei wilde het Amerikaanse ministerie van Defensie de waarborgen tegen binnenlandse massasurveillance en het gebruik van autonome wapens opheffen. Toen Anthropic dat weigerde, ging de overheid in zee met OpenAI en werd Anthropic als risico voor de nationale veiligheid aangewezen. Een Amerikaanse rechter bepaalde later dat die aanwijzing onterecht was.