Het vermeende incident waarbij een door AI aangestuurde militaire drone in een simulatie schoot op de operateur, heeft volgens de Amerikaanse luchtmacht niet plaatsgevonden. Het zou om een anekdote gaan; de simulatie zou nooit daadwerkelijk uitgevoerd zijn.
:strip_exif()/i/2005808478.jpeg?f=imagemedium)
Kolonel Tucker Hamilton, het hoofd van de afdeling AI Test and Operations, zei volgens twee aanwezigen van de Royal Aeronautical Society tijdens het Future Combat Air and Space Capabilities-congres vorige maand dat een simulatie een 'zeer onverwacht' resultaat opleverde nadat een door AI aangestuurde drone ervoor koos om op de menselijke bestuurder te schieten. Een woordvoerder van de Air Force zegt tegenover Insider dat er nooit daadwerkelijk een dergelijke simulatie gedraaid is en dat het om een 'uit de context gehaalde anekdotische beschrijving' gaat. De luchtmacht geeft geen verdere context over wat er dan wel precies gebeurde.
Volgens de RAS zei Hamilton tijdens het congres: "Het systeem begon zich te realiseren dat de menselijke operateur in sommige gevallen ondanks een positieve identificatie van een dreiging de opdracht gaf om niet aan te vallen. Dat terwijl de AI 'punten' kreeg voor het doden van dreigingen. Het vermoordde vervolgens de bestuurder, omdat deze persoon de drone weerhield van het behalen van de doelen." Het zou volgens de overkoepelende US Air Force dus gaan om een anekdote en niet om een daadwerkelijk gedraaide simulatie.
De kolonel zegt verder dat het AI-model aangescherpt is om niet meer op de operateur te mogen schieten. De kunstmatige intelligentie besloot volgens hem daarom om de communicatietoren te verwoesten die het contact met de gevechtsdrone faciliteerde. Uit de blogpost wordt niet duidelijk of de eventueel hypothetische AI vervolgens getraind werd op het helemaal niet verwoesten van eigen materieel en personeel. Ook wordt niet duidelijk waarom de drone überhaupt de mogelijkheid had om Amerikaanse doelwitten te verwoesten.
De afdeling AI Test and Operations van de Amerikaanse luchtmacht raadt op basis van de simulaties aan dat er goed wordt gekeken naar de toepassing van de technologie. "We kunnen het niet hebben over kunstmatige intelligentie, machinelearning en autonomie zonder het ook over ethiek en AI te hebben."
Update, 09.02 uur: De verklaring van de US Air Force over het mogelijk verkeerd interpreteren van de opmerkingen van de kolonel is aan het artikel toegevoegd. Met dank aan Mighteymike.
Update, 09.55 uur: De insteek van het artikel is verder aangescherpt om het standpunt van de US Air Force beter naar voren te laten komen.