Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
×

Help Tweakers verbeteren

Ben je op zoek naar een baan in de IT? Help ons dan mee de website van Tweakers te verbeteren en geef je op voor ons onderzoek in Amsterdam. Het duurt een uurtje en als dank ontvang je een VVV bon van 40 Euro. Reis-/parkeerkosten worden ook vergoed. We sturen je een bericht als je geselecteerd bent.

Aanmelden

Regering VK: mensen houden altijd controle over autonome wapensystemen

De regering van het Verenigd Koninkrijk heeft bij monde van minister Mark Lancaster van Defensie gezegd dat de autonome wapensystemen van het land altijd zullen worden bediend door mensen van vlees en bloed, en dat dus niet de robots de belangrijke beslissingen zullen nemen.

De inhoud van deze verklaring is onderdeel van een nieuwe doctrine, waarin het Verenigd Koninkrijk onderstreept dat 'killer robots' altijd gegarandeerd onder menselijke controle blijven staan. De regering stelt overigens dat het VK geen volledig autonoom opererende wapensystemen heeft en niet de intentie heeft die te ontwikkelen.

Deze verklaring van de minister komt op het moment dat het Britse defensiebedrijf British Aerospace bekendmaakte dat het plannen heeft om een onbemande gerobotiseerde tank te ontwikkelen die autonoom kan opereren, waarbij menselijke soldaten nog wel op afstand aan de knoppen zitten. Dit concept, met de naam Ironclad, gebruikt systemen om zelf vijanden van vrienden te kunnen onderscheiden. Volgens het bedrijf zullen er bij de inzet van dit wapensysteem, mocht het ooit daadwerkelijk gebouwd worden, heel snel tactische beslissingen genomen moeten worden; mede daardoor is de kans aanwezig dat een deel van de controle wordt overgedragen aan de computersystemen.

In augustus hebben bestuurders van bedrijven die zich bezighouden met kunstmatige intelligentie en robotica, een open brief gestuurd aan de Verenigde Naties. Daarin waarschuwen ze voor de ontwikkeling van autonome wapens en vragen ze om actie. Onder de ceo's zijn Elon Musk, bekend van Tesla en SpaceX, en Mustafa Suleyman van Googles DeepMind-project, dat zich richt op kunstmatige intelligentie. Met de open brief willen ze 'een wapenwedloop voorkomen, burgers tegen deze technieken beschermen en de destabiliserende effecten van deze technologie voorkomen'.

Dit was niet de eerste keer dat de VN een waarschuwing ontving over dit onderwerp. In 2015 stelden Human Rights Watch en Harvard Law School een rapport op waarin zij waarschuwden voor zogenaamde killer robots. Ook in 2009 riep een commissie op om het gebruik van militaire robots te beperken.

Door Joris Jansen

Nieuwsredacteur

12-09-2017 • 16:10

74 Linkedin Google+

Reacties (74)

Wijzig sortering
Autonome wapensystemen zijn er al lang, wellicht niet in de hoge gradatie zoals AI maar ze zijn er al lang.

Een Goalkeeper systeem die in full-auto zelf bepaald of een inkomend projectiel een bedreiging is of niet, zelf uitrekent op welke afstand een Pk (Probability of Kill) van > 98% wordt gehaald en zelf besluit op dat moment de trekker over te halen, zelfs als dit projectiel een vliegtuig is die door een mens bestuurd wordt.

Een AIM120 AMRAAM die, na lanceren, zelf besluit niet de decoy te volgen maar achter het vliegtuig aan te gaan die in de radar-cone zit, nadat de raket zelf met IFF zichzelf er van overtuigd heeft dat het geen of foute IFF code terug heeft gezonden.

Het AEGIS wapen- en commandosysteem wat zelf bepaald welk doel een bedreiging vormt en wat zelf bepaald wanneer welk wapensysteem wordt ingezet.

Met onze huidige technieken kunnen we, na een flinke investering, onze eigen grootste fregatten zelfstandig laten varen, zonder mensen aan boord en zelf laten bepalen wat een bedreiging vormt en hoe te handelen in geval van geweld. Tuurlijk, kost een berg, maar het kan nu al.

In hoeverre is dit al dan niet autonoom? Natuurlijk zit er een mens die het systeem initieel ooit aangezet heeft en kan ingrijpen als deze het niet eens is met het oordeel van het systeem, maar eenmaal aangezet en met rust gelaten, doet het gewoon wat het moet doen, op z'n eigen, autonoom.

[Reactie gewijzigd door Looney11 op 12 september 2017 16:59]

Een Goalkeeper systeem die in full-auto zelf bepaald of een inkomend projectiel een bedreiging is of niet,
Onjuist voorbeeld en het bewijst het tegendeel van wat je wilt beweren.

Bij de Goalkeeper moet de operator het doelwit op de radar markeren als een bedreiging, doet de Goalkeeper dus niet. Het is een semi automatisch wapen systeem. Het semi automatische bestaat hier uit het volgen van het doelwit en het moment dat er geschoten word. Op geen enkel moment kan de Goalkeeper zelf besluiten iets aan te vallen. En semi automatische wapens waarbij het doel gevolgd kan worden kennen we natuurlijk als sinds 1930.

Een autonoom systeem maakt zelf de keuze wat een doelwit is. Volgens velen een stap te ver. Behalve zeer domme, zoals landmijnen, zijn er daarvan nog niet veel. Volgens Janes is er zelfs nog geen enkel automation system operationeel. En Janes weet er wel wat van.
Volgens mij is dat al tijden niet meer zo en is sinds de doorontwikkeling een autonoom systeem gecreŽerd dat enkel in de 'juiste modus' gezet hoeft te worden. De operator kan handmatig doelen markeren, maar de Goalkeeper ook op automatisch zetten.

Beschrijving op Wikipedia:
"Goalkeeper is a Dutch close-in weapon system (CIWS) introduced in 1979. It is an autonomous and completely automatic weapon system for short-range defence of ships against highly maneuverable missiles, aircraft and fast maneuvering surface vessels. Once activated the system automatically undertakes the entire air defense process from surveillance and detection to destruction, including selection of the next priority target."

Zie ook de pdf van Thales zelf.

[Reactie gewijzigd door mac1987 op 12 september 2017 19:38]

Nogmaals, het enige wat Goalkeeper doet is het zo efficiŽnt mogelijk uit de lucht schieten van mogelijke gevaarlijke objecten. De enige echte autonome beslissing is de beslissing OF die objecten uit de lucht geschoten moeten worden. Die beslissing zal anders zijn als het schip meedoet aan de show bij de havendagen, bij een levensechte oefening, een onverwachte ontmoeting midden op zee of tijdens een serieus conflict met een echte vijand.

En Goalkeeper voert die beslissing heel braafjes uit, geoptimaliseerd door slimme technici die allerlei sluwe algoritmes hebben bedacht om zo efficiŽnt, snel en zeker mogelijk alle mogelijke vliegende dreigingen uit de lucht te schieten. Zoals een goed hulpmiddel dat ook hoort te doen. Daar is weinig echt autonooms aan.
De enige echte autonome beslissing is de beslissing OF die objecten uit de lucht geschoten moeten worden.
Laat dat nou precies het punt zijn: er wordt autonoom besloten of object X dood moet of niet. Dat is exact wat we nou juist niet willen; dat moet een mens beslissen.

Zodra een mens heeft besloten "Object X moet opgeblazen worden" is het daarna op zich best acceptabel dat het ding zelf uitzoekt hoe (welke rotatie, welke elevatie, op welk moment, hoeveel kogels, ...) dat doel het veiligst / efficiŽntst / snelst neergeschoten kan worden.
Landmijnen (en zeemijnen?) zijn een goed voorbeeld. Die zijn zo schadelijk en maken na vele jaren nog zoveel onschuldige slachtoffers, juist doordat ze autonoom zijn. Hun legger kan ze niet meer stoppen, nadat ze eenmaal gelegd zijn.
Verdiep je eens ergens in voordat je weer betweterig nonsense loopt te plempen.

(het krijgt nog een +1 ook...)
Dit zijn in geen enkel opzicht autonome systemen, het zijn systemen die door slimme technici zo zijn gemaakt dat ze een zo hoog mogelijk rendement halen. De echte 'autonome' beslissing is of het wapensysteem wordt ingezet of niet. Als de motor van jouw schip met Goalkeeper uitvalt en je daardoor ongewild de territoriale wateren van Rusland in dobbert is het heel verstandig om het 'autonome' Goalkeeper systeem niet te laten beslissen of de Russische straaljagers die een kijkje komen nemen uit de lucht geschoten moeten worden. En gelukkig is de Goalkeeper op geen enkele manier zo 'autonoom' dat hij dit zelf (dus niet) kan beslissen, het systemen is alleen heel geavanceerd.

Hetzelfde geldt voor je 'autonome' grootste fregat. Die kan op geen enkele manier bepalen of iets een bedreiging is of niet, of dat rubberbootje met 5 mensen een groepje bootvluchtelingen is of een Noord-Koraans zelfmoordcommando met 500 kilo semtex onder de boeg. En hoe daar op te reageren hangt daarbij ook nog eens af van allerlei politieke omstandigheden, publieke opinie en zelfs of er toevallig een filmende cameraploeg in de buurt is... Dan heb je bergen meer informatie en interpretatie nodig dan zelfs het meest geavanceerde fregat ooit zelf bij elkaar kan scharrelen.

Dus nee, voor autonome wapensystemen en andere binnenkort de mensheid overheersende zelflerende AI systemen hoeven we niet bang te zijn zolang de mensen die ongelofelijke zeepbel van wat die systemen allemaal wel niet zouden kunnen (spoiler: ontzettend weinig zelfs maar miniem intelligents) blijven doorprikken. En die systemen laten waar ze horen: bij de handige hulpmiddeltjes.

[Reactie gewijzigd door CharlesND op 12 september 2017 17:56]

Die kan op geen enkele manier bepalen of iets een bedreiging is of niet
Oh jawel: "er vliegt daar een object, het komt recht op me af en slaat over 4,2 seconde in --> dat is een bedreiging" kan volautomatisch worden uitgezocht. Dat niet elke bedreiging automatisch herkend kan worden betekent nog niet dat geen enkele bedreiging te herkennen is.
Dus nee, voor autonome wapensystemen en andere binnenkort de mensheid overheersende zelflerende AI systemen hoeven we niet bang te zijn zolang de mensen die ongelofelijke zeepbel van wat die systemen allemaal wel niet zouden kunnen (spoiler: ontzettend weinig zelfs maar miniem intelligents) blijven doorprikken.
Wat die systemen kunnen is een trekker overhalen en dodelijk geweld gebruiken; dat zou ik niet "ontzettend weinig" noemen.
En die systemen laten waar ze horen: bij de handige hulpmiddeltjes.
Ehm, dat is dus precies waar het artikel over gaat...
Wat de meeste bedoelen is dat die modus niet 100% van de tijd aan staat. Maar expliciet aangezet moet worden met de "shit hits the fan right now" knop.

Net als de combi van apar, smart-l en essm raketten die op een zeven provincien klasse automatisch kunnen werken.

Die modi van de wapen systemen zijn vooral handig in een pearl harbor scenario waar alles dat !schip is, een doelwit is.

Druk op de knop, sit back, relax en even wachten tot het luik weer open kan.
CIWS is volledig autonoom ( een van de systemen waar Looney het over heeft)
Goalkeeper is a Dutch close-in weapon system (CIWS) introduced in 1979. It is an autonomous and completely automatic weapon system for short-range defence of ships against highly maneuverable missiles, aircraft and fast maneuvering surface vessels. Once activated the system automatically undertakes the entire air defense process from surveillance and detection to destruction, including selection of the next priority target.
https://en.wikipedia.org/wiki/Goalkeeper_CIWS
Dan zijn het dus geen "autonome" wapensystemen.
Een autonoom apparaat dat ook acties doet op basis van input, is niet autonoom? Zie het niet als een radiografisch bestuurbare auto, maar een autonoom rijdende auto waarbij je zelf ook nog zeggenschap hebt. Het blijft natuurlijk autonoom.
Ik ken geen enkele definitie van "autonoom" waarbij een andere entiteit alsnog zeggenschap heeft.

De grap van autonoom is juist dat het autonoom is.
Een beetje flauw. Dus een mens die autonoom opereert, maar af en toe (onder werktijd) instructies van een ander persoon opvolgt, is dus niet als autonoom wezen te classificeren?

Vertaalt naar de post van Eokken: een systeem dat zowel een autonome modus als een handmatige modus heeft is volgens jou dus niet autonoom?
En als ze de handmatige modus nooit aanzetten?
Dat soort dingen zijn eigenlijk een limiet aan taal, vind het altijd grappig dat hoe wij mensen denken en dat omzetten in taal op een gegeven moment niet meer logisch is, maar wij nog op die manier denken vanwege de taal. juist omdat taal zo relatief is zorgt het voor veel onduidelijkheid, iedereen heeft er andere associaties mee.
Er zijn zeker limieten aan taal. In dit geval echter is er een duidelijke(re) definite van het woord autonoom. Vandaar de onenigheid hier volgens mij.

Wikipedia legt het goed uit. Autonomie betekent, zelf keuzes makend, en een goalkeeper doet dat tot op zekere hoogte.
Autonomie is niet direct totale autonomie, oftewel zelfvoorzienend.

https://nl.m.wikipedia.org/wiki/Autonomie

Ik vermoed dat er veel mensen denken dat autonomie gelijk is aan zelfvoorzienend. Dat is niet correct als ik Wikipedia mag geloven en ook mijn eigen begrip van de term.
maar dan kom je weer bij de vraag van wat is een keuze. moet een keuze een vrije keuze zijn? wat is een vrije keuze? een if else statement kan je ook als een keuze zien, er zijn immers twee opties waar het systeem dan uit gaat kiezen.
Er staat duidelijk in de titel dat het om een autonoom wapensysteem gaat.

Nou zal ik wel een mierenneuker lijken, maar imho zou iets wat autonoom genoemd wordt autonoom moeten werken.

Anders had er moeten staan: wapensysteem kan op afstand bestuurd worden maar kan ook zonder directe tussenkomst zelfstandig taakjes uitvoeren.

In dat geval is echter geen sprake van een autonoom systeem.

Ik vind het jammer dat de taal zo verloedert.
Dat heeft niks te maken met het verloederen van taal; mensen die het woord "letterlijk" gebruiken als ze "figuurlijk" bedoelen ("ik stond vanochtend letterlijk duizend km in de file"), het verschil tussen "kennen" en "kunnen" niet weten ("ik ken foutloos Nederlands spreken"), dŠt is het verloederen van de taal.

Waar het hier om gaat is hoe natuurlijke taal eigenlijk altijd werkt: de aanname dat de lezer (of luisteraar) een klein beetje meedenkt en niet alles 100% letterlijk neemt. Met andere woorden, er staat "autonoom systeem" omdat het echt ontzettend vervelend wordt om het artikel te moeten lezen als overal iets staat in de trant van "een systeem dat is ontworpen om een groot deel van de tijd in een grotendeels autonome modus te draaien, waarbij weliswaar een handmatige override mogelijk is, maar als alles naar behoren werkt er uiteindelijk geen daadwerkelijke menselijke tussenkomst plaatsvindt".

Want laten we wel wezen, volgens jouw definitie van een autonoom systeem zou het geen aan/uit-knop mogen hebben (dat is immers een beslissing van buitenaf). En als ik echt vervelend wil zijn kan ik zelfs zeggen dat geen enkel systeem aan jouw extreem strikte definitie voldoet, omdat elk systeem vroeg of laat door zijn brandstof / accu heen is en daardoor (of simpelweg door slijtage) uitvalt.
Dat is dus mijn punt. Het IS geen autonoom systeem, dus noem het dan ook niet zo.

Jij zegt dat de beschrijving van het systeem anders te lang wordt. Pak dan een afkorting van een beschrijving die de lading wel dekt. Anders weten we van elkaar niet meer waar we het over hebben.

Ik ken nog wel meer voorbeelden die voor spraakverwarring zorgen.

- Slimme meter: dom meetinstrument met digitale bedrade en draadloze uitgang.
- Ombuigen, bezuinigen: het verhogen van bestaande belastingen en/of het introduceren van nieuwe belastingen.

Niet doen imho.
Toch wel, want ze kunnen het wel, alleen laten we het niet toe.
Haha. Maar als de AI zichzelf verder ontwikkeld valt het niet meer te stoppen! Kritiek punt bereikt!
Mensen kijken teveel naar films. Kritiek punt. ;)
Natuurlijk staat dat nog een poosje niet op de optielijst, maar wanneer er software komt die zichzelf naar eigen inzicht kan verbeteren (en het is naÔf om te denken dat dat nooit gaat gebeuren) komen we toch voor een aantal belangrijke keuzes te staan. Nog geen tijd voor het graven van schuilkelders, maar wel tijd om er eens goed over na te denken :)
Ik vind het alleen maar mooi, veel dommer dan de huidige maatschappij kan het toch niet, rock bottom hebben we al bereikt, nu kan het alleen maar nog omhoog.
tsja, en hoeveel dingen uit jaren 60-70 films hebben we nu niet daadwerkelijk ontwikkeld en in onze broekzak/huis liggen?
Een AI dat zichzelf ontwikkelt tot een terminator is echt een miljard keer zo complex als iets dat een tank kan besturen.
Jij gaat toch ook voor sommige belangrijke dingen naar je manager toe voor akkoord? ;) In theorie kan het systeem zich zelf positioneren en in de toekomst zelfs zijn strategie uitwerken. Wanneer de bevelhebbers dan niet akkoord gaan dan moet er niets gebeuren.

Alleen een kwestie van tijd totdat de robots het systeem net zo gaan misbruiken als ons mensen: Gigantisch groot verzoek opsturen ter goedkeuring, nadat er al een paar 1000 keer een akkoord is gegeven omdat het systeem gewoon prima werk levert, en dan onderaan het regeltjes "kill all humans is true?" toevoegen. AKKOORD. :D
Managers zijn een beetje anno 2000.

[Reactie gewijzigd door GoT.Typhoon op 12 september 2017 17:38]

Totdat men de logica omdraait: enkel als er niets moet gebeuren moet men ingrijpen. En dan heb je net op dat moment een communicatiestoornis.
Ik noem mezelf dan ook niet "autonoom" op het werk. ;)
Het zou beter zijn als er een verbod komt op het ontwikkelen van autonome wapensystemen. Hoewel dat dan niet garandeert dat het niet gemaakt wordt is de kans hoop ik wel kleiner.
Ik ben bang dat een verbod inderdaad niet het gewenste effect zal hebben. Neem als voorbeeld hoe de USA het Internationaal Gerechtshof in Den Haag gewoonweg niet erkend. Er is geen wereldwijd overkoepelende organisatie welke door alle landen geŽerd wordt en dus dat verbod effectief kan maken.
Hoe wil je dit verbieden? Het enige effect wat dit heeft is dat de vijand superieure wapens heeft op een gegeven moment. Dan kom je aan met je kanonnenvoer dat handmatige wapens bediend en de vijand vaagt iedereen weg zonder zelf maar 1 slachtoffer te hebben.
Hoe wil je dit verbieden?
Op dezelfde manier waarop een heleboel andere wapensystemen nu ook al verboden zijn:
  • biologische wapens
  • chemische wapens
  • landmijnen
  • clusterbommen
(dit is uit mijn hoofd, dus mogelijk niet 100% correct en vrijwel zeker niet 100% volledig, maar het zou het idee duidelijk moeten maken)
Leuk verhaal, totdat iemand de boel hackt, een virus inbrengt en uiteindelijk wachten we tot ai zelf beslissingen gaat nemen.
Leuk verhaal, maar een beetje off-topic. Het gaat hier om de AI die de makers zelf implementeren en niet over de softwarebeveiliging van een tank. Dat is een ander en veel breder gedragen probleem, namelijk dat een hele hoop IoT apparaten beveiligingsfouten bevatten. Echter neem ik aan dat als ze een 'slimme' tank gaan bouwen ze deze keer toch echt wel over softwarebeveiliging gaan nadenken. Je wilt niet opeens je armada van eigen tanks tegen je zien keren.
Welke mensen en hoe garandeert de britse regering dat het nooit fout gaat?
Het zal niet vaker fout gaan dat bij volledig door mensen bestuurde systemen. Daar worden immers hele grote fundamentele fouten gemaakt. Zie Irak.
Dit nieuws verbaast mij enigszins. Autonome wapensystemen hebben geen last van externe factoren als gemoedstoestand, (verkeerde) voeding, uitdroging, privťsituatie, slaap(gebrek), et cetera.

Misschien ben ik onvoldoende ingelicht, maar ik zie niet in wat er slecht zou zijn aan een (nieuwe) wapenwedloop. Wanneer de bestaande,internationale conventies en verdragen gewoon worden nageleefd, zie ik vooral voordelen. Zo denk ik dat militaire acties met veel grotere efficiŽntie en precisie uitgevoerd kunnen worden, met minder doden tot gevolg.
Ook denk ik dat het toestaan van autonome wapensystemen de K.I./robotica-industrie een flinke boost zal geven.

Ik laat me graag van het tegendeel overtuigen, maar vooralsnog zie ik de open brief van Musk en Suleyman als bangmakerij.
simpel: je zal maar in een maatschappij wonen die door zo'n systemen wordt aangevallen. Als er een parameter huidskleur wordt meegegeven om een onderscheid te maken tussen vijand en mogelijke ally. Je moet er niet altijd van uit gaan dat jouw maatschappij de aanvaller is ;)
simpel: je zal maar in een maatschappij wonen die door zo'n systemen wordt aangevallen. Als er een parameter huidskleur wordt meegegeven om een onderscheid te maken tussen vijand en mogelijke ally. Je moet er niet altijd van uit gaan dat jouw maatschappij de aanvaller is ;)
Volkomen met je eens.
Maar dat kan ook wanneer het wapensysteem niet autonoom is, toch? Dat lijkt mij anno 2017 al wel haalbaar. Maar belangrijker nog: de parameter huidskleur meegeven is simpelweg verboden. Dat is tijdens de Vierde Geneefse Conventie in 1949 al bepaald. Dan blijft de vraag: waarom een verbod op autonome wapensystemen?
goed dat je die vraag stelt en het antwoord is simpel: als een aanvallende maatschappij/AI de parameter huidskleur door mens vervangt ;)
Stel nu dat die parameter er onverhoopt toch doorheen komt in het bevel. Gevolg bij niet-autonome systemen: vragende blik met vraag om bevestiging, of simpelweg weigering (in het geval van een soldaat met geweten tenminste). Gevolg bij autonome systemen: whoops.

Daarnaast zijn mensen te 'hacken': je kunt ze op allerlei manieren manipuleren. Maar dat is toch een stuk lastiger en een stuk minder effectief dan een backdoor vinden in de software van een vloot van autonome destroyers.
Dit nieuws verbaast mij enigszins. Autonome wapensystemen hebben geen last van externe factoren als gemoedstoestand, (verkeerde) voeding, uitdroging, privťsituatie, slaap(gebrek), et cetera.
Nee, maar wel van bugs. Als je een soldaat opdraagt "schiet op alles wat beweegt", dan zullen de meeste snappen dat het daarbij alleen om vijandelijke troepen gaat. Als je die opdracht aan een autonoom systeem geeft dan schiet het net zo hard op vijanden die zich proberen over te geven, burgers en bevriende troepen.

Gegeven "no plan survives contact with the enemy" en het feit dat een computerprogramma in feite niets meer is dan een zeer complex plan om met allerlei situaties om te gaan, is een volledig autonoom systeem (zonder mens die meekijkt en kan ingrijpen) vragen om problemen. Ik bedoel, heb je ooit software geschreven? Hebben daar ooit bugs in gezeten? Wat zou je ervan vinden als elke bug in jouw code talloze dode onschuldigen kan veroorzaken...? Zou je in die situatie ooit besluiten dat je je code "genoeg" getest hebt, zodat je "zeker genoeg" bent dat die code nooit ten onrechte de trekker overhaalt?
Zo denk ik dat militaire acties met veel grotere efficiŽntie en precisie uitgevoerd kunnen worden, met minder doden tot gevolg.
In theorie heb je gelijk; een autonome tank kan in principe besluiten "ik weet niet zeker of dat een vijand is, dus ik schiet niet; als ik het mis heb en dat ding schiet wel op mij, dan wordt alleen een stuk hardware opgeblazen, maar ik ben toch onbemand, dus dat is niet heel erg". In de praktijk krijgt de programmeur echter de opdracht "deze tanks zijn ontzettend duur, dus zorg dat ze allemaal heelhuids terugkomen; als je per ongeluk een paar vijandelijke burgers opblaast maakt niet uit, hun nabestaanden mogen toch niet stemmen in onze volgende verkiezingen".
Correct, ware het niet dat ze niet kunnen garanderen dat daadwerkelijk de personen die de controle hebben wel of geen goede personen zijn als in de vorm van hackbare autonome systemen.
Dat zeg je nu :P Tot AI zo ver gevorderd is dat we een SkyNet krijgen en het hele Terminator scenario begint!
Dit is een holle en kortzichtige belofte. Het hele doel van oorlogsmateriaal is je te kunnen meten met de tegenstander. Als die besluit autonome robots in te zetten, die superieur zijn ten opzichte van robots onder menselijke controle, dan zal het Verenigd Koninkrijk ofwel in die trend mee moeten gaan door deze belofte overboord te zetten, ofwel nu al moeten inzien dat die oorlog reeds verloren is.
Het hele idee van een oorlog tussen min of meer gelijkwaardige staten wordt steeds minder realistisch. De meeste oorlogen worden gevoerd tegen 3e wereldlanden die met oud Sovjet materiaal uit de jaren 70 werken, of met niet-statelijke groeperingen die nog minder materiaal hebben maar zich tussen burgers verstoppen. Dan heeft een super geavanceerde tank meestal niet heel veel zin, de huidige zijn al overkill.
Maar ook die krijgen eens te kennis en technologie als de huidige slimme landen, denk aan Noord Korea of Turkije, Iran en als ze al niet de kennis hebben dan krijgen ze die wel door voldoende $ het is gewoon een kwestie van tijd, en misschien duurt het nog 100 jaar maar het gaat zeker komen.
Kernbommen zijn jaren 40 technologie, ICBM's jaren 50. Oude meuk dus, elk beetje land dat perse zulke wapens wil hebben kan ze ontwikkelen.
Idd, maar het heeft tijd nodig, of denk je dat over 50 of 100 jaar andere landen geen slimme wapens kunnen bouwen.
Alleen al voor defensieve robots, neem bijvoorbeeld het Goalkeeper systeem is het uitgangspunt niet houdbaar. Maar ook voor diverse offensieve geleide wapens geldt dat er wellicht enige controle is , bijvoorbeeld in de zin van een knop die het wapen vernietigt, maar meer ook niet.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True