Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 141 reacties

Een speciaal rapporteur van de Verenigde Naties roept op om een pauze in te lassen bij de ontwikkeling van zogeheten Terminators. Deze robots kunnen zonder tussenkomst van mensen andere mensen ombrengen. Dat brengt veel vraagstukken met zich mee, aldus de VN-gezant.

TerminatorHet is onduidelijk welke landen bezig zijn met de ontwikkeling van Terminators, maar VN-gezant Christof Heijns verwijst in zijn rapport naar technologie van de Verenigde Staten en Israël en hij heeft bezoeken gebracht aan faciliteiten in Mexico, Syrië en Turkije. Het gaat om robots die functioneren zonder te worden aangestuurd door mensen en dus autonoom de beslissing nemen om bepaalde mensen om te brengen of niet.

Heijns benadrukt dat dergelijke dodelijke autonome robots nog niet bestaan. "Het is niet te voorspellen hoe dicht we bij het punt zijn waarop dodelijke autonome robots kunnen worden ingezet." Heijns wijst erop dat diverse staten veel geld hebben uitgetrokken voor de ontwikkeling. "Militaire documenten beschrijven robotische wapens in de lucht, op de grond en op zee met diverse stadia van autonomie."

De VN-gezant wijst het gebruik van de Terminators niet bij voorbaat af, maar wil vooral dat er afspraken komen met betrekking tot de software waar de robots gebruik van maken en wie verantwoordelijkheid draagt voor het ombrengen van mensen. "Het lijkt logisch om de menselijke commandanten aan te wijzen, maar hoe kunnen die van te voren weten dat een robot een overtreding begaat?" Daarbij gaat het om bijvoorbeeld burgerslachtoffers, iets dat gezien wordt als oorlogsmisdaad. Bovendien zouden autonome robots de drempel om een oorlog te beginnen kunnen verlagen, omdat er geen of minder slachtoffers vallen bij het leger dat aanvalt.

Het rapport van de VN-gezant zal in behandeling genomen worden door een commissie van de Verenigde Naties die gaat over mensenrechten. De Verenigde Naties kunnen resoluties aannemen, maar die hebben geen kracht van wet. De ethische vragen over de autonomie van robots op het slagveld zijn er al jaren en diverse organisaties wereldwijd roepen op tot terughoudendheid bij de ontwikkeling.

Moderatie-faq Wijzig weergave

Reacties (141)

Wat ik me dan afvraag is wat een robot is die autonoom mensen kunnen ombrengen. Dat klinkt simpel, echter:

Een drone waarbij de operator specifiek opdracht moet geven nu te schieten is uiteraard niet autonoom om dat gebied, die is makkelijk.

Maar een drone waarbij de operator enkel opdracht geeft om een specifieke jeep te vernietigen, en dat hij zelf maar ziet hoe hij het doet. Is de drone dan autonoom?

Wat als de operator opdracht geeft aan de drone om alle jeeps in een beperkt gebied te vernietigen.

En als we die drone nu meer intelligentie geven zodat hij zijn opdracht weigert als hij denkt dat een bepaalde jeep in dat gebied niet vernietigd zou moeten worden omdat er burgers in zitten?

Dan kunnen we ook opdracht geven om alle jeeps behalve jeeps met burgers erin te vernietigen in een gebied.

En als laatste nog dat we enkel de drone opdracht geven op te stijgen en naar een bepaald gebied te gaan, en daar alles wat geen burgers zijn kapot te schieten.


Oftewel, waar leg je precies de grens tussen wel en niet autonoom? En de eerder genoemde landmijn is dan ook een terminator. Granted de VN is niet dol op landmijnen, wat de landen die ze gebruiken ook weer weinig uitmaakt, maar je hebt hetzelfde met bijvoorbeeld zeemijnen. En bijvoorbeeld CIWS systemen (automatische verdediging tegen bijvoorbeeld inkomende raketten)? Oké over het algemeen zullen die niet op mensen schieten, maar die hebben ook maar twee standen: Aan of uit, een operator gaat niet toestemming geven voor elk doelwit waar hij op wil schieten.

En uiteindelijk kan de VN natuurlijk een hoop willen, maar bijzonder weinig landen maken zich al te druk erover wat de VN wil.
Oftewel, waar leg je precies de grens tussen wel en niet autonoom? En de eerder genoemde landmijn is dan ook een terminator. Granted de VN is niet dol op landmijnen, wat de landen die ze gebruiken ook weer weinig uitmaakt, maar je hebt hetzelfde met bijvoorbeeld zeemijnen. En bijvoorbeeld CIWS systemen (automatische verdediging tegen bijvoorbeeld inkomende raketten)? Oké over het algemeen zullen die niet op mensen schieten, maar die hebben ook maar twee standen: Aan of uit, een operator gaat niet toestemming geven voor elk doelwit waar hij op wil schieten.
Die grens zal in eerste instantie geprogrameerd worden. Onder autonoom zou ik verstaan: de mogelijkheid om zelf keuzes te maken. Dus robot bepaald zelf wie of wat aangevallen gaat worden. Hoe weet een robot dan verschil tussen burger en rebel/leger? Of tussen goed en kwaad.

(SF) Stap verder: wat gebeurd er als een robot zelf kan leren? En op basis daarvan keuzes gaat maken?
Interessant. Die 'Three laws of robotica' (http://en.wikipedia.org/wiki/Three_Laws_of_Robotics) kunnen dus ook gelijk de deur uit want we beginnen op basis van geweld. Maar goed, dit roepen gaat deze ontwikkeling natuurlijk niet tegen houden.

En waar hebben we het eigenlijk over op dit moment? Sentinels die alles afschieten wat als een dreiging wordt gezien? Volgens mij staan er nu ook soldaten op checkpoints in Irak met vrees in hun hart te schieten op alles wat als een bedreiging overkomt.

Drones die autonoom beslissen of een doelwit gebombardeerd kan worden? Een eng idee natuurlijk, maar volgens mij doen mensen dat ook niet helemaal perfect vanaf hun luie stoel in Virginia met een Xbox 360 controller..
Daarbij gaat het om bijvoorbeeld burgerslachtoffers, iets dat gezien wordt als oorlogsmisdaad.
Alleen volgens de CIA is 100% vd slachtoffers van de drone oorlog militant.
http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan


En van het Bureau of Investigatie Journalism:

Analysis: Obama embraced redefinition of ‘civilian’ in drone wars
http://www.thebureauinves...ian-in-secret-drone-wars/
...
"It is often been reported that President Obama has urged officials to avoid wherever possible the deaths of civilians in covert US actions in Pakistan and elsewhere. But reporters Jo Becker and Scott Shane reveal that Obama ‘embraced’ a formula understood to have been devised by the Bush administration."

"Mr. Obama embraced a disputed method for counting civilian casualties that did little to box him in. It in effect counts all military-age males in a strike zone as combatants, according to several administration officials, unless there is explicit intelligence posthumously proving them innocent."
Klassen, dus. Er moet bewijs zijn dat je onschuldig bent i.p.v. bewijs dat je schuldig bent. Dat is de omgekeerde wereld. Waarschijnlijk dat ze die robots ook zo programmeren.
wat is er mis met de "3 regels"

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Als 3 regels maar gerespecteerd worden is er niets aan de hand. En het sluit meteen de ontwikkeling van "terminators" uit.
Die '3 wetten' zijn veel te ingewikkeld voor robots zonder positronisch brein.
Nog afgezien dat wij als mens zelfs daarmee moeite hebben. Soms heb je toch wel dilemma's die je niet zomaar kunt oplossen.

Bijvoorbeeld: als er een man is die een kind dreigt te vermoorden en hem/haar gijzelt, is het dan nog ethisch verantwoord om die man te vermoorden?

Ik zou zeggen van wel, want het kind is onschuldig en is onze toekomst.
Ik zou zeggen van wel, want het kind is onschuldig en is onze toekomst.
Is dat wel zo? Wat als het kind psychotisch is en zelf mensen dreigt te vermoorden? Of wat als hij opgroeit tot dictator (of uitvinder van Terminators, de atoombom, etc) en verantwoordelijk is voor miljoenen doden?

Teveel hypothetische scenario's. Maar in het bovenstaande geval wordt er eerst op de gijzelnemer ingesproken en onderhandeld (door mensen / getrainde onderhandelaars / psychologen) om tot een vredig einde te komen. Daarna wordt pas de (moeilijke) keuze gemaakt tot 'uitschakeling'.
De wetten hoeven natuurlijk niet in het "brein" ingeprogrammeerd te worden. Wanneer een programmeur niet zeker kan stellen dat een robot geen mens pijn zal doen, zal de robot niet ontwikkeld mogen worden. Je zou het dus ook als "erecode" kunnen zien.

Enige probleem met deze "definitie" is het woord "robot". Deze wordt namelijk ook gebruikt voor robots in fabrieksprocessen.

[Reactie gewijzigd door Magic op 31 mei 2013 10:08]

Zit je er dan niet mee dat als een mens een robot opdracht geeft zichzelf te vernietigen dat hij dat dan moet doen want regel 3 wordt overschreven door regel 2?
Voor de veiligheid van mensen maakt dat niet uit maar het geeft wel direct aan waarom de drie wetten niet helpen bij een oorlogsrobot. Een terminator met die implementatie zal nooit op een mens schieten, wellicht alleen om te verwonden als een mens een ander mens probeert te verwonden.

Je hebt in het leger niet veel aan een robot waar een tegenstander tegen kan zeggen dat hij naar de bodem van de oceaan toe moet lopen.
Om het maar op de eerste regel te houden:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Oftewel een groot gedeelte van onze keuzevrijheid zou door die robots worden afgenomen. Jij wilt parachute springen? Te gevaarlijk, mag niet. Jij wilt lekker wat in de snackbar kopen? Mag niet, ongzond. Jij wilt in de auto naar je familie? Mag niet, te gevaarlijk.
Zie ook I Robot, waar die redenatie gevolgd wordt en de mensen op ijs gezet worden (of iets in die trant). De mens tegen zichzelf beschermen, komt het op neer.
De regels zijn fictie? De programmeur bepaald wat erin komt of niet. Waarschijnlijk is nogeens "Harm" niet gedefinieerd.
Het gaat juist om wapentuig. Ik denk niet dat het tegengehouden kan worden, want de doos van Pandora is al lang geopend.

Maar het is natuurlijk ook een kwestie van geld. Het ontwikkelen van wapensystemen is altijd kostbaar (zie JSF). En je wil ook niet dat het apparaat "the good guys" gaat afschieten, dus er zal een hoop software ontwikkeld moeten worden.

Maar om terug te komen op de regels van "I robot", daar ging het ook mis...
Grapjas. Okay, dan besluit de VN dat we ons netjes aan die regels gaan houden en daar sluiten we met zijn alleen een verdrag over. Beetje zoals het non-proliferatieverdrag voor kernwapens.

Oh. Wacht...

Bovendien had Asimov zelf al een fors aantal verhalen waarin er op zeer creatieve manieren alsnog gewoon gemoord kan worden, omdat op de één of andere manier steeds weer een omweg voor deze regels wordt verzonnen.

Voorbeeldje - hoe weet een autonome onderzeeër dat de andere onderzeeër die hij met een torpedo wil gaan opblazen, bemand is? De drie wetten zeggen alleen dat hij geen mensen mag opblazen, maar andere robots (en dus andere autonome subs) zijn vogelvrij. Hij weet dat echter niet, en hem is nooit geleerd dat er ook bemande subs bestaan, dus hij neemt aan dat het ding autonoom is, zoals hij zelf, en blaast 'm op. En dan blijkt dat het een standaard bemande sub was. Waar blijf je dan met je drie wetten?
Je kunt wel naïef dit soort regels opschrijven, maar als je tegenstander die regels er niet in programmeert dan houdt zo'n machine zich er niet aan
Ging ook van een leien dakje in die film of niet? :+

Maargoed wat mij betreft geen oorlogsrobots, het liefst ook gewoon helemaal geen oorlog maar dat is nogal een utopie.
Oeh ja, en vergeet classified 'Directive 4' niet: Never Oppose an OCP Officer.
"Bovendien zouden autonome robots de drempel om een oorlog te beginnen kunnen verlagen, omdat er geen of minder slachtoffers vallen bij het leger dat aanvalt."

Echter zal dit mijns inzien het kostenaspect wel immens omhijg drijven, het maken van robots van een autonoom niveau zal qua kosten waarschijnlijk aanzienlijk veel meer kosten dan dat van een marinier (training, kosten voor zijn equipment etc.) of soldaat.

Daarnaast ben ik heel benieuwd naar hoe ze de software gaan uitwerken die moet gaan bepalen wat nou precies bedreigingen, danwel "vijanden", zijn en wat niet.
De eerste batches zullen waarschijnlijk wel duur zijn, maar zodra ze massaproductie worden dan zullen ze toch aanzienlijk goedkoper worden. Nog afgezien van het feit dat je makkelijk Duizenden kunt sturen. Wave na wave kan je dan sturen. Meteen nadat die uit fabriek komt naar het slachtveld( of is het vuilnisbelt?) op sturen.
Massaproductie werkt enkel als je alle grondstoffen hebt, gezien de diversiteit van producten (edelmetalen, metalen, ...) die zo'n dingen zouden vragen zal er geen massaproductie mogelijk zijn zodra er een "grote" oorlog uitbreekt, tenzij je vecht tegen een kleinere hoeveelheid; zoals de Amerikanen zo graag doen.

Ik denk dat soldaten (mensen) veel cheaper zijn. Ik denk ook dat autonoom hier een beperkte periode is waarbij bv. de verbinding tussen commander en bot verbroken is; zodat ze niet idle staan te wachten op commando's.
@svennd:

Ik denk dat je je behoorlijk vergist.

Een heel eenvoudig type, bv een bom met vleugels (en motor) plus een of andere scanner die zoekt naar veel mensen (met wapens) bij elkaar en daar desnoods maanden op wacht hoeft geen drol te kosten maar zal heel erg effectief zijn.
Dat is dan in feite een slimme vliegende mijn die zelf bepaald wie, wanneer en hoe hij aanvalt.
Totdat de tegenstander een goede soldaat weet te klonen... http://en.wikipedia.org/wiki/Clone_Wars_(Star_Wars)
Ironisch dat je star wars aanhaalt :) de term 'goede' soldaat is daar niet 100% van toepassing. aangezien ze zich tegen hun commanders keren aan het einde van de oorlog ^^

Welliswaar geen vrije keuze maar toch.

Clonen is misschien net zo gevaarlijk als de robot technologie ^^
Echter zal dit mijns inzien het kostenaspect wel immens omhijg drijven, het maken ontwikkelen van robots van een autonoom niveau zal qua kosten waarschijnlijk aanzienlijk veel meer kosten dan dat van een marinier (training, kosten voor zijn equipment etc.) of soldaat.
Fixed that for you.. Éénmaal ontwikkeld zijn de productiekosten een schijntje van de kosten van een soldaat. Het is daarna massaproductie. Het enige is dat je zelf de faciliteiten moet hebben, ik zie zo gauw nog geen "Made in China" op een Amerikaanse versie staan.

[Reactie gewijzigd door scsirob op 31 mei 2013 10:10]

Het enige is dat je zelf de faciliteiten moet hebben, ik zie zo gauw nog geen "Made in China" op een Amerikaanse versie staan.
Het geheel misschien niet, maar veel onderdelen wel - sterker nog, dat was grond voor een onderzoek aldaar een tijdje terug, 'made in china' chips die mogelijk backdoors zouden bevatten.
Probleem is vooral ook dat die toasters beperkt inzetbaar zullen zijn. Ik zie ze niet direct afkomen met bots die al een tank kunnen besturen of overwinnen of metaal plooien alsof het niets is. De onoverwinnelijkheid van de terminators komt toch vooral door hun multi-functionaliteit en idioot sterk frame. Spitstechnologie is in het algemeen gevoeliger aan explosies, kogels, hitte and whatnot.

Qua kosten denk ik dat het wel zal meevallen na de research, tov mensen die je een loon moet geven, training, etc.
Dus eigenlijk nog een reden meer om oorlog te voeren. Zie maar naar the USA waar ze om de economie aan te zwengelen wel eens een oorlog durfde voeren
Er zal altijd een reden gevonden worden om oorlog te voeren....

Een wijs man zei al eens:
"Alleen de doden hebben het einde van oorlog gezien"
Plato (427 – 347)
hmm... intressant dit. ik begrijp aan de ene kant wel dat dit een stapje 2 in oorlogsvoering is, maar zonder tussenkomst van mensen zou ik persoonlijk wat huiverig voor zijn. dit zal er uiteindelijk toch wel van komen, maar zo lang het nog op zich laat wachten vind ik het best. anders is oorlogvoeren in het algemeen gewoon niks anders als zoveel mogelijk tegenstanders uitroeien met zo weinig mogelijk slachtoffers aan je eigen kant. logisch... maar niet eerlijk.
Eigenlijk vind ik moordende mensen huiveriger, waarom is het vermoorden plotseling ethisch als een mens het doet?

Bij een robot is het emotieloos, en algoritme based, het vechten tegen robots (of liever tussen robots) is dan bijna een computergame, ken het algoritme en je kan het verslaan door daar mazen in te vinden, de inzet is wel hoog, nl. je leven.

Een flink aantal oorlogsmisdaden zal je niet zien bij robots, gruweldaden, wreedheden, marteling en verkrachting wat overwinnende soldaten nu toch vaak doen zal een robot niet doen (of het moet een hele zieke maker hebben, die er een 3e 'gun' opgezet heeft).

Ik denk dat met monitoring, logging en strenge regelgeving robots misschien wel een stuk milder zijn dan mensen.
'Unsanctioned' en 'unmonitored' robots moeten dan natuurlijk wel heel snel opgespoord en neergehaald worden.
Psycho bioscoop-shooters etc. zullen op die manier ook meer impact kunnen maken wat wel een groot gevaar is (een geavanceerde bot schiet zo met hoge accuracy een heel winkelcentrum neer)
Als je I-robot een paar keer kijkt en dit naast het artikel legt, stel ik me ook vragen bij de manier waarop wij met robots om gaan en om WILLEN gaan.

Er hoeft maar een glitch te zijn in een robot en hij begint om zich heen te schieten. Het is en blijft een computer. En wat als de maker er bewust een bug inbouwd en zegt: WHOOPS SORRY, the system killed 300 people instead of 3. Zo krijgt niemand de schuld.
Veel goede punten, maar autonoom kan ook zo ver ontwikkelen dat er kan worden berekend wanneer het algoritme faalt, en hoe dat wordt verbeterd. Op dat moment is self-awereness just a matter of time...
Bij een robot is het emotieloos, en algoritme based, het vechten tegen robots (of liever tussen robots) is dan bijna een computergame,
Hoezo zouden robots niet tegen mensen ingezet worden? dat gebeurt nu ook met drones.
Zo'n robot is in feite een drone die meer autonoom is.
Een drone staat dichter bij een ouderwets geweer (het is in feite een vuurwapen dat op afstand wordt bediend door een mens, de mens neemt nog steeds de beslissing om te schieten en op wie), dan bij een terminator die zelf beslissingen neemt.
Doet mij heel sterk denken aan een aflevering van Star Trek, waar bij in een onbekend stelsel ruimte-schepen verdwijnen, en er een levensloze (uitgemoorde) vroeger handels-planeet ontdekt wordt waar steeds geraffineerdere aanvallen op de Enterprise plaatsvinden, en er alleen schijnbaar wat oude computersystemen aanwezig zijn?
De Enterprise wordt steeds weer opnieuw aangevallen via steeds betere systemen. Niemand weet iets en niemand begrijpt wat de bedoeling ervan is, en niemand vraagt zich dus af waarom en waarvoor dat daar aanwezig is? Iets mogelijk herkenbaars, als een Colportage verkoop systeem ?

En men vlak voor de totale vernietiging eindelijk de clu doorheeft en beseft dat het een volledige geautomatiseerde wapenfabriek met zelf-demonstrerende mogelijkheden is, van een uitgestorven beschaving met zelfverbeterende automatische wapensystemen, waarbij de "demonstratie" pas eindigt indien er een wapenaankoop plaats vindt! De ultime wapen-ontwikkeling en aankoop planeet? Je mist dus in dit geval de vroeger aanwezige informatie van de zeer gesophiciceerde en zeer ver doorgevoerde gespecialiseerde Wapenontwikkelaars Een kwestie van (mis) Communicatie, door verschil in intelligentie en denkwijze onderling waar de mensheid ook al jaren last van heeft!

Heb geen idee welke Prachtige aflevering het was? :)
http://nl.wikipedia.org/wiki/Star_Trek

http://nl.wikipedia.org/w...de_oorspronkelijke_serie)

http://nl.wikipedia.org/w...van_Star_Trek:_Enterprise
season 1 episode 21 the arsenal of freedom
Bij een robot is het emotieloos, en algoritme based, het vechten tegen robots (of liever tussen robots) is dan bijna een computergame, ken het algoritme en je kan het verslaan door daar mazen in te vinden, de inzet is wel hoog, nl. je leven.
In de praktijk betekent dit bots uit/van de US tegen 'insurgents' (boeren, kinderen/vrouwen, maar het liefst soldaten).

En laat alsjeblieft niet de illusie bestaan dat deze bots nog niet bestaan. Wellicht nog geen bots op de grond maar UAV's mogen nu toch wel algemeen bekend zijn geworden. WikiPedia vertelt de rest van het 'grote success' van deze drones.
maar zonder tussenkomst van mensen zou ik persoonlijk wat huiverig voor zijn.
Het is puur de bril waardoor je kijkt. Een mijn is namelijk ook autonoom en hittezoekende raketten en andere 'intelligente' wapens bepalen zelf voor een groot deel wanneer ze exact af gaan.

Aan de andere kant kijk eens naar de gebruiker van een bermbom, een man met baard en hoofddoek heet een terrorist, tussen 1940-1945 een verzetsstrijder en met verf op z'n gezicht een commando. Maar het is uiteindelijk dezelfde oorlogsactie.

Oorlog & onderdrukking is per definitie inhumaan en oneerlijk, dat de VN zich hier druk over maakt zegt eigenlijk al genoeg. Laat ze eerst maar eens Israël en de palestijnen tot de orde roepen en Noord Korea zich enigszins normaal laten gedragen. Maar blijkbaar is de VN dusdanig een politiek speeltje geworden dat het uiteindelijk toch de VS, China & Rusland zijn die doen wat ze willen, die gaan zich echt niet aan een dergelijke overeenkomst houden.
Dus omdat er andere zaken nog niet zijn opgelost mag er niet vooruit gekeken worden?
Dat is raar.
Het is juist goed dat de VN in een relatief vroeg stadium dit aan kaart.
En wij weten niet hoever de technologie als is gevorderd. Ik vraag daarbij wel af hoeveel mandaat de VN heeft en of het überhaupt lukt om iets te reguleren. In tegenstelling tot atoomwapens is dit soort software (want daar draait het uiteindelijk om) redelijk snel aan te passen.
Het is goed dat er vanuit de VN hiernaar gekeken word.

Maar het is nog wel zo dat oorlogen nog altijd gestart worden door leiders/politici, en niet door leger/oorlogstuig.
Zou je zo'n robot niet kunnen programmeren dat hij iedereen zonder wapen met rust laat? Dan denk ik dat zo'n robot mensenlevens gaat sparen in de toekomst.
Dan zou die robot moeten weten hoe alle wapens ter wereld eruit zien. Hoe herkent hij anders dat een persoon gewapend is? Dus modificeer je je wapen zodat het niet meer op een wapen lijkt, of je stopt het ergens in zodat het niet herkend kan worden.

Of je neemt gewoon een forse moker mee. Da's geen wapen, maar je kunt er die robot wel mee tot schroot reduceren.
En dan knalt ie een undercover politieagent neer?
Ik zou inzetten op een afspraak dat een mens altijd de eindbeslissing maakt om te doden of niet. Dit kan ook terwijl iemand in de VS of elders zit, weg van het slagveld. Op deze manier spaar je wel de mensenlevens van de partij die de robots gebruikt (dit is uiteindelijk het doel lijkt mij).
Dan krijg je hetzelfde idee wat er nu met de Predator Drones gebeurt. Die vliegen in Afghanistan, maar worden bestuurt vanuit de USA. Het schijnt alleen wel zo te zijn dat die bestuurders vaak zwaardere oorlogsstress krijgen dan soldaten die echt in Afghanistan zijn geweest. Dus of dit volledig wenselijk is, is ook nog een discutabel punt.

Edit:
Linkje met interessant artikel hierover:
http://techcrunch.com/200...or-drones-suffering-ptsd/

[Reactie gewijzigd door Outlaw4848 op 31 mei 2013 11:07]

Kan ik me voorstellen. Emotioneel psychologisch gezien kan een soldaat in een oorlogszone die daar echt gevaar loopt omdat er op hem geschoten wordt beter het doden van een ander rechtvaardigen dan iemand die met een kopje thee achter zijn computer thuis zit.
'De ontwikkeling'? Wanneer is iets een 'terminator'? Er bestaan al lang volautomatische machinegeweren in Noord-Korea, bijvoorbeeld,
niet alleen daar. verscheidene legers hebben al wapentuig dat automatisch terugschiet als erop geschoten word. Dit zodat het geen zin heeft om je achter burgers te verschuilen en de militairen niet voor het dillema komen te staan om terug te schieten.....

[Reactie gewijzigd door Patrickkkk op 31 mei 2013 09:54]

Skynet becomes self aware after the UN resolution is approved...
dit is hetgeen waar ik ook meteen aan moest denken.

Skynet.

Ik hou mijn hart vast als we straks robots krijgen die zonder tussenkomst te werk gaan.
Is het niet beter om ze op afstand te laten besturen? dan verliezen we er ook geen banen op :p
Daarnaast is er dan toch een vorm van controle.

Ik zal wel te nuchter denken. Maar ik vind dit toch gevaarlijke technologie, steek die gelden liever in het ontwikkelen van ruimtevaartuigen zodat we het universum kunnen verkennen. Of in schone energie.

Waar gaat het heen met de wereld.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True