Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties

Human Rights Watch en de Harvard Law School pleiten bij de Verenigde Naties voor het opstellen van een verdrag waarin de ontwikkeling van geheel autonome wapensystemen, ook wel 'killer robots' genoemd, wordt verboden.

Volgens de opstellers van het rapport 'Mind the Gap' zijn momenteel militairen, programmeurs en bedrijven niet aansprakelijk te stellen onder de huidige wetgeving voor het doden van mensen door autonoom opererende wapensystemen. Ook achten zij de kans klein dat er in de toekomst dergelijke wetgeving wordt opgesteld door landen. Human Rights Watch en de Harvard Law School willen daarom dat er een bindend VN-verdrag komt waarin de ontwikkeling van autonome wapensystemen expliciet wordt verboden. Ook de productie en het inzetten van dergelijke wapens moet aan banden worden gelegd.

De organisaties erkennen dat er momenteel nog geen 'killer robots' bestaan, maar dat er al wapentuig op de markt is dat daar dicht bij in de buurt komt. Als voorbeeld noemen ze het Israëlische raketschild Iron Dome en de Amerikaanse Phalanx- en C-RAM-wapensystemen. Deze defensieve systemen kunnen automatisch in actie komen als er een dreiging wordt gesignaleerd. Ook wordt er verwezen naar militaire drones die steeds vaker bepaalde taken autonoom uitvoeren, zoals het uitvoeren van intercontinentale vluchten of het zelfstandig landen op een vliegdekschip.

Het rapport van de organisaties is gepubliceerd aan de vooravond van een VN-conferentie over conventionele wapens. Daar wordt onder andere gekeken naar toevoegingen aan een VN-verdrag dat het inzetten van bepaalde wapens verbiedt, zoals clusterbommen en verblindende laserwapens. In 2009 pleitte een aantal onderzoekers ook al voor het aan banden leggen van militaire robots.

Terminator

Moderatie-faq Wijzig weergave

Reacties (101)

De organisaties erkennen dat er momenteel nog geen 'killer robots' bestaan
Mijnen zijn toch ook autonome wapensystemen?
Die zijn dan ook al sinds 1981 verboden......

Overigens zijn dat geen autonome wapensystemen. Ze ondernemen zelf geen activiteiten, liggen er alleen met een (zeer beperkt) detectie mechanisme. Dat is niet autonoom te noemen.
Overigens zijn dat geen autonome wapensystemen. Ze ondernemen zelf geen activiteiten, liggen er alleen met een (zeer beperkt) detectie mechanisme. Dat is niet autonoom te noemen.
En toch hanteert de UN die definitie. Daarnaast zijn er mijnen die over grote afstanden detecteren en afvuren richting de vijand. De correlatie met nieuwere systemen is dus wel zeker valide.

Helaas zijn mijnen NIET verboden, alleen AP mijnen zijn verboden. Het wapensysteem an sich is nog altijd in ontwikkeling en beleeft zelfs een opleving op dit moment omdat sensoren goedkoop zijn. Het is een wapen voor de underdog. Iets wat in Irak en Afghanistan elke dag weer duidelijk is.
Dollen: sorry dat ik offtopic ga, maar jij spant wel de kroon als het om een onleesbaar stuk tekst gaat; en dit is géén dyslexie maar gewoon neerschrijven zonder na te denken... lees in 't vervolg aub je tekst even hardop na; misschien dat je dan begrijpt dat je eerst wat dingen moet aanpassen zodat wij het ook verstaan en begrijpen.

Falconhunter; inderdaad, mijnen zijn in mijn ogen ook autonome toestellen. Het enige verschil is dat deze zich niet meer verder bewegen eens ze geplaatst zijn, maar ze beslissen wel volledig autonoom wanneer ze de ruimte boven hun doorzeven met metalen fragmenten en een vlees verscheurende/botten brekende luchtverplaatsing.
En het ergste van al is dat die dingen na 20-30 jaar nog steeds paraat staan om te knallen; terwijl gewone 'bots' het na x aantal uur moeten afleggen wegens een energie-tekort. Dit wil zeggen dat wanneer de oorlog gedaan is je die dingen ook niet ineens allemaal kan uitschakelen. Dit heeft rechtstreeks tot gevolg dat er al meer dan een halve eeuw elke dag tientallen tot honderden schuldeloze burgerslachtoffers vallen, ook wilde dieren ontspringen de dans helaas niet.
Gelukkig is ons landje (belgie) goed voorzien in het opruimen van mijnen en is dat een van onze belangrijkste internationale taken; zowel op land als op het water. Maar eigenlijk is het een job die traag vooruit gaat wegens de veiligheidsrisico's die je moet incalculeren bij het ontmijnen en opzoeken van mijnen, en is het maar een druppel op de hete plaat als je ziet hoeveel mijnen er jaarlijks worden opgeruimd vs hoeveel men er jaarlijks in de grond stopt.

Ik hoop dat als het hier ooit oorlog is men geen mijnenvelden aanlegt, antitankmijnen misschien nog tot daar aan toe, maar AntiPersoonsmijnen wil ik absoluut niet; als je kijkt hoe men in sommige gebieden waar oorlog is geweest dagelijks Russische roulette speelt om bv water te gaan halen aan de andere kant van de oude oorlogslinie, ik zou daar mijn kinderen nooit door jagen; maar soms hebben ze echt geen keuze en is het verhongeren/uitdrogen of hopen dat je geen misstap zet doorheen het mijnenveld... (degene die er het eerst heel doorgeraakt stippelt vaak de route uit voor een gans dorp; maar je weet niet hoever die route van een mijn af ligt; soms is het maar 15 cm verschil tussen oversteken of een been kwijt zijn..

Helaas is na de zoveelste VN-Top waarop men vraagt om mijnen te verbieden dit vuile wapen nog steeds niet illegaal; ze verkopen er simpelweg teveel van om die geldkraan dicht te draaien om een paar arme zieltjes in een of ander ontwikkelingsland te redden; want die zijn toch minder waard dan een Amerikaans leven...
Zo dacht men 70 jaar geleden ook over een bepaald volk bij onze oosterburen...
Een mijn een dom ding, als vriend of vijand er op stapt gaat hij af. Hetzelfde met gesaboteerde munitie.

Bij een killer robot denk ik meer aan iets met intelligentie, een robot die zelfstandig kan kiezen om geweld te gebruiken of niet. Naar mijn idee is dat een compleet ander verhaal.
idd, compleet verschillende systemen, doel is veelal zelfde; (ongewenste) toegang voorkomen.

Denk dat vele hier de 'autonome mini-gun' van korea wel hebben gezien. Dat is inmiddels 5jr geleden!!
Ergens wil ik ook niet weten hoe dit soort systemen zijn (door)ontwikkeld.
Dus je krijgt gewoon robot turrets die heel accuraat kunnen schieten. Het gevaarlijke is als ze zelf te beslissing mogen nemen. Verder wel een zeer effectief wapen...
Dat is dus waar het om gaat, automatische gun turrents die schietend op alles wat een "doelwit" is.
Oh, da's leuk. Ontsnap je als arme N.Koreaanse boer eindelijk aan de onderdrukking wordt je net over de grens door Z.Koreaanse turrets geheel automatisch kapotgeschoten.
En waarom zou een Bot dan een slechtere keuze maken?

Geen medeleven hoor ik dan, maar als je intelligentie inprogrammeert kan je dat ook er in stoppen.
Autonoom is heel wat anders dan intelligent. Een garnaal is een autonoom wezen, maar wordt zelden intelligent gevonden, en al helemaal niet op het gebied van medeleven en andere ethische keuzes...
Ok maar waarom zou een bot of turret dan ineens een stuk slechter zijn dan een bom, een mijn of een atoombom? Die maken ook geen ethische keuzes.
Als ik een turret neer zet of een drone deploy dan maak ik op dat moment de ethische keuze om dat te doen, net als wanneer ik een bom gooi of mijn begraaf. Wat is het verschil?
Atoombommen zit ook een restrictie op, waarom denk je dat ze al die controles willen doen in o.a. Iran. De killerbot, zeker een mobiele heeft een veel groter dodelijk potentieel dan een mijn of een bom lijkt me.
In zekere zin heb je gelijk; het is allemaal troep gemaakt om mensen te doden, als je dat gebruikt ben je eigenlijk al verkeerd bezig...
Precies, en daarvoor is er jurisprudentie die de partij die de mijnen heeft geleid verantwoordelijk maakt. Niet dat iemand zich daar wat van aantrekt maar het feit ligt er wel.

Dit is dus een fake oplossing voor een probleem dat al een eeuw oud is.
Precies, en daarvoor is er jurisprudentie die de partij die de mijnen heeft geleid verantwoordelijk maakt. Niet dat iemand zich daar wat van aantrekt maar het feit ligt er wel.

Dit is dus een fake oplossing voor een probleem dat al een eeuw oud is.
Sowieso zorg je er alleen maar voor dat partijen die écht kwaad in de zin hebben, hiermee (kunstmatig) in het voordeel zijn.

Een verbod heeft nu eenmaal weinig zin als je het niet kan afdwingen, en als je aan de ontvangende kant van een groot (autonoom) kanon staat, dan wordt dat afdwingen knap lastig.
klopt en die proberen ze ook te verbieden..
In het ijzenen gordijn hadden ze ook automatische systemen met machinegeweren die bij detectie van bewegen in de neutrale zone gingen schieten...
Wat dichter in de beurt komt zijn bijvoorbeeld drones uitgerust met een machinegeweer en de opdracht alle mensen binnen een bepaald gebied te doden. Als de tegenstander zich in een woonwijk verschuilt kan hierdoor makkelijk de boel gezuiverd worden. Nauwkeurigheid van deze zuivering zal naarmate de technologie vordert beter worden, maar in de tussentijd worden de zwermen drones en gebieden groter. Uiteindelijk leid dit tot een neerwaartse spiraal. Omdat het een strategisch voordeel heeft om ze zo grof en breed mogelijk in te zetten in een oorlog. Uiteraard kun je drones ook voor rijdende of humanoïde robots vervangen.

[Reactie gewijzigd door tuXzero op 9 april 2015 19:24]

Dan ben ik als eerste wel erg benieuwd naar welke definities ze gaan gebruiken wat wel, en wat niet mag. Een robot aanzetten om alle vijanden in een gebied uit te schakelen mag dus niet, maar een Phalanx/GoalKeeper systeem inschakelen om alle raketten in een gebied uit te schakelen wel? Moet dan het verschil zijn of het al dan niet tegen menselijke doelen wordt gebruikt? Want verder zie ik hier geen fundamenteel verschil tussen.

En een oorlogsrobot waar je zelf moet mikken mag dus, maar waar ligt de grens? Bij aim-assist? (Wat je sowieso nodig hebt om te compenseren voor zijn bewegingen, en wat elke tank bijvoorbeeld al heeft). Compleet automatisch mikken en de operator enkel de vuurknop laten indrukken? En daarbij ook friend-or-foe beslissingen alvast te maken? Dan kan de operator effectief gewoon een steen op de schiet knop leggen, en is het dan wel of geen autonome robot?
Compleet automatisch mikken bestaat dus ook al. Kennis van mij zit in het leger en het pantservoertuig waar hij mee rijd heeft een systeem om het kanon automatisch te mikken op de locatie waar een schot gelost werdt dmv geluidssensoren. 1 knop om te mikken zodra ze ergens een schot of explosie horen, 2de knop om te vuren.

Hetgeen mij echt verbaasde is dat dit systeem op ... Windows draait... :D
Hetgeen mij echt verbaasde is dat dit systeem op ... Windows draait... :D
De interface op de schermen draait misschien op Windows (Embedded), dat hoeft nog niet te betekenen dat het achterliggende systeem ook op Windows draait.

Vaak zijn die schermen gewoon domme terminals die informatie van bijvoorbeeld een PLC weergeven.
Hetgeen mij echt verbaasde is dat dit systeem op ... Windows draait... :D
Houdt er wel rekening mee dat dit geen consumenten windows is.

Dit zijn veelal zwaar gestripte windows versies die enkel de GUI's verzorgen. Je kan er geen usb-stick met mp3's inpluggen en dan maar even windows media player opstarten voor wat muziek.

Plus dat windows in de basis echt rock-solid is (net zoals linux / unix etc) waar 99,999% van alle crashes vandaan komen is de drivers / programmatuur.
Maak 1 setje custom rock-solid drivers en schop alle andere drivers uit windows en maak 1 rock-solid programma (en schop de andere programma's eruit) en je hebt gewoon een rock-solid systeem waarvoor zo ongeveer iedere nitwit een interface kan maken.
De manier hoe het artikel het formuleert is heel omslachtig ja. Iets zoals Iron Dome van de Israeliërs is (bij mijn weten) ook voor defensieve doeleinden bedoeld. Evenals de Phalanx/Goalkeeper het enige verschil is dat ze ter bescherming zijn. De voorbeelden zijn waarschijnlijk meer gekozen als weergave waartoe we al in staat zijn.

De uiteindelijke resolutie zou waarschijnlijk, al weet je het met die incapabele technofobe politici nooit zeker, meer gericht zijn op autonome objecten die voor aanvallende doeleinden zijn bedoeld, Iets zoals Iron Dome lijkt mee heel vreemd om te verbieden gezien de vele levens die het beschermd (Phalanx en andere zou je op dezelfde manier kunnen zien).
De uiteindelijke resolutie zou waarschijnlijk, al weet je het met die incapabele technofobe politici nooit zeker, meer gericht zijn op autonome objecten die voor aanvallende doeleinden zijn bedoeld, Iets zoals Iron Dome lijkt mee heel vreemd om te verbieden gezien de vele levens die het beschermd (Phalanx en andere zou je op dezelfde manier kunnen zien).
Ook bij iets als een Phalanx of Iron Dome is er kans op false positives. Denk aan bijvoorbeeld een verkeersvliegtuig of klein privé vliegtuig waarvan de transponder defect is, dat kan door zo'n systeem als een binnenkomende kruisraket worden gezien.
Ik verwacht dat die kans nagenoeg 0 is. Gezien de snelheid van de huidige generatie kruis raketten (http://en.wikipedia.org/wiki/Cruise_missile) is hoger dan de meeste privé vliegtuigen gaan. Een verkeersvliegtuig is dan weer te groot en zou waarschijnlijk eerder door straaljagers worden bezocht (zie de vele incidenten met Russische vliegtuigen). Ballistische raketten gaan nog sneller en dat zijn dus zeker niet vliegtuigen (zie Wikipedia maar de meeste daar zijn 1000 m/s ofwel bijna 4000 kmh/h). Dus ik beschouw dit niet als een valide reden, om een land hun verweer af te nemen.
Dus omdat er enkele parameters ingevoerd zijn voldoet het niet aan de definitie.

En wat nu als we die parameters veranderen?

Ik vermoed dat een iron dome technisch gezien ook alles onder de snelheid van kruisraketten ziet / opmerkt alleen staat er ergens een if-loopje wat zo aan te passen is met het volgende :
$minspeed = 400;
if ($speed<$minspeed) then
ignore;
else
fire;
endif

waarbij je dus die minspeed best op 4 zou kunnen zetten.
Een detectiesysteem / radar valt softwarematig wel te cripplen om niet alles te zien, maar hardwarematig zie het wel zo ongeveer alles.

En dan heb je dus een heel gevaarlijk uitgangspunt, je wetgeving gaat pas gelden na arbitraire regels in software systemen. Bij een hernieuwde gaza-inval kan een gekke programmeur dus even de minspeed verlagen en dan is het illegaal en na de oorlog kan de minspeed weer verhoogt worden en is het weer legaal.
Erg tricky bij geheime systemen (dus moeilijk controleerbaar) als wapens gecombineerd met gevolgen in de orde van mensenlevens.

Als het fout gaat was het dan een "bug" of was het een legaal wapen wat met een paar toetsindrukken illegaal gemaakt was en daarna weer legaal.
Wat je zegt klopt allemaal. Al verwacht ik wel iets geavanceerder dan een simpel if-loopje. Ik verwacht ook andere info dan alleen de snelheid. Waarschijnlijk kijkt de Iron dome eerst van "gaat het te hard?" daarna of "het object een raket is of iets anders" ter verificatie.

Ook al maak je een valide punt dat je die parameters zo kan aanpassen dat is gewoon waar. Een systeem als Iron Dome is daarentegen ter bescherming de raketten die het bezit zijn bedoeld om andere raketten te laten ontploffen. Het Iron Dome "wapen" is bedoeld als afschrikmiddel/verdediging het word niet gebruikt voor het bombarderen van vijandelijke doelen (i.e. mensenlevens). Het is best te begrijpen dat iets als een B2 Bommenwerper ook moet worden neergeschoten in oorlogstijden en dan word Iron Dome gebruikt ter verdediging van potentieel onschuldige mensen.

En dat is waarom in mijn ogen Iron Dome en Phalanx niet verboden zouden moeten worden. Het beschermt mensen, het kan ook kwaad doen maar bijna alle technologie is een dubbelzijdig mes. Zie bijvoorbeeld kool: energie maar ook gevaar.
Het gevaar zit hem denk ik meer in politierobots dan in militaire robots. Een robot kan door de machthebbers op medeleven standje 0 worden gezet om demonstraties in de kop te drukken. Nu heb je tenminste nog de hoop dat het geweten van de politieagent zal opspelen om 'Befel ist Befel' situaties te krijgen, straks worden die gewoon zonder morren uitgevoerd.
Het gevaar zit hem denk ik meer in politierobots dan in militaire robots. Een robot kan door de machthebbers op medeleven standje 0 worden gezet om demonstraties in de kop te drukken. Nu heb je tenminste nog de hoop dat het geweten van de politieagent zal opspelen om 'Befel ist Befel' situaties te krijgen, straks worden die gewoon zonder morren uitgevoerd.
Het probleem met 'politie' robots is dat je de 'wet' daarvoor heel eenduidig moet vastleggen. Als er een situatie voorkomt waarin een robot gaat 'twijfelen', dan zal ie óf stoppen, of voor het meest waarschijnlijke scenario kiezen.

Het vervelende daaraan is dat zo'n politierobot zijn bevelhebbers ook, onterecht, als bedreiging kan zien.
De robot zal kiezen voor datgene waar ie voor geprogrammeerd is. Die twijfel kan alleen bestaan als die ingebouwd is, waardoor het per definitie geen onverwacht scenario is. Onverwachte scenario's zullen via een standaard protocol opgelost worden lijkt me, of in een worst case een falen bij een bug oud, heel onverwacht en ongewenst reageren.

Autonoom is niet hetzelfde als (menselijk) intelligent of het hebben van een persoonlijkheid! Dat laatste is vele malen complexer. Als er ooit killerbots worden gemaakt zonder een overrule voor degene die het bevel voort over het apparaat zou dat een van de meest idiote dingen zijn die we als mens zullen maken.

Daar staan natuurlijk ook weer tegenover dat ik er vanuit ga dat de ontwikkelingen van deze bots vergezeld zal gaan van technieken om ze uit te schakelen - EMP achtige constructies bijvoorbeeld.
Misschien is juist daarom AI niet eens zo'n heel slecht plan ;)
Want politie en burgers zijn niet elkaars vijanden? Kuch Ferguson kuch.
Geen oorlog is beter, maar nu klinkt het alsof de VN moet zeggen:
"nee je mag enkel met mensen vechten" ... Maar dan iets genuanceerder.

Dat laat toch een vreemde smaak achter ergens.
Alleen mensen mogen vechten is geen gekke gedachte.. machines hebben geen geweten en kunnen voor veel 'collateral damage' zorgen..

Wat eigenlijk de beste oplossing zou zijn is dat de leiders vooraan staan met vechten.. er zal dan wel 3x nagedacht worden om een militaire actie te gaan voeren..
Machines en collateral damage? Juist het omgekeerde, een machine is VEEL preciezer dan een persoon! Daarnaast is machine tegen machine toch echt veel humaner dan mens tegen machine of mens tegen mens.
Machine kan veel preciezer zijn, maar juist het voordeel van een mens is de mogelijkheid op een situatie aan te passen op basis van emotie, opdracht en ervaring, een machine die vuurt gewoon, een sluipschutter richt en ziet dan dat er bijvoorbeeld een ongewapend kind te dicht bij het doelwit staat.
Machine vs machine zou veel fijner zijn, maar dan kan Obama net zo goed Putin en Kim Jong Un uitnodigen voor een potje Call of Duty ;)
Als Call of Duty kan, perfect :P

Maar juist emotie zou ik bang voor zijn. Als een vijandige strijder (die net als jij voor zijn eigen land vecht) je beste vriend neerschiet. Ga er van uit dat arrestatie mogelijk is, zou jij hem arresteren of vermoorden? Een autonoom systeem hoeft deze keuzes niet te maken: wanneer arrestatie mogelijk, doe dat, anders boem.
Als het een vijandige strijder is, die net als mij voor zijn land vecht?
Daarmee vecht ik dus ook voor mijn land en mag ik m schieten omdat hij aanvalt...
De robot zal hetzelfde doen, misschien wat simpeler door 'iemand schiet = schiet terug', onafhankelijk of het waarschuwingsschoten zijn of daadwerkelijk gericht vuur...
Een autonoom systeem hoeft deze keuzes niet te maken: wanneer arrestatie mogelijk, doe dat, anders boem.
Alleen een autonoom systeem zal bijna nooit een arrestatie kunnen doen en dus zo goed als altijd boem doen.

Een autonoom systeem wordt maar met 1 doel gemaakt : Boem doen, zou je het ook arrestaties willen laten verrichten dan ga je over 100 of wellicht 1000-voudige kosten praten.
Want opeens mag je autonome wapen niet meer 600 graden warm worden voordat het moet afkoelen, maar mag het nog maar max 60 graden worden omdat het anders arrestanten gaat verbranden, opeens mag je autonome wapen geen onergonomische hoekjes / uitsteeksels meer bevatten want opeens kunnen die arrestanten verwonden en zal je ze dus moet afdekken / afronden.

Een autonoom wapen wat maar 1 functie heeft is zoveel goedkoper te maken dan een multifunctioneel wapen (waarbij de mens van nature al multifunctioneel is) dat niemand een multifunctioneel wapen (of in ieder geval niet met arrestanten mogelijkheid) gaat maken.
Ik betwijfel dat Kim akkoord zou gaan, die is meer van Starcraft.
Als je naar het midden oosten kijkt dan zijn er nogal veel slachtoffers van drones...
Ok grotendeels door 'intelligence' van mensen maar toch..

Machine tegen Machine is een oplossing maar dan word het snel de rijkste wint, wat arme partijen niet gaan accepteren en dan toch andere middelen gebruiken..
Als je naar het midden oosten kijkt dan zijn er nogal veel slachtoffers van drones.
Een drone valt alleen aan als een mens hem een target gegeven heeft. Als dat mens dan de fout maakt om de verkeerde target te kiezen, dan is die drone het niet schuld.

Net zoals de boormachine het niet te verwijten valt als je een schilderij wil ophangen en de waterleiding kapot boort. Het is alleen maar een stuk gereedschap, dat doet wat *jij* wil.

We zijn gelukkig nog niet zo ver dat drones zelf targets kunnen identificeren en zelf beslissen om een target uit te schakelen of te laten lopen.
[...]
We zijn gelukkig nog niet zo ver dat drones zelf targets kunnen identificeren en zelf beslissen om een target uit te schakelen of te laten lopen.
Zijn we nog niet zover?

Ik meen me te herinneren dat ik weleens gezien heb dat er ondertussen drones zijn met facial recognition en walking pattern analysis, waarbij de beslissing voor het vuren van wapens nog wel bij de mens achter de knoppen zit, maar dat dat meer een (technisch) overbodige stap is puur om geen shitload aan ellende te krijgen over killing robots die nog niet 100% uitgekristalliseerd zijn.
Technisch is het al mogelijk en wordt het al voor 99% gedaan, alleen PR-technisch is het nog een uitdaging en worden er meer test-uren gevraagd.
Tot je ze zo autonoom maakt dat je de controle kwijt bent. Dan heb je toch een probleem.
Een probleem is dat tegenwoordig verschillende partijen gebruik maken van IED (improvised Explosive Devices). Dingen zoals bermbommen, zelfmoord terroristen ook doen strjders zich veel vaker vermengen met de burgerbevolkingg. De afgelopen 50 jaar is conventionele oorlogsvoering afgebrokkeld als gevolg tussen een enorm verschil tussen de heersende gewapende machten (zoals het westen) en de 'underdogs' (denk aan Vietnam, maar natuurlijk ook aan Al-Qaida, Taliban e.d.)

Low cost oorlogsvoering zoals bermbommen kosten het leven van veel soldaten (en burgers overigens). Drones trekken die barriere gelijk in die zin dat ze vaak vroegtijdig zien waar bermbommen worden geplaatst en direct kunnen reageren. Er is een reden waarom veel rabellen in het M.O. drones haten; ze hinderen de goedkope maar effectieve manier van strijden en een drone neerhalen zegt niets want het leverd geen goede PR beelden op. Een helicopter neerhalen of dode soldaten door de straten slepen zoals je een jaar of tien geleden zag leverde heel veel goede PR op. Een kapot geschoten drone laten zien...tja daar worden enkel schouders voor opgehaald.

Dat wil echter niet zeggen dat er gekeken moet worden naar systemen. Een drone die land op een vliegdekschip automatisch vind ik te ver gaan. Een drone die uit zichzelf bepaald wat een vijand is, is wat anders. Tegenwoordig zijn er drone die wat dat doen met enkel een man achter een schermpje die in x seconden moet reageren om een drone te stoppen met schieten op een gevonden doelwit. Wij weten allemaal dat die mannen soms nog wel eens koffie halen...zelfs als die drone actief is. (iets met fout aangeleerde gewoontes door hinderlijke procedures en zo)
Waarom niet alleen robots en mensen niet? :) Robots vs Robots.
Hoe cru het inderdaad ook is, is het mechaniseren van oorlog een groot risico. Het wordt opeens heel 'goedkoop' om oorlog te gaan voeren. Mensen moet je overtuigen, zowel om te vechten als om de gevechten te steunen - de soldaten, beleidsmakers en kiezers. Het lijkt er helaas vaak niet op, maar dit zijn gelukkig relatief grote drempels om een 'echte' oorlog te beginnen.
Als je naar 'killer robots' kijkt is het een heel ander verhaal. Er zijn genoeg landen, instellingen of zelfs individuen die een paar miljard te verbranden hebben en daarmee in de toekomst wellicht een klein, groot of in de verdere toekomst zelfs enorm leger killerbots kunnen samenstellen. De drempel is dan opeens heel veel lager - geen soldaten, geen casulaties, geen publieke opinie. Hierdoor kan het risico op een oorlog opeens weer stukken groter worden denk ik.

Die oorlog wordt uiteindelijk wel uitgevochten op grondgebieden waar wel mensen van vlees en bloed wonen, waardoor het uiteindelijke leed veel groter zal zijn. Dus ja, het beste is inderdaad geen oorlog, maar autonome killer-bots lijken me vele malen onwenselijker dan menselijke soldaten.
Dan krijg je toch op ten duur gewoon "Robot Wars" alleen zonder dat er echte menselijke doden vallen. :) Lijkt mij niks ernstigs aan zolang er geen menselijke doden vallen.

Kunnen landen het lekker zo uitvechten.
Leuk voor een film maar in het 'echt' wil men uiteindelijk gewoon een stad of zelfs land veroveren, en daar wonen nu eenmaal mensen... Zou je gecontroleerde oorlogen op aparte slagvelden krijgen, kun je net zo goed gaan gamen, nog goedkoper. ;)
Als het puur robot tegen robot was zou er geen verdrag gemaakt worden.
Dit is om robot vs mensen te vermijden.
De anime Gundam Wing gaat daar ook over, dat wanneer je gaat vechten met robots het meer een spelletje wordt van wie het meeste geld heeft om het beste leger te bouwen. Oorlog verliest dan zijn betekenis, hoe erg het ook is als oorlog gevochten wordt met mensen dan heeft de prijs ook een afschrikkende werking voor toekomstige oorlogen.
Van mij mogen ze tegen IS wel killerrobots insturen. Vliegtuigen, helikopters, ezels met raketlanceerders. Alles is toegestaan om die gasten om te brengen.

Zulke mensen zijn het niet waard om met zulke ideologien rond te lopen op deze aardkloot.

Stelletje barbarenzijn het.
En wat denk je dat er gebeurt als killerrobots in handen komen van mensen die het westen een stelletje barbaren (ongelovigen) vinden? Juist, die worden dan tegen het westen ingezet. Want ons soort mensen is het niet waard om met onze westerse ideologieën rond te lopen op deze aardkloot.

Naar mijn idee blijft het ontwikkelen van dergelijke robots dus altijd een groot gevaar. Overigens denk ik dat het linksom of rechtsom sowieso zal gebeuren ergens in de toekomst.
Self destruct met C4 of termite zodra de robot breached is. Gewoon monitoren.

Ergste geval er een drone op afsturen met een hellfire raket en in groepen laten opereren nooit alleen.

ik denk dat dit wel fool proof te maken is. Mooie is ook dat je er geavanceerde shit nodig hebt om die drone te besturen. Als je ziet waar die barbaren mee lopen, denk ik niet dat zij zulke spullen hebben. Maar je mag het niet onderschatten.
Dan liever robots met elkaar laten vechten die gewoon door mensen worden bestuurd :)
Geen terminator die ik kan aanschaffen om nostalgische redenen?! :o
Alleen voor educatieve doeleinden denk ik..
Natuurlijk "educatieve doeleinden". Dit staat compleet los van mijn geheime plannen om de wereld te domineren! "kuch"

Like I said for hugs and stuff.. :X
In Zuid-Korea zijn ze toch al wel zover?
http://gizmodo.com/595504...f-night-from-three-clicks

Het is dat ze nog niet op wieletjes staan, maar behalve dat is het aardig in lijn met wat het rapport beschrijft.
Ik heb wel iets tegen wapens, maar de techniek erachter is toch wel zeer om van te kwijlen. Doet je denken terug aan command & conquer etc.
Als voorbeeld noemen ze het Israëlische raketschild Iron Dome en de Amerikaanse Phalanx- en C-RAM-wapensystemen. Deze defensieve systemen kunnen automatisch in actie komen als er een dreiging wordt gesignaleerd.
Ja tjonge, wel een beetje foute voorbeelden hoor. Die systemen hebben tot doel binnenkomende raketten of projectielen te vernietigen en verminderen daarmee dus het aantal slachtoffers. Gaan we die verbieden?
Verder doet een helm ook autonoom zijn werk. Mag dan ook niet..

Niets mis met Iron Dome. Groot gelijk dat ze die verder ontwikkelen.
Er zitten wel degelijk haken en ogen aan; zodra een land de al dan niet terechte indruk heeft dat zo'n schild 100% werkt wordt het opeens een stuk interessanter/veiliger om ook agressieve acties te ondernemen. Je bent immers in een veilige positie.
Hiermee wil ik niet zeggen dat ze verboden moeten worden, maar om te zeggen dat er niks mis mee is gaat toch echt te ver...
Beter nu dan nooit zullen we maar zeggen.
Of het ooit toekomstbeeld wordt is afwachten, maar het is beter het nu al te implementeren.
Ben echter bang dat net zoals met de nucleaire wapens er landen zijn die zich er niets van aantrekken.
Net alsof de landen die dat soort dingen willen maken het iets interesseerd of het mag of niet.
Noord Korea bijvoorbeeld, hoe vaak hebben "we" niet geprobeerd hun nucleaire programma tot stop te brengen dmv sancties. Ook geen succes.
Heeft een VN-verdrag wel meerwaarde in de praktijk?

Tegenwoordig hoeft een land niet haar eigen leger in te zetten om het vuile werk op te knappen. Er wordt gewoon een "beveiligingsbedrijf" als BlackWater (hernoemt naar Xe Services, later naar Academi) of een legioen huurlingen ingehuurd die niet gebonden is aan dat soort verdragen en convenanten.

Daarnaast is het maar de vraag of zo'n VN-verdrag wel geratificeerd wordt door overheden van grote mogendheden als USA, Rusland en China.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True