Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties

Het leger en de marine van de Verenigde Staten maken in toenemende mate gebruik van robots op het slagveld. Naarmate de robots meer autonomie verkrijgen, rijzen er ethische vragen rond het gebruik van de geautomatiseerde soldaten.

Vooralsnog worden de robots nog door mensen op afstand bestuurd, maar de zelfstandigheid van de toestellen neemt toe. Nu zullen het ook bij toenemende autonomie voorlopig nog mensen zijn die de beslissing nemen al dan niet de trekker over te halen, maar ook aan robots met grotere beslissingsbevoegdheden wordt hard gewerkt. Militaire onderzoekers werken aan robots die bijvoorbeeld zelfstandig een doelwit kunnen identificeren en die vervolgens aan de hand van de dreiging kunnen bepalen welk doelwit als eerste wordt aangevallen en welke munitie gebruikt moet worden. Een doembeeld in de richting van Terminator-achtige taferelen, waarin robots alle mensen structureel afslachten, is in dat geval niet ver weg meer.

Hoewel de praktijk minder bedreigend is, houdt het Amerikaanse ministerie van Defensie zich wel al bezig met ethische kwesties rond de inzet van een robotleger. Daarbij heeft de Amerikaanse marine de hulp ingeroepen van een Britse filosoof, die zijn expertise zal aanwenden om te helpen bij het ontwerp van gedragsregels voor robots. Zo zullen de machines conform de Geneefse conventie moeten strijden, wat onder meer betekent dat ze geen wraakacties mogen uitvoeren en mensen niet mogen martelen. Ook het Amerikaanse leger heeft derden ingeschakeld, nu in de vorm van een computerwetenschapper die meewerkt aan de ontwikkeling van software voor autonome robots.

Onderzoek heeft aangetoond dat Amerikaanse soldaten aan het Iraakse front meer dan eens marteling en wraakacties goedkeuren; een robot zou daar niet toe in staat zijn. Ook ontbreekt bij robots de noodzaak zichzelf te beschermen, zelfs al zou dat gezien de prijs van de hardware wel wenselijk zijn. Daarmee zouden robots ethischer dan mensen zijn, ook al beschikken ze uiteraard niet over de mogelijkheid tot reflectie.

Hunter-killer

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (154)

Wat er echt in het artikel staat:

De Brit is geen filosoof doch een Robotics Expert. Een ordinaire wetenschapper dus. Filosofen worden over het algemeen niet als wetenschappers betracht.
De filosoof is van de Indiana's University en heeft een boek geschreven mbt. Moraal en Machines.

In de filosofie worden robots meestal gedefinieerd als dat wat geen ethiek kan bedrijven, omdat dit speciaal voor mensen bedoelt zou zijn.
Beter gezegd: Er zou een reconstructie van de menselijke ratio moeten plaatsvinden, mits deze überhaupt bestaat. (Neurowetenschappen / Neurofilosofie / Filosofie)

[Reactie gewijzigd door Allubz op 1 december 2008 14:51]

Is filosoof niet Grieks voor: "vriend van de wijsheid" (uit Wikipedia)? Zoals ik het daar lees zijn filosofen mensen die streven naar de wijsheid. Is dat dan geen vorm van wetenschap en misschien wel zijn fundamenten?
Neem onderstaande alsjeblieft niet letterlijk, zeker de beledigende stukken niet, maar ik kon het niet nalaten om dit stukje te quoten
But you think you're an intellectual,
don't you, ape?

- Apes don't read philosophy.
- Yes, they do, Otto.

They just don't understand it.

Now let me correct you
on a couple of things, OK?
Uit de film A fish called Wanda

Filosofie is zeker een wetenschap, maar het is een van de weinige (enige? ik heb ook niet de wijsheid in pacht) niet empirische wetenschappen. Dat betekent dat kennis niet door verifieerbaar onderzoek wordt verkregen maar door redenatie en argumentatie. Voor zaken als ethiek is dit de enig mogelijke werkwijze.
Betrachten is een oud werkwoord dat in Nederland eigenlijk alleen nog in spreekwoorden/gezegden wordt gebruikt: "zijn plicht betrachten". Het woord dat je zoekt is "beschouwd" of "gezien"
Ongetwijfeld, ik studeer zelf ook filosofie aan een universiteit.

Studeren /= Wetenschap
Werken /= Wetenschap
Filosoferen /= Wetenschap
Onderzoek doen (ook naar filosofische schriften) kan heel goed wetenschap zijn.

Ik betrek me voornamelijk op de filosoferende filosoof :)

[Reactie gewijzigd door Allubz op 1 december 2008 15:37]

Ik vind dit een zeer goede ontwikkeling eindelijk kunnen we op zo'n manier levens uitsparen.

Want inderdaad zoals men beweerd worden er inderdaad mensen gemarteld.
Nu ben ik geen Amnesty International fanaat maar ik vind dat er wel eercodes moeten zijn op het slagveld zoals het niet aanvallen van een rodekruis voertuig.

Desondanks doen mensen dit toch en vind ik dit wel een zeer goede oplossing maar nu rijsen er een aantal andere vragen en kwesties rondom deze ontwikkeling

Iedereen denkt aan de software en regels maar dit gaat wel monopoly positie worden voor diegene die het meeste geld heeft=winnaar want zo'n ding is onverslaanbaar als je er over nadenkt want het is puur hardware en natuurlijk bepantsering kevlar hier titanium legering daar.

Plus je kunt mensen in een 3 ploegendiesnt die remote control laten afwisselen want het is een robot = geen vermoeidheid.

Dus oorlog voering wordt dan kinderspel met zo'n ding en niet iedereen kan zo'n ding veroorloven dus ik vraag me af hoe dit in de toekomstige oorlogen gaat uitpakken.

Persoonlijk denk ik niet aan een Terminator 3 of een I robot ik denk eerder aan een zeer snelle search en destroy actie waardoor een oorlog in een paar dagen is overwonnen.

En aangezien het amerika is zullen ze het denk ik gretig toepassen waardoor je massaal oil for food acties krijgt want in amerika is dat ook al redelijk schaars.

Met andere woorden als ze dit bv in Zimbabwe zullen loslaten kan zo'n arme boer echt niks beginnen tegen zo'n ding en zal het gewoon toe moeten geven aan zijn meerdere

Want in irak deden ze ook oil for food programm etc.. in het geheim want wat ze weghaalden waren wel even wat meer dan de opgegeven getalletjes van de UN en met zo'n ding gaat dat ook heel wat sneller

MIsschien krijgt dat ding wel zo'n commando tegen de vijand van : vul mij met olie of ik schiet je lek.met mijn laatste beetje oid
Ik moest hierbij meteen denken aan de "Three Laws of Robotics".

Dit is een paar jaar geleden ook verfilmd (I, Robot), en toen leek het zo ver weg, maar blijkbaar is het dichter bij dan we dachten.
Hier moest ik ook direct aan denken. Het systeem is redelijk eenvoudig en het lijkt me echt wel de oplossing voor deze dingen.

Je laat de robot een beslissing maken over iets bepaald. Voor dat de robot deze beslissing mag uitvoeren, voert hij de beslissing door een aantal regels. Is er een overtreding op een bepaalde regel, mag de actie niet uitgevoerd worden.

Voorbeeldje:

Robot heeft als functie de munititevoorraad op een slagveld aan te vullen. Deze robot kan zelf verbanden leggen en deze tot een actie omvormen. Hij merkt dat de munitievoorraad leegraakt doordat de soldaten hier items van wegnemen. Denkt die robot: Als er geen mensen zijn, is mijn munitievoorraad altijd 100%. Besluit: elke mens uitschakelen voordat ze een item uit de voorraad nemen.

Nu zijn we gekomen aan het probleem hoe dit op te lossen.

De robot heeft zijn besluit genomen maar gaat dit eerst door een set regels loopen. Als voorbeeld de "Three Laws of Robotics". Deze kunnen natuurlijk even goed uitgebreid worden tot de 50 laws of robotics.

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey orders given to it by human beings, except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.


Bij de eerste regel laat hij het idee al varen en is er geen probleem meer.

Zolang dit systeem consequent wordt doorgevoerd en de robot na het doorlopen van de regels geen AI besluiten meer kan maken, begrijp ik niet goed waar het probleem nog ligt. Ben natuurlijk ook maar n enorme leek op gebied van robotica :p


Het wordt dan natuurlijk een pak moeilijker als je robot mensen moet gaan afmaken. Hoe ga je vriend van vijand onderscheiden? Kleding zal hier dan een grote rol spelen maar hoe lang gaat het duren tot de vijand dezelfde kleding als vriend draagt. Dan is het eerder een beter idee om alle manschappen een transponder te laten dragen op het slagveld. Maar dat kan ook weer nagemaakt worden, gescrambled worden, enz... enz...

Het is gwoon een straatje zonder einde. Zolang men met technologie werkt, zal de vijand hier steeds op reageren. Wat altijd het eeuwige slagveld buiten de oorlog is geweest.

[Reactie gewijzigd door Blue2ter op 1 december 2008 15:22]

Het echte probleem begint als je de robot wil laten leren iets wat toch wel nodig is in oorlogs situaties bijvoorbeeld anders worden ze net als de AI in computer spelen te voorspelbaar en makelijk te verslaan.

Als een robot kan leren betekend dat dus ook dat een robot voor een deel zijn eigen programatuur en regels moet kunnen aan passen en op dat moment kom je in een echt schemer gebied terecht waar bij een robot dus in ieder geval in theorie zou kunnen besluiten dat het beter is om jouw uit te schakelen omdat er dan minder slachtoffers vallen en de oorlog sneller over is bijvoorbeeld.

Het lijkt heel simpel om regels op te stellen over wat we en niet mag voor een kunstmatige inteligentie maar het is heel veel moeilijker dan het lijkt.
Wij mensen zijn al vele duizenden jaren bezig op deze planeet met elkaar uit te moorden te stelen liegen en bedriegen. Genocide nooit meer roepen we steeds als er weer een paar honder duizend mensen van de een of de andere bevolkings groep om het leven gekomen zijn.
Dat soort regels op stellen voor mensen zo als bijvoorbeeld de Geneefse conventie is leuk en aardig maar voor alle mensen die nog dagelijks in Irak etc. dood gemarteld worden heeft het totaal geen betekenis.
Voor robots is het natuurlijk iets anders omdat sommige regels mischien niet te overschrijven zijn, maar als je vijhand dat wel doet kun je dan nog steeds vol blijven houden dat je dat niet kan doen; ook niet als je aan de verliezende hand bent?

Ik weet dat het vanzelf gaat gebeuren en net als iedereen op deze planeet die er ook maar even over na denkt weet ik dat de robots gemaakt gaan worden in ons evenbeeld en dus zullen zij net als wij niet perfect zijn. Daar bij komt nog eens dat ze door mensen gemaakt gaan worden en er dus on ontkomentlijk fouten gemakt gaan worden iets wat er toe kan leiden dat wij uit eindelijk aan het kortste eind zullen trekken.
Mja, een gevechtsrobot welke niet mag moorden (niet dat moorden goedkeur) schiet ook niet op. Die eerste regel zou dus alleen gelden voor huis-tuin-keuken robotten. In het leger is het wel handig dat zo'n ding de tegenstander wel neerschiet.
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Lijkt me nogal lastig als het een robot soldaat is. Veel "vijanden" zullen er niet worden neergeschoten :-)
Klopt hoor, maar die 3 regels zijn gewoon een voorbeeld van... Dit is uit een scifi boek dus je moet het niet te serieus nemen :)

Je zou hem eventueel kunnen aanpassen naar:

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm unless it's an enemy.

Maar dan komen we bij het verhaaltje dat ik onderaan getypt heb in vorige post.
Nulde Wet
Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.
Vertel er dan ook meteen even voor het gemak bij van wie, wat en hoe...

In de jaren '50 heeft een sci-fi schrijver genaamd Isaac Asimov de 'Drie Wetten der Robotica' geïntroduceerd in een verzameling korte verhalen, later gebundeld en beter bekend onder de naam 'I Robot'. Onlangs is het boek verfilmd (naar mijn idee een bijzonder slap aftreksel van het boek, al was Will Smith als Elijah Baley wel goed gecast).

In het verloop van de verhalen, die hoofdzakelijk robotpsychologie behandelen op hetzij spannende wijze, hetzij op humoristische wijze, wordt een voorzet gegeven in een richting die in latere romans uitgediept wordt en vormen de 'Drie Wetten' de grootste leidraad voor een groot deel van Asimov's verhalen, bundels en romans.

De 'Nulde Wet' staat boven de 'Eerste Wet' en 'overruled' alles daaronder, de 'Tweede Wet' en de 'Derde Wet' en is door een robot ontwikkeld om de mensheid te behoeden voor het uitsterven. De 'Nulde Wet' is dermate triviaal dat in de verhaalontwikkelingen uiteindelijk een soort van burgeroorlog uitbreekt onder robots. Het omhelst namelijk het volgende idee:

stelling: Y > X

Als je als robot een X aantal mensen niet redden kunt ten gunste van een Y aantal die je dan wél redden kunt, is het dus beter de Y groep te redden en de X groep te laten verrekken.

Het gaat dus om het dilemma. Als de 'Wetten' er hard genoeg ingebakken zijn en het dilemma zoals hierboven speelt zich voor gaan er onherroepelijk mensen dood, onschuldige mensen. Door het dilemma zal het brein simpelweg 'stallen', doorbranden wellicht. In een ramzaliger scenario slaat 'ie op hol en gaat knallend in het rond, wie weet.
Die eerste regel is natuurlijk funest voor een oorlogs robot :9. Of hij moet mensen kunnen uitschakelen zonder hem pijn te doen.
...begrijp ik niet goed waar het probleem nog ligt. Ben natuurlijk ook maar n enorme leek op gebied van robotica
Het probleem zit 'm niet bij robotica, maar bij de software. Het is een immense opgave om zelfs maar software te maken die de intelligentie van een mier overstijgt.
Er is momenteel gewoon nog totaal geen punt in zicht van ook maar matige kunstmatige nuttige intelligentie bij robots. Het wordt keer op keer onderschat.
Hoeveel tienduizenden programmeurs werken er niet aan Windows? Zelfs 't eenvoudig openen of opslaan van een bestand (ik noem maar iets willekeurigs) kan bij Windows al hopeloos mis gaan. En dat met die tienduizenden programmeurs achter zich. Lijkt Windows al enigszins intelligent? Totaal niet.
Wet 2 stelt indirekt dat een robot naar geen enkel mens mag luisteren.
Dit vanwegen het feit dat wij allen ( indirekt ) verantwoordelijk zijn voor de dood van andere mensen
Wet 3 is ook nogal vreemd. De robot heeft namelijk resources nodig. Die zelfde resources zouden ook gebruikt kunnen worden om een mensenleven te redden.
Oftewel, de robot moet zichzelf kapot laten gaan.

Ja, ik gebruikt het woord "indirekt" meer dan 1 keer.
Let op wet 1. inaction
Het wordt dan natuurlijk een pak moeilijker als je robot mensen moet gaan afmaken. Hoe ga je vriend van vijand onderscheiden? Kleding zal hier dan een grote rol spelen maar hoe lang gaat het duren tot de vijand dezelfde kleding als vriend draagt. Dan is het eerder een beter idee om alle manschappen een transponder te laten dragen op het slagveld. Maar dat kan ook weer nagemaakt worden, gescrambled worden, enz... enz...
Even een vraag die nu misschien wel heel dom klinkt, maar als de vijand dezelfde kleding, gekloonde transponders etc heeft.. Hoe maakt een mens dan het onderscheid?

Een mijns inziens veelgemaakte fout is dat men van een AI-systeem verwacht dat deze beter kan presteren dan een mens.
Er lopen al van dat soort robots rond in in Zuid Afrika, zie hier. Schijnt goed te werken.

(lees dit bericht van mij over een jaar of 25 opnieuw en er is niets vreemds meer aan)

@hieronder: het filmpje is niet echt - vandaar de nadruk op het opnieuw lezen over 25 jaar - maar de kans dat zoiets werkelijkheid is over 25 jaar acht ik heel erg groot. Kijk naar ASIMO, die al een jaar of drie rondloopt. Een robot die al prima zelf kan lopen en in het openbaar bekend is/commercieel te krijgen is. Achter de schermen zijn er veel bedrijven die ook aan robots werken, misschien zelfs prototypes die het publiek niet gezien heeft, maar nog veel geavanceerder zijn dan bijvoorbeeld ASIMO. Ik vind het vreemd dat veel mensen het zo vergezocht vinden allemaal. De ontwikkelingen gaan harder dan wij weten/denken. Als je er nu niet over hoort betekent niet dat er in de laboratoria geen prototypes zijn.

Een andere vraag die ik meer van betekenis vind is of die manier van beveiligen, zoals in mijn eerste filmpje, ooit bewaarheid zal worden. Zelfde verhaal met het leger, robots hebben een hele hoop voordelen, die met de tijd meer en meer gaan wegen en mits goed ingezet, een goede aanvulling kunnen zijn op mensen en misschien het leger.

[Reactie gewijzigd door Tjeerd op 1 december 2008 16:15]

Je denkt hopelijk niet dat het filmpje echt is huh? De kans dat zoiets over 25 jaar werkelijkheid is, is een ander verhaal...
Fout.

Die robots lopen alleen rond in de gedachten van Neill Blomkamp, de director die dat filmpje maakte.

De robots zijn gemaakt door The Embassy en lopen ook in hun computers rond als 3d model. Juist ja, dat zijn dezelfde heren als van de Citroenfilmpjes met de dansende auto.
De ontwikkelingen gaan harder dan wij weten/denken.
Je haalt twee zaken door elkaar. Robots (fysiek) ontwikkelen gaat inderdaad voortvarend. Maar de software: die blijft totaal achter. Zo'n Asimo, dat ziet er leuk uit. Maar alles is voorgeprogrammeerd. Hij kan een obstakel omzeilen als je 'm opdracht geeft ergens heen te lopen. Daarmee heb je zo ongeveer de belangrijkste vorderingen gehad op software gebied. En dan nog... Er zijn ook filmpjes dat ie van een trap kukelt. Je zou bijna medelijden krijgen. Terwijl dat nergens op slaat - 't is een stuk mechaniek!!
Er zijn wel kleine vorderingen op softwaregebied maar dat stelt echt nog niks bijzonders voor. Zeker niet vergeleken met de vorderingen op het mechanische.
Alleen zijn alle drie niet van toepassing op oorlogsrobots, =D. De derde misschien, maar die ook maar gedeeltelijk.
Scherp. :)

Ze zullen inderdaad aangevuld moeten worden met het concept, vriend en vijand. De drie wetten zullen dan in plaats van 'human', 'friendly human' moeten gebruiken.
Tja, maar dan wordt het echt tricky. De robot mag vervolgens zelf beslissen of een mens vijandig is of niet?
Inderdaad, en dat mag jij ook. Daarom voeren mensen oorlog. Omdat een groep mensen een ander als bedreiging zien voor hun land, vrijheid of ideeën. Dit is geen menselijke eigenschap maar één van de natuur.

De truk is dus om het perspectief van de kunstmatige intelligentie te laten grenzen aan jouw idee van hetgeen dat verdedigen dient te worden.

Het probleem is echter, dat hetgeen dat verdedigt dient te worden naast de relatief simpele en verre van ideale "three laws" de rest erg moeilijk definieerbaar is. Een voorbeeld is: 'verdedig onze troepen', 'verdedig de burgers', etc..

Probeer deze doelen maar eens te definiëren. Zelf ben ik programmeur dus ik weet hoe lastig het is om een computer iets te laten "begrijpen". Object geörienteerd ontwerp lost daarbij een hoop op, maar complexe interacties met niet fysieke objecten blijft lastig. Een fysiek object is makkelijk te classificeren en vaak zijn zijn eigenschappen makkelijk te meten.

Zo kan je de computer makkelijk laten "begrijpen" dat een auto 4 wielen heeft. Maar als we een mens hebben. Welke karakteristieken houd die persoon aan de kant van de "good guys"?
Op moeilijke zaken zijn vaak makkelijke antwoorden mogelijk ;)

Alles wat kleiner is dan 1,5meter en een mens is neerschieten :) Vervolgens worden er enkel nog maar kleine mensen van onder de anderhalve meter in het eigen leger aangenomen.

Opgelost! }:O 8-)
Lees je post nog eens goed door.
1. jouw robot begint zijn eigen leger af te knallen
2. jouw robot doet niets tegen vijandelijke robots
Vergissen is menselijk, maar je wilt niet dat degelijke vergissingen in de software van zo'n robot zit en daar zou ik erg bang voor zijn.
Stel het volgende voor;

Het is het jaar 2040, meerdere grootmachten beschikken over een flink arsenaal van deze robot-soldaten. Dan breekt een oorlog uit (je hebt die dingen immers niet voor niets). 2 naties laten hun robot-soldaten het tegen elkaar opnemen.

De strijd is gestreden, er zijn geen robotsoldaten meer bij de verliesende partij. Wat gebeurt er dan? Gaat de verliezende partij zich dan overgeven? Of gaat deze terugvallen op de 'oude manier' van oorlog voeren. Gewoon mensen sturen.

maw Wat is het nut van deze ontwikkelingen?
Goed punt.

Het nut is denk ik dat het ene land (in dit geval Amerika) een stap voor is op de rest van de wereld, tot deze Amerika weer inhalen.

Hetzelfde principe was geldig voor de atoombommen. Duitsland was al een heel eind met hun bommen, toen kwam Amerika en "stal" een paar Duitse kernfysici maar ondertussen werkte Rusland ook al vrolijk door aan zijn bom.
Wie hem het eerst heeft en inzetbereid heeft is het gevaarlijkst. Spreekwoordelijk in het Duits: "penisvergleich".

Misschien moet je het meer zien zoals sommige computerspellen het op dit moment neerzetten of bijvoorbeeld Star Wars. Er lopen machines rond die alles kunnen afknallen maar toch moet er infantrie zijn en speciale eenheden om de oorlog met succes te kunnen afsluiten.
Volgens mij stuurt het verliesende partij alle kernbommen naar tegenpartij...
want overgeven is geen optie, anders nemen ze hun land in, en alle voorraden in beslag nemen, of zoiets.... misschien gaan ze ook genocide plegen, want je kunt het nooit weten of ze het wel doen.

Iemand heeft mij gezegd: "paranoid kan je beste vriend zijn."
Sorry ik vind het geen goed punt.

Het is niet dat deze robots toptechnologie zijn op gebied van oorlogvoering... Het is een lapmiddel om de grondtroepen te vervangen.

Als er toch 2 grootmachten tegen elkaar beginnen, denk je echt dat er dan nog gebruik gemaakt wordt van grondtroepen? Een ECHTE oorlog tussen 2 grootmachten zal enkel beschonken worden met kernenergie of misschien in 2040 een nog explosiever goedje.

Grondtropen zijn, zelfs al in deze tijd, enkel een ondersteuning voor de burgers en niets anders, hier worden oorlogen niet meer mee gewonnen...
Grondtropen zijn, zelfs al in deze tijd, enkel een ondersteuning voor de burgers en niets anders
Hmm recent nog eens naar het nieuws gekeken? Het gaat niet heel goed met de grondtroepen in Irak en Afghanistan.
Jah dit zijn dan ook grootmachten... |:(
"Daarmee zouden robots ethischer dan mensen zijn, ook al beschikken uiteraard ze niet over de mogelijkheid tot reflectie"
Fout! Ethiek is afwegen en tot een keuze komen. Dat kan nooit op grond van een vaste set van regels. Al zijn er stromingen die zeggen van wel...
Juist met een vaste set van regels kan je beter ethiek bedrijven. Een robot zal dus de regels afwerken en aan de hand daarvan zijn keuze maken, daar waar bij mensen nogal eens emoties de overhand kunnen hebben.

Bijvoorbeeld de keuze om wel of niemand uit te schakelen.

Een robot kan een set regels aflopen van:
- Is hij bewapend en klaar om te schieten
- Wat is de afstand?
etc om het gevaar in te schatten.

Terwijl een soldaat zoiets kan hebben van:
'Vieze @#$@^, ik knal je neer'
of
'Een week geleden heeft hij of een vriend van hem een collega van mij neergeschoten'
Stel er staat een groepje Afganen in de lucht te schieten vanwege een bruiloft.
Stel iemand ziet de robot aankomen en weet niet wat het is. Voor de zekerheid pakt hij zijn geweer en richt erop terwijl hij er naartoe loopt.
Stel kinderen lopen rond met namaakgeweren
Stel.......

En dan is dit nog niet eens ethiek :D

Er is in het Neerlandsch recht een voorbeeld over een kind dat gehandicapt geboren werd en die een ziekenhuis aanklaagde (de advocaat van de ouders dan) vanwege haar geboorte. Met juiste medische gegevens zou ze namelijk nooit geboren zijn. Ze vroeg een schadevergoeding.

Ethisch puntje: Als je een schadevergoeding toekent dan geef je het leven een waarde/prijs. Als je het afwijst dan geef je aan dat het leven geen waarde heeft.

Het ligt allemaal iets complexer waardoor dit voorbeeld nu een beetje mank gaat. Maar het is een ideale casus om te snappen dat ethiek niet alleen uit regels bestaat. In de bestreffende casu sprak de Hoge raad uiteindelijk uit dat het slachtoffer niet kon weten hoe het zou zijn om niet geboren te zijn en dat het dus ook niet kon weten of gehandicapt leven slechter was dan niet geboren zijn. Mooi staaltje rechtspraak ;)
Ethiek is de gedachtegang achter goed en fout voor >mensen<. Je kan niet verwachten dat een broodrooster met een geweer ethisch verantwoorde keuzes kan maken hier is namelijk bewustzijn voor nodig.

De mensen die het ding programmeren geven de betekenis die het aan de input moet geven en de gepaste reactie op die input. Daar komt geen gedachte aan te pas slechts een hele lange wiskundige berekening.

Tijdens oorlogen gebeuren vreselijke dingen door menselijke emoties en dat is maar goed ook! Als oorlogen een steriele aangelegenheid waren dan hadden we oorlogen om niets omdat er toch geen zware consequenties zijn. Het feit dat oorlog vreselijk is zorgt er voor dat we er heel lang en goed over na denken voor we er aan beginnen.
Amerika, toch het land dat ik het minste vertrouw als het op dit soort dingen aankomt.

We weten allemaal dat ze dergelijke conventies aan hun laars lappen met systematisch martelen op grote schaal. En tevens gewoon onschuldige burgers een nekschot geven die allang allemaal met hun handen in de lucht op hun knieen zitten. Orders die allemaal van hogerhand komen, en beslist worden in de hoogste lagen van hun defensiesysteem.

Waarom zouden ze wat robots betreft dan wel "netjes" zijn?
Volgens mij gaat het niet echt om het land. In elke staat van enigsinds slecht georganiseerde oorlog gebeuren op micro-niveau altijd dingen die niet conform de "wetten van de oorlog" zijn.

Hetzelfde vindt je terug in de Tweede Wereldoorlog bij zowel de Nazis als het Rode Leger of bijvoorbeeld Amerika in Vietnam en ga zo maar door.

Die robots moeten ze dus afstellen op die manier dat ze gevaar kunnen inschatten. Daarbij zou uiteindelijk een burger (een verklede terrorist) dus een groen logotje krijgen en iemand die met een "zwart object, variant X, gevaarlevel Y" rondloopt het rode logotje krijgen en zo snel mogelijk worden afgeschoten.

Zoals ik al eventjes zei, er zijn erg veel problemen voor het team om te overkomen:
- Een verklede terrorist
- Een eigen soldaat (die net door de modder is gerold)
- ga zo maar door


Kort: Dat je Amerika zo afschrijft, is een beetje naief aangezien de geschiedenis laat zien dat geen enkele persoon in een oorlogsituatie zo is, zoals hij thuis is als hij met z'n kinderen Monopolie speelt.
Simpel: De verklede terrorist is effectief een burger, en kan eenvoudig een enkele robot uitschakelen. Gezien deze dingen meet tot het laatste moment, kan het object (de guerilla) als vijandig worden aangemerkt door de tweede robot die een aantal meters verder staat (en derde, en vierde).

Erg leuk voor object- en persoonherkenning software schrijvers, en dit allemaal te netwerken op real-time kaarten.

1 robotje van een paar ton weg, vs een vijand. Geen burger die per vergissing word beschoten doordat deze te laat op de rem trapte oid.
Ooit al eens van Guantanamo gehoord? Abu Graib? Bron: zowat eender welke krant van de afgelopen 3 jaar.
Veel wapensystemen zijn in wezen toch al een soort robots? Volgens mij kan je een raket programmeren welk doel hij moet vernietigen en vervolgens voert die raket geheel autonoom die taak uit... Of kijk ik te veel films? ;)

Het omslagpunt waar het hier om gaat is volgens mij vooral dat er ook automatisch bepaald gaat worden wat de doelen zijn en wanneer deze uitgeschakeld moeten worden. Een bug in de fine tuning die hier voor nodig is kan rampzalig zijn. Ik verwacht niet dat men snel dergelijke beslissingen aan machines over laat. Het systeem kan natuurlijk wel een suggestie doen. "Zal ik doel X op positie Y vernietigen?" :Y)
Op 20 meter afstand staat een terrorist met gericht wapen... zal ik schieten? 'Ja/Nee'...... Ben bang dat dat niet werkt :P
Waarom niet? Je kunt een camera-uplink maken naar een controlecentrum. Daar zit een aantal soldaten beelden te bekijken. In zo'n situatie kan een mens in millisecondes oordelen. Electroden op de schedel kunnen de schietbeslissing detecteren, en de elektronische verwerking gaat sneller dan de zenuwen om een hand aan te sturen. Zo'n soldaat/robot combo kan dus juist sneller beslissen en terugschieten. Bovendien kun je 10 soldaten 20 robots aan laten sturen, omdat de simpele beslissingen (doorrijden tot de hoek en dan rondkijken) niet meer door mensen gemaakt hoeven te worden.
In het artikel gaat het niet om robots die op afstand bestuurt worden door soldaten,maar om robots die geheel zelfstandig zouden moeten 'opereren'. Dat is een wereld van verschil natuurlijk. :)
Het nare is dat oorlog vooral ook psychologisch is; nadat de Russen verkrachtend en plunderend wraak hadden genomen op de Duitsers waren we nog jaren bang van ze. Juist die dreiging zorgt vaak voor overgave. Denk maar aan bombardementen zoals op Dresden, dat is gewoon de burgerbevolking op grote schaal martelen totdat ze de regering dwingen tot overgave. Een robot die bij ieder ethisch bezwaar stopt werkt dus niet. Zelfs in de middeleeuwen was het vaak de terreur van veldslagen die oogsten verwoestte en hele dorpen en steden werden verbrand. Ook kindermoord en verkrachting waren toen heel gewoon; het waren toch immers geen christenen/moslims/Joden enz.

Die hele martelings kwestie in Irak is een doofpot affaire want het is gewoon door Cheney en Rumsfeld bevolen om te doen. Daar helpt geen ethische robot tegen. Die Iraakse gevangenen werden gewoon klaargestoomd voor Guantanomo Bay.
Als er grote "mechs" door de straten lopen waarop AK kogels afketsen moogde u is proberen "niet psychologisch aangetast" te voelen :)

De robots hebben mss geen verkrachtingen oid, maar als ze goed ineensteken kan hun overkill wel eens voor een schrikwekkend effect zorgen.
Denk maar aan bombardementen zoals op Dresden, dat is gewoon de burgerbevolking op grote schaal martelen totdat ze de regering dwingen tot overgave.
En dat werkt dus niet, net zo min als de bombardementen op Londen. De bevolking wordt er alleen maar vastberadener door.
ED209?
Skynet?

Zoek de 10 verschillen
Zo zullen de machines conform de Geneefse conventie moeten strijden, wat onder meer betekent dat ze geen wraakacties mogen uitvoeren en mensen niet mogen martelen.
Tja. Dat is niet zo moeilijk. Dat zijn typisch menselijke eigenschappen. Net zoals Barmhartigheid en vergiffenis. Kent zo'n apparaat ook niet.

[Reactie gewijzigd door 0vestel0 op 1 december 2008 14:46]

Zulke propaganda doet me toch wel luidop lachen.

Ethisch oorlog voeren, is dat iets nieuws? :P
*We schieten je dood, maar wel op een humane manier* ... olé ...

Heel cool die robots, maar niet echt tof voor de 'targets'.

Hoe ver staat men met de emp-bom? Als die er is, is hun leger niks meer waard.

[Reactie gewijzigd door ? ? op 1 december 2008 15:21]

tja, je kunt onder ethisch laten vallen, het niet gebruiken van gifgassen, geen burgers martelen etc. etc. de conventie van Genève is er niet voor niets.

Dat oorlog niet ethisch is, is weer een heel andere discussie.
de conventie van Genève is er niet voor niets
De Geneefse Conventie is achterhaald, waarom...? Omdat er gesproken wordt van combattanten die duidelijk herkenbaar zijn als combattant, laat het nu zijn geworden dat de laatste 'gewone' oorlog in 1992 in Joegoslavië was, alles daarna is moeilijk te toetsen naar deze richtlijnen. Want wanneer de 'tegenpartij' zich niet openlijk als combattant profileert, geen land of regering vertegenwoordigd, wie schend dan als eerste het verdrag van Genève?

Plus dat ik uit eigen ervaring weet dat je daar erg nerveus van kan worden, wanneer je niet weet wie - wie is.[September 1988-Free Lion, Palastijnse strijders overvallen regelmatig als burger gekleed geallieerde soldaten voor hun wapens - drie maal raden wie er mee deed en 's nachts patrouille liep met 'scherp']

Daar komt bij dat de Geneefse Conventie van kracht is op regeringen/landen en het verdrag zijn oorsprong had in het einde van de tweede wereld oorlog, wat een totaal andere wereldpolitiek had.

Nee, het wordt tijd voor een nieuw verdrag - maar wanneer de VN (wat ook al een instrument uit de 20' eeuw is) zo machteloos is ten opzichte van het hedendaagse wereldpolitiek, zie ik het somber in.
De Geneefse conventie is niet zozeer achterhaald als onvolledig. In "failed states" als Somalie werkt het concept inderdaad niet. Je tegenvoorbeeld is daarentegen weer geen probleem. Burgers die gewapend en in groepsverband tegen het wettelijk gezag opereren zijn criminele bendes. Die vallen onder nationaal recht. Dat wil zeggen dat je ze niet krijgsgevangen mag nemen, of voor onbepaalde tijd gevangen mag zetten (wat Israel dus wel doet).
Hoe ver staat men met de emp-bom? Als die er is, is hun leger niks meer waard.
Die robots worden gewoon EMP-bestendig (kwestie van afschermen). Dat is technisch geen probleem. De reden dat consumentenelektronica en de meeste elektronica in bedrijven niet EMP-bestendig is is omdat dit een nogal dure grap is terwijl het geen enkele meerwaarde heeft zolang er geen reëele vrees voor een EMP is.

[Reactie gewijzigd door W3ird_N3rd op 1 december 2008 21:39]

Worden ze dan ook meteen laser en/of bazooka-bestendig ? Het blijft een eeuwig spelletje/race. En de vijand zou een kopie van de software in handen kunnen krijgen, waarmee men middels reverse engineering de zwakheden kan vinden ...

Op een nieuwe doorbraak volgt bijna altijd een nieuwe contra-doorbraak, waardoor het weer in evenwicht is. Net zoals in Afghanistan, daar worden de nieuwste generatie gevechtshelicopters ($$$ !) simpelweg neergehaald door bazooka's die de USA zelf 20 jaar geleverd hebben ...
Worden ze dan ook meteen laser en/of bazooka-bestendig ?
Nee. En natuurlijk zal zich uiteindelijk weer een evenwicht vormen.

Maar dit gaat er niet over dat er onverslaanbare gevechtsrobots zouden komen. Het gaat erover dat er robots komen die zelfstandig minstens zoveel schade als een mens kunnen aanrichten en hoe die met situaties om moeten gaan.

Een menselijke soldaat is evenmin laser en/of bazooka-bestendig, dus dat is geen beperking om in het slagveld ingezet te worden.
Dan nog: een robot kan eventueel zelfmoordacties uitvoeren. Je kan hem zo een grot met Taliban strijders insturen en als ie dreigt gesloopt te worden dan blaas je hem gewoon op. Het is geen mens maar een vervangbare machine..
Dit hoef je dan niet elke keer te doen, op een geven moment geven strijders zich dan al over voordat je hem inzet. Taliban zijn ook al bang voor overvliegende (stokoude) B52's omdat die zulke enorme bomtapijten kunnnen leggen.

De SWORDS is overigens al best gevanceerd ook zonder autoome sturing.
Klopt, het lijkt mij niet bepaald bemoedigend om je leven te wagen voor een aantal robots die behoorlijk gericht en zonder emotie schieten. Maak ze ook nog lekker drijgend qua uiterlijk en je komt een heel eind. Zo gaven bijv. tijdens de eerste Golf-oorlog, aardig wat soldaten zich over aan de eerste robot-vliegtuigjes en kan ik mij herinneren dat een aantal piloten het al opgaven toen ze de F117 (die zwarte, vliegende driehoek) in het maanlicht zagen verschijnen. Imponeren, als je dat kan heb je al veel gewonnen.
Die nieuwe generatie gevechtshelicopters werden door dezelfde generatie hittegeleide rakketten neergehaald.

Het zijn geen simpele bazooka's, maar hoogst geavanceerde stukjes techniek.
Regels in een oorlog, dat is hoewel leuk voor burgers, niet altijd handig.

In war, those willing to bend / break the rules will generally win.
Een T-1, de testontwerpen die de T-X activeerde in terminator 3, arnie rukte van zo'n ding de arm af en schoot een andere ermee overhoop.

Nog ff doorontwikkelen tot we een T-800 hebben, en dan wel de stem in laten spreken door arnie :Y)
Films met robots zijn zo fake als het maar kan. robot runt een programma.
Als dit fixed is. ROM voorgebakken. Dit kan je zien als basic instictief gedrag tov die biologische formen voort brengt.
dan is er geen emotie vorlijkheid sentiment haat afkeer etc. Wat kan lijden van hippie gedrag tot genocide .
'n Robot kan dat ook. Want 'n Amerikaan met voldoende toezicht maakt een robot met geneve conventies beperkend. De CIA Specialops heeft een assasin programma.
en als de Amerikaantjes het hebben. zijn de jappen er nog verder mee maar dan civile toepassing. En als paar landen de tech niek hebben dan komt het ook een op de markt, En evil landen zullen uiteraard de geneve conveties er niet in pleuren.
Of Genocide er in programeren. 'n robot doet dat 24/7.
En gezien er groot geld in gaat mogelijk ook al snel te koop ook voor terroristen.

Dan Terminator verhaal. Zodra AI ook zelfbehoud en zelf lerend en adoptief kunnen ontwikkelen. Creeer je iets dat autonoom zelf peoriteiten gaat ontwikkelen. zoals die mensen zijn niet goed voor zelfbehoud en survival. Bevoorbeeld AI gaat mensen beoordelen.
De kans op Terminator is groot. En vooral AI met een eigen mening moet je niet hebben. Ten zij je een overheersend basis code hebt die alles over ruled.

Maar zoals men zegt over biologische species 'Live finds it way' Zo ook complexe software sysyemen.
http://www.kuro5hin.org/prime-intellect/

Hier een quote uit "The Metamorphosis of Prime intellect":
Intellect 39 included code and memories from a series of previous Intellects, going all the way back to Intellect 1, which had been a program written for a high-end desktop computer, and also including the much larger Intellect 24. Intellect 9 had been the first equipped with a microphone and a speaker. Its predecessors had communicated with him strictly through computer terminals. Lawrence had spent many painstaking months talking to it and typing the translation of the sounds he was making. It had learned quickly, as had its successors. Intellect 39, which was optimized as much as Lawrence could manage for human communication, probably had the combined experiences of a ten-year-old child. One with a good teacher and a CD-ROM in its head.
"Your tricks with words prove nothing, machine. I still don't think you are alive."
"I never claimed to be alive. I do, however, think."
"I refuse to believe that."
"It must be a terrible burden to have such a closed mind. I know I can think, but I sometimes wonder how people like you, who refuse to see what is in front of your faces, can make the same claim. You certainly present no evidence of the ability."
The preacher's lips flapped open and shut several times. Lawrence himself raised his eyebrows; where had it picked that up? He foresaw another evening spent interrogating the Debugger. He was always happy to receive such surprises from his creations, but it was also necessary to understand how they happened so he could improve them. Since much of the Intellect code was in the form of an association table, which was written by the machine itself as part of its day-to-day operation, this was never an easy task. Lawrence would pick a table entry and ask his computer what it meant. If Lawrence had been a neurosurgeon, it would have been very similar to stimulating a single neuron with an electrical current and asking the patient what memory or sensation it brought to mind.
Ik begrijp niet helemaal wat je punt nu precies is..
Maar zoals men zegt over biologische species 'Live finds it way' Zo ook complexe software sysyemen.
Het loopt alleen maar vaker geheel vast naarmate de software complexer wordt. Kijk maar naar Windows. En komt Windows met zijn 1 miljard programmacode nu slim over? Niet bepaald.
'T is niet voor niks dat ze voor Windows8 opnieuw beginnen - en veel modulairder.
Nee... Zelfs in de meest optimistische breinen (van mensen met verstand van zaken) heeft software nog een extreem lange weg te gaan wil 't ooit ook maar een klein beetje te vergelijken zijn met 'life'. Op dit moment is er gewoon nog totaal geen enkele zicht op zoiets in de verte.
Ik zeg er niet snel wat van, maar ... Jezus, ik moest me toch een moeite doen om te begrijpen wat je nu eigenlijk schrijft....
Nee, het is de "Tracked Hunter Killer" uit Terminator.

zie: http://www.goingfaster.co...K%20technical%20data.html

[Reactie gewijzigd door reiplrecordz op 1 december 2008 14:49]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True