Geheel mee eens, maar gezien een partij als DARPA zich daarmee bezighoudt is het primaire doel oorlogsvoering.
En de mensen die bepalen hoe dat in z'n werk gaat hebben de meest basale modus operandi die er is, namelijk dusdanig veel vijanden uitschakelen/doden zodat die vijand zich niet meer kan verzetten tegen de macht van degene die de aansturing doet.
Op dit moment bestaan legers nog vrijwel geheel uit mensen. Deze robots krijgen dus als primaire modus operandi de opdracht mee om mensen te doden.
En ze gaan dat dus doen op de meest efficiënte en meest succesvolle manier die deze robots, die zonder twijfel als collectief zullen werken, kunnen bepalen door het op zoveel mogelijke verschillende manieren te doen.
Op welk moment zal de collectieve AI tot de conclusie komen dat de meest efficiënte methode volledige uitroeiing is?
Zoals je zelf al aangeeft is het nu al niet meer mogelijk voor mensen om alle noodzakelijke complexe processen vooraf in te programmeren.
Een militaire robot met een ingebakken wet dat hij geen mensen mag doden is onbruikbaar in het leger, die zullen er dus geen budget aan besteden als een dergelijke inhibitor wordt ingebouwd.
En dus theoretisch kan het punt komen waarbij de mens de controle volledig zal verliezen omdat politieke vrede en stoppen met vechten niet effectief is voor de primaire opdracht waarvoor deze robots worden gemaakt en ingezet.
Zeer zeker als deze robots een "brein" gebaseerd op het menselijk brein hebben.
Welk kind stapt er nu niet op enig moment buiten de grenzen die z'n ouders hebben gesteld?
[Reactie gewijzigd door Alfa1970 op 20 augustus 2024 05:39]