Reacties (35)
- Autonome wapens hebben geen emoties of de mogelijkheid daadwerkelijk autonoom te kunnen denken en zullen daarom een "tegenstander" mogelijk zonder meer neerschieten/opblazen/etc. Een menselijke soldaat maakt misschien ook fouten, maar maakt ook beslissingen die onschuldige levens redden. Kijk naar alle zogenaamde "collateral damage" van bommenwerpers en drones. Onschuldige levens zijn makkelijker te vergeten als het ver van je af staat.
- Dat is ook mijn tweede punt: autonome wapens maken dat oorlog nog verder van ons af komt te staan. We sturen tenslotte gewoon een "robot" naar Afrika of het Midden-Oosten om het op te lossen. Geen soldaten met families, alleen nog maar robots vs anonieme slachtoffers. Dat maakt dat een geweldloze oplossing minder interessant wordt en dat is niet goed.
- Het derde punt is een waar er verschillende verhalen over de rondte doen: het gevaar van AI. De ene wetenschapper roept dat AI nooit echt zelfstandig gaat denken en altijd afhankelijk blijft van programmeurs, maar andere wetenschappers zeggen weer dat het een groot gevaar is. Ik weet er helaas te weinig over om te kunnen bepalen wie gelijk heeft.
Ze kunnen toch gewoon beide gelijk hebben?
- Het derde punt is een waar er verschillende verhalen over de rondte doen: het gevaar van AI. De ene wetenschapper roept dat AI nooit echt zelfstandig gaat denken en altijd afhankelijk blijft van programmeurs, maar andere wetenschappers zeggen weer dat het een groot gevaar is. Ik weet er helaas te weinig over om te kunnen bepalen wie gelijk heeft.
Al met al ben ik het er wel mee eens dat het zeer zeker mogelijk is om een AI te hebben die alles zelfstandig gaat doen. Ja, uiteraard heb je een 'programmeur' nodig.. maar puur voor de 'core'.
Het zelfstandig denken, leren, etc gaat al super hard anno 2015. Grotere techbedrijven gebruiken dit soort technieken allang om zelfdenkende 'bots' c.q. software te gebruiken om in te spelen op de huidige markt of wat dan ook.
Ja, een programmeur moet iets maken, wellicht met if/else'jes maar op het moment dat je iets hebt geschreven waarmee een programma zelfstandig kan leren, kan zo'n programma deze if/else'jes zelf aanmaken en ook daadwerkelijk zelf beantwoorden.
Even heel simpel gezegd gaat het bij mensen ook niet anders. Iemand die net geboren is heeft een aantal basis dingen maar uiteindelijk 'heb je er nog niets aan'. Mede door ontwikkeling, leren, input etc. maakt het uiteindelijk de volwassen mens. Dat is idem met een bot / AI. Je zult de basis c.q. core moet hebben, feeden met input om van te leren, maar inderdaad ook vaste 'regeltjes' invoeren.
Daarom ben ik ook niet zo bang voor AI, uiteindelijk zijn wij dat allemaal en net zo goed lopen er af en toe gekken rond. Dat los je op, en in het geval met een 'mislukte' of 'zieke' AI, beëindig je deze wat makkelijker dan een mens die niet functioneert in de maatschappij
edit:
Verder reageer ik nu inhoudelijk op AI zelf. Echter waar deze petitie meer omgaat is dat wij mensen er domweg niet mee om kunnen gaan. Men is (imo terecht) bang voor een AI wapen race tussen allerlei landen, waarbij het redelijk snel uit de hand kan lopen. Om maar te quoten
...autonomous weapons will become the Kalashnikovs of tomorrow...
[Reactie gewijzigd door Douweegbertje op 7 augustus 2024 19:13]
Het ligt er ook aan welke taken een AI krijgt toegewezen. Stel dat je een systeem ontwikkelt dat de aarde moet beschermen tegen vernietiging. Als je naar de statistieken kijkt zoals een computer dat zou doen, dan is de mens het grootste gevaar voor de aarde. Oplossing: vernietiging van de mens. Je kan het systeem dan wel zodanig programmeren dat deze geen mensen mag kwaad doen, maar als een AI logisch kan redeneren dan zal die dat stukje code uitschakelen omdat deze voorkomt dat het systeem efficiënt zijn werk kan doen.
De kennis voor een volwaardig AI is nog altijd beperkt, maar we moeten rekening houden dat een machine nooit een mens kan vervangen. Menselijke emoties kunnen gevaarlijk zijn in sommige gevallen, maar in andere gevallen zijn die net doorslaggevend voor het maken van bepaalde beslissingen.
verder mensen denken te weten wat AI doet maar googles Deep Dream tech is niet human readable, noch zijn haar search routines. het klinkt mischien bizar maar onze arrogantie om te zeggen wat machines wel en niet kunnen kan nog wel eens gevaarlijk zijn.
uiteindelijk hoeft er maar 1 klein foutje gemaakt te worden wat kan leiden tot enorm veel onverwacht gedrag (zoals we elke dag zien in software development)
mogelijk dat computers niet zelf aware worden of intelligent of wat dan ook, betekent niet dat ze geen dreiging kunnen zijn.
https://en.wikipedia.org/wiki/Stanislav_Petrov
Ik denk niet dat wij daar heel gelukkig van zouden zijn geworden.
Het grijze gebied is cruciaal, zoals dat je met wapens alleen verliezers hebt en de bijbehoorende 'angst'. Datgene is cruciaal, en houdt veel mensen af van gewapende conflicten en juist naar dialoog/discussie.
Als je zoiets een computer niet aan kunt leren, zal die veel sneller geneigd zijn actie te ondernemen. Waarop de computer van de andere partij hetzelfde doet. Het is misschien niet echt skynet, maar het effect op bevolkingsreductie zal zeer vergelijkbaar kunnen zijn.
[Reactie gewijzigd door Xanaroth op 7 augustus 2024 19:13]
Computers doen alleen wat de programmeur als instructies heeft achter gelaten. Vandaar dat ik ook betwijfel of we ooit een echte AI zullen zien.
Als je kijkt naar de huidige technieken, zoals bijvoorbeeld een computer een oude NES of Atari game laten spelen (patroon herkenning zonder besef wát er gebeurt) of een spelletje Jeopardy laten spelen (zoals Watson) dat wordt bepaald door vooraf bepaalde patronen. De motivatie/methodes zijn verkeerd en simuleren alleen een intelligentie.
Zolang een AI niet kan denken is het geen echte AI maar een 'domme'.
Mocht ik er naast zitten en we hebben over een x-aantal jaren een computer die ook daadwerkelijk kan denken, liegen en onlogische besluiten nemen wordt het gevaarlijk als een soort Skynet.
Daarvoor zijn het voornamelijk de onverwachte bugs waar je schrik voor moet hebben.
Dat is per definitie al AI.
Als S. Hawking zich er druk over maakt, ben ik maar een noob en ga ik zeker niet in tegen zijn twijfels.
Hij mag dan misschien geen programmeur zijn, maar hij heeft zijn feiten aardig op een rijtje, met kennis die menig mens te boven gaat.
Goede actie, want het doet verder niet zoveel. Behalve één belangrijk ding:
Zijn "tegenstanders" zullen ons moeten overtuigen met hard bewijs dat die angst ongegrond is.
Prima.
in het beste geval zou Skynet juist wel denken liegen en onlogische besluiten nemen, dan zouden we misschien nog een toekomst hebben als huisdieren oid.
In beide gevallen zou de ultieme versie van Skynet niet voor en niet samen met de mensheid werken denk ik.
[Reactie gewijzigd door Nature op 7 augustus 2024 19:13]
Het niveau van dat van een mens halen we naar verwachting in ~2025.
Het niveau van dat van alle mensen halen we naar verwachting in ~2045.
De rekenkracht gaat het probleem niet zijn
Edit:
Kwam ik zojuist nog tegen: http://singularityhub.com...ns-for-the-next-10-years/
[Reactie gewijzigd door Verwijderd op 7 augustus 2024 19:13]
Strange game, only winning move is not to play
Het idee is weinig mis mee op zich
[Reactie gewijzigd door !mark op 7 augustus 2024 19:13]
Zo hebben landen als bijvoorbeeld de VS, Rusland en China nooit een conventie getekend tot verbanning van kernwapens, clusterbommen en landmijnen.
Zelfs als alle regeringen op de wereld er voor tekenen, er is altijd ergens een gek op de wereld die het wel een goed idee heeft en het zelf bouwt.
Wordt zo'n persoon nog eens ondersteunt door zeg bv een terroristische organisatie met veel geld dan heb je helemaal de poppen(robots) aan het dansen.
En of dit nou echtte ai is of een flink door geprogrameerde simulatie, als die zichzelf kan repareren en bv anderen creeren en je hebt een heel groot probleem.
En dat omdat 1 iemand het een goed idee vond omdat hij de mensenheid toch zat is of wat voor reden dan ook.
Ik heb everybody panic gekozen aangezien ik denk dat als het mogenlijk is dat het ook gebouwt gaat worden, ik had dus ook zet geen zoden aan de dijk kunnen kiezen, maar die klonk saaier.
http://waitbutwhy.com/201...ligence-revolution-2.html
Hier 2 hele interessante artikels over AI. In simpele mensentaal uitgelegd. Ze zijn erg groot maar ik kan heel erg aanraden ze te lezen, het leest lekker weg en het is goed te volgen.
Conclusie van het artikel: Het gaat komen, en als het komt komt het snel en we zullen er niet klaar voor zijn.
Het artikel zet je zeker aan het denken. Er is een kans dat we doorbraak naar doorbraak zullen meemaken in onze eigen lifetime (als je nu 30 bent of jonger). De ontwikkeling van de mens kan potentieel een mega sprong maken. En de uitslag is of heel erg goed, of heel erg slecht.
Quote uit het artikel:
It reminds me of Game of Thrones, where people keep being like, “We’re so busy fighting each other but the real thing we should all be focusing on is what’s coming from north of the wall.” We’re standing on our balance beam, squabbling about every possible issue on the beam and stressing out about all of these problems on the beam when there’s a good chance we’re about to get knocked off the beam.
And when that happens, none of these beam problems matter anymore. Depending on which side we’re knocked off onto, the problems will either all be easily solved or we won’t have problems anymore because dead people don’t have problems.
That’s why people who understand superintelligent AI call it the last invention we’ll ever make—the last challenge we’ll ever face.
Een computersysteem met toegang tot:
- 3D printing mogelijkheden voor zowel electronica (http://www.voxel8.co/) als gewone materialen
- het internet en dus quasi oneindige hoeveelheden informatie, storage, CPU power, ...
Het kan zich dus zowel virtueel als fysisch voortplanten of uitbreiden (hoe je't maar wil noemen).
De mens is dan niet meer dan een hinderpaal voor overleving, want wij denken dat we een kill-switch in handen hebben en we zijn competitie. Wij zijn dus de eerste om te gaan.
Het idee van Skynet is dus helaas nog zo ver niet gezocht.
Gebeurt nu ook dat er soms verkeerde doelwitten aangevallen worden, maar de kans is groot dat de aanvallers zien dat het om onschuldigen gaat en op basis daarvan per direct de aanval stoppen.
Goede actie dus. Autonome wapens moeten weg blijven.
Sterker nog... alle wapens voor mijn part. Maar dat is enkele bruggen te ver nog.
http://europe.newsweek.co...-by-foreign-source-329980
We gaan zeker niets doen aan steeds autonomere robots / apparaten met steeds geavanceerdere algoritmes aan boord die steeds breder inzetbaar worden (dus waarschijnlijk ook voor wapens). Hoe verder je dit door trekt hoe makkelijker het is om deze techniek voor wapens in te zetten. Zelfs al zullen landen dit niet doen dan nog kunnen bepaalde groeperingen dit wel inzetten.
Verder is het altijd al een probleem geweest om effectieve wapens te verbannen. Chemische en biologische wapens worden nog volop ontwikkeld en nog steeds ingezet dit terwijl deze wapens van beperkt nut zijn tegen militaire doelen.
Op dit item kan niet meer gereageerd worden.