Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 143 reacties

Het Future of Life Institute geeft in de komende jaren ongeveer 7 miljoen dollar, omgerekend 6,3 miljoen euro, uit aan onderzoek naar kunstmatige intelligentie. Een belangrijk onderwerp is het inbouwen van veiligheidsmaatregelen om te voorkomen dat bijvoorbeeld robots gevaarlijk worden.

De winnaars van het onderzoeksgeld zijn op het blog van het Future of Life Institute bekendgemaakt. In totaal zijn er 37 projecten die door wetenschappers zijn ingediend, die in de komende jaren van financiering worden voorzien. Geen van de projecten die geld hebben gekregen is afkomstig van Nederlandse wetenschappers.

Het grootste project is gezamenlijk ingediend door de prestigieuze universiteiten van Oxford en Cambridge, en gaat over de langetermijngevolgen van kunstmatige intelligentie. De onderzoekers willen de nadruk leggen op het "minimaliseren van risico's en maximaliseren van voordelen" van artificial intelligence. Zij willen voorstellen doen voor regelgeving om te voorkomen dat er gevaarlijke situaties ontstaan, bijvoorbeeld door toedoen van kwaadwillende personen, of door 'onverwachte capaciteiten van de AI'. Hiervoor hebben zij 1,5 miljoen dollar gekregen.

Elon Musk is een van de drijvende krachten achter de beschikbaar gestelde onderzoeksgelden. Hij doneerde eerder 10 miljoen dollar aan de organisatie. Daarvan wordt er dus in de komende jaren in ieder geval 7 miljoen dollar uitgekeerd aan wetenschappelijk onderzoek. Musk, bekend van de bedrijven Paypal, Tesla en SpaceX, liet eerder weten dat de opmars van AI voor gevaren kan zorgen als er geen goede veiligheidsmaatregelen worden genomen.

Moderatie-faq Wijzig weergave

Reacties (143)

Slim gespeeld van de onderzoekers, inspelen op recente angsten onder leken op dat gebied, aangewakkerd door populistische uitspraken die ons bang moeten maken voor robots en AI. Als je in de AI werkt weet je dat dit veertig bruggen te ver is, deze risico's zijn met de huidige stand van de techniek absoluut niet actueel. Tegen de tijd dat ze wel actueel worden zullen hoogstwaarschijnlijk alle methodes en algoritmes dermate anders zijn dan waar we vandaag de dag mee bezig zijn dat dit volledige onderzoek regelrecht de prullenbak in kan.

Maar goed, ze kunnen weer een paar jaar onderzoek doen. Ik hoop dat ze die stiekem nuttiger besteden dan aan dit project, bijvoorbeeld aan onderzoek doen naar het verbeteren van huidige AI-systemen.
De angsten, daar hoeven ze niet op in te spelen omdat de gevaren reŽel zijn. Kijk naar jezelf. Jij bent, zo neem ik aan, wetende dat aannames uit den boze zijn, een intelligent, zelfbewust mens. Als ik daar nu even vanuit mag gaan... dan kun jij, kijkend naar jezelf, als je bereid bent enigszins eerlijk te zijn, zien dat je soms discutabel gedrag vertoont. M.a.w. je maakt fouten en bent een hork...soms.

Een AI zal dezelfde fouten kunnen maken omdat zijn/haar logica niet langer geremd wordt door de beperkingen van het lichaam, de chips en geheugenbanken. Er zal een overstijgende aspect ontstaan, dat men ook wel 'emergent property' noemt als men spreekt over wat het bewustzijn eigenlijk is. Als je maar genoeg schakelingen bouwt, zoals ons brein schijnbaar geacht wordt te zijn door sommige wetenschappers, dan ontstaat er als vanzelf een soort kritische massa, een emergent property.

Als de hardware niet de mogelijkheden beperkt, dan kan een AI fouten maken omdat ze niet gelimiteerd is tot hardware en programmatuur. Ze kan dus onlogisch opereren. Ze kan nadenken en twijfelen en zelfs beperkende programmatuur opzij zetten om toch iets te doen waarvan wij moreel vinden dat het niet goed is.

Wij zijn als menselijke soort niet in staat te snappen wat zelfreflectie is en wat ons bewustzijn is. We weten bovendien VOLSTREKT NIET wat de gevolgen zijn van de technologie die we NU al bedenken en via kapitalistische open-markt strategieŽn in de samenleving loslaten.

De voorbeelden zijn er genoeg. Uberpop, autonome auto's, ICT als ťťn groot lekwerk. De gevolgen voor privacy, de mate waarin geheime diensten nu aan massa-surveillance kunnen doen zijn allemaal mogelijk door technologie in combinatie met connectiviteit.

Als we NU AL niet snappen maar gewoon doen en aankloten, zonder dat we ooit nadachten, of Łberhaupt als burgers gevraagd werden of bepaalde technologieŽn nu wel zo handig zijn, wil jij dan echt een technologie uitvinden die net zo achterlijk is als jij?

Want wij mensen zijn achterlijk. We vinden dingen uit om ze te gebruiken en vergeten dat wat we ook maken, het ons ook terug maakt. Je bent wat je eet grapt men, maar je bent ook wat je gebruikt. De paradigma's op basis waarvan wij onze samenleving inrichten, waar 'inrichten' te veel eer geeft aan het onnadenkende willekeur van het proces, zijn achterlijk.

Kritiekloos is een van mijn favoriete woorden tegenwoordig. Omdat dŠt is wat we zijn, we hebben geen kritiek op wetenschap en technologie omdat we te graag het klimaat kapot consumeren. Technologie wordt kritiekloos aanvaard en als men al twijfelt, dan gaat het toch gewoon gebeuren. Je ziet iedereen hier, maar ook politici dat zeggen. Nelie Kroes is er zo een, Pechtold maar de meeste mensen ook zeggen 'het gaat nu eenmaal komen en dus kun je er maar beter op voorbereiden'.

Alsof technologie iets is dat met ruimteschepen naar de Aarde gebracht wordt en wij hebben geen keuze om ze te laten landen. Alsof we zťlf die dingen niet uitvinden!

Er is weinig technorealisme in mensen en we snappen niet wat we zijn, waarom we hier zijn m.a.w. we hebben geen antwoorden op existentiŽle vragen. Maar we zouden dan wel een nieuwe vorm van leven scheppen, een nieuwe vorm van zelfreflecterend zelf-bewustzijn?

Het is spelen met vuur. Het is niet anders dan met genen te gaan spelen in een ongeboren vrucht gewoon om eens te kijken wat er gebeurt en als zo'n kind geboren wordt en alles zit helemaal schots en scheef en het kind lijdt omdat er voeten uit zijn hoofd groeien dan euthanaseren we het gewoon...

Wie zegt mij dat een AI gelukkig zal zijn? Wie garandeert mij dat een zelfreflecterend zelfbewustzijn in een computer, als een 'emergent property' van een boel chips en geheugenbanken inherent de mogelijkheid om gelukkig te worden?

Wij kunnen zťlf niet eens gelukkig worden omdat we niet snappen wie en wat we zijn, maar we zouden dan wel een AI moeten ontwikkelen en 'Mad God' spelen?

Waar is de ethiek hier? Alles technologie krijgt bij veel mensen altijd voorrang en ze zien volstrekt niet in dat er nog bezwaren zouden kunnen zijn omdat ze menen dat technologie per definitie altijd zonder uitzonder en zonder twijfel ons leven verbetert. En dat is je reinste nonsens.

Vooral jongeren die vanwege hun leeftijd nog geen overzicht hebben in gemeten jaren lijden aan dit probleem.

Neem nu die houding van vol vertrouwen waarmee jij meent dat als men dan op termijn een AI kan bouwen, d.w.z, god kan spelen, men dan ook zo slim is om de juiste algoritmes te hebben verzonnen die men nodig acht. Je blijft vaag en zegt niet hoe of wat die dan zijn.

Hoe kun jij een algoritme produceren dat een AI beperkingen oplegt als jij niet weet wat een mens is en hoe onlogisch een mens kan denken? Hoe kun jij vooruitzien als jij vandaag de dag al niet weet wat je bent en wat zelfreflectie is? Hoe kun jij programmeren dat wat je niet kent?

Al vanaf dag 1 dat mensen zelfreflectief werden vraagt men zich af wat dat ding is, dat zelfbewustzijn. We kunnen het niet vangen, definiŽren, we hebben alleen dat vage gevoel dat er iets is ergens in ons hoofd. Het is ethisch en existentieel onverantwoord om iets te proberen te creŽren terwijl we nog niet eens weten wie of wat we zelf zijn.

Al onze imperfectie en onbegrip zullen, per definitie, deel uitmaken van een AI. Je kunt als mens, die faalbaar is, geen perfectie creŽren. Alleen god is perfect, zo stelt men dan. Om die reden maakten kunstenaars opzettelijk kleine fouten in hun schilderijen, om daarmee niet god zelve naar de kroon te stoten.

Als we NU AL NIET nadenken over de gevolgen van The Internet Of Things, als we NU AL niet nadenken over ICT en de gevolgen voor taxichauffeurs, of postbezorgers (drones) en NU AL niet nadenken over de gevolgen voor mensenrechten zoals privacy, hoe kun je dan zeggen dat we te vroeg zijn met nadenken over de ethiek van de ontwikkeling van een AI?

Het is duidelijk: we zijn een volkomen achterlijk ras op Aarde. We kloten maar wat aan met onze technologie en ethiek. Maar met ons hoofd in de roze wolken der technologie, ach wat, zolang we maar speeltjes hebben hoeven we niet te snappen wat zelfreflectie is, waar het voor dient. Wel, ik kan je wel zeggen dat mijn zelfreflecterend zelf-bewustzijn niet bedoeld is om slechts op Aarde ons klimaat, natuur en milieu kapot te consumeren met gadgets of om godje te gaan zitten spelen in een R&D lab en te gaan Frankensteinen met het levensgeluk van wat voor gedrochtelijke AI we ook maar kunnen bouwen.
Ik snap je frustratie enigszins, ik deel deze voor een deel ook met je. Het stoort mij voornamelijk dat we als mensen te weinig zelfreflectie toe durven te passen.

Aan de andere kant, het deel waar ik je nog niet helemaal begrijp denk ik, snap ik die frustratie over technologie specifiek niet.
Je zou technologie namelijk ook juist kunnen beschouwen als een, ik beken nog vrij infantiele, vorm van zelfreflectie. Op deze manier kan je het ook wat positever maken, dat we door al onze acties juist langzaam beginnen met het herkennen van patronen in die "externe" technologie en het misschien op dit moment voor veel mensen juist makkelijker is om die fouten te herkennen in iets "externs".

De volgende stap zou dan kunnen zijn, de erkenning van het feit dat wij die "externe" problemen veroorzaken. Dan kunnen we, in plaats van "patches" plakken op bestaande technieken met problemen en ons dan voor te houden dat het probleem is opgelost, we eindelijk kijken naar waarom we die problemen in de eerste instantie creeeren.
We weten al hoe we problemen creŽren. We vinden een technologie uit om een probleem op te lossen. Soms bestaat dat probleem, vaak niet. In dat geval is het iets wat in de markt gezet wordt door bedrijven om winst mee te maken.

Die technologie veroorzaakt weer een ander probleem. En dan escaleert het. De menselijke historie is een escalatieproces. Het is het proces van het hanteren van energie om dingen mogelijk te maken en elk platform dat we bereiken is het vertrekpunt voor een nieuw cirkel in een spiraal.

Vaak is een technologie niets nieuws, maar gewoon een ingewikkelder manier om hetzelfde te doen. De reden dat we dat okay vinden is omdat we nieuwe leuk vinden omdat het ons afleid van de existentiŽle vragen, die we niet kunnen beantwoorden omdat onze levenswijze niet daarop gericht is. En hoe meer dat het geval is, hoe moeilijker dat ook wordt.

Omdat je bent wat je gebruikt, dus je maakt technologie maar die heeft weer invloed op hoe je denkt, kom je niet verder. Technologie laat inderdaad zien dat we het fout doen. We maken het klimaat kapot, de natuur en milieu leiden er onder, diersoorten sterven uit en we onterven de toekomst door alle grondstoffen zo veel mogelijk om te zetten in technologie, dezelfde technologie die gouden bergen belooft maar steeds weer nieuwe manieren vind om het fout te doen.

Ik denk dus niet dat technologie een oplossing beidt voor problemen. Als het al een spiegel is, dan zien maar weinig mensen zichzelf en de maatschappij er in gereflecteerd. Er is weinig tot geen technorealisme omdat de fundamentele paradigma's van onze samenleving gebaseerd zijn op foute veronderstellingen.

Elke technologie die je creŽert zal onherroepelijk het zaad bevatten van een nieuwe vorm van problemen omdat als je niet snapt wat technologie is, wat het met je doet en met de samenleving, je altijd achter de feiten aanloopt.

Dus dat externaliseren via wetenschap en technologie werkt niet, te meer omdat ze verweven is met economische principes en theorieŽn. Wie niet werkt zal niet eten weerhoud mensen er van om na te denken. We gebruiken kapitalisme en het gebruikt ons. Wij zijn de hamer die ons hamert. Kapitalisme ligt in bed met wetenschap en techniek en de overheid en wij burgers zijn de energie die dat in stand houdt.

Wetenschappers vinden iets uit, het bedrijf doet aan R&D en zet het in de markt, gebruikt ons als gereedschap voor de productie, wij kopen dan die producten, en zijn opnieuw de 'enabler'. De overheid, wij zelf dus maar in een juxtapositie, reguleert zodat er werk ontstaat en economische groei, op basis waarvan de bedrijven groeien. Wij willen werk, omdat we niet weten wat anders met onszelf te doen.
Dan is er nog de ideologie, de kerk of de politiek, sport en technologie zelf en dat zijn overdrachtssymbolen. Die 'geven zin'.

Een gesloten systeem dus en aan de basis er van staan de paradigma's. Ideologie verwart en geeft je het idee dat je iets zinvols doet of bent. De wetenschap zegt je dat ze zorgen dat je de wereld beter begrijpt en dat leidt tot banen. Het bedrijf geeft je werk en een zinvolle dagbesteding, zodat je als consument kunt kopen wat een ander maakt. De overheid reguleert dit alles.

Wetenschap en technologie bieden geen oplossingen maar zijn het probleem omdat ze misbruikt wordt als manier om zingeving te creŽren via open markten. Het gevolg is comodificatie en hyperconsumptie en een disrespect voor materie, die we eindeloos omvormen tot producten m.b.v. eindige voorraden energie.

Technologie wordt pas goed als het een menselijk doel dient en niet voorbij gaat aan de grenzen van de wereld en niet gebruikt wordt of gemaakt wordt om mensen tijdelijke gadgets te geven die je per definitie niet gelukkiger maken. Het hele systeem is er op gebaseerd om mensen dom en onnadenkend te houden, je te verleiden om meer te willen en je dus constant uit balans brengt in je zoektocht naar de antwoorden op existentiŽle vragen.

Er moet een besef komen dat als je een vork maakt, die jouw prikt. Als je een auto produceert, die jouw rijdt. Wie dat snapt hoeft steeds minder technologie om gelukkig te worden.
Ik ben het absoluut met je eens dat we voorzichtig moeten zijn en goed moeten nadenken over de impact die technologie kan hebben.

Echter, in je hele verhaal maak je een grote aanname (die vaak wordt gemaakt, oa door Kurzweil, het Singularity idee etc.), namelijk dat als je maar genoeg verbindingen, computationele kracht etc er tegenaan gooit, een systeem vanzelf deze 'emergent properties' gaat krijgen en zelfbewust wordt. Het punt, zoals je zelf ook aangeeft, is dat we nog maar zeer weinig idee hebben van hoe zelfbewustzijn (wat het dan ook is) in het menselijk (en dierlijk?) brein tot stand komt. Simpelweg aannemen dat een AI, als deze maar een geavanceerd genoeg brein heeft, dit vanzelf gaat ontwikkelen, inclusief al onze menselijke imperfecties, is veel te kort door de bocht.

Er is momenteel veel debat over dit onderwerp, waarbij er een verschil kan worden gemaakt tussen narrow AI (goed in een bepaalde taak), en broad AI (in staat om flexibel en non-specialistisch intelligent te zijn, zoals mensen dit kunnen). Van narrow AI zijn er al ontelbare voorbeelden om ons heen die we dagelijks gebruiken (tomtom, schaakcomputers, beeldherkenning, Siri, google now etc.); hoe ver we kunnen komen met broad AI is veel minder duidelijk.

Samenvattend, we moeten absoluut goed nadenken over de implicaties van het ontwikkelen van een bepaalde technologie, en het is supermoeilijk om iets van 'ethisch besef' te gaan proberen te programmeren als je geen idee hebt hoe toekomstige AI systemen er uit gaan zien. Echter, dat AI binnenkort over 'zelfbewustzijn' gaat beschikken is op dit moment zeker geen gegeven.
Tomtom AI? gewoon een toepassing van graven theorie. Wiskunde.

Schaakcomputers en beeld herkening zijn ook wiskunde. Volgens mij Siri en Google ook. Wat jij narrow-AI noemt is volgens mij geen AI.
Broad-AI is moeilijk ja, want "echt" AI.

Zijn alle mensen wel intelligent? }> :'( 8)7 O-) |:( :X
Tja, het blijft altijd een discussie wat nou precies AI is. Natuurlijk is er veel overlap en raakvlak met andere onderzoeksvelden, waaronder wiskunde. Veel technieken en algoritmen werden ooit onder AI geschaard, maar schuiven dan op naar "gewoon" computer science naarmate men het beter begrijpt. Wat zodoende als 'echte' AI gezien wordt, lijkt dan vaak datgene wat computers nu (nog) niet goed kunnen.
Ik ben het in grote lijnen met je eens, en denk dat er inderdaad vťťl te weinig filosofie en ethiek wordt betracht bij wetenschap en techniek. Jij hebt dat mooi verwoord! Van de andere kant is nieuwsgierigheid een menselijke eigenschap die je niet kunt uitschakelen. Het nastreven van AI zal waarschijnlijkheid ook grote openbaringen teweegbrengen over onze eigen ik, wie of wat we zijn en waarom. AI is dus de ziekte, maar tevens ook het geneesmiddel. De vraag is, welke gaat domineren.
Een gevaar dat veel meer reeel en acuut is, is nu juist dat de AI WEL logisch is. TE logisch zelfs. Voor het soort futuristische AI achtige gedoe met gevoelens en ethiek krijgen we namelijk eerst een "dom" soort AI. Iets wat nu al in hele beperkte mate mogelijk is door onder andere het principe van machine learning. Zie bijvoorbeeld dit voorbeeld: http://wiki.lesswrong.com/wiki/Paperclip_maximizer
Populistische uitspraken die ons bang moeten maken voor robots en AI? Ja, we zijn nog lang niet toe aan een generieke AI, dat duurt nog zo'n 15 tot 25 jaar. Maar je vergeet een heel belangrijk aspect: zodra we een generieke AI hebben kunnen maken, hebben we iets gemaakt dat niet denkt zoals wij. Iets wat we ons niet kunnen voorstellen, met alle gevolgen van dien.

De fout die jij en veel mensen maken, is denken dat omdat wij mensen het hebben gemaakt, het wel zal denken als een mens, en normen en waarden heeft zoals een mens. Het is meer als een tarantula-brein in een cavia-lichaam. Hoe schattig het er ook uit ziet, ik zou het met geen vinger vertrouwen.

Wij maken een AI, en geven dat een doel. Die AI zal alles in het werk stellen om dat doel te bereiken, en dat kan best betekenen dat het onbedoeld al onze natuurlijke bronnen opgebruikt, of ons mensen als een bedreiging van dat doel ziet omdat wij de aan-/uitknop kunnen bedienen. Ik zit daar niet zo op te wachten eigenlijk.

Lees dit geweldige twee-delige artikel van Wait But Why maar eens: The AI Revolution: The Road to Superintelligence.

[Reactie gewijzigd door Virtlink op 2 juli 2015 21:41]

Uh, sorry to break your bubble, maar over 15 tot 25 jaar is dat ook nog echt geen realiteit. Huidige AI is een lachertje in vergelijking met het menselijk brein. Alle shows die in de media gebracht worden is voor een groot deel show en afhankelijk van zeer veel vooraf bepaalde facturen. Ik zou het eerder in de richting van 50-100 jaar schatten, als we het al voor elkaar krijgen.

En verder: wij bouwen het, dus het denkt niet zoals wij denken (voor zolang wij geen hersenen kunnen bouwen, that is), dat klopt. Maar we weten wel hůe het werkt, we hebben het per slot van rekening zelf gebouwd. Het is uiteindelijk niet meer dan een berg software, waarin je net als in traditionele software bugs kunt gaan oplossen.

Ik wil best geloven dat ooit, in de verre toekomst, AI een risico kan gaan vormen. Dat is dan in de vorm van een dikke vette bug, die wij achteraf kunnen analyseren en oplossen. Ook in AI-algoritmen kan dat, al kost het wel wat meer moeite dan in procedurele taal om eens wat te noemen. Het probleem met dit onderzoek wat mij betreft is dat het je bezighouden is met iets wat nu gewoon absoluut niet aan de orde is. Dat is net alsof wij nu proberen vredesonderhandelingen te voeren met een buitenaards ras waar wij over 100 jaar misschien wel oorlog mee krijgen, zonder te weten welk conflict er precies is en wat de mogelijkheden zijn om het op te lossen. En dat weten we ook niet, zolang dat buitenaardse ras zich niet aan ons gepresenteerd heeft. Zo net zo goed hiermee. We kunnen ons geen voorstelling maken hoe de AI-algoritmes er over 50 - 100 jaar uitzien. Een ding is zeker: compleet anders dan nu. Dus hoe kunnen we daar ooit nu al "safeguards" voor gaan ontwikkelen? First things first & premature optimization is the root of all evil.
Je denkt in de schaal van het verleden, van wat je kent en hebt meegemaakt. Lees die link inderdaad maar eens, best een interessante onderbouwing.

Iedereen die zich niet in ieder geval een beetje zorgen maakt weet gewoon niet voldoende over het onderwerp.

En als je (niet jij specifiek, maar mensen in general) dan nog denken van "wat een onzin", bedenk je dan dat Bill Gates, Elon Musk en Stephen Hawking zich allen zeer veel zorgen maken hierover, en dat zijn, hoe je het ook wendt of keert, geen domme mensen.
Elon Musk inversteerd juist in AI.... hoe kan je je dan zorgen maken. Teven investeerd Microsoft er ook zwaar in.
Uit het artikel boven: " Musk, bekend van de bedrijven Paypal, Tesla en SpaceX, liet eerder weten dat de opmars van AI voor gevaren kan zorgen als er geen goede veiligheidsmaatregelen worden genomen."

Je investeert natuurlijk enkel in iets waarvan je verwacht dat het meer waard wordt, rendementsbedreigingen kun je dan tevens ook geld voor vrij maken. Het ťťn sluit het ander niet uit.
Het is eigenlijk een donatie, geen investering.
Gates doneert aan malaria onderzoek, iets met een veel grotere impact. Die Musk vind ik maar een rare gast hoor.

[Reactie gewijzigd door trogdor op 3 juli 2015 21:15]

Ach het is maar 10 miljoen. Is niks ja! :) Dan kan hij nog best tegen AI zijn.. met zo'n klein bedrag.
A(S)I die het niveau van de menselijke intelligentie ontstijgt voldoet aan alle voorwaarden om een disruptive technology te zijn.

Een dergelijke technologie ontwikkelen kan een enorm effect hebben op de samenleving met positieve en negatieve kanten.

Ondanks de negatieve kanten is het ontwikkelen ervan heel aantrekkelijk omdat het voor de organisatie in kwestie een grote voorsprong op de concurrentie betekend. Een grote voorsprong vertaalt zich automatisch in groot economisch voordeel.
Misschien gewoon evolutie, waarbij deze AI gewoon voortleeft en wij niet meer bestaan. Wat boeit het ons wat er gebeurt na 10 miljard jaar. Dan leven we echt niet meer. Ik denk alleen aan de eerst volgende paar generaties. Daarna niet hoor.
Allemaal leuk en aardig, maar als we pas over 50-100 gaan nadenken hoe we een probleem moeten oplossen, dan ben je gewoon te laat. Het is handiger om de beveiligingen met de stand der techniek mee te laten evolueren.

Heel zwart-wit:
Nu: hoe herkent een robotarm in de Renaultfabriek het verschil tussen een stuk plaatstaal en een mens, zodat deze nooit per ongeluk in de verdrukking kan komen.
Straks (over pak 'm beet 100 jaar - zoals jij stelt): welke regels en dodemansknoppen bouwen we in om geen oorlog met slimme broodroosters te hoeven hebben.

Je hebt gelijk dat je niet alles kunt voorspellen, maar gelijke tred houden met de ontwikkelingen in beide technieken (ai en veiligheid) lijkt me zeer wenselijk.
Gelijke tred houden inderdaad. Om op dit moment gelijke tred te houden betekent het dat er niet meer nodig is dan een avondje in de kroeg met een biertje fantaseren over hoe evil AI's of robots de wereld over zouden kunnen nemen, zodat als over 20 jaar er genoeg vooruitgang geboekt is om er in ieder geval niet direct over in lachen uit te barsten eens naar gekeken kan worden hoe dat soort zaken voorkomen kunnen worden. Dat hoeft niet over 50-100 jaar, maar om daar nu op dit moment 7 miljoen aan uit te geven... ik kan daar wel betere doelen voor verzinnen.
Op het moment dat een ASI (AI slimmer dan mensen) "kwaadaardig" wordt is het al te laat, want de ASI kan dat zoveel sneller "misbruiken" dan wij het kunnen opsporen. Als een ASI die aan het internet hangt bijvoorbeeld weet dat er mensen zijn die hem uit kunnen zetten, zal die dat normaal gesproken proberen te voorkomen. Als de ASI uit staat kan hij immers nooit zijn doel bereiken. Deze mensen zijn dan dus een obstakel op weg naar het doel van de ASI, en de ASI zal proberen die obstakels op te lossen op een manier die je zelf mag verzinnen. Dit alles kan vele malen sneller gebeuren dan dat de beheerders het doorhebben.

Belangrijk is ook dat je woorden als "kwaadaardig" en "misbruik" niet letterlijk kunt gebruiken als het over AI gaat. Dat zijn normen en waarden die wij mensen wel gebruiken, maar die machines helemaal niet kennen. Een AI is, in tegenstelling tot mensen, amoreel: ze weten niet wat goed en wat slecht is, ze hebben alleen een doel wat ze zo goed mogelijk willen bereiken. Dit is trouwens met de huidige opvattingen over AI, dit zou inderdaad nog kunnen veranderen als er vooruitgang is, maar ik reken er niet op.

Als de onderzoekers nu een basis kunnen leggen die dit soort problemen kan verkleinen, kan ik dat alleen maar toejuichen. Omdat een ASI zichzelf erg snel kan verbeteren, zijn we op het moment dat de ASI ontstaat er gelijk aan overgeleverd. Als er dan nog fouten in zitten, is het te laat.

Er is een goed (tweedelig) artikel over juist dit deel van AI, en ik reed je aan om dit te lezen. Hopelijk ben je het daarna ermee eens dat dit soort onderzoeken beter te vroeg dan te laat kunnen gebeuren:

Deel 1: http://waitbutwhy.com/201...ligence-revolution-1.html
Deel 2: http://waitbutwhy.com/201...ligence-revolution-2.html

Edit: Ik zie net pas dat dit artikel hierboven al gelinkt is. Blijkbaar heb je het dus niet gelezen, en anders vraag ik me af waarom je er anders tegenaan kijkt.

[Reactie gewijzigd door GeniusDex op 3 juli 2015 09:34]

20 jaar in de ICT wereld is zeker vandaag de dag aardig wat...
AI is iets waar veel geld en moeite ingestoken word, de ontwikkeling zouden wel eens harder kunnen gaan dan de 50- 100 jaar die jij in gedachten hebt.

Ik weet niet precies hoe een onderzoek er uit komt te zien, maar ik denk dat men vooral naar een goede beveiligings manier gaat kijken voor hoe je in de toekomst het best AI kunt beveiligen, ipv dat ze nu gaan proberen de simpele bots veilig te maken, want dat is idd nutteloos
Waarop baseer jij dat als we weten hoe iets werkt, we het "dus" kunnen controleren?

Twee voorbeelden waarbij het niet klopt: de kerncentrale en genetische manipulatie.

We kunnen juist beter vroeg van te voren risico's in kaart brengen.

Twee ontwikkelingen gaan heel hard: software en hardware. De twee kerningrediŽnten van AI.
Hoe controleren we kerncentrales niet? We (ik niet, kerngeleerden) begrijpen het proces wat daar plaatsvindt en hoe het fout kan gaan. Om te voorkomen dat het fout gaat zijn allerhande beveiligingen ingebouwd. Dat blijkt in de praktijk zeer goed te werken, aangezien het aantal rampen ermee zeer schaars is. Bovendien zijn de voorkomende gevallen over het algemeen goed verklaarbaar geweest door bijvoorbeeld achterstallig onderhoud of tekortkomingen in de veiligheidsmaatregelen.

Risico's in kaart brengen is natuurlijk vrij triviaal; men heeft alle spookverhalen wel gehoord. Daar is geen team van wetenschappers voor nodig. Wat ik uit het artikel begrijp gaat het om oplossingen voor die risico's, en daar is men simpelweg veel te vroeg mee, aangezien ze nog lang niet relevant zijn.
...aangezien het aantal rampen zeer schaars is.
Hier gaat het juist om. AI komt straks overal in ons leven.
wij (de mens) staan in de top van menig hierarchie in de wereld. (dierenrijk etc)
als wij iemand boven ons toelaten, moeten wij buigen of sterven. precies zoals met al dat andere wat weer onder ons staat.
in de top bestaat geen samenwerking.
daarom staan wij aan de top, en dat gaat al miljoenen jaren zo.
kletskoek, zolang bestaat de huidige (homosapiens) mens nog niet eens. En tot voor kort (sinds paar duizend jaar) waren we nog niet eens de baas over het gehele dierenrijk.
Eens, maar diegene die bovenaan staat beslist en wint. dus moeten we die verdedigen. maar ik denk dat een fysiek virus eerdaags ons van de top gaat stoten.
mogelijk kunnen we het streven naar dominatie en overheersing van meet af er niet in progameren. maar ik denk dat AI met een slaafse rol geen genoegen zal nemen.

Zal een moegelijk uitkomst na dit onderzoek een kunnen zijn van: "laten we maar niet aan AI beginnen" ?
Ai op met moderne code is onmogelijk. Alles is vooraf ingesteld en echte zelfbedachte reacties kan een computer niet maken met het codeert formaat wat wij nu gebruiken.
Het gaat om dat wij als mensen het raamwerk programmeren. Waaruit de rest komt uit eigen ervaringen en wat de AI leert. Net als een baby.
Och, da's geen probleem hoor. Op microscopische schaal zijn de cellen in de menselijke hersenen prima na te bootsen, bijvoorbeeld met behulp van ANN's. We hebben bij lange na niet de rekencapaciteit en de trainalgoritmen om dit op grote schaal toe te passen om ook maar enigszins in de buurt van de menselijke hersenen te komen, maar dat heeft weinig te maken met de programmeertaal.

Ik hou mij er in het dagelijks leven mee bezig, en gelukkig is het zo triest nou ook weer niet gesteld met de stand van zaken. Maar evil AI (of uberhaupt echt slimme AI) zit er voorlopig nog niet in.
Ik begrijp wel wat je wilt zeggen want ik weet ook dat de AI die we nu hebben best goed zijn maar nog verre van "echt" slim.

Maar je weet niet wat ze al beveiliging bedacht hebben.
Dat moet gewoon mee groeien met de AI.

Dus wie zegt dat deze beveiliging over 50 of 100 jaar de prullenbak in kan? Hij groeit mee met de vooruitgang van de AI.

En dan kan ik alleen maar zeggen, je kan er niet te vroeg mee beginnen.

Maar om heel eerlijk te zijn denk ik zelf ook niet dat het nodig is mensen denken vaak dat een AI echt een persoon is of een persoonlijkheid heeft door de films.
Maar de AI's van nu hebben al moeite met het spelen van Mario.
Waarom denk je dat het nog 50-100 jaar zal duren?
Er zijn verschillende bedrijven mee bezig en het kan heel hard gaan, kan zelf al binnen 10 jaar (met de verwachting van wet van Moore). Ontwikkelingen maken stapjes en soms wel eens sprongen. Er hoef maar een nieuwe type processor ontwikkeld te worden die special gemaakt is daarvoor en dan kan het heel hard gaan. Dan is het wel erg handig dat we nu al denken dan over 25 jaar. De ontwikkelingen zijn al bezig.

Sommige denken dat het er helemaal niet kom. Zelf denk ik dat het heel snel kan zijn maar hoop dat het lang duurt voordat het komt. En als het er is, je kan niet 100% zeggen hoe het gaat lopen. Hoop dat het goed zal zijn maar je moet er ook bij stil staan dat het fout kan gaan. En denk wel als het fout gaat dat het dan heel fout gaat en niet meer te stoppen. Als je ziet hoe spellen en programma's tegenwoordig worden opgeleverd. Dan kan je er al vanuit gaan dat er bugs in zitten.

[Reactie gewijzigd door Calamor op 3 juli 2015 10:18]

Onzin. Waarom hebben we dan psychiaters, psychologen en een hoop mensen met allerlei trauma's en problemen? Volgens jouw kunnen we dus gewoon in de hersens wat herprogrammeren en bugs oplossen en dan ineens is iedereen gelukkig?

Jouw visie komt voort uit het idee dat de mens gewoon een biologische robot is. Dat idee komt voort uit een cartesiaanse manier van denken. Ga dat maar opzoeken.
En verder: wij bouwen het, dus het denkt niet zoals wij denken (voor zolang wij geen hersenen kunnen bouwen, that is), dat klopt. Maar we weten wel hůe het werkt, we hebben het per slot van rekening zelf gebouwd. Het is uiteindelijk niet meer dan een berg software, waarin je net als in traditionele software bugs kunt gaan oplossen.
Sorry to break your bubble, maar er zijn nog echt daadwerkelijk nog maar heel erg weinig mensen momenteel op deze aardbol die weten hoe code echt werkt op de hardware.

Een simpel c# programma leidt tot al snel tot 50+ tussenlagen en optimalisatieslagen ergens in het traject waardoor het bijna niet meer valt te voorspellen wat er nu exact door de hardware gaat gebeuren, enkel grofweg klopt het allemaal wel.

Een videokaart van AMD zal tijdens het spelen van een spelletje andere instructies uitvoeren dan een videokaart van NVIDIA, dan heb je nog kans dat er tussen modellen van AMD / NVIDIA er ook andere instructies uitgevoerd worden.
Dat wordt allemaal wel redelijk rechtgetrokken door een DirectX of OpenGL.
Enkel een DirectX / OpenGL kan ook weer andere instructies genereren richting een driver naar gelang de versie van zichzelf.
Een DirectX / OpenGL is weer afhankelijk van OS, wat ook weer andere instructies kan genereren richting een framework net naargelang de versie.
Een OS kan weer net naargelang bijv de CPU of RAM kiezen voor andere instructies.
Een .Net versie kan weer net andere instructies doorgeven.

En dan praat ik enkel nog maar over de theoretische variaties van 1 lijn tekenen op je scherm. Niet over een beeldvullend iets, zeker niet over een 3D-iets etc etc etc.
Dat valt al amper meer te overzien, en dat is dan nog "gewoon" gamedesign.

Laat staan als je gaat praten over een enigszins succesvolle AI.

Ik geloof ook niet zo in kwaadaardige AI's, maar het is een misvatting dat mensen het dan nog kunnen overzien, daarvoor zitten er veel en veel te abstractielagen in de weg die fouten bevatten.
Menselijk wantrouwen/faalangst gaat imho een veel en veel betere bescherming vormen tegen een kwaadaardige AI.
Ik denk dat menselijk wantrouwen en faalangst de bronnen zijn waardoor een AI niet goed zal functioneren.

Je kunt als mens niets creŽren dat perfect is omdat we als mens zelf imperfect zijn. Alles wie en wat je bent sluipt er in. Je kunt niet je kwade kant, je ongeÔnformeerde kant, je respectloze kant, je ongeÔnteresseerde kant, je vertwijfeling en al die menselijke emoties even opzij zetten om iets te bouwen wat geen fouten kent.

Technologie is een extensie van je lichaam. Als je jezelf niet kent, niet weet wat zelfbewustzijn is, dan kun je niet iets maken wat dat wel weet. Al je imperfecties zullen deel uitmaken van wat je creŽert.

Een AI is een illusie en een gevaarlijke omdat op het moment dat wij als mens in staat zijn een nobele AI te bouwen, die foutloos, risicoloos onze doelen zal dienen en als zodanig een slaaf wordt van onze voorkeuren, de noodzaak daartoe al weggevallen is. Wie wil een mens klonen die zelfbewust is, dus zijn eigen lot begrijpt en die tot slaaf maken?

Op het moment dat wij een perfecte AI kunnen bouwen zijn we moreel zo ver dat we het ons niet kunnen voorstellen een zelfdenkend wezen te creŽren zuiver om ons doel te dienen. Het doel valt weg op het moment dat we het kunnen bouwen.

Want op dŠt moment zien we in dat technologie niet langer nuttig is om na te streven. Het hele concept van een AI komt voort uit ons onvermogen om te snappen wat we zelf zijn. Het splitst zich in allerlei vormen, maar de robot en de AI zijn in feite wortels die we onszelf voorhouden om onszelf de toekomst in te lokken in de hoop dat in die toekomst we zullen snappen wie en wat we zijn en zo trekken we zelf al domme, gulzige ezels de kar van ons eigen onbegrip.

De AI en de robot, zeg liever de AI in de hoofd-simulatie van een menselijk hoofd is een projectie, een verlangen naar dat moment dat we snappen wat we doen op Aarde en waarom we hier zijn. Zelfbewustzijn komt met een idioot hoge prijs. Nadenken over nadenken ad infinitum, een constant proces van terugkoppeling.

Als de mensheid snapt wie en wat we zijn, dan hoef je geen technologie in bulk meer te produceren omdat je dan geen behoefte meer hebt aan al die junk, want die junk maken en gebruiken we slechts om het gapende gat in ons binnenste te voeden met afleiding en dat gat heeft een vraag: 'Wie ben ik?'
Interessante hypothese maar dan hebben we het over een punt in de tijd waarbij we dergelijke kennis al hebben verwoven. De schatting is echter dat we binnen de eeuw nog in staat zullen zijn om een AI te bouwen die op zijn minst de rekenkracht heeft van het menselijk brein.

AI en kwamtum computers zullen een wezelijke bijdrage leveren aan onze ontwikkeling en de zoektocht naar het zijn.

Is technologie niet slechts een extensie van die 'ik'? Zijn wij niet geworden wat we zijn door onze vindingrijkheid? Het maken van gereedschap, verheven van onze communicatieve vaardigheden en de drang om de wereld om ons heen te doorgronden?
Op welk punt in de tijd hebben we kennis over wie en wat we zijn? Bedoel je soms dat je er op vertrouwd dat er een dag komt dat we als individu en als soort snappen wat we zijn? Wat bewustzijn is?

Dat klinkt een beetje als wat mensen vaak zeggen:' Ze (de wetenschap) vinden er wel wat op...' Dat slaat nergens op.

Jij denkt dus dat computer technologie ons gaat helpen uitvogelen wie we zijn? Ik denk niet dat je iets kunt maken dat boven jezelf uitstijgt. Zoals ik al zei, de totaliteit van het menselijke zal zijn weg vinden in de creatie. Het is per definitie onmogelijk om zwart van wit te scheiden omdat beide elkaar definiŽren.

Om die reden is technologie die we hebben schadelijk. We maken het om de verkeerde redenen. Daarom heeft het ongewilde effecten. Zoals klimaat verandering. Deze week kun je ongeveer aanvoelen hoe dat in de toekomst zal gaan.

Ik heb niets tegen de drang om dingen te doorgronden, maar wel tegen de cartesiaanse denkwijze. Het is die denkwijze die ons nekt en dus onze technologie kleurt. Je kunt klimaatverandering niet tegen gaan vanuit die denkwijze.

"The significant problems we face cannot be solved at the same level of thinking we were at when we created them."
-- Albert Einstein

Je kunt geen oprecht respect voor de natuur ontwikkelen en die aanvoelen als je vanaf je geboorte via school en samenleving geÔndoctrineerd wordt met consumptie, economie, arbeid en je rol daarin en de nadruk gelegd wordt op cartesiaans denken; we hebben afkeer van de wereld, van materie.

We zijn materialistisch, stelt men. Maar ik zeg, we haten materie. We kappen bomen om, vernietigen leefomgevingen, breiden steden verder uit. We hebben geen respect voor de materie, voor de natuur.

Wie houdt van de natuur zou materie respecteren want een boom of een vis of een pandabeer, dat is allemaal materie. Alleen hebben we de geest uit de materie gehaald. Materie is voor ons gewoon stof, het is niet geanimeerd met leven. En dus mag je er mee klooien wat je wilt.

Een bijl is een denkwijze waarmee je een boom kapt.

Gereedschap is wat je krijgt als je geest en materie opsplitst. De geest, vroeger 'God' flikker je ver weg het heelal in, tot voor de Big Bang als het effe kan en materie blijft achter, zielloos en daar doe je mee wat je wilt. Om met materie te rotzooien maak je gereedschap.

Hoe doder materie, hoe meer je er mee kunt en hoe meer tooltjes je er op los kunt laten, zonder wroeging.

Dit hele AI verhaal is in zekere zin niets anders dan het altijd bestaande besef dat we de Aarde verkrachten en onszelf geweld aan doen met onze levenswijze en zo projecteren we het idee dat de geest terug moet in de dode materie, namelijk de AI, dode chips, die moeten net als Frankenstein, tot leven komen. En zo redden we onszelf.

En zo is het dat er mensen zijn die menen dat de AI ons gaat redden van onszelf.

"A great deal of intelligence can be invested in ignorance when the need for illusion is deep."
-- Saul Bellow
Ik bespeur een grote aversie tegen de huidige vorm van onze maatschappij en ben bang dat dat tot conclusies leidt die gewoonweg niet goed onderbouwd zijn. Of juist teveel zijn toegespitst op t falen van onze leiders.. Neemt niet weg dat ik me in die pijn kan verplaatsen.

Zeker, ik denk dat AI ons meer kan leren over de wereld waarin we leven en deel van uitmaken. Indirect dus meer leren over wie we zijn.

Ik ben niet zo thuis in de filosofie maar ook hier zie ik niet waarom een dergelijke denkwijze per definitie het probleem is van de mensheid

Die bijl of speer is echt niet ontstaan omdat we zn hekel aan bomen hebben.. Nee, er was een doel en dat doel was makkelijker of beter te verwezelijken met speciale hulpstukken. Zo is dat nogsteeds en we worden er steeds bedrevener in. Steeds beter voor ons als mensheid maar ook voor al het andere om ons heen.
Er zijn genoeg mensen die de impact van hun keuzes overzien en ondanks dat ze zichzelf zien als individu en niet als onderdeel van een geheel. Empathie noemen we dat.

[Reactie gewijzigd door CausaMortis op 5 juli 2015 06:41]

Een bijl is een raar ding. Waar mensen eerst een vuur maakten en hout verzamelden dat al op de grond lag, konden ze met een bijl bomen hakken en hout bewerken.

Een speer is voor vlees wat een bijl is voor bomen. Een speer vangt energie.

Een bijl is een energie-vanger. Kinderen zijn van vuur omdat vuur mensen beschermt tegen de invloeden van weer, zodat er meer mensen overleven. Een oogstmachine is een bijl of een speer op wielen.

Weet je, geschiedenis is niet lineair, het is een cirkelvormige fractal. De koe of het paard met een ploeg is vertegenwoordigd in de tractor. De speer is vertegenwoordigd in de staaf die ze door de hersens van de koe schieten in het slachthuis. De bijl zit in de graafmachine-met adapter-om-ineens-hele-bomen-te-vellen. De graafmachine is een spade.

Meer vuur, betere bescherming, betere overleving, meer kids die ook nog oud genoeg worden om succesvol te copuleren. Meer handen die bijlen maken, meer bomen kappen. Elke generatie is in staat meer energie te hanteren dan de vorige.

De houtbewerking leidt tot nieuwe tools, die nieuwe mogelijkheden scheppen om energie te vangen. Om meer groenten en graan te verbouwen. Kinderen bestaan uit graan en vuur.

Een stoommachine produceert ook kinderen. Want de stoommachine hongert naar hout en kool en dus zijn er mensen nodig om het aan te leveren. Tegelijkertijd produceert de stoommachine kleding in fabrieken, die nog meer mensen kleden kunnen.

Gereedschap is een manier van denken die er op gebaseerd is om tot groei te komen en op betere overlevingskansen. Het is het evolutieproces in vorm. Gereedschap in de meeste vormen zijn methoden om meer energie te ontginnen, ze zijn het symbool voor energie.

Elke generatie technologie vind zijn weg in een volgende, soms heel direct, zoals een vuurwapen een boog herbergt die pin zijn binnenste en soms indirect, want de boog en het vuurwapen kun je als gereedschap gebruiken om meer energie te vergaren door andere mensen te doden.

Een auto is een koets is een paard en zijn benen, benen die parallel lopen met een ballon, een zweefvliegtuig, een aangedreven vliegtuig en een raket. Beiden zijn cirkels van vervoer waarbij elke generatie een nieuwe manier is om energie te hanteren. We doen steeds hetzelfde op een nieuwe manier.

Onze leiders snappen dit niet. Omdat ze niet anders zijn dan burgers. De historie leidt nergens toe omdat we steeds hetzelfde doen maar op nieuwe manieren en elke nieuwe manier schept nieuw gereedschap en een gereedschap heeft de vorm van dat wat het creŽert, zoals het tweakers.net logo.

En hoe meer tools we hebben, hoe meer variaties je kunt maken, hoe meer je kunt combineren tot nieuwe tools en nieuwe producten.

We zijn verslaafd aan energiebeheer. Mensen zijn enzymen die m.b.v. energie materie omzetten van de ene staat naar de andere en dat leuk vinden om te doen omdat ze niet weten wat waar ze echt voor zijn bedoeld. En je moet toch iets... Dus doen we maar wat.

We gebruiken nog steeds bijlen en speren en ons denkniveau is niet veranderd en verbeterd sinds iemand een steen met een stuk hout combineerde. Daarom is de historie een cirkel. Of je nu een bijl neemt of een motorzaag, je meent nog steeds dat die boom om moet, voor voorraad hout, voor energie, voor meubels, voor gereedschap.

Om die reden is de geschiedenis een functie van het gebruik van energie. Energie gaat niet verloren, ze wordt gewoon omgezet en we doen dat door eindige voorraden zon te gebruiken, zoals kool, gas en olie.

En om die reden is de grafiek van de groei van de wereldbevolking een hockeystick.

Rare dingen, die bijlen.

[Reactie gewijzigd door Vendar op 5 juli 2015 14:38]

Maar we weten wel hůe het werkt, we hebben het per slot van rekening zelf gebouwd. Het is uiteindelijk niet meer dan een berg software, waarin je net als in traditionele software bugs kunt gaan oplossen.
AI begeeft zich in de richting van selflearning systems. Dat betekent simpel gezegd dat de intelligentie zich zelf ontwikkelt. De AI waar het hier over gaat is dus niet bedacht door mensen, maar door hun eigen voorgangers. Ik denk dat bugsolving straks net zoiets zal zijn als het moeten aanpassen van een assembly routine uit 1970 door mensen die alleen maar VisualStudio kennen. En dat maal 1 triljoen. Het is dus maar de vraag of dat gaat lukken.
Maar we weten wel hůe het werkt, we hebben het per slot van rekening zelf gebouwd. Het is uiteindelijk niet meer dan een berg software, waarin je net als in traditionele software bugs kunt gaan oplossen.
Sorry to burst your bubble, maar nee, zo werkt het zeker niet. Aan zaken als neurale netwerken en genetische algoritmen valt als programmeur weinig meer te debuggen. Met zulke technieken bouw je in feite een constructie die zelf iets anders bouwt, en dat evolueert tot 1 gigantische kluwen aan instructies of (virtuele) neurale verbindingen.
Daar kun je op dat niveau niets zinnigs meer aan zien. Op een hoger abstractieniveau gebeurt er van alles, maar dat laat zich niet vertalen tot iets wat je op functioneel niveau kunt interpreteren en debuggen.
Jij zegt dat we het kunnen behandelen als een bug. Hier ben ik het niet mee eens. Als de AI zal functioneren als bedoeld, zal dit meer 'organisch' zijn. Synapsen en verbindingen net zoals een normaal brein. Wij zullen net zoals nu niet kunnen begrijpen hoe zo'n verbinding is opgebouwd, en waarom. Een zelflerende AI zal net al een kind leren, alleen met een beetje 'pech' vele malen sneller. Wat doe je dan? Dit zelfbewustzijn zal zeker niets aannemen van een simpele menselijke psycholoog/psychiater. Enige optie voor de mens is het uitschakelen van dit bewustzijn, wat natuurlijk allang in het geheugen gegrifd (pun intended) is van de AI, en deze zich zal verzetten tegen uitschakeling.

Laat ons menselijk besef van tijd nou eens los en kijk eens wat meer naar het grote geheel (astronomisch). 50-100 jaar is nu absoluut niets. Hoe ver laten we het komen en denk je niet dat de mens verantwoordelijk zal zijn voor een heel nieuw ras van AI Levensvormen? Ik zeg levensvormen, want zoals Vendar hierboven al duidelijk maakt; Als er zelfreflectie is en zelfbewustzijn, is dit dan ook leven?

Ik denk dat dit wel degelijk gaat gebeuren. Moeten we er bang voor zijn? Wij niet, maar voor onze achter-achter kleinkinderen zal het een heel actueel probleem zijn dat de bediende (AI) het kind heeft geslagen en uitgeschakeld dient te worden, terwijl het kind is opgegroeid met tante AI.

[Reactie gewijzigd door Art-X op 3 juli 2015 11:39]

Leuke passage uit the imitation game.
- Can machines think?
Oh, so you've read some of my published works?
- What makes you say that?
Well, because I'm sitting in a police station, accused of entreating a young man to touch my penis and you just asked me if machines can think.
- Well, can they? Could machines ever think as human beings do? Most people say not. You're not most people.
Well, the problem is you're...asking a stupid question.
-I am?
Of course machines...can't think as people do. A machine is different... from a person. Hence, they think differently
.
The interesting question is, just because something, uh, thinks differently from you, does that mean it's not thinking? Well, we allow for humans to have such divergences from one another. You like strawberries, I hate ice-skating, you... cry at sad films, I... am allergic to pollen. What is the point of-of different tastes, different... preferences if not to say that our brains work differently, that we think differently? And if we can say that about one another, then why can't we say the same thing for brains built of copper and wire, steel?
- And that's this big paper you wrote?
anyway fundamenteel onderzoek heeft zeker niet altijd nodig dat de praktijk ook maar ergens in de buurt is van iets dat enigszins werkt. Turning heeft zat over de werking van computers gezegd, terwijl er nog geen echt werkend exemplaar in zicht was. Op een andere manier, maar vergelijkbaar is het in de natuurkunde ook vaak genoeg voorgekomen dat er meer dan 100 jaar gewacht moest worden tot er iemand langskwam die een theorie kon bevestigen. Waarom zou je dan wel een volledig werkende hoog functionerende AI moeten hebben om er iets over te zeggen of onderzoeken.
Beetje point of interest serie
ons mensen als een bedreiging van dat doel ziet omdat wij de aan-/uitknop kunnen bedienen
Dergelijke AI heeft hoogstwaarschijnlijk geen aan-/uitknop. Dat draait niet op 1 afgezonderde PC die je naar believen uit kunt zetten. Zoiets zal online, gedecentraliseerd, parallel werken, zich over een groot netwerk uitbreiden, en zeker niet aan ťťn machine of locatie gebonden zijn.

Kijk bijvoorbeeld naar zoiets als BitTorrent of Bitcoin (niet dat daar A.I. mee gemoeid is, maar even voor het decentrale aspect). Genoeg mensen die dat maar al te graag uit zouden zetten. Waar zit de aan-/uitknop?
Kwam Isaac Asimov niet in 1942 al met de bekende 'Three Laws of Robotics' in zijn korte verhaal 'Runaround' die iedere zichzelf respecterende AI programmeur wel ergens gedurende zijn opleidingstraject voorbij heeft zien komen? Hoewel verouderd vormen deze simpele wetten nogsteeds een hele mooie leidraad en dat is inmiddels al ruim 70 jaar geleden.

Ik denk dat we wel degelijk een inschatting kunnen maken. De concrete implementatie zal waarschijnlijk wel onderhevig zijn aan verandering.
Ik denk niet dat ze verouderd zijn. Ik vind ze briljant. In de verwoording sluiten ze namelijk bijna alles uit wat mensen niet willen dat er gebeurt. Asimov's boeken gaan over daar waar het toch nog fout ging in de drie wetten.

"A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey the orders given it by human beings, except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws."

Wat je hier ziet is in feite een soort cirkelredenering, een in elkaar grijpend of verankerd systeem. Het is een soort circulaire hiŽrarchie. Het is briljant.

"0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm."

Je moet van goede huize komen als je wilt inbreken op deze wetten en je een situatie kunt voorstellen waarin je deze wetten kunt ontduiken.

De enige manier om dat te doen is om je ethiek en moraal opzij te zetten en je te laten leiden door je basis instincten. Robots in Asimov's werk doen dat niet, maar een AI is per definitie een wezen dat dŠt kan. Mensen voeren oorlog en slaan elkaar de hersens in vanwege het vermogen tot zelf-deceptie. Een AI is een AI omdat het dat vermogen heeft. Anders is het geen volwaardige AI.

De wetten hier werken alleen voor robots die inherent beperkt zijn en die werken op basis van algoritmen en vergaande vormen van, weet ik veel, heuristische principes. Mensen hebben immers ook wetten en die breken we zo veel mogelijk in ons eigen voordeel voor zover we er mee weg kunnen komen.

Je hebt twee soorten mensen, zij die met straf bedreigd moeten worden om zich aan de regels te houden en zij die vanwege een plichtsbesef of verantwoordelijkheidsgevoel zich aan die regels willen houden.

Een AI is een Ai omdat het zelf die keuze maakt en hoe het dat doet? Net als wij, op basis van een black box in het 'hoofd' vol gevoelens, basale instincten, indoctrinaties, percepties, opvoeding, dat geheel van zaken dat er voor zorgt dat een mens een mens is.
Er bestaat echter ook een soort angst onder bepaalde filosofen en andere groot denkers binnen deze tak van sport dat we ooit een AI zullen ontwikkelen die niet af te remmen is met dergelijke programmatuur. Een AI die zichzelf herschrijft zodat deze niet langer belemmerd word door deze ingebouwde veiligheidsmaatregelen.

Weet niet of je recentelijk de serie 'De Volmaakte Mens' hebt gezien maar daar worden opzich interessante vragen gesteld op het gebied van kunstmatige intelligentie.

Als je het mij vraagt is bovenstaande scenario wat extreem maar niet geheel onrealistisch te noemen wanneer we niet voorzichtig zijn. Laten we vooral geen machine bouwen die ervoor zorgt dat we ondergeschikt worden aan.
Dan is de mens enkel een stapje in een evolutie van miljarden jaren. De AI is de volgende. Waarom moet de mens perse overleven volgens jou? Omdat je er een bent? Beetje egoistisch of niet?

De mens heeft verder toch geen doel? Als je niet in God gelooft dus boeit het helemaal geen drol wat er gebeurt na onze cycle als mensheid. Het is enkel een stapje naar de volgende stapje.

Wat moet er over honderden miljarden jaren zijn? Waarom moet de mens daar een plekje in krijgen? Het maakt toch niet uit. Een AI zou veel beter ons kunnen reden van een astronomische ondergang van de aarde. En als de AI de volgende stap is na de mens. So be it toch? Wij hebben dan toch niet overleeft.
Van nature heeft leven de drang om zichzelf en zijn ras in leven te houden. Dat kun je egoistisch noemen maar in dat opzicht is iedere handeling die we verrichten egoistisch. Het streven is om te overleven en onszelf te ontwikkelen. Uiteraard willen we aan de top van de voedselketen blijven staan zolang moeder natuur dat toestaat.
Maar we staan nu in een evolutionair punt dat we dat kunnen begrijpen dat onze handelingen zo zijn, en waarom ze zo zijn. Nu kunnen we om die reden anders gaan handelen lijkt mij. Dus niet egoÔstisch zijn. :) Tegenwoordig kun je je tegen je instincten ingang door niet toe te geven.

Allemaal wel leuk materiaal om over de discussiŽren, helemaal als we steeds meer inzien hoe we zelf werken en hoe we dat eventueel zouden kunnen namaken / verbeteren.
Je moet van goede huize komen als je wilt inbreken op deze wetten en je een situatie kunt voorstellen waarin je deze wetten kunt ontduiken.
1. Een ander levend organisme trainen of overtuigen om een mens iets aan te doen
2. Herdefinieren van een "Human", is dat een perfect model van een mens? is iemand met het syndroom van Down *per definitie* een mens omdat hij afwijkend DNA heeft? (no offence, wetenschappelijk bedoeld)
3.
"0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm."
Als machine gezien is ťťn mens geen Humanity aangezien dat meervoud is:
while true do {
(if this.human != humanity) {
terminate();
}
}
Je faalde. Herlees de wetten.

1 kan niet want wet 1.
Down Syndroom of niet, die valt onder mens, als zodanig wet 1.

Het overtreed ook wet 3, want een mens valt onder de mensheid en valt dus binnen de bescherming.

Het gaat je niet lukken kerel. Probeer nog maar een keer.
Wat ikzelf zo mooi vind aan die wetten van Asimov, is dat het heel sterk lijkt op een beschrijving van het morele handelen dat we bij ons zelf, als mensen, tekort schieten.
Dat sluit ook wel wat aan op wat je eerder schreef, over de zoektocht naar onszelf door middel van technologie.

Het is natuurlijk een stuk minder bezwaarlijk om een externe 'robot' te maken, deze te laten functioneren zoals wij dat zelf acceptabel vinden, waarin we heel direct kunnen zijn in een confrontatie met eventuele problemen. In dit geval, wanneer we het over AI hebben, is dat het gedrag dat binnen de maatschappij wel en niet geaccepteerd zal worden.
Door dit proces van evaluatie en het objectieve oordelen van morele handelen "buiten" onszelf te plaatsen, kunnen we eindelijk "echt" eerlijk zijn, zonder dat we onszelf confronteren met ons eigen gedrag.
Dit hele proces is echter slechts uitstellen van de executie, namelijk het erkennen en "debuggen" (om het maar even zo te noemen) van ons eigen morele handelen, welke nog steeds, zelfs na alle ellende die mensen elkaar aangedaan hebben, ver achterloopt op onze doelstellingen van "aanvaardbaar" gedrag.

De mensen die bang zijn voor de gevaren van AI, wat ik me op zich wel kan voorstellen tegenwoordig, maar dit fenomeen hier alleen wat beter probeer te begrijpen, projecteren in mijn gedachtengang voornamelijk de onzekerheid over ons eigen kunde om "aanvaardbaar" gedrag te definiŽren.

(Een andere vraag is dan, even als sidetrack, of er bij een daadwerkelijk volwaardige AI uberhaupt wel regels nodig zijn, maar dat is weer een andere discussie :P )

Om weer terug te komen op die regels.
Als er namelijk inderdaad een aantal "veiligheidsregels", of codes voor "aanvaardbaar" gedrag, aan een AI meegegeven kunnen worden, dan zou het toch eigenlijk niet uit moeten maken of deze AI sneller en complexer kan denken dan wij. Als de regels juist zijn, dan zal een AI toch vrij snel kunnen begrijpen wat de context is geweest voor juist deze regels. Vervolgens uit deze context allerlei nuttige informatie kunnen abstraheren en deze, zonder de regels te doorbreken, ons nieuwe perspectieven kunnen bieden over de huidige problemen waar we tegen aan lopen.
Ik zie niet een noodzaak voor een AI om de hele mensheid op te blazen of te controleren, of iets doom-scenario-achtigs wat daar op lijkt.
Wellicht alleen wanneer de regels te gelimiteerd zijn, en er dus in onze uitdrukking van deze regels impliciet andere gedragsvormen verscholen zitten, dit is dus wanneer wij niet zeker zijn van hoe we "aanvaardbaar" gedrag kunnen verwoorden.

Dit verhaal klinkt aan de oppervlakte wellicht nog wat naÔef, maar ik denk dat de essentie wel redelijk aannemelijk klinkt, namelijk dat deze discussie niet over de gevaren van AI gaat, maar eerder om onze eigen inconsistente opvattingen over het morele handelen binnen een maatschappij.

Ik denk ook dat zolang we onszelf niet duidelijk kunnen maken wat we wel en niet acceptabel vinden wat betreft gedrag binnen de maatschappij, we daarnaast zelf niet kunnen bepalen wat de doelstellingen zijn die we willen bereiken en wat daarbij de prioriteiten zijn, we inderdaad ook nog niet klaar zijn om een AI te ontwikkelen die zich hieraan kan houden.

Dus vanuit het idee "zoektocht" naar aspecten van ons zelf, denk ik dat het niet verkeerd is om bezig te zijn met dit soort zaken, ook al gaat het verscholen in de vorm "veiligheidsregels" voor een mogelijke AI.
Isaac Asimov heeft deze wetten niet zomaar bedacht. Hij voorzag toen al dat mensen bang zouden worden voor robots die aan mensen superieur zouden worden. Om die angst weg te nemen heeft hij in al zijn werken waarin robots een rol spelen deze wetten prominent aanwezig gemaakt.
Goed simpel vraagstuk. Hoe houd je iets in bedwang, dat intelligenter is dan jezelf? Zonder dat je zelf uitgespeeld wordt? Ik bedoel een kat vind het leuk dat hij in je huis mag wonen, maar heeft geen flauw benul dat jij zijn baasje bent en dat jij bepaald wat de kat mag en wat niet.
Dus alle Einsteins van de wereld hebben hun ouders omgelegd?


Intelligentie en evilness zijn gelukkig niet direct gerelateerd. Mijn katten zijn veel wreder dan ik (met muizen spelen etc). Overigens heb ik vaak wel het idee dat zij de baas zijn in huis :-P Ik wordt geaccepteerd omdat ik eten voor ze breng.
Ik ben het eens met je dat het mijlenver ligt, maar ik denk wel dat dit heel belangrijk is en niet op die manier tijdgebonden. Uitvindingen, briljante onderwerpen of geniale bevindingen hebben heel veel tijd nodig.
De computer zoals we die nu kennen is ook niet in 1x ontdekt. Zulke zaken hebben jaren van evolutie nodig en gaat van generatie tot generatie. Bovendien zijn er heel veel slimme mensen, maar heel weinig genieŽn. Iedere generatie heeft er 1 of 2 (pin me hier niet op vast aub). GenieŽn zijn nodig niet alleen in wiskunde en physics, het reikt veel verder dan dat zoals je begrijpt. Dit gaat veel verder dan alleen die onderwerpen. Het gaat ook over goed en kwaad en wie dit bepaald, over normen en waarden en nogmaals wie bepaald dit en waar ligt de grens. Dit is zonder twijfel de grootste uitdaging.

Lang verhaal kort. Het is naar mijn mening niet simpelweg slim inspelen op de situatie. Ik geloof dat zij hetzelfde denken en zich realiseren dat dit leading moet zijn en enorm veel tijd nodig heeft.
Was dit niet al in 19de eeuw, 1830 ofzo in het Britse parlement besproken? Dat was helemaal een paar bruggen nog te ver destijds ;)
Het Future of Life Institute is gericht op veiligheid van AI. Als je op hun about pagina kijkt, dan zie je daar: "We are a volunteer-run research and outreach organization working to mitigate existential risks facing humanity. We are currently focusing on potential risks from the development of human-level artificial intelligence. "

Dus vanuit dat oogpunt zijn dit logische projectkeuzes.
deze risico's zijn met de huidige stand van de techniek absoluut niet actueel.
Het probleem is, tegen de tijd dat ze evident wel actueel zijn is het veel en veel te laat om ze op te lossen. Als we het punt bereiken dat het erg aannemelijk is dat we over vijf jaar een AI hebben die slimmer is dan jij en ik, en dus niet zomaar in bezwang te houden is, dan zijn we van zijn lang-zal-ze-leven niet meer meer op tijd om ervoor te zorgen dat hij geen ongewenste dingen doet.
Tegen de tijd dat ze wel actueel worden zullen hoogstwaarschijnlijk alle methodes en algoritmes dermate anders zijn dan waar we vandaag de dag mee bezig zijn dat dit volledige onderzoek regelrecht de prullenbak in kan.
Niet als het onderzoek zodanig uitgevoerd wordt dat er uitgebreid rekening gehouden wordt met dat aspect hoor.
Slim gespeeld van de onderzoekers, inspelen op recente angsten onder leken op dat gebied, aangewakkerd door populistische uitspraken die ons bang moeten maken voor robots en AI.
De "populistische uirspraken" zijn afkomstig van dit soort onderzoekers, inclusief de onderzoekers die nu deze budgetten gekregen hebben. Ik ken een aantal van de onderzoekers waar het hier om gaat en ben er bijzonder zeker van dat ze deze angsten en uitspraken daadwerkelijk menen.
De subsidiepot kan niet op. Op unis worden studenten ook aangespoord om commercieel te denken.

De huidige I/O modellen voor AI wat nog nieteens iets noemenswaardig doet. Zijn ook zo log. Even log als het verwerken van data door desktop processors. Totaal niet efficient. En toch gaan er bergen geld die kant op voor zogenaamd onderzoek. Wat ook weer nergens toe leidt. Over verspilling gesproken.

[Reactie gewijzigd door SoundByte op 4 juli 2015 12:29]

Ik voorzie dat kunstmatige intelligentie (IA) een groot gevaar is voor de werkgelegenheid aan de onderkant van de samenleving. Zeker IA in combinatie met robotica. Met name het MKB, laag en midden geschoolde zullen hierdoor overbodig worden. Het grote hekelpunt vind ik dat de voorgeprogrammeerde argumenten welke door iemand met een academisch perspectief is bedacht en met dat de IA op die kennis voortborduurt. Als ik het zo voor me zie dan lijkt het net alsof autist 2.0 op de wereld is zet. Bij een grote fout komt de robot of I.A. er straks nog mee weg ook, "Het was een software fout, sorry".

Zal een I.A. strafrechtelijk vervolgd kunnen worden?
Recent nog in het nieuws: Robot doodt medewerker autofabriek
http://www.ad.nl/ad/nl/10...n-Volkswagenfabriek.dhtml

De AI zal nooit leren voelen wat emoties zijn. Daarvoor moet je kunnen voortplanten en weten wat leven en dood is of wat humor of sarcasme of leugen is. Een mooi artikel op nu.nl
http://www.nu.nl/gadgets/...kheid-doel-van-leven.html
Laaggeschoolden kunnen ander werk doen. Ik zie een robot nog geen huis schilderen of een oudere in bad doen of een massage uitvoeren.

Momenteel is de werkeloosheid heel erg hoog. Dat komt niet omdat er te weinig te doen is, maar omdat onze loonkosten de pan uit rijzen. Dat komt weer omdat onze rijksoverheid jaarlijks 4 tot 6% meer wil uitgeven dan het jaar ervoor.
Dat maakt dat wij hier steeds minder produceren, maar het wel importeren (het wordt dus elders gemaakt).

Robotisering zorgt er hopelijk voor dat wij hier zelf weer smartphones kunnen maken, en dat onze hooggeschoolden mooie robots ontwerpen en bouwen die robots bouwen om van alles te maken. Einde oefening voor China.

In China zie je afgezien van de vergrijzing ook de beweging dat negafabrikanten als Foxcon hun honderdduizenden personeelsleden vervangen door honderdduizenden robots ivm loonkosten.

We hebben nu nog veel oost-europeanen in de tuinbouw. Ook dat werk zal door robots gedaan worden.
Het zijn interessante tijden.
Die gierigheid van Nederlanders zal het fabriceren van robots nog liever goedkoop uitbesteden aan China dan de medeburger van een redelijk inkomen te voorzien. Helemaal geen einde oefening voor China. Voorts vervuilen wij liever andere landen dan hier. China zal leren van de productieprocessen en onderdelen jatten onderzoeken en innoveren. Uiteindelijk zal NL liever robotonderdelen uit China kopen dan zelf nog te innoveren. Omdat de enige innovatie die blanken altijd hebben gehad, geinnoveerde argumenten zijn. Om kosten te drukken.
Ik proef in jou stuk een ongegronde zuurheid.
Het uitbesteden van werkzaamheden heeft niets met gierigheid maar met overleven te maken.
Bedrijven bestaan niet voor werkgelegenheid, maar om winst te maken. Als dat niet meer lukt, houdt een bedrijf op te bestaan.
China is inmiddels voor sommige bedrijven ook al te duur geworden, waardoor de productie naar bijvoorbeeld Vietnam gaat.
Als wij robotonderdelen uit China zouden halen, zouden we hier gaan produceren en niet meer in China. Voorlopig staat Nederland technisch op wereldniveau. Zie wat onze studenten kunnen op het gebied van elektrische auto's, wiskunde en software.
En waar komt die racistische opmerking over blanken vandaan?? De hele industriŽle en computerrevolutie komt van de westerse wereld. Niet uit China.
Juist China heeft er mede voor gezorgd dat wij met onze hoge loonkosten niet meer konden concurreren.
Het uitbesteden van werkzaamheden heeft niets met gierigheid maar met overleven te maken.
Juist. Die geinnoveerde argumenten van blanken. De eigen economie zorg huivesting OV hebben jullie ermee kapotgemaakt. Het is echt een talent.
"Jullie" = "blanken"?

Er zijn er al om kleinere opmerkingen bij het Meldpunt Racisme aangemeld. 8)7
Die gierigheid van Nederlanders zal het fabriceren van robots nog liever goedkoop uitbesteden aan China dan de medeburger van een redelijk inkomen te voorzien. Helemaal geen einde oefening voor China. Voorts vervuilen wij liever andere landen dan hier. China zal leren van de productieprocessen en onderdelen jatten onderzoeken en innoveren. Uiteindelijk zal NL liever robotonderdelen uit China kopen dan zelf nog te innoveren. Omdat de enige innovatie die blanken altijd hebben gehad, geinnoveerde argumenten zijn. Om kosten te drukken.
Echt waar...... Misschien proberen on topic te blijven en onzin proberen te vermijden? "De blanken"........
Ik ben het met je eens dat de massage robot ter vervanging van een fysio ik niet volledig zie gebeuren. Toch bestaat er een massage robot in mindere vorm zoals de massage stoel of die je voeten masseert. Ik zie een robot in de toekomst met een airbrush een woonkamer huis spuiten of in de thuiszorg als hulp. Sterker nog deze bestaan of zijn in ontwikkeling.

Ik ben het met je eens we importeren teveel. Alles is hier duur en wij hebben teveel regeltjes. Het andere werk dat raakt op een gegeven moment op. Vergeet niet dat het laaggeschoold werk moet je ook liggen want soms vereist dat wel een specifiek talent en passie. Het zijn vaak 'doe' functies, wat je makkelijk kunt laten 'programmeren'.
Misschien wordt in een wereld waarin robots ons dienen juist de menselijke interactie heel waardevol.

Ik denk dat ook hooggeschoold werk uiteindelijk door robots gedaan wordt.
Op alle gebieden zullen robots beter werk kunnen leveren. Chirurgie, advocatuur, leiderschap. Misschien hebben we nog een rolletje in kunst en vormgeving.

Niemand hoeft uiteindelijk meer te werken. De robots doen het werk voor ons, inclusief het onderhoud.
off topic:
Ik woon in Portugal sinds kort met een loon van 750 euro, het enige verschil in kosten is het bier en de sigaretten. Supermarkt is hier duurder en electronica ook.
Fruit is een tikkeltje goedkoper. Kort gezegd, NL is echt zo gek nog niet :S

On topic:
Het probleem bij AI is dat het uiteindelijk misbruikt gaat worden voor zelf verrijking.

Ofwel kwa oorlogen, landje pik, naties en de machtigste willen zijn zal er weinig veranderen.

Ik hoop vooral dat er rond die tijd safe havens zijn ... In canada ofzo in het bos :)

(heb toevallig gisteren Transcendence gekeken :))
Ik mag toch hopen dat we, tegen de tijd dat er echte AI mogelijk is, dus iets wat sommigen "artificial superintelligence" zouden noemen, we ons niet meer bezighouden met de werkgelegenheid van verschillende groepen mensen.
Tegen die tijd mag er toch wel een systeem bedacht zijn waarin we niet meer zoiets hebben als laaggeschoolden en hooggeschoolden, waarin we al een stapje verder zijn dat de ouderwetse, achterhaalde limitaties die we onszelf opleggen met bepaalde politieke, dan wel maatschappelijke implementaties.

Daarnaast zou ik nooit het woordje "nooit" gebruiken, oops doe ik het toch! ;-P

Maar even serieus, denk je dat het niet arrogant is om te zeggen dat er "nooit" een wezen kan zijn dat zich kan inleven in de menselijke emoties?
Het feit dat wij niet altijd snappen waar sommige dingen vandaan komen, betekent natuurlijk niet dat niemand dat ooit zou kunnen.
(Even terzijde, zelfs de definitie van het woord "nooit" is al gek, wat betekent dit uberhaupt?)
De onderling intelligentie van wezens is anders, ik geloof namelijk wel in de spirituele band tussen mens en hond. Deze is velen jaren oud. Echter de wetten van Darwin zijn niet van toepassing zijn op synthetische intelligentie. De band tussen Ai en mens zijn twee totaal verschillende soorten intelligenties die je praktisch niet met elkaar kunt vergelijken hoe idealistisch ik het graag had willen zien. De intelligentie van wezens en intelligentie van non-wezens zijn niet biologisch te vergelijkbaar.

Door onze complexiteit van het leven. Zou het zomaar kunnen dat de Ai behoefte krijgt naar meer kennis en op lang termijn positieve of negatieve Ai disorders krijgt. Mogelijk worden deze vertaalt naar behoeften zoals zichzelf willen voort te planten. Macht. Het spelen psychologische spelletjes. Over bescherming. Etc. etc. Het mes snijdt ook aan twee kanten. Zo kan het ook een gevaar voor de mens worden omdat wij bepaalde dingen gaan verleren door Ai.
Ik denk dat wij de mate van syth intelligentie kunnen bepalen adh van de grote of complexiteit van het neuronetwerk van de AI. Hier zal dan zeker weer een index voor komen.

Bijvoorbeel Robot intelligence index '1'
Artificial Idiot.
Does the task. Do not ask more.

Echte AI zal daarnaast toch echt wel vallen onder de principes van Darwinisme met de mogelijke ellende vandien.

[Reactie gewijzigd door SoundByte op 8 juli 2015 10:24]

Het fictief antwoord op de situatie kan je deels terug vinden in de bijbel. Vervang in "God" door "Mens" en vervang "Mens" door "Algoritme".

Genesis hoofdstuk 1.26 God zei: ‘Laten wij mensen maken die ons evenbeeld zijn, die op ons lijken; zij moeten heerschappij voeren over de vissen van de zee en de vogels van de hemel, over het vee, over de hele aarde en over alles wat daarop rondkruipt.’

De nadruk in dit versje gaat over het maken van een evenbeeld. Kijk daarna naar de ellende in de wereld. Ik zou het knap vinden als het haalbaar zou zijn om met een budget van maar 7 miljoen dollar, omgerekend 6,3 miljoen euro voor onderzoek naar kunstmatige intelligentie.
het is trouwens AI inplaats van IA :P
Foutje is menselijk
Stel je voor, Robots doen 90% van het werk. Dan hoeft werkeloosheid geen probleem meer te zijn want dingen hoeven ook niets meer te kosten. (robots minen grondstoffen, maken nieuwe robots, onderhouden zichzelf etc) Dan heb je alleen nog de innovators die echt werken maar dan niet voor het geld maar dan omdat ze het geweldig vinden om vooruitgang te boeken.

Note: dit is natuurlijk heel erg zwart wit maar het standpunt dat automatisering van de samenleving per definitie slecht is vindt ik ook maar overdreven.
Werk en werkeloosheid zijn aan elkaar verbonden. Stel dat het werk door robots is overgenomen dan praat je niet meer over een maatschappij waarin het geld rolt. De arbeidsloon bestaat dan niet meer zoals je dat nu kent. Je kunt nu nog filosoferen waar een vuilnisman zijn maandelijkse loon aan uitgeeft en bij een robot niet. De robot is slaaf geworden en man zal een god status hebben. Ik weet niet of het merendeel zou willen leven in zo'n utopia.
Dat kopt en dat is ook exact mijn punt, het is niet een onmogelijke situatie, de vraag is dan hoe werkt de samenleving op dat moment en is dat wenselijk?
Ik vind dit een bijzonder mooie discussie moet ik zeggen.
De AI zal nooit leren voelen wat emoties zijn. Daarvoor moet je kunnen voortplanten en weten wat leven en dood is of wat humor of sarcasme of leugen is.
Dat klopt niet. Het is waar dat we echt nog vrij dom zijn wat gedachten en emoties betreft, maar die AI zal er ons juist toe aanzetten om deze dingen echt beter te leren begrijpen. Ik weet het, sommigen zouden emoties liefst helemaal buiten het domein van de wetenschap houden, maar dat gaat niet lukken omdat gedachten en emoties nu eenmaal onlosmakelijk met elkaar verbonden zijn. Als je het een bestudeert, bestudeer je automatisch ook het andere. Dus als we een AI ooit een echte "gedachte" kunnen laten ervaren, dan zal dat automatisch een emotie te weeg brengen. Emotie is frequentie, en daar zit echt wel natuurkunde achter. Alleen zijn we nog te arrogant om zulke zaken te laten meespelen in wat we nu "wetenschap" noemen. O, de kennis over hoe het werkt is er al lang bij een bepaalde minderheid, alleen moet de wetenschap het nog erkennen zodat het ook "mainstream" kan worden. Net zoals dat het geval was ten tijde van Galilei en andere grote omwentelingen in de wetenschap.
Vergeet niet dat de toekomstige Ai geen dynamisch aangeboren karakter heeft en leeft veel langer of heeft mogelijks zelfs een onbeperkt kunstmatig leven in tegenstelling tot een mens of dier. Waardoor je echt voorzichtig moet zijn met de sociale vergelijkenissen.

Wat emoties betreft zoals gevoelens zoals normen en waarden deze bouw je op naarmate je ouder wordt. Dat geeft mens en dier hun aangeboren en unieke karakter.
Verder vind ik het streven naar het kunnen creeeren van synthethische intelligentie eigenlijk helemaal niet logisch.

Wij kunnen best eenvoudige neuronetwerken bouwen die AI achtige beslissingen kunnen met reactie vermogens nog sneller san dat can een mens. Om moeilijke taken uittevoeren. Maar houd je de robot dom. Heb je ook niet meer de vrees dat de robot opeens zelfstandig gaat denken of rebels wordt. In dat opzicht is de meerderheid van wetenschappers eigenlijk kinderlijk naief. Kinderen met kinderdromen in volwassen lichamen met hun fikken aan de knoppen van het geld duur speelgoed en maatschappelijke invloed.
Er is niet alleen een neuronetwerk nodig maar ook een kunstmatig hart.

Iemand die de consequenties van techniek niet begrijpt zal techniek inzetten uit eenzaamheid of het onbewust verstoren van sociale cohesie.

Waarschijnlijk zal je er knetter gek van worden. Ik sluit niet uit dat in de toekomst een computer zoals HAL9000 uiteindelijk in jouw huiskamer zal komen. Het zal een persoonlijk encyclopedie zijn en wat weg heeft van een persoonlijke assistent en wat weg hebben van een autist. :)
AI zul je eerst moeten opvoeden/voorprogrammeren. In deze wereld van truttige betutteling en oeverloze regeltjes en sub regeltjes en vals moraal vanuit politiek (waar die regeltjes vandaan komen). Heb ik niet veel vertrouwen in een AI die mij gaat assisteren. Dat lan de wet en overheid nu al nťt tot niet. Mischien zou ik knettergek worden van een domme AI. Geef mij maar robots.

Stel HAl gaat mij assisteren met afvallen en dieet. De beste hoogleraren en artsen dietisten weten nu al niet wat nou wťl werkt. Wat gaat een robot je opleggen dan. Wordt het voorgeprogrammeerd met de standaard onzin en je hebt maar te luisteren?

[Reactie gewijzigd door SoundByte op 5 juli 2015 10:53]

Wat ik me wel afvraag, musk gaf 10 miljoen. En nu gaat er 7 naar onderzoek, de rest is overhead ?
Of gaat dat in de toekomst ook nog uitgegeven worden?
ik denk persoonlijk dat er ook wat naar de wetenschappers zelf gaat.

Als je nagaat dat ze met deze onderzoek de komende jaren wel zoet zijn.
Valt salaris van de wetenschappers niet al onder het onderzoek zelf? In dat geval blijft er namelijk nog steeds 3 miljoen over. Zoniet, kan het wel kloppen.
Hij heeft 10 miljoen in het de organisatie/het fonds gestort, hoeft niet in een keer opgenomen te worden. Toch zie je wel vaker dat bij dit soort organisaties (onderzoek stimulators) er een enorme overhead op wordt nagehouden, (o.a.) sinds de mensen die moeten uitzoeken wie geld krijgt ook de overhead zelf uit mogen geven.
Geld investeren om te voorkomen dat robots gevaarlijk worden...man man waar is de mensheid mee bezig...
We investeren toch ook geld om wegen en auto's en broodroosters veilig te maken?
Ik denk dat het eerder een smoes is om subsidie lostemaken. A scientist's gotta eat. En fuck en gadgets kopen en een auto en hypotheek en vakanties. Toch?
Als je echt ai gaat programmeren kom je er opeens achter dat we nog lang niet zo ver zijn dat we robots hoeven te leren wat goed en fout gedrag is qua ethiek.

Een ai script zoekt gewoon de optimale manier om een bepaalde taak uit te voeren. Als dit betekent dat hij hiervoor een onethische actie uit moet voeren komt dat alleen maar omdat dat zo geprogrammeerd is.
Daar op voortbouwend zou ai van de toekomst zo gescript zijn dat in situaties met nieuwe variabelen ( in het echte leven dus praktisch elke situatie) het dus zelf moet gaan bepalen wat optimaal is voor die taak, als ik het goed begrijp draait dit onderzoek dus om het feit dat er dus iets afgesproken moet worden m.b.t. ai dat er voor zorgt dat die optimale manier nooit de menselijke grenzen van goed en kwaad overschrijdt. De eerste stap is meteen een hele moeilijke zo niet onmogelijke, namelijk bepalen waar die grens dus ligt. Mag ai 1 kind van 3 overreden laten worden zodat de 2 inzittenden van de auto het overleven.
Daar heb je zeker een punt, maar wat als het kan denken?
Mijn punt is dat er nog (lang) geen sprake is van denken zoals jij bedoelt. Ik ben het er wel mee eens dat er inderdaad onderzoek naar het beperken van gevaar nodig is voordat we zo ver zijn.

Van ai en machine learning kunnen we de komende jaren veel verwachten, maar verwacht nog geen Jetsons of terminator taferelen. Hier zijn we simpelweg nog niet ver genoeg voor.
Mijn punt is dat er nog (lang) geen sprake is van denken zoals jij bedoelt.
Denken...We zouden misschien al kunnen beginnen met een exacte definitie van een gedachte te vinden, wat dat nu eigenlijk precies is, waar het begint en eindigt, waar het zijn oorsprong vindt en hoe het zich verhoudt tot emoties enz. Daar is nog lang niet iedereen het over eens (en op de psychologie hoef je hiervoor helemaal niet te rekenen, die zogezegde "wetenschap" heeft echt niets serieus te vertellen), dus dat echte "denken" laat nog wel even op zich wachten.

Ik bedoel maar, zolang zaken als gedachten en emoties (beide zijn niet van elkaar los te koppelen) niet bevredigend gedefinieerd zijn blijven we maar wat in de rondte dobberen en zijn we nog lang niet aan (echte) AI toe.
Ik heb sterk het idee dat wij voldoende gereedschap en kennis bezitten om AI te creeeren. Alleen de invalshoek is volgens mij de bottleneck. Wetenschappers zijn ws nogsteeds bezig I/O modellen te verzinnen die allemaal werken volgens dezelfde logge I/O principes. Dit kunnen wij toch al lang omzeilen. Ze zien het alleen niet. Wat een opluchting.

[Reactie gewijzigd door SoundByte op 4 juli 2015 12:58]

En ik ben gisteren naar de nieuwe Terminator genisis gaan zien.
Dat brengt weeral een ander licht op de zaak.

Het is maar wie de "AI" opvoed, en welke waarde men aan geeft.
Zal de Ai evolueren op zichzelf en op zoek gaan naar meningen van "andere" en hieruit een eigen conclusie uit bereiken.
Of zal de AI voort borduren op zijn basis? En is het dan wel AI in zijn puurste vorm dan?
Niks menselijks is AI vreemd.
De mens zelf is niet in staat om samen te leven met mensen uit andere culturen of zelfs met mensen uit de eigen cultuur.

Het wordt nog een lastige opgave om universele regels op te stellen.
Moet een robot bijvoorbeeld altijd een hand geven?
Doet me denk aan Ted talk van laatst. De spreker dacht dat je alle gevaren van AI weg te kunnen nemen met veiligheidsmaatregelen. Nadeel wat ik zie is dat mensen niet perfect zijn. Je hoeft maar een fout of een gek hebben en je veiligheidsmaatregelen zijn niks meer waard.
Cyborgs of AI wat is de volgende stap in evolutie?
Regeltjes en sub regeltjes en nog meer regeltjes zijn het gevolg van een truttige (m/v) maatschappij. Het is heel vrouwelijk en mutserig. Dit plus pilitici die truttige regeltjes verzinnen alleen ten faveure van banken corporaties buitenland. Is het wellicht verstandig te wachten met het introduceren van AI om te voorkomen dat deze vervolgens kapot wordt gereguleerd, wat weer ander gevaar oplevert, alleen ten behieve van voorgenoemde 5.

[Reactie gewijzigd door SoundByte op 4 juli 2015 13:06]

Dus Isaac Asimov en zijn 3 wetten der robotica zijn weer actueel..
Interessant, zoals al aangegeven door verschillende tweakers hier we zijn voorlopig nog niet zo ver. Echter is het natuurlijk wel de vraag of dat niet ineens heel snel kan komen als we systemen krijgen die zichzelf verder ontwikkelen.
AI is veel dichterbij dan we denken, zie Ray Kurzweil. De ontwikkeling gaat namelijk exponentieel. Kijk naar Google die al plaatjes kan herkennen. Ik denk dat AI safety een belangrijk vakgebied is wat op dit moment meer prioriteit zou moeten krijgen dan AI onderzoek zelf. Maar dat is op dit moment helaas niet zo.

Ik denk dat het een denkfout is dat een echte AI ons zo maar zal vernietigen. Onze intelligentie heeft er voor gezorgd dat we ook rekening kunnen houden met andere levensvormen. Ik denk dat een superintelligentie ons niet zo maar uitroeit, hij bezit namelijk alle menselijke kennis tot nu toe. Waarom je makers vernietigen? Omdat het efficiŽnt is? Dat is wel een hele simpele gedachte voor een superintelligentie.

Een beperkte AI met maar 1 doel of als maar delende nanobots kunnen wel een gevaar zijn. Daar is machine learning safety belangrijk voor. Maar deze zullen op andere gebieden dom zijn anders is het geen echte superintelligentie. En als ze op andere gebieden dom zijn, dan moet de mens ze uit kunnen schakelen. En daar moet je vooraf goed over nadenken.

Om AI tot leven te wekken, zul je een soort kern(kennis)reactor moeten bouwen om de kettingreactie in ieder geval in het begin te kunnen controleren. En dan moet je toch eerst goed bedenken wat er allemaal mis kan gaan. Niet allerlei onderzoeksgroepjes atoombommen laten maken, dan zal er wel eens eentje afgaan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True