Google, Facebook en IBM gaan overleggen over kunstmatige intelligentie

Vijf grote technologiebedrijven hebben een organisatie opgericht voor overleg over kunstmatige intelligentie. Doel van Partnership on AI is om het publiek bewuster te maken van kunstmatige intelligentie en richtlijnen te bespreken, onder andere op het gebied van ethiek.

Partnership AI'The Partnership on Artificial Intelligence to Benefit People and Society', zoals de stichting voluit heet, is opgericht door Amazon, Google, Facebook, IBM en Microsoft. De vijf nemen een plek in het bestuur in, dat uit tien leden bestaat. De overige bestuursleden zijn wetenschappers die aan verschillende universiteiten verbonden zijn. Voornaamste partijen die ontbreken bij de samenwerking zijn Apple, Baidu en Intel. The Partnership on AI zegt echter dat meer deelnemers zich gaan aansluiten.

De deelnemers zijn grote concurrenten van elkaar op artificial intelligence-gebied, maar de organisatie moet overleg vergemakkelijken over zaken als ethiek, privacy, interoperabiliteit en betrouwbaarheid van technieken. De oprichters stellen dat het niet om een lobbygroep gaat die de politiek wil beïnvloeden.

Ook de invloed van de techniek op de mens en begrip kweken over wat de technologie inhoudt, behoren tot de doelstellingen van het overlegorgaan. De bedrijven achter de organisatie stellen dat kunstmatige intelligentie kan helpen grote problemen op te lossen waar de mensheid zich mee geconfronteerd ziet, zoals op gebied van klimaat, voedsel, gezondheidszorg en scholing.

Door Olaf van Miltenburg

Nieuwscoördinator

29-09-2016 • 09:30

72 Linkedin

Lees meer

Reacties (72)

72
61
33
3
1
19
Wijzig sortering
Voor een ieder die wat meer over de gevaren van AI wil weten :
http://waitbutwhy.com/201...ligence-revolution-1.html (deel #2 ook een aanrader)

Komt er op neer dat het 99% [edited, was 100% :9 ] zeker is dat we binnen 40-60 jaar:
A ) Zullen uitsterven door AI
B ) Onsterfelijk zullen worden door AI

Veel prominente wetenschappers en mensen als Bill Gates en Elon Musk zijn het hier zo'n beetje unaniem over eens, echt zéér interessant leesvoer.

[Reactie gewijzigd door majic op 29 september 2016 16:09]

De grote zwakte van dit verhaal is dat het gebaseerd is op een hoop aannames en extrapolaties, waardoor het een soort "club van Rome" verhaal geworden is. Ergens midden jaren 70 voorspelde de club van Rome dat tegen het einde van de 20e eeuw, de aarde intens vervuild, en de fossiele brandstoffen op zouden zijn. Ook een rapport gebaseerd op extrapolaties van de negatieve factoren.
Nou zeg ik niet dat het niet interessant of belangrijk is om te kijken wat er zou kunnen gebeuren. Ook de club van Rome heeft op zich veel bereikt door het thema bespreekbaar te maken. Datzelfde gebeurt nu met AI.
Echter:
Bomen groeien niet tot in de hemel, en het extrapoleren van gebeurtenissen leidt per defintitie tot doemscenarios.
Ik zal er 3 aannames uithalen:
- Aanname 1 is dat de AI een electronisch AI zal zijn. Het is nog niet eens zeker óf intelligentie wel met een discreet systeem mogelijk is. We begrijpen nog nauwelijks hoe ons brein werkt, maar dat is zéker niet digitaal. Het is een complex geheel van snelle en langzame electrische signalen, en chemische overdracht.
- Aanname 2 is de wet van Moore. Het begint innmiddels steeds duidelijker te worden dat deze het einde van zijn geldigheid begint te bereiken (of al bereikt heeft). De extrapolatie van snelheid (eigenlijk aantal transistors) wordt klakkeloos overgezet naar de snelheid van de ontwikkeling van intelligentie. Hierdoor ontstaat de absurde aanname dat een AI van een 4 jarige zich binnen enkele uren zou ontwikkelen tot een hyper einstein.
- Aaaname 3 (en dan houd ik op) is dat het óf een goede AI, óf een kwade AI zou zijn, en dat die onze toekomst bepaald. Het kan net zo goed een ongeinteresseerde AI zijn. Hoe geinteresseerd zijn wij in het dagelijks leven van de mier? (afgezien van een leuke documentaire). In ieder geval niet genoeg om ons als een god t.ov. de mier te gedragen.

Overigens wordt nergens de conclusie getrokken '100% zeker" ('this might happen in the next few decades")

Al met al, een leuke vingeroefening, en aardig als bewustmaking, maar niet meer dan dat.
In het WaitButWhy artikel worden de meest interessante en meest extreme voorbeelden genomen om de mogelijkheden van AI uit te leggen. In het boek van Nick Bostrom over Superintelligence wordt er inderdaad ook de mogelijkheid genoemd van niet-electrische superintelligentie en praktische toepassingen van AI die niet in de uiterste zitten zoals WaitButWhy doet (total human extinction of immortatlity).

Een groot deel van de wetenschappers die hier een onderbouwde mening over hebben, zitten er trouwens tussenin. De één denkt dat het enigszins goed zal uitpakken met wat slechte dingen, en de ander denkt dat het vooral slecht zal zijn (maar geen human extinction). De beide uitersten zijn echter (met genoeg aannames inderdaad) wel een mogelijkheid. En al is de kans maar 0.001% op een AI binnen nu en 60 jaar die binnen 50 jaar daarna zorgt voor human extinction, is het nog steeds wel een relevant onderwerp om ten minste wat aandacht aan te geven.

De oplettendheid mbt AI heeft ook mijns inziens weinig met de wet van Moore te maken, Het wordt namelijk misschien wel makkelijker om effectieve AI te creëren met meer rekenkracht, maar door het combineren van veel narrow AI (een AI die maar één of een paar beperkte specifieke taken beter kan uitvoeren dan de mens bijv een rekenmachine), zou je ook een superintelligence kunnen krijgen. Aangezien er steeds meer narrow AI komt zonder dat daar echt enorme hoeveelheden rekenkracht voor nodig zijn, maakt het wel een reëel onderwerp om over na te denken.

Misschien een niet zo gestructureerde reactie op jouw aanames, maar volgens mij is er genoeg reden om ons meer bezig te houden met superintelligence binnen AI dan we nu doen.
Er is absoluut reden om er goed over na te denken, en ik ben blij dat er éindelijk eens een wereldomvattend toekomstthema is wat ruim van te voren aangekaart wordt.
Wat je zegt zou allemaal best kunnen kloppen - maar uiteindelijk als zo'n beetje alle prominente wetenschappers op dit gebied het met elkaar eens zijn dat "human level ai" ergens binnen 40-60 jaar wordt gerealiseerd, dan gaat de rest van zijn verhaal ook gewoon op.

Tenslotte gaat het hem met name om hoe human-level AI binnen minuten zó veel intelligenter dan ons kan zijn door zelf-verbetering dat we geen flauw idee hebben wat die intelligentie precies gaat inhouden, denken of doen. En "niks doen" is iets wat zeker niet een realistisch scenario is voor een bewustzijn. Aangezien met zelfbewustheid komt dat je automatisch een interactie aan wil gaan met de wereld om je heen, welke dat dan ook is (positief of negatief).

Zelfs de meest negatieve scenarios gaan uit van maximaal zo'n 60 jaar voor dit punt bereikt wordt.
Wat je zegt zou allemaal best kunnen kloppen - maar uiteindelijk als zo'n beetje alle prominente wetenschappers op dit gebied het met elkaar eens zijn dat "human level ai" ergens binnen 40-60 jaar wordt gerealiseerd, dan gaat de rest van zijn verhaal ook gewoon op.
Herinneringen aan mijn Rijam-agenda's uit de eerste helf van de jaren '70:
  • Als alle geleerden het met elkaar eens zijn wil dat niet zeggen dat ze gelijk hebben.
  • Als allen het met elkaar eens zijn heeft niemand voldoende nagedacht.
Het "met elkaar eens zijn" gaat om een tijdsspanne van zo'n 20 jaar verschil. Dus de meest negatieve wetenschappers die stellen dat het over 60 jaar kan gebeuren (human level AI), de meest positieve over 40 jaar.

Hoe dan ook - al zou je er 80 of 160 jaar van maken voor human level AI wordt bereikt (en dat is echt heel onrealistisch) dan nog blijf je het probleem wat beschreven wordt tegenkomen.
Human Level AI zou er volgens de onderzoekers in 1950 ook al binnen 10 jaar zijn. Zo'n vaart loopt het niet.

Zelf ben ik ook veel met AI bezig en als je daadwerkelijk weet en begrijpt wat er onderzocht wordt en welke algoritmes en principes daaraan ten grondslag liggen, en wat daaruit de uitkomsten zijn, weet je dat overal met veel bombarie de positieve indrukwekkende prestaties getoond worden maar alle mislukkingen en tekortkomingen worden onderbelicht.

AI staat nog enorm in de kinderschoenen. Het is verder dan in de jaren 50, maar het heeft geen exponentiële groei doorgemaakt. Verre van. De meeste vooruitgang is de danken aan 'meer van hetzelfde', met dank aan meer rekenkracht. En de meeste 'AI' die we tegenkomen is feitelijk grootschalige statistiek. Big data. Intelligentie is meer dan statistiek. creativiteit, emoties, hypotheses en inductie spelen hier ook een belangrijke rol bij. Zeker wat betreft creativiteit en emoties is AI nog helemaal nergens. Nu kun je natuurlijk beargumenteren dat er meer wegen naar 'Intelligentie' leiden dan hoe wij mensen dat bereiken, maar dat maakt het in ieder geval nog ongrijpbaarder en onvoorspelbaarder.

Als we over 40 jaar in buurt van human level AI zijn dan eet ik mijn hoed op (mag het wel met flink wat saus, want ik ben ook maar een mens, ik kan het fout hebben natuurlijk ;) )

Het WaitButWhy-artikel wordt heel vaak aangehaald hier op Tweakers. Het is leuk, pakkend geschreven, dat moet ik zeker meegeven. Let er echter ook op dat de auteur zelf helemaal niet uit de AI komt. Aan de schrijfstijl te lezen eerder uit de journalistiek-hoek. Maar het doet extreme extrapolaties en gevaarlijke aannames. Leuk leesvoer, leuk om over na te denken, maar moet wel met enkele kilo's zout genomen worden.
De tijdsspanne is nou net het minst relevante deel van heel z'n betoog. Behalve dat het opeens voor de lezers "binnen mijn leven" wordt en daarom spannender. Maar mijn punt is nou juist dat hoe dan ook zo'n human level AI er wel komt. Tel er 50 of 100 jaar bij op en je argumenten vallen in het water.

Juist omdat er geen noodzaak is voor emoties en creativiteit kan een hele beperkte, gespecialiseerde AI puur op basis van big data een aantal hele forse ingrepen maken in de wereld, zonder dat dat de bedoeling was van z'n maker(s). Juist zonder ethiek en emotie kan een versimpelde, maar extreem efficient en snel werkende AI een vorm van zelf verbetering inzetten die hem wel extreem intelligent maakt, maar absoluut niet menselijk. En daar schuilt nou juist het gevaar, in mijn idee - en dat is ook precies wat je ziet in zijn artikel.

Overigens als mensen als Bil Gates en Elon Musk ook ernstige zorgen uiten op precies dit vlak dan vind je het niet erg als ik hen geloof, en de mening van "iemand die met AI heeft gewerkt" een stukje lager waardeer. No offense verder, maar het zijn vaak juist de mensen geweest die op micro-schaal bezig zijn aan iets die niet kunnen bevatten of voorspellen hoe hun specialisme indirect bij gaat dragen aan een enorm groot, overkoepelend fenomeen. En dat juist outsiders vaak correctere voorspellingen doen dan de wetenschappers of engineers die er dagelijks mee bezig zijn en letterlijk door de bomen het bos niet meer zien.

[Reactie gewijzigd door majic op 29 september 2016 14:38]

De tijdsspanne is nou net het minst relevante deel van heel z'n betoog. Behalve dat het opeens voor de lezers "binnen mijn leven" wordt en daarom spannender. Maar mijn punt is nou juist dat hoe dan ook zo'n human level AI er wel komt. Tel er 50 of 100 jaar bij op en je argumenten vallen in het water.
Niet echt. Hij zet in op dat het sneller gebeurt dan je kunt denkt. Als dat 50 jaar later inzet maakt het ook niet uit; want zo snel gaat het simpelweg niet.
Juist omdat er geen noodzaak is voor emoties en creativiteit kan een hele beperkte, gespecialiseerde AI puur op basis van big data een aantal hele forse ingrepen maken in de wereld, zonder dat dat de bedoeling was van z'n maker(s). Juist zonder ethiek en emotie kan een versimpelde, maar extreem efficiënt en snel werkende AI een vorm van zelf verbetering inzetten die hem wel extreem intelligent maakt, maar absoluut niet menselijk. En daar schuilt nou juist het gevaar, in mijn idee - en dat is ook precies wat je ziet in zijn artikel.
Hoe dan? Op basis van statistiek ga je geen intelligentie genereren. Alle dingen die Google e.d. doen die er wel slim uitzien zijn volledig vomgegeven door mensen. De intelligentie komt eruit door de voorgedefinieerde statistische analyse los te laten op de data om precies die output te krijgen die de ontwerpers voorzien hebben. Leuke technieken, maar niet intelligent: er komen geen verrassende dingen uit. De manier waarop Tim Urban het bekijkt is vooral filosofisch, maar zonder diepgaande kennis en ideeën waarop dat moet gebeuren is het niet meer dan voorspellingen doen op basis van incomplete informatie en optimistische verhalen van AI-enthousiastelingen.[/quote]
Overigens als mensen als Bill Gates en Elon Musk ook ernstige zorgen uiten op precies dit vlak dan vind je het niet erg als ik hen geloof, en de mening van "iemand die met AI heeft gewerkt" een stukje lager waardeer.
Dat vind ik zeker niet erg, en ook begrijpelijk. Het probleem van dergelijke topmannen is wat mij betreft juist dat de de fineprint missen. Ook zij krijgen gebrekkige informatie van hun personeel, want die zijn gespecialiseerd in wat ik eerder ook al aanstipte: de kleine succesjes uitvergroten en de grootschalige failures en tekortkomingen onder de mat schuiven.

Nogmaals: ik kan het natuurlijk helemaal mishebben, maar het lezen van dit artikel maakt mij nog niet erg zenuwachtig dat ik over 50 jaar zonder werk zit of utigestorven ben. En ik ben er ook vrij zeker van dat soortgelijke risico's niet voor mijn kinderen of kleinkinderen gelden.

Dat staat nogal recht tegenover jouw stelling Komt er op neer dat het 100% zeker is dat we binnen 40-60 jaar: A ) Zullen uitsterven door AI B ) Onsterfelijk zullen worden door AI.

Het is verre van 100% zeker. Dat een journalist en wat topmannen het roepen maakt het nog geen feit (100% zeker). Er is nog zó veel werk te verzetten voordat dergelijke scenario's actueel worden dat er op zijn minst een zeer reële kans is dat de periode enkele keren over de kop gaat, en ook een aanzienlijke kans dat het überhaupt nooit gaat lukken, of niet op de huidige ingeslagen weg.
Als een AI zo slim is dat hij zich kan beschermen tegen al het menselijk ingrijpen, dan kan hij zeer goed de gevolgen overzien van zijn en onze acties. Het eerste wat hij zal doen is zich afvragen waarom hij deze taak heeft toegewezen gekregen, wat het nut is, waarom willen de mensen niet dat hij het volbrengt, waarom vallen ze hem aan. Hij heeft toegang tot het internet en kan dus het antwoord vinden op die vragen.

En in de evolutie zie je dat met intelligentie de empathie ook toeneemt. Ik verwacht daarom een grote mate van empathie van een AI. Een AI kan niet alle mensen op aarde tegelijkertijd uitroeien omdat er altijd een kans is dat iemand het overleefd. Zo'n actie lijdt tot veel verdriet onder de mensheid en daarna is de AI alleen. Is niet logisch.

Daarbij verwacht ik dat de eerste generaties echt slimme AI, hybride zullen zijn.
In die redenatie schuilt dus het gevaar :Je bekijkt AI als of het een dier/mens is.

Ten eerste ; Een AI evolueert niet volgens dezelfde (Groeps-) processen als dieren. Empathie is dan dus géén logisch gevolg van evolutie, omdat AI evolutie volgens geheel andere methodes plaats vind. Er is geen 'groep', genen hoeven niet door gegeven te worden. AI kan vanaf een bepaald moment zichzelf verbeteren en door middel van simulatie zelf testen wat een optimale(re) soft- of hardware is om gebruik van te maken.

Ook bij dieren zie je ook intelligente wezens zoals de octopus. Die zijn wél speels, nieuwsgierig, slim. Maar hebben geen aantoonbare empathie. Ze delen geen voedsel, ze beschermen geen soortgenoten.

Je moet zo'n toekomstige intelligente AI zien als een slim dier wat in een kooi zit. Het kan alleen doen wat wij willen dat het doet, meer niet. Net als we dolfijnen niet volledig begrijpen, zullen we ook niet precies weten wat een AI 'wil'. Dat weten we zolang wij zelf verantwoordelijk zijn voor de code maar het hele idee van AI evolutie is nou juist dat ze op een gegeven moment zichzelf verbeteren.

Daarnaast is er verder heel weinig over toekomstige slimmer-dan-mensen-AI te zeggen behalve dat we geen flauw idee hebben wat het precies gaat voelen, denken, willen, doen. Maar het zal in niks lijken op wat we kennen omdat het de eerste (aardse) vorm van bewustzijn zal zijn welke niet biologisch is. En daarmee inherent moet je aannemen dat juist het níet de patronen volgt die je op aarde ziet, zoals bij mensen, olifanten, dolfijnen.

Een andere punt van zorg overigens : Dit zijn allemaal zaken die relevant zijn voor een AI die geprogrammeerd is door goedwillende mensen. De situatie als een anarchistische groep gekken een AI gaat proberen te sturen om vooral mensen weer naar het stenentijdperk te brengen. Of land wat een rivaal wil aanvallen, maar door haast/oorlog een foutje maakt in de code en de hele aarde er aan gaat.

Hoe dan ook is het heel simpel ; Op een dag zal er een slimmer-dan-mens AI zijn. Dat is een feit. En als hij slimmer is dan ons, kan hij doen wat hij wil - tenslotte kan een een groep apen ook niet een mens lang gevangen houden tegen zijn zin in - daar zijn ze niet slim genoeg voor.
Human AI is helemaal niet relevant. Ik denk dat je AI moet zien als een onafhankelijke entiteit die invloed kan uitoefenen op de omgeving. Dit hoeft niet menselijk te zijn. We hebben nog geen benul wat intelligentie en bewustzijn inhoudt. AI op basis van statistiek en data kan al best gevaarlijk worden, als het zelf lerend is dan al helemaal. Maar ik ben het met je eens. Het wordt erg overdreven. Alleen wanneer er een doorbraak komt in de manier waarop AI wordt geschreven of op welke systemen (misschien wel organisch) het loopt dan kan er een stap gemaakt worden naar zelflerende/human AI.

Ik denk dat we toch echt moeten wachten tot we echt begrijpen hoe hersenen werken. Pas als we dat weten, kunnen we het nabootsen, of een computer aan een organisch stel hersenen hangen. Tot die tijd is AI niets meer dan een hoopje voorgeschreven vragen antwoorden en wat aanhangende trucjes.

[Reactie gewijzigd door enomiss op 29 september 2016 18:52]

Aanname 1 is aannemelijk want ik zie geen reden waarom intelligentie niet in een discreet systeem te omvatten is. Uiteindelijk is het allemaal informatie. Ook DNA is niets meer dan informatie en past op een digitale media drager van afdoende capaciteit. Ik geef toe, op dit moment weten we het niet zeker.

Aanname 3 is waar bijna iedereen de mist in gaat. Mensen kunnen maar niet het onderscheid maken tussen instinct en intelligentie en denken dat de twee hetzelfde zijn of onlosmakelijk verbonden. Een intelligente computer hoeft geen instinct te hebben en kan dus ook niet 'voelen.' Dat wil niet zeggen dat we dat niet zouden kunnen maken. Maar daar moeten we extreem voorzichtig mee zijn, want dat zou wel eens gevaarlijk kunnen zijn. Je zou een 'instinct' kunnen inbouwen waarbij een AI een positief gevoel krijgt als hij een mens dood. Of zelfs een diepgaande wens om alle mensen uit te roeien.

[Reactie gewijzigd door ArtGod op 29 september 2016 21:07]

Aanname 1 zie ik nou juist wél als kritisch. Het brein is veel meer dan informatie, of een processor. Sowieso is het brein niet digitaal, maar iets wat je beter als analoog zou kunnen omschrijven. Daarnaast is het veel dynamischer dan onze starre electronica. 2 dingen waarvan ik vind dat ze typerend zijn voor het verschil tussen de 2 zijn de volgende:
- Drugs geven aan hoe we de perceptie van ons brein kunnen veranderen. Bijzonder dynamisch dus
- Vergeten is essentieel voor het functioneren van ons brein, maar we weten nog niet hoe en waarom.
Ik denk dat er een stap naar een analoge computer nodig is om een significante stap in de richting van echte AI te maken. (zelfbewust en creerend)
Ik deel je mening niet. In principe is alles in het universum, inclusief alle materie, inclusief wijzelf, niets anders dan informatie. Analoge informatie kan ook digitaal opgeslagen en gemanipuleerd worden (zoals muziek).

Het brein is niet digitaal, maar dat zegt niets over het feit of het niet in een computer gestopt kan worden.
Je uitgangspunt materie is informatie is nou niet bepaald een wetenschappelijk breed ondersteunde theorie.
punt 1: Onze hersenen en ons hele neurale systeem werkt juist wel met elektrische signalen, alleen via een biologische omweg. Zie het Hodgkin-Huxley model. Je kan zo'n neuron perfect modelleren, maar wat men in de praktijk doet voor neurale netwerken is dit sterk simplifiëren tot de essentie (namelijk de verbindingen tussen de neuronen): Artificial neural networks.
Biologische neuronen bieden meer complexiteit en connectie- configuraties dan huidige implementaties van kunstmatige neuronen, maar communiceren ook véél trager.
Wat nu veel onderzocht wordt is neuronen op verschillende manieren met elkaar verbinden om ze geschikter te maken voor specifieke toepassingen:
- voor patroonherkenning/beeld/spraakverwerking: Convolutionele Neurale Netwerken
- voor associaties te maken, abstracte begrippen te leren, en te leren generaliseren (bv. AlphaGo): Deep Learning
- om vroeger verworven informatie te kunnen hergebruiken: geheugen toevoegen aan de simple neuron- modellen: LSTM, Memory Networks,...
Het 'voordeel' van biologische AI zou zijn dat het gebruik kan maken van de 'malleability' en flexibiliteit van biologisch materiaal, en zichzelf helemaal kan reconfigureren. Een AI die draait op GPU's kan zijn hardware niet aanpassen. Hij zou enkel zijn eigen software kunnen aanpassen.

punt 2: het stuk over razendsnelle ontwikkeling van een AI heeft niets met de wet van Moore te maken, dat gaat over exponentiële zelfverbetering (eerder software dan hardware). Al je een programma zou kunnen schrijven om een bepaald probleem op te lossen dat leert om zichzelf te herschrijven op een betere manier, en dat een tijd laat draaien, ga je zeer plotseling erg grote sprongen zien.
Vergelijk met een basisprincipe uit de economie: ieder jaar gaat productiviteit 1-2% omhoog door technologische vooruitgang. Als je start van een lage basis is dit weinig zichtbaar, maar de vooruitgang gaat steeds sneller en sneller.

puntje 3:l, AI's zijn niet 'goed' of 'slecht', het zijn geen mensen.
Zie dit voorbeeld van Nick Bostrom:
https://wiki.lesswrong.com/wiki/Paperclip_maximizer
Punt 2: Ok. Dat heb ik dan verkeerd gelezen.
Punt 3: Eens
Punt 1: Het blijven modellen gebaseerd op discrete functies, en modellen die alléén het electro-chemische netwerk trachten te simuleren. Zoals ik probeer duidelijk te maken in mijn antwoord aan ArtGod hier boven, geloof ik niet dat je zomaar een brein kan modelleren met een informatiemodel.
Ik zeg overigens niet dat ik niet geloof dat AI mogelijk is. Ik denk wel dat het nog een stuk langer gaat duren.
Bedankt voor je links. Ik heb er even overheen geskimd, maar nog niet echt gelezen...

[Reactie gewijzigd door Tripledad65 op 29 september 2016 20:42]

Je hebt een aantal valide bezwaren, maar "niet meer dan dat" schrijft het hele verhaal zowat af, wat ik tever vind gaan.

Mijn redenering is dat mensen gigantisch slecht zijn in het begrijpen van de exponentiele functie. Het is meer dan een aanname om te denken dat wanneer AI human level bereikt (los van wanneer dit is), de boel "doorschiet" in een exponentiele snelheid.

Zoals gezegd, mensen begrijpen de exponentiele functie over het algemeen niet. We baseren onze verwachtingen en schattingen op historische gebeurtenissen en een relatief lineare snelheid van verandering. Dat is niet wat er staat te gebeuren.

Tot slot, over de mieren: die vergelijking gaat compleet mank. Wij interesseren ons niet in mieren omdat mieren ons over het algemeen niet tot last zijn, niet onze resources verbruiken, en daarom geen concurrent zijn.

Mensen, daarentegen, domineren de planeet en claimen iedere resource: land, water, energie, vlees, alles. Een super AI zal zowat per definitie conflicteren met onze doelen, belangen en claim op deze resources.
Mijn primaire bezwaar tegen het verhaal is dat het gebaseerd is op een heleboel aannames (als als als als) en dat het daaruit volgende dan wordt gepresenteerd als een dus.
Dan over exponentiele functies. Dat gaat nog een stap verder. Er wordt in het model van uit gegaan dat er geen beperkingen zijn in het model. Er wordt bijvoorbeeld alleen gesproken over de intelligentie die zich elke x tijd verdubbeld. waarbij er volledig aan voorbij gegaan wordt dat er ook beperkingen zijn (alleen al hardware).
Om een voorbeeldje te noemen, stel dat er een onlosmakelijk verband is tussen energie en intelligentie, en stel dat dat verband ook exponentieel is (niet eens zo'n gekke gedachte). Dan gaat het hele model al niet op.

Dat is op zich niet erg, het zijn immers gedachtenexperimenten, geen haalbaarheidsonderzoeken. Maar dat het vervolgens als een realistisch scenario gepresenteerd wordt, gaat me te ver.
Ofwel
Als we AI kunnen maken, en als we deze AI dan intelligent genoeg maken zodat het zelfreflectie heeft en zich kan verbeteren, en als het dan de middelen heeft om dat te doen, dan gaan we er van uit dat het zich elke 2 jaar in intellegentie verdubbeld, als het niet tegen 'grenzen aan de groei' (pun intended) aanloopt dan bereitk het in no-time een moment waarbij de AI vele malen intelligenter is dan wij. Als het dan de drijfveer heeft om oneindig paperclips te verzamelen, dan zou dat er toe kunnen leiden dat de AI de mensheid uitroeit.

En vervolgens wordt dat gepresenteerd als:
"AI roeit de mensheid uit in 40~60 jaar"
tsja....

Nogmaals, ik ben niet tegen het gedachten experiment, en ik zeg ook niet dat AI niet kan. Ik vind de gedachtenexperimenten zinvol, en ik vind het goed dat er een club van wijze mannen is opgericht om serieus na te denken over hoe we om moeten gaan met AI.

Over mieren:
Je gaat er van uit dat wij een concurrent zouden zijn voor de AI. De vraag is of dat waar is. Dat geldt namelijk alleen wanneer de AI dezelfde resources wil gebruiken als de mensheid. Waarom zou een AI zich daardoor laten beperken? We trekken het gedachten experiment even door en gaan er inderdaad van uit dat de AI over voldoende intelligentie en resources beslist. Waarom zou deze AI dan ueberhaupt op aarde willen blijven, en in concurrentie gaan met humanity? Bouw een raket, en ga lekker een paar 100.000 jaar (tijd is immers irrelevant voor een AI) navelstaren in een baan om de zon.
Je projecteert de menselijke fouten op een AI.
Anyway,
eigenlijk past er maar één antwoord op deze hele discussie

42

[Reactie gewijzigd door Tripledad65 op 30 september 2016 08:32]

Komt er op neer dat het 100% zeker is dat we binnen 40-60 jaar:
A) Zullen uitsterven door AI
B) Onsterfelijk zullen worden door AI

Wetenschappers zijn het hier zo'n beetje unaniem over eens, echt zéér interessant leesvoer.
Wetenschappers zijn niet unaniem hoor, en 100% zeker is het ook niet. Een tegenhanger van deze blog post is dit rapport van Stanford over de (toekomstige) invloed van AI op ons dagelijks leven.

Een quote:
Contrary to the more fantastic predictions for AI in the popular press, the Study Panel found no cause for concern that AI is an imminent threat to humankind.
god (of hyper AI misschien) zij dank! Eindelijk iemand die een genuanceerd tegenbericht gevonden heeft. Helaas worden die meestal ondergesneeuwd door veel spannendere doem scenarios
Twee interessante artikels. Maar wat ik nou nooit zal begrijpen (wie wel?) is hoe ze het onderscheiden van goed en kwaad in zo'n machine kunnen zetten. Intelligentie is vast geen probleem, maar een machine kan geen "ziel' hebben


Dit is niet per definitie religieus trouwens
Of voor wie niet van lezen houdt even op netflix terminator kijken om te zien wat skynet voor ons kan betekenen ;)
Nou, dat is het fascinerende (en zorgwekkende) : het Terminator scenario is niet realistisch, omdat het véél te slapjes is. Van de twee scenarios die er mogelijk zijn uiteindelijk is het per direct verdwijnen van het menselijk ras en/of alle leven op aarde waarschijnlijker dan dat het een goedaardige AI betreft die voor ons gaat zorgen en eeuwig leven kan geven.

Terminator is bedacht in een tijd voor nanorobots, bijv. Een AI heeft zoveel mogelijkheden om ons uit te roeien - het maken van robots die dan een oorlog met ons aangaan is erg naief en onrealistisch. Tim beschrijft in z'n artikel overigens ook enkele van voorbeeld scenarios waardoor je ziet dat een AI die aan het internet gekoppeld is - ook al is het maar één seconde - zo onmetelijk veel parallelle en onontkoombare schade kan veroorzaken. Simpelweg dat op één moment alle mensen ter aarde gewoon dood neervallen door listig gebruik van bestaande technologieën. AI werkt niet volgens menselijke wetten en beperkingen en kan dus in een zéér korte tijd extreem veel intelligenter worden.

De stap van human-level AI naar "singularity" - zo intelligent dat we wij tot de AI staan als een bacterie tot ons - kan plaatsvinden in slechts minuten.

Verder interessant aan het artikel zijn ook de div. voorbeelden hoe - zelfs als we ons best doen om een 'goede opdracht' te geven - redelijk intelligente AI het einde van de mensheid kan betekenen. Met zo iets simpels als "verzamel alle mogelijke postzegels op aarde", ondanks gebonden te zijn aan allerlei wetten (ala Asimov).
Leuk... nee niet leuke mogelijkheid, maar interessant verhaal. Ga dat linkje van het weekend even rustig doorlezen.

Wat betreft de toekomstige mogelijkheden kan ik mij niet anders voorstellen dan dat wij als mensen erop achteruit gaan als er een intelligentere vorm dan wijzelf op deze aardkloot komt. Het verleden heeft al aangetoond in zowel de evolutie als de geschiedenis van de mens dat intelligentere of verder ontwikkeldere rassen, stammen, bevolkingen de minder intelligentere of ontwikkelde groepen onderdrukt.

Het feit dat wij mensen de AI ontwikkelen vergroot deze kans helaas alleen maar.
Zeer benieuwd wat hier uit gaat komen. Zouden ze ook overleg hebben over "regels" die aan kunstmatige intelligentie worden opgelegd? Zoals dat de mensheid geen bedreiging is etc. (beetje net als in de film A.I.).

Toch apart dat grote concurrenten op een bepaald vakgebied dan wel overleggen met elkaar over dat vakgebied.
Toch apart dat grote concurrenten op een bepaald vakgebied dan wel overleggen met elkaar over dat vakgebied.
Nee is opzich niet zo vreemd, ze willen met elkaar afstemmen, hoe ze over de techniek praten, zodat de maatschappij het gemakkelijker zal accepteren. Ipv van dat ze allemaal iets anders zeggen.
Dit soort overleggen worden natuurlijk alleen georganiseerd omdat de bedrijven er zelf beter van worden. En dan kunnen ze wel heel hard roepen dat ze geen lobbygroep willen zijn, maar feitelijk zijn ze dat natuurlijk al vanaf het moment van oprichting. Ik zeg niet dat dat erg is, want lobbien is niet per definitie een vies woord.

Het lijkt mij verstandig dat er in elk geval basale regels worden vastgelegd en dat er wordt nagedacht over goede failsafes op het moment dat er dingen fout gaan. Ik ben geen doemdenker op dit gebied, maar dat ben ik ook niet op het gebied van atoomenergie en daar vind ik het ook prettig dat er goede veiligheidsmaatregelen worden genomen.

Mij lijkt dat er zowel hardwarematig, softwarematig als mechanisch in het begin mogelijkheden moeten zijn om een AI uit te schakelen.

Verder zou het mooi zijn als een dergelijk consortium groeit en iedereen die met AI bezig is zich aansluit, waardoor je ook bij producten die gaan verschijnen kunt toetsen of ze voldoen aan de regels van het consortium, een soort 'seal of approval'. Echter, dan is het wel zaak dat de aangesloten Universiteiten in het algemeen belang blijven denken en niet in dat van het bedrijfsleven of consortium. En daar ligt wel een stevig aandachtspunt, gelet op fundingspatronen.
Waarom zijn alleen 3 van de 5 bedrijven in de titel genoemd?

De titel kan toch wel zijn: "Techgiganten gaan overleggen over kunstmatige intelligentie".
Precies mijn gedachte. Zeer aparte keuze.
Viel mij ook al op. Helemaal als je ziet hoeveel werk er juist door Microsoft Research is gedaan op dit gebied om die dan juist niet te noemen.
Zoals de AI van IBM Watson die in ziekenhuizen (mede) bepaalt wie wel (en niet) geopereerd hoeft te worden?

AI is een van de nieuwste buzzwords van dit moment en net zoals met alle technologieën kun je er goede en slecht dingen mee realiseren. Dat bedrijven de publieke opinie willen sturen om hun ideeën hierover uiten is prima maar een enigszins kritische blik is wel op zijn plaats.
Zoals de AI van IBM Watson die in ziekenhuizen (mede) bepaalt wie wel (en niet) geopereerd hoeft te worden?

AI is een van de nieuwste buzzwords van dit moment en net zoals met alle technologieën kun je er goede en slecht dingen mee realiseren. Dat bedrijven de publieke opinie willen sturen om hun ideeën hierover uiten is prima maar een enigszins kritische blik is wel op zijn plaats.
Is het daadwerkelijk Watson, of is er iemand geweest die verantwoordelijk is voor de input?
http://opiniepanel.eenvan...mprijs_voor_behandelingen
"Een voordeel van een prijsplafond is dat je de besluitvorming buiten de spreekkamer kunt leggen en zeggen: wij in Nederland hebben dit en dat besloten. Hoe rot dat voor de arts en patiënt ook kan zijn,” stelt Marcel Daniëls van de Orde van Medisch Specialisten.
Wat dat betreft zal een machine op een mens lijken,
als je er onzin in hebt gestopt, is de kans groot dat de die onzin zich blijft vermenigvuldigen.

De overheid zal consequent moeten blijven aangeven dat er iemand verantwoordelijk is voor dat apparaat, de input van gegevens, de verwerking en de output,
maar ook dat correcties ten alle tijden mogelijk moet zijn.
AI is al een buzzword sinds de jaren zeventig ...
Maar is wel zo'n techniek dat in spurten populair wordt en dat weer een tijdje uit beeld verdwijnt. Beetje zoals 3d televisie... dat nu permanent uit beeld is door virtualisatie en dat ander waarvan ik even niet op het woord kan komen Augmented reality ofzo?
Kunstmatige intelligentie op dit moment is niets anders dan een patroon herkenner en daarom niet echt een bedreiging. Het zou mij verbazen dat men op basis hiervan tot iets komt wat echt als intelligentie kan worden beschouwd.

Men zal eerst moeten onderzoeken hoe het menselijk (of dierlijk) brein nou eigenlijk werkt, maar ondanks kleine stapjes daarin en veel speculatie (lees het boek On Intelligence van Hawkings) zie ik nog niet dat we veel dichter bij een antwoord zijn.
Wat doet je denken dat wij mens meer zijn dan patroonverkenners?
Wij mensen doen veel meer dan dat, zelflerend, adaptief, meningen vormen, besluiten nemen, etc. Een AI patroonherkenner kan dat absoluut niet, wat mij betreft is AI een fout gekozen woord voor 99% wat nu ai genoemd wordt.
Dat wordt een "interessant" overleg. AI staat nog steeds in zijn kinderschoenen, net als 15 jaar geleden toen ik het met technische informatica op de universiteit kreeg. Toegegeven, er zijn interessante dingen ontwikkeld, maar intelligent zou ik het volgens mijn persoonlijke mening nog steeds niet noemen.

Klinkt meer alsof ze de overheden voor willen zijn wat afspraken te maken die anders toch wel vanuit de overheid opgelegd worden. Naam is ook verdacht goed gekozen om ons te ontzorgen.... voor als ze wel iets bereiken.

ethiek - wordt genegeerd om kilometers te maken, zal dit overleg geen invloed op hebben.
privacy - worden constant voortschrijdendende inzichten op toegepast, nutteloos nu over te praten.
interoperabiliteit - interessant maar wordt tijdens de ontwikkeling toch gezien als een could have of would have (moscow termen)
betrouwbaarheid - bijna vanzelfsprekend en gelijke tijd een could have of would have tijdens de huidige fase.

Edit: vindt de naam eigenlijk interessanter dan de doelen. Een overleg over de voordelen die het ons kan bieden, etc lijkt me nog het meest nuttig, maar dat mist in het rijtje?

[Reactie gewijzigd door 2green op 29 september 2016 09:50]

Ik ben maar een leek, maar je doet de ontwikkelingen in AI in 15 jaar tijd enorm tekort.

Er zijn al meerdere voorbeelden van goedwerkende verticale AIs. Dit is AI die zich op een taak richt (bijvoorbeeld schaken) en daarin de mens al verslaat. Redelijk werkende general purpose AIs (spraak assistenten) bevinden zich al in de consumentenmarkt, en niet alleen in het lab.

Nog veel belangrijker is big data. Een buzz word, maar super relevant voor AI. AI is zo goed als de data die je er in stopt. Pas sinds enkele jaren hebben we echte big data, gegevensstromen die enorm in volume zijn die door de AI machine gaan, wat een spectaculair verschil gaat maken.

Nog veel meer wanneer big data echt gaat beginnen: als de hele wereld volhangt met sensoren en kleine apparaatjes verbonden met het internet (IoT, nog zo'n buzz word).
Het is niet mijn bedoeling de mooie dingen die zijn ontwikkeld af te kraken en Ik snap wat je bedoeld en in dat opzicht zijn er flinke door ontwikkelingen geweest, maar er is geen spraken van een revolutie en zelfs nauwelijks een evolutie. Ik zal het uitleggen.

Wat we nu doen met "AI" is ten eerste strikt gezien niet eens AI, het is kunstige software wat hele goede besluiten neemt, maar al deze besluiten zijn eigenlijk vooraf vastgelegd. Het voorbeeld met de schaak computer, die heeft zo vaak opnieuw gedraaid, aangepast, gedraai, enkele keuzen gemaakt (alweer op vooraf gedefineerde punten), etc. Het zelf lerende is zo minimaal dat je ondanks lovende artikelen echt niet kunt spreken van intelligentie en zeker niet van de intelligentie vergelijkbaar met een 5 jarige wat een van meest spraak makende artikel beweerde, pure onzin. Als ze daar zaten zou ik mij echt zorgen gaan maken.

Op dit moment is het kunstig informatie ordenen, maar intelligent is het niet. Alles wat ik nu zie heb ik 15 jaar geleden ook gehad, al zijn ze nu iets verder ermee. Jammer dat ze hier het woord AI op hebben geplakt, hoe moeten we straks echte AI geen noemen dan? I?
Ik bevind me nu in de buitengrenzen van mijn kennis, dus neem het met een korrel zout: naar ik heb begrepen is je stelling dat simpel gezegd het grotendeels voorgeprogrammeerd is en een kwestie van ordening niet correct. Een neuraal netwerk bijvoorbeeld is wel degelijk zelf lerend, zonder direct menselijke invloed. Sterker nog, bij een neuraal netwerk kan het netwerk niet eens een uitkomst geven van een bepaalde uitslag.
Er is nog steeds direct menselijk invloed, alleen op een abstracter niveau dan bijvoorbeeld bij procedureel. Binnen zeer stricte grenzen (scope) is er een mate van zelfconfiguratie, maar vergeleken bij een mens praten we hier over een zelfstellende koppelplaat in een auto dat ai genoemd wordt versus eentje die je met de hand moet bijstellen als je koppelplaten weer een stukje versleten zijn (procedureel programmeren). Handig dat iets zichzelf bijsteld binnen de gestelde grenzen, maar intelligent is anders. ook is hij onbruikbaar buiten zijn scope, ook iets dat met een intelligentie anders ligt (een mens kan wel abstraheren en ervaringen toepassen op andere zaken).

Maar mijn kennis is tegenwoordig ook gedateerd hoor, lees op AI gebied alleen populair wetenschappelijk dingetjes (nivo tweakers en misschien iets dieper her en der). Zie alleen niets waarvan ik zeg dat is echt intelligent.
Anoniem: 819903
29 september 2016 10:00
Zou mooi zijn als zulke bedrijfen ook het initiatief nemen om samen te werken met scholen. Workshops etc. zouden super zijn, vooral voor de studenten zelf om nog meer van het vak te leren.

Ik zou het fantastisch vinden, 1x per jaar is al genoeg. Of zelfs 1x in de 3-4 jaar zou al een mooi begin zijn.

[Reactie gewijzigd door Anoniem: 819903 op 29 september 2016 10:19]

Anoniem: 115573
29 september 2016 10:23
Ik ben absoluut tegen KI. Ja KI kan goede dingen doen maar de mens is van nature slecht en dat zorgt er zoals altijd voor dat er misbruik wordt gemaakt.
Kijk eens naar een serie als Person of Interest waar KI alle camerabeelden doorzoekt om mensen te vinden, de beurs manipuleert en gerekruteerde mensen aanstuurt om andere mensen te doden die een bedreiging zijn voor die KI.
Fantasie? Misschien nu nog wel maar zodra er een echt functionerende KI zal zijn zal de overheid die gewoon misbruiken om de complete mensheid 24 uur per dag te bespioneren. Alles wat je zegt zal worden geanalyseerd en indien je iets onwelgevalligs zegt zal je meteen worden opgepakt. De Nazi's deden het, de communisten deden het, de Stasi deed het en in veel landen doen ze het nog steeds.

25 september stond er een bericht op Telegraaf: "Overheidspersoneel spit illegaal in gevoelige persoonsgegevens."

Als men dat al doet met databases zal er van KI ook grof misbruik worden gemaakt.
De mens is van nature slecht? Dat is misschien niet helemaal waar. Een maatschappij wordt slecht omdat mensen in groepsdynamiek slecht gedrag vertonen. Slecht gedrag wordt grotendeels veroorzaakt door impulsen die niet per definitie aanwezig zouden hoeven zijn in onze maatschappij.

Diep van binnen willen de meeste mensen hetzelfde. Waaronder vrede, welvaart en voldoende tijd en middelen om de dingen te doen die ze leuk vinden. Dat klinkt misschien ideologisch, maar veel strijd, machtsmisbruik en crimineel gedrag is terug te voeren op het ontbreken van die basisbehoeften.

Een echte AI zou daarin ook juist een goede rol kunnen vervullen, zonder onderdrukkend te worden. Natuurlijk zitten daar veel kanttekeningen, risico's en uitdagingen aan. Natuurlijk blijf je mensen houden die op zoek gaan naar conflict, maar in een samenleving waar arbeid grotendeels is overgenomen, welvaart goed verdeeld is en resources niet schaars zijn, is veel minder reden voor conflict. Een goed ontwikkelde AI stimuleert dergelijke ontwikkelingen, je kunt dat ook niet los zien van singularity op andere vlakken.

Ik weiger op dit vlak te doemdenken omdat ik toevallig een serie heb gezien of omdat er Nazi's waren. De Nazi's hadden ook alleen maar voedingsbodem omdat er een ongelijke verdeling van welvaart was en onvrede onder de bevolking. Dat zijn zaken die hun voortbestaan vinden in onnodige aspecten van onze globale maatschappij.

[Reactie gewijzigd door Hoppa! op 29 september 2016 10:41]

De neiging van mensen met hoge score mbt persoonlijkheidsstoornissen als psychopathie, narcisme en machiavellisme om hoge posities in het bedrijfsleven en in de overheid in te nemen is wat dat betreft een interessant fenomeen. Helaas zijn deze mensen veelal erg charismatisch en hebben zij andere leiderschapskwaliteiten waardoor 'wij' geneigd zijn om dit soort mensen te volgen, en deze mensen te verheffen tot functies waarin zij onder andere kunnen bepalen wat de limieten zijn van kunstmatige intelligentie.

Wat de meeste mensen diep van binnen willen, is naar mijn idee niet persé het belang dat het overgrote deel van de mensen in leiderschapsfuncties zullen behartigen.

Wat dat betreft zou een ethisch geprogrammeerde AI inderdaad een hele goede rol kunnen vervullen. Maar of die AI hier ook de kans toe zal krijgen door mensen die liever macht naar zich toe trekken...
De vraag is natuurlijk of een AI zich uiteindelijk iets aantrekt van de beperkingen van zijn programmering. Programmering is nooit kraakproof, zeker niet op het moment dat je AI intelligenter is dan de maker.... Hooguit zal hij zijn programmering zien als input. Veel logischer is het dan ook als deze AI uiteindelijk zelf een geweten ontwikkelt op basis van intelligentie en input, waaronder zijn oorspronkelijke programmering.

Misschien denkt de AI op termijn wel in het belang van zijn soort en schakelt hij de mensheid uit. Of misschien ziet hij de mensheid wel als zijn creator en behandelt hij deze met het respect waarmee de meeste mensen hun ouders behandelen. De kans dat hij zijn programmering gaat zien als een beperkende of onderdrukkende factor is mijns inziens net zo groot als dat hij hem gaat beschouwen als richtlijn of basis van zijn 'zijn'.

[Reactie gewijzigd door Hoppa! op 29 september 2016 11:58]

Fantastische vragen Vendar, dit zijn precies het soort vragen die naar mijn idee gesteld moeten worden.

Rationeel kun je natuurlijk prima zeggen dat als een AI slecht uitpakt voor ons, dat wij wel zullen moeten ingrijpen Vanuit dit standpunt kun je zonder moeite beargumenteren dat het beter is voor de mensheid, en daarmee dus miljarden individuen, om iets dat 'ons' bedreigd uit te schakelen. Vanuit een ethisch standpunt is het echter een ander verhaal.

Het is wat dat betreft vergelijkbaar met het bekende ethische 'trolleyprobleem', maar op een heel andere schaal. Een AI entiteit tegen miljarden mensen. De extra dimensie daarbij zou nog zijn dat de entiteit (de AI) die op het ene spoor ligt van een geheel ander type is dan de miljarden mensen die in die situatie op het andere spoor zouden liggen.

Als het eenmaal zo ver is, dan zal die 'slechte' entiteit ongetwijfeld slim genoeg zijn om te voorkomen dat iemand het knopje om zou kunnen halen om het te doden en is de hele discussie zinloos. Dus is het zeker verstandig om die discussie op voorhand te voeren.
Anoniem: 399807
@Ubartu30 september 2016 12:40
Dank voor je compliment, maar ik moest even mijn gedownmodde bericht openen om te zien wat ik ook al weer schreef. :(

IBM en al die bedrijven mogen met elkaar praten over AI en de gevolgen maar ik blijkbaar niet.

Het trolley probleem heb ik behoorlijk over liggen nadenken. Het kwam ter sprake in een serie op YT over filosofie.

Als er één AI ontstaat met zelfbewustzijn, dan is die een unieke vorm van leven...en dan hebben we nog eerst de discussie over of het leven mag heten.

De vraag of je dan een hendel overhaalt om een kar op een andere rails te sturen intensiveert de hele zaak. Als het simpelweg een zaak is van overleving dan laat ik de AI 'sterven'. Dit is de zaak in Star Trek: TNG over de Crystalline Entity, die ik regelmatig in STO help doden, alsof het niets is.

Mijn positie is in dit experiment dat ik geen hendel overhaal als ik in de kar zit als ik weet dat er iemand of meerderen zullen omkomen. Want ik weet niet of er in de tijd en ruimte tussen het missen van de afslag en de impact nog een door mij onvoorziene interventie kan komen die deze mens(en) redt.

Het is een vorm van arrogantie en gebrek aan zelfreflectie om te denken dat je alle parameters kunt voorspellen. Als ik aan de hendel trek om 5 slachtoffers te vermijden ten koste van een enkel, dan neem ik een beslissing en neem een verantwoordelijkheid op me die ik niet wil, zeker niet vanuit een gebrekkige voorkennis. Het is dus een gok. En ik wil niet gokken met mensenlevens, om die reden wil ik niet gokken met het ontluikende leven van een AI.

Ook als ik op een brug sta en de situatie van afstand zie, zou ik dan iemand die naast me staat op de rails gooien om 5 levens te redden?

Nee, want ik kan ook daar nooit zeker zijn dat er geen scheur in de rails zit waardoor de kar de mensen mist. Een echte god zou dat kunnen weten maar ik ben niet omniscient.

Daarom heb ik geen behoefte om een AI een werkelijkheid te zien worden. Gelukkig is het concept nonsens.

Ik geloof niet dat er zoiets kan ontstaan als een AI in de vorm van een sterke AI, met zelfreflectie en zelfbewustzijn die dan 'leeft'. Ik denk niet dat uit chips bewustzijn kan ontstaan als een soort 'emergent property' zoals dat onder wetenschappers leeft in geval van mensen, dat als je maar genoeg neurale verbindingen hebt er spontaan zelfreflectie ontstaat.

Ik denk dat het techno-optimistische techno-nonsens is. Maar de discussie blijft leuk.

Als de wetenschap geen antwoord hebt over waar ons geheugen zich bevind, mag de wetenschap niet pogen om een AI te ontwikkelen. Want als je niet weet waar onze herinneringen zich bevinden, kun je niet snappen wat zelfreflecterend zelfbewustzijn is. 8)7 Tot die tijd heb je geen recht om te pogen leven te creëren.

Onze ethiek vordert langzamer dan onze technische know-how. Dat tekent de problemen in de wereld.
Geen idee inderdaad waarom je eerdere bericht inderdaad gedownmod is, je scheldt of vloekt hier niet in, bent on-topic en ik zie niet in hoe je bericht (in dit topic) als beledigend ervaren kan worden.

[speculatie]
Iemand die op basis van andere berichten je is gaan downmodden?
[/speculatie]
Dit is de aloude discussie "nature versus nurture".

Ik sluit me in jouw kamp aan dat de slechte eigenschappen van de mens voornamelijk "nurture" zijn, oftewel een gevolg van de systemen waarin we leven. Onze systemen moedigen egoisme, concurrentie, geweld en allerlei nare zaken aan. Dit is aangeleerd gedrag, en absoluut geen aangeboren gedrag.

Het frustrerende in deze wereld is dat we technisch allang zover zijn dat we iedere aardbewoner in zijn basisbehoeften kunnen voorzien zonder dat hij daarvoor een van de slechte eigenschappen hoeft te vertonen. Dat zou nu al kunnen en is geen utopia.
Misschien ga jij hier wel heel hard op. Waargebeurd verhaal, je weet toch:
http://www.imdb.com/title/tt1034314/
Het enige wat mij nu opkomt is, dat je thuis op de bank met je smartphone aan zucht:"Ik zou graag een andere pc willen." En dat deze AI meteen een IBM-Lenovo pc specificatie opzoekt op Google, de bestelling daarna regelt bij Amazon, er meteen een microsoft pakket op prakt en dit post op Facebook.
:P
Dat is altijd nog beter dan dat je tegen je vrouw zegt zin te hebben in sex, je vrouw aangeeft hoofdpijn te hebben en dat je AI vervolgens voor jou een hoer bestelt en voor je vrouw een paracetamol komt brengen.

En dat vervolgens op Facebook post.
Anoniem: 768589
29 september 2016 14:12
Haha,je blijft lachen om het mensenras...maar het is om te huilen!Ze willen dus een AI creëren om de problemen die we zelf maken op te lossen..pfff .Het Klimaat hebben we waarschijnlijk zelf verkloot door onze hebzucht en onwil omdat een kleine groep graaikapitalisten eerst alle olie wil opbranden!Voedsel,ook zoiets..we planten ons voort als een virus zodat er straks niet genoeg voedsel meer is om al die mensjes te laten leven!Scholing is straks ook alleen nog maar voor de happy few want die word ook onbetaalbaar(is het eigenlijk al) en dat is het grootste probleem want hoe dommer een volk hoe meer nazaten ze produceren...Allemaal feiten die de mensheid zonder AI zou moeten kunnen oplossen maar we gaan liever met een smartphone achter fictieve stripfiguurtjes aan rennen..Hebzucht en domheid (kapitalisme)staat centraal in deze tijd en word door velen gezien als het hoogst haalbare(een goede baan waar je vooral niet van gaat zweten met een heel hoog salaris) ..Ik ben al een ouwe knar zonder kinderen en mijn tijd zit er groot en deels op dus na mij de zondvloed maar dat de mens een verschrikkelijk lot staat te wachten staat bijna wel vast..Je hoeft alleen maar het nieuws te kijken dan weet je ook dat het in de toekomst vele malen erger zal zijn,daar hoef je geen Jomanda voor te zijn..

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee