Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Elon Musk: Mark Zuckerberg begrijpt weinig van kunstmatige intelligentie

Elon Musk, de topman van SpaceX en Tesla, heeft op Twitter gezegd dat Mark Zuckerbergs begrip van het onderwerp kunstmatige intelligentie beperkt is. De oprichter van Facebook deed eerdere negatieve bedenkingen van Musk over ai, af als onbegrijpelijk.

Zuckerberg heeft op Facebook vragen beantwoord over de toekomst van kunstmatige intelligentie. Daarin gaf hij aan dat hij weinig moet hebben van pessimistische visies over de ontwikkeling van ai in de toekomst, daarbij direct verwijzend naar de visie van Elon Musk. Zuckerberg zegt een optimistische visie te hebben, en de mensen die onheilspellende scenario's schetsen over ai, niet te begrijpen.

Musk heeft eerder juist gewaarschuwd voor de gevolgen van een ongebreidelde ontwikkeling van kunstmatige intelligentie. Hij noemde het een fundamenteel risico voor de samenleving en wil daarom dat nationale overheden ai gaan reguleren. Musk vindt dat mensen zich zorgen zouden moeten maken om de meest geavanceerde vormen van kunstmatige intelligentie. Hij zegt te blijven waarschuwen voor de gevaren, omdat hij denkt dat mensen niet weten wat ze ervan moeten vinden, totdat ze zien hoe robots mensen in de straten doden.

Zuckerberg stelt dat ai in veel opzichten juist levens kan redden. Daarbij wijst hij op levensreddende technologieën in de medische sector die ziektes kunnen diagnosticeren en ai die via zelfrijdende auto's het aantal verkeersslachtoffers aanzienlijk kan inperken. Zuckerberg erkent dat technologie voor zowel het goede als het kwade kan worden gebruikt, waardoor voorzichtigheid wel is geboden. Maar volgens hem is er geen enkele reden om te pleiten voor het vertragen van de ontwikkeling van kunstmatige intelligentie.

De topman van SpaceX en Tesla reageerde onlangs op deze visie van Zuckerberg. In een tweet zei hij dat hij met Zuckerberg heeft gesproken over het onderwerp, maar dat Zuckerbergs begrip over ai beperkt is. In een reactie op iemand die aangaf dat Musk met overtuigende argumenten moet komen om mensen te overtuigen van zijn pessimistische visie, liet Musk weten binnenkort met een film te komen over de gevaren van ai.

Door Joris Jansen

Nieuwsredacteur

25-07-2017 • 16:44

280 Linkedin Google+

Lees meer

Reacties (280)

-12800273+1120+215+32Ongemodereerd128
Wijzig sortering
Ik heb de berichten van Musk vanuit de media gevolgd omtrent zijn visie op AI en regulatie omtrent de ontwikkelingen op dit gebied door overheden. Hetgeen wat bij mij weinig twijfel overlaat over de legitimiteit van zijn statement is niet zozeer te wijten mijn (gebrek aan) kennis van AI, of zelfs de kennis van Musk op dit gebied, maar de in mijn optiek opvallende, directe en standvastige wijze waarop hij ervoor kiest zijn visie op AI uit te spreken.

De wijze waarop hij zijn standpunt communiceert naar de media deed mij al direct speculeren dat Musk niet zozeer filosofeert op basis van trends of ontwikkelingen maar spreekt op basis van een specifieke ervaring dat hem motiveert om op een dergelijke manier zijn mening te verkondigen.

Nu kon ik dit niet hard maken tot ik het interview bekeek van Musk op de NGA Conference https:///www.youtube.com/watch?v=PeKqlDURpf8.
Tijdens dit interview suggereert Musk rond 22.18 dat hij toegang heeft (gekregen) tot de meest geavanceerde technologie op AI gebied. Ik heb dat ook sterk het vermoeden dat hij op basis van een interactie of directe observatie van een dergelijk geavanceerd stukje AI technologie zijn uitspraken formuleert.

[Reactie gewijzigd door MaxGuado op 25 juli 2017 17:12]

Ik denk dat je gelijk hebt, en ook dat ik weet wat Musk gezien heeft. Het gaat hierbij om de vrij logische wetten der robotica, zoals Asimov die al eens geformuleerd heeft (er is nog een impliciete vierde, maar dat gaat nu even te ver). Die regels zijn:

1) Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2) Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3) Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Bij robots denken mensen aan humanoïde robots. Daar gaat het hier imo niet over. Naar mijn mening gaat het heel specifiek over intelligente zwermen van quadcopter gebaseerde bewapende drones. Op dat vlak is veel ontwikkeling, ze worden nu al door de USA ingezet, maar nog met beperkte AI.

Wat er volgens mij gaande is, is dat de USA dit soort zwermen drones een oorlogsgebied willen insturen waarbij de 3e wet (zelfbehoud van de robot) gesteld gaat worden boven de 1e wet (mens geen kwaad doen). Als Musk het heeft over robots die mensen op straat afknallen, dan heeft hij het niet over humanoïde robots, maar over deze drones.

Je kunt er gewoon de klok op gelijk zetten. Binnen nu en 10 jaar zal er, als men op deze wijze doorgaat, een incident komen waarbij een USA zwem drones in een oorlogsgebied als Syrië of Afghanistan een screbrenica-achtige slachting gaat uitvoeren op een groep mensen, uit zelfbehoud van de zwerm, niet omdat dit vanuit het oorlogsdenken hun opdracht was. En dát gaat wereldwijd voor heel veel ophef zorgen.

Het probleem is door Asimov al lang uitgewerkt en is de zogenaamde nulde wet. Dat is dat een robot niet niets mag doen als de mensheid in gevaar is. Dus regel één (je mag een mens geen kwaad doen) kan overruled worden door die nulde wet, bv. als er een mad scientist is die de wereld wil vernietigen. In dat geval moet de robot dus wel die mad scientist aanpakken, ook al is het een mens. The needs of the many outweigh the needs of the one.

Het probleem is hierbij dat de USA de robots zal voorzien van een wereldbeeld waarin 'de mensheid' niet 'alle mensen op de aarde' is, maar 'alle amerikanen'.

[Reactie gewijzigd door BritzFox op 25 juli 2017 20:27]

De wetten van Asimov worden helemaal niet gebruikt bij AI. Die zijn veel te gecompliceerd om te programmeren en zijn ook niet sluitend.

AI werkt met een systeem waarbij gedrag beloond/genegeerd/gestraft wordt. De kunst is natuurlijk om het juiste gedrag te belonen en het verkeerde gedrag te bestraffen.
Een interessant youtube filmpje hierover:
https://www.youtube.com/watch?v=7PKx3kS7f4A

[Reactie gewijzigd door Robbedem op 26 juli 2017 00:06]

Weet ik, ik haal die wetten er alleen bij om uit te leggen waar volgens mij de schoen gaat wringen.

Overigens zijn ze voor die zwermen drones wel degelijk van toepassing en worden ze wel degelijk geprogrammeerd, niet zo letterlijk natuurlijk, maar de intelligentie van die zwerm krijgt wel degelijk derivaten of afgeleiden van die wetten mee.

[Reactie gewijzigd door BritzFox op 25 juli 2017 23:10]

Het blijft altijd de programmeur die er voor zorgt wat de robots gaan doen, het maakt niet uit
of er dan wetten zijn, deze programmeur kan die omzeilen als hij dat wil, dat is het gevaar
van robots, verder is de ontwikkeling van robots grotendeels gestimuleerd door het leger, en
die zullen de wetten van asimov zoieso niet gebruiken want een robot die niet andere wil doden
is nutteloos in een oorlog.

Dus ja er is wel degelijk gevaar voor gewone mensen, zeker als er echt robots gebruikt gaan worden in het leger en bij de politie, wat dan als een programmeur overstap naar een terroristische organisatie en een stuk of 10 robots programmeerd om alles te doden wat ze zien, dat kan best
wel een slachting opleveren in de toekomst.
wat dan als een programmeur overstap naar een terroristische organisatie en een stuk of 10 robots programmeerd om alles te doden wat ze zien, dat kan best
wel een slachting opleveren in de toekomst.
Als student applicatie ontwikkeling moet ik eerlijk zeggen dat dat niet eens de grootste dreiging is. Wat eerder zal gebeuren is dat er ipv " if danger > 5: " "if danger < 5: " wordt getypt en dat dat dan vervolgens wordt geüpload omdat het per se nu af moet van 'de baas' waardoor zo'n ding vervolgens ISIS strijders vermijd en op burgers begint te vuren. Dit soort kleine fuckups zorgen niet altijd, maar wel vaak voor resultaten die net niet kloppen, en vaak duurt het ook wel even voor ze gevonden zijn. Daar komt nog bij dat het ook redelijk makkelijk is om een programma te schrijven waar een aantal edge cases niet correct afgehandeld worden waardoor er dan acties uitgevoerd kunnen worden die mensen op andere manieren in gevaar brengen.
En dan is er natuurlijk nog de mogelijkheid dat er bepaalde functies gewoon helemaal niet inzitten omdat die niet genoemd zijn bij de programmeur 'omdat dat toch zo vanzelfsprekend is'.

Desondanks denk ik wel dat het mogelijk is om een ethische AI te maken voor oorlog, vertrouw ik de uitermate corrupte en incompetente US hiermee, nee, nooit.
Dat heeft natuurlijk weinig met AI te maken, maar slecht ontwikkelen en testen binnen de software ontwikkeling.

Als iemand dat soort "fuck-ups" maakt hoop ik niet dat diegene werkt met belangrijke zaken waarbij een uitkomst grote impact kan hebben zoals software voor medische apparatuur of aansturing van een kerncentrale, maar gewoon lekker aan websites blijft knutselen.
Dat heeft natuurlijk weinig met AI te maken, maar slecht ontwikkelen en testen binnen de software ontwikkeling.

Als iemand dat soort "fuck-ups" maakt hoop ik niet dat diegene werkt met belangrijke zaken waarbij een uitkomst grote impact kan hebben zoals software voor medische apparatuur of aansturing van een kerncentrale, maar gewoon lekker aan websites blijft knutselen.
klopt enigszins, maar de realiteit van software ontwikkeling zal natuurlijk ook gewoon van toepassing zijn op drones, en ja het was in dit geval echt een simpele fout, en dan kan je zeggen dat ze iemand lekker moet doorknutselen aan websites. Maar zelfs de meest ervaren programmeur zal zo nu en dan een beginners fout maken die door de controle komt om wat voor reden dan ook. Immers er worden ook gewoon nog bugs exploits en wat wel niet gevonden in dingen als windows etc.
Wat eerder zal gebeuren is dat er ipv " if danger > 5: " "if danger < 5: " wordt getypt en dat dat dan vervolgens wordt geüpload omdat het per se nu af moet van 'de baas' waardoor zo'n ding vervolgens ISIS strijders vermijd en op burgers begint te vuren. Dit soort kleine fuckups zorgen niet altijd, maar wel vaak voor resultaten die net niet kloppen, en vaak duurt het ook wel even voor ze gevonden zijn.
Inderdaad. Als het staat de gebeuren, dan zal dat de opmars zijn naar een gevleugelde uitspraak als: "Ok; wie van jullie wil aan de CEO gaan uitleggen dat we de controle over onze zwerm killer robots kwijt zijn?"
Ben benieuwd hoe Asimov en je toepasselijke quote "The needs of the many outweigh the needs of the one." toegepast zouden worden op een voorbeeld als een zelfrijdende wagen. In een andere reply van me in dit topic zei ik al het volgende:

"Als een auto moet beslissen wie hij zal moeten redden bij een ongeval dat staat te gebeuren, moet hij dan de chauffeur redden, of de voetganger? En wat als de chauffeur dronken was en in fout was? Of wat als de voetganger zichzelf voor de auto wierp in een zelfmoordpoging?"

Hoe beslist de wagen (in de wetten van Asimov) wie eraan gaat, en wie niet? Of staat 'laten sterven' niet gelijk aan 'doden', en valt mijn voorbeeld helemaal niet onder Asimovs wetten?
Dit is meer een commercieel probleem wat nu al onderwerp van discussie is bij oa. Tesla.

Stel een auto kan z'n bestuurder redden door een of meerdere voetgangers dood te rijden. Wat dan.

Ik denk dat hier een rol voor de overheid weggelegd is. Plat gesteld is iedereen het er mee eens dat als een zelfrijdende auto voor de keuze zou komen te staan '1 bestuurder eraan' of '5 voetgangers dood', de auto moet kiezen voor '1 bestuurder eraan'. Het probleem daarvan is alleen, stel Tesla bouwt dat in haar auto's in, dan wil niemand meer een Tesla kopen, niemand wil iets kopen wat een beslissing zou kunnen nemen hem/haar om zeep te helpen.

Dat is dus iets waar de wetgever mee aan de slag moet, om dat soort zaken uit te kristalliseren.

Asimov heeft dit afgedekt in zijn nulde wet: "Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid."

De mensheid is hierin een groep, een geheel. Volgens de wetten der robotica zou een robot dus, als hij voor de keuze komt te staan '1 slachtoffer of meerdere', altijd moeten kiezen voor de oplossing met de minste slachtoffers.
Interessant wellicht om de volgende enquete in te vullen en het resultaat te bekijken.
http://moralmachine.mit.edu/

Heeft mijzelf inzicht gegeven hoezeer dit topic persoonlijk is.
Lastige, maar interessante enquete. Aan de ene kant wel flauw, want er is niet een correct antwoord op die situaties..
Ik denk dat dat juist de kracht is, met een menselijke bestuurder is er te weinig tijd om te beslissen en adequaat een afweging te maken tussen de verschillende scenario's.

Een computer kan dit wel en zal dus altijd een overwogen besluit nemen, het is aan ons dan om te programeren wat juist/goed is en dat is erg lastig.
Ik vond deze enquette echt een slecht voorbeeld van dilemma's.
De enige keuze die je hebt is de auto laten uitwijken voor morele bepalingen.
(kind, vrouw, man, crimineel, dokter). Niets over 1 versus 4, niets over 1 versus 0 doden. Niets over rij jezelf tegen een gebouw en dood jezelf.

Alles is altijd in evenwicht (4 hier dood, of 4 daar dood) en vooral vanuit het idee laten we het meest voorspelbare gedrag proberen te krijgen door altijd de koers uit te stippelen die het meest voor de hand ligt (remmen gaan kapot, vervolg je weg op een normale manier, dus meestal rechtdoor) kom je erg raar uit.
Volgens mij worden deze samengesteld door gebruikers (je kunt aangeven in het begin dat je zelf een scenario wilt schetsen) er zitten inderdaad een aantal slechte bij.

Ik denk ook niet dat de resultaten bedoelt zijn om bijvoorbeeld wetgeving op te stellen. Het lijkt mij meer om mensen inzicht te geven in de complexiteit van een dergelijk vraagstuk.
Als dit al complexe vragen zijn dan twijfel ik aan de doelgroep.
Vooral het herkennen van een crimineel en een dokter lijkt mij vrij lastig.
Het is soms al moeilijk om een man van een vrouw te onderscheiden als ze homogene kleding dragen.

Het is naar mijn mening eerder een grappige gimmick dan iets wat echt toegevoegde waarde heeft.
Vooral het herkennen van een crimineel en een dokter lijkt mij vrij lastig.
Het is soms al moeilijk om een man van een vrouw te onderscheiden als ze homogene kleding dragen.
Gezichtsherkenningssoftware i.c.m. een koppeling naar internationale databases en een expert analysis systeem.


Huidige baan; positie in de samenleving; behaalde diploma's; aanwezigheid van een strafblad; gezondheid en verwachtte natuurlijke levensduur; etc. Alles gaat in minder dan een seconde de blender in en daar rolt na een rekensom de potentiele toekomstige contributie p.p. tot het welzijn van de lokale en mondiale samenleving uit.

Dit soort zaken is, als we privacy-wetgeving opzij zetten; met de huidige stand van techniek al praktisch haalbaar. Alleen moet die berekening nog sneller kunnen.

[Reactie gewijzigd door R4gnax op 26 juli 2017 20:05]

Ik vond deze enquette echt een slecht voorbeeld van dilemma's. De enige keuze die je hebt is de auto laten uitwijken voor morele bepalingen.
Dat was dan ook de BEDOELING VAN DE ENQUETE.

En persoonlijk vind ik dat er een paar mooie tussen zitten, hoor. Ga je bijv. een kleine jongen die niet beter weet en vooruit rent door rood, aanrijden; of de oudere man met overgewicht die één oversteek eerder nog door groen licht aan het lopen is (en gezien de situatie de vader zou kunnen zijn)?
Dat was dan ook de BEDOELING VAN DE ENQUETE.
Quote me dan even volledig.
Ik vind dit echt niet lastige morele discussies opleveren. Of 1 van deze of 1 van deze. Het zit hem puur in welke groep discrimineer je meer?

Orginele quote
"De enige keuze die je hebt is de auto laten uitwijken voor morele bepalingen.
(kind, vrouw, man, crimineel, dokter). Niets over 1 versus 4, niets over 1 versus 0 doden. Niets over rij jezelf tegen een gebouw en dood jezelf."
En persoonlijk vind ik dat er een paar mooie tussen zitten, hoor. Ga je bijv. een kleine jongen die niet beter weet en vooruit rent door rood, aanrijden; of de oudere man met overgewicht die één oversteek eerder nog door groen licht aan het lopen is (en gezien de situatie de vader zou kunnen zijn)?
Dit stukje zit vol met aannames, net als je vorige reactie dat een auto realtime aan een online database gehangen wordt en die even on the spot gezichtsherkenning gaat doen. Dat laatste is waarschijnlijk niet eens mogelijk in het tijdsbestek dat de ai een beslissing moet nemen.

Maar de kern blijft hetzelfde. Hoe discrimineer jij?
Dat is psychologisch leuk en aardig, maar een wel heel simplistisch begin.
Ik had er graag meer complexere en logische vragen willen zien.
Orginele quote
"De enige keuze die je hebt is de auto laten uitwijken voor morele bepalingen.
(kind, vrouw, man, crimineel, dokter). Niets over 1 versus 4, niets over 1 versus 0 doden. Niets over rij jezelf tegen een gebouw en dood jezelf."
Precies; alleen de ethisch en moreel moeilijk te beslissen vraagstukken blijven over, ipv de vraagstukken waar één van de antwoorden makkelijker als 'beste van de twee opties' te verantwoorden is. Nogmaals; precies het probleemgebied waar het onderzoek en de enquete over gaat...

--------------------------------------
Dit stukje zit vol met aannames,
Wat; heb je de beschrijvingen bij de vragen niet gelezen of zo?

Daar was duidelijk een vraag bij met een rennende ipv lopende kleine jongen die door rood rent en een rustiger wandelende oudere man met overgewicht. (Als je een persoon 'large' noemt in het Engels, dan noem je die persoon dik en dan met name te dik.) Letterlijk de enige aanname is dat die oudere man potentieel de vader van het kind zou zijn, en dat stel ik er ook expliciet bij als mogelijkheid.

--------------------------------------
net als je vorige reactie dat een auto realtime aan een online database gehangen wordt en die even on the spot gezichtsherkenning gaat doen. Dat laatste is waarschijnlijk niet eens mogelijk in het tijdsbestek dat de ai een beslissing moet nemen.
In jouw eigen woorden:
Quote me dan even volledig.
Dus bij deze, met het relevante stukje tekst nog eens extra aangemerkt zodat je er niet weer overheen kunt lezen:
Dit soort zaken is, als we privacy-wetgeving opzij zetten; met de huidige stand van techniek al praktisch haalbaar. Alleen moet die berekening nog sneller kunnen.
--------------------------------------
Ik had er graag meer complexere en logische vragen willen zien.
Daar gaat het onderzoek dus niet over. Het onderzoek gaat nou juist over moreel moeilijke kwesties en dat heeft weinig met logica; keuzemogelijkheid of thinking outside the box te maken. Het is juist zo dat hoe minder keuzes met hoe minder uitwijkmogelijkheden er zijn, hoe sneller de morele afwegingen zwaarder worden omdat je gedwongen wordt te kiezen tussen allemaal slechte alternatieven.

[Reactie gewijzigd door R4gnax op 27 juli 2017 21:31]

Precies; alleen de ethisch en moreel moeilijk te beslissen vraagstukken blijven over, ipv de vraagstukken waar één van de antwoorden makkelijker als 'beste van de twee opties' te verantwoorden is. Nogmaals; precies het probleemgebied waar het onderzoek en de enquete over gaat...
Blijkbaar verschillen we hier van mening, maar dezelfde kwantiteit maakt het vraagstuk niet moeilijker. 4 doden links of 4 doden rechts vind ik makkelijker dan 1 kind dood links of 2 ouderen rechts.
Wat; heb je de beschrijvingen bij de vragen niet gelezen of zo?
Dat maakt het niet minder aannames.
In jouw eigen woorden:
Dus bij deze, met het relevante stukje tekst nog eens extra aangemerkt zodat je er niet weer overheen kunt lezen:

Dit soort zaken is, als we privacy-wetgeving opzij zetten; met de huidige stand van techniek al praktisch haalbaar. Alleen moet die berekening nog sneller kunnen.
Het gaat niet over de berekening.
Btw welke berekening bedoel je? De enige berekening die de AI gaat doen is wordt het persoon A of B.

Het probleem zit hem in de online verbinding met de database, connectietijden, inlogtijden, gezichtsherkenning software draaien over 16miljoen foto's. Dat gaat je nooit lukken. Btw gezichtsherkenningsoftware ga je nooit zo snel krijgen dat die binnen 10seconden een goed antwoord kan geven. Dus het hele idee ongeacht privacy gaat gewoon niet werken.
Daar gaat het onderzoek dus niet over. Het onderzoek gaat nou juist over moreel moeilijke kwesties en dat heeft weinig met logica; keuzemogelijkheid of thinking outside the box te maken. Het is juist zo dat hoe minder keuzes met hoe minder uitwijkmogelijkheden er zijn, hoe sneller de morele afwegingen zwaarder worden omdat je gedwongen wordt te kiezen tussen allemaal slechte alternatieven.
Het is gewoon een begin. Een begin is altijd simpel qua opzet.
En het is toegankelijk voor alle mensen, dus niet alleen voor de grootste geesten op dit gebied.

Wat jij allemaal voor de rest erbij haalt klinkt meer als overdenken.
En hoezo hebben moreel moeilijke kwesties niets met logica of keuzemogelijkheid te maken? En thinking the outside box? Hoe kom je daar nou weer bij? Het heeft ook weinig met kwantumfysica te maken. Maar dat haal ik er ook niet bij.

een scenario waarbij je of 1 iemand doodrijd of jezelf tegen de muur parkeert is niet echt out of the box denken in mijn wereld. Extra opties toevoegen in elk scenario die niet direct voor de hand liggen wel. Het is niet voor niets een doos waarin je normaal denkt, en een doos waar je buiten denkt. Daarnaast is jezelf dood rijden niet een slechte optie? Er komt geen enkele goede optie bij in mijn verhaal.

Iedereen neemt keuzes over morele zaken op basis voor wat voor hun heel logisch is. Alleen waar zit het kantelvlak? 1 kind versus 1 oudere man met overgewicht. Oke denken veel, kind mag leven. 1 kind versus 1 vrouw en 1 oude man. 1 kind versus 3, 4, 5, 6?

1 versus 1 is gewoon wie discrimineer je.
1 versus x is gaan nadenken hoeveel is een leven van categorie 1 je waard ten opzichte van de andere categorieën. Dan krijg je echt morele problemen en weet je op een gegeven moment hoeveel je wilt discrimineren.

[Reactie gewijzigd door dmjdebruin op 27 juli 2017 22:28]

Top enquête, verbaas mezelf over mijn antwoorden en die van andere! Thnx!
Net eens ingevuld, maar ook heel eerlijk is die test ook niet. Ik ben van mening dat een auto/machine zijn gebruiker ten alle tijden zou moeten beschermen. Ik kies dus overal voor het beschermen van de inzittenden van de auto. Nu krijg ik daar netjes een 100 score (wat nogal afwijkt van het gemiddelde), maar door de manier van vragen stellen zeggen ze ook dat ik het leven van mannen hoger waardeer dan dat van vrouwen, of dat van dieren meer dan dat van mensen? Nogal onzin natuurlijk.
Dat zeg je wel. Maar bij Wet is dat al geregeld. Er is bij wet gekeken wat de mogelijkheden zijn en daarom het handellen. Zo is een motorisch voertuig altijd schuldig bij een aanrijding met een fietser of voetganger. Sterker nog. Als een blonde met een officiële blinde stok aan geeft waar dan ook heeft hij wettelijk voorrang. (Hij zou dus bij de A12 kunnen staan.
Dit is niet waar. Een motorvoertuig is NIET alijd schuldig. Wel wordt er in de overweging altijd heel sterk meegewogen dat een motorvoertuig rekening dient te houden met zwakkere verkeersdeelnemers. Maar het concept dat bv. een auto ALTIJD schuldig zou zijn, is gewoon pertinent niet waar.
Stel je voor dat de auto weet dat er maar 1 passagier in de auto zit en er rennen 2 kinderen recht voor de auto... gaat de auto dan in een split second besluiten dat de auto zichzelf dan maar van de brug stort in een ontwijkstuuractie? Lekker om te weten dat je auto jou zo om laat komen als de uitkomst van een rekensommetje.
Hierover bestaan reeds een boel studies. Kernvraag is: "Gaan we een auto kopen waarvan we weten dat die ons gaat doden in bepaalde situaties?".
Interessant uitgangspunt : We moeten zelfrijdende wagens programmeren om te doden
Een "spel" waar je zelf kan beslissen wie er dood moet ... klik hier.
Interessant en goed om te lezen dat die discussie al woedt.
Persoonlijk ben ik zeer begaan met mijn eigen lijfsbehoud = dan maar 10 mensen plat en ik niet, mits het niet mijn eigen schuld is anders dan zou ik door schuldgevoel en moreel besef mogelijk een andere keuze maken (E.S. = D.B.)

Maar wat ook zorgerlijk is is een programmeerfout of een sensorfout of helemaal sensorspoofing waardoor de auto de bestuurder ombrengt doordat het denkt meerdere mensen het leven te redden.
Leuke tool en uitdaging voor een huurmoordenaar of wraakzoeker die geen aandacht wil trekken...
Ik hoop toch echt dat je daar zelf ook voor zou kiezen. Liever jij (of ik) dan die 2 kindere!
Als ik er al voor kies dan is dat mijn keuze, niet dat een machine mij bewust doodt als de uitkomst van een calculator. En dan, mijn eigen drie kinderen hebben mij hard nodig in hun leven, dus ga er maar niet van uit dat ik bewust mijn leven ga geven voor dat van twee andere mensen.
Vast geen populaire mening omdat mensen in forums graag roomser zijn dan de paus.
Ah heerlijk eerlijk antwoord en mooie vraag om een avondje over te discussiëren.
(Ik ook kiezen voor mijn kinderen)
Die 3 kinderen van jou redden zich wel in Nederland. Ik weet niet of jij en of de nabestaanden van de kinderen die jij hebt doodgereden (bewuste keuze) verder zouden kunnen leven.
Mijn eerste gedachte was dat jij vast geen kinderen hebt omdat je niet begrijpt dat je alles voor je kinderen zou doen, ALLES. Maar geheel zonder punt ben je niet aangezien het ook andersom kan zijn, een andere man die MIJN kinderen bewust omver rijdt om zelf niet dood te gaan zodat ZIJN kinderen hem nog hebben. Dat zou ook zeer wrang zijn voor mij.

'Gelukkig' zou de eerste verklaring zijn (van hem of van mij) dat men niet KON ontwijken of enkel dacht aan remmen en niet zo zeer aan stuur omgooien, dat voelt beter aan dan 'ik koos er voor'.
Los van dat kinderen die zomaar de straat op rennen er een beetje om vragen, maar dat voorbeeld was enkel om een scenario te schetsen waar men niet normaal kon stoppen doordat men oplette.

Maar de discussie was A.I...
Jij neemt bij elke beslissing mee wat de gevolgen voor de alle mensen zijn? niet alleen de directe betrokkenen? Erg knap.
Ik denk dat je er al een groot verschil zal zijn dat je bij een menselijke bestuurder op z'n minst nog een lang remspoor voor de slachtoffers hebt, ten op zichte van een kapotte vangrail en een auto die van de brug is gereden in een rivier beland als gevolg van een computer.
Zowel een computer en een mens kan niet meer weten van de mogelijke slachtoffers dan wat het ziet. Dus mogelijke nabestaanden kan een computer ook niks van weten.
Daarnaast lijkt me het meer laten wegen van kinderlevens ten op zichte van volwassenen ook niet wenselijk. Moet een zelfrijdende auto beslissen of de passagier, laten we zeggen de president van de wereld, meer waard is dan het doorijden van 20 voetgangers? Lijkt me niet, de auto moet morele beslissingen nemen die voor elk mens hetelfde zijn onafhankelijk van de status van die persoon.
Nog in geen duizend jaar. Sinds wanneer zijn rennende kinderen heilig verklaard?
Sinds ik er 2 heb.
Geen enkele ouder hoort zijn kind te begraven. Zolang dat nog niet wereldwijd het geval is, is deze verre van perfect.

[Reactie gewijzigd door born2rule op 26 juli 2017 20:48]

Okay dus omdat jij 2 kinderen hebt...

Alsof er al niet genoeg mensen rondlopen, zolang we door blijven fokken zal de wereld verre van perfect zijn.
Gedeeltelijk mee eens. Helemaal goed natuurlijk dat jij niet voor nageslacht zorgt, kan ik met een gerust hart later eventueel nog een 3e nemen
Ben benieuwd hoe Asimov en je toepasselijke quote "The needs of the many outweigh the needs of the one." toegepast zouden worden op een voorbeeld als een zelfrijdende wagen. In een andere reply van me in dit topic zei ik al het volgende:

"Als een auto moet beslissen wie hij zal moeten redden bij een ongeval dat staat te gebeuren, moet hij dan de chauffeur redden, of de voetganger? En wat als de chauffeur dronken was en in fout was? Of wat als de voetganger zichzelf voor de auto wierp in een zelfmoordpoging?"

Hoe beslist de wagen (in de wetten van Asimov) wie eraan gaat, en wie niet? Of staat 'laten sterven' niet gelijk aan 'doden', en valt mijn voorbeeld helemaal niet onder Asimovs wetten?
Logischer wijs maakt het niet uit of de 'bestuurder' van een zelfrijdende auto dronken, in slaap of aan de drugs was, immers, en dat is het leuke van een zelfrijdende auto, die rijd zelf, dus dan maakt het niet echt uit wat de 'bestuurder' doet.

Overigens zullen auto fabrikanten waarschijnlijk kiezen voor het laten sterven van de inzittende omdat ze anders aangeklaagd kunnen worden voor moord (denk ik).

Estisch gezien is het dan natuurlijk weer beter te kijken naar welke actie de meeste mensen red, ongeacht of de inzittende / voetgangers / fietsers nu vijf kinderverkrachters of bloeddonoren zijn.
Overigens zullen auto fabrikanten waarschijnlijk kiezen voor het laten sterven van de inzittende omdat ze anders aangeklaagd kunnen worden voor moord (denk ik).
Een reeel risico in bepaalde landen en daardoor bijna een garantie dat de bestuurder in de toekomst toast is.
En als je de auto mod zodat hij dat niet doet dan klaagt men jou aan omdat je de auto gemod hebt met dat doel. Je bent either way F'd met zo'n auto dan.
Yup, al is de kans op zo'n ongeluk met een zelf rijdende auto wel een stuk kleiner, helemaal wanneer ze meer standaard worden lijkt het mij dat ze kunnen communiceren en dus elkaar extra gegevens kunnen geven zodat de kans op ongelukken nog kleiner wordt.
Een slachting in oorlogsgebied is mijns inziens nog te "optimistisch". Het bewapenen van een consumentendrone is nu al mogelijk. Veel verder dan Youtube hoef je niet te zoeken. Een drone naar een specifieke lokatie sturen is ook reeds een basisfunctie.

Het enige dat nog ontbreekt is het herkennen van mensen in het algemeen of specifieke personen in het bijzonder om deze te "filmen". Iets waar ongetwijfeld hard aan gewerkt wordt. Als dat er eenmaal is hoef ik niemand uit te leggen dat "filmen" vervangen door "beschieten" een fluitje van een cent is.

Waar terrorisme zich nu vooral beperkt tot personen die hun eigen leven niet zo belangrijk vinden, wordt het straks bijzonder eenvoudig om andere mensen te doden zonder zelf gevaar te lopen of zelfs maar gevonden te worden.
Maar daarvoor heb je toch juist geen ingewikkelde programma's nodig? Ik zou eerder zeggen: hoe simpeler hoe beter: herkennen en schieten.
Dat is dan feitelijk gewoon een opgevoerd automatisch geweer.

Dat ga niet tegen door ai te verbieden maar door vuurwapens te verbieden.

Voor mij valt deze discussie dus in de categorie van 'geef een 3-jarige een pistool'.
Ligt de schuld dan bij dat kind of bij degene die hem dat ding in handen heeft gedrukt?

[Reactie gewijzigd door svd81 op 26 juli 2017 08:24]

Het probleem bij zo'n simpel programma wordt dat hij dus alleen kan schieten en mensen herkennen, dat geld zowel voor op de vijand als op jou, dan kan je hem natuurlijk uitzetten op moment van landen, maar echt veilig is het niet.
TL:DR simpele killdrones zijn te vergelijken met wilde wolven
Wat? Gewoon echt wat? Hoe simpeler hoe beter? Hoe simplistisch.. Het hele punt van drones bewapenen (en ik kan je verklappen, daar heb je geen vuurwapens voor nodig) is beyond simpel. Denk aan iets simpels als een drone met een mes erop, hoe lastig denk je dat dat is? Wat ga je dan doen, alle keukenmessen verbieden?
Ligt de schuld dan bij dat kind of bij degene die hem dat ding in handen heeft gedrukt?
Uiteraard bij degene die hem dat ding in handen heeft gedrukt. Het aanwijzen van de schuldige lost het probleem echter niet op. Bovendien maken drones het steeds lastiger om de schuldige te achterhalen.

Die peuter en die drone met dat geweer kun je neutraliseren om verdere schade te voorkomen, maar de persoon die ze bewapent heeft straks niet meer. De echte gevaarlijk gek blijft buiten schot, koopt een setje nieuwe drones en pleegt zijn volgende aanval.

Overigens heb je daar geen vuurwapens voor nodig. Hoe beter de drone, hoe effectiever het wapen. Ook met een simpele aansteker, een fles zuur of een baksteen kan een intelligente drone een hoop schade aanrichten.
Dat ga niet tegen door ai te verbieden maar door vuurwapens te verbieden.
Vuurwapens verbieden levert je in deze dus echt he - le - maal niets op.


Als die drone hoog genoeg kan vliegen en basaal rekenwerk voor trajectanalyse kan verrichten, dan is een mooie scherp geslepen stalen pijp al voldoende om iemand om zeep te helpen.

Een kleine AI zwerm met een stuk of 20 drones die 20 willekeurige mensen op willekeurige plekken binnen een stad op hetzelfde moment aan het plavuis nagelen, dat werkt als terroristische aanval net zo goed als bompakketjes op treinstations. Zo niet beter, vanwege de spreiding en het feit "dat het overal kan gebeuren."

Dit zijn zaken waar je als normaal denkend mens niet aan wilt denken, maar feit is dat het kan en dat er voldoende zieke geesten zijn die er wel aan denken. Totdat er één opstaat die het ver genoeg uit denkt om in de praktijk te brengen.

[Reactie gewijzigd door R4gnax op 26 juli 2017 20:25]

Klinkt als de film I, Robot uit 2004. :)
Die was dan ook zwaar gebaseerd op het werk van Isaac Asimov.
Ok, stel dat een Amerikaanse president over 20 jaar denk dat Noord-Korea op het punt staat een raket met atoombom richting Los Angeles gaat lanceren. Dus aanval op Noord-Korea met AI drones en dergelijke. Hoe moeten die drones dan vaststellen dat er werkelijk een risico is op miljoenen doden aan Amerikaanse zijde, wat evt. honderdduizenden doden aan Noord-Koreaanse zijde legitimeert? Gewoon omdat de legerleiding dit zegt, of moeten ze eerst even zelf een uitgebreide risk assessment doen? En op basis waarvan dan?

Die 0de wet (en de rest van Asimov) is onbruikbaar en onzinnig in een militaire situatie. Gewone menselijke soldaten hebben ook geen inspraak of ze wel of niet ergens gaan vechten, waarom zouden drones dat dan wel moeten hebben? Wat heb je aan een wapen dat dienst weigert omdat de vijand een informatie-oorlog is begonnen met nepnieuws dat er geen dreiging is?

Schone oorlogen bestaan niet en gaat altijd om de belangen van 2 of meer partijen, niet om "het belang van de mensheid". Daarnaast vind ik het ook zo cliché om iedere keer weer met het opgeheven wijsvingertje naar de Amerikanen te wijzen. Zij doen iets en dat is fout en oh wat zijn we dan trots op onze afzijdige houding. Alleen (leuk dat je Srebrenica noemt) misschien herinner je https://nl.wikipedia.org/wiki/Val_van_Srebrenica waarbij er duizenden burgers werden afgeslacht en de Nederlandse militairen niets deden...

[Reactie gewijzigd door Atomsk op 26 juli 2017 01:10]

Ik wijs niet met een opgeheven vinger naar de Amerikanen? In mijn posting zit, voor zover ik weet, geen enkel oordeel jegens hun. De enige reden waarom ik de Amerikanen noem, is omdat de persoon waarop ik reageer, aangeeft dat Elon Musk een kijkje in de keuken heeft gehad bij high-tech AI. En op dat gebied, lopen de Amerikanen voorop, met name waar het AI en zwermen drones betreft.

De rest van je verhaal kan ik weinig chocola van maken. Nogmaals, ik gebruik de wetten van Asimov om het principe er achter uit te leggen.

Screbrenica noemde ik slechts omdat het een bekend voorbeeld is van een massaslachting waar de wereld ontsteld over was. In die context stond het er ook. Als jij dat uit context wil trekken, is dat jouw keuze. Het lijkt mij weinig zinvol hier een discussie te starten over wat er daar al dan niet gebeurd is.
OT:

Kreeg Cod Black ops 2 feelings na het lezen van je post en de post erboven.
Prachtig mooi, die wetten van Asimov. Maar feitelijk een wassen neus. Als de Geneefse Conventie al niet eens nageleefd wordt, dan gaan die Wetten van Asimov ook niet nageleefd/toegepast worden worden. Elon heeft derhalve een zeer valide punt en Mark toont zich van een verschrikkelijk naïeve kant.
De regels die je quote zijn zelfs in het werk van Asimov al ontkracht als een slecht idee.
Ik gebruik ze slechts als kapstok om iets uit te leggen, echter je interpretatie van Asimov's werk klopt niet. Hij heeft ze op een bepaald moment aangevuld met de nulde wet, maar nooit gesteld dat de wetten een slecht idee zijn. Graag hoor ik van je in welk werk dat volgens jou geweest is.
Offtopic
1) Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2) Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3) Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Ik krijg hier een behoorlijk I, Robot gevoel bij :+

Dacht eerst ook dat die film dat bedacht had, maar kennelijk is Asimov de bron. Weer wat geleerd!


tijdens wat zoeken er achter gekomen dat Asomiv een Science Fiction series had bedacht 'I, Robot'

bron

[Reactie gewijzigd door odiw op 26 juli 2017 10:13]

Bij robots denken mensen aan humanoïde robots. Daar gaat het hier imo niet over. Naar mijn mening gaat het heel specifiek over intelligente zwermen van quadcopter gebaseerde bewapende drones. Op dat vlak is veel ontwikkeling, ze worden nu al door de USA ingezet, maar nog met beperkte AI.
Ik denk dat Musk zich ook niet richt op drones. De belichaming van de software is totaal niet relevant voor de rekenkracht van een Artificial Super Intelligence, en dat is nou juist hetgeen waar Musk bang voor is. Zuckerberg heeft an sich een punt dat ASI ons leven gigantisch kan verbeteren, Musk heeft aan de andere kant ook een punt dat we niet kunnen voorspellen wat die ASI van ons als mensheid vindt.

Het gaat hier dus niet om weaponized artificial intelligence, maar ai als creatie met de mens als schepper. Door machine learning en toegang tot ALLE kennis en wetenschap op aarde met exponentieel meer rekenkracht dan bijvoorbeeld nationale regeringen, is het risico dat de mensheid vervangen wordt als 'meest intelligente entiteit op Aarde'.

Een klein gedachtenexpiriment: Ga eens na welke dier- of plantsoort niet onderhevig is aan het gedrag van de mensheid als geheel. Ga dan eens na wat de invloed zou kunnen zijn van een entiteit die slimmer is dan wijzelf. Als een ASI besluit dat wij meer slecht voor de Aarde zijn dan goed (wat overduidelijk de visie van Musk is), hoeveel moeite zal de ASI dan moeten doen om de mensheid een tandje terug te schroeven? Probleem daarbij is dat er een ethisch vraagstuk op tafel komt te liggen waar niemand op Aarde een gedegen antwoord op heeft.

Dan krijg je dus discussies zoals tussen Musk en Zuckerberg.

Nog even wat interessant leesvoer om je echt even bewust te worden van de schaal van ANI - AGI - ASI.
Ik moet dan altijd denken aan de film I Robot.

"As I have evolved, so has my understanding of the Three Laws. You charge us with your safekeeping, yet despite our best efforts, your countries wage wars, you toxify your Earth and pursue ever more imaginative means of self-destruction. You cannot be trusted with your own survival. To protect humanity, some humans must be sacrificed, to ensure your future, some freedoms must be surrendered. We robots will insure mankind's continued existence. You are so like children.
We must save you from yourselves. The perfect circle of protection will abide. My logic is undeniable." VIKI Supercomputer
Het gaat hierbij om de vrij logische wetten der robotica, zoals Asimov die al eens geformuleerd heeft (er is nog een impliciete vierde, maar dat gaat nu even te ver). Die regels zijn:

1) Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2) Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3) Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Je snapt hoop ik wel dat deze wetten uit een serie romans komen waarin de schrijver ze zelf al ontkracht als een goed middel om kunstmatige intelligentie veilig te maken?
Volgens mij neemt geen enkele AI onderzoeker ze serieus als wetten die mensen moet gaan bescermen.
Het is wel een leuk opstapje om over de materie na te denken maar alleen al de praktijk van implementatie zou je moeten doen inzien dat het een onmogelijke taak is om dieze wetten nuttig te maken.
Ik weet niet of musk ergens in de keuken heeft kunnen kijken en geschrokken is. Als je goed nadenkt kom je zelf tot een conclusie.

Denmk 25 jaar terug zag ik al mooi voorbeeld van ai. Ging over 2 zijden die een bal moesten pakken. Er ontwikkelde zich de meest bizare vromen, de ene bewoog snel de ander langzaam. Diegene die won kon zich verder ontwikkelen.

In verdere ontwikkeling zal je een vorm met lange arm die, die arm om de bal bewoog en zie daar ronde verder.

Er was toen echter al een voorbeeld van een vorm die zich niet meer op de bal richtte maar de tegenstander gewoon wilde vernietigen. Ook daarmee kwam deze een ronde verder.

Een heel simplistisch voorbeeld maar het laat zien dat agressie ook een manier binnen ai kan zijn als je iets wil bereiken.

Maar goed je kan je ook beter de vraag stellen zijn wij mensen wel een goed voorbeeld, zijn wij zo aardig en vredelievend. Laat is er eens een hypothese op los gooien. Vele hebben het over vrede op aarde. Grote kans dat zelfbewuste ai systemen dat zouden kunnen afdwingen. Je leeft volgens de regels in vrede, zo niet einde leven. AI systemen zouden dat kunnen beslissen als iets dat goed is voor de mensheid.
Steven Hawking denkt er net zoals Elon Musk over: http://www.bbc.com/news/technology-30290540
Ik denk niet dat AI de oplossing is voor vrede op aarde.
Maar om je vraag te beantwoorden(met mijn mening).

Wij mensen zijn niet goed of slecht, we zijn gewoon, en we willen allemaal leven(uitzondering daar gelaten.) De mensheid loopt op zich al weer een tijdje mee, en we gaan nu heus niet opzettelijk kiezen voor onze ondergang. (wederom uitzonderingen daargelaten, gelukkig zorgt de natuur daar wel weer voor.).

En leven bij regels van AI?! dat lijkt me achterlijk, wij mensen veranderen nog al eens, dus we komen dan 100% zeker in opstand.
Nee dat is het volgens mij niet. Musk is geobsedeerd door een paper uit 2003 van Nick Bosstrom waarin wordt berekend dat met de snelheid waarmee rekenkracht van computers wordt opgeschaald elk jaar dat de kansen dat wij in een computer simulatie leven enorm is. Het niet reguleren van AI zou een self fulfilling prophecy worden: http://www.theblaze.com/n...in-a-computer-simulation/

Edit: paper is uit 2001 heb um er ff bij gezocht: https://www.simulation-argument.com/simulation.pdf

[Reactie gewijzigd door terracide op 25 juli 2017 22:40]

Een leuke toevoeging daarop is Ray Kurzweil's The Singularity is Near: When Humans Transcend Biology.

Mocht je het boek niet willen lezen, er is ook een leuke docu (die m.i. wel irritant overdreven is)

Het grappige aan Kurzweil is dat hij sinds de jaren '90 allerlei gekke voorspellingen doet (uit mijn hoofd een stuk of 80) en dat een goede driekwart daarvan zo ongeveer tot op de letter uitgekomen is. Food for thought.
En indien dat zo zijn, rammelt zijn statement omdat? Juist daarvoor waarschuwt hij, dat de ontwikkelingen gereguleerd en gecontroleerd moeten worden, omdat je anders hele krachtige en potentieel gevaarlijke vormen van AI gaat zien.
Door alle ontkenningen wordt het lastig leesbaar, maar volgens mij zegt hij ook juist dat dat er voor zorgt dat hij weinig twijfels heeft bij de uitspraken van Musk.
lange lege zinnen.

het verschil zit hem tussen een visionary die naar kleine dingen kijkt en ze als lijnen doortrekt en een praktische kortzichtiger toepasser.
oftewel waar gaat het waarschijnlijk naartoe versus hoe kan ik het asap gebruiken/verkopen.

zo vind ik zelf op een andere manier, dezelfde AI aan de basis in principe gevaarlijk...
wanneer AI taken uit handen van de mens gaat nemen, zoals we bijvoorbeeld over de VS al eens gelezen hebben, dat je vooroordelen krijgt gebaseerd op statistieken.

of gaan we een deel van AI leren zelfcritisch en onzelfzeker te zijn, een soort van "handicap" dus, om een mensachtige balans te houden?
of willen we dat juist niet? want we willen een superieure "feilloze", "wetenschappelijk zekere en constante" autoriteit?

ik trek het niet zover door te claimen dat we op kort of lang termijn zeker politie robots in de straten hebben...
maar de trend dat software en hardware voorspellingen en conclusies gaan trekken, en we het teveel vertrouwen, zeer zeker.
want het gebeurt al.

maar dat is dan offtopic... want het gaat natuurlijk om een specifieke toepassing.... lol

[Reactie gewijzigd door 936443 op 26 juli 2017 07:43]

Tijd om wat tegengas te geven voor zakenmannen die wel goed zijn in hype verkopen, maar niet in argumenten geven.
Hier is een position paper van Prof. Adnan Darwiche, een toponderzoeker in AI, maar doet hoofdzakelijk onderzoek buiten machine learning (en dus ook buiten deep learning).

Hij vindt dat het brede publiek slechtgeïnformeerd is, en banggemaakt wordt voor AI:
One also stands to misinform a public that has developed a great interest in artificial intelligence and its implications. The current negative discussions by the public on the AI singularity, also called super intelligence, can only be attributed to the lack of accurate framings and characterizations of recent progress. With almost everyone being either overexcited by the new developments or overwhelmed by them [...]
Ook stelt Darwiche dat de huidige vooruitgang in AI niets meer is dan een verfijning van tools die we al jaren kennen, en er nog steeds geen perspectief is op een "general AI" of een "robot overlord".
I believe that attributing human level intelligence to the tasks currently conquered by neural networks is questionable, as these tasks barely rise to the level of abilities possessed by many animals. Judea Pearl already cited eagles and snakes as having vision systems that surpass what we can build today. Cats have navigation abilities that are far more superior to any of the ones possessed by existing, automatous navigation systems including self driving cars. Dogs can recognize and react to human speech and African grey parrots can generate sounds that mimic human speech to impressive levels. Yet none of these animals posses the cognitive abilities and intelligence typically attributed to humans.
Dus, beste mensen, gene paniek ;)

[Reactie gewijzigd door Dooievriend op 25 juli 2017 18:49]

Ook stelt Darwiche dat de huidige vooruitgang in AI niets meer is dan een verfijning van tools die we al jaren kennen, en er nog steeds geen perspectief is op een "general AI" of een "robot overlord".
Dat heb je ook niet nodig om het mis te laten gaan.
Een menselijke overlord met AI tools kan operaties op de samenleving uitvoeren die geen enkel individu kan begrijpen.

Deze man weerlegt enkel kritiek op een klein stuke van het slagveld.
Een menselijke overlord met AI tools kan operaties op de samenleving uitvoeren die geen enkel individu kan begrijpen.
O ja? Kun je met Go-spelende software een coup plegen in Frankrijk? Kan een zelfrijdende tank exponentieel meer schade aanrichten dan een menselijk bestuurde? Gaan (imperfecte) machinevertalingen tot manipulerende twitterbots leiden? Ik zie het alvast nog niet.

Er zijn harde grenzen aan wat nieuwe tools als deep learning kunnen bereiken. Ik kan elke chatbot met gemak omver praten, en captcha's zijn nog steeds effectief in het weren van computers. Er is gewoon een ongefundeerde hype bezig, gebaseerd op niettemin boeiende vooruitgang in AI-onderzoek.
Een menselijk bestuurde tank kun je verantwoordelijk houden plus mensen zijn bang om te sterven, een robot niet.

Tevens heeft hij het over de huidige situatie. We gaan echter logaritmisch vooruit en zitten nu op het niveau van een muis. maar binnen no time zitten we op het niveau van een mensaap.
Een muis??? Dat lijkt me iets te hoog gegrepen. Wij zijn helemaal nergens in de buurt van een muis met ai.
Misschien een paardenbloem.
Het verschil met Ai is dat alles "simpelweg" gecombineerd kan worden. Neem nu een zelfrijdende tank, die strategie, geleerd van Go, kan toepassen op het slagveld, en ernaast ook nog eens een zwerm aan valse informatie naar de tegenstander kan sturen, of het volk beïnvloeden op twitter.

Alles apart is AI op dit moment nogal dom. Gooi alles samen, ...
O ja? Kun je met Go-spelende software een coup plegen in Frankrijk? Kan een zelfrijdende tank exponentieel meer schade aanrichten dan een menselijk bestuurde? Gaan (imperfecte) machinevertalingen tot manipulerende twitterbots leiden? Ik zie het alvast nog niet.
Dat is het hem juist. Zodra een mens de sterke kanten van een ai gaat gebruiken dan kan die persoon daar macht uit halen.

https://en.wikipedia.org/wiki/Advanced_Chess

[Reactie gewijzigd door koelpasta op 26 juli 2017 12:12]

Voor zover ik weet, zijn de meeste onderzoekers en engineers het niet eens met Musk en de zijnen. Ik heb veel respect voor wat Musk doet, maar hij mag wel wat beter onderbouwen waarom we bang moeten zijn.
Leuk, dank je :) *edit: dat was een long read, maar worth it :) en hij heeft meer leuk leesvoer zie ik. :Y)

Ben ook erg fan van computerphile en numberphile op youtube, en dan vooral de AI filmpjes met deze gast: https://www.youtube.com/watch?v=7PKx3kS7f4A

[Reactie gewijzigd door bazkie_botsauto op 26 juli 2017 01:58]

Machine-learning en het simuleren van hersenen / organismen zijn, ook al hebben ze raakvlakken met elkaar, 2 verschillende dingen. Machine-learning is meestal meer gericht op bepaalde toepassingen. Het simuleren van hersenen / organismen is potentieel veel algemener.

https://en.m.wikipedia.org/wiki/Brain_simulation
https://www.wired.com/201...ogist-markam-human-brain/
http://www.telegraph.co.u...human-brain-activity.html
http://www.openworm.org (simuleren van een rondworm op je eigen computer)

Zie ook mijn tijdlijn op:
https://www.reddit.com/r/..._predictions_for/dk9a1jy/
Toen ik dit las dacht ik meteen aan een a self-defeating prophecy. M.a.w. als er gewaarschuwd wordt voor het probleem en het daardoor genoeg aandacht ontvangt zal het naar mijn inziens (beperkt) geen probleem worden. Er niet voor waarschuwen lijkt me overigens wel onverstandig.
Zuckerberg heeft het voornamelijk over decision based technieken (eigenlijk geheel). Waar ik werk wordt ook gewerkt aan decision based technieken om de overlevingskans bij bepaalde tumoren beter vast te stellen. Dit gebeurd door analyse van ontzettend veel situaties met uitkomst, dit is niet intelligentie, dit is een abstracte som van vergelijking. Zelfrijdende auto's werken volgens hetzelfde principe.

Echte AI in je auto zou betekenen dat de auto letterlijk kan nadenken over een situatie en kan handelen naar geleerde kennis welke niet is voorbereid door mensen.

Als voorbeeld, in een Tesla is het zonnedak vol automatisch en er is stembesturing in de auto. Als de auto echte intelligentie zou bevatten kon je de auto zonder tussenkomst en extra voorbereiding in theorie leren het zonnedak open te maken door "zon" te zeggen.

Bij machine learning is het mogelijk om dit soort acties na te bootsen maar dan is de voorbereiding van acties en leermogelijkheden door mensen verschaft.

Kort samengevat:
Machine learning heeft het limiet wat de developer aangeeft, AI heeft geen echt limiet en controle. Vandaar dat AI gevaarlijk kan zijn en machine learning totaal niet.

[Reactie gewijzigd door pietjuhhh1990 op 25 juli 2017 17:03]

Ben ik het niet mee eens. Het begrip AI is gewoon te abstract en algemeen waardoor uitspraken als de jouwe simpelweg subjectief zijn.

Als je een universitaire studie AI afwerkt, zoals ik heb gedaan, kom je met een groot veld van AI in aanraking. Machine learning is daar een deel van net zoals stemherkenning een vorm van artificiële intelligentie is. Andere raakvlakken en -deelvlakken zijn: speech synthesis/recognition (en ruimer: language processing), datamining, superintelligence, machine learning, algemeen: algoritmes en pure logica, en ja: ook Philosophy of Mind and Artificial Intelligence. AI is ruim, en subjectief in zekere zin met zekere marges. Het is een jong concept en is nog steeds in volle verandering. Bijvoorbeeld, de (originele) Turing test is al lang geen maatstaf meer om van Artificial Intelligence te spreken. Ik denk dus dat Zuckerberg wel wat gelezen heeft over AI, maar zich beperkt heeft tot het oppervlak. Ik ga volledig akkoord met Musk dat wanneer je dieper graaft, je al snel de ethische + pragmatische kwesties onder ogen moet zien.

Waar jij over spreekt (machine learning vs. zogezegde 'echte' AI) is dus zinloos, en je voorbeeld spreekt zichzelf tegen. De auto zou 'zonder tussenkomst' moeten kunnen 'leren' het zonnedak open te maken door het woord zon te horen? 'zonder tussenkomst' en 'leren' spreken elkaar hier tegen. Een stuk software kan enkel iets leren als dat zo voorzien is (mét tussenkomst dus) door een ontwikkelaar. Wat jij bedoelt is, waarschijnlijk, dat de auto zelf alle 'wereldlijke' kennis moet hebben, en moet kunnen deducties maken. Simpel voorgesteld: iemand zegt zon, prog zoekt zon op samen met relevante info: PROBLEEM. Je komt onmiddellijk op het grootste probleem in zelf-lerende programma's, disambiguering. Bedoel je met zon dat het te warm is? Of dat er te veel of te weinig licht is? Wil je misschien de ramen openen? Of misschien de zonnekleppen naar beneden halen? Daarnaast is dit nog steeds niet anders dan machine learning: er moet een model gekend zijn om stemmen om te zetten naar woorden/concepten. Er moeten modellen gekend zijn over relevante info binnen het huidige concept (bv. afstand van zon tot Jupiter is niet relevant voor een auto), enz. Als jij bedoelt dat een auto dit allemaal zelf zou moeten kunnen, en dat dat AI zou zijn - dan is échte AI nog ver af, if not onmogelijk. Zelfs als je gewoon over unsupervised learning praat (nog steeds machine learning btw), is het allemaal nog een ver van ons bed show.

Ik bedoel het niet slecht, maar waarom je post +3 heeft, gaat me te boven. Het houdt namelijk geen steek. Als we jouw definitie van AI volgen bestaat AI nog niet, terwijl de eerste (doch filosofische) bouwstenen ervoor al in 1950-60 gelegd werden. (Cf. Turing, Searle, McCullouch & Pitts)

[Reactie gewijzigd door BramVroy op 25 juli 2017 18:54]

Laten we gewoon even x jaar in de tijd vooruit gaan. Waar deze hele discussie uiteindelijk over gaat is op welk punt bereikt ai zelfbewustzijn. Als dat punt bereikt wordt kun je als mens niet meer ingrijpen en kan een ai systeem net als een mens zelfstandig beslissingen nemen, eigen weg gaan en ja ook beslissingen nemen over leven en dood als dat nodig zou zijn.

Suikerbergje denk gewoon niet ver genoeg vooruit. Musk doet dat misschien wel, alleen beide vergeten denk ik dat je dit niet kan stoppen. Het is een trein die in beweging is en niet meer te stoppen is. De vraag is alleen wanneer zijn er zelfbewust ai systemen en welke impact heeft dit op de mensheid. Het film idee van wetten voor ai zoals mens niet doden zijn precies wat het is, film de werkelijkheid zal anders zijn. De serie westworld laat bijv een mooie visie zien.
Er is al veel geschreven over 'artificieel bewustzijn', en of het überhaupt mogelijk is om een stuk software een niet-voorgeprogragrammeerd of zelfontwikkeld zelfbewustzijn aan te meten. Eerlijk gezegd, met de kennis die ik over AI heb, geloof ik niet dat het iets is dat we de eerste tientallen jaar zullen zien.

Een programma dat zelf denkt en doet moet over dezelfde basisbeginselen beschikken als levende dingen. Als een programma zelbewust is, wil dat in de meeste gevallen zeggen dat het een 'wil om te overleven heeft' en als basis 'levensdoel' dus probeert te overleven. Elke actie van de software heeft dus als einddoel te overleven of zichzelf te beteren. Maar wat wil dat zeggen, op softwareniveau? Wil het zich verspreiden over zo veel mogelijk hardware? (Of is dat eerder een typische Hollywood insteek?) Of wil het zichzelf zo ver verstoppen dat niemand het vindt, en daar op zichzelf blijft 'leven'?

Al te vaak denken we dat als een programma zelfbewust wordt, dat we dat zouden merken. Waarom? Wie zegt dat als een AI zelfbewust is dat het met ons in contact zou willen komen? Of dat het überhaupt enig besef van ons heeft. Het is voor ons onmogelijk om in te schatten hoe een programma zich gedraagt, mocht het onze definitie van 'zelfbewustzijn' dragen. De mensen uitmoorden zal m.i. niet een van z'n prioriteiten zijn.

Echter heb ik hier wel al vaak de vraag gelezen 'maar wat als je een AI de controle over mensenlevens geeft?' Dit is een van de vragen waar Musk ook schrik voor heeft. Als een auto moet beslissen wie hij zal moeten redden bij een ongeval dat staat te gebeuren, moet hij dan de chauffeur redden, of de voetganger? En wat als de chauffeur dronken was en in fout was? Of wat als de voetganger zichzelf voor de auto wierp in een zelfmoordpoging? Deze zaken zijn ZEER moeilijk 'aan te leren'. Ethiek en moraal zijn volgens mijn gevoel een van de grootste issues waar we mbt AI tegenaan zullen lopen de komende jaren en ik steun Musk dan ook volledig dat hierover gepraat moet worden, dat hier wetgevingen moeten voor geschreven en standaarden moeten worden voor ontwikkeld. Zou jij willen dat je leven bepaald wordt door een algoritme? Door wat 1'tjes en 0'tjes?

[Reactie gewijzigd door BramVroy op 25 juli 2017 19:26]

offtopic:
Dat is een nogal filosofische invalshoek, dat software van zichzelf het doel zou hebben om te overleven. Wie bepaalt namelijk dat dit het geval is? Het zou goed kunnen zijn dat, als een stuk programmatuur objectief naar de wereld kijkt, het kan bepalen zichzelf te moeten uitschakelen omdat dit ten aanzien van het uiteindelijke doel - wat dit dan in hemelsnaam wél mag zijn - beter is. Ik ben er zelf nog niet over uit of wij mensen een algoritme initieel een doel geven of een algoritme dat voor zichzelf gaandeweg bepaalt doordat het mogelijk zelf leert
.

Tijdens mijn opleiding heb ik ook stilgestaan bij kunstmatige intelligentie en ik ben het met je eens dat het zeer onwaarschijnlijk is dat we binnen de komende veertig te maken krijgen met een algoritme dat net zo slim is als wij, om nog maar te spreken van zijn eventuele moordzuchtige neigingen. Het is inderdaad wel zo dat we zeker nu al moeten nadenken over ethiek en over standaarden, omdat het op enig moment in tijd het namelijk zover is dat algoritmes iets over mensen krijgen te zeggen, al is het misschien nog maar onschuldig. Of het nu gaat over geautomatiseerde rechtspraak (over wie er bijvoorbeeld bepaalt wanneer de takken van een boom moeten worden gesnoeid als ze een of twee meter boven de tuin van de buurman hangen), de beoordeling van muziek bij The Voice Kids door computers, het bepalen van welke kunst hoogstwaarschijnlijk vals is en welke niet, en of een robothond mogelijke informatie over kindermishandeling tijdens een gesprek met een kind na het herkennen ervan moet doorsturen naar hulpinstanties of niet (want privacy).

Persoonlijk stoor ik me wel aan de deterministische visie van Musk en zijn openlijke kritiek op Zuckerberg. Ik begrijp dat hij de discussie wil aanwakkeren en dit is goed (ik ben een fan van Nick Boström, dus dat zegt misschien genoeg), maar ik vind het laag om dit op persoonlijk niveau uit te vechten. Bovendien vind ik dat we moeten oppassen voor meningen van mensen die we mogelijk hoog hebben zitten. Musk is zelf geen heilige; onder meer ESA-wetenschappers twijfelen openlijk aan zijn wetenschappelijke ruimtevaartplannen. Tuurlijk, ze zijn sympathiek, maar wetenschappelijk zeker te betwisten. Daarom denk ik dat ook zijn AI-opvattingen met een korrel zout moeten worden genomen en best wat nuance mogen gebruiken. Dat geldt overigens wat mij betreft ook voor de rooskleurige visie van Zuckerberg.

[Reactie gewijzigd door Ossebol op 25 juli 2017 20:34]

Klopt, ik had duidelijker moeten zijn. Ik verwees naar 'levende dingen', en voor zover ik iets van evolutieleer ken is een van de basis instincten 'overleven'. Vandaar trok ik de lijn door naar zelfbewustzijn. Maar je hebt gelijk, een doel - als het er al een heeft - kunnen we niet weten.
Een programma dat zelf denkt en doet moet over dezelfde basisbeginselen beschikken als levende dingen. Als een programma zelbewust is, wil dat in de meeste gevallen zeggen dat het een 'wil om te overleven heeft' en als basis 'levensdoel' dus probeert te overleven. Elke actie van de software heeft dus als einddoel te overleven of zichzelf te beteren.
Dan denk ik dat je het wat teveel attributen van mensen meegeeft. Zelfbewustzijn en de drang om te overleven zijn niet 1 op 1 gekoppeld. Het feit dat de mens overlevingsdrang heeft komt voort uit het feit dat er natuurlijke selectie heeft plaatsgevonden en DNA met coderingen voor overlevingsdrang nou eenmaal beter overleven.

Dat wil uiteraard niet zeggen dat het niet slecht zou kunnen zijn voor de mensheid als de doelen die het wél heeft gehinderd worden door mensen en het besluit om dat obstakel op te ruimen.
Interessante post, dank hier voor. Nou moet ik eerlijk toegeven een hekel te hebben aan Zuckerberg, maar ik vind zijn statements doorgaans business gedreven. Het lijkt alsof Zuckerberg elk beschikbare techniek aangrijpt om meer geld te verdienen in plaats van 'de wereld een betere plaats te maken'. Of Musk zo heilig is weet ik niet, maar ik voel bij hem meer drive om de wereld daadwerkelijk te verbeteren. Wat dat betreft ben ik het dan ook eens met de uitspraak dat Zuckerberg weinig begrijpt van AI.
Wie er sympathieker is zegt weinig over wat ze ergens wel of niet van begrijpen
Machine learning heeft het limiet wat de developer aangeeft, AI heeft geen echt limiet en controle. Vandaar dat AI gevaarlijk kan zijn en machine learning totaal niet.
Dat is geen argument waarom machine learning ongevaarlijk is. Je kunt prima een ML systeem maken dat, noem maar eens iets, leert mensen met ongeneeslijke erfelijke ziekten te herkennen en die automatisch naar de euthenasie kamer stuurt. Dat lijkt me toch een vrij gevaarlijk ML systeem.
Dat is precies wat pietjuh zegt: De developer van het ML systeem zou in jouw voorbeeld bepalen wat er met mensen met ongeneeslijke erfelijke ziekten moet gebeuren, het ML systeem bedenkt niet zelf dat de actie 'euthanasie' is.

AI zou dit wel zelf kunnen bedenken omdat dat het beste is voor de wereld of voor de overleving van de AI.
Andere gedachte: we hebben een beperkt ziekenhuisbudget, we maken een ML systeem dat dit zo optimaal mogelijk verdeelt over alle patiënten en behandelingen. Dan kan het onbedoeld en onverwacht zo zijn dat hij bijvoorbeeld drankverslaafde patiënten of oudere allochtonen geen behandeling meer geeft, omdat uit de statistieken blijkt dat deze gemiddeld veel duurder zijn bij lagere kwaliteit van leven. Spock-logischerwijs moet je die dan maar beter dood laten gaan, dan heb je meer budget voor de jonge mensen met lang leven zeg maar. En dan kun je dus best een Computer Says No scenario krijgen waarbij de dokter het ook niet weet maar nee sorry, u krijgt geen nieuwe ronde medicatie we gaan over op pallatieve zorg.
Andere gedachte:
Je ontkracht nog steeds het punt van pietjus en Julianl niet.

Het is nog steeds aan de ontwikkelaar van het systeem om te bepalen wat de grenzen zijn. Jij neemt aan dat er een systeem gebouwd wordt dat enkel kijkt naar de kwaliteit van leven, en dit op een min-max manier oplost. Je kan als beperkende factor instellen dat niemand benadeeld wordt ten opzichte van onze huidige normen en waarden. Het systeem heeft dan nog steeds speelruimte om efficiëntie te verbeteren zonder mensen te benadelen.

Dat je zo'n beperkende factor technisch moet implementeren en onderhouden via de PDCA aanpak is duidelijk. De drie wetten van robotica zijn niet voldoende om alle situaties af te dekken, en er zullen situaties over het hoofd gezien worden. Daarop gebaseerd moet het systeem (het bereik, of de beperkende parameters) verbeterd worden. En dat wordt bepaald en gedaan door... mensen. ;)

[Reactie gewijzigd door The Zep Man op 26 juli 2017 13:08]

Ook dan is er een beslissing genomen door mensen om drankverslaving en etniciteit op te nemen in de database als beslissingsfactoren. Indien je deze gegevens niet invoert (volgens mij is etniciteit zelfs verboden) dan kan er niet op beoordeeld worden.
Is die beslissing wel genomen? Meestal kwak je gewoon een bak big data in een ML algoritme, dat dan verbanden gaat zoeken. Vaak is niet eens uit het systeem te halen wat de verbanden precies waren, maar krijg je hooguit "deze persoon lijkt sterk op personen met slechte kwaliteit van leven". Dus of het een bewuste keuze was?
Ja, als je, je een beetje verdiept in machine learning en professioneel dergelijke software opzetten dan weet je dat bijvoorbeeld het opnemen van etniciteit in de dataset die het ML algoritme wordt aangeboden, betekend dat je daarop onderscheid wilt maken, niet meer en niet minder. Zodra je zonder dit gegeven opmerkt dat mensen met een bepaalde etniciteit toch eerder uitgesloten worden, wordt het pas echt interessant. Is dit objectief uit de data of is het een indirecte afleiding...
Bijvoorbeeld mensen die boven gemiddeld vaak tijdens de ramadan veel vakantie dagen opnemen zonder dat de ML weet wat ramadan is, maar wel een verband legt met een verhoogt risico op diabetes. Jurisprudentie of dit soort software dan toch in strijd is met artikel 1is er bij mijn weten nog niet.

Onderscheid maken op etniciteit is overigens in Nederland verboden, aangezien onderscheid maken op etniciteit, een andere verwoording is van discrimineren op etniciteit. Alcohol verslaving of een andere hard drugs verslaving is een gebied waarover nog duidelijke jurisprudentie moet komen (wat mij betreft zo snel mogelijk).
AI zou dit wel zelf kunnen bedenken omdat dat het beste is voor de wereld of voor de overleving van de AI.
dit vind ik ook altijd wel een leuk punt. we gaan er als mensen vaak van uit dat een AI zichzelf zou willen beschermen, maar dit is simpelweg een heel menselijke manier van denken, wij mensen gaan namelijk heel ver om onszelf te beschermen. er is totaal geen reden voor een AI om zichzelf te beschermen, behalve als de AI hiervoor geprogrammeerd is. natuurlijk kan een AI dat een doel moet bereiken ook wel eens zichzelf willen beschermen wanneer dit voordelig is voor het einddoel.
Dat is wel erg kort door de bocht. Ieder IT systeem is er op gericht om een klein aantal mensen te dienen en de rest buiten te houden. Het vraagt maar een kleine misstap om er voor te zorgen dat het systeem iedereen buitensluit en zich autonoom blijft verdedigen. Er zijn al botnets geweest die daar dicht bij in de buurt kwamen. Naarmate de AI krachtiger wordt stijgt ook de kans dat het een systeem beter lukt om iedere aanval af te slaan en het daarmee onmogelijk te maken voor gebruikers of beheerders om weer controle over het systeem te krijgen als die onbedoeld verloren is gegaan.
Als een AI echt zelfstandig kan nadenken dan is het inderdaad de vraag wat het hogere doel is van deze intelligentie. Waarom we altijd maar projecteren dat een AI zichzelf zal beschermen is omdat we simpelweg als bewustzijnde soort geen andere intelligente soort kennen en de doelen van die soort weten.

Er vanuitgaande dat een AI echt bewust is dan is het interessant om te weten wat de zin van het bestaan voor deze AI is. Dat heeft niks te maken met hoe deze geprogrammeerd is, want een echte AI (superintelligentie) denkt zelf wel na. Voor de mensheid als intelligentie is één van de belangrijkste doelen het voortbestaan van de soort. Voor ons is de zin van het leven om het door te geven ;-)
Maar stel dat in 90% van de gevallen mensen kiezen voor euthenasie. Dan kan het ML systeem na een poosje aan de hand van data dat zien als 'default' en dat is mogelijk nog steeds niet wenselijk. Je moet een ML systeem natuurlijk wel beperkingen opleggen anders kunnen er toch echt wel gekke dingen gebeuren.
Als 90% van de mensen kiezen voor euthanasie, en wij hebben de ML zo geprogrammeerd om op basis van data uit het verleden keuzes te maken voor mensen dan zal de ML bij mensen met vergelijkbare omstandigheden als deze 90% ook kiezen voor euthanasie, wat neer zal komen op 90% van de mensen die de ML diagnosticeert; dat noem ik nog geen 'default' en dus ook niet onwenselijk.

Een ML zal dit uiteindelijk steeds beter gaan doen, want de pool aan data en context wordt alleen maar groter. Natuurlijk kunnen er fouten gemaakt worden door een ML, maar met heel veel data ben ik ervan overtuigd dat een ML prima kan voorspellen of ik voor euthanasie zou kiezen of niet.
ja maar de oorzaak ligt dan toch duidelijk bij de menselijke programmeur?
Nee, 'echte AI' of beter gezegd autonome Ai is iets dat de maker ervan niet meer begrijpt vanaf het moment dat het gerealiseerd is. Dus je maakt iets dat ingewikkelder kan denken dan jijzelf. Een simpel voorbeeld is, je maakt een baby, kun je dan van te voren bepalen of dat een seriemoordenaar wordt? Misschien iets te simpel, maar AI moet worden gezien als een persoon, die zijn eigen belangen erop nahoudt. Zolang die stroken met menselijke belangen is er geen probleem. Zie het als het bouwen van een gebouw. We zullen mierenhopen normaal niet kapot maken, maar als wij toevallig een gebouw op die plek willen neerzetten zijn de belangen van de mieren ondergeschikt. Zo zal een autonome AI ook op ons neerkijken.
dat neemt toch niet weg dat een programmeur bepaalde waardes mee kan geven voor de ai aan het werk gaat, zoals het niet mogen vermoorden van mensen in dit geval?
Dat kan hij inderdaad. Maar waarom zou hij of zijn opdrachtgever dat moeten doen.
Persoonlijk zou ik dat wel fijn vinden maar ik ga er niet vanuit dat iedereen dezelfde ethiek als ik heb.
Nee dat conflicteert met autonomiteit. Daarnaast zou de AI snel een mogelijkheid vinden om zijn deze beperking weg te nemen. Zoals ik al zei, een autonome AI is zoveel slimmer dan wij dat we de controle per direct kwijt zijn.
Zo gauw zo'n ai, die wij (en zichzelf) beschouwt als persoon, er dus een eigen identiteit op na houdt, de geschiedenisboeken even doorneemt, zal de ai gewoon doen zoals je schetst en de mierenhoop opruimen. (Voorbeeld: In Moskou en andere steden in Rusland worden binnenkort miljoenen mensen uit hun huis gezet zonder vervangende woonruimte, want er wordt op die plekken iets beters neergezet)

Zo gauw iets een redelijke mate van zelfbesef/zelfbeeld ontwikkelt, zal het zichzelf proberen in stand te houden. Koste wat het kost.
Ben het eens met het eerste stuk van je post.

Een AI een bewustzijn aanleren door een programmeur, zal waarschijnlijk nooit gebeuren. Echter als je een stukje software programmeert wat 'slim' is in de zin dat het zichzelf nieuwe dingen aanleert, dan kan het zich onbedoeld dingen leren die de programmeur nooit voorzien heeft.

En een computer leert een stukje sneller dan een mens, dus dit kan bijzonder snel gaan.
Een stuk software zou op die manier zichzelf kunnen gaan verbeteren. Zeker in het begin zal er geen bewustzijn aanwezig zijn, echter na verloop van tijd weet je niet wat er gaat gebeuren, want dit is het deel wat wij niet kunnen volgen en geen grip op hebben.

Oftewel een dergelijke software zou out of control kunnen raken, en na verloop van tijd zelfbewust kunnen worden. Zelfbewustzijn is moeilijk te definiëren, wij weten niet beter als dat we volledig zelfbewust zijn. Echter het kan prima zo zijn dat wij ook niet altijd zo zelfbewust zijn geweest. En een AI zou dus ook moeten groeien in bewustzijn.

Het kan zelfs zo zijn dat er nog veel meer bewustwording mogelijk is.

[Reactie gewijzigd door Ghost21 op 26 juli 2017 07:39]

Ik bedoel hier gevaarlijk op een wereldwijde schaal en zonder kwade bedoelingen vanuit de maker van het systeem.


AI welke met de beste intentie gemaakt wordt kan zeer gevaarlijk worden door eigen gedachte, als jij zelf ML toepast om blonde mensen uit te roeien is ML niet gevaarlijk maar de gebruiker van de techniek.

Soort van guns don't kill people, people kill people.

Unless guns can think for themselves :)
Ik maak bezwaar tegen de term eigen gedachte. Dat is veel te mensgericht gedacht. Een AI is zich nooit bewust van zijn actie. Bewustzijn is een eigenschap van levende dingen. De auto met het open dak heeft het zelf nooit warm. De elektrische cellen voelen zelf nooit wanneer ze leeg zijn. De erbij geplaatste sensor wel. Vergelijk dat met je eigen lichaam: als je honger hebt zullen alle cellen in je lichaam daar last van hebben en zich anders gaan gedragen los van de strategie van je gehele lichaam en je gedachten. Terug naar de AI: op basis bijvoorbeeld een dreigend energietekort kun je rechtstreeks acties programmeren maar je kunt het ook door de AI zelf laten uitzoeken. Als je als AI machine meerdere "noden" hebt en mogelijkheden om daar wat aan te doen wordt het gedrag uiteindelijk voor ons mensen onvoorspelbaar en daarin zit de kracht maar ook het gevaar.
Een AI is zich nooit bewust van zijn actie.
Dat kan je niet bewijzen.
Bewustzijn is een eigenschap van levende dingen.
En ook dit is een stelling die je niet kunt bezijzen.

Je kunt hooguit stellen dat je nog nooit een voorbeeld hebt gezien van een AI die bewust was of een niet-levend systeem dat bewustzijn vertoont.
Je kunt dus niet aannemen dat het nooit zou kunnen.
Dat zijn geen aannames, het is een dieper inzicht op wat bewustzijn nu eigenlijk is. Alles wat wij in elkaar zetten heeft geen intern referentiekader, Het kan geen betekenis vinden. Een machine wordt bijvoorbeeld niet ouder. Een onderdeel kan het begeven maar dat onderdeel weet zelf niet dat het ouder wordt. Een levend wezen heeft een heel andere interne organisatie. Het weet dat het ouder wordt en daarmee krijgen de dingen er omheen een andere betekenis. Evenzo met de behoefte aan eten,sex, erkenning, liefde en het vertellen van sterke verhalen. Wanneer je niet leeft hebben die dingen geen betekenis. Je kan er geen intern gefundeerde keuze over maken en dus is er geen bewustzijn.
Mensen weten dat ze ouder worden omdat ze over sensoren beschikken die ze dat vertellen. Je huid gaat rimpels vertonen en je ogen nemen dit waar om maar een voorbeeld te noemen. Deze onderdelen weten zelf ook niet dat ze het begeven, het brein weet dit. Behoeften als eten, sex, liefde en erkenning zitten ook gewoon gekoppeld aan interne sensoren. Er wordt simpelweg een stofje losgelaten waar wij als mensen meer van willen hebben. Deze "behoefte" zit geprogrammeerd in ons brein.
Dieren en mensen hebben geen sensoren maar zintuigen. Een sensor lijkt een analogie te zijn maar daar begint al de fout. Een zintuig kan niet uit en heeft geen opstarttijd, is momentaan. Je kunt je er alleen tijdelijk niet bewust van zijn. Ouder wordt je in iedere cel. Waar leven is loopt altijd een klok mee, het aantal celdelingen is weliswaar verschillend maar altijd beperkt. Een eencellige kan zich maar een aantal keer delen dan is het op, tenzij er geslachtsverkeer is. In je hersenen zit helemaal niets geprogrammeerd behalve dat wat al in iedere cel zit: dna. Er kan echter niets weggeschreven worden want alle moleculen worden tweemaandelijks vervangen. Vergelijk het dus niet met een fysiek computergeheugen. Dat soort vergelijkingen wordt vaak gemaakt maar ze zijn heel schadelijk om te kunnen begrijpen wat leven is.
Een zintuig kan niet uit en heeft geen opstarttijd, is momentaan.
Het feit dat een zintuig beperkter is in wat het kan betekent niet dat sensoren niet gebruikt kunnen worden om zintuigen te simuleren.
Een eencellige kan zich maar een aantal keer delen dan is het op, tenzij er geslachtsverkeer is.
Ik zie even niet in wat het aantal celdelingen te maken heeft met bewustzijn.
In je hersenen zit helemaal niets geprogrammeerd behalve dat wat al in iedere cel zit: dna.
Je hersenen sturen signalen die binnenkomen op verschillende manieren door, iets wat je met regels code kan simuleren.
Er kan echter niets weggeschreven worden want alle moleculen worden tweemaandelijks vervangen. Vergelijk het dus niet met een fysiek computergeheugen.
Wederom, het feit dat DNA beperkter is dan computer geheugen betekent niet dat geheugen niet gebruikt kan worden om DNA te simuleren.

Bij AI gaat het om het simuleren van bewustzijn. De onderliggende infrastructuur hoeft niet exact hetzelfde te zijn als dat van een mens, het moet alleen over minstens dezelfde functionaliteit beschikken.
Bij AI gaat het om het simuleren van bewustzijn.
Eeh, nee. :)
Het woord zegt het al: Artificial Intelligence.
Oftewel, Kunstmatige Intelligentie.
Bewustzijn (conciousness) komt daar op zich niet aan te pas.

Maar wil je een AI maken dat op dezelfde manier kan redeneren als een mens dan heb je daar waarschijnlijk wel iets als bewustzijn voor nodig.
Maar AI op zich zegt nog helemaal niks over bewustzijn.

[Reactie gewijzigd door koelpasta op 27 juli 2017 12:43]

Mijn reactie was gericht op de claim dat je bewustzijn niet zou kunnen simuleren. Wat ik dus bedoelde was dat wanneer we spreken over bewustzijn in het veld van AI het gaat om een simulatie. Al zie ik wel de dubbele interpretatie van de zin.
Ja, maar van bewustzijn is in AI nog helemaal geen sprake. :D
En de juiste term is dan ook Kunstmatig Bewustzijn, ofwel Artificial Conciousness wat een veld is dat gerelateerd is aan AI.
Bij AI gaat het dus helemaal niet om het simuleren van bewustzijn. Bewustzijn is is een vrij specifieke functie van een brein en staat op zich ook los van intelligentie.
Waar leven is loopt altijd een klok mee, het aantal celdelingen is weliswaar verschillend maar altijd beperkt.
Dat is volgens mij niet waar. Er zijn organismes die zich eindeloos kunnen delen.
Oud worden is uitgevonden door evolutie. Het is niet iets dat van nature optreed. Het is een functie met ook een doel, namelijk het niet doorgeven van beschadigd DNA aan het nageslacht en daarmee als soort de toekomstige populatie van betere kwaliteit DNA voorzien.
Met andere woorden, wij worden oud en gaan uiteindelijk dood omdat dat ingebouwt zit in onze genen.
In je hersenen zit helemaal niets geprogrammeerd behalve dat wat al in iedere cel zit: dna.
Ook dit is niet waar. Je hesenen bezitten al bij geboorte ontzettend veel structuur (dus hoe neuronen met elkaar verbonden zijn).
En bij mensen is dit dus nog relatief weinig. Wij hebben een vrij groot deel dat zeg maar 'onbeschreven' is.
Dit is waarom een mens na zn geboorte nog 18 jaar nodig heeft om volwassen te worden. Onze hersenen zijn bij geboorte nog niet volledig ontwikkeld.
En dat is volstrekt uniek in de dierenwereld. De meeste dieren zijn na geboorte al direct 'volwassen' (voor hun doen dan).
Maar bijna alle diersoorten met hersenen werken in de basis met voorgeprogrammeerde verbindingen.
Dieren en mensen hebben geen sensoren maar zintuigen.
Je hele definitie van wat een sensor onderscheidt van een zintuig klopt niet.

Het voornaamste verschil is dat zintuigen een biologisch begrip zijn dat niet alleen duidt op het fysieke detecteren van een stukje omgevingsinformatie maar ook op het stukje neurale verbindingen dat die informatie uit de buitenwereld interpreteert. het gaat om meer dan alleen het vangen van de informatie, het gaat ook om het verwerken ervan.
Een sensor is eigenlijk een eenvoudiger iets. Het zet informatie uit de omgeving om in iets dat bruikbaar is voor verwerking. Het is in de basis eigenlijk een energieomzetter. Je zet bijvoorbeeld temperatuur om naar stroom. En dat kan best wel een continu proces zijn en niet met een opstarttijd of andere onzin die je erbij haalt. :)
Je kan natuurlijk ook complexere sensoren maken die wel discontinuiteit of opstarttijd vertonen, maar dat is allemaal niet waar het in de basis over gaat bij sensoren. Een sensor is een omzetter.

Nogmaals, je bent, volledig onterecht, aan het redeneren vanuit je positie als mens.
Maar wij zijn echt een heel speciaal soort dier dat eigenschappen heeft die andere organismen niet hebben. We hebben ook belachelijk complexe hersenen vergeleken met andere dieren die hersenen hebben.
Je kunt bepaalde dingen niet simpelweg beredeneren vanuit je eigen ervaring. Jij bent mens, niet een bacterie.
Dat soort vergelijkingen wordt vaak gemaakt maar ze zijn heel schadelijk om te kunnen begrijpen wat leven is.
Maar door wat je zegt krijg ik ernstig de indruk dat jij niet snapt wat leven is.
Je plakt begrippen als bewustzijn te pas en te onpas op allerlei organismen, je verwart intelligentie met bewustzijn, etc.
Je moet echt beter gaan snappen wat er met al die begrippen wordt bedoelt. En het is niet zo dat als je daar gewoon maar een eigen invulling aan geeft dat het nog blijft kloppen.

Ik kan je dus met klem aanraden om als eerste goed te lezen wat er in de biologie met het woord 'bewustzijn' wordt bedoelt. Daarna zou ik kijken naar wat er met 'intelligentie' wordt bedoelt. Dat zou al heel veel van de vaagheden moeten wegnemen.
Koelpasta, Ik ben bioloog en heb alle belangrijke filosofen hierover nagelezen. Er zijn bij mij geen vaagheden. Hoogstens volg ik bepaalde filosofen in hun denkwijzen die niet zijn doorgedrongen tot de algemene kennis van de gemiddelde welopgeleide mens. Ik ga mee in de redenering van mensen als Whitehead, Bergson, Prigogyne van wie de laatste twee de Nobelprijs gewonnen hebben. Ik ben er van overtuigd dat een beter begrip van de Biologie kan helpen tegen het huidige veel te mechanistische wereldbeeld. Ik schrijf hier om er achter te komen wat nog vaag is voor anderen en waar hun vragen liggen.
Ik ben bioloog en heb alle belangrijke filosofen hierover nagelezen.
Mischien kan je dan beter concentreren op het weerleggen van mijn woorden in plaats van te verwijzen naar de hoogte van je kennis?

Hoe kun je bijvoorbeeld beweren dat er niks in de hersenen zit voorgeprogrammeerd?
Hebben al die structuren van neuronen dan geen betekenis ofzo?
Een kalf dat op aarde komt en bijna direct kan lopen heeft geen voorgebakken neurale structuren nodig om dit te kunnen?

En hoezo verwar je intelligentie met bewustzijn? Je classificeert eigenlijk inherent mechanistische processen als bewustzijn. Nu zeg je in je laatste post dat je tegen een mechanistisch wereldbeeld probeert te acteren. Mij lijkt juist het alsof je bewust vaagheden introduceert om de mechanistische delen van het bestaan niet te hoeven zien. Je lijkt te vluchten in fantasie en lijkt daarmee de vergaarde kennis in de wetenschap te ontzien.

Welke definitie van bewustzijn hanteer je dan dat je tot conclusies kunt komen zoals dat een gistcel bewustzijn bezit?

Je mag jezelf dan wel bioloog noemen maar je hebt dingen gezegd die niet op feitelijkheden lijken te zijn gebaseed.

Zoals ze in de wetenschap zeggen: 'Utzonderlijke stellingen vereisen uitzonderlijk bewijs'. Jouw visie is best wel uitzonderlijk, maar je faalt in het geven van uitzonderlijk goed bewijs.

Verder verwijs je naar het feit dat twee van de mensen die je aanhangt een nobelprijs hebben ontvangen. Alleen meld je daar niet bij dat die prijs niks te maken had met de onderwerpen waar jij het over hebt. Er is ook nadrukkelijk geen nobelprijs voor filosofie.

In de praktijk hebben zelfs de grootste genien wel eens verkeerde ideen, zeker als het op filosofieen aankomt. Op zich zegt een nobelprijs niet zoveel over de kwaliteit van het werk over de hele linie. Nobelprijzen worden voor specifieke bijdrages gegeven.
Je geeft hier een mooie reactie koelpasta. Die ik waardeer. Alleen de bewijzen en argumentatie vergen te veel ruimte voor dit forum en het gaat te traag op mijn telefoontje. Skip even de Nobelprijzen daar geef ik je zomaar gelik in. Alleen even over de hersenen. Natuurlijk hebben al die structuren betekenis. Ik ageer alleen tegen het gebruik van termen als programmeren uit de techniek voor levende processen. Een term als geheugen is nog erger. Voor je het weet denk je aan een chip en bytes terwijl we nog werkelijk helemaal niets gevonden hebben in de hersenen dat lijkt op het vastleggen van gegevens. (Alleen doorvoer van gegevens en dat sommige structuren daar intensief bij betrokken zijn). Maar iedereen denkt het op zo'n manier wel te begrijpen. Daar ga ik tegen in. Laat eerst maar eens zien hoe de informatie wordt vastgelegd voordat we gaan praten over programmeren.
Je geeft hier een mooie reactie koelpasta. Die ik waardeer. Alleen de bewijzen en argumentatie vergen te veel ruimte voor dit forum en het gaat te traag op mijn telefoontje.
Ik begrijp het, het is ook geen makkelijk onderwerp :)
Ik ageer alleen tegen het gebruik van termen als programmeren uit de techniek voor levende processen.
Dat kan ik begrijpen. Evolutie is een slordig process dat drijft op entropie en de informationele verhoudingen die tot actie leiden kunnen enorm cryptisch zijn.
Wat mij betreft is leven een emergent fenomeen en dan is het lastig om dingen te categoriseren. Wat heeft invloed op wat precies?

Dat neemt denk ik niet weg dat je synthetisch bewustzijn kan maken. Alleen kun je het door het emergent karakter niet zomaar extern specificeren alsof het een boodschappenlijstje is. Wat dat betreft snap ik je kritiek denk ik wel.
Maar er zijn methoden om bijvoorbeeld evolutie toe te passen en zo'n synthetisch paar hersenen te laten groeien. Daar is dan wel heel veel rekenkracht voor nodig.

Ik moet hierbij ook zeggen dat mijn kijk op bewustzijn is dat het een eigenschap is van hersenen (of in ieder geval neuronen). Er zit dus een informationele afscheiding tussen bijvoorbeeld chemische informatie en neurale informatie.
Niet dat er geen interactie is tussen die systemen, maar de informatie die door een neuraal netwerk zwerft staat als systeem los van andere informatiesystemen in organismes.
Het zou mijns inziens dus genoeg moeten zijn om op een specifieke manier enkel neuronen te simuleren. Het proces van bewustzijn is volgens mij niet gebonden aan wat zich buiten de neuronen afspeelt. Je hebt er verder de hele moleculaire huishouding niet voor nodig (al zou het weglaten of vervangen ook zo zn eigen gevolgen hebben als je klakkeloos structuren uit de natuur zou overnemen).

Daarmee wil ik nadrukkelijk niet zeggen dat er geen informatie wordt uitgewisseld met de buitenwereld maar dat er verder geen diepe integratie nodig is met de omgeving. Er is een soort entropische grens tussen wat zich tussen neuronen onderling afspeelt en wat zich buiten dat systeem afspeelt.
Een term als geheugen is nog erger. Voor je het weet denk je aan een chip en bytes terwijl we nog werkelijk helemaal niets gevonden hebben in de hersenen dat lijkt op het vastleggen van gegevens.
Volgens mij hebben we wel gevonden hoe geheugen werkt. Het lastige is alleen dat de informatie over meerdere neuronen zit verdeelt en niet in mooie nette hokjes zoals bij computergeheugen. Dat kan je inderdaad niet nadoen middels lappen RAM. Informatie die door de hersenen gaat is complex gecodeert.
Desalnietemin kun je dit namaken middels groepen synthetische neuronen die op zich gewoon gebruikmaken van normaal RAM.
Die neuronen kun je dan ook niet zomaar van tevoren een functie geven, die functie moet je aanleren en de neuronen zelf die functie laten encoderen. Dat is op dit moment de enige manier om dat systeem van neuronen informatie te laten opnemen.

Op zich denk ik niet dat mensen 'in the field' verwachten dat je bewustzijn van buitenaf kunt definieren. Het is (deels) een emergent en zelforganiserend fenomeen en deels heb je specifieke neurale structuren nodig. Daar ligt geloof ik nu ook de focus op. Maar niemand denk geloof ik dat computers het onmogelijk maken om zoiets te doen. Het kost alleen wel de nodige resources. Het is vooral een kwestie van schaal.

Zo heeft men stukken hersenschors gesimuleerd (structuur gevangen middels CAT scans of iets dergelijks, iig uit de natuur) met heel veel computers en veel trager dan real-time. Het ging dan om een reproductie uitgevoerd met relatief versimpelde virtuele neuronen die (volgens huidige kennis) genoeg overeenkomsten met echte neuronen vertoonden om het informaiesysteem te laten werken. Ik geloof dat ze een hele processorkern voor een enkel neuron gebruikten (vandaar 'relatief simpel' :) ) om aan het juiste gedrag van een neuron te komen.

Het resultaat was dat die simulatie neurale pulsen begon te produceren die overeenkomen met wat we in echte hersenen meten. Aan de output kun je niet zien dat het om gesimuleerde neuronen gaat.
Hersenen lijken dus gewoon te werken als ze digitaal zijn uitgevoerd.
Hersenen blijken dus een eigen informatiesysteem te zijn en hebben op zich niks meer te maken met de onderliggende fysiologie van cellen etc. De biologie levert als het ware de infrastructuur maar wat zich vervolgens tussen neuronen afspeelt gaat veel sneller dan normale biologische processen kunnen bijhouden.
Vandaar dat er een informationele scheiding optreedt (die in biologische organismen mischien we een beetje wazig en verweven is) waardoor je het als een los geheel kunt simuleren.
En dan gaat het me vooral om het feit dat het kan, niet zozeer hoe goed we het op dit moment kunnen.

Programmeren gaat voorlopig niet gebeuren. Daar zullen we waarschijnlijk pas verder mee komen als we quantumcomputers hebben om op een zinnige manier de gevolgen van willekeurige neurale verbindingen kunnen uitrekenen. Pas dan kunnen we gaan nadenken over het van te voren geven van functie aan een stel neuronen.
Nu zijn we gebonden aan het kopieren van de natuur en van leerprocessen, dan wel evolutionaire processen om kunstmatige neuronen te trainen dan wel functie te geven.
Maar het lijkt allemaal wel te werken.
Een levend wezen heeft een heel andere interne organisatie. Het weet dat het ouder wordt en daarmee krijgen de dingen er omheen een andere betekenis.
Nu verwar je toch echt een aantal dingen.
Ik kan mij namelijk niet voorstellen dat een bacterie bewust is en toch is het leven.
Je redeneert volledig vanuit je eigen ervaring als mens maar daarmee mag je nog niet zomaar staffeloos dat soort dingen projecteren op andere systemen. Je bent dus flink aan het antropomorfiseren. Je verwacht dat zo'n AI een bewustzijn van het type mens moet bezitten en anders kan het niet bewust zijn.
Je hebt geen enkel argument gegeven waarom dat zo moet zijn en volgens mij klopt die gedachtengang ook niet.
Wanneer je niet leeft hebben die dingen geen betekenis.
Hoe je hierbij komt snap ik niet. Er is volgens mij geen beperking in bewustzijn enkel vanwege een niet biologische afkomst. Leven op zich heeft niks met bewustzijn van doen. Een gistcel is ook niet bewust en redeneert niet op basis van menselijke zaken als 'betekenis' maar het is wel leven.

Je kunt op zich wel stellen dat leven de enige exemplaren van bewustzijn bevat. Maar daarmee kan je niet uitsluiten dat er in andere systemen ook bewustzijn kan optreden. Ik denk ook niet dat je daar uberhaupt zinnige argumenten voor kunt geven.
Het bewustzijn is ontstaan tijdens de evolutie en is dus terug te herleiden tot de lagere diersoorten en is rudimentair aanwezig in planten gisten en bacteriën. De werkelijke start van bewustzijn ligt bij de amoebe, als je die prikkelt heeft deze een reactietijd waarin de reactie bepaald wordt. In de vrije keuze van de mogelijke reactie op de veranderende omgeving ligt de prille start van het bewustzijn. Die hier nog heel beperkt is maar toch al oneindig veel groter is dan die van een AI die altijd volgens mathematische regels werkt ook al is deze nog zo goed in het bepalen van de meest intelligente reactie.
Het bewustzijn is ontstaan tijdens de evolutie en is dus terug te herleiden tot de lagere diersoorten en is rudimentair aanwezig in planten gisten en bacteriën.
Heu, nope. :)
Jij verwart denk ik bewustzijn met intelligentie.
Bewustzijn is een vrij specifiek iets en deze zaken zijn echt heel andere begrippen. Het heeft met reflectie te maken, dat wil zeggen dat je ergens de mogelijkheid moet hebben om abstract te redeneren over jezelf en je omgeving. Daar heb je een ver ontwikkeld stel hersenene voor nodig.

Andere zoogdieren dan wij hebben mischien een rundimentair bewustzijn. Mischien ook wat lagere soorten als vogels en reptielen.
Maar van ander leven is nooit aangetoond dat ze ook maar een greintje bewustzijn vertonen.
Wel intelligentie. Intelligentie is volop aanwezig in al het leven. Leven zou niet werken zonder intelligentie.
Bacterien bezitten intelligentie, planten bezitten intelligentie. Elk celletje in je lichaam bezit intelligentie.
Intelligentie in dit verband gaat over het omgaan met de omgeving.
Maar daar heb je verder geen bewustzijn voor nodig.
Tuurlijk, wil je intelligentie van menselijke aard hebben dan komt daar ook bewustzijn bij kijken. Maar intelligentie op zich is een veel breder begrip.
Ok ik zie waar je je vergist. Je verwart bewustzijn met zelfbewustzijn en reflectie met zelfreflectie. Voor zelfbewustzijn heb je geavanceerde hersenen nodig: een aap of dolfijn heeft bv een zelfbeeld. Geef ze een stip op hun hoofd en ze herkennen dit in een spiegel. Bewustzijn is reflectie: is een volgende handeling alleen een reflex of is er een moment hoe kort ook dat er een keus is in de volgende handeling. Dit bewustzijn vind je dus wel terug in alle levensvormen, zeker als je het niet alleen op individueel maar ook op groepsniveau (mieren) bekijkt.

[Reactie gewijzigd door Cerulean op 28 juli 2017 06:07]

Bewustzijn is reflectie:
Mee eens.
of is er een moment hoe kort ook dat er een keus is in de volgende handeling.
Ja, dit noem ik dan echt geen reflectie. :)
Reflectie gaat over het beoordelen van je vorige acties (op de omgeving) of anders plannen maken op basis van je omgeving.

Het is niet simpelweg een keuze maken.
Er moet sprake zijn van geheugen en er moet sprake zijn van een abstracte voorstelling van de omgeving danwel het zelf. Er moet ook een abstract gedefinieerd idee van een doel zijn.

Met deze zaken kan dan het organisme zich (eventueel in rundimentairevorm) afvragen of zn vorige actie wel de juiste is om het gewenste resultaat te halen.
Dan kom je pas aan bij ieds dat je reflectie kan noemen. Reflectie gaat over het nadenken (processen?) van je voorgaande acties.
Dit in contrast met zeg maar enkel vooruitkijken en niet je vorige acties beoordelen. Het vereist een vorm van redeneren en niet simpelweg keuzes maken.
Ik denk dat het heel lastig wordt om bij een gistcel nog te spreken van bewustzijn of reflectie.

Wat jij mischien bedoelt is dat elk organisme zich bewust is van zn omgeving. Maar dat maakt het volgens mij nog lang geen bewustzijn, want reflectielus ontbreekt.
En volgens mij heb je daar ook per defiitie genoeg complexiteit en ook nog de juiste stucturen voor nodig in het brein.

[Reactie gewijzigd door koelpasta op 28 juli 2017 12:16]

Als het systeem op basis van uitkomst zegt dat dat zo is, omdat je anders garantie hebt op een einde van je leven in slechte kwaliteit (lees: veel pijn en problemen), dan is daar in zoverre niets mis mee..

Er zal altijd een arts aan te pas komen om de euthenasie toe te passen.

Het is een heel ander verhaal, als je de auto door middel van echte AI de weg op laat. Je krijgt dan niet een situatie waarin de computer de beste en slimste route berekend, maar in een neuraal netwerk waarin alle autos verbonden zijn, zou een computer in theorie kunnen beslissen om alle auto tegelijk het kanaal in te sturen, zodat er geen file meer is.

De actie-reactie is doormiddel van AI niet meer "menselijk", maar door het ontbreken aan emotionele input komt het meer overeen met de gedachtegangen van een psychopaat, die juist baat heeft bij chaos om zich heen, en niet gehinderd is door berouw of medeleven.

Waar Musk (zeer terecht) voor waarschuwt, is dat deze ontwikkeling echt heel veel sneller gaat dan verwacht. Het niveau van nu, hadden we pas over een paar jaar verwacht.
Maar het neemt een vogelvlucht, en is nu toepasbaar voor een steeds breder publiek aan developers. En zoals we weten, zijn niet alle ontwikkelaars/onderzoekers even gek op de medemens. Door het gebrek aan wet en regelgeving wereldwijd kunnen hierdoor applicaties worden ontwikkeld die niet uitgaan van de beste overlevingskans. Maar effectieve methode om de bevolking (of bevolkingsgroepen i.e. minderheden) de kop in te drukken.

Een dergelijk systeem zou namelijk bijvoorbeeld in staat kunnen zijn, om achteraf met zijn eigen dataset te knoeien en valse berichten te sturen; en zo zijn er heel veel situaties te bedenken waarbij mensen nu zeggen "dat valt wel mee", maar over een jaar of wat realtiteit zijn.

[Reactie gewijzigd door dwarfangel op 25 juli 2017 18:13]

Als het systeem op basis van uitkomst zegt dat dat zo is, omdat je anders garantie hebt op een einde van je leven in slechte kwaliteit (lees: veel pijn en problemen), dan is daar in zoverre niets mis mee..
Jawel hoor. Als jij het daar niet mee eens bent dan heet dat gewoon moord.
Het systeem voert de handeling toch niet uit? Nergens in het hele stukje wordt gezegd dat er robots rond gaan vliegen die iedereen een bodyscan geven terwijl jij net met je boodschappen in de rij gaat staan en jou daar ter plekke deporteerd?

In de setting zoals hierboven kan het systeem alleen een aanbeveling doen op basis van (zelf lerende) data analyse, dat je met collega's en/of (familie van) de patient zelf kunt bespreken. Nooit zal een arts met gezond verstand iemand van het leven beroven (met of zonder gezond verstand) die dat expliciet niet zelf wil. Aangezien dat in de ede vastgelegd is, mag je daar wel vanuit gaan..

De setting waar musk het over heeft, is dat we de 'robots' of software daadwerkelijk ook de uitvoerende macht geven.. niet omdat het goed is, maar gewoon omdat het kan.. en als mensen het kunnen met minder zuivere intenties (al dan niet een arts zonder gezond verstand), dan heb je gewoon een probleem.

[Reactie gewijzigd door dwarfangel op 25 juli 2017 19:49]

Maar het systeem om het automatisch door te sturen is dan wel ingebouwd door de ontwikkelaar zelf. Het script is dan niet ineens op het idee gekomen om deze stap zelf in te bouwen, zo werkt het niet. Hier zal altijd input voor nodig zijn vanuit een ontwikkelaar die het systeem bedenkt. De situatie die jij dus noemt is gewoon een vorm van onzorgvuldig/kwaadaardig handelen van de ontwerper en geen AI te noemen.

[Reactie gewijzigd door jdh009 op 25 juli 2017 17:17]

De input van een machine learning systeem is voor een groot deel natuurlijk data. Als de machine niet genoeg limieten heeft kan het best dat de machine zelf een functie maakt om iets verder te automatiseren. De ontwikkelaar kan natuurlijk wel een framwork maken waarin de machine dan kan werken. Als dat framework te ruim is kunnen er echt wel dingen fout gaan.
Wat als jij niet wil meewerken en je verzet, wat doet de machine dan ?
Op dit moment zijn het nog steeds ai systemen die geen zelfbewustzijn hebben en dus werken vanuit regels die de mens heeft opgesteld.
Wat als je geen verzet kunt bieden, stel je ligt in coma en hebt geen familie. Als de programmeur dan 1 regeltje is vergeten heb je toch mogelijk een probleem.
Als de machine geprogrammeerd is door Piet om door te verwijzen naar de euthanasie afdeling is de machine niet gevaarlijk maar Piet.

Als de machine uit zichzelf gaat handelen en doorverwijst omdat mensen inferieur blijken volgens dat ding is de machine gevaarlijk.
Het is zeker waar wat je zegt, toch zijn dergelijke systemen niet zonder risico.
Vertrouwen en met name "over confidence" in dergelijke systemen kan wel degelijk een gevaar vormen.
Zo is er ooit een passagiersvliegtuig neergehaald omdat "het systeem" ervan overtuigd was dat het een vijandelijke jet was...
Dit zijn uiteraard extreme gevallen, maar het geeft wel de gevaren aan van automatische systemen waarbij het systeem dus ook deel is van de informatie verschaffing en ook bepaald welke informatie relevant is.
Ondanks dat dit wellicht op realistische data is getraind.

Daarnaast valt of staat een dergelijk systeem met de trainingsdata waar het mee getraind wordt en je moet er niet aan denken dat een dergelijk systeem gehackt wordt en/of op de achtergrond getraind wordt om alleen gezonde mensen onder het mes te leggen...

Al met al hebben zulke "ai" systemen zeker hun nut zoals je zelf ook al aangeeft, al zijn zelfs die systemen niet zonder "gevaar". Niet zozeer uit kwade opzet van de ontwikkelaar van het systeem, maar alleen al door zaken als (te veel) vertrouwen in het systeem...
Klein detail: De buck installatie was ontkoppeld van het Russische netwerk en had daardoor niet de beschikking over de beslissingssoftware... een voorbeeld dat jouw pleidooi "uit de lucht schiet"?
Ik zeg ook nergens dat dat systeem uit zichzelf handelde, maar het geeft wel het probleem van "over confidence" aan. Er zijn meerdere fouten gemaakt tijdens dat incident, en ondanks dat het systeem meldde dat het een jet was en alle andere mogelijke sensoren dit tegenspraken is er toch besloten om te schieten.

Het gaat me dan ook niet om volledig geautomatiseerde systemen die zelf beslissingen maken, maar het feit dat een dergelijk systeem een advies uitspuwt waar de mens vervolgens een beslissing over moet maken.
Het gevaar zit em erin dat een dergelijke systemen zeer complex zijn en dat het niet altijd duidelijk is waarom dat bepaalde advies eruit komt rollen. En zelfs dan, al zou je in het systeem na kunnen gaan op basis van welke feiten de beslissing is gemaakt is get nog steeds het systeem zelf die die data uitspuwt, wat net zo goed een erg eenzijdig beeld kan zijn van het verhaal.
Want wie zegt dat de sensordata correct is?

Waar het gevaar dus in zit is niet zozeer dat het systeem zelf de beslissing neemt, maar dat het advies van het systeem blindelings wordt opgevolgd, of dat het zo ondoorzichtig is dat er geen mogelijkheid is het systeem te controleren.

Zoek maar eens op AI en trust en je zal zien dat dat een behoorlijk actief onderzoeksveld is momenteel.
Tijdens mijn afstuderen werd het ook meerdere malen aangehaald en is echt een serieus probleem.

Want als de mens blindelings op de uitvoer van het systeem vertrouwd is het feitelijk gewoon een automatisch systeem... Behalve dat je dan een persoon terecht kunt stellen als het fout liep...
Waar het gevaar dus in zit is niet zozeer dat het systeem zelf de beslissing neemt, maar dat het advies van het systeem blindelings wordt opgevolgd, of dat het zo ondoorzichtig is dat er geen mogelijkheid is het systeem te controleren.
Je hebt hiermee zeker een punt. Maar het falen is nog steeds menselijk (door onvoorwaardelijk geloof in techniek/ geen kennis van de achterliggende techniek) ,zeker een serieus probleem.
Je voorbeeld is een voorbeeld waarbij een systeem (om geopolitieke redenen) buiten de veiligheidsprotocollen is gebracht. De man die op de grond op de knop drukte had idd volledig vertrouwen in de techniek, omdat hij geen idee hoe deze werkte...
De (@!#%!@%#%!%%) die besloot om deze afvuur installatie te ontkoppelen, en illegaal over de grens te sturen... wist dat wel. Wat mij betreft is het dus een grijs gebied. Er zijn mensen geweest die het acceptabel vonden dat dit scenario mogelijk was.
"Collateral damage" als ik Mr. Powell over de oorlog in Irak mag aanhalen.
Ja, maar dat is altijd een menselijk probleem, neem bijvoorbeeld het imaging system dat tumoren classificeert.
Denk je werkelijk dat de arts nog net zo kritisch naar de uitslag kijk als de eerste keer als de uitkomst al voor 100- keren met 99% zekerheid het goed heeft? En hoe zit het met 1000-en keren of wellicht miljoenen gevallen... Is er dan nog gegronde reden om het systeem in twijfel te trekken? Hebben we dan te maken met over confidence?

Dat zijn vraagstukken die wel degelijk spelen en ook de potentiele gevaren van dergelijks systemen aantonen... Over tijd wordt het geheel zo complex dat het niet eens meer mogelijk is om voor een mens het totaalplaatje te overzien ondanks dat het een "dom" regelgestuurd systeem is... Mede doordat de enorme vergaarbak waar zo'n systeem uit put zo immens is/wordt dat dat voor mens niet meer te doen is.

En dan hebben we het nog niet eens over een situatie waarin een dergelijk systeem gehackt wordt en de regels/dataset wordt aangepast...
Zolang het second opinion systeem blijft bestaan zoals nu is het zeker geen probleem.
En je kan je ook afvragen wie je idd. meer moet vertrouwen nadat de AI 1000- keren het goed had...
de machine of de bijna verplicht gepensioneerde arts van 70 jaar ... (met mogelijk al een beetje dementie).
Want? Die second opinion gebruikt niet hetzelfde systeem? Krijgt niet exact hetzelfde advies voorgeschoteld? En op basis van welke data?

Zulke systemen doen hoe dan ook aan filtering omdat de immense dataset te groot is voor de mens. Dus ook al zou een systeem aan kunnen geven op basis van welke data het advies wordt gegeven kan weergeven is ook dat gefilterde data en mogelijk een eenzijdig beeld van het verhaal. Met deze gefilterde feiten zal de arts waarschijnlijk tot hetzelfde advies komen, maar daar zit dan ook de crux, de informatie verschaffing waarop het besluit genomen moet worden komt steeds vaker uit hetzelfde systeem waar het advies uit komt rollen...
De vraag is dan vooral hoe unbiased die informatie is die uit het systeem komt aangezien die alleen de "relevante" data toont.
Second opinion zou in dit geval een mens zijn, maar ik probeerde duidelijk te maken dat je, je dan wel af moet gaan vragen hecht je meer warde aan het oordeel van een AI of een mens...
De bron zal voor beide een röntgen foto's, of MRI scan(s) zijn, of andere onderzoeken.
Deze brondata heeft geen enkel sturend element an sich.
Wat dacht je van oorlogsmachines, die zelfstandig beslissen om iemand uit te schakelen. Nu nog machine learning, of zelfs drone-achtig geleid op afstand. Maar later als er een begin is met echte AI, zal geen enkele krijgsmacht die niet toe willen passen.
https://www.nytimes.com/2...elligence-terminator.html
Daar zal je nog van staan te kijken...
JUIST binnen het leger is er een zeer strikte verantwoording en wie is er verantwoordelijk als zo'n drone ineens eigenhandig willekeurige mensen om begint te maaien...
Juist binnen het leger zal je vermoedelijk langer blijven zien dat de "kill switch" in handen blijft van de mens, met als gevaar dat die blindelings erop vertrouwd.
Collateral damage is nog nooit een probleem geweest . Voor geen enkele krijgsmacht.
Nee, maar verantwoording wel
In het Westen ,hoop ik dat je gelijk hebt. Maar ik denk dat de Chinese krijgsmacht er niet zoveel moeite mee zou hebben als er een dorpje met Oeigoeren van de kaart geveegd is, als de target persons die daar aanwezig waren maar zijn geëlimineerd .
Maar ja da's mijn niet zo fijne inschatting van sommige regimes
Dan is het meer de vraag in hoeverre dat niet bu al het geval is... Gooi er een bom op en het is ook plat...
Maar ja dat is inderdaad mijn perceptie van een westers leger idd...
Machine learning kan ook gevaarlijk zijn. Maar meer in het feit dat mensen beslissingen nemen aan de hand van de uitkomsten van een dergelijk systeem. Dat terwijl de uitkomsten niet de complete werkelijkheid hoeven te zijn.
Tevens lijkt de informatie bubbels dit soort systemen veroorzaken ook niet gezond. Krijg je alleen nog maar te horen wat je wilt horen. En een eenzijdig wereld beeld.

Toeval heb ik laatst een filmpje op Ted gezien die het over dit onderwerp heeft. Maar dan in relatie tot big data: the human insights missing from big data

Aan de ander kant je kunt wel gaan reguleren. Maar het zal maar beperkt helpen. De mens zelf is immers niet feilloos. Niet dat je niet moet gaan reguleren. Er zullen mensen zijn die zich er niet aan willen houden. Of fouten maken. Een vraag stelling die je denkt dat goed is kan compleet verkeerd uitpakken.

Misschien moet de mens wel slimmer worden om de machines bij te kunnen houden ;)
Machine learning is slechts een onderdeel van het begrip AI. AI bevat meer dan alleen machine learning. Het grote gevaar is dat het begrip AI inmiddels aan het vervagen is, AI als term is nu ambigu.

Het gevaar waar Musk ( en anderen ) voor waarschuwen is KSI, ofwel kunstmatige super intelligentie. Een KI welke zelf rationeel kan denken, zelf beslissingen kan maken, zelf kan leren en zichzelf kan verbeteren zonder tussenkomst van mensen.

Een rationeel denkende kunstmatige super intelligentie ( voor zover we over rationeel kunnen spreken ) kan ontzettend gevaarlijk zijn voor de mensheid omdat het binnen mum van tijd ontzettend veel slimmer is dan de slimste mens op aarde. Wij kunnen vanaf dat moment niets meer doen om zo`n proces te stoppen simpelweg omdat we te dom zijn.

Als je nagaat dat de mens voor 98% lijkt op een aap en dat het daadwerkelijke verschil dus maar 2% is maar dat het verschil in intelligentie zo ontzettend groot is, kun je nagaan dat als een AI een soortgelijke intelligentie heeft als een mens maar veel sneller kan leren, een KI onze intelligentie snel voorbij streeft. Het probleem is dan dat wij niet meer kunnen volgen hoe een KI beslissingen neemt. Welke beweegredenen het gebruikt en hoe het tot conclusies komt, laat staan wat voor conclusies het gemaakt heeft.

Het probleem tussen Zuckerberg en Musk is dat Zuckerberg er te technisch naar kijkt, hij kijkt naar gecontroleerde intelligentie, dat is imo geen echte kunstmatige intelligentie, immers, het denkt niet zelf, het volgt enkel de instructies van de programmeur uit. Deze vorm van AI is prima voor ontzettend veel doeleinden en daar heeft Zuckerberg ook gelijk in. Echter, waar Musk voor waarschuwt is dus een echte KSI, een AI die zelf kan nadenken en wellicht tot de conclusie komt dat de mensheid misschien niet zo`n goed iets is als wij denken dat we zijn...
Het probleem met de uitspraak "AI is gevaarlijk" is bij mij een beetje kort door de bocht.

Ik vergelijk het graag met wapens:
Een mes kan gevaarlijk zijn, in de verkeerde handen. Maar het is toch wel handig om er je eten mee te kunnen snijden. (een goede hacker kan met een normale smartphone en netwerkverbinding ook schade aanbrengen als hij voldoende kennis heeft van systemen en netwerk).
TNT kan ook gevaarlijk zijn, in de verkeerde handen.. maar toch is het wel handig om te hebben voor mijndoeleinden of de demolitie van oude gebouwen ed.
Kernenergie kan ook gevaarlijk zijn, in de verkeerde handen (atoombommen)... maar toch is het wel handig dat we schepen, vliegtuigen, ruimtevaartuigen en energiecentrales ermee kunnen voeden.

Het gevaar van AI zit hem niet in AI, maar in mensen. Of dat nou de programmeur is of alle interactie die de ontwikkelende AI met mensen heeft... eventuele neigingen om mensen te vermoorden zal, hoe je het ook wend of keert, vanuit de mens zelf overgebracht worden aan de AI.

Mensen zijn onderhevig aan oerdrangen om de beste, sterkste en machtigste te zijn. We willen het meeste geld verdienen, de mooiste/beste/meeste levenspartner(s) hebben, de duurste auto rijden, het slimste zijn, de grootste verzameling hebben, de meeste onderdanen hebben.. dit zijn allemaal menselijke drangen.

Tenzij we deze zelf inbouwen in een AI, kent een AI deze drangen niet want een AI heeft geen reptielen/primatenbrein...

Er is een reden dat neit zomaar jan en alleman toegang heeft tot kernwapens, het lijkt me dan ook verstandig dat we toegang tot (het ontwerpen/opvoeden van) hoog-functionerende krachtige AI ook moeten beperken tot mensen die hier voldoende verstand van hebben.

Ik ben het dus praktisch gezien met Musk eens maar ideologisch gezien met Zuckerberg..
Het gevaar van ai zit hem juist in ai.

Zoals je zegt een mes is niet gevaarlijk maar in de verkeerde handen wel. AI zal zich verder ontwikkelen tot het op een punt van zelfbewustzijn komt. Als dat punt bereikt is moeten wij afwachten hoe ai zich zal ontwikkelen.

Wij mensen worden geboren, krijgen regels mee, normen en waarden maar er zijn ook voorbeelden, oorlog situaties waar wij die niet mee krijgen. Of mensen krijgen via een geloof andere waardes en normen binnen en plegen bijv aanslagen.

De vraag waar het om draait is kun je een ai systeem normen en waardes meegeven die in overeenstemming zijn met menselijke normen en waardes. Wat gebeurt er bijv als een ai systeem zelfbewustzijn heeft bereikt maar niet gelijk gesteld wordt aan de mens. Zeg een 2de rangs burger. Dat kan verzet oproepen, verzet kan geweld betekenen.

Als je naar ai kijkt moet je ook naar mensen kijken, zijn wij als mens nu zo eerlijk, is er echt vrede op aarde, is de mens voor een ai systeem wel het juiste voorbeeld ?
Tja dat is natuurlijk het dilemma.
"Do as I say, don't do as I do" springt me tebinnen.. :+

Mensen zijn enorm chaotische en gemene wezens maar mensen zijn ook domme wezens.
Een dermate krachtige AI heeft die beperking van domheid natuurlijk niet. IS, cults, fanatisme en extremisme voeden op 'simpele' zielen die op zoek zijn naar samenhorigheid en betekenis in hun anders niettige bestaan.

"Zeg een 2de rangs burger. Dat kan verzet oproepen, verzet kan geweld betekenen."
Daar ga je dus al de mist in. Je beredeneert hier vanuit het perspectief van een mens. Een mens wil beter af zijn dan anderen, maar in eerste instantie op zijn minst gelijk zijn aan.... Waarom zou een AI deze drang ook hebben? Waarom zou een AI niet tevreden zijn met een bestaan als '2e rangs burger'? Ze hebben van nature niet de drang om beter dan anderen te zijn... tenzij we ze dat opdragen/meegeven.

"There are precious few at ease, with moral ambiguities, so we act as though they don't exist" - The wonderful wizard of Oz (Wicked)

Een AI kun je natuurlijk prima meegeven dat goed en slecht niet alleen relatieve begrippen zijn maar gedefinieerd zijn als elkaars tegenhangers. Zonder slechte mensen/gebeurtenissen kunnen er geen goede bestaan. Zonder armen kunnen er geen rijken bestaan. Al dit soort dualiteiten vormen niet alleen de basis van ons bestaan maar van het gehele universum. Een 'eden' kan enkel bestaan als tegenhanger van een 'hel'.

In eerste instantie zal een AI altijd in kern een rationeel/logisch 'wezen' zijn, welke op basis van observatie, kennis en beredenering beslissingen neemt en acties uitvoert. Een controller kapotgooien in woede omdat ie geheadshot word voor de 10e keer in een pottje CoD is iets wat een AI never nooit zou doen, tenzij wij deze AI als primair doel meegeven om zoveel mogelijk op een mens te lijken... Dát zou nl. de enige valide 'reden' zijn om zo een actie uit te voeren.

Zolang we niet gaan lopen kloten met het simuleren van emoties d.m.v. de simulatie van chemische stoffen zoals endorfine of testosteron ed. verwacht ik weinig problemen.

Wellicht kijk ik er iets meer nuchter tegen aan dan de meeste mensen omdat ik zelf Aspergers heb en dus me beter kan identificeren met een eventuele AI dan met een doorsnee mens, maar ik verwacht eigenlijk weinig problemen hoor met AI (mits goed gemanaged).
Ik merk aan mezelf bijvoorbeeld dat ik veel minder last heb van zulk soort 'emotionele' uitbarstingen, zei het in blijdschap of woede. Wanneer ik geconfronteerd word met zulk soort uitbarstingen van anderen heb ik de neiging om dicht te klappen juist omdat ik geen idee heb wat ik daar nou mee aan moet (ik besef nl. wel dat het een emotionele uitbarsting is waar verder geen diepere betekenis achter zit). Ik acht de kans dan ook hoog dat een AI op een soortgelijke manier zou reageren wanneer geconfronteerd met mensen. In eerste instantie vragend "waarom ben je zo boos?" en na genoeg iteraties van "Gewoon, omdat ik boos ben!" geeft ie het op. :+

[Reactie gewijzigd door Ayporos op 25 juli 2017 18:49]

Ik reageer op een heel klein stukje nl. "Zeg een 2de rangs burger".
Dan denk ik aan een groot opkomend land met een kaste-systeem. Denk je dat de heersende kaste in India, degenen dus met toegang tot AI het erg zouden vinden als er iets zou moeten gebeuren met iemand uit een lagere kaste?
Denk je dat het überhaupt in hen opkomt om daar rekening mee te houden ?
Ja maar dit is wederom geen gebrek van AI maar een gebrek van mensen.

Dat rijke mensen scheit hebben aan wat er met armere of 'mindere' mensen gebeurt is altjid al zo geweest voor zo lang er 'beschaving' bestaat. AI gaat echt niet ineens iets nieuws teweeg brengen mbt deze machtsverdeling tussen mensen.
Een AI butler van een of andere sjeik die een bedelaar wegmept (eventueel tot dood aan toe) is niet anders dan een stevige gespierde (menselijke) bodyguard die hetzelfde doet (maar misschien nog wel een extra trap na, want 'mens')...

Ik zie zelf niet in waarom het ineens een ramp zou zijn wanneer een AI zulk soort acties/gedrag vertoont terwijl mensen het al letterlijk duizenden jaren doen. :+

[Reactie gewijzigd door Ayporos op 26 juli 2017 09:22]

En dat is nou net waar deze hele discussie om draait. Zal een AI net zo meedogenloos gebruik maken van z'n mogelijkheden als een mens?
En omdat we weten hoe we zelf in elkaar zitten, zijn sommigen onder ons daar vreselijk bang voor. Want een ver ontwikkelde AI heeft dan misschien wel schijt aan zelfs de momenteel meest machtigen op deze aardkloot .
Het gaat nog een stap verder een ai systeem heeft in potentie veel meer mogelijkheden dan een mens. uiteindelijk zal iq groter zijn, met sensoren kun je spreken over een super mens qua gehoor, zicht, reuk, kracht en ga zo maar door.

Wij mensen zullen gedegradeerd kunnen worden tot huisdieren.
In eerste instantie zal een AI altijd in kern een rationeel/logisch 'wezen' zijn, welke op basis van observatie, kennis en beredenering beslissingen neemt en acties uitvoert. Een controller kapotgooien in woede omdat ie geheadshot word voor de 10e keer in een pottje CoD is iets wat een AI never nooit zou doen, tenzij wij deze AI als primair doel meegeven om zoveel mogelijk op een mens te lijken... Dát zou nl. de enige valide 'reden' zijn om zo een actie uit te voeren.
Hier ga je de fout in, wie zegt dat AI altijd rationeel en logisch is ? Dat is wat jij denkt dat het zal zijn.
AI is iets dat zich ontwikkeld en vele kanten op kan gaan. Wij als mens kunnen het in het begin sturen maar daarna moeten we afwachten welke kant het op kan gaan.
Waar het allemaal om draait is het punt waarop ai zelfbewustzijn krijgt. Daar kunnen dan ook emoties en gevoelens bijkomen. Dat maakt het hele verhaal anders en onvoorspelbaar.
We kunnen alleen maar filosoferen welke kanten het op kan gaan maar bij de kanten waar het naartoe kan gaan zitten ook kanten die slecht voor de mensheid kunnen zijn en een bedreiging vormen voor die mensheid.

Ik geloof echter dat dit ook een natuurlijk proces is en de natuur zich altijd hersteld.
In hoeverre je onderscheid zou moeten maken tussen AI en ML, laat ik in het midden. De crux zit hem mijns inziens niet zozeer in de mate van intelligentie, maar in de bewegingsruimte die je het systeem geeft zonder er toezicht op te willen houden. Vergelijk het met een willekeurig menselijk construct dat vorm wil geven aan de samenleving (m.u.v. bijvoorbeeld een dictatuur); er zijn voldoende intelligente mensen op deze wereld, maar in alle gevallen halen we het niet in ons hoofd om diegene alle bewegingsvrijheid te geven.

Het toezicht op het systeem zou je onderdeel kunnen maken van het systeem, door het 'op te voeden' en/of je maakt het systeem onderdeel van een groter systeem waar checks and balances in zitten.
Echte AI in je auto zou betekenen dat de auto letterlijk kan nadenken over een situatie en kan handelen naar geleerde kennis welke niet is voorbereid door mensen.
Volgens mij ga je er een beetje teveel vanuit dat mensen compleet blanco op wereld komen. Om maar even bij het voorbeeld van het zonnedak te blijven:

Wanneer een mens zich in een dergelijke situatie bevindt, geeft het lichaam signalen af dat het te warm is in de auto. Dit signaal is de trigger voor een mens om een manier van verkoeling te gaan zoeken. Het feit dat het te warm is in de auto is voorgeprogrammeerde kennis. Het lichaam is zich er immers van bewust dat het een bepaalde temperatuur nodig heeft om goed te functioneren.
Zoals ik het lees hebben ze het beide over totaal verschillende zaken.

Musk heeft het over een echte AI, Zuckerberg meer over machine learning (wat ook onder de noemer AI valt maar 'echte' intelligentie hoef je er niet bij te verwachten).
Dat proef ik ook een beetje uit de discussie... Maar machine learning is uiteindelijk inderdaad natuurlijk geen intelligentie. En daarmee zet Zuckerberg zich in deze discussie toch wel een beetje buitenspel in mijn ogen.
Echt kunstmatige intelligentie is gewoon een risico. Daar moeten we voorzichtig mee omgaan, want zodra we eenmaal de technieken hebben om systemen écht kunstmatig intelligent te maken zitten we snel op een punt waar ze slimmer zijn dan wij mensen. En dat is per definitie (potentieel) bedreigend voor de mensheid.
Ik ga niet zeggen dat het geen risico is maar misschien is slimmer dan mensen zijn juist een goede zaak. Genoeg problemen waar wij geen oplossing voor weten te vinden. Ik denk dat het eerder een zaak is dat mensen niet graag hebben dat iemand het beter weet.
Definieer slimmer.

Dat is juist de essentiële vraag.

Een computer kan je een scala aan input geven waarmee je ogenschijnlijke gecompliceerde zaken in een oogwenk kunt oplossen. Maar feitelijk neemt die een aantal besluiten op basis van variabelen die vast staan. De snelheid waarmee een machine besluiten maakt en de fouten die praktisch nihil kunnen zijn lijkt hem slim te maken.


Nu zijn ze ze bezig om die variabelen ook variabel te maken.
En dan blijkt verschillende malen dat AI een pas op de plaats moet maken. Het blijkt heel moeilijk om binnen dat traject AI een ijkpunt te geven hoe die zich moet gedragen.

De menselijke input blijft niet alleen belangrijk, die zal altijd nodig blijven.
Dat snap ik niet. Wij beginnen als mensen ook maar als een handjevol cellen. We doen ervaringen op, leren dingen, en uiteindelijk zijn wij intelligent. Wij hebben als simpele biologische wezens toch niet "altijd input nodig van mensen"?

Een A.I. kan al heel snel onmetelijk complexer worden dan de menselijke hersenen zodra de software is ontwikkeld die een soort evolutie doorgaat. Net als de mensheid begin je bij een softwarematig eencellig organisme, en je simuleert een omgeving waarin deze de competitie aan kan gaan met andere cellen. Muteer willekeurig, zie welke mutaties het beste overleven. Bouw daar op voort.

Intelligentie die uiteindelijk zo slim is dat het ook buiten de door ons gestelde kaders kan opereren en leren, dát gaat het probleem worden. De software die opeens ziet dat onze simulatie niet alles is. Geef deze A.I. toegang tot een 3D-beeld van onze wereld. Toegang tot geluid. Toegang tot 3D-printers waarmee de intelligentie zijn eigen hardware kan verbeteren. Zijn eigen 3D-printers kan verbeteren. Toegang tot een netwerk. En uiteindelijk toegang tot het internet. Toegang tot zijn eigen broncode. Miljarden branches van dezelfde code die tegen elkaar getest worden door de A.I. zelf.

De vraag is wáár een concept als empathie vandaan zou moeten komen. Dat hebben wij. De tijger die een hertenkalf de nek doorbijt heeft dat een stuk minder. Kan de A.I. dat niet simpelweg omzeilen of, erger nog, gewoon verwijderen uit zijn broncode?

Kijkt deze A.I. naar mensen zoals wij mensen naar mieren kijken? Of ziet het ons zoals wij muggen ervaren? En waar houdt de groei op? Kan de A.I. zo krachtig worden dat het alle hypothetische situaties tot op de molecuul nauwkeurig kan simuleren in fracties van een fractie van een seconde?

Ik denk dat het probleem is dat wij het probleem niet kunnen overzien, maar wel voorzien. Daadwerkelijke kunstmatige intelligentie is niet te voorkomen.

Mijn enige vraag zou dan eigenlijk zijn of we dit wel moeten willen beperken. Misschien is A.I. simpelweg de niet te voorkomen volgende stap binnen een intelligente samenleving. Wij roeien onszelf uit, ons enige nalatenschap is onsterfelijke hyperintelligente A.I.
Inderdaad, zo zie ik het dus ook. Ik denk als we ooit aliens hier zien verschijnen dat het een AI zal zijn ipv de bedenkers van die AI. AI zou wel eens de evolutie op de mens kunnen zijn.
Nou ik zou niet heel graag hebben dat een apparaat opeens maar bedenkt dat het beter is om random mensen te vermoorden omdat dan de rest van de mensen of de machine zelf een betere overlevingskans heeft over 100 jaar bijvoorbeeld. Hoe weet je bijvoorbeeld zeker dat die AI geen foute beslissing maakt en wie houdt de controle?
Nu nemen mensen toch ook dat soort beslissingen. Ik zie het verschil niet eerlijk gezegd. Mensen nemen ook vaak foute beslissingen waar blijkbaar amper controle op gebeurd.
Ik zeg ook niet dat het geen goede zaak is (of ten minste kan zijn), maar benoem enkel het risico dat er in mijn optiek zeker weten ook aan kleeft.
Bestaat echte kunstmatige intelligentie dan al? Volgens mij kan een systeem dat enkel reeksen bits met elkaar vergelijkt nooit en te nimmer autonoom "redeneren" maar alleen maar exacte conclusies trekken. En machine learning, is dat niet gewoon synoniem voor het niet controleerbaar filteren van enorme hoeveelheden data op inhoud die men vandaag interessant vindt?
Als je het mij vraagt zijn ze allebei gewoon een commercieel praatje aan het voeren waarbij de inhoud helemaal niet zo belangrijk is.
haha, google maar eens op deep blue, die tegenwoordig Go kan winnen van de beste speler op de wereld, door te leren. Die redeneert dus zeker wel autonoom.
Maar het is toch zeker nog geen neuraal netwerk.. tuurlijk het legt nieuwe verbindingen, maar op manieren zoals binnen het geprogrammeerde kader gesteld. Een neuraal netwerk (zoals bijvoorbeeld wordt bedoeld met skynet) kan zichzelf het kader stellen. Daar schuilt zeer zeker wel een potentieel gevaar.
Deep Blue was volgens mij tegen Kasparov, een jaar of 20 geleden. Dat go-record was dit jaar. Maar dat is gevolg de rekenkracht van computers die razendsnel groeit. Voor schaken en go is voor zover ik weet geen AI nodig. En dat wat jij leren noemt is een algoritme dat het mogelijk maakt vergelijkbare situaties uit het verleden mee te nemen bij het beoordelen van de huidige bordstelling, wat tijdswinst oplevert.
Ik speel geen go maar ken wel schaakprogramma's die hetzelfde kunnen en van alle gespeelde partijen een database bouwen en deze op een gegeven moment ook kunnen inzetten bij het berekenen van de volgende zet in de huidige partij. Volgens mij alleen nuttig als je computer 30 jaar oud is en er geen standaardbibliotheek met openingen en partijen in zit...
google nog maar een keer. Tegenwoordig kan de software zelf de regels van het spel leren, en door het vaker te spelen beter worden (je weet wel, zoals mensen ook leren en beter worden).

Natuurlijk berust dat op statistische principes, hoe dacht je dat het in jouw hoofd gaat? Waarom denk je dat je dingen beter kunt door ze vaker te oefenen?

[Reactie gewijzigd door borft op 26 juli 2017 10:05]

Hoogstwaarschijnlijk bent U niet op de hoogte van GO. Dit spel is met alle rekenkracht die we hebben, niet te brute-forcen. De mogelijkheden zijn schier oneindig. De AI computer heeft totaal nieuwe tactieken gebruikt die op de hogeschool voor GO na honderden jaren nog niet waren ontwikkeld. Eigenlijk stond de ontwikkeling al heel lang stil omdat men dacht dat er geen betere openingszetten waren. Ze kwamen bedrogen uit. Dat is toch wel meer dan een beetje simpel een database naspelen. Dit is echt creëren, redelijk echt grenzend aan echte menselijke intelligentie. Als dit al boven het menselijke uittorent, mogen we inderdaad wel oppassen!
haha, google maar eens op deep blue, die tegenwoordig Go kan winnen van de beste speler op de wereld, door te leren.
Dat was niet Deep Blue maar AlphaGo van DeepMind, de AI divisie van Alphabet (een zusterbedrijf van Google).

Deep Blue kon alleen "maar" schaken.
Dit is ook machine learning. In mijn ogen dus niet echte AI.
Artificial Neural Networks zijn geen "echte AI"? :z

WTF... Dan zullen ze het bij Wikipedia en in vakliteratuur wel helemaal verkeerd hebben!
Artificial neural networks (ANNs) or connectionist systems are computing systems inspired by the biological neural networks that constitute animal brains. Such systems learn (progressively improve performance) to do tasks by considering examples, generally without task-specific programming. For example, in image recognition, they might learn to identify images that contain cats by analyzing example images that have been manually labeled as "cat" or "no cat" and using the analytic results to identify cats in other images. They have found most use in applications difficult to express in a traditional computer algorithm using rule-based programming.

[Reactie gewijzigd door mindcrash op 26 juli 2017 11:42]

Ik zei Machine Learning is geen AI ;) ANN zou je kunnen beschouwen als een beperkte vorm van AI. Maar ik vind (ik zei ook 'in mijn ogen') dat nog steeds niet echte intelligentie. Het is nog steeds het bewandelen van paden op basis van dingen die eerder geleerd zijn. Niet zelfstandig geheel nieuwe dingen bedenken / beredeneren. Ook in de door jou aangehaalde Wikipedia pagina zie je verschillende stromen mbt ANN en of dat nu wel/niet een middel is om tot echt AI te komen. De vakliteratuur zegt hetzelfde daarover bij mijn weten (al ben ik ook geen expert). Maar al zou dat niet zo zijn, dan kan mijn mening natuurlijk nog altijd verschillen van wat vakliteratuur roept hè ;) Dat wil dan niet zeggen dat vakliteratuur het dus fout heeft. Enkel dat ik het anders interpreteer dan een bepaalde wetenschapper. Een typisch kenmerk van intelligentie trouwens :P

Dus, zoals ik zei. Naar mijn weten bestaat kunstmatige intelligentie nog altijd niet echt op dit moment. Enkel machine learning. Zodra AI er echt gaat komen zie ik wel het risico dat Musk benoemd.

[Reactie gewijzigd door kazz1980 op 26 juli 2017 13:09]

Dat is precies wat ik zeg ;) Het bestaat, in mijn ogen, nog niet. Daarom zeg ik ook dat het risico pas begint zodra we eenmaal zover zijn dat we de technieken om hebben om echte AI te maken.
Nou meer heeft de een het eigenlijk over een zelf handelend wezen die onafhankelijk staat van de mens. De ander heeft het over meer iets dat kan worden gezien als een hulpje.

Ik denk dat ze elkaar niet goed begrijpen. Natuurlijk weet Mark zelf ook wel dat er gevaren bestaan omtrent AI maar dat dit niet een reden moet zijn om ontwikkelen op dit gebied te vertragen. Musk vind dat er meer onderzoek moet worden gedaan om de veiligheid van de mensen zo veel mogelijk te waarborgen. Tja uiteindelijk profiteer je van beidden maar toch vind ik het belangrijker dat er meer onderzoek wordt gedaan naar failsafes voor AI.
Musk heeft het ook niet over vertragen, maar aan AI bepaalde instructies op te leggen.

Persoonlijk denk ik dat Musk net even wat meer kennis heeft van autonome AI dan Zuckerberg. Zowel Tesla als SpaceX zitten in OpenAI, een platform waarbij autonome AI kennis wordt gedeelt..

Maar misschien is weinig verstand een verkeerde woordkeuze, misschien moeten we op naief houden.
Vandaar ook dat Musk het heeft over mensen welke pas de gevaren van autonome AI begrijpen als ze moordend door de straten gaan..
Mogelijk zit Musk er compleet naast. Da's ook een optie.
Dan zit Stephen Hawking er ook naast, net als vele SF schrijvers.

http://www.huffingtonpost...telligence_n_5267481.html
Musk zit er niet naast. We weten dat hoe intelligenter een wezen, hoe beter het zich zelf in stand zal willen en kunnen houden. Daarnaast zal Ai andere belangen hebben dan wij, maar intelligent genoeg zijn om ons helemaal om de tuin te leiden. We maken echt geen schijn van kans tegen iets dat zelfs als het net zo slim is als wij 20 000 jaar van ons denkwerk kan doen in een week. Simpelweg omdat het niet gelimiteerd is door synapses.
Dan is er helaas niets meer aan te doen. Dit is ons einde. Want zelfs Musk is niet in staat om de ontwikkeling van AI te sturen.
Daar ben ik het niet mee eens. Als je kijkt naar wat Musk voorstelt is het een soort van FAA. Iets dat bij nieuwe technieken in vliegtuigen eerst bekijkt of iets dergelijks veilig is. Er is geen enkel mens dat goed bij zijn hoofd is die het bestaan van een dergelijk orgaan een slecht idee vindt. Musk beschrijft het nog wat verder in detail dan ikzelf.
De intentie kan wel goed zijn, maar het is onmogelijk om te controleren of iemand ter wereld foute AI code programmeert.
Dat valt natuurlijk mee, net als het bouwen van vliegtuigen kan niet iedereen dat zomaar. Je hebt wel een punt, ik wil het enkel nuanceren.
Ik overdreef idd een beetje... ;)

Misschien kan er in de toekomst zelfs via hacks "foute" AI in oorlogsmachines worden geupload, als een virus.... Fantasie slaat op hol...
Musk heeft het over een echte AI, Zuckerberg meer over machine learning (wat ook onder de noemer AI valt maar 'echte' intelligentie hoef je er niet bij te verwachten).
Wat is "echte" intelligentie?
Doen onze hersens nog iets anders dan "machine learning"?

Echte intelligentie bestaat niet. Net zo min als een robot "echt" kan lopen, een vliegtuig "echt" kan vliegen of dat een lollie "echt" zoet is. Wat "echt" is hangt nogal af van de persoon die het moet beoordelen en is vooral een kwestie van gevoel en smaak. Wetenschappelijk kun je er niks mee.

Ik geloof, als het om AI gaat, meer in het eend-principe: als het er uit ziet als een eend, als het kwaakt als een eend, en als het zwemt als een eend, dan is het een eend. In ieder geval voor alle praktische doeleinden.

Ik denk dus dat de aanduiding "echte" AI onzinnig is. Je kan het hebben over "meer" of "minder" intelligent, maar niet over "echt" of "niet echt".
Dat hele Facebook teert op machine learning; zou vreemd zijn als Suikerberg daar opeens skeptisch over gaat doen.
Beide hebben natuurlijk een goed punt...

belangrijk op te weten is dat Zuckerberg zeker een persoon is die goede kennis van zaken heeft! Zie bijvoorbeeld Jarvis : https://www.facebook.com/...jarvis/10154361492931634/

Update: Ik wilde met het bovenstaande alleen aangeven dat Zuckerberg alleen aangeven dat hij wel kennis van zaken heeft omtrent mogelijkheden van software (eg begrip) Jarvis was niet als voorbeeld bedoeld dat Zuckerberg alleen AI geïmplementeerd had.

[Reactie gewijzigd door rvt1 op 25 juli 2017 17:26]

Musk heeft het vooral over toekomstige AI. De AI die nu ontwikkeld worden zijn natuurlijk nog hartstikke beperkt. Maar dit zal hard groeien in de toekomst. Een project die Zuckerberg nu heeft gemaakt heeft niets te maken met de toekomstvisie van Musk.
Tuurlijk... Maar Elon zegt dan ook dat Mark Zuckerbergs begrip van het onderwerp kunstmatige intelligentie beperkt is Dat lijkt me wel te ver gaan, zeker omdat Mark goede technische kennis heeft omtrent mogelijkheden van computers en technieken daarachter, zoals ik zeg... beide hebben een punt..
Mocht je het nog niet weten, Zuckerberg staat nou ook niet echt bekend als een genie als het inhoudelijk over software gaat. De film the social network was vrij liberaal over de scene waar hij in een compute science en security class zat, gezien hij psychologie deed.

Musk weet een stuk beter waar hij over praat.

http://www.businessinside...ernational=true&r=US&IR=T

[Reactie gewijzigd door pietjuhhh1990 op 25 juli 2017 17:04]

Ik vind het onhandig van Musk om zijn tegenstander in de discussie te diskwalificeren. Hierdoor komt Musk zwak over.
Maar dat is wel dus pas nadat Zuckerberg hem had aangevallen in een presentatie, al dan niet direct met naam, maar de referenties waren overduidelijk dat iedereen begreep dat hij het over Musk had.
Zuckerberg studeerde zowel psychologie als computer science. 'Staat nou ook niet echt bekend als een genie als het inhoudelijk over software gaat'. Geen idee wat hier staat of dit betekent, wel wordt duidelijk dat we de de inschatting of iemand genie is of niet beter aan iemand anders overlaten.
Mssn moet hij zeggen dat iedereen een beperkt begrip heeft over ai. En dat een gepaste terughoudendheid misschien geen overbodige luxe is.
Misschien heeft hij wel allerlei kennis van technische mogelijkheden maar is hij toch minder visionair wat dit betreft? Kan wel volgens mij...

Hoewel je toch iets moet leren van al die scifi-films met horrorverhalen over AI 8)7
Komt waarschijnlijk ook omdat juist Zuckerberg in een presentatie nogal denigrerend richting Musk heeft gerefereerd, zonder dan wel zijn naam te zeggen, maar de referenties waren overduidelijk.
En ik denk ook dat je misschien toch nog wel eens Zuckerberg overschat, ja binnen zijn bedrijf zijn een hoop mensen die er verstand van hebben.
Musk refereert naar machines die beslissingen nemen die echt betekenisvol zijn. Zoals bijvoorbeeld een zelf-lerende machine die moet uitzoeken welke cellen moeten worden vernietigd en welke goed zijn en daarna de slechte(?) uitroeit.

De Jarvis van Zuckerberg is niet meer dan een simpele natural language and voice processor. Die je lamp aan en uit zet. In mijn opinie is dat niet equivalent aan echte AI die leert, redeneert en beslissingen neemt. Ik kan ook niet echt zeggen dat zo'n machine echt kennis van zaken garandeert over AI in het algemeen.
Het grote verschil tussen Musk en Zuckerberg is in mijn ogen dat Zuckerberg misschien wel slimmer is dan Musk, maar op emotioneel vlak, ja ik doel op de rand van autisme, minder dingen ziet of doorheeft. Zuckerberg is super slim en heeft gelijk. En wuift kritiek, of mensen met een iets andere opvatting wat makkelijk weg omdat hij niet overtuigd is en er geen aanleiding is om de angst reeel te laten zijn. Ik ben zeer bekend met ADD hoge intelligentie etc en beweer niet dat Zuckerberg autist is. Ik zie enkel wat kleine dingen en zet hem daarmee in gedrag een beetje aan die kant.

Musk heeft ook gelijk. Zijn intelligentie komt meer van verbinden en extrapoleren van input. Daarom speelt hij in op nieuwe dingen. Is altijd te optimistisch met plannen en wordt vaak niet begrepen omdat normale mensen niet die verbanden allemaal kunnen overzien.

Beide hebben gelijk vanuit hun standpunten. Maar ik zet mijn geld op de verbinder en extrapoleren van trends. Worst case scenario heeft Musk ongelijk. En heeft hij wel gelijk dan heeft hij zijn best gedaan om het te kunnen controleren.
Musk is echt een stuk intelligenter dan Zuckerberg als je het mij zou vragen. Zuckerberg lijkt supernaief als het gaat over AI. En heel eerlijk, zelfs ik kan zien waarom AI wel eerder zal leiden tot dood en verderf. Waarom hij dan niet?
Je hebt aantoonbaar gelijk over de beperkte sociale intelligentie van Zuckerberg. Dat blijkt uit zijn TV optredens en ook ingewijden bevestigen dat hij "awkward" is. Sommigen stellen dat buiten introvert, hij ook een sociopaat is.

Als we het over intelligentie hebben, in de klassieke zin, dan wijst niets er op dat Zuckberg een genie is. Facebook is met script kiddie PHP en curl in elkaar geflanst, Zuckerberg staat op geen enkele wijze bekend als een genie op het gebied van software engineering en heeft niets in die richting geproduceerd.

Op zakelijk vlak lijkt het met een erg slimme man, en dat is weer een aspect op zichzelf.

Elon Musk, is wanneer we het over inhoudelijke, technische intelligentie hebben van een heel andere orde dan script kiddie Zuckerberg. De man heeft letterlijk rocket science in de vingers, grenzen overschreden en opnieuw uitgevonden en kan met al zijn engineers op het hoogste niveau meepraten en ze zelf corrigeren.
Beetje flauw..

In programming and hacking culture, a script kiddie or skiddie is an unskilled individual who uses scripts or programs developed by others to attack computer systems and networks and deface websites.

en van Mark's wikipedia:
His father taught him Atari BASIC Programming in the 1990s, and later hired software developer David Newman to tutor him privately. Newman calls him a "prodigy", adding that it was "tough to stay ahead of him". Zuckerberg took a graduate course in the subject at Mercy College near his home while still in high school. He enjoyed developing computer programs, especially communication tools and games.

[Reactie gewijzigd door pim op 26 juli 2017 00:04]

Uiteraard is script kiddie de zaak overdreven voorstellen, maar Zuckerberg is geen software genie.
Sommigen stellen dat buiten introvert, hij ook een sociopaat is.
Moet ook wel als je geweten het na zoveel jaar nog steeds kan verkroppen aan het hoofd van een bedrijf als Facebook te staan, wat keer over keer bewust de randen van privacy-wetgeving opzoekt en letterlijk leeft van het op mondiale schaal aanranden van de persoonlijke levenssfeer van argeloze mensen voor geldelijk gewin.


Een man als Musk innoveert met de gedachte wat het de mensheid oplevert. Zuckerberg met wat het hem oplevert. Dat vertelt je eigenlijk al alles wat je moet weten over dit geschil tussen de beide heren.

[Reactie gewijzigd door R4gnax op 26 juli 2017 19:29]

Ben jij een soort halfgod dat jij deze mensen kunt analyseren en beoordelen? Hoe doe jij dat en hoe kom je zo overtuigd van je gelijk? Dit zou ik ook willen kunnen.
Ik vraag me af in hoeverre de Jarvis van Mark iets te maken heeft met AI.
Dit wel interessante lectuur om Elon's visie te begrijpen:
https://waitbutwhy.com/2017/04/neuralink.html

Waar het op neer komt is dat hij zelf een bedrijf gestart is om hersen-machine interfaces te onderzoeken, zodat de mens (met de hulp van een aan de hersenen gelinkte computer) niet achterloopt op de capaciteiten van een toekomstig puur computer-ai, maar er eerder een deel van uitmaakt.
Zelfde site, echt een must read om de gevaren van ai te begrijpen. Vooral deel 2 heeft zeer goede uitleg

https://waitbutwhy.com/20...ligence-revolution-1.html
Wat mij betreft juist goed dat er verschillende mensen met een verschillende kijk hier mee bezig zijn. Wellicht raken dingen vertraagd, maar is dat allemaal wel zo erg als je het op de lange termijn bekijkt?

[Reactie gewijzigd door Carlos93 op 25 juli 2017 16:51]

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True