Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties

Onderzoekers van het Rensselaer Polytechnic Institute zijn in staat om de intelligentie van een vierjarige te simuleren binnen Second Life. Hierbij maken ze gebruik van een supercomputer om de algoritmen goed te laten draaien.

De virtuele peuter, gedoopt tot Eddie, kan beslissingen maken op basis van zijn overtuigingen, maar kan deze ook bijschaven aan de hand van ervaringen. De software implementeert een variant van de Theory of Mind, waardoor het in staat is het gedrag van virtuele voorwerpen en spelers gedeeltelijk te begrijpen, voorspellen en beïnvloeden.

Haley Joel Osment - AISelmer Bringsjord, de projectleider, vertelt dat de gebruikte technieken kunnen worden toegepast binnen iedere digitale omgeving. Er is enkel gekozen voor Second Life vanwege de populariteit en het gemak waarmee ontwikkeld kan worden, aldus de onderzoeker. Uiteindelijk kunnen geavanceerdere versies gebruikt worden voor toepassingen in zowel de entertaimentindustrie als onderwijs en therapie. Bringsjord schetst als voorbeeld een virtuele crisissituatie met een gijzelaar en gegijzelden die allemaal kunnen reageren op de speler: "Dat is zelfs een toepassing die we overwegen zelf te gaan maken."

Voordat er een programma kan worden gebouwd als het holodeck in Star Trek moeten de wetenschappers nog een paar obstakels overwinnen. Het algoritme is van zichzelf langzaam en het onderzoeksteam worstelt nog met het optimaal sorteren van de vergaarde kennis voor hergebruik door het programma. Op dit moment wordt een Linux-cluster van 100 teraflops gebruikt om Eddie het virtuele leven te schenken.

Moderatie-faq Wijzig weergave

Reacties (98)

En om het nog af te maken zie dit:
http://www.modha.org/papers/rj10404.pdf

Bij IBM hebben ze een muizenbreintje gesimuleert.
De simulatie liep op 10% van real time op een computer die ongeveer 280 Teraflops doet.

Even rekenen:
mensenbrein -> 100.000.000.000 neuronen
muizenbrein -> 8.000.000 neuronen

Computerkracht voor het simuleren van 10% van muizenbrein: 280 Teraflops
Computerkracht voor het simuleren van 100% van muizenbrein : 2.8 Petaflops

Computerkracht voor het simuleren van een mensenbrein: 2.8 Petaflops * 12500 = 35 Exaflops. !!!!

MAAR daarbij zeggen de wetenschappers dat ze nog niet de grotere structuren nabootsen die normaalgesproken in de hersenen gevormd worden door neuronen. Er werd als het ware een wild netwerk gesimuleerd. Structuur aanbrengen in het gedrag van de neuronen zal extra computatie en communicatie vereisen.

Ze nemen wel waar dat er zich processen voordoen die lijken op die die ook in echte hersenen voorkomen.
Ook maken ze gebruik van het feit dat neuronen vooral verbonden zijn met neuronen in de buurt waardoor informatie vaak niet verder hoeft te reizen dan de lokale cache van een afzonderlijke processor. Dit helpt voor een groot deel met het bandbreedteprobleem dat ik hierboven beschreef. Dit kan dus vooral omdat de grotere structuren niet gesimuleerd worden en er dus vooral lokale communicatie optreed.
In werkelijkheid zijn er veel meer verbindingen tussen groepen neuronen.

Dit is dus een goed begin maar het vooruitzicht blijft dat als de simulatie beter moet worden er ook meer computatiekracht nodig is. Abstractie op een hoger organisatienivo voldoet niet.

[Reactie gewijzigd door koelpasta op 16 maart 2008 19:35]

Ik heb zelf één en ander onderzocht over AI voor een futurologisch onderzoek.
Daar kwam o.a. uit dat men rond 2020 - 2024 verwacht dat je voor 1000 dollar een pc thuis hebt staan die het menselijk brein kan simuleren, kwa rekenkracht.
Het onderzoek naar AI groeit ongeveer evensnel als de beschikbare rekenkracht per 1000 dollar, wat inhoud dat tegen de tijd dat wij een pc kunnen kopen, voor een redelijke prijs, met de rekenkracht die een menselijk brein kan simuleren er waarschijnlijk ook AI is ontwikkeld die gelijkwaardig is aan het menselijkbrein.

Onderstaande link illustreert het goed:

http://www.frc.ri.cmu.edu/~hpm/book97/ch3/index.html

De rekenkracht van mobiele telefoons loopt op dit moment ongeveer 9 jaar achter op de beschikbare rekenkracht in betaalbare pc's, maar maakt een behoorlijke inhaalslag.
Waarschijnljik is die rekenkracht ook hier voor 2030 beschikbaar.
Wat zou betekenen dat je op ieder moment van de dag één of meerdere super intelligente apparaten met je mee kan dragen.

Het is nu alleen de vraag op welke manier de geavanceerde AI ingezet gaat worden. Daarnaast vraag ik mij af of het simuleren van een menselijkbrein ook inhoud dat, wanneer toegepast in een reallife robot, de omgeving geanalyseerd kan worden, of dat daar dan extra rekenkracht voor nodig is.
Met andere woorden menselijke AI, betekend niet automatisch dat het ook meteen mogelijk zal zijn robots te laten functioneren als ware het een mens.

Daarnaast blijkt dat als de ontwikkelingen zich alleen al voortzetten, terwijl er ook een kans is dat zij zich exponentieel gaat ontwikkelen, wij rond 2060 voor 1000 dollar de rekenkracht tot onze beschikking hebben van 14,8 miljoen menselijke breinen.
Wat gaan we daar mee doen?
Tot nu toe worden er telkens applicaties ontwikkeld die weer het maximale uit je computer halen, maar als dit niet meer gebeurd, doordat er gewoon absurd veel rekenkracht is, kan ik mij voorstellen dat er een soort distributed computing op gaat treden waarbij men alleen een ontvanger heeft en de berekeningen op centrale units worden uitgevoerd voor vele mensen tegelijk.
Misschien betaal je dan voor een abonnement op computing power, misschien wordt het wel een gratis dienst van google?

Hoe de computer zich in de toekomst gaat ontwikkelen is niet helemaal zeker, als quantum computing vruchten af gaat werpen kan het heel hard gaan, maar er zijn ook beweringen dat quantum computing niet gaat brengen wat de HYPE belooft.
Nano-technologie kan ook een heel grote rol gaan spelen, maar daarvoor geld hetzelfde, er is een enorme HYPE, maar er zijn nu nog geen goede argumenten om er vanuit te gaan dat deze hype waar gemaakt gaat worden.

[Reactie gewijzigd door 254370 op 15 maart 2008 12:59]

Uuhm.. Die link is alweer 10 jaar oud en zwaar achterhaald.

Overigens, een leuk detail is dat de grafiek een log schaal heeft.
Ander leuk detail is dat volgens die grafiek een olifant zowel meer geheugen heeft als ook meer mips heeft dan een mens. Dan vind ik het vreemd dat olifanten geen wetenschap, kunst of filosofie beoefenen. Er is blijkbaar meer aan de hand dan alleen geheugen of mips. (overigens, wie heeft voor mij de instructieset van de menselijke hersenen? ;P )

"Met andere woorden menselijke AI, betekend niet automatisch dat het ook meteen mogelijk zal zijn robots te laten functioneren als ware het een mens."

Hmm, dit lijkt mij nou juist de definitie van menselijke AI. Dat het AI systeem precies als een mens met zijn omgeving omgaat.
De vraag is meer, simuleer je het gedrag, of simuleer je de processen die het gedrag tot stand brengen, of simuleer je de processen die de vorige processen tot stand brengen.
En is dit ook werkelijk nodig.
En wat gebeurt er als je intelligentie gaat abstraheren?

Even voor de duidelijkheid: In 1960 dacht men ook dat we tegen 1990 wel intelligente computers zouden hebben maar niets is minder waar. Anno 2008 nog steeds dezelfde pragmatische k****dingen.

Futurologen zijn per definitie speculanten, opinimakers. De meeste hebben echt geen idee wat er zoal bij menselijke intelligentie om de hoek komt kijken.
In werkelijkheid zijn we gebonden aan, uuhm, de werkelijkheid!

De laatste tijd zijn we er vooral achtergekomen hoe onze modellen van neurale netwerken ANDERS zijn dan hun biologische tegenhangers.
Steeds vaker blijkt dat we de chemie in achting moeten nemen om een complete simulatie te maken. En dan is er nog de quantumfysica. Die speelt ook een rol in de werking van onze neuronen.
Uiteindelijk verwacht ik dat je voor een echte simulatie van de hersenen ook een simulatie van de werkelijke fisieke wereld nodig hebt. Dan kom je er niet met je gigaMIPS...

Over het abboneren op computer-kracht, dat bestaat al.
Het wordt Grid Computing genoemd (grid, als in electricity grid) en zal het komend decenium meer en meer in het 'gewone leven' worden geintroduceert.
Wel eens een MMO gespeeld? :)
Ik zeg ook dat de grafiek het mooi illustreert, m'n onderzoek bestaat niet uit alleen één website lezen.... 8)7


"Met andere woorden menselijke AI, betekend niet automatisch dat het ook meteen mogelijk zal zijn robots te laten functioneren als ware het een mens."

Waar ik daarmee op doelde, als je de rest ook leest begrijp je dat, is dat AI slechts het denkwerk op het gebied van intelligentie is.
Mogelijk is er nog veel meer rekenkracht nodig om ook de omgeving te interpreteren...geluid, zicht, (tast, reuk, smaak.... )

De reden dat olifanten geen wetenschap uitoefenen?
Ze kunnen niet praten zoals mensen, wat het absolute fundament is voor de uitoefening van wetenschap.
Heldere communicatie en later schrift, waar je iets voor moet kunnen vastpakken.
Daarnaast hebben olifanten niet echt ledematen waar ze tools mee kunnen maken, dus denk als je commentaar geeft op de bronnen ook even verder dan pure informatica.

Het menselijkbrein heeft een capaciteit van 10 petaflops, dat is dus alweer iets heel anders dan de gigamips waar je nu over praat. Aan de hand daarvan heb ik onderzoek gedaan.

Wel leuk dat Grid Computing wordt uitgevoerd, maar de werking van een MMO is toch echt totaal anders dan waar ik op doelde.
Met ontvanger doelde ik ook echt op ontvanger, ieder persoon zou een apart streaming signaal krijgen met de beelden die voor hem/haar berekend zijn.
Bij een MMO wordt slechts de positie doorgegeven van andere spelers en de acties die ze uitvoeren.
Ondertussen heb je zelf nog steeds een heel systeem nodig om de gfx op je beeld te toveren.
Een fundamenteel verschil met waar ik op doel.

Je hebt uiteraard gelijk dat een futuroloog een speculant/opiniemaker is. Het is absoluut niet met zekerheid te zeggen dat ontwikkelingen zo gaan lopen zoals je ze in een scenario schetst.
De scenario's die je schets zijn meer een middel om te anticiperen op behoeften van de toekomst.
Je brengt keyforces in kaart en die laat je meewegen in je visie, maar als een keyforce zich anders ontwikkelt is je visie ook meteen aan een update toe.

[Reactie gewijzigd door 254370 op 15 maart 2008 17:30]

"Ze kunnen niet praten zoals mensen, wat het absolute fundament is voor de uitoefening van wetenschap.
Heldere communicatie en later schrift, waar je iets voor moet kunnen vastpakken."

Praten lijkt mij ook een vorm van intelligentie. Zit nogal verwoven met de rest van je hersenen.
Je kunt spraak dus niet losmaken van menselijke intelligentie.
Maar als een olifant dan meer mips draait dan drukt mips blijkbaar niet de menselijke intelligentie uit!.
Zoals ik al eerder zei, wat is de instructieset van hersenen?
Want dan kunnen we echt in mips (milions instructions per second) gaan denken.

"Het menselijkbrein heeft een capaciteit van 10 petaflops, dat is dus alweer iets heel anders dan de gigamips waar je nu over praat."

Die gigamips heb ik uit jouw linkje gehaald. :)
En hoe kom je dan aan die 10 petaflops ?

Sowiso kun je de hersenen niet in flops uitdrukken. Zo werken de hersenen gewoon niet.
Een flops gaat over concrete floating point ops per seconde.
Mag jij me aanwijzen welke delen van je hersenen puur floating point instructies uitvoeren en daar ook nog bij vertellen welke wordgrootte je beboelt want een 4-bits flops is wel anders dan een 64-bit flops...

Als je dan toch bezig bent, reken dan even snel uit wat het 10000-ste decimaal van PI is, want dat zou een computer die 10 petaflops doet (zoals jij en ik, volgens de petaflop theorie) makkelijk moeten kunnen.
Dat kan je waarschijnlijk niet en daarmee wil ik bewijzen dat menselijke intelligentie zich niet laat uitdrukken in eenheden als flops.
Alle conclusies die je trekt door te veronderstellen dat je menselijke intelligentie uit kan drukken in flops of mips zullen dus niet overeenkomen met de werkelijkheid.

"Wel leuk dat Grid Computing wordt uitgevoerd, maar de werking van een MMO is toch echt totaal anders dan waar ik op doelde."

Dan heb jij een smalle kijk op het begrip grid computing :)
Webmail is bijvoorbeeld ook een primitieve vorm van grid computing.
Het grote verschil zitum in de aan de client aangeboden granulariteit van verwerkingskracht.

"Met ontvanger doelde ik ook echt op ontvanger, ieder persoon zou een apart streaming signaal krijgen met de beelden die voor hem/haar berekend zijn."

Dat werkt in een MMO niet anders met als enig verschil welke lokale hardware je gebruikt om dat beeld ook werkelijk zichtbaar te maken.
In jouw voorbeeld met het streaming signaal heb je ook hardware nodig (je hersenen) om het signaal te interpreteren, anders zou je je nooit bewust kunnnen zijn van het signaal en zou je het nooit ervaren...

Je zou dit verder de cybernetica in kunnen trekken door bijvoorbeeld neurale activiteit aan te bieden aan je visuele cortex die dan de van te voren berekende beelden aan je bewustzijn presenteert. In dat geval heb je ook een externe 'server' die een 'projector' voed met de juiste data.
Dat is niet anders dan een MMO!!
De server berekent de interacties, stuurt die data naar jouw computer en die laat jouw een visualisatie zien van de data van de server. Het blijft dus gewoon een uiting van de data op de server. Jouw input (keyboard, muis) worden dan ook niet lokaal verwerkt maar moeten naar de server om te intergreren in de rest van de input.

Een MMO zou geen MMO zijn als je niet aan een centrale server hing die alles bijhoudt en ook jouw input een slot geeft in het geheel.

Een MMO is nog WEL een MMO als je een dos-box gebruikt als interface (of van mij part een rij ledjes, of zenuwprikkels) voor het opvangen van data geproduceert door de server.
Het zitum toch echt in de server en niet hoe de data aan de client getoont wordt.

Het feit dat MMO's een thick client nodig hebben heeft meer te maken met de voorkeur voor de vorm van PRESENTATIE van de interacties van de spelers.


"Je brengt keyforces in kaart en die laat je meewegen in je visie, maar als een keyforce zich anders ontwikkelt is je visie ook meteen aan een update toe."

Het probleem is dat die keyforces slechts een momentopname zijn van een beweging.
Je weet dan nog niets over de kracht die de beweging deed ontstaan (de wetenschap) en daarmee ook niets over het momentum (de gevolgen van die wetenschap) dat in de beweging zit.

Zoals gezegd, menselijke AI lijkt verderweg dan ooit...

edit: kleine wijzigingetjes ter bevordering van duidelijkheid...

[Reactie gewijzigd door koelpasta op 15 maart 2008 18:44]

Praten heeft inderdaad met intelligentie te maken, maar daarvoor heb je stembanden nodig.
Bij de mens is door een genetische verandering dit tot stand gekomen en dat is dus bij de olifant niet gebeurd.
Er heerst ook onduidelijkheid over de stap van mensaap naar mens, er is een niet te verklaren sprong voorwaards geweest in de evolutie bij het menselijk ras en daar heeft spraak ook mee te maken.

"Als je dan toch bezig bent, reken dan even snel uit wat het 10000-ste decimaal van PI is, want dat zou een computer die 10 petaflops doet (zoals jij en ik, volgens de petaflop theorie) makkelijk moeten kunnen.
Dat kan je waarschijnlijk niet en daarmee wil ik bewijzen dat menselijke intelligentie zich niet laat uitdrukken in eenheden als flops.
Alle conclusies die je trekt door te veronderstellen dat je menselijke intelligentie uit kan drukken in flops of mips zullen dus niet overeenkomen met de werkelijkheid."


Waarom denk je dat er überhaupt software ontwikkeld wordt? Zonder kan een computer niets.
De ontwikkeling van AI gaat ook om software, de complexiteit daarvan zal rond de tijd dat de rekenkracht van computers de complexiteit van het menselijkbrein bereikt in staat zijn het menselijk brein te "simuleren".
Is het nu begrijpelijk?
Een computer heeft ook nogal veel rekenkracht nodig om een realistisch 3D model te genereren, dat gaat via allerlei ingewikkelde scripts, maar uiteindelijk is er toch een beeld te zien, terwijl het met 1 en 0 begint.
Dat iets niet de aard van een apparaat is betekend niet dat het niet gesimuleerd kan worden......

Het probleem is dat die keyforces slechts een momentopname zijn van een beweging.
Je weet dan nog niets over de kracht die de beweging deed ontstaan (de wetenschap) en daarmee ook niets over het momentum (de gevolgen van die wetenschap) dat in de beweging zit.


Het leuke aan futurologisch onderzoek is dat je dus wél de geschiedenis e.d. mee neemt. Maar dat is ook gewoon wat ik bedoel met keyforces in kaart brengen.
Juist waar een beweging vandaan komt, waar ze voor staan, waarom dat zo is is waar je naar kijkt wanneer je iets "in kaart" brengt.

Je moet sowieso bij de meeste vragen die je jezelf stelt ff na gaan denken of je daar niet zelf een antwoord op kan bedenken.
Dat mensen een geavanceerdere stemband hebben dan olifanten kun je ook zelf achterhalen.
Dat een computer altijd nog vanuit 0 en 1 vanalles "simuleert" en dus niet beperkt is tot zwart-wit denken had je ook gewoon zelf kunnen BEDENKEN.

Denk a.u.b. gewoon even na voordat je met allerlei vragen komt die je gewoon zelf kan beantwoorden.
En als je gaat roepen dat iets niet KAN neem ik aan dat je dat baseert op kennis, waardoor het niet 1,2,3, is onderuit te halen.

Kleinere hersenen zijn al gesimuleerd aan de hand van een berekening van het aantal neuronen in het menselijk brein is op die manier ook te bepalen hoeveel kracht er nodig is om die te kunnen simuleren.
En dat wordt geschat op 10 Peta flops 10.000 teraflops.
Of dat er nou 9, 10 of 11 zijn doet er niet zo heel veel toe, aangezien computers eens in de 1 tot 1,5 jaar dubbel zo snel worden (Moore)

[Reactie gewijzigd door 254370 op 15 maart 2008 21:01]

"Praten heeft inderdaad met intelligentie te maken, maar daarvoor heb je stembanden nodig."

Walvisachtigen hebben geen stembanden nodig om te praten. :)
En daar staat tegenover dat heel veel dieren stembanden hebben maar nooit spraak hebben ontwikkeld.
Aangezien spraak en intelligentie duidelijke evolutionaire voordelen hebben zou je verwachten dat spraak veel vaker zou moeten voorkomen.
Ik twijfel dus nog erg over deze theorie.

"Waarom denk je dat er überhaupt software ontwikkeld wordt? Zonder kan een computer niets.
De ontwikkeling van AI gaat ook om software, de complexiteit daarvan zal rond de tijd dat de rekenkracht van computers de complexiteit van het menselijkbrein bereikt in staat zijn het menselijk brein te "simuleren".
Is het nu begrijpelijk?
Een computer heeft ook nogal veel rekenkracht nodig om een realistisch 3D model te genereren, dat gaat via allerlei ingewikkelde scripts, maar uiteindelijk is er toch een beeld te zien, terwijl het met 1 en 0 begint.
Dat iets niet de aard van een apparaat is betekend niet dat het niet gesimuleerd kan worden......"

Leuk dat je 3D aanhaalt, maar realiseer je je dat wat je op het scherm ziet slechts een projectie is?
Hoe realistisch is een 3D object als je het niet kan aanraken omdat het op een 2D vlak is geprojecteerd?
En hoeveel meer 'ingewikkelde scripts' heb je wel niet nodig om een werkelijk 3D object te definieren?
Want dan begint de lol pas. Je zult atomen moeten kunnen samenstellen om de juiste stof(fen) te creeren waaruit het voorwerp wordt opgebouwt.
Dat doet een videokaartje niet hoor!

Wat ik probeer te zeggen is dat het meeste wat wij als menselijke intelligentie zien vastgelegd is in de complexiteit van de hersenen en niet in de rekencapaciteit.
Om even terug te komen op de olifant, die heeft echt zowel meer geheugen als ook meer rekenkracht in zn hersenen zitten en TOCH levert dat niet een grotere intelligentie op (of iets dat wij als menselijke intelligentie kunnen zien).
Dus REKENKRACHT (petaflops, whatever) is GEEN eenheid voor intelligentie!

Dan komen we dus uit bij wat jij software noemt.
Eerst even het petaflop gedoe.
De berekening gaat ongeveer al volgt.
De menselijke hersenen hebben ongeveer 100 miljard neuronen die GEMIDDELD ongeveer 1000 verbindingen hebben. Verder stelt men dat een neuron ongeveer 200 keer per seconde kan werken.
Dan komen we uit op ongeveer 20 Peta-acties per seconde.
Dit is aardig in de buurt van waar jij naar verwijst.
Het is ook een erg plastiche en weinig realistische manier om naar de zaken te kijken.

Er wordt hier aangenomen dat een verbinding van een neuron gelijk staat aan 1 berekening (een floating point operation).
En dit is niet waar.
Bij 1 zo'n verbinding komen een hoop zaken om de hoek kijken.
Je zult bijvoorbeeld alle informatie die in een gesimuleerde neuron binnenkomt moeten integreren via verschillende thresholds.
Verder zijn neurons, zoals je mischien weet, op een bepaalde manier binair.
Ze communiceren via pulsjes.
Meer pulsjes per tijdseenheid betekent een grtere waarde.
Een neuron bevat dus voor elke verbinding een stukje dat pulsjes per tijd kan meten!
Dat kost dus weer extra flops per verbinding.
De treshold voor elke verbinding kan dynamisch worden aangepast door het systeem zelf. Dit stelt de neuronen in staat nieuwe combinaties te creeren.
Verder spelen er ook zaken al beschikbaarheid van neurotransmitters (die overigens ook geregeld kunnen worden door de neuron).

Vervolgens kunnen de pulsjes patronen gaan vormen.
Dit is mogelijk door zelfregulerende feedbackloopjes.
Het modelen en simuleren van de afzonderlijke pulsjes is dus essentieel om de werking van grotere groepen neuronen te simuleren(!!).

Let op! Hier gaan wij dus al ruim voorbij aan het idee dat 1 verbinding kan worden voorgesteld door een flop!!
Nogmaals, 10 petaflops schiet zwaar tekort.

In werkelijkheid is het dus geen software maar hardware (de specifieke relaties tussen neuronen) waar een groot deel van onze intelligentie vandaan komt.

Deze hardware is vrij complex vanwege de gigantische bandbreedte die beschikbaar is in de hersenen. Veruit het grootste gedeelte van de hersenen bestaat uit verbindingen tussen neuronen. Allemaal zwaar gelijktijdig.

Wil je goed gebruik maken van de beschikbare rekenkracht in een simulatie dan heb je een computer nodig die een geheugen heeft dat minstens 1000 keer meer data kan verstouwen (of her-associeren) dan de verwerkingseenheden opleveren.
Ook kun je stellen dat intelligentie simuleren op computers bandwidth bound is!!
Het blijkt ook dat dieren die niet erg intelligent zijn weinig verbindingen hebben tussen neuronen.
Je kunt intelligentie dus alleen beschrijven als je de beschikbare bandbreedte in acht neemt!
En dat is pas het begin.

Je zou ook moeten kijken naar de electrochemische werking van neuronen.
Er zijn zelfs quantummechanische effecten waarneembaar. Die hebben dus ook een invloed op de werking van de hersenen.
Ook spelen de genen een rol in het gedrag van een neuron.
Verder hebben neuronen ook een levenscyclus waarbij functionaliteit eventueel overgenomen kanworden door andere neuronen.

Al deze dingen komen samen in iets dat wij menselijke intelligentie noemen.

Om deze invloeden allemaal mee te nemen in je simulatie zul je al lang en breed voorbij ExaFlops land zijn, maar nogmaals, je hebt ook nog eens de bandbreedte nodig om alle omgevingsfactoren door te rekenen en die is er gewoon niet in moderne computers.

Petaflops op zich zijn dus volslagen onzin in dit verband! :)

Je kan neuronen niet zomaar weg abstraheren aangezien hun fisieke werking essentieel is voor wat wij menselijke intelligentie noemen.
Nogmaals, om die werking precies te simuleren heb je ontzettend veel meer verwerkingskracht nodig dan een flop per verbinding en daarnaast nog eens duizenden keren meer bandbreedte dan normaalgesproken verhoudingsgewijs in een computer zitten.
Overigens is bandbreedte (niet toevallig) veruit het grootste obstakel in parallele computers!

Kom je tot resultaten door abstractie van de werking van hersenen?
Jazeker.
Heb je dan ook menselijke intelligentie?
Nee, je hebt een abstractie van de externe interacties van de intelligentie.
Je simuleert de GEVOLGEN van intelligentie en niet intelligentie zelf.
Het is een soort diepere vorm van gedragspsychologie.

Over de wet van Moore,
Die werkt niet echt meer.
Maar aangezien je je verhaal daaraan hangt neem ik aan dat je de uitgebreidere visie op de wet van moore aanhangt, die zegt dat alle technologische ontwikkelingen volgens een bepaald patroon verlopen.
Daarmee komen we aan bij de singulariteit....
En gelijk ook bij een andere futuroloog, namelijk meneer Kurtzweil.
En wat kan die gast uit zn nek lullen zeg. Als je zijn voorspellingen leest dan lach je je krom. Het enige wat hij goed voorspelt zijn de inkoppertjes. Dus de dingen waarvan de weg al bekend is maar alleen nog uitgebouwt hoeft te worden.
Waar hij het onder andere erg mis heeft is in hoe computers en biologie zullen samenwerken.
Zo dacht hij ooit dat we nu al ruim in de 'nano-age' zouden zitten en dat we al allerlei moleculaire robotjes zouden hebben enzo.
Dat is niet zo en wederom is het de werkelijkheid die ons om de oren slaat.
Het ontwerpen en fabriceren van moleculaire gereedschappen blijkt een gigantisch probleem te zijn.
En dan komt daar ook energievoorziening van die apparaatjes bij kijken, etc, etc, etc.
Al met al ziet het er nu naar uit dat we niet op korte termijn veel nano-tech zullen zien.
En het blijkt dat de biologische nanogereedschappen (o.a. cellen en enzymen) al redelijk efficient zijn.
Kort door de bocht, de natuur werkt op een uiterst efficiente manier (op meerdere nivo's).
Simulaties vereisen in de meeste gevallen dus meer om hetzelfde resultaat te bereiken.
Abstracties werken wel ten dele maar zullen nooit de finesse van een echte simulatie vertonen en men kan zich dus terecht afvragen of een abstractie onder alle omstandigheden zetzelfde oplevert als 'the real thing'.


"Je moet sowieso bij de meeste vragen die je jezelf stelt ff na gaan denken of je daar niet zelf een antwoord op kan bedenken."

En waarom denk jij dat ik geen antwoorden probeer te vinden bij vragen die ik heb?

Waar ik op doelde wat betreft futurologie is dat futurologen hun conclusies trekken uit een vogelvluchtsperspectief. Dit werkt aardig voor sommige wetenschappen.
Helaas is het niet zo makkelijk met intelligentie, en al helemaal niet met het simuleren van menselijke intelligentie.
Neurobiologen verzetten zich dan ook tegen bepaalde uitspraken van heren zoals Kurtzweil.
Hoe meer we weten over menselijke intelligentie hoe (exponentieel) groter de benodigde complexiteit van simulatie wordt.
Simulaties blijven hangen op OF interacties tussen kleine groepen neuronen (maar wel redelijk precies gesimuleerd) OF abstracties van grotere neuralle FUNCTIES.
Beide methodes komen niet in de buurt van wat wij beschouwen als menselijke intelligentie.

De simlatie zoals beschreven in het artikel vereist ongeveer 100 Teraflops.
Maar dit is een abstractie van de -logica- achter een fractie van wat wij menselijke intelligentie noemen (!!).
Hier wordt de interactie van miljoenen neuronen eventjes weggeabstraheert waarbij alle lokale interacties komen te vervallen.
Deze enorme vereenvoudiging samen met het feit dat het grotendeels onvolledig is vergeleken met het begrip menselijke intelligentie suggereert dat er veel meer rekenkracht nodig is voor menselijke intelligentie dan de door jouw beschreven 10 petaflops.
Dit zeg ik om mijn verhaal hierboven eens vanuit een andere kant te belichten.

Het hele experiment draait dan ook helemaal niet om het simuleren van menselijke intelligentie. Het gaat die wetenschappers uiteindelijk vooral om het creeren van een geloofwaardige syntetische persoonlijkheid.
zie ook:
http://www.cogsci.rpi.edu/research/rair/asc_rca/

Personelijk denk ik dat het meest realistiche instrument voor menselijke intelligentie gewoon de menselijke hersenen zijn. Het vertalen van die intelligentie naar computers is mischien wel interresant als onderzoek maar is niet erg efficient. Het zal ook nooit efficient worden.
De grote stappen richting sterke AI zullen denk ik gezet gaan worden in de genetica en niet in de informatica.

Anyway, lang verhaal, maar hopelijk beter onderbouwt.

[Reactie gewijzigd door koelpasta op 16 maart 2008 19:04]

Hier staat een filmpje. Waarin Edd de Sally en Anne test doorstaat.

[Reactie gewijzigd door Hades.NL op 14 maart 2008 21:10]

Ja hallo lekker makkelijk
Als peuter begin je van scratch
en leer je eerst grote dingen
die bot is zo geprogrammeerd dat de link tussen die twee objecten makkelijk is te leggen
Wat een onzin. Dit is geen "bot" maar een implentatie van een wetenschappelijk model dat autonoom "gedachten" heeft (even gesimplificeerd). Dit is niet te vergelijken met een programmaatje dat een aantal vaste aanwijzingen heeft en die uitvoert. Het doel van dit experiment is om te laten zien dat het programma zich kan inleven in anderen. De bot heeft laten zien dat hij zich in persoon 2 (die weggegaan is) heeft kunnen verplaatsen. kleine kinderen zeggen vaak nog: "De groene koffer", omdat daar het geweer in zitten. Oudere kinderen zeggen daarentegen net zoals het programma "de rode koffer", omdat ze weten dat persoon 2 denkt dat het geweer in de rode koffer zit, en dat hij daar dus als eerste in zal kijken.
Het zou van een nog beter inlevingsvermogen getuigen wanneer de AI "de groene koffer!" antwoordt, met als reden dat de AI denkt dat persoon 2 een vermoeden heeft dat het pistool in de groene koffer ligt omdat dat de achterliggende reden is geweest waarom deze persoon tijdelijk weggestuurd is (dus om hem te bedotten). ;)
Of nóg mooier:
moest de AI uiteindelijk nog de keuze en de mogelijk hebben om "de groene koffer" te zeggen. Wij mensen hebben nl. de keuze om ons al dan niet in te leven in anderen. (en weer anderen kunnen het simpelweg niet omwille van een mentale stoornis)

Even voor de duidelijkheid, mijn bovenstaande reactie is uiteraard larie. Onze beslissingen, bewust en onbewust (bv. hoe jij je tandenborstel vasthoudt op 5 april), worden op een 'logische' wijze gevormd uit een reusachtig (echter niet oneindig) aantal parameters. In theorie zou dus een machine kunnen bestaan die al deze parameters in rekening kan brengen om de toekomst te voorspellen. Zelfs het 'vrije denken' is uiteindelijk maar een fysisch proces en dus pure logica.
En ziehier, het determinisme!
Helaas bestaat er de Onzekerheidsrelatie van Heisenberg, welke het determinisme (Laplace's demon) uitsluit. Hierbij moet ik wel aangeven dat dit niet betekent dat 'vrij denken' alsnog bestaat, het voegt slechts een stochastisch element toe aan het fysieke proces.
Er is idd. heel veel uit te splitsen en in te vullen hoe iets werkt. Waarom een mens bijv. tot moorden over gaat of andere abnormale dingen doet, is niet met het blote oog of psychische tests te bepalen. Je zou dan zeggen, je kan het niet meten met de methoden die we nu gebruiken, en dus niet weten (onzekerheidsfactor). Maar misschien wel weer door zijn leefomgeving door te lichten om te kijken of hij bijv. metalen (scheikundige) in zijn lichaam heeft gekregen. In dit geval kan een persoon die in zijn leefomgeving een metaal heeft binnengekregen, hem aanzetten tot agressiviteit en dergelijke. (Wel vet dat je zelfs dit bij dr Phil kan leren :P al weet ik niet of zijn bronnen empirisch zijn te noemen.)
dude het gaat niet om objecten herkennen, misschien wel andig dat je even na leest wat de Sally en Anne test inhoud
Een jaar of zo geleden slaagde men er nog niet in om op de Blue Gene van IBM de hersenen van een rat/muis in real-time na te bootsen en nu opeens kan men de intelligentie van een 4 jarig kind simuleren :?
Ze hadden vast een volwassen rat of muis gebruikt in de test 8)7
Op dit moment wordt een Linux-cluster van 100 teraflops gebruikt om Eddie het virtuele leven te schenken
Breinbrekertje:
De mens is zo slim dat 100 teraflops de mens nog niet kan overtreffen, maar de mens is nog niet zo slim dat het met veel minder teraflops z'n brein kan nabootsen.
Wordt hier de juiste vergelijking gesteld... of zijn die teraflops nietszeggend over hoe het menselijk brein werkt?

[Reactie gewijzigd door Grrmbl op 14 maart 2008 21:46]

Mocht een mens aan 100 teraflops kunnen rekenen dan hadden we nooit een computer uitgevonden want dan hadden we die nooit nodig gehad. De snelheid waarmee computers zaken *berekenen* kun je niet vergelijken met hoe een mens zaken *beredeneert*. Het is een beetje als de slimste mensen zoeken, elk is goed op zijn gebied, maar er is geen maatstaf om ze echt met mekaar te vergelijken (Probeer maar ff mozart met einstein te vergelijken bv).
Inderdaad, wij mensen zijn allemaal specialisten binnen ons eigen gebied en het is onze idividuele interesse wat ons zo speciaal maakt. Zo lang een programma met al zijn algoritmes de wereld zwart/wit benadert zullen er nog vele T-flops nodig zijn om iets te simuleren. Je kunt een computer met vele sensoren (temperatuur, beweging etc) wel iets van een bewustzijn geven maar de dynamiek die een mens of dier heeft is nog lang niet mogelijk.

Een programma zal bijvoorbeeld nooit de emotie "liefde" als gevoel aan een persoon kunnen koppelen en daarmee kunnen handelen. Misschien zal het ooit wel gebeuren maar voorlopig ontbreekt het ons aan de hardware en dus aan de middelen dit te kunnen realiseren
Precies,
Al hebben ze morgen een miljard terraflops, een AI gaan ze niet maken.

"Probleem" is dat het moet geprogrammeerd worden. En we weten niet eens hoe ons eigen brein werkt, laat staan dat we het zouden kunnen namaken...

En in principe hebben ze een miljoen terraflops: ze hebben er nu 100 per seconde,van mij krijgen ze een maand de tijd om een antwoord te verzinnen op één vraag, dan hebben ze theoretisch een equivalent van 1.296.000 terraflops

Hey babe, wanna go down with me, or up in the sky and why

Laat een AI computermodelletje maar eens zoiets uitleggen ;) Ik zou de motivering wel eens willen horen + je moet een volledig consistent eigenbeeld hebben waarop je je mening baseert en motiveert. AI staat nergens, wat ze wel doen is AI nabootsen.

Een jongen van 4-5 jaar kan als het moet het stuur van een auto besturen (is al genoeg in het nieuws geweest nadat bv. de moeder onwel is geworden en het kind het stuur overneemt). Laat die secondlife bot dat maar eens doen ;)
Of laat hem eens visueel objecten herkennen, 't zal op wat trekken :)
Je gaat er vanuit dat intelligentie zoals we die in mensen observeren de enige, en ultieme vorm van intelligentie is en ook nog eens dat alle mensen op dezelfde manier beredeneren en hun mening kunnen articuleren en een consistent zelfbeeld hebben waarop ze al hun beslissingen baseren.

Ik denk dat je mensen overschat.
Een auto besturen (Darpa Challenge!) is aanzienlijk makkelijker dan een mens nabootsen.
Het zijn gewoon 2 totaal verschillende dingen: bruut rekenen of intuitief beslissingen nemen op basis van vage onderbouwingen.
Darpa Challenge? Haha komaan

Twee jaar geleden: 0 auto's die gefinisht waren
Een jaar geleden: een paar auto's
Wat hebben ze gedaan? De opdracht gemakkelijker gemaakt ;) Die auto's rijden op afgesloten parcours wat rondjes, dat noem ik geen intelligentie ;)
2 jaar geleden hadden ze 4 maanden voorbereiding gehad...
Het jaar daarna finishte meer dan de helft.
Het jaar daarna is een nagebootste stadsomgeving. Verdiep je er eens in, uiterst interessant, en een woestijn is geen afgesloten parcours!
Misschien. Dat vraag ik me dus werkelijk af. De ontwikkelingen zijn allemaal wel leuk op dit gebied, maar nog geen die mij vertelt (of gedeeltelijk vertelt) of ze weten hoe het menselijk brein werkt. Vast niet, of misschien is het toch ook wel eens voor een gedeelte verklaard. Alcohol maakt werkelijk vergeetachtig :P
Maar waarom ik de teraflops als soort meetwaarde aangaf, is dat er wel eens de vergelijking wordt gedaan met flops versus brains.De mens is dus nog niet zo slim om zichzelf te overtreffen, niet met 100 teraflops, maar ook niet met behulp van een ander middel... Niet dat dat ook echt kan, maar zelfs in de buurt van: "evenaren" lukt dus niet op dit moment dan.

@Johnny
Uiteraard is het zo dat twee mensen meer weten dan 1. En ik heb never nooit de intelligentie (en de kennis) die de ontwikkelaars van dit proggie hebben. Ze hebben ongetwijfeld veel meer te vertellen over dit onderwerp dan ik. Maar ik denk er wel over zoals geïnteresseerde mensen dat gewoonlijk doen. Dingen afvragen, uitzoeken, inbeelden etc. Ik overschat mensen dan ook niet zo sterk als jij misschien denkt. Ze kunnen ècht veel bereiken/bedenken:
Hoe komt de mens erbij om de afstand van hier tot Jupiter (naar schijnt 595 miljoen km) vrij nauwkeurig te bepalen?
Hoe komt de mens erbij om koffie van koffiebonen te zetten met behulp van heet water (eind 14e eeuw ergens in Arabisch gebied)?
Hoe komt de mens erbij om een electronisch circuit in een menselijk hoofd te zetten die je hersendelen verbindt met je zenuwstelsel (of hoe dat ook werkt)?

(nog steeds @Johnny : )
Straks maken ze robots die voor ons werken, en dus denken. Zij nemen straks ons zware of denkwerk (ik vind denkwerk niet zwaar, alleen vervelend als het eentonig wordt) over. En om even verder te doemdenken: Er zal nog steeds een scheiding tussen elite en arm bestaan. Zelfs deze vooruitgang betekent dat de armen armer worden, en de rijken rijker. Metaal o.i.d. voor de robots, zeker onder de meer dan 6 miljard aardbewoners nu, worden schaars etc., alleen de elite kan dat betalen. En wat dan? Dan is je leven zo goed als over (vanuit de gedachte dat je werkt -ongeacht of het voor geld of in natura is- om je leven te vullen). Dan heb je gelijk ja, dan is de mens toch niet zo slim als ik dacht.
Maar het feit dat ik kan bedenken dat van wanneer robots ons werk en denkwerk geheel overnemen, betekent dat ieder ander dat ook kan ;)

En even weer realistisch: Voor nu maakt deze vooruitgang geen problemen denk ik :P
Wat jij als test schets kan een mens ook niet na die tijdsperiode (maand) die je schetst. Van zo'n zinnetje chocola maken heeft een mens wat voor nodig, 15 jaar? En dat zijn geen vijftien jaar om over dat probleem te denken (terrafloppen) maar om de kennis en ervaring op te doen om zo'n probleem te kunnen oplossen.

Maar hoe laat je een AI ervaring op doen op een hoger niveau dan alleen maar goed/fout evaluatie? Hoe komt een AI ooit in iets als een pubertijd? Hoe kan een AI gaan twijfelen bij de juistheid van de door de 'evaluator' gegeven feedback?

Dat zijn toch dingen die noodzakelijk zijn (denk ik dan) om echt van toegepaste, zelfstandige en menselijke intelligentie te komen.
"of zijn die teraflops nietszeggend over hoe het menselijk brein werkt?"

Ik denk dat het antwoord in het midden ligt.
De intelligentie van onze hersenen laat zich niet 1 op 1 vertalen naar flops.

Onze hersenen zijn inherent goed in het oplossen (of benaderen) van bepaalde problemen waar computers inherent moeite mee hebben en andersom.
Voorbeeld:
Vraag aan zowel een mens als een computer de volgende vragen:
-wat is het 10000-ste getal van PI ?
-Is dit een gevaarlijke situatie ?
Kijk hoe beide uitblinken of juist niet in het vinden van een passend antwoord...
-AzErTy-, dat dacht ik dus ook. Nog niet heel lang geleden hebben onderzoekers op de 3e snelste supercomputer in de wereld het centraal zenuwstelsel van een fruitvliegje ge-emuleerd. Zelfs dat gaat maar op 1/10e van de werkelijke snelheid.

Wat we hier dus zien is wel degelijk een bot of anderzijts een nabootsing van een bepaalde functionaliteit, niet een emulatie.
Ik zou het eerder een abstractie van intelligentie noemen.
Naar buiten toe lijkt het mechanisme (redelijk) volledig te zijn maar het zegt niet zoveel over de interne werking.
Het is maar aan wat voor test je het blootstelt.
Als het waar is wat hier staat dan kan het programma het gedrag van een kleuter realistisch nabootsen en dus de Turingtest succesvol volstaan. Maar hoe dat in een chatsessie gaat is natuurlijk heel andere koek. Bovendien is de Turingtest gemaakt voor de 'volwassen' versie afaik.
Ach, ik moet de eerste vierjarige nog zien die zelfstandig kan converseren via een toetsenbord, dus op dat gebied heeft de computer zelfs een lichte voorsprong.
Er wordt gesproken over het nabootsen van "een mens", op zodanige wijze dat je, zonder te zien wie de computer bedient, niet kan bepalen of je met een mens of met een computer converseert. Dat sluit een vierjarige niet uit, mits je neutrale typehulp van een neutrale volwassene toestaat toch? De Turingtest IS juist een chatsessie AFAIK.
Ja, maar ik denk dat als ik willekeurige toetsen in laat drukken door de computer of een baby over mijn toetsenbord laat kruipen ik het verschil ook niet zou zien. Dus het lijkt mij dat er wel een informeel limiet is bepaald voor de Turing Test. Hoewel ik eerlijk toe moet geven dat ik me niets kan herrineren ondanks alle artikelen die ik hierover heb gelezen.

Wel weet ik het volgende: veel van de chatsessies waren te 'kraken' door strikvragen te stellen aan het systeem. Dat ging vanaf simpel (wat is de kleur van de rode bal?) naar moeilijker (wat is de kleur van de hemel?) en weer moeilijker (wat is de kleur van de hemel tijdens de nacht?).
random typen is geen gesprek. Dat is vereist voor de turing test. De proefpersoon moet tijdens en na het gesprek niet kunnen vertellen wie de computer was. Overigens zijn dat nog redelijk simpele vragen (die een vraag-zoekmachine ook zou kunnen beantwoorden). Ik zou zoiets vragen:
1. Ken je het verhaal van Romeo en Juliet?
2. Ja (nee is zeer onwaarschijnlijk, dus de computer zou door de mand vallen)
3. Wie denk jij dat de schuldige is aan de dood van Juliet? De families, de bisschop of Romeo? Of misschien iemand anders?
4. xxx
5. interresante mening, hoe onderbouw je die?
6. xxx
7. Maar ik ben het daar eigenlijk niet mee eens.

Dan zal je echt een slimme computer nodig hebben, die echt menselijk kan denken.
Maar dat zijn dus al vragen e.d. van een hoger niveau. Niet meer het niveau van de kleuter ;). Overigens is de laatste vraag die ik stel ook al lastig voor de computer omdat die verstand moet hebben van de cyclus op aarde e.d. om te weten dat de hemel niet de standaardlkeur heeft snachts. Genoeg valkuilen te verzinnen met ons vragen ;).
Geen enkele test is 100% juist of onjuist, maar een benadering, en meestal een aanname qua uitslag.

Het feit dat je een van de vragen niet juist kunt beantwoorden vertelt je overigens nog niet of je een computer bent. Het zal meer aan de score liggen, welke dus bij benadering zal vertellen of je een computer bent of niet. Tot dusver is geen enkele computer (of chatbot :P ) officieel als intelligent beschouwd volgens die Turing-test, als ik de wiki mag geloven.
interessant, heb je daar een link van?
als iemand de hersenen identiek werkende kan namaken -en rathersenen hebben veel gemeen met de onze- waarom kunnen ze dan nog niet eens iemand uit een coma halen? "Nabootsen" is een groot woord, nadoen kan iedereen, dat is gewoon afkijken, maar echt simuleren, daar heb je alle kennis over de werking voor nodig? En dan zouden ze toch wel iets verder staan met breinchirurgie neem ik aan.
Ik quote even:
De drie willen uiteindelijk een real-timesimulatie van een volledig knaagdierenbrein uitvoeren, maar het eenduizendste breintje in de IBM bleek ongeveer tienmaal zo traag te functioneren als de hersencellen van een normale muis.
Ze maken absoluut geen hersenen na, wat ze doen is het versturen van signalen tussen de hersendeeltjes nabootsen, zoals elektrische signalen versturen op een printplaat dus.
Dat is absoluut niet "hersenen simuleren" maar een flauw afkooksel van de techniek die hersencellen gebruiken om met elkaar te communiceren

[Reactie gewijzigd door ? ? op 15 maart 2008 10:46]

Je moet ook niet in the box denken bij "precies namaken", maar het 'werkende deel' namaken. Zie @koelpasta... en @koelpasta: Precies :)

Je kan dat werkend deel gaan minimaliseren tot nanotubes of wat dan ook, zodat het enigszins het formaat heeft van onze hersenen. Maar dat is dan ook zo interessant. Hoe groter het apparaat wordt dat onze brein moet gaan simuleren, hoe meer onmogelijk het wordt om het denken van de mens effectief te benaderen. Dat kind uit de film A.I. is een voorbeeld hoe het wèl kan.
Ik denk dat de mens zichzelf ook uiteindelijk wel nagenoeg kan evenaren, al zal dat nog wel enkele eeuwen duren. De ontwikkeling in miniaturisering gaat op technisch gebied steeds sneller en sneller. Ook worden er nog steeds andere interessante ontdekkingen gedaan wat de fiction / het kind uit de film A.I. steeds meer mogelijk maakt. Vraag me niet welke zo nieuw zijn dat niemand ze nog algemeen kent, maar met electronica en mechanica kan men nu al zoveel bereiken om een klein stukje 'mens' te evenaren. Het is slechts een kwestie van tijd. Het menselijk hart kan steeds beter nagemaakt worden (en niet die 'rubbish' die je weleens hoort van minder dan 5 jaar, maar geschat zo'n 10 jaar).

Ook het geven van liefde zoals in die film, kan volgens mij mogelijk gemaakt worden, mits de mens daar open voor staat. Maar zoals je in de film ziet, staat de mens daar niet voor open, omdat ze de liefde die de robot wil geven al op voorhand als nep ziet. De robot/jongen kon dat niet erkennen dacht ik, en toch is dat juist zo menselijk. Iets niet erkennen wat zijns inziens niet natuurlijk of logisch is. Terwijl een robot (met al z'n processoren, lijkt me) toch echt wel logisch moet kunnen denken ;)

Ik denk tot hier nu overigens nog in technische/electronische beperkingen die we dan nu beschikbaar hebben en op voort zouden kunnen borduren. Maar er zijn al technologieën die organisch materiaal kunnen printen. Het begin van meer.
Ik denk dat menig tweaker het te ver zoekt.
Er is geen nood voor het maken van AI, het maakt zichzelf.
Er zei iemand: het moet geprogrammeerd worden.
Ok, accoord, maar maar tot een beperkte mate, op die manier dat het 'AI' leert.
Vanzodra het zichzelf kan leren door fouten te maken en op te lossen heb je het begin.
De mens zal er verder niet te veel moeten updaten aangezien de AI dan zijn eigen code zal aanpassen aangezien deze te 'simpel' en 'inperfect' zal zijn naar mening van de AI.

Dat ze zo ver zitten als iemand van 4 jaar is weldegelijk niet mis, kijkend naar het feit dat je in je vroege jeugd veel sneller leert.

Ben wel benieuwd binnen pakweg 10 jaar...
Jij denkt blijkbaar dat de menselijke hersenen geen structurele ontwikkelijngen meemaken tijdens een leven.
Ook denk je mischien dat de hersenen een soort blanco neuraal netwerkje zijn.

Dat is onwaar, je hersenen bevatten veel structuur die richting geeft aan de ontwikkeling van zichzelf.
Ook zijn er vele processen die de hersenen, buiten hunzelf om, aanzetten tot verandering.
O.a. je genen begeleiden de ontwikkeling van begin tot einde.

Ook lijk jij te denken dat ze werkelijk de hersenen van een 4 jarig kind na hebben gemaakt. Dat is niet zo.
Ze hebben een abstractie van de intelligentie van 4 jarig kind draaiend. Dat is dus een simulatie van de hogere hersenfuncties waarbij als enig citerium de interactie met de buitenwereld wordt gehandhaaft.

Het virtuele kind wordt dus enkel op z'n doen en laten beoordeeld maar wordt er niet gekeken naar wat het virtuele kind nou werkelijk voelt.
De structuur van hoe een mens zich zal gaan ontwikkelen zit niet voorgebakken in de hersenen, maar in het DNA.

Het DNA bevat alle voorgeprogrammeerde informatie over hoe een individu, zowel uiterlijk als innerlijk, zal evoluëren...
Bekijk het eens van de filosofische kant. Als het kind daadwerkelijk intelligent is moet het zichzelf ook kunnen ontwikkelen. Een gemiddelde vierjarig leert met enorme snelheid. Over zo een veertien jaar hebben we iemand met een kennis van een achttienjarige. Interessante ontwikkelingen maar de intelligentie van een vier jarig kind lijkt me wat hoog gegrepen. Wat hier beschreven wordt is het toepassen van regels in een kennisdatabase. Dat te vergelijken met een menselijk verstandelijk vermogen vind ik _nogal_ hoog van de toren blazen.
Die regels zijn vervolgens weer gebaseerd op wat psychologen in de empirie waarnemen van hoe het menselijk brein werkt, wat de gemiddelde respons is op een bepaalde stimulus.
Het beste dat je uiteindelijk zal kunnen krijgen is een optelsom van alle empirische gegevens over het menselijk functioneren waarmee je dan uiteindelijk niet een mens mee kan maken (of simuleren, wat je wilt), maar waarmee je een menselijk ding kan creeeren. Dit kan wellicht zo echt worden dat wij mensen het onderscheid niet meer kunnen maken. De pragmaticus zal deze creatie als mens beschouwen, een essentialist zal dat in geen geval doen (tenzij als het raar loopt essentialisme in de vorm zoals M. Nussbaum het beschrijft, een conventionalistische opvatting van essentialisme)

Dat zal ooit nog eens leiden tot heftige debatten!! oeioeioeioeioei!! Dan kan de filosofie eindelijk weer eens zijn praktisch nut bewijzen :)
Dat intelligentie zich altijd moet blijven ontwikkelen is een onhoudbare stelling, zolang je het over mensen hebt. Immers, we eindigen niet allemaal met het verstand van Einstein.
Wat AI betreft is het nog maar de vraag, of op basis van eerdere regels en data geen nieuwe regels kunnen ontstaan. De grenzen van deze ontwikkeling ziijn nu niet te overzien.
Einstein heeft zich gewoon op iets specifieks doorontwikkeld, iedereen 'ontwikkeld' zich nog, al ben je geen genie in de maak. Als ik je tussen je benen stamp heb je weer iets bijgeleerd, namelijk dat je uit mijn buurt moet blijven.
Je bent misschien niet intelligenter geworden, je hebt echter wel iets bijgeleerd.
Hiermee ondergraaf je je eigen stelling. Het punt is namelijk, dat ik, in het geval van jouw (overigens wat ongelukkige) voorbeeld, niets meer zou leren van een tweede of derde "stamp".
Verder denk ik dat je genialiteit nogal simpel voorstelt, door het "gewoon op iets specifieks doorontwikkeld" te noemen. Ik denk eerder dat het vermogen om buiten de gebaande paden en kaders te denken, het echte kenmerk van genialiteit is. Dat bereik je nimmer door het uitsluitend toevoegen van data.
Dat is wel een erg makkelijke manier om je eigen gebrek aan genialiteit te verklaren :P.

Het is echt niet zo dat elke natuurkundige die doorleert spontaan met de relativiteitstheorie op de proppen zou komen.
De software is gedeeltelijk gemodelleerd naar de Theory of Mind, waardoor het in staat is het gedrag van virtuele voorwerpen en spelers gedeeltelijk te begrijpen, voorspellen en beïnvloeden.
Er staat niet dat het 100% het inzicht heeft van een 4 jarige. Ik interpreteer dat ie sommige dingen wel en sommige dingen niet kan bevatten.
Zelfs al heeft het nu de intelligentie van een 4-jarige, het blijft gelimiteerd door dat cluster van Linux-computers, dus zal ie niet zo snel doorleren (hooguit lukt het wel maar wordt het maken van beslissingen steeds langzamer, waar door hij laten we zeggen over 80 jaar de intelligentie van een 10-jaar oud jongentje zou bereiken) Natuurlijk gaat dat alleen op als je het cluster niet uitbreidt, wat nou ook het mooie is. Maar misschien dat we daarvoor even moeten wachten tot we voor een 4-jarige een wat kleiner cluster nodig hebben.
je hoeft niet direct extra servers neer te zetten voor een upgrade he :)

stell dat alles wat ze nu hebben een dual core is, als ze alles doen upgraden naar een quad core, ook al zou je maar 50% extra hebben ;-), dan is dat nog steeds een grote hoop :)
In hoeverre kun je stellen dat Eddie leeft?
Dat is wel een heel filosofische vraag ;)
Als je het vanuit een biologisch perspectief bekijkt zal een personage of robot met AI nooit leven, tenzij het opgebouwd is uit organische materialen met alle bijbehorende functies, metabolisme, replicatie.
Uiteindelijk zou bv. d.m.v. nanotech wel een soort LIFE 2.0 kunnen ontstaan. Een soort immitatie van het leven op celniveau, met bijvoorbeeld ook metabolisme en zelf replicatie. maar dan efficiënter.

Maar goed je kan er op zoveel manieren naar kijken. Ik denk dat wanneer AI z'n eigen wil kan ontwikkelen we het wel zouden moeten respecteren als ware het een levend wezen, maar daar kun je een hele discussie over houden ;)
Fantastisch, over enkele (tientallen) jaren hebben we chips die zo enorm veel krachtiger zijn dan de huidige processors en hebben we wellicht bots in onze computerspelletjes met het intelligentieniveau van echte mensen. Dat zou een fantastische ontwikkeling zijn. Een speelwereld waarin iedereen zijn eigen ding doet, maar dan niet op zo'n neppe gescripte wijze zoals in veel RPG's zoals Oblivion te zien is...

Mooi dat ze dit verder ontwikkelen, misschien komen er algoritmen die veel efficiënter zijn waardoor je ook minder rekenkracht nodig hebt :)
dat neppe gescripte meuk van oblivion was nog best revolutionair in zijn tijd. Daarnaast kostte al die gescripte meuk al een enorme berg processor kracht. Dit gaat alleen maar meer worden. Straks krijgen we PCI-E AI kaarten :/
Dat is niet eens een gekke gedachte, maar dat zal misschien eerst voor wetenschappelijke doeleinden komen. Een aantal AI technieken is beter optisch te "berekenen" dan in silicium. Dit geldt overigens ook voor (sommige) vector of matrix vermenigvuldigingen bijvoorbeeld.

Als je in een pixelshader twee kleuren bij elkaar optelt, kan je dit natuurlijk ook doen door daadwerkelijk 2 sets van 3 lichtbundels samen te voegen naar 1 set en weer uit te lezen wat de lichtsterkte is. Het voordeel is dat je met dezelfde snelheid ook 10 sets kan optellen.
Tuurlijk wel, het leven is gewoon een schaakprogramma met meer mogelijkheden!
Veel meer mogelijkheden...
Kwestie van vele peta tot de zoveelde processor kracht. Zodat een computer op een goed moment kan "redeneren" ...
Tenslotte worden wij tijdens onze opvoeding ook geprogrammeerd!
- roken is niet goed
- je mag niet stelen
- als mensen dood gaan komen ze niet meer terug
- als je een diertje pijn doet dan bijt het
....
simpele dingen, maar gewoon heel domweg programmeren ...

Op een bepaald moment gaat ook een pc bovenstaande zaken zelf gaan analyseren en zijn eigen idee erover krijgen!
- je mag niet stelen, maar toch moet ik het doen om rond te komen (bvb een AI bot in second life)
"Tuurlijk wel, het leven is gewoon een schaakprogramma met meer mogelijkheden!"

Dat hangt er maar net vanaf hoe je het bekijkt...
En dat is precies het punt, als mens hoef je er niet naar te kijken als zijnde een schaakspel. Een mens heeft de potentie om op verschillende manieren met zijn omgeving om te gaan.

Als je stelt dat het leven alleen schaakspel is dan forceer je dat wat een mens maakt in een kleine hoek van de werkelijke mogelijkheden.
zodra we met behulp van AI nieuwe AI kunnen gaan ontwikkelen zal het hard gaan.
we kunnen dan steeds betere systemen laten ontwikelen. Stel dat morgen iemand zo'n systeem ontwikkeld dat instaat is iedere dag zichzelf opnieuw te ontwikkelen maar dan 1,2x beter.........binnen één jaar heb je dan (E)instein=(M)hz * (C)ode².

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True