Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties, 20.326 views •
Bron: New Scientist, submitter: Clueless

Onderzoekers in Zwitserland gaan IBM's Blue Gene supercomputer gebruiken om een gedetailleerd model van de menselijke hersenen te simuleren. Het onderzoek met de naam 'Blue Brain' zal zich in eerste instantie richten op de neocortex, de buitenste laag van de hersenen die belangrijk is voor het menselijk denkproces. Uiteindelijk is het de bedoeling ook alle andere onderdelen van het orgaan te simuleren. Begonnen wordt met het opzetten van een model van de neurale netwerken die zich in de hersenen bevinden. In de neocortex zijn clusters gevormd die ieder tot tienduizenden neuronen kunnen bevatten. Die neuronen zullen vervolgens tot op moleculair niveau gesimuleerd worden. Het opzetten van een compleet model zal zeker tien jaar in beslag gaan nemen en snellere computers vereisen.

De simulatie volgt op jarenlang onderzoek naar de neurale architectuur van de neocortex en het gedrag van de verschillende neuronen daarbinnen. Het systeem dat IBM levert kent een piekcapaciteit van 22,8 teraflops en zou ongeveer acht miljoen dollar hebben gekost. Voor het einde van deze maand zou het systeem geïnstalleerd moeten zijn. Een van de mogelijkheden die het systeem biedt, is het toewijzen van een of twee gesimuleerde neuronen aan ieder van de ruim achtduizend processors in het systeem. Het nieuwe onderzoek kan waardevolle informatie opleveren over psychologische problemen die mogelijk worden veroorzaakt door defecten in de neurale architectuur, maar kan bovendien nieuwe inzichten geven over computerarchitectuur gebaseerd op de hersenen.

Lees meer over

Reacties (99)

Reactiefilter:-199098+174+213+33
Moderatie-faq Wijzig weergave
Wat wordt er schaamteloos dom geluld door sommige mensen.

Men neemt maar klakkeloos dingen aan. Men denkt en gelooft er maar op los. Jullie weten wie je zijn.

Neem dan mij: ik research, ik observeer, en ik weet. Geloven laat ik over aan mensen in de kerk.


Even wat feiten op een rij:

Exponentiele extrapolatie van de huidige trends zorgen ervoor dat we:

a) in 2015 in realtime kunnen volgen tot op het kleinste detail toe wat er in onze hersenen gebeurt (ref: http://www.corante.com/brainwaves/).

b) in 2020 CPU's hebben voor 1000% met dezelfde rekenkracht als 1 menselijk stel hersenen (ref: kurzweilai.net; www.singinst.org).

c) in 2030 klaar zullen zijn met het compleet reverse-engineeren van de menselijke hersenen (ref: kurzweilai.net; www.singinst.org).


Nemen deze extrapolaties aan dat er quantumleap doorbraken gaan plaatsvinden naast de gebruikelijke doorbraken die exponentiele acceleratie al decennia gaande houden? Nee.

Vinden quantumleap doorbraken plaats? Ja. (Zie de Cell chip, die ons in feite een paar jaar de toekomst in werpt qua rekenkracht.)

Betekent dit dat de 2020 schatting bij b) waarschijnlijk nog verder vooruit zal schuiven, zoals hij in het verleden ook heeft gedaan? Ja.


Nog een rijtje, om het af te leren:

a) De menselijke hersenen hebben vele malen meer rekencapaciteit dan de Intel en AMD CPU's in onze desktops.

b) De menselijke hersenen hebben 100 keer meer rekencapaciteit dan de nieuwe PlayStation 3.

c) De menselijke hersenen zijn qua rekencapaciteit voorbijgestreeft door supercomputers die tegenwoordig meer dan 100 Teraflop halen.

d) We maken binnen 15 jaar mee dat mainstream chips de rekencapaciteit van onze eigen hersenen voorbij schieten.


En denk erom: niet zomaar beginnen met tegenspreken, maar eerst research doen. ;)

Een goed begin kan men hier maken: http://yudkowsky.net/singularity.html.
Even wat feiten op een rij:

Exponentiele extrapolatie van de huidige trends zorgen ervoor dat we:

a) in 2015 in realtime kunnen volgen tot op het kleinste detail toe wat er in onze hersenen gebeurt (ref: http://www.corante.com/brainwaves/).

b) in 2020 CPU's hebben voor 1000% met dezelfde rekenkracht als 1 menselijk stel hersenen (ref: kurzweilai.net; www.singinst.org).

c) in 2030 klaar zullen zijn met het compleet reverse-engineeren van de menselijke hersenen (ref: kurzweilai.net; www.singinst.org).
Fieten :? :?

Tenzij jij opeens de toekomst kan voorspellen, zijn dit alles behalve feiten. Leuk al die referenties, maar volgens mij "geloof" jij meer dan de meeste van ons.. :)

@Codin:
De mogelijkheid is er dat de complete mensheid (of substantieel deel ervan) op korte termijn wordt uitgeroeid door een komeet / astroide / virus / nuclaire explosies / aliens / whatever.

Dus het zijn nog steeds geen feiten.. je mist dus een paar variabelen in je extrapolatie ofzo (ben niet zo wiskundig).. De toekomst laat zich nu eenmaal niet voorspellen..

Dus ook literatuur heeft op mijn punt weinig in te brengen..
Je leest niet goed.

Een feit is dat als je extrapoleert, je dan uitkomt op.... etc.

En als je je research had gedaan, had je geweten dat het heel goed mogelijk is om de toekomst te voorspellen, zolang je jezelf maar limiteert tot exponentieel accelererende groei in technologie.

Deze laatste volgt namelijk al decennia lang heel accuraat een zekere exponentiele curve. Het is echt heel simpel. Het staat allemaal hier:

http://www.kurzweilai.net/articles/art0134.html?printable=1
Leuk al die referenties, maar volgens mij "geloof" jij meer dan de meeste van ons..
En dit 'argument' moet de gigantische hoeveelheid literatuur hierover in één klap teniet doen? Dit maakt m'n alom gewaardeerde referenties op slag waardeloos? Dit moet de hele Singulariteits community zomaar even irrelevant maken?

Negeer het als je wilt, maar verwacht dan niet van me dat ik je ongeïinformeerde mening serieus neem.
Je leest niet goed.

Een feit is dat als je extrapoleert, je dan uitkomt op.... etc.
Het staat vast dat als je extrapoleert, je uitkomt op deze waarden.

Het is een deterministische rekensom.

Het is een feit dat extrapolatie aangeeft dat (a, b, en c).
feit (het ~, ~en)
1 gebeurtenis of omstandigheid waarvan de werkelijkheid vaststaat => feitelijkheid, waarheid

Gebeurtenissen lopen niet altijd volgens een rekensommetje (het kan sneller gaan, of gewoon helemaal staken), waaruit volgt dat dingen in de toekomst niet vast staan, en dus ook geen feiten zijn.
Zeg, ik denk dat je daar tochwel akelig dicht bij de waarheid komt.
Beste Codin de Codec,

Weet niet of ik het helemaal eens ben met het gestelde, maar mooie input.
Helaas werkt de laatste link niet.

Ik weet ook niet wat de lieden die de term Singularity in de vijftiger jaren introduceerden zagen als tijd waarop het gebeuren zou (het is natuurlijk niet ondenkbaar dat we dat punt volgens hen al voorbij zijn en er eigenlijk steeds meer achterkomen wat de mensenlijke brein allemaal wel niet kan.)
Zolang er nog zaken zijn die niet te verklaren zijn vraag ik me af of je al theoretisch kan doorrekenen wanneer cpu's meer rekenkracht hebben dan mensen.
Al is het maar omdat er ontdekt wordt dat rekenwerk meer is dan sommen oplossen en dus de term rekenen geherdefiniert moet worden.

Leuke discussie trouwens.

Gr S.
Al is het maar omdat er ontdekt wordt dat rekenwerk meer is dan sommen oplossen en dus de term rekenen geherdefiniert moet worden.
Nee.

Rekencapaciteit is niet meer dan sommen oplossen. Rekencapaciteit = rekencapaciteit. Plain and simple.

Het uitrekenen van de rekencapaciteit van de menselijke hersenen is doodeenvoudig. Je stelt het meest elementaire neuronsignaal gelijk aan het de meest elementaire bouwblok in een chip: de instructie.

Neuronen kunnen maximaal 200 maal per seconde informatie overdragen. Deze informatieoverdracht is overigens vergelijkbaar met 5 bits.

Verder volgt er een simpele vermenigvuldiging:
My estimate of brain capacity is 100 billion neurons times an average 1,000 connections per neuron (with the calculations taking place primarily in the connections) times 200 calculations per second. Although these estimates are conservatively high, one can find higher and lower estimates. However, even much higher (or lower) estimates by orders of magnitude only shift the prediction by a relatively small number of years.

Some prominent dates from this analysis include the following:

* We achieve one Human Brain capability (2 * 10^16 cps) for $1,000 around the year 2023.
* We achieve one Human Brain capability (2 * 10^16 cps) for one cent around the year 2037.
* We achieve one Human Race capability (2 * 10^26 cps) for $1,000 around the year 2049.
* We achieve one Human Race capability (2 * 10^26 cps) for one cent around the year 2059.
Het is allemaal zo simpel mensen. Het staat gewoon op het net.

Doe je research!!!

Ref: http://www.kurzweilai.net/articles/art0134.html?printable=1
Toch is het de vraag wat je daar aan hebt.
Neem de predikaatlogica.
Een mens kan sommige stellingen daaruit binnen een paar minuten bewijzen.
Er is echter geen schematische manier een computer dit te laten doen, dus ook met een supercomputer bereik je niet wat een mens in een paar minuten bereikt.
Zelfde voor nieuwe dingen;
Mensen (&dieren) kunnen nieuwe situatie's beschouwen en er iets mee doen. Een mens kan bijvoorbeeld zeggen of iets wat hij ziet een paard is of niet, ook al heeft hij nog nooit een paard gezien dat eruitziet als dit paard.
Een computer kan dit niet echt.
Hiermee in vergelijking beschikken de huidige beste computers (op dit gebied, wat NIET de snelste in rekenkracht zijn) momenteel over het IQ van een guppy (das zo'n klein visje geloof ik). Dat volgens de American Scientis van Januari dit jaar, voor bronneukers.
Kortom, heel fijn dat supercomputers de rekenkracht van een mens ver overstijgen, maar toch kunnen muizenhersenen dingen die de snelste supercomputers van tegenwoordig nog niet kunnen.

edit: even een zinnetje aangepast voor duidelijkheid.
Helaas werkt de laatste link niet
Hij had een punt erachter gezet (einde van de zin) dit is de goede link:

http://yudkowsky.net/singularity.html
Over slap lullen gesproken...

Neem dan mij: ik research, ik observeer, en ik weet. Geloven laat ik over aan mensen in de kerk.

Extrapolatie = Feit ?

Volgens Intel extrapolaties zouden we inmiddels al zo'n beetje op 10 GHz processoren zitten. Helaas werd er geen rekening gehouden met de opgedoken problemen die hogere kloksnelheden beperken.

Volgens domme bevolkingsextrapolaties zullen we in tien jaar op weet ik hoeveel tientallen miljarden mensen zitten. Helaas wordt er geen rekening gehouden met toenemende welvaart (hoeveel gezinnen in het westen hebben vandaag de dag nog meer dan 4 kinderen?), met birth control (China), etc. etc.

Al die 'research' van jou is niet meer dan domweg geloven wat er staat op die (zeer beperkt aantal) sites van je.

Als je wat meer had nagedacht dan had je geweten dat de menselijke hersenen zowel qua structuur als functionaliteit geheel niet vergelijkbaar zijn met digitale computers.

c) in 2030 klaar zullen zijn met het compleet reverse-engineeren van de menselijke hersenen (ref: kurzweilai.net; www.singinst.org).

Ik heb Cognitieve Kunstmatige Intelligentie gestudeerd en geloof me (en japsai) dat JIJ nu degene bent die zichzelf onsterfelijk belachelijk maakt met deze compleet ongefundeerde koffiedik kijken.

Het hele idee van het achterhalen van de werking van neurale netwerken (en de hersenen aanverwant) gaat verder dan domweg de informatieverwerkende snelheid van de neuronen afzonderlijk optellen. Je hebt zowel positieve als negatieve feedback, loops, etc. etc.

Als de hersenen zo simpel werken, waarom hebben we dan nog geen FLAUW benul hoe zo'n simpele structuur zoiets oneindigs complex als de menselijke taal kan leren en hanteren?

Het zal me benieuwen wanneer de eerste computer gemaakt wordt die uit zichzelf de regels en contexten van taal kan leren en geheel uit zichzelf originele moppen begint te tappen.

Ik zal je vertellen, als we dit over 15 jaar hebben bereikt krijg je van mij mijn huis, mijn auto, mijn pensioen en mag jij een week lang over mijn vrouw heen.
Extrapolatie = Feit ?
Het is een feit dat extrapolaties eerdergenoemde data aangeven. Niks meer, niks minder. Er is echt niks om raar van op te kijken. Heus niet.
Volgens Intel extrapolaties zouden we inmiddels al zo'n beetje op 10 GHz processoren zitten. Helaas werd er geen rekening gehouden met de opgedoken problemen die hogere kloksnelheden beperken.
Kloksnelheden zijn irrelevant. Het komt neer op aantallen instructies per seconde. En deze nemen vooralsnog exponentieel toe, dankzij efficient design en tal van andere factoren.
Volgens domme bevolkingsextrapolaties zullen we in tien jaar op weet ik hoeveel tientallen miljarden mensen zitten. Helaas wordt er geen rekening gehouden met toenemende welvaart (hoeveel gezinnen in het westen hebben vandaag de dag nog meer dan 4 kinderen?), met birth control (China), etc. etc.
Extrapolaties zijn slechts getallen. Niemand was ooit van plan om exponentieel te blijven vermeerderen zodat we braaf op 1 lijn bleven met de bijbehorende curve.

Bij technologie is dat echter wel zo. Het is zelfs erg belangrijk omdat er grote economische implicaties mee gemoeid zijn.
Al die 'research' van jou is niet meer dan domweg geloven wat er staat op die (zeer beperkt aantal) sites van je.
Ik heb er nog veel meer, maar ik niemand hier information overload bezorgen. Op die manier leest niemand wat. Je kunt zelf ook links volgen, als je dat graag genoeg zou willen.

Zoals ik al eerder schreef, er is hier sprake van een 'vast body of literature'. Er is consistentie. En waar consistentie is, is waarheid.

Net als met rook en vuur.
Als je wat meer had nagedacht dan had je geweten dat de menselijke hersenen zowel qua structuur als functionaliteit geheel niet vergelijkbaar zijn met digitale computers.
Is compleet irrelevant. De enige vergelijking die ik trek tussen chips en hersenen is rekencapaciteit. Pur rekenkracht. Niks meer, niks minder. Het is evident de configuratie verschilt.

LEES gewoon. Je neemt teveel dingen aan. Dit kost tijd en energie.
Ik heb Cognitieve Kunstmatige Intelligentie gestudeerd en geloof me (en japsai) dat JIJ nu degene bent die zichzelf onsterfelijk belachelijk maakt met deze compleet ongefundeerde koffiedik kijken.
Ad hominem ad nauseam.

Met alle respect, je spreekt buiten je eigen expertise. Dit valt onder futurologie. Mensen die AI hebben gestudeerd kunnen absoluut geen uitspraak doen over wanneer je een bepaald niveau hebt bereikt van begrip van de werking van intelligentie.

Er zijn Nobelprijs winnaars die claimen dat het nog 50 jaar duurt voor er een fatsoenlijke drug op de markt is die ons ertoe in staat stelt dat we kunnen schransen wat we willen maar toch slank blijven. De keiharde realiteit is dat deze drug al tijden op de tekentafel ligt, en in muizen al werkt.

Eén van de vele voorbeelden die aantonen dat slimme mensen de implicaties van exponentiele groei niet bevatten. Niet verwonderlijk, het zijn immers geen futurologen.
Als de hersenen zo simpel werken, waarom hebben we dan nog geen FLAUW benul hoe zo'n simpele structuur zoiets oneindigs complex als de menselijke taal kan leren en hanteren?
Simpel? Hoe simpel? Heb ik iets gezegd over complexiteit? Wat neem je nu toch allemaal weer aan?

Assumpties, assumpties, assumpties...

De reden waarom we het nog niet snappen, is direct gerelateerd aan de natuur van exponentiele groei. In het begin stijgt een exponentiele curve niet erg hard. Het lijkt eigenlijk net een rechte lijn. Op een gegeven moment, en dat is één dezer decennia, begin je er echter wat van te merken.

Het reverse engineeren van de menselijke hersenen is allang en breed onderweg, en het schiet al leuk op ook. Enkele regionen zijn al compleet gemapped, en de werking ervan is nauwkeurig gereproduceerd in algoritmen. Visuele algoritmen, direct gecopypaste van onze eigen hersenen, worden gebruikt in bijvoorbeeld videocamera's. Het is een zware understatement te zeggen dat we geen flauw benul hebben van waar we mee bezig zijn.

Wanneer je een hersenregio begrijpt, kun je de werking ervan omschrijven met wiskundige functies. Ref: Jeff Hawkins.

Ik stel voor dat we het realistisch houden.
Het zal me benieuwen wanneer de eerste computer gemaakt wordt die uit zichzelf de regels en contexten van taal kan leren en geheel uit zichzelf originele moppen begint te tappen.
Het is een leuk argument, maar wel eentje die mijn stelling onderbouwt, en niet de jouwe.

Computers tappen al moppen die grappiger zijn dan mensen. En het leuke is dat ze dit doen met wat simpele logische algoritmen. Komt geen complexiteit of bewustzijn aan te pas. Computers verslaan ook mensen met schaak, en ze schrijven betere muziek dan wij. En dat alles zonder bewustzijn.

Kun je nagaan wat er gaat gebeuren als computers daadwerkelijk intelligent gaan worden.
Ik zal je vertellen, als we dit over 15 jaar hebben bereikt krijg je van mij mijn huis, mijn auto, mijn pensioen en mag jij een week lang over mijn vrouw heen.
Als we wat hebben bereikt? Rekencapaciteit van hersenen in een chip? Eitje. Dat win ik by default. De PS3 zit al op 1% hiervan.

Je vrouw mag je houden, die is dan al oud. De rest neem ik graag in ontvangst. Je contactgegevens kun je opmailen naar jayrenegade@hotmail.com.
En waar consistentie is, is waarheid.
Waar consistentie is, zijn mensen die hun ongelijk niet willen toegeven.
MS heeft lang consistent aangegeven dat Linux geen bedreiging was.
Neem de evolutietheorie. Darwin heeft lang consistent dingen aangenomen die alweer verworpen zijn door het Neo-Darwinisme. En het Neo-darwinisme maakt gebruik van niet falsificeerbare stellingen, dus heeft ook wetenschappelijk afgedaan.
Neem de boeken van Erich von Daniken. Er is best consistentie bij historici, dus alles wat er niet inpast doen ze af als 'niet gebeurd'.
De enige vergelijking die ik trek tussen chips en hersenen is rekencapaciteit.
Nog steeds een onzinvergelijking.
Een 10mhz Z80 processortje, die volgens jou minder rekencapaciteit heeft dan mijn hersenen, rekent binnen een 10de seconde uit hoeveel 45325 x 34534653 is. Ik doe daar langer over ja. Toch zijn er mensen (chinezen maken er soms een sport van) die dit sommetje in 3 tellen oplossen.
Hebben zij dan 60x zoveel rekencapaciteit in hun hersenen als ik er 3 minuten over doe? Ik twijfel daaraan. Kortom, rekencapaciteit is zwaar subjectief en heeft in deze vorm niks met wetenschap te maken.
Met alle respect, je spreekt buiten je eigen expertise.
Aha, vandaar dat Einstein, onze patentbureaumedewerker, ook geen zinnige dingen over natuurkunde kon zeggen.
De reden waarom we het nog niet snappen, is direct gerelateerd aan de natuur van exponentiele groei. In het begin stijgt een exponentiele curve niet erg hard.
Dit is bij een sinus of parabool precies zo. Exponentiele groei hieruit laten voortkomen is willekeur.
Wanneer je een hersenregio begrijpt, kun je de werking ervan omschrijven met wiskundige functies.
Het bewustzijn echter niet. Lange discussie, die ik niet ga voeren, maar neem van me aan dat momenteel het begrip waarnemen vanuit de quantum-fysica niet wetenschappelijk verklaard kan worden. Je komt dan al snel bij niet falsificeerbare parallele werelden, dus kan je net zo goed gelijk in god geloven.
Kortom, iets moet die wiskundige functies met het bewustzijn verbinden, maar dat valt wetenschappelijk (vooralsnog) niet te verklaren.
En ze schrijven betere muziek dan wij.
Geloof er niks van. Momenteel is er geen computer die met een eenvoudig melodietje zonder drumstel het ritme mee kan tikken, wat de josti-band wel kan.
Oke oke, je bent een slimme jongen, je kent je latijn, ontzettend leuk.

Men neemt maar klakkeloos dingen aan. Men denkt en gelooft er maar op los. Jullie weten wie je zijn.

hmm redelijke assumptie dit. Nu we het toch over computers en menselijk brein hebben: een gekleurde mening geeft een ieder, niemand is 100% ter zake of 100% onderbouwd, tenzij daar veel tijd in wordt gestoken. Een assumptie zal niet snel in een proefschrift te zien zijn, maar wanneer er gereageerd wordt op posts in het forum heb je weleens kans dat mensen assumpties hebben. Op dit gebied heb jij die niet, omdat je daadwerkelijk heel goed onderbouwt, maar misschien op andere vlakken weer wel.

Maar leg uit, hoe kun je door extrapolatie uitgaan van een benadering van een voorspelde curve? Die mis ik even. Er zijn toch teveel componenten om rekening mee te houden? Zoals stabiliteit van de wereldmarkt, stabiliteit in de landen die de meeste microchips fabriceren of die het meest aan onderzoek doen aan het vervaardigen van snellere microchips? Hoe kun je, als je dat meeneemt, uitgaan van een stabiel stijgende lijn???

Anyway, donders interessante links die je daar post, daar leert de mensch nog eens wat van!
Wat wordt er schaamteloos dom geluld door sommige mensen.

Men neemt maar klakkeloos dingen aan. Men denkt en gelooft er maar op los. Jullie weten wie je zijn.

Neem dan mij: ik research, ik observeer, en ik weet. Geloven laat ik over aan mensen in de kerk.
Wetenschap is ook geloven: feiten zijn testbare waarnemingsuitspraken. Een wetenschapper gelooft op basis van argumenten dat een bepaalde theorie het beste de waarnemingen verklaard. Er is geen objectieve waarheid.

Ik ben zeker dat de mensen die voor je hebben gereageerd in hun veld ook zeker wel hebben gelezen, dus je bent echt niet de enige die gefundeerde meningen uit. Wat betreft het artikel ben ik (Cognitieve Neurowetenschappen) het eens met de AI-er en de neurobioloog hierboven. Die twintig jaar van jou is een verkeerd ingeschatte Messiah, dus ga maar terug naar de kerk.
Wetenschappers betichten gelovigen ervan dat logica hen ontgaat. Dit is waar.

Gelovigen betichten wetenschappers ervan dat ze te weinig geloof hebben. Dit is niet waar. Wetenschappers moeten ook de nodige faith opbrengen, maar ze weten deze veel beter te plaatsen.

De 20 jaar is geen 20 jaar, maar 15 jaar. Het is een simpele rekensom. Je kunt het gewoon narekenen. Staat zomaar op de links die ik heb neergekwakt.

Zoals het er nu naar uit ziet, zullen we de 1000$ CPU met rekencapaciteit 1 menselijk stel hersenen al veel eerder zien dan 2020.

De AI'er en de neurobioloog zijn vast heel slim, maar wanneer zij uitspraken doen over wanneer we een CPU zullen bouwen die vergelijkbaar is met 1 stel hersenen, spreken ze buiten hun eigen expertise. Dit laatste valt namelijk onder futurologie.

En futurologie is een vak. Je moet er studie naar doen, wil je zinnige uitspraken kunnen maken over de toekomst.
Ze kunnen hooguit proberen te simuleren wat over de menselijke hersenen bekend is, en dat is nog maar heel weinig, al wil men ons graag het tegendeel laten geloven.
Juist een simulatie gebaseerd op het weinige dat we wél weten kan ons meer inzichten brengen over hoe het nu eigenlijk werkt. En kan bevestigen of onze huidige theorieën al dan niet kloppen.
Dit wordt zeer interessant. Eindelijk een volwaardige poging tot het elektronisch nabootsen van onze hersenen.
Wordt een leerrijk experiment me dunkt.
Op insect niveau misschien, een menselijk brein vergt een factor miljard aan snelheid EN capaciteit. Not in our liftetime...
Ons brein is echt niet zo snel als een computer!

Wel hebben wij de beschikking over enkele miljarden slome processoren (neuronen). (vrij simpele dingetjes eigenlijk)

De huidige generatie computers groeit nu van 1 core, naar dual core 2, en sinds deze maand ook naar quad core 4...

zie je de analogie met andere introducties...
1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048, etc.
Een miljard is maar een paar stapjes verder..

Ik schat 30 jaar.. Maar sommige ontwikkelingen kunnen wel eens veel sneller gaan, als er 'veel' geld te halen valt en er bepaalde belangen bij betrokken raken...

Als deze simulaties overéénkomen met de werkelijkheid. Krijg je echt inzich in de werking van de hersenen. Hoe werken dromen, hoe werkt herinneren, hoe werkt leren, etc.
En als je weet hoe iets werkt, kun je er mee gaan experimenteren (alteren)

Op basis hiervan kun je later echte hersenen ook beinvloeden...andere dromen, nieuwe herinneringen (total recall), sneller leren etc.

Een backup van je hersenen kan dan ook gemaakt worden.

Als ik een blauw beeld zie. Moet er ergens in m'n hoofd een paar neuronen oplichten.
Als ik een gedetaileerder beeld zie. Gaan mijn hersenen hier anders mee om.
Na een tijdje weet het programma welke kleuren er bij welk hersenpatroon horen.
Op die manier kunnen beelden uit hersenen op een scherm worden weergegeven. (Minority Report)
Ik denk dat jij te veel films hebt gezien. ;) Als het echt zo eenvoudig zou zijn, zoals jij schetst, denk je dan niet dat er allang gesimuleerde hersenen zouden zijn en dat kunstmatige intelligentie op het niveau van het menselijk brein overal terug te vinden zou zijn? Nee dus. Een neuron is niet een simpele processor. En het gaat ook niet om het simuleren van zo'n neuron, maar de complete architectuur, die is opgebouwd uit neuronen. Het onderzoek heeft zich gericht op die architectuur en niet op de werking van een neuron. De werking van een neuron is al lang bekend, maar de architectuur van de hersenen bepaald hoe wij kunnen denken en herinneren. En dat onderzoek staat voorlopig nog in de kinderschoenen. Het project dat hier wordt beschreven is een eerste serieze poging om de hersenen in de praktijk te simuleren. Ik ben benieuwd..
Ik ben dan weer neurobioloog en wil ook wat zeggen.
Ten eerste verwerkt een neuron niet echt informatie en is het dus niet te vergelijken met een processor. Ten tweede verschilt ieder neuron van elkaar en kom je met het parabolisch of whatever opschalen van een aantal identieke processors niet veel verder in de buurt van de menselijke hersenen. Daar komt nog bij dat ieder neuron met tussen de duizend en honderdduizend andere neuronen communiceert afhankelijk van een hele hoop factoren. Ik denk daarom dat de uitdaging en interesse van de onderzoekers in de software ligt. Ten derde zijn computer veel beter en sneller (megahertz hype!?) in bv rekenen en hersenen weer in andere dingen zoals patronen herkennen. Ten vierde, het is mijn gevoel bij de opmerkingen van sommige tweakers dat ze nog in alchemie geloven en dat je van lood goud kan maken. Je kunt dus ook niet van silicium hersenen maken als je begrijpt wat ik bedoel!
Tsja... zo simpel ligt het helaas niet.
Ten eerste bestaat ons brein uit zo'n 100 miljard neuronen, daar komt die computer nog lang niet aan te pas. Daarnaast werken hersenprocessen ontzettend ingewikkeld en is het écht niet zo simpel om even een patroonherkenning te doen bij bepaalde associaties (de kleur blauw). Dat komt ten eerste door de structuur van de hersenen (het is een netwerk van neuronen, iets heel anders dan de computersystemen die iedereen gebruikt). Daarnaast is het gewoon ontzettend moelijk (zo niet onmogelijk op dit moment) om exacte hersenactiviteit te meten, daar komen heel veel practische problemen bij kijken.

Daarnaast weten we zelfs niet alles van de exacte werking van 1 neuron (we weten er weliswaar heel erg veel vanaf, maar er zijn ook nog dingen die we niet zo goed weten). Laat staan een compleet brein dat uit 100 miljard neuronen bestaat.

Ik ben hierover dan ook nogal sceptisch. Hoewel het interessant kan zijn om te zien wat voor resultaten er behaald worden is de lat veel te hoog gelegd naar mijn idee (en als student KI zal ik er toch wel iets vanaf weten denk ik ;)).
"allang gesimuleerde hersenen "

Neurale netwerken simuleren (vrij grof) de werking van neuronen. Het probleem is dat de huidige computers extreem traag zijn om die in grote hoeveelheden te simuleren.
Ik, ook een student Kunstmatige Intelligentie, wil hierbij graag nog toevoegen dat, alhoewel neuronen misschien niet sneller zijn dan een interne CPU connectie, onze neuronen wel een 'massively parallell' systeem zijn zoals het in het Engels zo mooi gesteld wordt.
(als ze dat niet deden, konden we ws. ook niet in 'real-time' visuele input afhandelen bijv.)

Erg goed leesvoer hierbij is:

'Parallel Distributed Processing' door Rumelhart, D., J. McClelland & the PDP Research Group. MIT Press, Cambridge, MA: 1986.

:)
Kan iemand mij vertellen of dit ook een vooruitgang van fuzzy logic is? Ik bedoel, computers denken over het algemeen in stricte logica, en mensen in iets minder stricte, iets warrigere logica (een computer zegt dat het 20,6 graden is, een mens vindt het koud of warm).
Kunnen computers met deze architectuur ook beter in fuzzy logic denken? Dat zou namelijk ook voor andere problemen (voor aansturen van complexe systemen) zeer interessant zijn.
Als ik een blauw beeld zie. Moet er ergens in m'n hoofd een paar neuronen oplichten.
Als ik een gedetaileerder beeld zie. Gaan mijn hersenen hier anders mee om.
Na een tijdje weet het programma welke kleuren er bij welk hersenpatroon horen.
Op die manier kunnen beelden uit hersenen op een scherm worden weergegeven. (Minority Report)

Je geeft het zelf al aan, je hebt teveel films gezien... Buiten dat neuronen allemaal verschillend zijn en ingewikkeld met een hoop in verband staan, snappen we uberhaupt nog niet hoe dat geheel werkt. Hoe hersens de kleur blauw zien kunnen we in een MRI scan zien, maar wat we ermee moeten en hoe het werkt weet nog niemand.

Dat kun je niet vergelijken met huidige CPU's ook niet als er paar parallel functioneren. Nu al is het grootste probleem om ze goed te syncen met elkaar, en om goede software te schrijven die optimaal gebruik maakt bv 2 cores, laat staan miljaren parallel geschakelde...
vgl übercomp van 1970 met een van nu.... en volg de manier van parabool stijgen :)

zou het niet nog in our lifetime kunnen zijn? :)
Reactie op mike_mike:

Misschien op dit moment nog niet, maar zodra Quamtum computing echt een realiteit wordt waarschijnlijk wel...
En die ontwikkelingen gaan aardig rap heb ik begrepen...
Dus het zou best nog wel eens in our lifetime kunnen gebeuren... :)
het probleem is niet alleen rekenkracht, maar om de hersenen te kunnen simuleren moet je eerst uitvogelen hoe ze werken... en DAT is echt geen kattepis! 1 neuron kan enorm veel verbindingen hebben met anderen, die elk verschillende effecten kunnen hebben, afhankelijk van waar op het andere neuron ze aanhechten, welke neurotransmitter ze afgeven, en dan is er ook nog het belang van timing. het brein is ongelofelijk complex.
@mike_mike
gelukkig zitten er inderdaad geen 8000 volwaardige ibm processors in ons hoofd om hetzelfde te bereiken ;-) En koeling? Dat bloed in je hoofd zal wel koken! :P
- ik ga gauw weer op bed liggen om mn hoofd koel te houden -
8 Miljoen dollar ?! |:(
Weet je hoeveel mensen je daarmee kunt redden ?
Als je geld alleen maar zou gebruiken om mensen te redden zou het aantal mensen dat moet worden gered dramatisch stijgen.
Ik ken uitgaven die een stuk minder nut hebben dan deze, en een stuk groter zijn, die je beter kan gebruiken om mensen te redden.

Deze 8 miljoen zou wel eens juist mensen kunnen gaan redden.
Ja en dan raakt de wereld ook niet overbevolkt enzo ???
Weet je hoeveel mensen je kunt redden met het
doen van nuttig onderzoek? 8 miljoen is een scheintje
als ze tegen iets nuttigs aanlopen hiermee!
24 teraflops...!?
Kunnen ze dan niet beter 12 playstation3s (2 teraflop per stuk... toch?) aanschaffen... lijkt me een stukgoedkoper dan een Blue Gene.

:)
Dat zullen wel 2 megaflops zijn, een factor 1000 minder dus.
kun jij dan met een controler rekenen?
maar kan bovendien nieuwe inzichten geven over computerarchitectuur gebaseerd op de hersenen.

Wat moet ik me daarbij voorstellen? Naar het ziekenhuis gaan, stukje (ongebruikte) hersenen laten verwijderen, omvormen tot iets wat lijkt op ram en me computer upgraden?

Sommige mensen zullen dan wel een hele snelle computer hebben :+
denk weer kleiner maken van chips
neuronen zijn ook vreselijk klein (naja ze zijn wel lang maar klein :) )

of ze moetne het op efficientie gooien
neuronen zijn met een normale microscoop prima te bekijken. Ik weet niet wat je klein noemt.... maar ten opzicht van wat klein heet in de computerbiz is dit reusachtig.
bonet, moet je es naar de grootte van onze hernsenpan kijken, vervolgens naar welk gedeelte er gebruikt wordt, en tot slot naar wat we er allemaal mee kunnen. Dan mag je toch wel concluderen dat hersens op z'n zachts gezegd compleet superieur zijn aan elektrische chips.

Neuronen zijn misschien groter, maar je hebt er in computerbiz-termen maar "een paar" van nodig. En bovendien zijn neuronen adaptief (kunnen nieuwe verbindingen bouwen -> leren).
nu hebben blondjes wat om over op te scheppen:

"ik heb een betere airflow" :*)
Als ze die betere airflow nou zouden gebruiken om nog een beetje te overclocken..
Sommige blondjes zijn ook al redelijk gemod..... Dus dan heb je straks zelfs nog mod-blondjes :D
Was jij niet die gene met die vriendin met led fan?
neurale netwerken is een techniek waarbij computers kunnen "leren" zoals mensen dat doen... maar dit staat ook nog niet 100% op punt.

dus adhv de neurale netwerken die ze heir implementeren hopen ze om nieuwe inzichten te krijgin in de techniek van neurale netwerken door ontdekkingen die men op menselijk vlak van de hersenen ontdekt.
leren gaat door versterking van verbindingen
hoe vaker een stroompje een bepaalde weg aflegt hoe belangrijker de herinnering wordt
voor neurale netwerk gebaseerde computers betekent het niet dat het organisch is, dit kan met processoren worden nagebootst. Donor codicil opgeven dat je niet je hersenen wil laten gebruiken voor computers is er echt nog niet bij hoor... toch?
10 jaar voor simulatie van delen van de buitenste cortex.. mwah compleet menselijk brein simuleren zal nog wel ff duren denk ik... maar wel een bijzonder mooi en leerzaam initiatief!
Uhm ik geloof dat ze bedoelen over 10 jaar het complete hersenorgaan klaar hebben,
Uiteindelijk is het de bedoeling ook alle andere onderdelen van het orgaan te simuleren....Het opzetten van een compleet model zal zeker tien jaar in beslag gaan nemen en snellere computers vereisen.
Uit de bron:
"The end product, which will take at least a decade to achieve"
Ten minste tien jaar voor het geheel dus.
"dammit, it's alive, turn the damn thing off, NOW"

"i'm sorry but I cannot do that Dave"
and how are you going to stop me? try to throw your floppy's at me?

eject your cd'roms to try and break my knees?

or blink your lights extremely fast to make my brain go bananas by epilepsy?
Blue gene meet humor. HAHA wat grappig.

Deze reactie is automatisch berekent door een simulatie van de hersenen. COOL
Super, misschien begrijpen we over een paar jaar dan wat meer van hoe wij (mensen) denken. Als we dan ook nog psychische problemen kunnen begrijpen (en dus misschien oplossen) is dat helemaal mooi meegenomen!

Valt me trouwens reuze mee, 8 miljoen euro voor zo'n uit de kluiten gewassen rekenmachine. Ik dacht dat die bedragen veel hoger opliepen, maar het zal wel vooral in het onderhoud zitten dan?
Super, misschien begrijpen we over een paar jaar dan wat meer van hoe wij (mensen) denken.
Ik kan me voorstellen dat je blij bent (gezien je nickname) :Y)
"Super, misschien begrijpen we over een paar jaar dan wat meer van hoe wij (mensen) denken. Als we dan ook nog psychische problemen kunnen begrijpen (en dus misschien oplossen) is dat helemaal mooi meegenomen!"

Voor psychische problemen hebben ze in amerika anders ook al een oplossing hoor

LETHAL INJECTION }>
Hersenen zijn niet handig. Ze onthouden niet alles. Ze selecteren. Heeft men niks aan als het aan komt op betrouwbaarheid :+
Hersenen zijn niet handig. Ze onthouden niet alles. Ze selecteren.
Dat heet: "zuinig omgaan met de resources."
Heeft men niks aan als het aan komt op betrouwbaarheid.
Bij een kunstmatig brein kan men zelf de criteria bepalen in hoe verre het brein selectief moet zijn en wat het moet selecteren.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True