Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 63, views: 16.909 •

Onderzoekers van een Canadese universiteit hebben een computersimulatie ontwikkeld van een menselijk brein. Hun model bestaat uit tweeŽnhalfmiljoen neuronen, een fractie van een echt brein. Toch kan het model relatief complexe taken volbrengen.

De neurowetenschappers van de Waterloo-universiteit in Canada hebben, onder leiding van Chris Eliasmith, het kunstmatige brein ontwikkeld. Spaun, een afkorting voor Semantic Pointer Architecture Unified Network, bestaat uit gesimuleerde neuronen die met elkaar communiceren middels elektriciteit en chemische moleculen, net als de actiepotentialen en neurotransmitters in biologische hersenen. De virtuele neuronen zijn in subnetwerken onderverdeeld die de functies en structuren van echte hersenen nabootsen.

Spaun krijgt input via een klein 28 bij 28 pixels tellend scherm, waarop reeksen getallen worden getoond. De hersensimulatie kan deze getallen niet alleen succesvol herkennen, maar de getoonde reeksen ook opslaan en patronen in de getallen achterhalen. Met een gesimuleerde robotarm kan een lijstje gereproduceerd worden, maar kunnen ook ontbrekende getallen in een reeks worden 'opgeschreven'. In totaal kan Spaun acht eenvoudige taken uitvoeren en presteert daarbij vergelijkbaar als een mens, die over tientallen miljarden neuronen beschikt.

Net als een menselijk brein, vertoont Spaun ook vergelijkbare fouten: zo kan het kunstmatige brein cijfers aan het begin of eind van een reeks beter onthouden dan die in het midden. Het model kan ook gebruikt worden om veroudering van hersenen te simuleren: door virtuele neuronen uit te schakelen, verandert de output van Spaun op een vergelijkbare manier als bij een ouder wordend brein. Spaun heeft wel een flink nadeel ten opzichte van menselijke hersenen: het simuleren van een seconde breinactiviteit kost enkele uren met een op 2,5GHz geklokt quadcoresysteem met 24GB geheugen.

Reacties (63)

Reactiefilter:-163061+144+214+31
Op zich is AI niet zo heel moeilijk; een simpel neuraal netwerk kan veel van deze taken ook uitvoeren, inclusief bijbehorende 'graceful degredation' bij missende neuronen en 'pattern completion' bij incomplete input.

Een normaal neuraal netwerk is echter zeer abstract; hetzelfde wordt ook wel gepoogd met meer realistische neuronen, maar dat vergt, zoals hier maar weer eens wordt gedemonstreerd, erg veel rekentijd.

Persoonlijk vind ik het Blue Brain Project dan nog interessanter: die gaan voor een zo realistisch mogelijke nabootsing van (delen) van het brein. Het ligt ook in de planning om binnen een paar jaar een volledig rattenbrein na te bootsen.

De verwachting is ook dat met een jaar of tien, computers snel genoeg zijn om ook een mensenbrein na te bootsen (aldus Markram). Daarvoor is dit soort onderzoek essentieel, om alle onderdelen en interacties uit te vogelen (die is in simulaties van dergelijke precisie helaas lang niet zo vanzelfsprekend als in een "normaal" neuraal netwerk). Het zou me niet verbazen als we binnen enkele decennia een volwaardig mensenbrein kunnen simuleren :)

[Reactie gewijzigd door FragFrog op 30 november 2012 11:53]

10 jaar lijkt me hopeloos optimistisch gezien de performance die daar voor nodig gaat zijn. Zelfs als er conceptuele doorbraken komen, zoals efficiŽnt brein-simulatie in hardware, zie ik dit niet gebeuren.

Hoeft ook niet, want het wordt lang voor die tijd al interessant. Simpel voorbeeld om dat te illustreren aan de hand van een vraag: Hoe complex en intelligent moet een brein simulatie worden om het uitschakelen ervan een moreel verwerpelijke daad te maken. ?
10 jaar lijkt me hopeloos optimistisch gezien de performance die daar voor nodig gaat zijn. Zelfs als er conceptuele doorbraken komen, zoals efficiŽnt brein-simulatie in hardware, zie ik dit niet gebeuren
Denk dat het best wel mogelijk is hoor, deze simulatie doet ongeveer 1/40.000 van het aantal neuronen van een menselijk brein na.

Daarnaast hoeft een simulatie helemaal niet zoveel neuronen te simuleren daar er erg veel overcapaciteit zit in een menselijke brein.
laten we zeggen dat we het met 50% prima af kunnen, er zijn namelijk geneog mensen die zelfs prima kunnen leven met een halve brein.

De 20 PFLOPS Gray XK7 Titan is bv 250.000 keer zo snel als gebruikte quad core de +/- 80 GFLOPS haalt.
Als de huidige trend zich voort zet, zullen we over 10 jaar een super computer hebben die een factor 500~1000 sneller zijn en calculaties in de EFLOPS omvang haalt.

Realtime simulatie word dus best wel mogelijk als we de tijd en geld er in willen steken
Supercomputers zijn goed in petaflopsen, slecht in communicatie. Zelfs met de allersnelste infinibandnetwerken kan je in de tijd dat je een paar byte verstuurd grote hoeveelheden flopsen uitvoeren.

Laat communicatie nu net een inherente eigenschap van neuronen zijn.
De verwachting is ook dat met een jaar of tien, computers snel genoeg zijn om ook een mensenbrein na te bootsen (aldus Markram).
Sorry hoor maar als GPU programmeur moet ik toch constateren dat dit de grootste onzin is, Het menselijk brein bevat ongeveer 100 biljoen ( 100.000.000.000 ) neuronen, waarvan elke neuron ongeveer gemiddeld 7,000 synaps (verbindingen met andere neuronen) bevat. Dan zul je ook nog rekening moeten houden dat elke neuron een structuur heeft, En dat elke neuron een interactie kan aangaan met verschillende chemische stoffen via verschillende transmitters als dopamine, serotine, GAB... (en nog een paar andere) Wat ook weer een complexe structuur heeft en voor elk van deze stoffen en combinatie's van deze stoffen per elke neuron.. Om nog niet te spreken over de complexe interactie's die plaatsvinden in de neuron zelf.. Zelfs al was de neuron een punt deeltje met 1 eigenschap en 1 interactie dan was het waarschijnlijk al niet haalbaar. Maar dat is dus niet het geval.

Iemand die ook maar een beetje verstand heeft van computations en realistisch is weet meteen dat een realistische simulatie jammer genoeg nog lang niet in ons bereik is.. natuurlijk zal het er ooit komen als de mensheid zich niet eerst uitroeit :) maar in 10 jaar.. Laat de menheid eerst maar eens een brein van een rat ofzo nabootsen, Ik denk dat dat niet eens lukt in 10 jaar.. Wij zullen eerst deze lijst nog moeten beginnen: http://en.wikipedia.org/w...mals_by_number_of_neurons

ps. Op het onderstaande: Ik denk dat het computational probleem groter is als het gebrek aan kennis over de structuur van de neuron bijvoorbeeld. Aangezien wij nu en zeker over 10 jaar in staat zijn om tot op grote precisie (De precisie dat je een brein wil simuleren ) een neuron kunnen opserveren. Dan is er ook nog het probleem dat Moore's law straks op zijn eind gaat komen (Al heel snel), en dat er waarschijnlijk een alternatief moet gaan komen. Of dit alternatief er komt of niet is ook belangrijk. Als er snel quantum computers komen die velen malen sneller zijn zullen we sneller de benodigde computation power verkrijgen, Maar dat is zeker niet in 10 jaar :P
Sources in 2005 expected it to continue until at least 2015 or 2020. However, the 2010 update to the International Technology Roadmap for Semiconductors has growth slowing at the end of 2013, after which time transistor counts and densities are to double only every three years.
http://en.wikipedia.org/wiki/Moore's_law

[Reactie gewijzigd door kajdijkstra op 30 november 2012 20:36]

Hieronder een wat uitgebreidere comment geschreven, maar ik wil even de kanttekening maken dat schatting over brein simulaties kant nog wal raken, want biologisch hebben we nog eigenlijk geen flauw idee hoe het brein werkt. Ik doe nu medische natuurwetenschappen aan het VU en zodra je het over het brein hebt hoor je echt binnen de eerste paar zinnen dat we over ieder mogelijk onderwerp gewoon geen flauw idee hebben hoe het exact werkt. En om een virtueel brein te creeeren draait het niet alleen om rekenkracht (waar we dus geen flauw idee kunnen hebben hoeveel we nodig hebben) maar ook om biologisch begrip (wat we nog lang niet hebben).
Dat is wel heel erg kort door de bocht. Neem bijvoorbeeld Wolf et Al 2005: die simuleerden zeven jaar geleden al een neuron met meer dan twintig verschillende actieve kanalen, die bijna exact hetzelfde reageerde op input als een echt in vivo neuron. Ik haal Wolf aan omdat hun model (van dat type neuron) toendertijd realistischer was dan wat er verder beschikbaar is, maar wetenschap op dat gebied heeft in de afgelopen jaren niet stilgestaan, integendeel.

Tegenwoordig zijn er al modellen die individuele moleculen simuleren, en interactie-modellen die clusters neuronen zo goed nabootsen dat er vrijwel geen onderscheid is met echte neuronen (zie bijvoorbeeld Badel et al 2008) en verbeteringen in onderzoeksmethodes (zoals planar patch clamp en optogenetics) zorgen ervoor dat die ook steeds nauwkeuriger worden. Vanaf de andere kant worden ook modellen van het hele brein steeds beter, en kunnen we bijvoorbeeld aspecten van multitasken en het Stroop / PWI effect al zeer plausibel verklaren (zie bijvoorbeeld Taatgen 2010 of Van Rijn 2008 voor onderzoek van Nederlandse bodem).

Nee, een perfecte simulatie is er nog niet, maar "geen flauw idee hoe het brein werkt" is sterk overdreven. Immers, anders konden we ook ziektes niet behandelen; we zijn een heel stuk verder dan lobotomy's tegenwoordig.

[Reactie gewijzigd door FragFrog op 30 november 2012 12:28]

Hersenziektes behandelen we met stofjes die de stofjes in het brein moeten benaderen. Dat is syptmoombestrijding, JUIST omdat we niet begrijpen hoe de hersenen werken en we de oorzaak aan moeten pakken. Op dat laatste terrein zijn we echt niet zo veel verder dan in de lobotomy-tijd. Ja, we weten iets beter welk deel we weg moeten snijden, maar we kunnen nog steeds de nadelige gevolgen niet inschatten, omdat we gewoon niet kunnen voorspellen wat die zullen zijn.

Lees de boeken van Oliver Sacks en je begrijpt dat we niets begrijpen van de hersenen.
Kort door de bocht? Het gros van de ziekte behandelingen in de hersenen worden niet gedaan op een echt begrip van de hersenen. Tenminste, dat is als ik de Dr's en Professoren van het VUmc mag geloven. Of je nou kijkt naar technieken als deep brain simulation (waar een apart model is gemaakt wat eigenlijk los staat van het biologische model) of dat je kijkt naar medicijnen (we kunnen vaak nog wel zeggen waarop ze werken en wat dan het eerste effect is... maar waarom dat het uiteindelijk gewenste effect heeft: flauwe vermoedens op z'n meest, zelfs bij traditioneel geaccepteerde medicijnen (bijv. de dopamine productie kan worden versterkt, en we weten ongeveer hoe dat gebeurd, maar waarom dat dan bijv. wel of niet effecten heeft op herstel van bepaalde hersen delen, geen flauw idee, waarom dat een effect heeft op de psyche (depressie bijv.), geen flauw idee, en dat is een stof waar we vreselijk veel puzzel stukjes over hebben). En voor tal van (hersen) aandoeningen bestaan er verschillende medicijnen waarbij de ene wel aanslaat en de andere niet en we realistisch niet weten waarom dat zou is). En een enkel neuron simuleren is een klein detail als je je bedenkt dat het deel wat we vaak niet begrijpen is hoe het gros van de feedback kanalen in de hersenen werken.

Trouwens, om even een zij stapje te maken om mensen een indruk te geven over de complexiteit van biologie. Iedereen kent telomeren ondertussen tegenwoordig en de rol in cel veroudering... toch is het nog maar 3 jaar geleden dat een nobel prijs werd uitgereikt voor de ontdekking van hoe het enzyme telomerase daartegen beschermt. Dat is een totaal elementair process. Of neem photosynthese, als ik me goed herinner is het gehele chemische process pas een jaar of 20 bekend... je kunt wel het begin en het einde weten (en een paar tussenstappen), maar dat betekend nog lang niet dat je enig idee hebt hoe het geheel werkt. Of neem de structuur van tal van elementaire biologische moleculen... vaak worden ons structuren getoond en plaatsen ze daar opmerkingen bij dat die in de afgelopen 4 a 5 jaar zijn ontdekt.

Hoe dan ook, ik heb tijdens m'n studie al tal van hersen wetenschappers horen spreken en op een presentatie van Dick Swaab na heeft ieder wel een opmerking geplaats dat we nog steeds nauwelijks begonnen zijn met het onderzoek naar de hersenen. 30 jaar geleden werden de hersenen beschouwt als black box, tegenwoordig zijn we net op het niveau dat we een voorstelling kunnen maken van de complexiteit (en dat we steeds meer losse puzzel stukjes verzamelen maar eigenlijk nog nauwlijks een idee hebben hoe ze te verbinden)...
Exact. Als we een biologisch brein via elektronische weg nabootsen kunnen we hooguit iets creŽren dat met dezelfde input een vergelijkbare output ten gevolg heeft. Maar de wijze waarop het biologische brein tot die resultaten komt zal heel anders zijn dan de wijze waarop een electronische variant dat thans zal doen.

Daarmee zijn de twee totaal niet vergelijkbaar en is het Łberhaupt de vraag of deze ontwikkelingen in de toekomst iets toevoegen voor mensen met cognitieve problemen. Je kunt een electronisch brein in deze vorm maar zeer beperkt gebruiken in samenhangmet een biologisch, omdat de processen niet op elkaar aansluiten. Volgens mij kan dat pas op het moment dat er veel meer begrip is over het functioneren van de hersenen. En op het moment dat we dat hebben, is direct ingrijpen in de biologische hersenen mogelijk een betere oplossing voor mensen met problemen dan vervangen door een artificieel brein.

De enige toepassing lijkt me dan ook volledige AI, maar dan doet het me altijd een beetje denken aan een drumcomputer dat zelf een roffeltje kan maken waarbij hij heeft 'geleerd' om human errors te maken, waardoor je hoort dat het niet helemaal strak is wat hij drumt. Het blijft een drumcomputer met human errors.
Waarom modden we dit omhoog? Ik zie hier alleen aperte onzin staan...

Wat er gebeurt is een versimpeld model maken van het brein door het op te hakken in hele kleine stukjes, namelijk de neuronen en deze (en de interactie ertussen) vervolgens te simuleren. In de werktuigbouw heet dit een Eindige Elementen Model (EEM). Mechanica/dynamica van constructies en vloeistoffen wordt al decennia lang op deze manier beschreven.

Het mooie van zo'n model is dat zo lang je op element niveau 'goed genoeg' beschrijft wat er gebeurt en je vervolgens een boel van deze onderling verbonden elementen gaat simuleren, je zinnige antwoorden krijgt over je gehele constructie zonder dat je hoeft te snappen hoe dat precies in zijn werk gaat. (Natuurlijk is het wel handig als je achteraf kunt verklaren waarom het zo werkt, en dat volgt meestal als je die berekening gaat analyseren)

Het leuke is dat je vervolgens vrij snel kunt gaan experimenteren met kleine wijzigingen in je element beschrijving en er vervolgens achter kunt komen: Hee... deze interactie doet blijkbaar niets voor dit maar wel voor dat effect. Verrassend... Iets wat normaal helemaal niet of heel moeilijk te testen valt. Ook ben je in staat op micro niveau te zien hoe bepaalde delen van constructies met elkaar interacteren. Normaal ook vrijwel onmogeleijk. Door zo te gaan experimenteren loop je tegen hele nieuwe ontdekkingen aan of kun je nieuwe hypothesen opstellen en deze gaan testen voordat je hoeft te gaan experimenteren. Al met al een enorme stap voorwaarts!

Net zoals de techniek als gevolg van EEM met werkelijk enorme sprongen vooruit is gegaan, zo zal dat ook voor deze tak van sport gaan gelden. En dus is je opmerking "De enige toepassing lijkt me dan ook volledige AI" compleet naast de waarheid en doet het artikel mijns inziens tekort.
Je hoeft niet perfect te simuleren om al hele leuke resultaten te krijgen blijkbaar. En een aantal stofjes/signalen zullen niet strikt noodzakelijk zijn voor een goede cognitieve werking. In de wetenschap zien we dit veel vaker terug.

Voorbeeld: In de de mechanica is het heel gebruikelijk om bepaalde 2e orde effecten gewoon te negeren. In veel gevallen krijg je dan niet precies de uitkomst die je zou moeten krijgen, maar binnen het gebied wat je wil beschrijven kom je dan bijvoorbeeld op fouten uit van <0.1%. Zo'n beetje onze hele industrie is op dit soort modellen gebaseerd en met groot succes. Ik zie niet in hoe dit ook niet voor neuronen zou kunnen gelden.

Ik kijk in ieder geval uit naar meer van dit ;-). Fantastisch ;-)
De rekenkracht zal er zijn maar wat ik me dan wel af vraag is welk stadium van een mensen brein gaan we simuleren? Een klein kind tot een jaar of wat heeft heel erg veel meer connecties tussen neuronen dan een mens van een jaar of 18 of 38. Het lijkt een van de manieren te zijn waarop we leren (simpel weg bepaalde paden behouden en andere niet gebruiken tot het punt waar ze vervallen en dus) We kunnen ook als we nieuwe dingen leren nieuwe verbindingen maken en deze verbindingen door voldoende oefenen steeds sterker maken en dus onze kennis/kunde verbeteren.

Ik vraag me af of als we eenmaal zo'n menselijk brein kunnen simuleren ook instaat zullen zijn om dit soort leer processen nieuwe verbindingen maken en andere kunnen laten vervallen. Als dat eenmaal zo is dan zijn we op het punt waar we echt dingen kunnen leren aan een computer die dat dan vervolgens ook weer aan andere kan leren.
Nu lukt het ze dus om een fractie van een brein na te bootsen, die voor 1 seconde brein-rekentijd enkele uren nodig heeft. Het is een kwestie van tijd om het steeds groter en steeds sneller te kunnen maken...
Ach ja, dus 1 seconde op enkele uren (3.5 ofzo) en 2.5 miljoen op mijarden neuronen levert een factor 3.5*60*60*5000=63.000.000 op. Geeft even een beeld van wat jij een "kwestie van tijd" noemt. Daarnaast is het model wat ze hier hebben gebruikt een vreselijk versimpeld model, want je moet daar nog even bij nemen dat het gros van de interacties die in hersenen gebeuren totaal niet begrepen worden momenteel... laat staan dat we het in een model kunnen stoppen. De hoeveelheden aan feedback die kunnen gebeuren (ook veelal ruimtelijk) zijn echt ongelovelijk. Ik ben zelf student medische natuurwetenschappen, en het zou je echt verbazen hoe vaak je hoort bij het brein dat we gewoon geen enkel flauw idee hebben hoe veel pathways en systemen werken. Dat we ternauwernood door hebben wat het begin en het einde vaak is. Hoe dan ook, m'n punt is niet dat het onmogelijk is om een virtueel brein te creeeren, maar dat het niet simpelweg een kwestie van tijd is om het huidige model te vergroten alleen.
Ik had op een documentaire op Discovery Channel gezien dat er een X miljard operaties per seconde nodig zijn om in de buurt te komen van het menselijk brein.

Door de wet van Moore op onze elektronica los te laten, kon hij concluderen dat we ongeveer 15 jaar nodig hebben, om onze computers op diezelfde snelheid te krijgen (met de huidige technieken / verbeteringen ).

Mochten wetenschappers stappen in quatumcomputing maken, zou die 15jaar makkelijk door de helft gesneden kunnen worden.

Bron heb ik hier alleen niet van.
Kurzweil had dit uitgerekend; een mooie illustratie daarbij is hier te vinden.

Zoals Delgul al opmerkt hoeft je ook niet elk moleculair proces met 100% nauwkeurigheid na te bootsen om een simulatie te creeren die functioneel identiek is aan datgene wat je simuleert; net zoals je voor een crash-simulatie van een auto ook niet elk atoom in de auto hoeft te volgen. De vraag is wel of we er binnenkort al dichtbij genoeg zijn - rekenkracht is natuurlijk maar de helft van het plaatje. Er is nog veel wat we niet weten, maar we komen er wel steeds dichter bij.
Zeker niet als je het vergelijkt met het energie verbruik. De hersenen verbruiken zo'n 20% van onze calorie innamen. Gemiddeld 2500 kilocalorie per dag. Dit is dus zo'n 500 kilocalorie, ofwel zo'n 2 MJ.

Deze hoeveelheid heb je al verbruikt met minder dan 0,6kWh.
Oh ik dacht BREIN stimuleren (nooo xD).

Ontopic:

Klinkt heel vet.
Ben benieuwd wanneer deze in robots gezet gaan worden, dan hebben we echt een probleem xD.
Maar leuk, misschien heeft de gaming industrie hier ook wat aan, maar vooral ook als mogelijke oplossing voor hersen beschadigingen in de verre toekomst o.i.d.
Zou wel vet zijn, een soort van co-processor in je hoofd hebben ;P
de vraag is natuurlijk wat er van een mens over blijft als het brein dood is....
en zelfs al sla je alle herinneringen op in een computer in je kop, ben JIJ dan nog wel echt JIJ, of ben je dan gewoon een wandelende mysqldatabase.

stel dat de mens inderdaad bestaat uit 2 losse componenten, de hersenen (besturing) en de ziel (bestuurder). zou die bestuurder dan wel in staat zijn toch interactie met een computer-simulatie?

ik zie er weinig toekomst in...
Je gaat uit van een ziel, maar daar is nog nooit enig bewijs voor gevonden.
Occam's Razor.
Waar ik het probleem vooral zie is in 'dualiteit'. De consensus is dat lichaam en geest een geheel vormen, en dus los van elkaar geen betekenis hebben. Zo kun je ook zeggen dat geest en sociale omgeving en lichaam en evolutionaire geschiedenis een geheel vormen. En zo wordt het steeds onwaarschijnlijker dat je echt een mens kan nabootsen, de beste manier om een mens te maken is dan gewoon de 'ouderwetse' manier. :)
Hier sta ik toch wel van te kijken
het simuleren van een seconde breinactiviteit kost enkele uren met een op 2,5GHz geklokt quadcoresysteem met 24GB geheugen
Ik kan mezelf wel tot een machine bestempelen met een google hoeveelheid cores en meerdere google hoeveelheden RAM :p
Ik denk dat je het getal "googol" bedoelt, in plaats van het bedrijf google inc? ;)
Een idee voor de onderzoekers om ook over te gaan op BOINC

Tweakers kent ook een team dat computerkracht ter beschikking stelt hieraan De dutch power cows en hun website

Boinc is gedistributeerde computer kracht, iedereen doet mee met rekentaken die de onderzoekers aanbieden op hun project. Zelf doe ik zeer actief mee bij milkyway@home

Totaal is er een enorme rekenkracht actief op boinc. Allemaal vrijwilligers die mee doen met hun computers, en soms zelfs mensen die pc's bouwen puur voor boinc projecten en de competitie daar omheen.

Als dit project op boinc komt zal de simulatie vele malen sneller gaan doordat er honderden gigaflops beschikbaar komen. Dan is het een kwestie van seconden voor simulaties.

Erg mooi project, maar ik blijf het raar vinden hoe een computer (die de simulatie berekend immers) dan in de simulatie weer een gegeven kan onthouden of vergeten. Een computer kan toch alleen "logisch" denken (1 of 0) dus hoe kan hij dingen vergeten naarmate de simulatie minder word. Er bestaan ook geen echte randomizers voor wachtwoorden wat nog steeds problemen oplevert. Er is altijd een patroon.

Een mooi project, hopelijk maken ze de stap naar distributed computing (bijvoorbeeld BOINC)


EDIT: bij boinc op het moment 7,300.116 TeraFLOPS De helft van de grootste supercomputers.....

[Reactie gewijzigd door aadje93 op 30 november 2012 11:42]

dat moet maar net kunnen... 1`van de grote problemen achter boinc is dat het aan elkaar geknoopt is van consumenten dsl lijntjes...

als je hersenen simuleerd zou je ook op netwerk niveau wat meer kracht moeten hebben.... omdat de daadwerkelijke aankomst tijd belangrijk is in dit soort simulaties...
Dat valt me eigenlijk nog tegen. De snelste supercomputer op dit moment heeft 27.112,5 TF. Bijna 4x zo snel als heel BOINC.

(BOINC is wel maar actief op 5% van alle computers. Maar wss zal het zelden boven de 10% uitkomen)
Erg mooi project, maar ik blijf het raar vinden hoe een computer (die de simulatie berekend immers) dan in de simulatie weer een gegeven kan onthouden of vergeten. Een computer kan toch alleen "logisch" denken (1 of 0) dus hoe kan hij dingen vergeten naarmate de simulatie minder word. Er bestaan ook geen echte randomizers voor wachtwoorden wat nog steeds problemen oplevert. Er is altijd een patroon.
Natuurlijk is er een patroon. In dit geval is dat de activatie van de gesimuleerde neuronen, en die voldoet gewoon aan regels. Zo hangt de activatie van een neuron af van de tijd sinds de laatste prikkel, de sterkte ervan, het aantal gestimuleerde dendrieten, eventuele regulerende (neuro)hormonen, mogelijke hyperpolarisatie, etc.
De activatie kan berekend worden, en diezelfde activatie bepaalt wat het gesimuleerde brein wel en niet kan onthouden.

Het is niet zo dat omdat het brein niet per se digitaal is, dat een computer dat niet kan simuleren. Het weer, ontploffingen van atoombommen, zwarte gaten, etc. zijn ook niet per se digitaal, maar daar worden wel computers voor ingezet om ze te simuleren.
Limitatie van BOINC en soortgelijke gedistribueerde projecten is de lange tijd tussen het uitzenden en terugkrijgen van individuele taken. Dat is geen probleem als je de taak eenvoudig op kunt delen in kleine 'work units', zoals bijvoorbeeld bij Folding@Home ťťn set parameters voor het opvouwen van een eiwit. Als je echter een probleem hebt met veel feedbackloops, waar de subproblemen in grote mate van elkaar afhankelijk zijn, dan kan deze 'latency' een probleem worden.

In het geval van het brein kan ik me voorstellen dat niet ieder gebied met ieder ander gebied zal kunnen communiceren (althans niet direct) en dat je met caching wel een opdeling kan bereiken, maar of het schaalt tot het aantal computers waar je in BOINC mee te maken krijgt is helemaal de vraag.
Onderbouwing a.u.b!

Oh en vergeet daarbij niet ook meteen argumentatie te geven waarom een onderzoekscentrum dat zelf nuttiger kan besteden; in ogenschouw nemend dat ook dŠŠr mensen misbruik maken van belastingcenten, en per definitie in hoge mate achterlopen op wat miljoenen mensen tegelijk teweeg kunnen brengen.
Erg mooi project, maar ik blijf het raar vinden hoe een computer (die de simulatie berekend immers) dan in de simulatie weer een gegeven kan onthouden of vergeten. Een computer kan toch alleen "logisch" denken (1 of 0) dus hoe kan hij dingen vergeten naarmate de simulatie minder word.
De computer doet dan ook niets anders dan het model van de hersenen doorrekenen; Hij simuleert 2.5 miljoen aan elkaar geknoopte hersencellen, en die cellen kunnen uiteraard meer dan alleen 1 of 0 onthouden.
Dat model kan dan vervolgens reeksen onthouden of aanvullen.
lol, doet me denken aan dit:
http://www.youtube.com/watch?v=pcAyd6LokWo

Spoiler: rattenhersens in een dish die een straaljager leert vliegen. beetje robocop achtige tafrelen
Grappig dat je dit zegt. Dit dacht met ook tijdens de industriŽle revolutie. Toen dachten de mensen dat we nog maar 2 dagen per week zouden werken, de machines zouden de rest doen, maar wat blijkt nu? We werken als maar meer en meer.
Ten tijde van de industriŽle revolutie werkte men meer dan 40 uur in de week hoor. De gemiddelde werkweek is tegenwoordig iets van 32-36 uur. Dus je statement klopt niet.

Door toenemende automatisering zul je zien dat productie banen steeds meer verdwijnen en er werk gelegenheid in de dienstensector voor terug komt. Hopelijk ook een verdere arbeidsverkorting zodat we ons meer kunnen richten op zelf ontplooing i.p.v. werk.
Jij snapt mijn punt gewoon niet. Als we gewoon tevreden waren geweest met minder, dan kon de hele westerse wereld met 2 dagen per week zeer ruim leven. Oke we hadden dan waarschijnlijk nog geen iPad gehad of OLED tv's. Maar er zou wel veel meer rust zijn in de samenleving. Het is maar net waar je de prioriteit legt.

Uiteindelijk zal de mens computers alleen maar gebruiken voor nůg meer rijkdom en techniek, als het een positieve werking op geldzaken heeft, dan wordt het gebruik.
Door toenemende automatisering zul je zien dat productie banen steeds meer verdwijnen en er werk gelegenheid in de dienstensector voor terug komt.
Productie banen verdwijnen niet helemaal, ze verdwijnen alleen uit het zicht, dwz die banen worden outsourced naar lage-lonen landen.
Hopelijk ook een verdere arbeidsverkorting zodat we ons meer kunnen richten op zelf ontplooing i.p.v. werk.
Idd, hopelijk. Maar het is zo georganiseerd dat een klein segment vd samenleving extreem profiteert van mechanisering en automatisering terwijl het overgrote deel vd wereldbevolking niet veel meer dan kruimels krijgt. Totdat dat veranderd zal er voor de meeste mensen weinig ruimte zijn voor zelfontplooing.
Geen werk = geen koopkracht = geen afzetmarkt = geen produktie. Een ciclisch economisch systeem is meteen kapot als mensen voor zelfontplooing gaan in plaats van voor werk.
Natuurlijk zeer interessant. Het menselijk Brein is een voorbeeld van een succesvolle invoer van de illusie genaamd 'zelfbewustzijn'. Het kunstmatig kunnen maken van zo'n systeem leid tot processen die anders worden uitgevoerd dan regide computersystemen ze doen, ze staan namelijk fouten toe en passen zich hierop aan in de meest absurde omstandigheden en op de meest bizarre manieren. Regide netwerken kunnen dit slechts zeer beperkt.

Ik verwacht ook dat dit soort uitbreidingen ook letterlijk uitbreidingen op het menselijk brein kunnen worden, tevens kan het ook een grote hulp zijn voor mensen die een deel van de hersenen beschadigt hebben.Het integreren en het vermogen aanpassen is echter wel een formidabele taak. Het op afstand conmmuniceren ermee kan wellicht handiger zijn. 'extern geheugen' bijvoorbeeld. Mits de tijd voor het benaderen ervan drastisch wordt verkort. ;)

Of dit uiteindelijk in staat steld om eeuwig te leven? Ik denk dat dat een filosofisch vraagstuk is. Als jij al jouw informatie dumpt in een kunstmatig briein wat identiek werkt zal het wellicht 'jou' zijn voor iedereen om je heen en ook voor die kunstmatige hersenen (in alle opzichten inclusief emotie en herineringen) maar is het wellicht neits meer dan een kopier. Ergo; je creeerd een kopie en gaat wellicht toch gewoon dood.In die zin zou het beter zijn als je eigen organische hersenen zelf kunstmatige neuronen aanmaken.

[Reactie gewijzigd door Auredium op 30 november 2012 13:51]

het simuleren van een seconde breinactiviteit kost enkele uren
Als enkele uren +/- 5 uur is.. En we gebruiken Moore's law.. Dan kan het over +/- 20 jaar in realtime ;)

2012 = 4 uur
2014 = 2 uur
2016 = 1 uur
2018 = 30 minuten
2020 = 15 minuten (900 seconden)
2022 = 450 seconden
2024 = 225 seconden
2026 = 112 seconden
2028 = 56 seconden
2030 = 28 seconden
2032 = 14 seconden
2034 = 7 seconden
2036 = 3.5 seconden
2038 = 1.75 seconden
2040 = 1 seconde
Nou ja, ~28 jaar dus :P (verdubbeling/halvering van het beginpunt scheelt +/- 2 jaar)

Ook is het de vraag of Moore's law nog zo lang aanhoudt. Met de huidige technologie zal dat in ieder geval niet gebeuren - maar hopelijk hebben we tegen die tijd te maken met 3D circuits op basis van grafeen, optische interconnects, ballistische transistoren, quantum computers en grote mate van parallellisatie met hoog associatief cache geheugen :)

Daarnaast zijn er wellicht ook nog optimalisaties mogelijk bij de simulatie zelf - wellicht dat er bepaalde (emergente) wetmatigheden in zitten waar nu nog niet genoeg inzicht in is, maar die de berekeningen een stuk kunnen vereenvoudigen. Zo is dat bijvoorbeeld ook gebeurd met de code die in Folding@Home gebruikt wordt om het simuleren van het opvouwen van eiwitten te simuleren. De berekeningen van nu zijn een stuk meer gedetailleerd dan toen ze begonnen, maar ze zijn ook op een veel efficiŽntere manier geformuleerd omdat bepaalde zaken niet belangrijk bleken.

[Reactie gewijzigd door Mitsuko op 30 november 2012 13:34]

Dat soort projecten kunnen zeker een rol spelen, de vraag is alleen of ze voor een ontwikkeling zullen zorgen die sneller dan exponentieel is. In de genetica is dat de afgelopen 20 jaar wel gebeurd - de tijd die nodig is om DNA te sequencen is sneller dan exponentieel gedaald. Dit (full genome sequencing) is echter wel een veel jongere tak van de wetenschap dan het ontwerpen van processoren.
[...]


Als enkele uren +/- 5 uur is.. En we gebruiken Moore's law.. Dan kan het over +/- 20 jaar in realtime ;)
Sinds 2004 levert de wet van Moore niet meer iedere 2 jaar een verdubbeling van rekensnelheid op.
The Free Lunch Is Over
De kanttekeningen hierbij:
- 8 eenvoudige taken die hij ongeveer net zo goed kan uitvoeren als een mens. Geen zelfbewustzijn of iets spectaculairs.
- Een neural network die onderaards nog steeds functioneert als een feed forward backpropagation netwerk. De feed forward zijn de elektrische signalen en de backpropagation is de chemie. Hoe je het ook wilt noemen, het blijft geen nieuwe techniek.
- De training van de robot zal onder supervisie zijn gebeurd en niet zoals bij een normaal mens zonder supervisie. Geen eigen besluiten of keuzes, maar 'best fit' aan de hand van een loss function. Hier is geen sprake van kunstmatige intelligentie, maar van in feite van goed toegepaste data regression.
- De bot zal last hebben gehad van overfitting waardoor de eerste en laatste getallen beter werden onthouden. De sigmoid function met een hoge learnrate aan het begin en overfitting aan het einde veroorzaakt dit normaal. Niet de complexe gekozen structuur. Daar durf ik wel een wetje om te leggen.

Een paar keer per jaar lees ik dit soort berichtjes en dan kom je er toch elke keer weer achter dat er feitelijk weinig progressie wordt gemaakt aan de theoretische kant, maar dat met aansprekende voorbeelden zo nu en dan toch weer de media gehaald wordt. De onderliggende techniek is al sinds 1969 niet meer noemenswaardig gewijzigd.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneApple iOS 8

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013