Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 16, views: 10.318 •

Onderzoekers van IBM's onderzoekslaboratoria hebben een 'software-ecosysteem' ge´ntroduceerd dat kan worden gebruikt om IBM's brein-chips aan te sturen. Die chips zijn gemodelleerd naar het menselijk brein, met neuronen en synapsen in silicium.

De software-architectuur breekt met traditionele programmeermethodes en is gericht op het benutten van parallelle, asynchrone processen. IBM bouwde de eerste chips die met de software aangestuurd moeten worden al in 2011. De 256 kunstmatige neuronen in die chip staan via ruim driehonderdduizend synapsen met elkaar in verbinding. Het gecombineerde hard- en softwareproject wordt Synapse, een afkorting voor Systems of Neuromorphic Adaptive Plastic Scalable Electronics, genoemd. De slim gekozen naamgeving verraadt al dat het project is medegefinancierd door Darpa, de Amerikaanse defensie-organisatie.

Het doel van het project is de ontwikkeling van een nieuwe generatie computers en verwante producten, zoals software en sensors, die op een meer biologische manier functioneren. Waar traditionele computers goed zijn in het berekenen van lineaire problemen, worden zaken als patroonherkenning steeds belangrijker. Traditionele computers zijn daar niet goed in, terwijl hersenen daarin juist excelleren. Bovendien zijn hersenen, ondanks hun enorme parallellisme met miljarden neuronen, zeer zuinig. De emulatie van hersenen met supercomputers vergt daarentegen enorme hoeveelheden energie.

Met Synapse moet dat eenvoudiger worden: neuronen worden niet in traditionele hardware geëmuleerd, maar het silicium van de gebruikte chips is gemodelleerd naar neuronen en hun onderlinge verbindingen. De software die IBM in zijn nieuwe initiatief wil ontwikkelen, moet die chips aansturen. Daarbij moeten kleine neurale netwerken als 'corelets' worden aangesproken: zo zouden verzamelingen hersencellen of functionele gebieden geïmiteerd kunnen worden. Corelets kunnen weer gecombineerd worden tot grotere neurale netwerken, wat schaalbaarheid zou moeten implementeren.

Op termijn wil IBM een nieuwe generatie computers met neurale netwerken bouwen, die uit tien miljard neuronen met honderd biljoen synapsen of onderlinge verbindingen bestaan. Die systemen zouden niet alleen symbolische data als tekst verwerken, maar ook met sensorische data als visuele prikkels overweg kunnen. In Japan werd onlangs nog een seconde hersenactiviteit van 1 procent van de menselijke hersens gesimuleerd: daarvoor was veertig minuten supercomputer-tijd nodig. IBM wil een realtime-systeem bouwen, met een volume van slechts twee liter en een vermogen van slechts 1kW.

Reacties (16)

Ik verwacht echt ergens in de komende 5 jaar een gigantische doorbraak op alternate computing gebied. Hetzij in een breinsimulatie, hetzij in quantum computing, er zal echt iets fundamenteels gaan wijzigen in de nabije toekomst!
Dat zou heel goed mogelijk kunnen zijn inderdaad.
Maar de vraag is wel of we daar als consument direct iets van gaan merken, of dat we het gewoon Moore's law volgend gedoseerd voorgeschoteld krijgen.
Waarom zouden ze het ons direct geven als ze het ook uitmelken kunnen?
Het hopen is dan op een concurrentie slag tussen giganten wat ervoor gaat zorgen dat ze hun oh-zo-voordelige "law" gaan breken.
Moore law is te beperkt, je moet gaan kijken naar de natuur en natuurlijke processen. Kijk naar chaos berekening. Daar zie je ook een verdubbeling, verdubbeling tot je het punt van chaos krijgt waarbij er geen verdubbeling meer is maar een willekeurig patroon.

Een hart dat op hol slaat is hier maar een klein voorbeeld van.
Film met je camera een beeldscherm zie wat je filmt, kom dichterbij, verdubbeling, verdubbeling tot hup alles omslaat.
Populatie vissen die verdubbeld, je geeft ze dubbele hoeveelheid voer, weer verdubbeling enz tot een punt van chaos.
Hier zijn trouwens ook gewoon wiskundige formules voor.

Trek je dit idee door naar technologische ontwikkelingen, de mensheid, biotechnology, knoeien met dna en noem het maar op dan zie je over die verdubbeling. De vraag is wanneer bereiken we het punt van chaos waarbij er geen verdubbeling meer is maar misschien vernietiging en de natuur weer ingrijpt.

http://en.wikipedia.org/wiki/Chaos_theory
Quantum computing is al realiteit, Dwave heeft een Quantum computer aan google geleverd.
http://www.dwavesys.com/en/dw_homepage.html
Ik zou mezelf er niet teveel op verheugen. Moeilijke wiskundige problemen zullen waarschijnlijk met een quantum computer niet veel efficiŰnter op te lossen zijn: http://arstechnica.com/sc...es-not-vanish-hard-maths/.
Het is wachten op het moment dat neurale chips dusdanig van kwaliteit/niveau zijn dat er een synthetisch brein kan worden ontwikkeld dat uiteindelijk zichzelf kan verbeteren. Dat moment zal spectaculair zijn.
Alternate computing is toch de computerboer hier in NL. Jij bedoelt waarschijnlijk alternative computing :)
dit is denk ik ook goed voor de robot technologie. Zuiniger, sneller en zelf meer biologisch correcter.
Hier op tweakers lees ik vaak interessante onderzoeken vanuit de laboratoria van IBM. Maar (wellicht kijk ik niet echt goed) zie ik weinig over onderzoeken in andere grote bedrijven. Is IBM echt een van de weinige grote bedrijven die zich met research/onderzoek op IT bezig houdt, of worden er gewoon weinig onderzoek van andere bedrijven gepost op tweakers? (Ik heb het niet over onderzoek op het gebied van harddisk density, chip verkleiningen, multi cores, etc., maar echt op nieuwe gebieden, zoals processoren op licht ipv electronen en zoals bovenstaand artikel).
IBM heeft gewoonweg het meest aantal nieuwe patenten patenten e.d. ... :)
Bron
Super vet spul wat die slimme knakker laat zien in dat filmpje.

Nog ene paar jaar en de eerste terminators rollen van de band ;)
Het simuleren van het totale menselijke brein zou dan in 2030 ongeveer mogelijk zijn.

Als we de lijn van de standaard supercomputers doortrekken (elk jaar nagenoeg een verdubbeling van de rekenkracht) betekent dit dat we in 2030 met een "normale" supercomputer dezelfde snelheid kunnen halen. Hiervoor heeft men 240000x de rekenkracht van de 8,2 PFLOPS uit 2011 stammende K Computer voor nodig (= (40 * 60 seconden) / 1%).

Om diezelfde rekenkracht in een inhoud van 2 liter te stoppen lijkt mij dan nog een grote uitdaging. Eer dit zover is zullen we weer jaren verder zijn tenzij er ondertussen een revolutionaire uitvinding wordt gedaan.
"Patroonherkenning" hier moet toch een vorm van AI in worden gebruikt hoe anders kan je een symbool juist interpreteren? En hoe programeer je in niet traditionele hardware hun corelet language model (https://dl.dropboxusercon...020.IJCNN2013.Corelet.pdf) ziet er gewoon object oriented uit met modules(corelets in dit geval) wat ik ook niet snap is de recursiveness van corelets. Mischien dat iemand hier een ELI12 over kan doen (explain like im 12)

[Reactie gewijzigd door Calvin&Hobbes op 8 augustus 2013 19:54]

Een neuraal netwerk programeer je door het te laten leren. Je stopt er bijvoorbeeld een aantal pasfotos in van mannen en vrouwen en corrigeert het netwerk wanneer het een fout maakt. Op een gegeven moment zal het netwerk redelijk goed mannen van vrouwen kunnen onderscheiden.

Wel een verhaal gehoord over iemand die een neuraal netwerk wilde leren militaire voertuigen te laten herkennen. De fotos met voertuigen waren op een zonnige dag genomen. Die zonder op een bewolkte dag. Het netwerk kon perfect zonnige van niet zonnige dagen onderscheiden.
"IBM wil een realtime-systeem bouwen, met een volume van slechts twee liter en een vermogen van slechts 1kW."

Ik wil een replicator bouwen die in mijn horloge past waarmee ik meters hoge objecten kan materialiseren....

Tussen willen en kunnen zit jammer genoeg een klein verschilletje. Ok, IBM heeft de centen enzo maar 2 liter??

als je zulke rekenkracht in zulke kleine volumes kan proppen (met evenredig klein energie verbruik) dan is het moment dat de daaruit komende "Artificial" intelligence tot de conclusie komt dat de mens eigenlijk het enige wat er met de wereld mis is komt heul HEUL snel geen toekomst muziek meer....

En dan gaat bitcoin minen wÚl bruut snel eh!
Bitcoins minen zijn, als ik het goed heb, juist prachtige simpele taken voor een computer. Steeds weer dezelfde taak, miljarden op miljarden keren achter elkaar.

Vroeger werd zo een heel blik vrouwen (goed in domme, herhalende taken, dacht men toentertijd ;) ) in een zaal gegooid om zo tabellen voor de scheepvaart te produceren. Zo'n zaal werd ook wel een computer genoemd (to compute = berekenen).

Het mooie van het brein is dat de zenuwcellen waar het uit bestaat nieuwe verbindingen kunnen maken als dat nodig mocht zijn voor een bepaalde taak. Zo kan je dus jouw zenuwcellen 'trainen' (in de volksmond: leren genoemd ;) ) om nieuwe methodes of informatie te kunnen gebruiken.

Heb je bepaalde data niet meer nodig, dan worden verbindingen op den duur zwakker en weggesnoeid. (Herkenbaar op de eerste minuut dat je toets begint, na dagen blokken. :P )

De signaaloverbrenging speelt ook een belangrijke rol. Signalen kunnen in de synapsspleet, het contactpunt tussen twee zenuwverbindingen, versterkt of verzwakt doorgegeven worden. :)

Juist dit soort prachtige technieken van het biologische en chemische leven maakt het brein zo goed toepasbaar op 'onze' wereld. Voortdurend problemen oplossen en nuttige informatie opslaan voor overleving en evolutie.

Het elektronische leven, zoals je het misschien wel mag noemen, komt nu heel langzaam van de grond. En, het mooie is, dat het grotendeels ge´nspireerd is op dezelfde neurale netwerken die we bij andere organismen tegen komen.

Nu moeten we dit elektronisch organisme alleen nog een beetje voeden met sloten aan zelf-lerend vermogen. Oftewel input uit de omgeving samen met output cq handelingen van het systeempje zelf, omzetten in ervaring.

EÚn ding is zeker, het eerste wat het computertje zal zeggen is: 'Hello world!' ;)

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneMobiele besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013