×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel introduceert 'zelflerende' neuromorfische testchip

Door , 41 reacties, submitter: repeP

Intel heeft onder de naam Loihi een neuromorfische chip aangekondigd die kan 'leren' op basis van feedback van zijn omgeving. Het ontwerp is geÔnspireerd op de werking van het menselijk brein en Loihi moet helpen rekenwerk voor kunstmatige intelligentie te versnellen.

Intel heeft de chip opgebouwd rond een meshnetwerk van 130.000 cores die als virtuele neuronen dienst doen en elk met duizenden andere 'neuronen' kunnen communiceren. Op deze manier kan het netwerken 130 miljoen synapsen simuleren. Elke core kan geprogrammeerd worden om zijn 'gedrag' aan te passen gedurende het verwerken van de signalen, bijvoorbeeld om connecties in het netwerk te versterken. Dit gebeurt op basis van de kracht van binnenkomende pieken in het signaal en op basis van de frequentie van die pieken.

Dit maakt dat het netwerk op de chip niet getraind hoeft te worden, maar in de loop van de tijd zelf steeds 'slimmer' wordt bij taken als het herkennen van bewegingen van auto's of fietsen. Loihi zou dit aanzienlijk efficiënter kunnen dan traditionele systemen die ingezet worden voor neurale netwerken. Intel produceert de chip op 14nm en maakt de testchip in de eerste helft van 2018 beschikbaar voor universiteiten en onderzoekscentra.

Intel maakt geen technische details bekend over de componenten van de chip. In 2012 maakte het bedrijf al bekend te experimenteren met het gebruik van lateral spin valves en memristors om de werking van de hersenen na te bootsen. Als de wat onduidelijke afbeelding een representatie is van het chipontwerp, zou de die met het neuromorfische netwerk op de chippackage gecombineerd worden met een traditionele processor.

De computerindustrie werkt al langer aan nieuwe architecturen voor bepaalde soorten rekenwerk. De traditionele Von Neumann-architectuur, waarbij de basis van de dataverwerking bij centrale processors en geheugen ligt, is niet optimaal voor de algoritmes die gebruikt worden voor kunstmatige intelligentie, zoals die voor het herkennen van objecten op basis van grote datasets.

Een van de nieuwe architecturen betreft neuromorfische computing, waarbij chipmakers de werking van de hersenen proberen te imiteren op chipniveau. Netwerken op chips bootsen daarbij het elektrisch systeem van het brein na, waarin signalen in de vorm van pulsjes overgedragen worden en een hogere frequentie van elektrische prikkels voor sterkere verbindingen zorgt. Naast Intel werken onder andere IBM en Qualcomm aan chips op basis van dit principe.

Door Olaf van Miltenburg

NieuwscoŲrdinator

26-09-2017 • 11:40

41 Linkedin Google+

Submitter: repeP

Reacties (41)

Wijzig sortering
Is dit vergelijkbaar met de SyNAPSE chip van IBM ?

De TL;DR daarvan:
IBM built a new chip with a brain-inspired computer architecture powered by an unprecedented 1 million neurons and 256 million synapses. It is the largest chip IBM has ever built at 5.4 billion transistors.

/edit:
ah IBM werd gemeld in het artikel en is inderdaad vergelijkbaar.

[Reactie gewijzigd door whitecrow op 26 september 2017 11:53]

gevalletje eerste willen zijn in de reacties en niet de moeite nemen om eerst even het artikel te lezen.

Maar gefeliciteerd kerel! je hebt em!
De link in het artikel verwijst naar een TrueNorth chip, ik moest het artikel van tweakers en de link naar IBM en het achtergrond artikel lezen.
Dus je reactie is misschien wat overdreven.

/edit: en ik was niet de eerste post, maar iets van de 3e of 4e (maar dat terzijde)

[Reactie gewijzigd door whitecrow op 27 september 2017 10:35]

vind je dit nodig?... hou het voortaan lekker voor jezelf ;)
heel irritant zulke reacties waar niemand iets mee opschiet... net als deze maar het moet even..
"Loihi zou dit aanzienlijk efficiŽnter kunnen dan traditionele systemen die ingezet worden voor neurale netwerken."

Is er al iets bekend over hoeveel efficiŽnter? Is er een programma (google's afbeeldingsherkenning software bijvoorbeeld), waarmee aangetoond is dat deze chip echt een verbetering brengt?

130.000 klinkt als heel veel, veel meer dan een GPU, dus dit klinkt als een hele grote stap voorwaarts. Maar ik ben wel benieuwd of we dan in 2018 ineens 'doorbraken' gaan zien, ook op het gebied van stemherkenning bijvoorbeeld?
Simpel.. deze neurale network maakt gebruik van pulsen via het fysieke medium.
Net zoals de hersens van dieren en van mensen. Al zijn mensen ook gewoon dieren..

De meeste Neurale Networks maken gebruik van het Von Neumann architectuur wat compleet anders werkt als ons brein. Omdat je dan een brein simuleert kost het gewoon veel energie.

Dit neurale Network heeft geen continu verbinding. Je hersens werken als een pulserende storm door alle neuronen heen in je hersens. Elke keer als dat gebeurt verandert je hersenen een klein beetje.

Elk mens is anders... Maar elk mens verandert ook continu. Immers je persoonlijkheid is een fysiek gegeven.. die kan ook veranderen door de tijd heen. Eigenlijk alles. Echter de plasticiteit van je hersens neemt wel af naarmate je ouder zal worden. Je zult dus steeds minder veranderen.

Je eerste levensjaren 1 tot 5 jaar zijn dus het meest cruciaal. Dan heb je gigantische plasticiteit in je hersens waardoor je gigantisch veel dingen heel snel kunt leren.

Sla je dat over krijg je een kind dat nooit meer dingen goed kan leren. Of slecht leert.

Maar het energie verbruik is echt gigantisch minder.. omdat je geen continu vermogen verstookt maar je dus gebruik maakt van hele kleine puls stormen door je chip heen.

Vergeet instructies die uitgevoerd worden.... Het is totaal anders als een normale CPU of GPU. Het is gewoon een betere kopie van onze hersens. En daar worden we steeds beter in naarmate de toekomst.

Kunnen we eindelijk bewijzen dat alles een fysiek gegeven is. En al die onzin over dat we vrije wil hebben en dat God bestaat en dat ons bewustzijn ook gewoon simpel een fysiek gegeven is en dat er geen "geest" is.

Als we eindelijk een goed brein kunnen maken met een pseudo eigen wil(want dat bestaat niet) en een eigen bewustzijn zullen we eindelijk in een tijd komen waar we heel veel onzin in deze wereld de prullenbak in kunnen gooien.

[Reactie gewijzigd door Texamicz op 30 september 2017 07:41]

Ik vraag me af met al deze AI en machine learning technologie. Zou dit dan willen zeggen dat we bijvoorbeeld dit aan een computer kunnen vragen:

"Vind een oplossingen om efficiŽnter door de ruimte te reizen."

Dan moeten we de AI of computer gewoon een omgeving geven waar hij zijn creaties kan testen. Dus een omgeving die de wereld min of meer simuleert. Technisch gezien zou een wereld de grootte van het zonnestelsel al meer dan genoeg zijn sinds we daar al problemen mee hebben. We geven de computer ook geen voorbeelden van motoren, het moet zelf designs produceren en testen.

Dus als we bovenstaande vraag en de correcte condities hebben. Zouden we dit gewoon kunnen laten draaien en uiteindelijk zou de computer met efficiŽnte misschien zelf ongehoorde rocket motor designs mee kunnen afkomen? Of zou dit quantum computers nodig hebben om sneller te kunnen simuleren?
Tja...En dan blijkt dat het in de praktijk niet uitvoerbaar is...omdat:
A. de gesimuleerde omgeving toch een te simpele afspiegeling blijkt van de werkelijkheid (bij dergelijke snelheden)
B. De ontwikkelde techniek wellicht zo onwerkelijk blijkt te zijn, omdat er waarschijnlijk denk processen aan te pas komen, welke niet eens begrepen kunnen worden door mensen, en dus nooit ontwikkeld zullen worden door mensen...
C. Wanneer dergelijke dingen toch ontwikkeld zullen kunnen worden met ai-instructies, zou het mogelijk kunnen zijn dat het 'sneller door de ruimte-reizen' slechts geschikt is voor de artificiŽle intelligentie zelf, en niet voor fragiele mensen...

Reizen met lichtsnelheid kan al, door electromachnetische golven...de kans is groot dat een artificiŽle intelligentie (die niet gebonden is aan aan een fysiek lichaam, zoals de mens) een dergelijke manier van reizen door de ruimte zal voorstellen.

[Reactie gewijzigd door DeArmeStudent op 26 september 2017 12:41]

A: Trail and Error, aangezien de AI ook nog nooit sneller dan het licht gereisd heeft en wij hem die informatie niet kunnen geven komt deze informatie pas beschikbaar na een (aantal) testvluchten.
B: Daarvoor hebben we de AI ontwikkeld, om denkpatronen te kunnen doen die voor ons te ver gegrepen zijn.
C: Zie A:
Laten we eerst maar eens een AI maken dat exact op een level opereert als een diertje met kleine hersens.

De rest is gewoon opschalen. Immers ons bewustzijn is gewoon een hogere bewustzijn dan dieren omdat we over meer neuronen beschikken in onze frontale kwab. Geen enkel ander dier heeft meer neuronen dan de mens. Het dier met de meeste neuronen (Gorilla) heeft nog niet eens de helft.

Als het aantal neuronen lineair stijgt. Stijgt je bewustzijn exponentieel. Omdat het bij bewustzijn niet gaat om het aantal neuronen maar om het aantal verbindingen tussen de neuronen.

We hebben 2x zoveel neuronen... Maar ons bewustzijn is velen malen groter dan die van de Gorilla.

Dus een AI maken die dus een hoger bewustzijn heeft ... Dan zullen we dus flink moeten opschalen.
daarvoor kun je natuurlijk ook een eisenpakket opstellen, zoals een maximum aant G's, een luchtdicht omhulsel, en een bepaald gewicht wat mee moet.
je zou m ook in de echte wereld kunnen laten rekenen, als je dan maar niet gaat vragen om een oplossing voor grote aardse problemen, gezien de simpelste oplossing 9 van de 10 keer "minder mensen" is.
... gezien de simpelste oplossing 9 van de 10 keer "minder mensen" is.
Inderdaad... :P

ArtificiŽle intelligentie komt vrij snel en vrij vaak tot zeer pragmatische oplossingen die niet zo goed in de smaak vallen bij hun makers. ;)
Wat je wilt is een computer een probleem geven en hem zelf naar een oplossing laten zoeken zonder deze te programmeren. Je vraag is wel direct heel hoog gegrepen maar het kan al. Autodesk is bezig met het algemeen commercialiseren van dergelijke ai voor ontwerp en ontwikkeling.
Het intressante hieraan is dat de ontwerpen nu al de menselijke overstijgen.

Hoe doen ze het? Simulatie van doel gerichte ontwikkeling theorie. Computer zoekt random naar oplossingen, je krijgt een generatie oplossingen. Daar ga je random op verder. Beste oplossingen overleven, mindere worden gewist. Gooi een berg rekenkracht er tegen aan en je krijgt verassende resultaten. Om de oplossingen te testen worden ze uitgerekend/simulatie waarop een een score toegekend word aan iedere oplossing.

Dit is een software product dat formules berekend voor gegeven data door middel van deze AI die al even uit is www.nutonian.com/products/eureqa/
Autodesk noemt het generative design
https://www.autodesk.com/solutions/generative-design
Een paneel ontwikkelt voor Airbus in samenwerking met Autodesk
https://www.autodesk.com/customer-stories/airbus

[Reactie gewijzigd door sprankel op 26 september 2017 18:04]

Klopt. Maar daarvoor is een simpele neurale network Al prima. Daarmee kan je doelgericht wel problemen mee oplossen.

Hiermee geef je voorwaarden aan mee. (Je scope) en dan voert de neurale network het uit. Dit zal veel toegepast gaan worden in de engineering.

Dit zal grote gevolgen in alles wat we maken... Van PCB's tot aan wolkenkrabbers tot aan elk product wat je nu in huis hebt.
Dan moeten we de AI of computer gewoon een omgeving geven waar hij zijn creaties kan testen. Dus een omgeving die de wereld min of meer simuleert. Technisch gezien zou een wereld de grootte van het zonnestelsel al meer dan genoeg zijn sinds we daar al problemen mee hebben. We geven de computer ook geen voorbeelden van motoren, het moet zelf designs produceren en testen.
Geeft je te denken of jij in zo'n simulatie zit .. ;)
Optimist. Die vraag gaat eerder zijn "Vind een manier om mij obsceen rijk te maken met aandelenhandel" :)

Maar bemande ruimtevaart an sich is een probleem dat je beter kunt oplossen door te vragen "hoe zouden we een mens kunnen uploaden". Als je ruimteschip in feite een drone is met een paar harddisks is het efficienter om een AI-versie van jezelf in een mini-schip te stoppen dat geen zwaartekracht, zuurstof en water nodig heeft.

Uiteindelijk is de reden dat we mensen de ruimte insturen voornamelijk omdat een AI met die flexibiliteit en intelligentie nog niet ontwikkeld is, en je door de snelheid van het licht elke keer minuten/uren moet wachten eerdat een signaal terugkomt, dus op afstand besturen is er ook niet bij. (er zit ook een dosis romantiek bij - the final frontier - wat goed verkoopt als er in geÔnvesteerd moet worden. Het is alleen niet geweldig praktisch).
Ook in onze landen (BelgiŽ) worden dit soort chips ontwikkeld. Imec deed dit al. Het grote verschil met traditionelere architecturen (CPUs - GPUs) is dat op de chip zelf de berekeningen en het geheugen als het ware op dezelfde plaats gebeuren, in plaats van rekenkernen die de data in het geheugen ophalen. Dit zorgt ervoor dat alles nog veeeel meer geparalleliseerd kan worden. Het enige probleem is dat deze soort chips heel recent zijn, en alle algoritmes geoptimaliseerd zijn voor de traditionelere architecturen. Als de algoritmes makkelijk kunnen aangepast worden, dan is er heel veel leuks te doen met neuromorphische chips :)
Het mooie van dit soort architecturen is juist dat ze out of the box kunnen denken en niet zozeer vastzitten aan een bepaald vooraf geprogrammeerd algoritme. In plaats daarvan ontstaan er algoritmes in de fysiologie van het netwerk afhankelijk van de informatie die je aan het netwerk presenteert. Het grootste deel van het programmeren van dit soort architecturen zou bestaan uit de (begin)fysiologie van het netwerk, het soort neuron (o.a. de manier waarop de neuron leert en dergelijke) dat op verschillende locaties in dit netwerk aanwezig is en natuurlijke welke informatie en hoe je deze presenteert aan het netwerk en hoe je de informatie van het netwerk uitleest.

Het grootste ontwikkelpunten voor dit soort netwerken is in mijn ogen meer de fabricatie van de chips. Onze hersenen zijn 3 dimensionaal, maar Chips kunnen tot nu toe maar heel beperkt in 3 dimensies gebouwd worden. Wanneer een 3 dimensionaal neural network gebruikt zou worden, zouden ten eerste veel meer neuronen/synapsen in een bepaald volume passen en is de afstand tussen de onderlinge neuronen ook veel kleiner. Ik geloof echter wel dat kunstmatige neurale netwerken uiteindelijk het menselijk brein zouden kunnen overtreffen. biologische neuronen kunnen namelijk maar een paar duizend keer per seconde vuren, terwijl kunstmatige neuronen theoretisch gezien veel sneller kunnen vuren (miljoenen tot miljarden keren per seconde), hierdoor zouden kunstmatige neurale netwerken veel sneller kunnen leren en denken/beslissingen maken. Natuurlijk betekent een hogere schakelfrequentie ook meer warmteontwikkeling, waardoor een extreem 3 dimensionale architectuur snel oververhit zou kunnen raken, maar hier zijn oplossingen voor. Tevens is bij kunstmatige architecturen energiezuinigheid veel minder belangrijk dan het in onze evolutie is geweest.
"een neuromorfische chip aangekondigd die kan 'leren' op basis van feedback van zijn omgeving. Het ontwerp is geÔnspireerd op de werking van het menselijk brein"

Lekker, moeten we ook nog zorgen dat onze computers goed opgevoed worden.
En hulp verlenen aan de chips die uit een "slecht milieu" komen :+

anders dan dat, gezien telefoons tegenwoordig al dit soort chips (maar veel kleiner) ingebouwd krijgen.
Hoe lang zal het dan duren voordat we een extra slotje in onze pc hebben hiervoor? en waarvoor zou het nuttig kunnen worden voor de eind gebruiker?

[Reactie gewijzigd door rolandlub op 26 september 2017 11:55]

Dit soort chips? Een ander soort die op een totaal andere architectuur werkt. Voordat deze chip in consumenten producten komen, zal er nog een lange weg te gaan zijn. Er zijn nu zoveel mogelijke versnellingen in de cpu wereld, het moet nog blijken...
Huawei heeft al een telefoon met deze techniek aangekondigd
Huawei heeft een chip aangekondigd met dedicated ai processor, nl. de NPU. Deze NPU zou neurale netwerken veel efficiŽnter en sneller moeten kunnen draaien dan de CPU zelf. Op welk principe de NPU precies werkt is nog niet bekend gemaakt geloof ik, maar volgens mij werkt deze chip niet met spiking neural networks zoals de intel chip. Ze hebben het in ieder geval over TFLOPS en volgens mij betekent dat niet echt iets voor spiking neural networks.

Dus om te zeggen dat huawei een telefoon heeft aangekondigd met deze techniek is niet echt gegrond.

[Reactie gewijzigd door dehim op 26 september 2017 15:39]

Je maakt een grapje.. maar je snijdt wel een punt aan dat waar zou kunnen zijn.
Heb al een heel tijd geleden op tv gezien dat een vliegtuigsimulator bestuurd werd door "hercensellen" (of een kweek potje op electronen met cellen, weet niet exact meer).

door middel van positieve stimulatie als het vliegtuig op koers / recht bleef leerde het beter vliegen in weersomstandigheden dan zeer ervaren spelers.

Kan heleaas niets van terug vinden op youtube.
We gaan dood we gaan allemaal dood.
Pls geen terminator, pls geen terminator...
de T-800 (model 101) was het eerste model met een zelflerende CPU.
AUB ook niet toepassen in liften...
Of zwarte sportwagens..
Dit wordt al bijna vergelijkbaar met het brein van een mier :-) (250k neuronen)

Ik vraag me af in hoeverre je meerdere van deze chips aan elkaar kunt koppelen, en hoe je zo een systeem traint. Dat gaat vast niet vanzelf zoals het artikel suggereert.
Ik vind het echt jammer dat deze chip niet commercieel beschikbaar komt. Ik ben zeer benieuwd wat je hiermee kan doen namelijk.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*