Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 33, views: 11.519 •

Adapteva, een fabrikant van halfgeleiders, heeft een ontwerp uitgebracht voor een mobiele coprocessor met 64 onafhankelijke cores. De Epiphany-IV is een 28nm-ontwerp en kan 70Gflops/W halen, met een piekverbruik van minder dan 2W.

Ondanks een verhoging van het aantal cores met een factor vier ten opzichte van de vorige Epiphany-generatie, heeft het bedrijf het opgenomen vermogen van de nieuwe Epiphany IV op hetzelfde niveau weten te houden. Dat werd mogelijk door de kloksnelheid te verlagen van 1000 naar 700MHz en een kleiner, 28nm-procedé te gebruiken. "Het Epiphany-IV-platform overtreft de doelstelling van Darpa om tegen 2018 een prestatie/energieverbruik-ratio te bereiken van 50Gflops/W voor hpc-doeleinden", aldus Andreas Olosson, topman van Adapteva. Volgens Adapteva maakt de mobiele floating-point-coprocessor serverprestaties mogelijk voor tablets en smartphones.

De 64 kernen van de Epiphany IV-28nm-chip zijn ieder 0,13mm² groot, en voorzien van 32KB lokaal sram-geheugen en een communicatiegedeelte met een bandbreedte van 6,4GB/s. De cores functioneren als in een netwerk, vergelijkbaar met Intels manycore-projecten. Elke core heeft een piekvermogen van ongeveer 25mW.

Met 64 cores is de snelheid maximaal 88Gflops, maar de nieuwe architectuur is volgens Adapteva schaalbaar naar 256, 1024 en 4096 cores, terwijl ook varianten met 1 en 16 cores in de planning staan. De Epiphany III-architectuur was met maximaal 16 cores te leveren. Programmeurs kunnen de nieuwe multicorechip benaderen via C/C++ en de chip heeft ook ondersteuning voor OpenCL.

Er heeft zich volgens PCWorld al een licentienemer aangemeld bij Adapteva voor het nieuwe Epiphany IV-chipontwerp, maar het bedrijf geeft de naam ervan nog niet prijs. De ambitie is er in ieder geval om het ontwerp deel te laten uitmaken van de volgende generatie mobiele processoren. De coprocessor kan onder meer geïntegreerd worden op een system-on-a-chip.

Adapteva 64core Epiphany IV co-processor

Reacties (33)

tjonge jonge. waar zal dit allemaal eindigen? waar liggen de grenzen? uit eindelijk kan je een complete server draaien op je mobiel.
uit eindelijk kan je een complete server draaien op je mobiel.
Kan al jaren zoniet al een decenia :) Ik draai regelmatig een FTP server op me mobiel...

Anyways er staat mobiele CPU dat wil niet zeggen voor mobieltjes, een laptop valt daar ook onder. Hoewel ik werkelijk geen idee heb wie dit gaat gebruiken, immers heb ik de vorige generatie ook nergens terug gezien :P

[Reactie gewijzigd door watercoolertje op 4 oktober 2011 10:44]

Is je mobiele ftp server dan ook vanaf het internet te benaderen? Heeft je provider dat niet geblokkeerd? Hoe moet ik dat zien?
Je zou dit op bijvoorbeeld een lokaal netwerk kunnen hosten (wi-fi) dan is je ftp server gewoon te benaderen. Maar goed, wat darkmagic denk ik bedoelt is dat een gemiddelde server van nu over 10 jaar er uit ziet als een smartphone.
Ik denk dat de vorige generatie simpel weg niet genoeg verbetering kon bieden voor een extra ~2W. Dat is simpel weg erg veel vermogen voor een mobiel apparaat. Met deze nieuwe generatie die een heleboel meer rekenkracht kan leveren dan de vorige kun je op eens met een zelfde verbruik een heleboel meer doen.

De vraag is alleen zul je zo'n chip ook echt gebruiken op je mobiel? De meeste apps zijn hopeloos simpel en hebben alleen voor de graphics een snelle processor nodig maar voro de rest doen ze weinig tot niets meer dan een aantal eenvoudige berekeningen die je zonder snelheidsverlies ook op een Nokia van 5 jaar terug uit kan voeren.
Voor een mobiele telefoon lijkt zo'n chip me op dit moment overkill omdat er simpel weg geen applicaties zijn die hier echt gebruik van maken en de form factor te klein is om er applicaties op te draaien om er ook echt gebruik van te maken.

Voor tablets daar in tegen kon dit nog wel eens erg handig zijn. Je ziet nu al dat dankzij de grotere batterij de processoren in een tablet over het algemeen net even krachtiger zijn dan in de mobiele telefoon. Ik vermoed dan ook dat dat zich voorlopig nog wel even door zet. De tablet heeft simpel weg meer ruimte om meer energie op te slaan en kan zo doende meer rekenkracht leveren met een zelfde accu duur. Daar naast zijn mensen van mobiele computers gewend dat een uur of 4 a 5 op een accu werken toch echt het maximum is. Waar men met een telefoon eerder +24 uur verwacht als minimum. Iets wat natuurlijk ook effect heeft op de hoeveelheid kracht zo'n klein ding kan leveren gedurende een langere tijd.

Ik denk dat de ontwerpers van de tablets en telefoons van morgen steeds vaker naar gespecialiseerde chips zullen grijpen simpel weg omdat deze veel efficiënter met energie om kunnen gaan dan een chip die alles wel even alleen doet. Op die manier kun je al snel PC mogelijkheden leveren terwijl je toch binnen de energie beperkingen van de tablet of telefoon past. Immers een GPU kan zeer energie efficient een film decoden, en zo'n FPU kan veel beter floating point berekeningen uitvoeren dan een gewone CPU. Omdat we allemaal met systems on a chip werken is het relatief eenvoudig om een standaard naar de buiten wereld toe te bieden ARM instructie set bijvoorbeeld maar intern de taken te verdelen over de onderdelen van het systeem dat hier het best in zijn.
De vraag is alleen zul je zo'n chip ook echt gebruiken op je mobiel? De meeste apps zijn hopeloos simpel en hebben alleen voor de graphics een snelle processor nodig maar voro de rest doen ze weinig tot niets meer dan een aantal eenvoudige berekeningen die je zonder snelheidsverlies ook op een Nokia van 5 jaar terug uit kan voeren.
Dat zie je volgens mij verkeerd. Er moet eerst hardware beschikbaar zijn en dan pas wordt er software voor ontwikkeld. Het feit dat de meeste apps nu nog weinig processorkracht gebruiken heeft puur te maken met de accuduur. Wie had trouwens gedacht dat we ooit een mobiel zouden gebruiken met een dual-core CPU? :)
De mobiele telefoon technologie gaat gebruikt worden direct of indirect als "inschuif-optie" voor bijvoorbeeld robots. Robot bouwers hoeven dan niet nog een keer het wiel uit te vinden. Google bijvoorbeeld ondersteunt al ROS (Robot Operating System) op Android phones door middel van hun port rosjava.

Om beeldverwerking te doen op een telefoon/robot, zoals SIFT of SURF heb je een echt snelle processor nodig. De huidige robots die een embedded processor gebruiken (ARM, Blackfin), zijn haast altijd te langzaam om SIFT daadwerkelijk on-board te draaien. Het zou supermooi zijn om dat echter toch te kunnen doen, zonder er gelijk een laptop op wielen van te maken.

En dat is nog maar één toepassing van zeer krachtige telefoons. Er zijn er ongetwijfeld nog veel meer.
MIjn server heeft minder CPU nodig dan mijn desktop.... dus hopelijk gaan ze ervoor om straks een complete desktop te laten draaien op je mobiel (aangesloten om een wifi monitor??)
Dat is nu al het geval. De minimum systeemeisen voor bijvoorbeeld Windows server 2008 server core liggen binnen het bereik van een HTC Sensation.
Afhankelijk van het doel van de server zal je dat nu ook al kunnen hoor :) Je moet namelijk de server afstemmen op wat je nodig hebt. En het woord "server" bepaald niet dat het een beest van een machine moet zijn.

Een satelliet doet zijn werk ook nog steeds op een 8086 CPU, die gaat niet ineens beter worden als je er een Core i7 in zet :)
Dat heeft misschien ook andere redenen. Een normale processor kan niet functioneren onder ruimtelijke omstandigheden i.v.m. straling e.d.

Maar ontopic. Ik ben benieuwd waar dit type processor in toegepast kan worden.
Epiphany III wordt gebruikt voor het weergeven van tomografisch materiaal. MRI, PET, dat soort scans
Daar kun je tegen afschermen, kosmische straling is veel lastiger.
Ooit draaiden we een Novell server op een 80286. Met een co-processor haalde je daarmee wel 10 Kflops/s. Later droeg ik een portable Compac 486c laptop/sjouwable (ruim 1 Mflops/s) met me mee waarop Novell prima te draaien was als stand-in server. Daarmee ook de eerste OS/2 training gedaan (tot afgrijzen van de IBM mensen, want je hoorde toendertijd netjes een IBM systeem mee te nemen - jammer boys, die Compaq was beduidend sneller dan al die IBM hardware en verdomd, OS/2 draaide er ook prima op). Een iPhone 3G scoort ondertussen vele malen hoger dan zo'n 486.

Kortom, je mobiel is allang in staat om een server te draaien, zelfs multi-user. Maar of ik mijn smartphone in zou zetten als nood website in geval van calamiteiten? Nope... Vrees toch dat die smartphone al snel zijn warmte niet voldoende kwijt kan.
Hoe presteert dit ten opzichte van huidige mobiele IGP's? Als ik het goed begrijp kan een coprocessor namelijk ook als GPU gebruikt worden.
Een piek verbruik van 2 watt.... met 64 cores, dat is fenomenaal. Ik ben benieuwd hoe ze dat vermogen zo laag hebben gehouden. Ergens zal de chip toch wel aan bruikbare prestatie in leveren lijkt me... geen cache?

Als ik de specs zo bekijk is dit een hele prestatie. Zal het bedrijf ook in staat zijn om hiermee een redelijk marktaandeel te krijgen of zijn de productie en ontwikkelingskosten te hoog? Is het ontwerp praktisch gezien ook makkelijk toe te passen in een smartphone / laptop?

Het succes van de chip zou kunnen staan / vallen bij de kwaliteit en toegankelijkheid van de documentatie en ontwikkeltools die beschikbaar zijn.

In hoeverre zijn de FLOP's ook bruikbaar, kwalitatief gezien? Want het produceren van zoveel mogelijk FLOP's per Watt zegt daar natuurlijk niet alles over.

[Reactie gewijzigd door E_E_F op 4 oktober 2011 11:50]

Jawel hoor. Die 32 kb SRAM is feitelijk cache ("Gewoon" geheugen is DRAM, cache is SRAM).

Het lage verbruik komt onder andere doordat ze geen echte memorycontroller hebben geintegreerd. DDR controllers lopen op hoge frequenties en moeten geheugen op 10cm+ afstand kunnen benaderen. Dat kost relatief veel energie.
Waar baseer je dat op?

Volgens mij is dat geen cache maar werkgeheugen namelijk.

Elke core heeft dus de helft aan geheugen vergelijken met een commodore 64 (kb)

[Reactie gewijzigd door E_E_F op 4 oktober 2011 14:10]

Hoe sturen ze aan dat de copro gebruikt moet worden in een multicore processor? Of moet dat softwarematig?

Dit is trouwens heel veel rekenkracht voor zo'n klein chipje! :o
De aansturing zal vergelijkbaar zijn met een videokaart.Je kunt het lokale geheugen van een core beschrijven en daarna de core een startsignaal /reset signaal (hardware interupt) geven. In principe heeft iedere core slechts een klein stukje code "bootstrap" nodig om zijn 'eigen' routine uit een extern geheugen te laden en daarna uit te voeren. Vervolgens kan er met de cores gecommuniceerd worden via gemeenschappelijk geheugen (via de gebruikelijke "inter proces communication" methodes ) en hardware interupts. Hardware interupts zijn misschien niet echt handig met zoveel cores omdat ze het hardware ontwerp onnodig ingewikkeld maken en waarschijnlijk niet tot betere prestaties leiden.

Het is ook mogelijk dat het ontwerp op hetzelfde plaatje silicium wordt ge-etst. samen met de "host controller" onder licentie door andere fabrikanten. Je kunt dan denken aan een modulair chip ontwerp als bij de ARM - architectuur. Vanwege het lage stroomverbruik hoeft warmte ontwikkeling daarvoor ook geen obstakel te zijn.

[Reactie gewijzigd door E_E_F op 4 oktober 2011 14:11]

Zoals je kunt lezen in de tekst is het programmeerbaar door OpenCL. Oftewel, precies hetzelfde als een videokaart, met een kernel die op 1 of meerdere cores een trucje doet met een hele load aan data.

Elke core heeft een cpu en een router. Met software wordt de router aangestuurd om een stukje data te halen. Die kan ofwel lokaal zijn, de 32kb of bij een andere core, of nog in het grote geheugen. Latency is zeer variabel. Volgens de docs duurt een access in een 16-core mesh gemiddel 2.625 hops. Dus de programmeur moet al het zware werk doen, wat een desktop core voor je doet. Branching, hardware memory management, leuk, uitdaging.

Denk dat je deze architectuur vooral terug zal zien als gpu bij een telefoon chip. Dat is ook wat ze zeggen.
Okay, thanks!
Weer wat geleerd.
Wat me opvalt in het originele bericht is dat de cores blijkbaar heel efficient samenwerken. Over de gehele range van 16 tot 4096 cores claimt Adapteva namelijk 70GFlops per Watt. Blijkbaar levert het bijtrekken van cores geen of nauwelijks overhead wat betreft energieverbruik op.
Hele mooie ontwikkeling maar waar ga je dit voor gebruiken?

Je ziet dat software fabrikanten / programmeurs al problemen hebben om alle cores van een quad/hexa-core pc bezig te houden. Het is leuk dat je 64 cores hebt maar je moet ze wel allemaal voorzien van werk.
Ik was erg benieuwd wat voor een instructie set deze chip ondersteund, aangezien veel mensen vergelijkingen makenmet x86 en amd64 processoren. Volgens de in het artikel genoemde bron gaat het om een RISC processor. Verder wordt er niet echt iets over gezegd.
each processor node represents a fully-featured floating point RISC processor built from scratch for multicore processing, a high bandwidth local memory system, and an extensive set of built in hardware features for multicore communication.
Is dit dan het zelfde als de ARM instructie set in de meeste android mobieltjes??
Oftewel is windows 8, anroid en iOS hiervoor te compileren? Ja dat kan natuurlijk altijd compileerbaar gemaakt worden, maar ik bedoel meer, wat is de doelgroep van deze processor, een custom os of een aangepaste versie van een bovenstaande of draait het out-of-the-box.
ARM heeft traditioneel geen floating-point deel. Nieuwere ARM's hebben NEON, wat een soort SSE functie is. "Built from scratch" is een tweede aanwijzing dat het geen ARM is.
wel grappig eigenlijk
DARPA = Defense Advanced Research Projects Agency.
En ze hebben doelstellingen voor een HTPC? Basically willen ze supercomputing hebben welke net zo veel stroom gebruikt als een htpc en dit gebruiken voor andere doelstellingen. Gebruik dan niet t woord htpc erbij.
Zoals DanTheBanjoman zegt, maar niet uitlegt: High Performance Computing (HPC). De tekst is inmiddels aangepast door Tweakers, waar inderdaad orgineel HTPC stond.

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Smartphones Beheer en beveiliging Google Apple Sony Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013