Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties

Het Barcelona Supercomputing Center in Spanje gaat een supercomputer bouwen die Tegra 3-soc's in combinatie met Nvidia-gpu's inzet voor de rekenkracht. De op arm gebaseerde multicores moeten voor een laag energiegebruik zorgen.

Nvidia Tegra-logoMet het zogeheten Mont Blanc-project wil BSC uiteindelijk exascale-prestaties, waarbij de totale rekenkracht hoger ligt dan een exaflop, voor hpc's mogelijk maken met een energiegebruik dat vijftien tot dertig keer lager ligt dan dat van de huidige generatie supercomputers.

"In de meeste huidige systemen nemen cpu's het leeuwendeel van de energieconsumptie voor hun rekening, vaak veertig procent of meer", verklaart Alex Ramirez, teamleider van het Mont Blanc-project. Door het gebruik van de arm-quadcores van Nvidia, die overigens nog een vijfde extra zuinige core hebben, moet de efficiëntie in 2014 al met een factor vier tot tien toegenomen zijn.

In 2017 zou 200 petaflops bij een gebruik van 10MW binnen handbereik zijn en 1 exaflops bij 20MW zou drie jaar later haalbaar zijn. Het Spaanse project heeft een budget van 14 miljoen euro, waarvan 8 miljoen afkomstig is van de Europese Commissie. Diverse Europese exascale-onderzoekscentra zijn aangesloten bij het exascale-programma en het Barcelona Supercomputing Center belooft hard- en software-onderdelen die ontwikkeld worden voor het project vrij te geven.

Nvidia gebruikt de aankondiging om een nieuwe hardware- en software development kit aan te prijzen dat aan het begin van volgend jaar moet verschijnen. Het pakket zal onder andere een Tegra 3-soc en een niet nader aangeduide gpu bevatten.

Moderatie-faq Wijzig weergave

Reacties (37)

Hoeveel zou je van die dingen nodig hebben om aan 200 petaflops te geraken?
Doordat de tegra minder warmte afgeeft dan een x86 architectuur cpu heb je ook minder koeling nodig.
Volgens mij heeft niemand hier door dat de Tegra's met Nvidia GPU's gecombineerd worden. Het lijkt mij waarschijnlijk dat juist deze GPU's de bulk van de rekenkracht zullen leveren. Het probleem met huidige GPGPU oplossing is over het algemeen dat je altijd nog een CPU nodig hebt voor integer werk/branching e.d. Vaak houdt dat ook in dat data over en weer gaat tussen GPU en normaal geheugen, met de nodige vertragingen tot gevolg.

Nvidia is dus al bezig om deze afhankelijkheid van CPU's te verminderen. Project Denver is hier het perfecte voorbeeld van, waarin ze van plan zijn aantal ARM cores en een zooi CUDA cores op dezelfde chip te plaatsen. In essentie is dit niet veel anders dan AMD's strategie (cf. Brazos, Bulldozer), met als voornaamste verschil het gebruik van ARM cores i.p.v. x86. Het voordeel voor Nvidia is (1) het verminderen van kostbare CPU-GPU data transfers en (2) de noodzaak om altijd AMD/Intel CPU's te moeten aanschaffen voor hun GPGPU computing. Dit project om Tegra met GPU cores te combineren lijkt mij dus ook prima binnen deze strategie te passen. Het zal Nvidia ervaring en software opleveren die handig zal blijken als ze iets a la Project Denver op de (HPC?) markt willen brengen.
nVidia GPU's zitten natuurlijk standaard al in een Tegra, en het aardige is dat de GPU's die in ARM-SoC's zitten vaak ook weer ingezet kunnen worden voor OpenCL.

Dus zelfs zonder externe CUDA-GPU's zou een Tegra al een hoop GPU rekenkracht kunnen leveren zonder de CPU's.

[Reactie gewijzigd door kidde op 16 november 2011 00:22]

Tegra heeft inderdaad al een GPU, maar deze is een stuk minder krachtig dan andere Nvidia oplossingen. In deze presentatie is meer informatie te vinden over het project en hoe ze het denken te realiseren:

http://www.eesi-project.e...3-Mont-Blanc_Overview.pdf

Zoals je op slide 8 kunt zien, is een Tegra 3 module goed voor 6 Gflop/s (~4W), terwijl een Nvidia GeForce 520MX goed is voor 142 Gflop/s (12W). In de voorgestelde verhouding van 1 Tegra 3 met 1 GF 520MX betekent dat dus dat slechts 4% van de ruwe rekenkracht voor rekening van de Tegra's komt. Uiteraard ziet het er naar uit dat dit verschil in de komende jaren alleen kleiner zal worden.
Kijk zelf liever naar performance per watt, maar er zit natuurlijk wel wat in dat je in zijn geheel per tegra minder koeling nodig hebt.
Performance per watt, of andersom zelfs watt per performance, maar is daar meestal de koeling en dergelijke bij meegerekend?

Scherpe opmerking verder, zeker aangezien t over zuinigheid gaat hier.
Die vijfde core kunnen ze net zo goed weglaten, veel tijd zal deze supercomputer wel niet in idle doorbrengen.
of software aanpassen zodat de 5de core het OS laat draaien, dus de 4 andere cores het 'zware' reken werk.
Kan niet, die core is niet in software aanspreekbaar. Nadat je drie van de 4 cores hebt gepowergate en je dan die ene core steeds meer idle en dus op lagere snelheid gaat draaien gaat op gegeven moment de zuinige core het overnemen en die kan op *nog* lagere spanningen en kloksnelheden. Dit proces wordt gewoon transparant binnen de chip gedaan, en bovendien kan altijd alleen de 4 main cores *of* de zuinige core aan staan.
Ik vraag me af waarom de CPU in PC's dan geen GPU-architectuur krijgt. Komt dit doordat ze nog steeds compatibel moeten zijn met oudere typen?
Tegras zijn geen GPU architectuur, tegra zijn ARM gebaseerde SoCs. Dit zijn dus gewoon CPUs, alleen met een RISC ancestry ipv CISC, en recenter de mobiele markt.
Dat krijgen ze ook, zowel AMD als Intel hebben tegenwoordig geintegreerde CPU+GPU's (Sandy Bridge, Llano, Brazos, Atom, etc).

[Reactie gewijzigd door Dreamvoid op 15 november 2011 19:50]

Omdat GPU's bepaalde taken heel erg goed kunnen uitvoeren, terwijl andere taken juist beter door de CPU kunnen worden gedaan.
Dat krijgen ze wel....
Video kaarten hebben heel veel programeerbare cores dat wil zeggen je moet ze instellen om iets te doen en dan doen ze het ook met ze alleen . parallel processing noemen ze dat... probleem is dat de PC software is gewoon nog niet zo ver is om daar gebruik van te maken. onder normale programma's gebruiken maar 1 core . misschien 2
we hebben steeds meer software die daar gebruik van maakt hoor maar veel software die dat niet kan ..... kijk maar eens naar de laatste AMD cpu dan zie je gewoon dat hij soms traag is en andere keren heel snel. AMD fusion is ook een goed voorbeeld het GPU gedeelte wordt gebruikt voor diverse dingen decoderen van video materiaal de meest gebruikte maar ook om flash te runnen en andere dingen

Pc's hebben hele snelle cores die veel complexe dingen aan kunnen
video kaarten hebben niet zulke snele cores en beperkt geheugen maar hebben er gewoon enorm veel maar die kunnen alleen maar simpele dingen aan. Dus wat beter is ligt aan wat je uit gaat voeren, en software. GPU's zijn echt reken monsters maar kunnen hun kracht dus alleen daar voor gebruiken. dus in reken taken zijn ze snel in all het overige vrij traag

is er hoop? ja windows 8 heeft veel betere ondersteuning voor multi core CPU's hierdoor kunnen programma's beter worden ingedeeld en kunnen we steeds meer van de GPU kracht gebruiken.
Nvidia is markt leider in GPu benutten hele super computers worden om hun video kaarten gebouwd. en dat is logisch want super computers doen bekeringen.

waar CPUs ster in zijn is data base systemen dat is vaak dom en niet reken werk.
Ik vraag me af waarom de CPU in PC's dan geen GPU-architectuur krijgt.
Dat komt in 2013, met de AVX2 instructieset. Dan krijgt de CPU, net als de GPU, parallelle laad-instructies (gather), en fused multiply-add (FMA). AMD's Bulldozer architectuur ondrsteund reeds FMA, maar deelt slechts n 256-bit rekeneenheid per paar cores. Intel's Haswell architectuur krijgt vermoedelijk twee 256-bit rekeneenheden per core.

Vier keer meer rekenkracht dus, en vlotte SIMD geheugentoegang.

Tegen het einde van het decennium zal wellicht de CPU- en GPU-architectuur volledig versmolten zijn.
Dit is een enorme opsteker voor nVidia. Het is mogelijk geworden om met alleen maar hun chips te gebruiken een supercomputer te bouwen. Ook erg leuk voor ARM daar zij met hun architectuur waarschijnlijk in de supercomputer top-10 zullen belanden zodra dit project werkend is. Alleen vraag ik me af waar ze deze extreme specialist in paralelle rekentaken voor willen gaan gebruiken. Een simulatie van het gehele universum? Of berekenen hoe (organische) virussen bestreden kunnen worden? De LHC emuleren? Dat zou ik wel eens willen weten.
Kijk naar waar de Dutch Power Cows in actief zijn... dan weet je het

ook hadden ze nog een super computer nodig om de simulatie te bevestigen die ze in BERN hadden gedaan toch?
Het Spaanse project heeft een budget van 14 miljoen euro, waarvan 8 miljoen afkomstig is van de Europese Commissie.
Lees ik dit verkeerd, of kost de volledige bouw van deze supercomputer slechts 14 miljoen euro? Dat lijkt me extreem goedkoop voor een computer van dit caliber, hoe zit dat?
Waarschijnlijk enorme kortingen van nVidia in ruil voor de opgedane ervaringen en/of beperkt gebruik van het systeem.
Ik lees toch echt tegra 3 EN nvidia gpu. Dat betekend dus dat de interne gpu van de tegra niet wordt gebruikt. Waarom wordt ie dan wel in de soc gelaten?
De Tegra 3 heeft een nvidia gpu.
Ben ik even blij dat ik de stroomrekening niet hoef te betalen ;)

Lagere stroomkosten betekent o.a extra investeringsmogelijkheden in allerlei vormen van wetenschappelijk onderzoek: en dat is altijd een goed ding :)
Interessante ontwikkeling maar ik denk dat geld van de EU op dit moment beter voor andere zaken gebruikt kan worden in Spanje (of daarbuiten).
...waarvan 8 miljoen afkomstig is van de Europese Commissie
Oh... Dus daar gaan mijn centen heen... 14 miljoen alleen om een paar exaflops te halen, nog maar niet te spreken over het energieverbruik (20 freaking MegaWatt!!! Ik verbruik doorgaans per uur nog geen kilowatt) :(

Goed initiatief verder!

Wanneer komen er Tegra based of compatible desktops uit? Veel interessanter! Weg kloof tussen desktop en pad (en ook telefoon... :))
Hoe is het interessanter of er al dan niet een kloof tussen desktop en tablets ligt, dan potentieel zuinigere supercomputers (denk ook aan server farms) die een daadwerkelijk effect hebben als ze goedkoper worden EN nog eens vaak voor onderzoeken *nuttig* gebruikt worden (met uitzondering van ruimte nonsense :+ ) (oh, en bij nuttig kun je bijvoorbeeld denken aan veel onderzoek op moleculair gebied, bijvoorbeeld richting een beter begrip van bepaalde moleculen die veel met aids te maken hebben (onderzoek waar een bekende van me indirect mee te maken heeft :D ))
Ik bedoel maar. En ik wil niet veel zeggen, maar als ik me niet vergis is er nog geen enkele supercomputer bij de exaflop gekomen zonder immens hoge kosten dan wel niet torenhoge stroomkosten te eisen.
Dit project vind ik juist iets om aan te juichen, een supercomputer op deze schaal en met deze kracht kan voor de wetenschappelijke sector een oplossing bieden om complexere taken uit te voeren zonder daar jaren op te moeten wachten. En de wetenschap niet alleen, ook andere sectoren kunnen zeker profiteren van deze supercomputer, weersverwachtingen, gedetailleerdere mappen van ons universum, zoals hierboven gezegd moleculair onderzoek, ziekten en ga zo maar door.

Voor Radhe: Ik denk dat jij geen besef hebt hoeveel huidige supercomputers verbruiken. Bijvoorbeeld: de K computer, die kan 10,51 Petaflops uitspuwen met een verbruik van 9,89 MW. (http://en.wikipedia.org/wiki/K_computer)
Die supercomputer verbruikt dus de helft van wat deze tegra 3 verbruikt Mr kan 1/100e OPS produceren. Dus in verhouding is de tegra 3 supercomputer 50 keer zo zuinig dan die huidige K computer. En dat niet alleen, zoals al eerder vermeld worden de kosten die verbonden zijn aan het koelen van de systemen ook enorm geremd.

Ik zeg investeer hierin. Waarom snelle watt hongerige CPU's gebruiken als je ook zuinigere in grotere hoeveelheden kan gebruiken :)
Simpel:

Op de aarde zijn misschien 1 miljard desktops, misschien typisch 200 Watt per stuk.
Op ARM-technologie zouden die misschien maar 10 Watt per stuk gebruiken.

Tel uit je winst: Bij 15% 'load' voor gemiddeld 6 uur per dag zijn dat ruwweg 16 Borsselse kerncentrales of 6 Amercentrales (wel ff zelf narekenen SVP).

[Reactie gewijzigd door kidde op 16 november 2011 00:28]

Oh ja, van de 5,74 miljard euro die we per jaar alleen als Nederland afdragen aan de EU, en een totaal budget van 100+ miljard moeten we ons zorgen maken over 14 miljoen die naar een supercomputer gaat!
mooi onderzoek, maar wederom een onderzoek waar de belastingbetaler voor betaald, en het bedrijfsleven van profiteert. en vervolgens weer geld verdient aan deze ontwikkelingen. lijkt me meer een onderzoek dat door deze bedrijven zou moeten gebeuren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True