Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 134 reacties

De Chinese Tianhe-2 supercomputer heeft de eerste plaats gepakt in de top 500. De Tianhe-2 weet een snelheid te behalen van 33,9 petaflops. Daarmee troeven de Chinezen de Amerikaanse Titan-supercomputer, goed voor 17,6 petaflops, voor de eerste maal af.

De Tianhe-2 is eigendom van de National University of Defense Technology. Het rekenmonster bestaat uit 16.000 nodes. Elke node bevat twee Intel Xeon IvyBridge-cpu's en drie Intel Xeon Phi-processors. In totaal heeft de Tianhe-2 de beschikking over 3.120.000 cores. Het systeem beschikt over 1.024.000GB aan werkgeheugen en draait op Kylin Linux, een afgeleide van Ubuntu.

Het Tianhe-2-cluster weet bij de Linpack-benchmark, waarop de rangschikking in de top 500 is gebaseerd, een score van 33,9 petaflops te behalen. De theoretische pieksnelheid wordt gespecificeerd op 54,9 petaflops.

Met zijn 33,9 petaflops passeert de Tianhe-2 ruimschoots de Titan. Deze Amerikaanse supercomputer was bij de vorige publicatie van de top 500 lijstaanvoerder, met een score van 17,6 petaflops. De door Cray gebouwde Titan beschikt over 560.640 processorcores, waaronder 261.632 Nvidia Tesla K20x-gpu-cores en Opteron-processors van AMD. Volgens de opstellers van de lijst blijft de Titan wel de zuinigste supercomputer, met een efficiëntie van 2143Mflops/W.

Ook een positie gedaald is de Sequoia, de supercomputer van het Lawrence Livermore National Laboratory en goed voor 17,2 petaflops. Inmiddels telt de top 500-ranglijst meer dan 26 supercomputers die een Linpack-score boven de 1 petaflops behalen, terwijl dat er bij de vorige peiling, zes maanden geleden, nog 23 waren. Verder levert Intel 80 procent van de gebruikte cpu's, terwijl 88 procent van de systemen draait op basis van minimaal hexacore-cpu's en 67 procent met minimaal octocore-processors.

Tianhe-2

Moderatie-faq Wijzig weergave

Reacties (134)

Een interessant artikel van iemand die het beesteje bezocht heeft: hier (PDF)

Beetje verder lezen in wat National University of Defense Technology is, en je weet waar dit voor is.

[Reactie gewijzigd door MAher op 17 juni 2013 14:24]

Duidelijke bron! Sluit meteen de discussies over RAM en opgenomen vermogen hierboven af.
Samengevat:

Each node has 64 GB of memory and each Xeon Phi has 8 GB of memory for a total of
88 GB of memory per node. With 16,000 nodes the total memory for the Ivy Bridge
part is 1.024 PB and the Xeon Phi Coprocessors contributed 8 GB per board or a total of 24
GB per node or .384 PB for the Coprocessors. Bringing the total memory to 1.404 PB for the system.

en

The peak power consumption under load for the system is at 17.6 MWs. This is just for the processors, memory and interconnect network. If cooling is added the total power consumption is 24 MWs.

Ze gebruiken dit monster dus voor het simuleren van de vlucht van een vliegtuig (complex flow simulation of the full plane : C919); iets met gyrokinetiek; Business Opinion Analysis; en security e-government could. Ik kan me voorstellen dat nucleare simulaties ook op het lijstje staan maar niet genoemd worden en dat dit ook zeker een bijdrage kan leveren in het Chinese ruimtevaart programma.


PS van wikipedia: Gyrokinetics is a branch of plasma physics derived from kinetics and electromagnetism used to describe the low-frequency phenomena in a plasma

[Reactie gewijzigd door Alxndr op 17 juni 2013 14:46]

Interessant artikel.

Het artikel zegt dat elke socket 12 cores heeft en elke compute node 422 Gflop aan ivy bridge power.

Die 12 core Xeons E5-2600 V2 zijn officieel nog niet gelanceerd en China heeft ze kennelijk al?

Die cpu's werken overigens ook op 4 sockets dus zijn niet echt goedkoop. Als je er 32000 van afneemt zal dat overigens vast anders liggen - dan is Intel natuurlijk bereid om wat te doen als je daar 's werelds snelste supercomputer van bakt.

En dit alles natuurlijk net op tijd voor de juni lijst 2013 van top500.

Interessant is ook de vermelding dat ze zelf verwachten dat USA tot 2015 hier niet overheen zal kunnen gaan als het gaat om de energy department...
De Tianhe-2 verbruikt maximaal 17.6 MW voor de processoren, memory ed.
Met de koeling meegerekend is het verbruik 24 MW.

Bij de genoemde Linpack benchmark werd 90% van de nodes gebruikt.
Dit resulteerd in een efficiŽntie van 1935 Mflop/Watt

bron:
http://www.netlib.org/utk...nhe-2-dongarra-report.pdf
Over 15 jaar heb je dat in je telefoon.. en moet je lachen om deze specs voor een supercomputer.

Verder wel enorm gaaf ding!
Even gekeken, in juni 1998 had de nummer 1 supercomputer (ASCI Red) 1338 Gflops/s.
De chip in een iPhone 5 (ik pak maar wat) doet 27Gflops.

Dus dat valt nog best mee.
Een iphone5 doet bijna geen double precision flops, dus het verschil is nog veel groter dan dat.

Die 27 glops zijn geen bruikbare flops natuurlijk. Op zijn hoogst kun je het grafische 32 bits flops noemen. Deze Tianhe-2 flops zijn double precision, dus 64 bits flops, waar je echt mee kunt rekenen.

De Apple A5 (cortex a9 @ 800Mhz) doet ongeveer 87 mflops double precision.
De apple A6 (2 x 1.3Ghz) behaalt ongeveer 0.315 gflop aldaar.

http://www.anandtech.com/show/6330/the-iphone-5-review/6

Dus dat is heel ver weg van de 1 Tflop die de supercomputer TERAS had in Amsterdam en dat was technologie geintroduceerd 15 jaar geleden... (nederland kocht het iets later natuurlijk).

Sinds een jaar of 10 nu zit de hardware tegen de harde limiet van 1.3Ghz te hikken. Dat vertaalt zich in aluminium terug naar 1/3 van de lichtsnelheid. Grofweg de snelheid van electronen in aluminium.

We zien in de massale supercomputers dat alleen meer cores ertegenaan kwakken nog prima werkt. Hoger klokken doen ze bijna niet meer.

Dus de kans dat je dit in je mobiele telefoon hebt is als we kijken naar verleden en de problemen die er nu zijn, dus niet zo erg waarschijnlijk.

Nu is er wel een kans dat we lichtcomputers gaan krijgen, echter het gaat veel langer duren dan 15 jaar voor die in je zaktelefoon geintroduceerd worden.

Vraag is ook uit welk materiaal zo iets gemaakt gaat worden, want als dat platinum of goud is dan worden dat ook niet alledaagse mobieltjes die je voor spotprijsje koopt natuurlijk.

Voorlopig zijn die mobieltjes nog orde groottes trager dan TERAS destijds was.

Dat ligt overigens anders voor PC's wat wel een eerlijkere vergelijking zou zijn.

Als we overigens de snellere laptop processors erbij pakken en uitgaan van 4 cores die 1 AVX instructie per clock uitvoeren en dat op 2.6Ghz, dan komen we uit op een theoretische (en we doen dan de manufacturer berekening die overal en te allen tijde altijd factor 2 roven wegens een zogenaamde multiply-add) :

2 gesmokkelde FMADD * 2.6Ghz * 4 cores * 4 doubles = 83.2 gflop voor de snelste laptops...

Let wel: dit is een theoretisch getal. Dit ga je niet sustained halen...

Er zitten ook GPU's op die laptops overigens ingebakken sommige zelfs wel 384 CUDA cores, echter de laptop gpu's zijn krakkemikkig traag voor double precision berekeningen (64 bits berekeningen). De CPU is dan sneller en die heb ik hierboven berekend.

[Reactie gewijzigd door hardwareaddict op 17 juni 2013 14:39]

Hoe snel is deze supercomputer in relatie tot Lieutenant Commander Data van Star Trek the Next Generation?

Ik ben niet zo goed in die berekeningen, maar volgens memory alpha zijn dit zijn specs:

Data was built with an ultimate storage capacity of eight hundred quadrillion bits and a total linear computational speed rated at sixty trillion operations per second.

Wie kan dit berekenen? Ik ben zeer benieuwd of dit een reeds haalbaar getal is, hoewel niet vergeten moet worden dat Data die rekencapaciteit heeft ter grote van een menselijke schedel ipv een giga-datacenter zoals deze supercomputer van t artikel.
De storage capacity van deze supercomputer wordt hier niet beschikbaar gemaakt, maar een storrage systeem kan gewoon aan een bestaande supercomputer gekoppeld worden, dus dit is zeer haalbaar:
Het genoemde bits komt overeen met ongeveer 89Petabyte, iets wat momenteel voorzien kan worden in 10racks, vb 2 van deze

60 trillion operations per second, worden hier iops (disk access operations) bedoeld, of integer of floating points operations?

Als er input output operations bedoeld worden is dit niet haalbaar: Aangezien een ssd momenteel slechts ongeveer een 4000iops aankan zou je 15 000 000 000 ssd's nodig hebben in je systeem om deze iops aan te kunnen.
Zelfs met de meest performante RAM based fusion disks, die onbetaalbaar zijn voor een gewone sterveling zou je er nog 6 666 666 van nodig hebben...

Als er 60Tflops bedoeld worden, dan komt dit in de buurt, deze machine heeft er 33, in de komende 5 jaar wordt dus zeker een 60TFlop machine verwacht,
Als de exponentiele trend zich blijft voorzetten voorspel ik deze tegen binnen 18 tot 24 maanden.

en 60T integer operations per second bedoeld wordt is dit zeker nu al haalbaar, een huidige intel xeon cpu kan ongeveer 150 000 MIPS doen,
dus 60TIPS komt overeen met 400 hedendaagse cpu's.


Het lijkt mij helemaal haalbaar dat IBM een versie van zijn watson momenteel op een systeem met deze specs zou kunnen draaien.

[Reactie gewijzigd door Keneo op 17 juni 2013 19:16]

4000 IOPS voor een SSD? Een Vertex 3 haalt al ruim 50.000 IOPS. Modernere SSD's halen meen ik boven de 100k iops.

Enterprise meuk (rackmounted) halen meer dan 10.000.000 IOPS:

http://kove.com/xpress#specifications
Sinds een jaar of 10 nu zit de hardware tegen de harde limiet van 1.3Ghz te hikken. Dat vertaalt zich in aluminium terug naar 1/3 van de lichtsnelheid. Grofweg de snelheid van electronen in aluminium.
Aluminium? Bedoel je niet silicium?
Beste apart die vergelijking.
Wetende dat je binnenkort met een Playstation 4 een superComputer uit 1998 in huis hebt staan.
Playstation 4: 1.83 Tflops.
https://en.wikipedia.org/wiki/FLOPS#Hardware_costs
Maar die draaien toch op X86 architectuur en niet op X64 dus dat is geen eerlijke vergelijking als ik het verhaal van hardwareaddict lees.
X64 is geen architectuur op zichzelf. Het is enkel een aanduiding die men gebruikt voor 64-bits operatie. Veel X86 devices zijn al 64-bit, maar het is enkel zo gedaan om verwarring te voorkomen tussen 32 en 64-bit besturingssystemen.
Dat is correct. In de wetenschap moet men significant rekenen. Met name voor grote matrixcalculaties en dus grote FFT's/DFT's or you name it wat met fourier te maken heeft, dus complexe wiskunde, daar heb je double precision voor nodig.

Dat heeft 53 bits aan significantie. Dus bijvoorbeeld 5.492392929 keer 10 tot de macht -24

Vooral bij quantummechanica (het gros van de berekeningen op de Westerse supercomputers - dus ook voor nuke explosies maar niet gelimiteerd tot nukes) daar is de significantie heel ver achter de komma enorm belangrijk.

Voor NCSA/NSA toepassingen is juist rekenen van miljoenen bits significantie heel belangrijk. Dat wordt dan ook weer gedaan met dezelfde FFT. Al dan niet een iets andere naam voor een specifieke implementatie van de FFT waardoor hij iets sneller is (voor priemgetallen met name Mersenne heet dat bijvoorbeeld DWT).

In al die gevallen wil je dus doublep recision gebruiken. Die past dus precies in 64 bits en niet in 32 bits.

De consoles en de meeste GPU's kunnen hoegenaamd geen double precision rekenen, dus zijn feitelijk niet vergelijkbaar.

De Geforce Titan kan dit wel overigens en de Nvidia Tesla kan dit ook.
De Tesla K20 en K20x heeft die logica op de chip wel enabled en de Nvidia Titan dus ook.

Die GPU ligt voor 1000 euro i nde winkel.

In supercomputers kun je niet goed met Nvidia Titans rekenen, want dan lukt het beheer niet zo best. Je hebt dan ECC nodig. Dat is gewoon een requirement geen luxe dus. Overigens er zit al wel een CRC in die GDDR5 van die gpu's, dus het verschil met ECC is niet zo heel groot afgezien van het beheer.

Wat we lenorm verschil is, is dat de Tesla's stevig lager geklokt zijn en dus veel kleinere kans maken om ergens een bitflip te hebben.

je zou me maar gedurende een maand of 3 nonstop de hoogte van het zeewater berekenen op zo'n megasupercomputer, zoals wel vaker gedaan wordt en er is ineens ergens in die 3 maanden een bitflip waardoor je berekening zegt dat het zeewater 100 meter gaat stijgen komende 50 jaar :)

Dit waar het weer een jaar of 10 kost voor je weer zo'n enorm rekenproject mag uitvoeren van de overheid.

Die geeft altijd maar 1x de kans om dingen uit te rekenen, dus je MOET een supercomputer hebben die foutloos rekent en waar in geval van een bitflip dat of direct gecorrigeerd wordt, of het systeembeheer dat direct te horen krijgt.

Dat is waarom die gpgpu kaarten zo enorm duurder zijn en niet compleet overklokt zoals de gamer cards / consoles wel zijn.

Overigens er is bij de FFT's altijd sprake van backtracking van errors. Dus er is altijd de kans dat je berekening toch foutief is. De meeste wetenschappers nemen gewoon dat risico dus, al is het weer een hele wetenschap an sich.

Bij 64 bits double precision is die kans simpelweg vrij klein terwijl bij 32 bits single precision zoals de GPU's standaard gebruiken dan is die kans 100% is dat het fout gaat.

Alles gaat dus om de correctheid waarmee je rekent en zoveel mogelijk fouten uitsluiten danwel de kans daarop minimaliseren.
De HTC One en Galaxy S4 gaan beiden ruim over de 600Gflops heen, dus dan valt het al wat minder mee. :)
De HTC One en Galaxy S4 gaan beiden ruim over de 600Gflops heen, dus dan valt het al wat minder mee. :)
Bron? De S4 en HTC One komen niet eens in de buurt van de 100Gflops.
De iPad 4 is het enige mobiele apparaat (afgezien van laptops bijv) wat tegenwoordig in de buurt komt, met 76,8 Gflops.
http://en.wikipedia.org/wiki/Exynos_(system_on_chip)
http://en.wikipedia.org/wiki/Apple_Ax
http://www.anandtech.com/...sgx-554mp4-under-the-hood

[Reactie gewijzigd door SidewalkSuper op 17 juni 2013 14:58]

Nou die Exynos met 72Gflops doet het dan ook niet echt slecht he :) Is wel dezelfde PowerVR GPU als die Apple gebruikt (daarom liggen ze ook niet ver uit elkaar natuurlijk), zegt toch wel wat over PowerVR dat ze zelfs met een vrij oud ontwerp (2010) nog steeds de betere GPU hebben...

Vergeet trouwens niet dat het allemaal theoretisch is, geen praktijksnelheden...

[Reactie gewijzigd door watercoolertje op 17 juni 2013 17:02]

Maar goed een mobieltje is ook niet zo krachtig, hoeft ook niet deze moet een balans zijn tussen zuinig en alles soepel kunnen weergeven.
De nieuwe PS4 overtreft wel dik deze supercomputer uit 1998 met 1.84 TFLOP De Xone en de Wii U met respectievelijk 1.23 TFLOP en 352GFLOP. Halen de supercomputer dus niet in. Al is natuurlijk de Wii U de grootste achterblijver. Welke gelukkig nog net een derde sneller is dan de huidige PS3 met 230.4 GFLOPS en 3x zo snel als X360 met 115.2 gigaFLOPS

[Reactie gewijzigd door Bliksem B op 17 juni 2013 14:44]

de PS4 kan geen wetenschappelijke berekeningen uitvoeren.

AMD gaf aan dat double precision in principe gelimiteerd is op die gamerscards.

Met wat geluk haal je de 80 gflop double precision ermee.

Die 1.84 Tflop is de grafische (single precision) kracht. Dus aansturing van de logica achter de pixels. Pixelaansturing kun je als 32 bits zien en double precision kun je als 64 bits zien. Het is niet eenvoudig om double precision zonder speciale hardware logica in de gpu's te emuleren.

AMD en Nvidia limiteren de double precision rekenkracht tegenwoordig enorm van de gamerscards. De enige uitzondering die Nvidia hierop maakt is de Nvidia Titan, die 1 Tflop double precision levert.

Die blaast echter ook grafisch die PS4 compleet weg, wat voor een 1000 euro kaart ook wel mag...
Dus met andere woorden: zelfs de GTX Titan van 1000 euro kan nog niet tippen aan de supercomputer van 1998?
Het blijft niet lineair omhoog gaan ben ik van overtuigd. Knalt dadelijk 100x zo snel omhoog.
Resultaten uit het verleden geven geen garanties voor de toekomst. Ofwel, wat de 'wet' van Moore de afgelopen decennia heeft laten zien, hoeft zich de komende tientallen jaren niet zondermeer te herhalen.
Het feit dat nieuwe generaties processors van Intel geen sprong voorwaarts meer maken qua rekenkracht, geeft al aan dat de grootste rek eruit is. Dat ligt niet enkel aan gebrek aan concurrentie van AMD, of aan de focus op zuinige chips voor draagbare apparaten. Het is niet uitgesloten dat toekomstige technologiŽn alsnog voor zeer grote snelheidsverbeteringen zorgen op middellange termijn, maar het is allerminst een vaststaand feit.
De rek is er nog langes niet uit, dat Intel tijdelijk geen grote sprong voorwaarts maakt heeft allemaal te maken geld. Waarom zouden ze met betere specs aankomen als de huidige nog steeds perfect verkoopt en de klant niet sneller nodig heeft. We zijn aangekomen op het punt dat de gemiddelde gebruiker 90% van zijn taken kan uitvoeren op een simpele dual-core, namelijk websites bekijken.

Verder zijn ze nog steeds continue aan het ontwikkelen voor een quantum computer, er zijn al genoeg positieve berichten over gekomen. Als die er eindelijk is zullen we weer voor minimaal 30 jaar verbeteringen gaan zijn.

Zelfs zonder de quantum computer is de wet van Moore niet afgezwakt, hij is juist aan het versnellen. Dat is geen indicatie dat de rek eruit is, eerder dat ze op veel vlakken kansen zien om het te verbeteren.
De verwachting is dat met een jaar of 15 tot 20 het 'einde' van de wet van Moore in zicht komt. Een belangrijke specificatie van een chipmachine is de zgn 'overlay', simpel gesteld is de overlay een specificatie hoe nauwkeurig de volgende laag kan worden aangebracht op de voorgaande laag. Deze 'verschuiving' noemt men overlay en bij de huidige chip productie processen is een overlay van maximaal 3 nanometer gewenst. 1 nanometer is gelijk aan ongeveer 10 'atoom dikten'. Indien straks nog kleinere chips worden gemaakt kom je in het niveau van atoom dikten, en 'halve' atomen kunnen we nog steeds niet maken.
15 jaar misschien een beetje voorbarig? Als we eerste maar eens beter batterij technologie krijgen...
15 jaar zal idd beetje snel zijn maar je weet het nooit.

Wat ik wel lachen noem is china troeft de usa af. Uh hoezo, ze gebruiken gewoon intel = amerikaanse bedrijf cpu's. Van aftroeven kan dus geen sprake zijn.

Daarnaast die lijkt wijzigt ieder jaar wel weer.
Maar waar zijn die Intel chips dan weer gefabriceerd? Waarschijnlijk China.
Intel laat zijn chips overal ter wereld in eigen fabs maken. Het cpu ontwerp is van intel amerikaans bedrijf, amerikaanse kennis.

Zou pas helemaal chinees zijn als het cpu ontwerp ook chinees was. Het belangrijkste in de supercomputer is echter nog steeds de cpu.
En Amerika is financieel gezien eigendom van China, dus... :P
Hij staat in China, is door Chinezen gebouwd, dus ja, China troeft de VS af.
Als je het op die manier bekijkt, troeft China iedereen af, gezien erg veel van de electronica die in die supercomputers zit toch echt in China gemaakt wordt.
Volgens mij worden de meeste cpu's in Azie (waaronder china) geproduceerd :X
In telefoons zit je nu op een aantal tiental gigaflops qua performance. In 15 jaar een factor 1.000.000x lijkt me toch wel iets teveel van het goede.
ehm, eerder 50 jaar
Het systeem beschikt over 1.024.000GB aan werkgeheugen
...is dit een foutje of heeft het systeem echt een petabyte ram?
Zoals hierboven al meer gezegd: 64GB per node is geen probleem :)

Hier bevestigt de top500 site de petabyte ram ook. Met bijna 18kWMW geb je ook een aardige generator nodig om de boel tijdens stroomstoringen op te kunnen vangen!

Even ter vergelijking: de theoretische peak van de nr 2 is "slechts" 27,nogwat petaflops... daat gaat deze chinees al overheen.

Gebruikt trouwens wel 10kWMW meer: 18000000W voor deTianhe-2 en 8000000W voor de ("oude") Titan.
In de "westerse" wereld is dat niet echt fijn voor de energierekening, en al helemaal niet voor de milieuorganisaties (CO2 + warmte uitstoot).

edit: wat nummertjes (tnx @ hieronder). Vraagt dus een eigen energiecentrale
Waarom onze Amerikaanse vrienden de punten en komma's ook omdraaien,,, :?

[Reactie gewijzigd door Beesje op 17 juni 2013 14:23]

Volgens mij is het niet 18kW hoor, maar 18.000kW (18MW dus), op die site die je zelf linkt zeggen ze dat de Titan 8.000kW verbruikt (US notering dus punt is comma en comma is punt)...

Krapte mezelf al achter me oren, waarom verbruik ik 1:10de van een superomputer (met 100.000x meer performance) met 2 PC's :D
Sterker nog het is 24 megawatt met de watercooling erbij.
De harddisks zijn dan oveirgens nog niet meegerekend, maar dat zal peanuts zijn vergeleken bij deze 24 megawatt :)
Met bijna 18kW geb je ook een aardige generator nodig om de boel tijdens stroomstoringen op te kunnen vangen!
Volgens mij vergis je je in het verbruik, ligt toch echt een factor 1000 hoger, ofwel 18000 kW.
Het is natuurlijk maar een klein detail, maar ik zou het verschil niet willen bijbetalen ;)
Maak van 10kW maar 10MW en van je 8000W 8000kW. Ik zie in het artikel wat je gelinkt hebt ook kW staan namelijk. 18.000 watt is 1,12 watt(!) per node met daarin 2 dikke xeons en 3 co-processors, dat is een beetje heel weinig. 1,12kilowatt is dan wat realistischer.
Ik vind dat eigenlijk wel meevallen. Dat is nog geen 1 GB aan RAM per core. Dus lijkt mij dat een reŽel getal aan RAM voor een supercomputer van dit caliber.
Dat is 64GB per node. Prima mogelijk dus
Als ik even gauw reken is dat precies 64 GB per node met twee Intel Xeon IvyBridge-cpu's en drie Intel Xeon Phi-processors. Dat lijkt me niet heel onrealistisch.
Dat valt best mee als je even gaat rekenen : 1.024.000 GByte RAM totaal / 16.000 nodes = 64 GByte RAM per node.

OK, niet iedereen heeft 64 GByte in zijn desktopje thuis, maar voor dit soort toepassingen is een node met 64 GByte niet zo bijzonder.

Voor servers is het ook niet zo bijzonder, een HP DL380 G7, een vrij standaard servertje voor bedrijven heeft 18 slots, in een Dual Rank setup kan er per slot een DIMM van 8 GByte in voor 144 GByte totaal, of met Quad Rank kun je 12 van die slots met een 16 GByte DIMM uitrusten voor 192 GByte totaal.
Each node has 64 GB of memory and each Xeon Phi has 8 GB of memory for a total of
88 GB of memory per node.
With 16,000 nodes the total memory for the Ivy Bridge part is 1.024 PB and the Xeon Phi Coprocessors contributed 8 GB per board or a total of 24 GB per node or .384 PB for the Coprocessors. Bringing the total memory to 1.404 PB for the system

bron gejat van Maher hieronder ;) http://www.netlib.org/utk...nhe-2-dongarra-report.pdf
terwijl 88 procent van de systemen draait op basis van hexacore-cpu's en 67 procent met minimaal octocore-processors.
Dat is toch al 155%. van het totaal.

[Reactie gewijzigd door StefanTs op 17 juni 2013 13:49]

Minimaal, dus 88% heeft 6 of meer cores, en 67% 8 of meer cores.
Dat staat er niet, vanuitgaande dat dat is wat ze bedoelen dan draait 21% dus op hexacores. 67% op octa+. De overige 12% zijn dan quad en lager, is dit omdat dit verouderde systemen zijn of omdat ze zich voornamelijk richten op GPU's?
Je moet het zo lezen:

88% heeft minimaal 6 cores en 67% heeft minimaal acht cores.
Het draait in beide gevallen om de 100% aan cores
88 procent draait op een 6+ core (hexa, octacore of nog extremer). 67 procent draait minimaal op een octacore (of hoger).
33,9 vs 17,6

Beide ongeloofelijk snel dus! Wat zal dan het verschil tussen de 2 zijn als ze toch al inmens snel zijn?
Ik schat zo'n 16,3 flops. :Y)
@Grrrrrene: Altijd genant als je dat soort fouten maakt bij een opmerking als deze.

[Reactie gewijzigd door Tvern op 17 juni 2013 20:13]

Bijna goed, petaflops natuurlijk.

Ik vind het wel grappig dat zo'n supersnelle PC nu eens niet in een westers land staat, maar gewoon in China, waar ze ook wel van het Amerikaanse principe "groter, beter, sneller..." houden. Ik wed dat de Chinezen hier enorm trots op zijn.

Dit soort specs zijn overigens ook echt om te duizelen. Die geheugenhoeveelheid alleen al, daar droom je qua opslaghoeveelheid in je NAS al van :X
Zoals ook bij andere zaken het geval is: Het draait niet zozeer om snelheid of grootte, maar om wat je ermee doet :)

Het niveau van de Chinese wetenschap bevindt zich bij lange na niet op dat van de Amerikaanse, en de resultaten zullen er mogelijk ook naar zijn, maar de wil is er duidelijk wel.
Die Titan trekt met 17,6Petaflops / 2143Mflops/W = 8,21MW trouwens nog best wat stroom...

En dat is de zuinigste supercomputer. Dus deze Tianhe zal mŪnstens 33,9Pflops / 2143Mflops/W = 15,8MW trekken.

Au ;)
Tianhe-2 trekt 24 MW, zie link hieronder... Dat betekend dat de Titan echt een stuk "zuiniger" is.
The peak power consumption under load for the system is at 17.6 MWs. This is just for
the processors, memory and interconnect network. If cooling is added the total power consumption is 24 MWs.
The cooling system used is a closed-coupled chilled water-cooling with a customized liquid water-cooling unit. It has a high cooling capacity of 80 kW.
De 'computer' zelf verbruikt dus 17,6 MW. Voor koeling alleen wordt zo'n 6,4 MW extra gebruikt (jemig).
Ik vraag me af wat de Titan aan pure computing*** en wat aan koeling zelf verbruikt. Dat is namelijk een stuk interessanter om te vergelijken, want:
When the machine is moved to the NSCC in Guangzhou it will use city water to supply cool water for the system.
In zo'n geval gaat die 24 MW een stuk omlaag natuurlijk.

*** Edit:
Ik zie het al: de Titan verbruikt 9 MW voor computing zelf, dus 8,6 MW voor koeling (en andere zaken?).

[Reactie gewijzigd door Fireshade op 17 juni 2013 14:58]

Gezien die 2x zo snel is mag die ook wel meer verbruiken ;). Hoewel die volgens mij 50% meer verbruikt voor hetzelfde werk (dus 12MW als die andere 8MW verbruikt)...

[Reactie gewijzigd door watercoolertje op 17 juni 2013 14:35]

@Tassadar + quote:
De door Cray gebouwde Titan beschikt over 560.640 processorcores, waaronder 261.632 Nvidia Tesla K20x-gpu-cores en Opteron-processors van AMD. Volgens de opstellers van de lijst blijft de Titan wel de zuinigste supercomputer, met een efficiŽntie van 2143Mflops/W.

Wat ik hier erg bijzonder aan vind is dat een Super computer met daarin AMD Opteron Cpu's en Nvidia Tesla gpu's blijkbaar een heel stuk efficienter is dan pure Intel Xeon's.

Een goed doordacht systeem is blijkbaar efficienter dan een Over-the-top-Intel-investering.

Als AMD-fanboy word ik daar wel blij van.... :)

@hieronder, Peuter/Kleuter addict:
Wanneer leer jij nu eens normaal communiceren ?
Een minderwaardigheidscomplexje of wat geeft je nog geen toestemming om je hier constant als een Neanderthaler spastisch en primitief uit te drukken.
Om nog maar te zwijgen over het sterk Spammende karakter van jouw posts, 20+ post op 1 onderwerp is voor jou heel gewoon. 20 keer onzin posten maakt het nog niet waar... |:(

[Reactie gewijzigd door trm0001 op 17 juni 2013 16:11]

Die rare kwalificaties verhullen inderdaad de waarschijnlijk correcte boodschap en dat is dat 'trm0001' appels met peren aan het vergelijken is. Een supercomputer schaf je niet op een namiddag aan dus die chinezen zullen echt wel bewust voor deze combinatie hebben gekozen. Ook opmerkelijk is dat ze Intel's phi platform gebruiken waar voorheen vaak GPU's werden ingezet.
China ramt het hele westen weer weg en laat ze gewoon zien hoe we langzaam maar zeker ook wetenschappelijk enorm achterlopen.

Ze doen gewoon wat ik al jaren verkondig en stoppen gewoon meerdere gpu kaarten in 1 node.

Dat is dus 3 manycores op 2 cpu's.

Wat de NCSA deed en ook Cray is iets van 4 cpu's per 2 manycores. Dus 2 op 1.

Als we dat prijstechnisch beschouwen en we zetten de nodeprijs op 4000 dollar neer, exclusief manycore en gokken dat die manycore voor 1000 dollar per stuk wordt ingekocht, dan praten we dus over dat een vergelijkbare snelheidseenheid in 't westen voor 3 manycores:

Dat is dan 3 * (4000+1000) = 3 * 5 = 15000 dollar
En in China: 4000 + 3 * 1000 = 7000 dollar.
Dus niet alleen 2x sneller maar ook 2x goedkoper.

Wel legt het iets meer stress op de bandbreedte per node, maar zoals we al wisten gebruiken ze in China meestal hun eigen ontworpen interconnects daarvoor.

China geeft 't westen weer een enorme knal hiermee en laat zien hoe onhandig supercomputers hier gebouwd worden, vanuit efficiency per euro gezien.
Vreemd. Ik lees dat deze supercomp. 2x zo snel is dan de Titan en ongeveer 4x zoveel verstookt ( word hierboven uitgerekeent). Hoezo zuiniger ?
Inderdaad. De Thianhe 2 heeft 6x zoveel cores maar is maar 2x sneller. Das dan toch niet efficient? :?
China ramt helemaal niks weg, de computer is opgebouwd uit Amerikaanse onderdelen o.a. Intel.
En waar worden de meeste onderdelen gefabriceerd?
Juist.
Het belangrijkste werk, het ontwerp gebeurd toch echt in de good USA .
Tja.. als we daar nou eens vanuit gaan dan zou de Titan met 18,688 nodes dus 280 320 000 kosten en de Tianhe met 16000 nodes 112 000 000. Dus 2.5 x keer zo goedkoop... en 2x zo snel. Helaas is dan het verbruik dan wel 2.25 keer zo hoog... maar dat zal in China wel niet zo veel kosten als in de westerse landen.

[Reactie gewijzigd door terracide op 17 juni 2013 15:21]

Het kan aan mij liggen maar:
560k cores, 17 petaflops
3.12 miljoen cores, 34petaflops

Allebei natuurlijk absurde snelheden maar toch wat minder impressive dan de amerikaanse in relatieve zin? Dat de amerikaanse supercomputer zuiniger is dan deze lijkt me voor zulke machines toch een veel betere maatstaaf? (of kosten in zijn algemeen).

Het moet toch niet zo moeilijk zijn om er voor het gemak maar 30 miljoen nodes in te gooien en zo een nieuw wereldrecord te zetten wat veel en veel hoger ligt? Dat dit niet rendabel is lijkt me logisch....

Wat ik eigenlijk probeer te zeggen is, dit is toch gewoon bigger = better? En dus niet zo heel boeiend in de wereld van supercomputers?
Het 2x zo snel oplossen van de zelfde vraag aan de computer is het belangrijkste dat het meer verbruikt/minder effcient is is juist helemaal niet boeiend...

Het kan zelfs wat opleveren omdat je eerder antwoorden hebt en bij bepaalde vragen kan dat weer voordelen opbrengen voor het millieu :) Maargoed het hoofddoel is een vraag zo snel mogelijk oplossen dus daar is neller beter, ten koste van alles :)
De chinese HPC onderzoekers die ik hiervoor sprak maakten zich helemaal niet druk over stroomverbruik. Hun enige zorg is het geld bij elkaar brengen om CPU's en Manycore (gpu) kaarten in te slaan.

Stroom krijgen ze echt letterlijk gratis.

Wat wel zorgen baart is het feit dat ze niet WEER 's werelds snelste supercomputer hebben, afgezien van feit dat de gok van 200 zoveel miljoen natuurlijk precies een klein gedeelte van het budget van de NCSA en ook van Los Alamos is, maar het feit dat ze simpelweg steeds meer investeren in HPC.

Kennelijk heeft hun industrie daar ook baat bij. En DAT baart zorgen.

In dit geval zal ook vast meespelen het feit dat ze weer 1e kunnen staan op top500, maar de feiten zijn zoals ze zijn - China heeft 's werelds snelste supercomputer en zelf verwachten ze tot ver in 2015 op nummer 1 te staan hiermee...

Nederland heeft nieuwe supercomputer geopend afgelopen vrijdag. Die is op dit moment dus factor 100 trager dan deze Tianhe-2 gigant.
_/-\o_ _/-\o_ _/-\o_ _/-\o_

wow wat een beest!!!

A file size of 1,024,000 gigabytes can also be expressed as *

8,796,093,022,208,000 .......... bits
1,099,511,627,776,000 .......... bytes
1,073,741,824,000 .......... kilobytes
1,048,576,000 .......... megabytes
1,024,000 .......... gigabytes
1,000 .......... terabytes
0.9765625 .. petabytes
0.0009536743 exabytes
0.0000009313 zettabytes

grappig dat zoiets nog wel op een soort ubuntu versie draait. had eerder gedacht dat zo iets op redhat, suse zou draaien. of core debian of zo.

[Reactie gewijzigd door coolkil op 17 juni 2013 13:53]

Het klopt nog niet, je heb de komma verkeerd gezet. Streep een nul aan het einde weg.
Het systeem heeft 1 petabyte aan ram voor zijn gewone CPU's en .384 petabyte aan ram voor zijn coprocessors.

En het systeem draait een Chinees OS, dat inderdaad van Ubuntu is afgeleid.

Het enige wat niet Chinees is zijn de intel processors, en de Intel Phi's.
Correctie:

710TB aan RAM :P
Correctie: 1 Petabyte ram.
1.4 PB aan RAM de manycores meegerekend...
_/-\o_ _/-\o_ _/-\o_ _/-\o_

wow wat een beest!!!

A file size of 1,024,000 gigabytes can also be expressed as *

8,796,093,022,208,000 .......... bits
1,099,511,627,776,000 .......... bytes
1,073,741,824,000 .......... kilobytes
1,048,576,000 .......... megabytes
1,024,000 .......... gigabytes
1,000 .......... terabytes
0.9765625 .. petabytes
0.0009536743 exabytes
0.0000009313 zettabytes

grappig dat zoiets nog wel op een soort ubuntu versie draait. had eerder gedacht dat zo iets op redhat, suse zou draaien. of core debian of zo.
Megabyte en mebibyte ;)

1.024.000GB = 1024TB = 1,024PB
1.024.000GB = 1000TiB = 0,97PiB

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True