Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties, 18.819 views •

Fujitsu heeft zijn nieuwste supercomputer, de PrimeHPC FX10, aangekondigd. Onderzoeksinstanties kunnen deze gebruiken om berekeningen met maximaal 23,2 petaflops te maken, waarmee het 's werelds snelste computer zou worden.

De nieuwe supercomputer moet de huidige nummer één, de zogeheten K Computer die eveneens door Fujitsu werd ontwikkeld, van zijn troon stoten. De K Computer werd geïntroduceerd met een prestatieniveau van ruim 8 petaflops, maar doorbrak voor de Top 500-lijst in juni al de 10pflops-grens. De PrimeHPC FX10 moet die prestaties ruimschoots verdubbelen: de meest uitgebreide configuratie moet 23,2 pflops halen. Fujitsu zal de PrimeHPC vanaf januari 2012 gaan uitleveren.

De zwaarste configuratie, goed voor een piekprestatie van 23,2 pflops, maakt gebruik van 98304 Ultrasparc IXfx-processors, ieder met zestien cores aan boord. De zestien cores van de Sparcs tikken op 1,848GHz en beschikken over 32 of 64GB geheugen. Elke processor is goed voor ongeveer 236,5 gflops en wordt met 96 stuks in een rack ondergebracht: in totaal bestaat de PrimeHPC FX10 uit 1024 racks. De computer beschikt over in totaal 6,291 petabyte werkgeheugen en de interconnects worden door Fujitsu's 'Tofu' met tien maal unidirectionele 5GB/s bandbreedte gevormd.

De kleinste configuratie bestaat uit slechts 384 nodes, die samen 90,8 tflops leveren en over 12TB geheugen beschikken. De koeling in de racks wordt verzorgd door een combinatie van lucht- en waterkoeling. De supercomputers, waarvan Fujitsu verwacht de komende drie jaar zo'n vijftig configuraties te verkopen, worden met Fujitsu's Technical Computing Suite HPC-software en diens 'distributed filesystem', FEFS, geleverd.

Fujitsu PrimeHPC FX10

Reacties (72)

Simpelweg amazing...

Ik ben geen kenner, waar worden dit soort "computers" voor gebruikt?
Simulaties vooral (denk aan simulaties van de beurs of hoe het universum werkt of hoe een scheikundige reactie verloopt) en hoe krachtiger je supercomputer hiervoor hoe meer details je kan verwerken hoe preciezer de uiteindelijke simulatie is (hoop je dan). En zolang ze krachtiger worden zal men redenen verzinnen om ze nog krachtiger te maken.
Wordt veel gebruik voor rekenintensive taken, zoals bijvoorbeeld weermodellen doorrekenen of ingewikkelde CFD simulaties uitvoeren waar turbulentie speelt of waar grote precisie nodig is. Voor šerodynamica bijvoorbeeld hebben we nog steeds niet genoeg rekenkracht om de navier-stokes formules in hun volle ornaat uit te rekenen zonder aannames te maken.
Met name voor diverse simulaties. Denk aan simulaties van 't weer, botsingen en andere dingen waar gewoon heel veel rekenwerk bij komt kijken (je wilt immers iedere factor berekenen).
Deze computers worden gebruikt voor simulaties of analyses met enorm veel verschillende variabelen.

Hierboven staan al weersimulaties genoemd. Daar wil ik nog een aantal dingen aan toevoegen die ik zo even kan bedenken.

Het bepalen van verkeerssituaties in steden. Om de timing van stoplichten te verbeteren of om te zien wat het effect is van een wegomlegging. En als je grootschaliger gaat kijken bijvoorbeeld wat de invloed was van de nieuwe ringweg rond Eindhoven.

Het simuleren van wind rond wolkenkrabbers en de invloed van aardbevingen op enorme bouwprojecten. (Denk hierbij niet alleen aan gebouwen die reeds afgemaakt zijn, maar ook aan zwaktes hiervoor gedurende de bouw). misschien wordt zelfs het instorten van gebouwen gesimuleerd maar vaak voldoen hiervoor kleinere array's ook wel omdat dit wat groffere berekening zijn.

Door de immense rekenkracht van een supercomputer kan je ook rekenmodellen die de werkelijkheid zo goed mogelijk moeten benaderen. Denk aan virtuele windtunneltesten voor F1 wagens of vliegtuigen.

Veel astronomen maken gebruik van supercomputers om van alles en nog wat te simuleren in het heelal. Supernovea, botsingen van sterrenstelsels, zwarte gaten en hun jets, vloeistofdynamica en aerodynamica van vloeistof/gas planeten/manen/zonnen

CERN gebruikt supercomputers om data van hun kernonderzoeken te verwerken.


Meer kan ik even niet noemen maar ik hoop dat ik een redelijk beeld het geschapen.


Vraag me trouwens wel af of de wet van Moore ook opgaat voor supercomputers. Worden deze nog steeds ieder jaar dubbel zo snel of loopt deze schaal anders?

--edit--
@ florjohn
Bedankt voor de grafieken.
Hierin is duidelijk te zien dat er een exponentieel verband is tussen de tijd en de rekenkracht van deze monsters. In de laatste 10 jaar is de rekenkracht met bijna een factor 1000 toegenomen. En aan de lineairiteit van de grafiek te zien lijkt deze trend zich nog wel een aantal jaren door te zetten. Erg indrukwekkend!

[Reactie gewijzigd door Bafti op 8 november 2011 20:39]

kijk maar eens naar bionic of folding @ home daar staan leuke films over wat super computers berekenen wil je deel uit maken van een super computer
check DPC topic op het forum
De wet van Moore zegt niets over de snelheid, maar over de hoeveelheid transistoren.

http://en.wikipedia.org/w..._Moore%27s_Law_-_2011.svg
De "wet van Moore" is een volledige subjectieve ervaring. Het klinkt leuk maar er klopt verder weinig van.
Ze worden ook gebruikt voor simulaties van moleculaire interacties, een erg belangrijk onderzoeksgebied binnen de biologie.

Hoe werkt een eiwit - zeer complex molecuul -, hoe zijn de interacties met andere deeltjes in de cel, enzovoort?

Ik heb er ooit iets over gehoord, schijnt dat een supercomputer weken nodig heeft om slechts 30 ms aan animatie te renderen. Nouja, 'slechts'.. 30 ms is scheikundig gezien toch best al wat. Onvoorstelbaar hoe snel deeltjes met elkaar reageren.
waar worden dit soort "computers" voor gebruikt?
Om heel Tokyo mee te verwarmen in de winter, en met de 'rest-energie' die bij een normale stadsverwarming verloren gaat, worden nog wat berekeningen uitgevoerd.
heeft iemand enig idee van de voeding die hiervoor nodig is? lijkt me toch zeker wel 100.000 watt.

en is dat plaatje nou echt? zoveel aandacht voor design is niet echt gebruikelijk voor een supercomputer.
Dan ken je de Cray computers niet ;)
een kleine 100.000 cores... en die zijn echt niet 1W ieder. Eerder een gemiddelde van 100W per core piek (met alle randapparatuur)
dus ik zou eerder gokken op een 10MW
De processors welke gebruikt zijn draaien 236,5 GFlops weg en hebben een snelheid van meer dan 2 GFlops per Watt. Dit houd dus in dat de processors alleen pakweg 100 Watt verstoken.
De kleinste configuratie bestaat uit 4 racks met 384 van die processors dus alleen die verstoken dan al pakweg 38,4 KWh. Gaan we naar het grootste model kijken dat uit 1024 van die racks bestaat dan praat je al over een kleine MWh.
Hierbij heb ik het nog niet eens over de koeling, verliezen op de voeding, het geheugen of de andere zaken.

Edit: typo

[Reactie gewijzigd door Xorsist op 8 november 2011 16:29]

Als je met zo weinig voeding toe kon dan hadden ze bij Fujitsu niet op verkoop van een handje vol machines maar eerder op vele honderden machines gerekend.

100KW is helemaal niets je moet bij dit soort machines eerder in de orde van grote van 1 a 2MW denken. dus 1.000.000 tot 2.000.000W (voor de grootste configuratie)

De design ziet er leuk uit maar vergeet niet dat dit maar 8 racks zijn en niet de 1024 die er uiteindelijk nodig zijn. Wat je hier dan ook ziet zijn de uiteinde van de rows waar simpel weg een side plate op geschroefd is. HP doet dit ook met hun machines net als IBM, Oracle, Dell en alle andere grote bedrijven die regelmatig tientallen racks voor hangen met machines.
Design wise is dit dan ook niets anders dan een standaard Fujitsu rack et een reclame uiting er io. :)
Welke voeding je hiervoor nodig hebt ??

Ik denk zelf een kernreactor i.p.v een voeding :P
Er zijn theorieŽn dat het menselijke brein 10, 100 of zelfs 1000 petaflops aan rekenkracht zou bevatten... Dit is echt wonderbaarlijk hoe we dit op een kleine 70 jaar aan het evenaren zijn. Deze supercomputers worden steeds compacter, efficiŽnter, sneller... Wanneer zou een HAL 9000 beschikbaar worden.... op Breinformaat ;-)

Ik gok dat we daar tegen 2050 wel eens zouden kunnen zijn

[Reactie gewijzigd door 108886 op 8 november 2011 16:38]

De rekenkracht zal het probleem niet zijn bij mensen. Het is meer de 'engine' die erachter zit.
De menselijke rekenkracht is bijna niet uit te drukken in flops aangezien het brein niet in serie rekent maar in parallel. Het brein kan immens veel berekeningen tegelijkertijd doen, en niet zoals deze supercomputer 98304x16 tegelijkertijd.
Ik kan me nog herinneren iets te lezen een tijd terug over een supercomputer die 6.73 Petaflops uitspuwde, en moet je nu eens kijken 23,2 petaflops. Nou petje af hoor!
Medici, natuurkunde, industrie, weersvoorspellingen en noem het maar op, allemaal zullen ze hier behoorlijk om gaan kwijlen!
Ik ben inderdaad alleen wel benieuwd wat het prijskaartje zou zijn voor dit wonder, en niet alleen bij de aanschaf!
Mwah zie dagelijks toch best veel mensen waarbij het prima is uit te drukken in flops ;) ;)
Als je er even vanuit gaat dat het aantal petaflops gelijk loopt met de wet van Moore dan zitten we over zo'n 12 jaar al in de buurt van de 1000 petaflops ..
Het is toch veel ingewikkelder dan dat, de grote meerderheid van de mensen hebben niet eens de capaciteit om 1 floating point operation uit te voeren, laat staan met een redelijke betrouwbaarheid, laat staan dat ze 1000 petaflops aan rekenkracht zouden hebben.... ;)
En wanneer word deze voor de particuliere markt beschikbaar _/-\o_
en waarneer betaalbaar??
Over een jaar of 25 zijn dit je mobieltjes.
Het klinkt als toekomstmuziek, maar het zou zo maar werkelijkheid kunnen worden gezien het verleden: iPad sneller dan supercomputer uit '85.
http://bits.blogs.nytimes...-a-supercomputer-of-yore/
Gezien het aantal te verwachten verkopen, 50, vraag ik me af wat de prijs van zo'n computertje is.

Interessant om te zien dat er een op Linux gebaseerd OS op draait
Programma s zoals siri en google maps gebruiken zulke computers
Dat geloof je toch zeker zelf niet?

Google maps draait op heel veel super goedkope servertjes door google zelf ontworpen. En siri was van een onafhankelijke ontwikkelaar voor apple het opkocht, die kunnen zoiets als dit echt niet betalen.
Nee hoor, dat gebeurd in standaard servers.

Dit soort computers worden ingezet om zeer complexe berekeningen uit te voeren zoals klimaatmodellen, atoombommodellen, etc.

Meestal kun je als researcher bij een instituut die een dergelijke supercomputer heeft staan een tijdslot huren om bepaalde modellen of onderzoek mee uit te rekenen.

Zie Top500.org voor de instanties die deze supercomputers hebben staan.
Wat is eigenlijk de gemiddelde snelheid van zo'n box? Het maximale wordt altijd netjes weergegeven maar ik vraag me af hoe vaak je dat nou haalt
Wat je haalt hangt af van wat je er mee doet, hoe goed is het allemaal geparalelliseerd (of is het uberhaupt wel goed paralelliseerbaar) is het simpel bruut rekenwerk of een veel ingewikkelder algoritme (chache misses). Als je hem bijvoorbeeld als GPU zou gebruiken dan kom je permanent behoorlijk dicht bij het opgegeven getal.
Oke, begrijp ik zeker, bestaat er dan niet een bepaalde benchmark (als je die ooit eens zou kunnen draaien) die bijvoorbeeld aangeeft welke snelheid je haalt bij verschillende type berekeningen.

Ik kan me namelijk best voorstellen dat bepaalde systemen uit die top500 lijst niet de snelheid halen die aangegeven wordt (zoals jij al aangeeft) waardoor die top500 lijst niet helemaal representatief is. Zou een systeem bijv op plek 50 efficiŽnter draaien dan de nr1?
Voor sommige zaken misschien wel. Bij die simulaties die voornamelijk met deze machines worden gedraaid draait het geloof ik wel grotendeels om de flops en dan is deze lijst vrij representatief.
Dat hangt volledig van de gebruikte algoritmes af. Iets dat veel moet branchen een veel geheugen nodig heeft zal veel minder flops halen dan iets dat ontzettend veel berekeningen moet doen op heel weinig inputvariabelen.
Zoals gezegd, dat hangt sterk van een aantal factoren af, zoals hardware (cpu's, geheugen, interconnects), het probleem wat je probeert op te lossen, de gebruikte algoritmes en de programmatuur (compiler, optimalisaties, etc.).

Om je wat contreter te beantwoorden, een standaard benchmark voor HPC is LINPACK. LINPACK is een library die gebruikt wordt om een stelsel van lineaire vergelijkingen op te lossen. Een goede implementatie in een goede omgeving kan >90% efficientie halen (dus praktische flop/s gedeeld door theoretische piek flop/s). GPGPU systemen scoren significant lager (<60%). Voor een overzicht kun je de top500 resultaten bekijken, die zowel maximale LINPACK scores (Rmax) en theoretische piek flop/s (Rpeak) geven.

http://en.wikipedia.org/wiki/LINPACK
http://www.top500.org/list/2011/06/100

[Reactie gewijzigd door narotic op 8 november 2011 19:04]

Zo heb je maar 1 esxi host nodig :+
Over +- 25 jaar hebben we deze specificaties in smartphones zitten. ;)
Ik wil niet weten wat voor batterijtje je daar voor nodig hebt ha ha, mijn telefoon is nu al snel leeg :+

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True