Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 86, views: 28.217 •

In de nieuwe top-500 van krachtigste supercomputers ter wereld heeft de Titan-supercomputer de eerste positie overgenomen van het IBM Sequoia-systeem. De Titan noteert daarbij een score van 17,59 petaflops voor de Linpack-benchmark.

De Titan-supercomputer is gebouwd door Cray en bevat in totaal 560.640 processorcores, waaronder 261.632 Nvidia Tesla K20x-gpucores en Opteron-processors van AMD. De Linpack-performance komt volgens metingen uit op 17.590 teraflops. De theoretische maximale rekenkracht zou zelfs op 27.113 teraflops liggen. Daarmee weet de Titan, zoals al werd verwacht, de eerste positie in de top-500 van november te pakken. Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.

De nieuwe koploper verdringt het Sequoia-rekenmonster naar de tweede plaats. De Sequoia, die in in het Lawrence Livermore-laboratorium staat, is goed voor een Linpack-score van 16.325 teraflops. Dit rekenmonster is uitgerust met 1.572.864 cores en was daarmee het eerste systeem in de top-500 die over meer dan een miljoen cores beschikte.

Ook nieuw in de lijst is het Stampede-systeem. Deze supercomputer is eigendom van de universiteit van Texas en weet met zijn Intel Xeon Phi-cpu's een score van 2,6 petaflops te behalen. In totaal telt de vernieuwde top-500 23 systemen die meer dan een petaflops weten te behalen.

De opstellers van de ranglijst melden verder dat Infiniband-technologie steeds vaker wordt toegepast om nodes met elkaar te verbinden: in de top-500 maken 226 systemen hier nu gebruik van tegenover 209 supercomputers in de vorige lijst van zes maanden geleden. Dit gaat ten koste van gigabit-ethernetverbindingen: dit aantal zakte van 207 naar 188 systemen.

ORNL Titan supercomputer

Lees meer over

Reacties (86)

@AsoT: "En voor wat wordt een systeem als dit gebruikt "

2x klikken vanaf de bron :X
Titan will initially support a handful of key projects at Oak Ridge,
- including Denovo, simulation software that models the behavior of neutrons in a nuclear power reactor.
- Oak Ridge's engineers designed Denovo for Jaguar as a way to help extend the lives of the U.S.'s aging nuclear power plants, which provide about a fifth of the country's electricity. Running Denovo, Titan will take 13 hours to model the complete state of a reactor core at a specified point in time, a job that took Jaguar 60 hours to perform.
link: http://www.scientificamer...d=doe-titan-supercomputer

feature request; reactie moven :+

[Reactie gewijzigd door himlims_ op 12 november 2012 18:38]

Wat je ook kan lezen is het bericht van Anandtech
http://www.anandtech.com/...and-186k-nvidia-gpu-cores
Daarnaast kan je er ook gewoon foto's van zien en je krijg je een idee wat er gedaan wordt en hoe je tijd kan aanvragen op dit monster.

Uiteindelijk wel een mooi artikel geworden van Anandtech.
nee een publiciteitsstunt zou het zijn geweest als ze hem hadden overgeklokt en de highscore van pong had verbroken...
Waarom word het nou in terraflop en niet in petaflop weergegeven? Maakt het artikel imo een beetje verwarrend...
(evenals de "1.572.864 miljoen cores", miljoen weg laten lijkt me beter kloppen)
Niet iedereen weet hoeveel 1 petaflop is, dan is het handig om het nog eens in teraflop te schrijven wat meer mensen kennen.
Ik betwijfel of er Łberhaupt veel mensen zijn die ook maar enig concept hebben van wat een teraflop (of een petaflop) nou eigenlijk is, of van wat/hoeveel je nou eigenlijk kan doen met dergelijke rekenkracht.
Inderdaad... heb geen idee wat ik me moet voorstellen bij een teraflop of petaflop: kan je eens een voorbeeld noemen wat je met die rekenkracht kan?

Ik zit zelf te denken aan een technisch ontwerp met heel veel criteria en heel veel eisen aan het ontwerp, waarbij je de computer allerlei mogelijkheden laat doorrekenen in bijvoorbeeld AutoCAD en jou de uitkomsten later presenteerd.
Maar hoe lang is zo'n systeem er dan vervolgens mee bezig? Gaat het dan om enkele seconden (waar ik misschien m'n hele leven over zou moeten doen om uit te rekenen), of duurt het dan alsnog wel eventjes?

[Reactie gewijzigd door Jorn1986 op 12 november 2012 19:05]

Een gemiddelde videokaart voor conumenten kan ongeveer 2 TFLOPS berekenen. Een computer zoals deze kan dus bijna 10.000 keer sneller rekenen.
Het voorvoegsel "peta" staat voor een biljard (giga -> miljard, tera -> biljoen, peta -> biljard). FLOPS staat voor FLoating-point Operations Per Second. Een floating point operatie is bijvoorbeeld een simpele optelling van twee drijvendekommagetallen. Aftrekken, vermenigvuldigen en delen zijn over het algemeen ook 1 operatie, maar zoiets als machtsverheffen neemt in de praktijk meer cycles in beslag en wordt daarom niet gezien als 1 operatie.

Met 17 petaflops kun je dus 17 biljard operaties per seconde uitvoeren. Let wel dat dit om een praktisch maximum gaat als je alle cores redelijk goed benut, wat al een moeilijkheid op zich is. Linpack is dan ook meer een syntetische benchmark. Elk parallel algoritme zal wel iets van synchronisatie nodig hebben en afhankelijk zijn van vorige resultaten, dus voor een typisch probleem (zoals het doorrekenen van de staat van een nucleaire reactor, waar ie voor gebruikt gaat worden) zal het aantal flops lager liggen.

[Reactie gewijzigd door .oisyn op 13 november 2012 00:39]

Het is trouwens 'flops', niet 'flop'. Ook als het er maar 1 is.

Flops is een afkorting voor 'floating point operations per second'. De 's' staat voor 'second' en heeft niets met enkelvoud of meervoud te maken. Zie http://en.wikipedia.org/wiki/FLOPS
En voor wat wordt een systeem als dit gebruikt ? Ik veronderstel dat dit niet gebruikt wordt om even een 3D Scene ofzo te renderen... ?
Bijvoorbeeld voor weermodellen, aŽrodynamica berekeningen.

[Reactie gewijzigd door spookz0r op 12 november 2012 18:36]

Nee uiteraard niet een simpele berekening...

Er zijn bedrijven die een supercomputer als deze kunnen huren voor een bepaalde periode waarop ze zeer gecompliceerde berekeningen erop kunnen laten draaien. Een voorbeeld is het weer voorspellen :)
Games natuurlijk _/-\o_

Ga er maar vanuit dat deze "PC" meerdere taken tegelijkertijd aan het berekenen is: weer, aardbevingsdata, sterrenkundige berekeningen, berekenigen voor CERN, etc.
Deze supercomputer ligt in Oak Ridge. Dat is dus net naast 's werelds grootste fabriekshal uit de 2e wereldoorlog waar Uranium werd verrijkt voor de atoombom.

De grootste supercomputers worden uitsluitend voor 2 dingen gebruikt:

a) kernexplosies simuleren
b) NCSA van de betreffende landen

Exclusief en alleen voor dat.

An sich kun je 's wereld grootste supercomputer bouwen en nog steeds het weer niet geniaal voorspellen, om over aardbevingen te zwijgen, maar er is gewoon niet zoveel budget voor die zaken, behalve in oorlogstijd.
Over het algemeen worden dergelijke systemen gebruikt voor het simuleren van modellen met zeer veel variabelen. Het kost heel veel rekenkracht om al die variabelen door te rekenen.

Klimaatmodellen zijn een goed voorbeeld, maar ook modellen van het heelal of het simuleren van eiwitten en chemische reacties.
denk je nou serieus dat er uberhaupt 3D mark op zo'n systeem draait?

Supercomputers worden gebruikt voor pure rekenkracht en dan zo (snel) mogelijk vandaar ook het grote aantal CPU cores, anders hadden ze wel simpelle single cores gekocht van maar 10 watt. Die stroom rekening kost ze 100x meer dan die supercomputer als ie lekker bezig is....
Niet echt te bevatten hoeveel dit is. Wel knap om met een miljoen minder cores (give or take) een beter resultaat te halen.

Weet iemand hoe oud de Sequoia is?
Dat komt waarschijnlijk doordat er nu GPU's bijgeplaatst zijn, en die zijn gewoon erg snel in veel simpele berekeningen parallel uit te voeren.
Die telling van het aantal cores klopt niet zo.

18,688 gpu's

Elke K20 heeft zoals nu bekend is dus 2496 streamcores.

18688 * 2496 = 46.645.248 nvidia cores

Of te wel 46.6 miljoen nvidia cores.

Zie : http://www.anandtech.com/print/6421

http://www.nvidia.com/obj...tion-solutions-tesla.html
Het gaat om het aantal K20 chips dat erin zit, niet het aantal "nvidia cores" wat daar totaal inzitten want dat is niet relevant voor het noemen. 46 miljoen nvidia cores zegt mij minder dan een 18,688 K20 gpucores...
Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.
Beter lezen de volgende keer:P
100 miljoen staat er toch
Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.
Minder dan een onderzeeboot.

Een beetje onderzeeboot is al snel 2 miljard dollar in geval van de modernste joekels van de yanks. Een supercomputer als dit is altijd lastig te voorspellen.

Je hebt aantal zaken die vet geld kosten.

Ten eerste moet je enorme bunker bouwen met enorme ventilatie voor paar megawatt.
Dan moet er nog aansluiting op de stroom zijn. Als je paar megawatt vreet is dat ook niet
simpel.

Dan verder is de catalogusprijs van Cray en andere supercomputerfabrikanten enorm hoog. Dus het is een open onderhandeling.

De ene nerd commissie die weet een scherpere prijs te bedingen dan de andere.

Wat veelgemaakte fout is om eerst iemand te laten 'kiezen' wat je gaat kopen. Dat gebeurt heel veel bij die commissies. Dan kan zo'n fabrikant de hoofdprijs vragen natuurlijk. DAt doen ze dan ook in 100% van de gevallen als je zo stom bent.

De meeste supercomputers in USA worden veel goedkoper gebouwd dan hier, omdat ze niet zo kieskeurig zijn. Gewoon de goedkoopste bid voor dit en dat, die wint. Kijk dan krijg je enorm scherpe prijs, vooral ook nog als je nummer 1 op top500 kunt gaan worden. Dan krijg je vaak heel veel gratis.

Komt verder bij rond de half miljard dollar subsidie die de afgelopen 10 jaar gevangen is door Cray zonder ook maar iets te leveren. Welke voorwaardes daarbij gesteld zijn, dat is onbekend.

Laten we wat minimum prijzen berekenen.

We weten dat het rond de 18688 gpu's zijn.

Catalogusprijs van elke gpu is 3600 dollar. Goed je ding wat af en wilt nummer 1 zijn. Dat maakt tegenwoordig heel wat minder indruk op Nvidia want die worden toch wel nummer 1 met enige zekerheid, want alleen IBM kan daar hooguit overheen komen als iemand te veel geld heeft.

Op elke node zitten 4 van die gpu's en 4 cpu's.

Aan catalogusprijs van Nvidia en AMD is dat zo rond de $10k voor nvidia en $4k voor AMD (als je er meerdere koopt).

Cray zelf vraagt catalogusprijs meestal rond de $50k per node.

Dat is als je er 1 koopt.

$50k keer 18688 / 4 = 4672 "moederborden" met 4 gpu's en 4 cpu's * $50k = 233 miljoen dollar.

Dat is catalogusprijs. Dan ga je afdingen. Daar zijn ze in USA iets beter in dan hier (maar dat mag ook wel bij een half miljard subsidie). Dus als ze goed hebben weten af te dingen zal het zo'n 80 miljoen dollar gekost hebben. Nog eens 20 miljoen dollar voor de bunker dus we zitten wel ruim over de 100 miljoen dollar heen.

Dan komen er nog extra kosten. De bunker moet vast ook geshield worden. Nu als ze die troep massaal zouden produceren zou het haast niks kosten, maar de kamers in de ziekenhuizen die ook geshield zijn (zij het niet voor spionage maar zij het om te voorkomen dat apparatuur een probleem krijgt) dat kost al een paar miljoen per kamertje.

Dus de kosten van de security rekenen we nog niet mee. Dan wil je nog een aparte kamer des doods hebben waar niks levends doorheen komt voor je in die bunker terechtkomt, om te voorkomen dat spionage van "Chinese componenten" om het zo uit te drukken, vanuit die bunker gaat communiceren met buiten de bunker. Dat kost ook miljoenen.

Zo lopen de kosten snel op.

Ik denk dat we wel aan 150 miljoen dollar snel komen hoor alles bij elkaar.

En dan hebben ze redelijk GOED afgedongen.

Zo'n computer hier in NL bouwen, dan kost hij 400 miljoen euro natuurlijk.
Waarom je +2 hebt is me een raadsel hoor. Je gist maar wat met die cijfers.
  • Je neemt bijvoorbeeld 20 miljoen voor "de bunker'... Ik ben een paar jaar geleden zeer nauw betrokken geweest bij de nieuwbouw van een datacenter (in NL) inclusief nobreakvoorziening van 44MW ťn een stapeltje darkfibers, dat kwam op 200 miljoen euro uit. Ik vermoed dat dit een soortgelijk datacentre/bunker is, dus die factor 10 vind ik nogal fors.
  • Iedereen weet in de grootzakelijke markt dat je zeker zo'n 50 procent van catalogusprijzen 'af kan dingen'.
Volgens mij zouden ze de efficientie nog kunnen verhogen door die kasten te stacken in 3D, ipv in 2D.
Die dingen moeten ook nog ergens hun warmte kwijt hť. Het is daar waarschijnlijk een sauna, dus over de indeling wordt wel nagedacht (je hebt niet zoveel aan zo'n ding als de helft door oververhitting uitvalt :P).
Ook wel leuk om je te realiseren dat dit over pakweg 20 jaar in je broekzak zit ;)

Op dit item kan niet meer gereageerd worden.



Populair: Websites en communities Smartphones Beheer en beveiliging Google Sony Microsoft Games Politiek en recht Consoles Besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013