Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties, 28.496 views •

In de nieuwe top-500 van krachtigste supercomputers ter wereld heeft de Titan-supercomputer de eerste positie overgenomen van het IBM Sequoia-systeem. De Titan noteert daarbij een score van 17,59 petaflops voor de Linpack-benchmark.

De Titan-supercomputer is gebouwd door Cray en bevat in totaal 560.640 processorcores, waaronder 261.632 Nvidia Tesla K20x-gpucores en Opteron-processors van AMD. De Linpack-performance komt volgens metingen uit op 17.590 teraflops. De theoretische maximale rekenkracht zou zelfs op 27.113 teraflops liggen. Daarmee weet de Titan, zoals al werd verwacht, de eerste positie in de top-500 van november te pakken. Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.

De nieuwe koploper verdringt het Sequoia-rekenmonster naar de tweede plaats. De Sequoia, die in in het Lawrence Livermore-laboratorium staat, is goed voor een Linpack-score van 16.325 teraflops. Dit rekenmonster is uitgerust met 1.572.864 cores en was daarmee het eerste systeem in de top-500 die over meer dan een miljoen cores beschikte.

Ook nieuw in de lijst is het Stampede-systeem. Deze supercomputer is eigendom van de universiteit van Texas en weet met zijn Intel Xeon Phi-cpu's een score van 2,6 petaflops te behalen. In totaal telt de vernieuwde top-500 23 systemen die meer dan een petaflops weten te behalen.

De opstellers van de ranglijst melden verder dat Infiniband-technologie steeds vaker wordt toegepast om nodes met elkaar te verbinden: in de top-500 maken 226 systemen hier nu gebruik van tegenover 209 supercomputers in de vorige lijst van zes maanden geleden. Dit gaat ten koste van gigabit-ethernetverbindingen: dit aantal zakte van 207 naar 188 systemen.

ORNL Titan supercomputer

Lees meer over

Gerelateerde content

Alle gerelateerde content (23)

Reacties (86)

Reactiefilter:-186069+143+28+30
Moderatie-faq Wijzig weergave
Vroeger waren de systemen van Cray speciaal; ze ontwierpen alles zelf, inclusief de CPU's. Toen hadden hun supercomputers ook nog een super uiterlijk, zoals deze:

Cray XMP

Nu is een supercomputer niets meer dan een rij kasten, die voor een heel groot deel voorzien is van standaard beschikbare hardware. (Er zit natuurlijk zeker nog wel wat ontwikkeling van Cray zelf in, maar dat is beperkt, tegenover vroeger.)

Als iemand een Titan bouwt met één extra kast, dan is dat al de snelste supercomputer....

Voor de geïnteresseerden, wat betreft de Cray XMP...

Introductie: 1982
Snelheid: 400 MegaFlops
Geheugen: 16MB

Even ter vergelijking: Mijn huidige computer heeft een Q8400 (46.000 MegaFlops volgens QwikMark 0.4, 115x sneller dan de XMP) en 8GB RAM (512x zoveel geheugen), en kostte een paar honderd euro... daar waar de XMP miljoenen kostte. En deze Q8400 is natuurlijk ALLANG verouderd...

[Reactie gewijzigd door Katsunami op 12 november 2012 19:52]

Hahah die kast lijkt echt op zo'n geheime locatie van de boefjes in een science fiction film uit 1990
ik vraag me wel af wat de prijs van zo'n monstertje is ...?
Minder dan een onderzeeboot.

Een beetje onderzeeboot is al snel 2 miljard dollar in geval van de modernste joekels van de yanks. Een supercomputer als dit is altijd lastig te voorspellen.

Je hebt aantal zaken die vet geld kosten.

Ten eerste moet je enorme bunker bouwen met enorme ventilatie voor paar megawatt.
Dan moet er nog aansluiting op de stroom zijn. Als je paar megawatt vreet is dat ook niet
simpel.

Dan verder is de catalogusprijs van Cray en andere supercomputerfabrikanten enorm hoog. Dus het is een open onderhandeling.

De ene nerd commissie die weet een scherpere prijs te bedingen dan de andere.

Wat veelgemaakte fout is om eerst iemand te laten 'kiezen' wat je gaat kopen. Dat gebeurt heel veel bij die commissies. Dan kan zo'n fabrikant de hoofdprijs vragen natuurlijk. DAt doen ze dan ook in 100% van de gevallen als je zo stom bent.

De meeste supercomputers in USA worden veel goedkoper gebouwd dan hier, omdat ze niet zo kieskeurig zijn. Gewoon de goedkoopste bid voor dit en dat, die wint. Kijk dan krijg je enorm scherpe prijs, vooral ook nog als je nummer 1 op top500 kunt gaan worden. Dan krijg je vaak heel veel gratis.

Komt verder bij rond de half miljard dollar subsidie die de afgelopen 10 jaar gevangen is door Cray zonder ook maar iets te leveren. Welke voorwaardes daarbij gesteld zijn, dat is onbekend.

Laten we wat minimum prijzen berekenen.

We weten dat het rond de 18688 gpu's zijn.

Catalogusprijs van elke gpu is 3600 dollar. Goed je ding wat af en wilt nummer 1 zijn. Dat maakt tegenwoordig heel wat minder indruk op Nvidia want die worden toch wel nummer 1 met enige zekerheid, want alleen IBM kan daar hooguit overheen komen als iemand te veel geld heeft.

Op elke node zitten 4 van die gpu's en 4 cpu's.

Aan catalogusprijs van Nvidia en AMD is dat zo rond de $10k voor nvidia en $4k voor AMD (als je er meerdere koopt).

Cray zelf vraagt catalogusprijs meestal rond de $50k per node.

Dat is als je er 1 koopt.

$50k keer 18688 / 4 = 4672 "moederborden" met 4 gpu's en 4 cpu's * $50k = 233 miljoen dollar.

Dat is catalogusprijs. Dan ga je afdingen. Daar zijn ze in USA iets beter in dan hier (maar dat mag ook wel bij een half miljard subsidie). Dus als ze goed hebben weten af te dingen zal het zo'n 80 miljoen dollar gekost hebben. Nog eens 20 miljoen dollar voor de bunker dus we zitten wel ruim over de 100 miljoen dollar heen.

Dan komen er nog extra kosten. De bunker moet vast ook geshield worden. Nu als ze die troep massaal zouden produceren zou het haast niks kosten, maar de kamers in de ziekenhuizen die ook geshield zijn (zij het niet voor spionage maar zij het om te voorkomen dat apparatuur een probleem krijgt) dat kost al een paar miljoen per kamertje.

Dus de kosten van de security rekenen we nog niet mee. Dan wil je nog een aparte kamer des doods hebben waar niks levends doorheen komt voor je in die bunker terechtkomt, om te voorkomen dat spionage van "Chinese componenten" om het zo uit te drukken, vanuit die bunker gaat communiceren met buiten de bunker. Dat kost ook miljoenen.

Zo lopen de kosten snel op.

Ik denk dat we wel aan 150 miljoen dollar snel komen hoor alles bij elkaar.

En dan hebben ze redelijk GOED afgedongen.

Zo'n computer hier in NL bouwen, dan kost hij 400 miljoen euro natuurlijk.
Waarom je +2 hebt is me een raadsel hoor. Je gist maar wat met die cijfers.
  • Je neemt bijvoorbeeld 20 miljoen voor "de bunker'... Ik ben een paar jaar geleden zeer nauw betrokken geweest bij de nieuwbouw van een datacenter (in NL) inclusief nobreakvoorziening van 44MW én een stapeltje darkfibers, dat kwam op 200 miljoen euro uit. Ik vermoed dat dit een soortgelijk datacentre/bunker is, dus die factor 10 vind ik nogal fors.
  • Iedereen weet in de grootzakelijke markt dat je zeker zo'n 50 procent van catalogusprijzen 'af kan dingen'.
Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.
Beter lezen de volgende keer:P
100 miljoen staat er toch
Het systeem kostte de Amerikaanse belastingbetaler wel een slordige 100 miljoen dollar.
Wat mij opvalt aan deze lijst is dat Nederland er niet meer in voor komt. Dacht dat ze vorig jaar nog redelijk er bij stonden.
Je kunt wel een supercomputer bouwen bestaande uit GPU's en nog relatief goedkoop ook als je het handig doet, maar dan moet je software er ook op lopen.

Dat betekent simpelweg nieuwe code schrijven. Daar investeren ze in NL gewoon niet in.

Ook internationaal heeft het wat tijd gekost. Daardoor stond China op nummer 1 positie gedurende een jaartje, omdat het westen nog niet massaal over was naar die GPU.

In principe zou de NL overheid 2 supercomputers willen bouwen. Eentje die alleen floating point kan doen en dingen als matrixcalculaties. Dat is dan zo'n gpu ding. En een aparte machines met nodes met enorm veel RAM, zeg een TB of 2 per node minimaal en behoorlijk wat integer crunching power.

Idealiter doe je 3 machines.

1 voor de GPU crunching double precision
1 klein clustertje met maximale RAM per node,
zeg maar aantal stand alone machines met 2TB ram per stuk.
1 groot cluster, net zo groot als gpu cluster dat focused op alleen integer prestatie en niet theoretisch gedoe doet met AVX of een ander dom vector formaat. Gewoon puur integers.

Denk aan een netwerkje met FDR infiniband + 48 core AMD machines 6180 SE die je nu voor prikkie koopt. Dat is wel 120 Ghz aan integer crunching power voor 3k dollar per stuk.

Gewoon desnoods 2e handjes kopen. Nog goed voorbeeld. L5420 machines. Dat is een core2 processor en low power. Bouw je voor 200 dollar per node nu. Vreet onder full load dus maar 170 watt hier.

Een 2 socket intel machine met 16 cores is sneller dan dat maar 10x duurder en maar factor 2.5 sneller dan 1 zo'n L5420 machine.

Je floating point machine komt dan nooit meer hoog op zo'n lijst maar je faciliteert dan 3 velden van rekenkracht.

Voor die 2 TB machines kun je bijvoorbeeld iets ouder model inslaan met 8 sockets x64 cpu's. Gewoon RAM maximaliseren. Dat zullen de duurste nodes zijn. Daar hebben ze er nu stuk of 5 van momenteel (512GB ram power6 nodes).

Probleem is altijd hetzelfde bij de NL overheid. Ze plannen zo'n computer 2 jaar tevoren ipv paar maanden tevoren.

Dat is begrijpelijk maar zo koop je niet goedkoop in. Bovendien moet alles nieuw.
Dat is ook niet handig, behalve voor de floating point.

Je kunt heel goedkoop integer cores inslaan op dit moment, dus NIET gevectoriseerde integers, maar dan wil je niet nieuwste E5 kopen, want die is VEEL TE DUUR.

Zo raak je snel door je geld heen als je dure processors koopt.

Je maakt gewoon ruimte vrij, stroom is zo geregeld tenslotte (paar megawatt is op DIT moment geen enkel probleem ze hebben toch al overcapaciteit).

Gewoon als nieuwe GPU uit is dan probeer je die goedkoop in te slaan en bouw je een floating point machine. Dus elk van de 3 machines apart oplossen.

Ze komen bij de NCF ook wel tot die conclusie naar ik aanneem, al kost het weer heel veel jaartjes, ze hobbelen wat in het kielzog van de NCSA altijd :)

De NCSA heeft het ondertussen al gedaan in USA. Die hebben gesplitst naar 2 machines, precies zoals ik hierboven schrijf.

Voor NL laat ik 1 rekenvoorbeeld geven. Meestal hebben ze 20 miljoen budget.

We gebruiken 8 miljoen euro voor floating point. Daarbij doe je gewoon een open bid voor. Niks geen domme randvoorwaardes alleen een paar floagint point matrix achtige programma's van je wil je gedemonstreerd zo snel mogelijk voor een bedrag van 8 miljoen euro.

4 miljoen euro sla je Harddisk storage voor in. Doe je ook met open bid. laagste prijs per gigabyte is altijd nieuwste harddisk meestal dus valt ook alleen met open bid te doen. Het moet natuurlijk connecten naar de beide machines voor een gedeelte. Dat valt vast op te lossen.

We gebruiken dan 2 miljoen euro voor de aanschaf van machines met maximaal aantal RAM. De prijs per node valt altijd enorm tegen. Ik vermoed dat je rond de 20 machines ervoor krijgt.
De prijs per gigabyte bij de grote dimms is enorm prijzig. Met wat geluk richting 40 machines.

Dan heb je dus al minimaal 14 miljoen uitgegeven en ga je kijken wat je goedkoop kunt inslaan aan integer power.

Dat zijn meestal '2e handjes' op ebay ,weliswaar meestal nieuwe componenten die nu goedkoop massa geproduceerd worden maar die iets lower power zijn.

Voorbeeld is op dit moment in aanbieding nog net 48 core AMD machines. Die bouw je voor 3000 euro per stuk. Fiks wat RAM erin ook zeker 64 GB.

Dan nog netwerk. Onderscaht nodeprijs niet. Dat is zeker 500 euro per port als je massaal inslaat. Desnoods ga je terug naar QDR infiniband als het te prijzig wordt met FDR.

6 miljoen euro / 3500 euro per machine = 1714 nodes

Al die manufacturers hebben altijd enorme voorraden aan oude cpu's. Als een machine van dat netwerk (integers) kapot gaat, dan gooi je die machine 'weg' gewoon.

Niks vereisen van manufacturer dat hij voorraad aanhoudt. Je wilt juist die oude junk opkopen.

1714 nodes * 48 cores = 82272 cores overigens. Voor goede orde dat is 328 Tflop floating point ook, overigens door multiply-add te tellen als 2 flops, wat die gasten altijd doen,
dan kun je net doen alsof het 656 Tflop is virtueel.

Dus de 'integer machine' is alleen al op floating point gebied dan al factor 5-10 keer sneller dan de huidige supercomputer, door gewoon slim in te kopen voor maar 6 miljoen euro.

Hoeveel je krijgt overigens voor die 8 miljoen euro is onduidelijk. Ik gok op rond de 2+ Petaflop dat je er nu voor krijgt.

Je wilt zo iets snel bouwen dan. Probleem is dat dit soort commissies eens per zoveel maanden vergaderen. Ze zijn niet snel genoeg hiervoor.

Als je nu een offerte laat opstellen en over 4 maanden pas gaat kijken wat er is binnengekomen, dan heeft de hardware werkelijkheid je allang weer ingehaald.

Je wilt je eisen pakket zo veel mogelijk minimaliseren om zoveel mogelijk crunching geweld in te slaan, terwijl je geen theoretische getallen wilt maar praktische performance van je software.

Belangrijkste is wel haast maken met inslaan op het moment dat er een paar fabrikanten net uit zijn met iets nieuws of als iets 'preisguenstig' is 2e hands (en met name dumping van vereiste voorraden). De floating point machine sla je in zijn geheel nieuw in, wegens bandbreedte vereisten en het feit dat die hardware toch nieuw moet zijn. De overige 2 machines die kun je veel handiger inslaan hoor, maar dan moet je ook wel wat zelf gaan bouwen. Dat zijn toch standaard componenten - dus dat lukt wel. De i/o is ook altijd nieuw dus die sla je ook regelmatig nieuw in. Verder is het handig om i/o niet maar eens per 6 jaar in te slaan ofzo.

Handiger is om gewoon een vast budget per jaar te hebben en gewoon steeds wat nieuwe partities te bouwen, soms al vooruitlopend op een supercomputer die nog gebouwd moet worden. Zodat je op een constante manier de harddiskruimte goedkoop inslaat en dan niet over 5 jaar hopeloos tekort komt.

Wat je typisch ziet is dat als commissies een integer machine gaan bouwen dat ze dan de duurste e5 weer nemen @ 16 cores per node, wat dan natuurlijk weer 6000 euro per machine gaat kosten voor maar 16 cores.

Wat dan maar rond de 2.8Ghz * 16 = 44.8 Ghz aan integer power levert, versus
dus bovenstaande Magny Cours die levert 120 Ghz en voor 3500 euro maximaal. De meeste integer software is maar paar procent sneller op de Sandy Bridge E5's cores en de meeste software profiteert ook niet zoveel van hyperthreading, terwijl op de 'benchmarks' intel daar zijn slag slaat. Verder turboboost staat altijd uit op grote clusters, dus wat je thuis voor elkaar daar krijgt aan boost lukt niet voor clusters, gewoon omdat dat niet stabiel test.

Dus allerlei truuks waarmee de nieuwe processors 'snel' lijken, die vallen weg op clusters. De commissieleden houden daar nooit rekening mee.Er wordt door de fabrikanten handig gelobbiet simpelweg.

We zullen zien hoe slim ze zijn dit keer!

Er is wel sprake van langzame vooruitgang - maar het blijft natuurlijk een traag vergaderclubje dat altijd achter de feiten blijft aanlopen.

1 hard feit kan niemand onderuit en dat is dat ze gewoon niet zo goedkoop KUNNEN inslaan als bepaalde Amerikaanse organisaties, simpelweg omdat die veel bragging rights altijd met zo'n gigantische nieuwe machine weten te vergaren en als je kleinere machine bouwt met minder bragging rights - dan betaal je meestal de hoofdprijs.

[Reactie gewijzigd door hardwareaddict op 12 november 2012 22:01]

Probleem lijkt me hoe je aan zoveel tweedehands hardware tegelijk komt. Tis logisch dat het goedkoper is om net-niet-het-nieuwste te kopen, maar Erg veel supercomputing bedrijven doen hun hardware niet zo snel weer de deur uit, lijkt me...of zit ik er helemaal naast?

Moet je voor parallel integer werk trouwens niet liever bij Oracle of IBM aankloppen? Ik had altijd begrepen dat die Power7 en T4 redelijk nette chipjes daarvoor waren.

[Reactie gewijzigd door Dreamvoid op 12 november 2012 22:48]

Dit artikel is vooral bijzonder ivm de Tesla K20x van NVidia. Dit is een monsterlijke superchip, volledig bedoeld voor GPGPU. Dat maakt dit systeem dan ook bijzonder. 1 Tesla K20x kaart behaalt al bijna 4 TFLOPS.

Erg jammer dat tweakers.net meer een soort nu.nl is geworden. Het artikel op tomshardware (of het was Anandtech) verteld je een stuk meer zonder dat het een gigantisch artikel wordt.
Nvidia overdreef wel iets hoor. Ze zeiden eerst dat hij "3x sneller" zou zijn dan de snelste Tesla die ze op dat moment in Fermi series hadden en dat was 667Gflop. 3 x 667 = 2 Tflop.

Nu blijkt het ding 1.17 Tflop te zijn en vergelijken ze met een vet oudere Tesla die 448 cores heeft (ipv 512 cores).

Dus het is wel mooie progressie en de snelste manycore op aarde (AMD heeft 2 gpu's op 1 kaart gepoot namelijk dus die is even snel als de Fermi Tesla was per gpu), maar de progressie is echt heel wat minder dan gehoopt.
@AsoT: "En voor wat wordt een systeem als dit gebruikt "

2x klikken vanaf de bron :X
Titan will initially support a handful of key projects at Oak Ridge,
- including Denovo, simulation software that models the behavior of neutrons in a nuclear power reactor.
- Oak Ridge's engineers designed Denovo for Jaguar as a way to help extend the lives of the U.S.'s aging nuclear power plants, which provide about a fifth of the country's electricity. Running Denovo, Titan will take 13 hours to model the complete state of a reactor core at a specified point in time, a job that took Jaguar 60 hours to perform.
link: http://www.scientificamer...d=doe-titan-supercomputer

feature request; reactie moven :+

[Reactie gewijzigd door himlims_ op 12 november 2012 18:38]

Wat je ook kan lezen is het bericht van Anandtech
http://www.anandtech.com/...and-186k-nvidia-gpu-cores
Daarnaast kan je er ook gewoon foto's van zien en je krijg je een idee wat er gedaan wordt en hoe je tijd kan aanvragen op dit monster.

Uiteindelijk wel een mooi artikel geworden van Anandtech.
nee een publiciteitsstunt zou het zijn geweest als ze hem hadden overgeklokt en de highscore van pong had verbroken...
En voor wat wordt een systeem als dit gebruikt ? Ik veronderstel dat dit niet gebruikt wordt om even een 3D Scene ofzo te renderen... ?
Bijvoorbeeld voor weermodellen, aërodynamica berekeningen.

[Reactie gewijzigd door spookz0r op 12 november 2012 18:36]

Nee uiteraard niet een simpele berekening...

Er zijn bedrijven die een supercomputer als deze kunnen huren voor een bepaalde periode waarop ze zeer gecompliceerde berekeningen erop kunnen laten draaien. Een voorbeeld is het weer voorspellen :)
Games natuurlijk _/-\o_

Ga er maar vanuit dat deze "PC" meerdere taken tegelijkertijd aan het berekenen is: weer, aardbevingsdata, sterrenkundige berekeningen, berekenigen voor CERN, etc.
Deze supercomputer ligt in Oak Ridge. Dat is dus net naast 's werelds grootste fabriekshal uit de 2e wereldoorlog waar Uranium werd verrijkt voor de atoombom.

De grootste supercomputers worden uitsluitend voor 2 dingen gebruikt:

a) kernexplosies simuleren
b) NCSA van de betreffende landen

Exclusief en alleen voor dat.

An sich kun je 's wereld grootste supercomputer bouwen en nog steeds het weer niet geniaal voorspellen, om over aardbevingen te zwijgen, maar er is gewoon niet zoveel budget voor die zaken, behalve in oorlogstijd.
An sich kun je 's wereld grootste supercomputer bouwen en nog steeds het weer niet geniaal voorspellen, om over aardbevingen te zwijgen, maar er is gewoon niet zoveel budget voor die zaken, behalve in oorlogstijd.
Het weer is een chaotisch dynamisch systeem, dat zal per definitie nooit perfect voorspeld kunnen worden, al bouw je een supercomputer met een triljoen processors.
Aardbevingen kunnen nog niet voorspeld worden, maar het is niet de onwil om ze te voorspellen, het is de onmacht om een gedegen model te vinden waarmee ze voorspeld kunnen worden.

[Reactie gewijzigd door blobber op 13 november 2012 00:01]

Over het algemeen worden dergelijke systemen gebruikt voor het simuleren van modellen met zeer veel variabelen. Het kost heel veel rekenkracht om al die variabelen door te rekenen.

Klimaatmodellen zijn een goed voorbeeld, maar ook modellen van het heelal of het simuleren van eiwitten en chemische reacties.
Het is toch echt dwaas dat deze vragen telkens weer opduiken? Google eens even op supercomputer. Elke keer er een artikel verschijnt over een supercomputer, zijn er weer 20 idioten die vragen waar zo een systeem voor dient.
Waarom word het nou in terraflop en niet in petaflop weergegeven? Maakt het artikel imo een beetje verwarrend...
(evenals de "1.572.864 miljoen cores", miljoen weg laten lijkt me beter kloppen)
Niet iedereen weet hoeveel 1 petaflop is, dan is het handig om het nog eens in teraflop te schrijven wat meer mensen kennen.
Ik betwijfel of er überhaupt veel mensen zijn die ook maar enig concept hebben van wat een teraflop (of een petaflop) nou eigenlijk is, of van wat/hoeveel je nou eigenlijk kan doen met dergelijke rekenkracht.
Inderdaad... heb geen idee wat ik me moet voorstellen bij een teraflop of petaflop: kan je eens een voorbeeld noemen wat je met die rekenkracht kan?

Ik zit zelf te denken aan een technisch ontwerp met heel veel criteria en heel veel eisen aan het ontwerp, waarbij je de computer allerlei mogelijkheden laat doorrekenen in bijvoorbeeld AutoCAD en jou de uitkomsten later presenteerd.
Maar hoe lang is zo'n systeem er dan vervolgens mee bezig? Gaat het dan om enkele seconden (waar ik misschien m'n hele leven over zou moeten doen om uit te rekenen), of duurt het dan alsnog wel eventjes?

[Reactie gewijzigd door Jorn1986 op 12 november 2012 19:05]

Het voorvoegsel "peta" staat voor een biljard (giga -> miljard, tera -> biljoen, peta -> biljard). FLOPS staat voor FLoating-point Operations Per Second. Een floating point operatie is bijvoorbeeld een simpele optelling van twee drijvendekommagetallen. Aftrekken, vermenigvuldigen en delen zijn over het algemeen ook 1 operatie, maar zoiets als machtsverheffen neemt in de praktijk meer cycles in beslag en wordt daarom niet gezien als 1 operatie.

Met 17 petaflops kun je dus 17 biljard operaties per seconde uitvoeren. Let wel dat dit om een praktisch maximum gaat als je alle cores redelijk goed benut, wat al een moeilijkheid op zich is. Linpack is dan ook meer een syntetische benchmark. Elk parallel algoritme zal wel iets van synchronisatie nodig hebben en afhankelijk zijn van vorige resultaten, dus voor een typisch probleem (zoals het doorrekenen van de staat van een nucleaire reactor, waar ie voor gebruikt gaat worden) zal het aantal flops lager liggen.

[Reactie gewijzigd door .oisyn op 13 november 2012 00:39]

Een gemiddelde videokaart voor conumenten kan ongeveer 2 TFLOPS berekenen. Een computer zoals deze kan dus bijna 10.000 keer sneller rekenen.
Het is trouwens 'flops', niet 'flop'. Ook als het er maar 1 is.

Flops is een afkorting voor 'floating point operations per second'. De 's' staat voor 'second' en heeft niets met enkelvoud of meervoud te maken. Zie http://en.wikipedia.org/wiki/FLOPS
het meervoud zou dus FLOPSen zijn.

Ik vraag me met de Xeon Phi wel even af hoe Linpack test hierop schaalt, het is nl geen CPU. Het zou zo kunnen zijn dat de kaart nog wel meer snelheid in petto heeft. Tesla kaarten ga je er ook niet mee benchmarken ermee.

En ja..of HPC's tegenwoordig nog een prestatie zijn, het is gewoon een kwestie van Xeons of Opterons stapelen geworden vs een enorm budget. Zelfs IBM heeft niet meer van die exotische speeltjes meer.
het meervoud zou dus FLOPSen zijn.
De afkorting is inherent in het meervoud
Floating point operations per second.

Of zeg jij ook "ik rij 100 km/u's"?
Niet echt te bevatten hoeveel dit is. Wel knap om met een miljoen minder cores (give or take) een beter resultaat te halen.

Weet iemand hoe oud de Sequoia is?
Die telling van het aantal cores klopt niet zo.

18,688 gpu's

Elke K20 heeft zoals nu bekend is dus 2496 streamcores.

18688 * 2496 = 46.645.248 nvidia cores

Of te wel 46.6 miljoen nvidia cores.

Zie : http://www.anandtech.com/print/6421

http://www.nvidia.com/obj...tion-solutions-tesla.html
Het gaat om het aantal K20 chips dat erin zit, niet het aantal "nvidia cores" wat daar totaal inzitten want dat is niet relevant voor het noemen. 46 miljoen nvidia cores zegt mij minder dan een 18,688 K20 gpucores...
Dat komt waarschijnlijk doordat er nu GPU's bijgeplaatst zijn, en die zijn gewoon erg snel in veel simpele berekeningen parallel uit te voeren.
zo'n halfjaar geleden is de Sequoia uitgekomen. Ik zou netzoals jij kunnen googlen op de exacte datum maar daar ben ik te lui voor. :>
Volgens mij zouden ze de efficientie nog kunnen verhogen door die kasten te stacken in 3D, ipv in 2D.
Die dingen moeten ook nog ergens hun warmte kwijt hé. Het is daar waarschijnlijk een sauna, dus over de indeling wordt wel nagedacht (je hebt niet zoveel aan zo'n ding als de helft door oververhitting uitvalt :P).
Daarom wordt ook de opvolger door willekeurige tweakertjes gebouwd in plaats van door Cray. Die weten veel beter hoe je zo'n apparaat bouwt.
Ook wel leuk om je te realiseren dat dit over pakweg 20 jaar in je broekzak zit ;)
Daar zakt je de broek van af!

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True