Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

VS krijgt in 2021 exascalesupercomputer met Intel Xe-gpu's

Intel en Cray gaan een exascalecluster voor het Amerikaanse ministerie van Energie bouwen die in 2021 opgeleverd moet worden. De supercomputer gaat over Intels Xeon-cpu's, Optane-geheugen en Xe-gpu's beschikken.

Het systeem gaat Aurora heten en komt te staan bij het Argonne National Laboratory in Chicago. Met de bouw is een contract van 500 miljoen dollar gemoeid. Het supercomputercluster gaat gebruikt worden voor wetenschappelijk onderzoek voor het Amerikaanse ministerie van Energie.

De supercomputer wordt opgetrokken rond Xeon-processors, Optane DC-geheugen en Intels Xe-architectuur. Intel werkt onder de naam Xe aan grafische chips die voor meerdere markten bedoeld zijn en in bijvoorbeeld videokaarten voor consumenten en accelerators voor datacenters en supercomputers moeten verschijnen.

De Aurora-supercomputer wordt gebaseerd op Cray's Shasta-platform en zal uit meer dan tweehonderd computekabinetten bestaan. De onderlinge verbindingen betreffen Cray's Slingshot-interconnects en Cray gaat zijn Shasta-softwarestack optimaliseren voor Intels architectuur.

De Aurora is een van meerdere exascalesupercomputers die op komst zijn. Deze computerclusters bieden een rekenkracht van een exaflops, 1018 flops, oftewel een miljard miljard floating operations per second. Ter vergelijking: het IBM Summit-systeem van het Oak Ridge National Laboratory van het Amerikaanse ministerie van Energie voert momenteel de Top500-lijst van supercomputers aan met prestaties van 143,5 petaflops en een piek van 200,8 petaflops.

Door Olaf van Miltenburg

Nieuwscoördinator

19-03-2019 • 20:52

43 Linkedin Google+

Reacties (43)

Wijzig sortering
Ik zie vaker terugkomen dat er staat dat een supercomputer een bepaalde hoeveelheid berekeningen kan doen, met een piek die daar boven ligt. Kan iemand dat toelichten? Heeft dat de maken dat de computer dat slechts een bepaalde tijd kan volhouden? Of gaat het om een ander soort berekeningen?
De peak performance is de theoretisch maximaal haalbare performance (in double precision floating-point berekeningen). Dit is, simpel gezegd, (aantal cores) * (aantal berekeningen per seconde per core). In werkelijkheid behaalt een computer nooit dit niveau om verschillende redenen, voornamelijk omdat de processor veel sneller is dan het geheugen, network interfaces etc. Vaak zit de processor dan ook te wachten op data uit caches, het geheugen, van de harde schijf of van andere machines op het netwerk, wat allemaal een negatieve impact heeft op de werkelijke performance.

De lagere vermelde performance is werkelijk gemeten met HPL (High Performance Linpack), een benchmark-software die een aantal grote matrixberekeningen uitvoert over alle servers in een supercomputer. De performance die met deze software behaald wordt wordt gebruikt in de TOP500 om te bepalen welke machines nou echt het snelst zijn met echte berekeningen.

Kanttekening hierbij is dat HPL een onrealistisch efficiente code is. De software die normaal op deze machines draait, en waar serieuze wetenschap mee wordt uitgevoerd, haalt zelden een efficientie hoger dan 20% van de theoretische performance per node, vaak nog minder als het op vele nodes tegelijk draait.
Enig idee hoe zo'n super computer z'n werk doet? Kunnen onderzoekers bijv. gewoon een rekenjob submitten waarbij ze een aantal nodes toegekend krijgen of draait elke som gewoon op alle nodes? Ik ben relatief bekend bij kleinere omgevingen en daar is het rekencluster vaak gewoon een bak met capaciteit waar onderzoekers nodes claimen voor hun modellen
Heel beknopt komt het neer op een bandbreedte probleem bij een ander onderdeel dan de rekenchips.
https://www.technologyrev...cally-the-worlds-fastest/
Op dit moment heb je al meer GFLOPS in je broekzak (als je een topmodel smartphone hebt) dan 20 jaar geleden in de meeste supercomputers zat. Mij benieuwen of dat over 20 jaar weer zo is.
Een exaflop aan rekenkracht in je broekzak... damn...
Je hebt nu al een exaflop aan rekenkrach bij je, het menselijk brein

https://www.scienceabc.co...uters-which-one-wins.html
Kan, maar die wordt vrijwel niet gebruikt bij een groot deel van de bevolking, of wordt verkeerd gebruikt.
Tegen die tijd zitten we vast niet meer op mobiele telefoons, maar zit het mogelijk in je contactlens of in Alexa-achtige dingen.
Tegen die tijd is quantum computing een feit. Alle snelheden van nu zijn dan volledig pre historisch.
Of quantum-computing in je broekzak zit, hangt af van je definitie.

Volgens mij is tegen die tijd connectiviteit zo alom aanwezig, dat je broekzak een computationeel beperkt apparaat bevat en dat de quantum-computing die je nodig hebt, je als een service kunt betrekken.
Ik denk het niet, het gaat niet meer zo snel de laatste jaren, of er moet een andere technology komen.
Kan iemand mij uitleggen wat het ministerie van energie met dit soort capaciteiten moet?
Het Amerikaanse ministerie van energie gaat ook over de kernwapens.
Ik zou er niet vanuit gaan dat daar zoveel rekenkracht voor nodig is. Een bom maken kunnen ze allang en met meer rekenkracht gaat dat niet in een keer beter. Het moet iets zijn wat qua complexiteit lijkt op een metrologisch systeem, dus misschien smart grid aansturing, voorspellingen aan de opbrengst van solar farms, blind vermogen bij spanningsfluctuaties en lokale opslag in batterijen.
Nee hoor het gaat echt over kernwapen berekeningen en simulaties, het vereist nogal wat kennis en moeite om het verouderende kernwapen aresenaal up to date te houden.
En aangezien er een test ban is moeten ze alles met simulaties doen.
Ligt het nou aan mij of was dit artikel nauwelijks leesbaar door alle marketing jargon?

Voor diegenen die ook eerst hun Cray terminologie wat moeten opfrissen:
https://www.theregister.co.uk/2018/10/31/crays_preexascale_shasta_supercomputer_gets_nersc_buyin/
But can it play Solitaire...?
En hoeveel ton CO2 stoot dat ding uit per uur/week/maand/jaar? Dan kan de Nederlandse regering vast beginnen met milieuplannen over de rug van de burger :Y)
En nu afvragen waar het nu exact voor wordt gebruikt. Wetende dat "Energie" hier ook o.a. voor atoom- energie en wapens staat.
Die kans is inderdaad aanwezig. En als je dan weer Edward Snowden erbij haalt dan is er genoeg reden om scherp en kritisch te zijn.
Ervaring leert dat de VS regering niet altijd de beste weg kiest, al geloof ik nog wel in goede bedoelingen van de regering algemeen. Trump even daarbuiten gelaten met zn bizarre opvattingen.
'Bizar' alleen maar omdat het tegen de troep in gaat waarmee jij jarenlang bent geïndoctrineerd.
Betekend dit nu dat we in 2021 eindelijke de rekenkracht hebben om theoretisch een medicijn te kunnen ontwikkelen die kanker kan genezen!
Daar zijn al een hoop medicijnen toe in staat. Maar nog niet alle soorten en nog niet alles even effectief.
Klopt. Jammer dat het daar niet voor ingezet wordt, maar ingezet wordt om betere kernwapens te maken. Waar, ironisch genoeg, mensen misschien wel weer kanker van zouden kunnen krijgen :-D
Er zijn heel veel soorten kankers en vele daarvan zijn te genezen. Het probleem is dat je pas klachten krijgt al je al in een verder stadia zit van de ziekte. Maar ze zijn daar echt wel mee bezig.
Een ander probleem is dat de kankerstamcellen vaak gewoon blijven leven en later in een andere vorm van kanker resulteren.
Dat kan inderdaad. Kanker is een ziekte die in veel verschillende vormen kan voorkomen. Voor de meeste hoef je niet meer bang enorm bang te zijn en heb je dus een hele goede kans volledig te genezen. Maar dat hoeft natuurlijk niet. Daarom dat er ook zoveel onderzoek naar gedaan wordt.
Ik bedoel dus dat dat 'volledig genezen' vaak een illusie is omdat met de 'volledig genezende behandeling' de kankerstamcellen vaak buiten schot blijven en later een andere vorm van kanker veroorzaken.
Was het niet zo dat iedereen het met zich meedraagt maar dat het niet bij iedereen zich openbaart en "losgaat"?
Dus in de technische definitie zou volledig genezen dan wel kunnen kloppen.
Ik ben geen expert he, laat dat duidelijk zijn.

Wat ik wel vernomen heb is dat kanker bij iedereen anders is en dat het daarom ook mede zo moeilijk is om aan te pakken.
Een medicijn dat bij mij werkt kan bij jou mischien helemaal niet werken.
Ik denk dat het meer zo is, dat als jij al een keer kanker hebt gehad, wat zover ik weet een fout in het DNA is, dat de kans dan groot is dat het op een later stadium in je leven de kans groter is dat het weer gebeurt, de reden waardoor diegene kanker kreeg in eerste instantie is nog steeds aanwezig in het lichaam.
Ja, de kankerstamcellen en onvoldoende afweer daartegen, voornamelijk bepaald door voeding en leefstijl.
Elke dag maakt een gezond lichaam 2 tot 3000 kankercellen aan die als het goed is allemaal door het afweersysteem worden opgeruimd.
Zorg je niet goed voor je afweersysteem vergroot je de kans op kanker.
Bij Steve Jobs begon het al op 16 to 18 jarige leeftijd, heeft een dokter eens uitgerekend.
Er zitten hier helaas mensen die totaal niet naar de regels voor moderaties kijken. Ik denk dat ze eerder op persoonlijke redenen die cijfers uitdelen, fout dus.
Ja, het lijkt erop.
Dingen gaan tegelijk in de wereld en niet per sé eerst het een en dan het ander.

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True