Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties

Intel gaat in samenwerking met supercomputerbouwer Cray een machine bouwen voor het Argonne National Laboratory vlakbij Chicago. De computer, die in 2018 klaar moet zijn, zal naar verwachting 180 petaflops kunnen halen.

Het US Department of Energy betaalt 200 miljoen dollar voor de supercomputer Aurora. De machine is onderdeel van een project om verscheidene supercomputers in Argonne te bouwen die vijf tot zeven keer zo krachtig zijn als hedendaagse supercomputers. Ter vergelijking, de snelste supercomputer in de top-500 van november 2014 bereikt 33,9 petaflops. Aurora is de derde en laatste computer binnen het Coral-initiatief, dat in 2014 werd aangekondigd. In totaal is er 525 miljoen dollar mee gemoeid.

De onderzoeksdoelen waarvoor Aurora moet worden ingezet lopen uiteen. Zo moet gezocht worden naar nieuwe materiaalsoorten die krachtigere en duurzamere batterijen, en betere zonnepanelen opleveren. Ook zal onderzoek worden gedaan naar betere biobrandstoffen en de effecten van die brandstoffen op organismen, naar effectievere ziektebestrijding en naar hernieuwbare energiebronnen, zoals efficiëntere en stillere turbines voor windmolens, en betere ontwerpen van de wieken.

Het systeem zal gebruikmaken van deels nog te ontwikkelen Intel High Performance-bouwstenen, zoals toekomstige generaties van 10nm Intel Xeon Phi-processors, Intels Omni-Path Fabric hogesnelheidsverbindingstechnologie, een nieuwe, non-volatile geheugenarchitectuur en een bestandssysteem dat gebruikmaakt van Intels Lustre. Speculaties over hoe alles in elkaar moet zitten zijn te vinden op The Platform.

aurora intel supercomputer

Moderatie-faq Wijzig weergave

Reacties (54)

Duurt het serieus meer dan 2,5 jaar voordat zoiets in elkaar zit? Wauw. Dat had ik niet verwacht!
Nee, het is meer dat de bouwstenen die ze willen gebruiken nog niet bestaan. Ze plannen voor de 2nd gen Xeon Phi Processor bv, terwijl 1st gen (Knights Landing) nog niet beschikbaar is!
Volgens mij zie je dat verkeerd. In het artikel dat gelinkt is zie je dat de eerste generatie (Knights Corner) inmiddels op de markt is en dat de tweede generatie (Knights Landing) aangekondigd is op maandag 17 november 2014 (Tweakers). De derde generatie (Knights HIll) staat ook al op die afbeelding.
Wat je zegt klopt wel maar Knights Corner is enkel als PCI kaart beschikbaar (dus co-processor). Dit gaat veranderen bij Knights Landing, dat komt ook beschikbaar als een losse chip die instaat is een volwaardig OS te booten (en waarvoor je dus geen andere Xeon processoren nodig hebt), en dus wordt dat de eerste Xeon Phi Processor. En dan Knights Hill dus de tweede. Staat ook zo in de tabel in het artikel :-)
Het idee van supercomputers is niet alleen dat ze snel zijn maar ook snel met elkaar kunnen praten. Er zijn vele verschillende oplossingen (3, 4, 6 dimensionaale interconnects) voor communicatie tussen nodes en daarnaast zullen ook de hardware componenten custom made zijn. Dit laatste betreft dan voornamelijk de pcb layout, power systems, de netwerk architectuur en koeling. Omdat we het hier over bijster complexe systemen hebben moet ook de library structuur voor het maken van de programmas aangepast worden. Meestal kom je niet weg met een MPI oplossing voor deze schalen en zal je (zoals hier ook het geval is) specifieke implementaties moeten gebruiken zoals het computing platform van Cray.

Waarschijnlijk zal dit een 100% solution zijn waarin het gebouw, de zalen, de rekken en alle infrastructuur door Cray ontworpen worden. Of op zijn minst door Cray in opdracht door iemand anders laten bouwen. Hiervoor heb je meer tijd nodig dan 'even een paar rackmounts neerzetten'.
Zet een pc neer, sluit ze aan en start ze op. Dat duurt al snel een half uurtje. Doe dat 50.000 keer....
Dit gaat over het ontwerpen van een systeem waarbij alles op elkaar aan kan sluiten, zeg maar een hele grote cloud.

Daarnaast wil het niet automatsich zeggen dat de levertijd ook 3 jaar is. Mijn kijkt waarschijnlijk vooruit en besteld ook vooruit ter vervanging van iets anders. Tegen 2018 zijn er weer andere intel cpu/gpu's die sneller zijn.

Het heeft dus gewoon puur met planning te maken, het produceren zal zeker geen 3 jaar kosten maar eerder een paar maanden.
Haha, weleens in een datacentrum geweest? Als je de bekabeling van 50.000 nodes niet uitdenkt kan je binnen een week nergens meer lopen. Dan praat je nog niet eens over alle netwerkapparatuur en software die moet worden geconfigureerd.

En het ergste.. het inschroeven van alle servers met kooimoeren. Dat zijn al snel 8 kooimoeren per server x 50.000.. een nachtmerrie. Hopelijk zijn er wat ReadyRails aanwezig. 8)7
Onze HP servers gaan er kooimoer loos in :)
Maar dan nog moet je 50.000 keer rails of een ander systeem bevestigen, dat ze bij HP er netjes in klikken is mooi, maar ook dat 50.000 keer en ik ben het aardig zat ;)
Denk je niet dat ze klant en klaar in RACK kunnen afleveren.... racks kunnen uitgevoerd worden met wieltjes.

Overigens is complete rack design veel voordeliger en heb je volledige controle over airflow ipv van 1u units er in te schuiven.
Dat klopt, als je filmpjes op Youtube van eerdere Cray supercomputers bekijkt, en dan de opbouw ervan zie je ze pallets met de racks afleveren.
Maar ik reageerde meer naar Mr.Monk, die zei dat z'n HP's zonder kooimoeren werken :)
Overigens zal Cray die racks ook niet op voorraad hebben/klaar staan en zal dat ook wel even duren om op maat voor de klant in elkaar te zetten.
Tuurlijk gebeurd dat. Ms en Dell doen dat al voor ka oplossingen binnen cloud platform, dan doet cray dat helemaal.
Dell heeft die optie ook, dat zijn de ReadyRails die ik noemde. ;)
Vergeet dan niet dat alles stroom nodig heeft en bekabeling van de ene naar de andere. Vergt heel veel werk om alles in elkaar te zetten, aan te sluiten, te tunen, over te clocken indien nodig, te testen, te benchmarking, stress testen, fouten zoeken, installeren van drivers plus herkenning van 50,000 keer "dezelfde" onderdelen of combonenten, ... :)
Nouja, ik sprak laatst iemand van asml. En die gaf dus aan dat bij hun chipmachienes levertijden van bepaalde onderdelen 2 jaar zijn. Nu is het een hele andere branche maar wel een die high end onderdelen en een hoop engineering nodig heeft.

Stel dat ze een chip uit toekomstige generatie asml machine willen gebruiken zou t kunnen zijn dat ze 2 jaar moeten wachten voor die machiene uberhaupt in gebruik is.
Dit zijn iets andere computers dan dat jij onder je bureau hebt staan. Dit zijn complete huizen :) .
ik heb ook een compleet huis voor mijn CPU hoor. woont samen met mijn andere onderdelen in een huis. waar de wind lekker door heen blaast :)

maar nu even ontopic. kost toch best veel. 525 miljoen. de vraag is of het uiteindelijk zijn geld waard is.
Er zijn stapjes die je kunt zetten op dergelijke machines die meer geld op langere termijn opleveren dan het huidige GWP (gross world product).

Het is lastig om een prijs te zetten op de waarde van iets als "doen mijn kernwapens het nog" of "ik wil graag een materiaal berekenen met eigenschappen X, Y en Z".

Stel nu dat die machine in staat is om een materiaal uit te rekenen wat beter is dan asfalt om auto's op te laten rijden waardoor die auto's minder energie gebruiken, minder uitstoot hebben, en de weg zelf minder vervangen hoeft te worden. Zo zijn er nog veel meer toepassingen, waarvan jammer genoeg het grote publiek niet afweet en zo is het ook nog het geval dat veel van die technieken nog in de kinderschoenen staan, maar dat is wel waar het naartoe gaat. Al heb je maar een paar van die toepassingen te pakken, dan is het al economisch een goed idee om zo'n machine te kopen.

Folding@Home is ook typisch zo'n voorbeeld, alleen heb je daar geen supercomputer (een specifieke architectuur) voor nodig, maar nog steeds belachelijk veel rekenkracht. Ze zijn daar nu in staat om gedurende 1.5ms de structuur van een eiwit te laten ontvouwen. Wat je idealiter zou willen is dat je complete organismes real-time zou kunnen simuleren; kortom, er is dus nog een weg te gaan, maar het gaat allemaal best de goede kant op.

De kant van de vooruitgang is maar n kant op en dat is goedkopere en meer rekenkracht voor iedereen.
Waarom loopt dat "Peak System Performance" zo uiteen? 180 PetaFLOP/s is natuurlijk al enorm maar waarom kan dit tot 450? Is dat het theoretische maximum?
Denk dat het volledig afhankelijk is van de software.

De basis (eg even het OS en de drivers) kan 180 aan maar als jij jouw benchmark/berekening zeer efficient schrijft en allerlei loadbalancing / threading inbouwt, kan de machine tot wel 450 komen.

Niet anders dan de CPU in jouw desktop; een i7 kan ook veel efficienter dingen afhandelen maar ondertussen zijn de meeste applicaties & games maar bewust van de eerste 2 cores en dan zonder HT. Hierdoor gebruik je maar 25% van je CPU terwijl je betaald hebt voor 100% mogelijkheid.
Nu wordt het 180 PFlop. Ze is uitbreidbaar tot die 450 PFlop. Volgens mij is ze ontworpen om tot die 450 PF te gaan, daarna gaat de extra overhead meer worden dan de aangesloten extra nodes opleveren.
Denk aan AVX2 in LinX. Daar haal je ook een veel hoger resultaat dan zonder een AVX instructie. Zo zal het ook werken voor bepaalde applicaties op deze supercomputer.

Ze zullen het ding ook nog wel kunnen opschalen.

[Reactie gewijzigd door Vayra op 10 april 2015 13:26]

Dus over zo'n 50 jaar hebben we mobieltjes met die capaciteit?
Dat is te zeggen... De top computers uit 1960 - 1970 hadden de capaciteit van de mobieltjes van nu..
Tgaat snel met die flops , Enkele jaren geleden zaten ze nog maar aan 1 enkele petaflop.

nieuws: Folding@home gaat over de petaflops heen
folding@home is iets anders dan een supercomputer ;). Folding@home is distributed compute waarbij mensen thuis hun computer resources inzetten. Hier praat men over een supercomputer wat gewoon een enorme cloud (50.000 servers!) is die allen centraal aangestuurd gaan worden. Wat ik me dan wel afvraag, zijn het niet gewoon meerdere kleine supercomputers bij elkaar gezien "de" supercomputer meerdere dingen tegelijk doet.
Nee, cloud en supercomputer zijn niet hetzelfde. Een cloud bestaat uit meerdere losse computers die allemaal hun eigen aparte geheugen hebben en eventueel een centraal opslag connectie. De belangrijkste eigenschap van een supercomputer is dat alle processors in de clients een supersnelle interconnect hebben en als n systeem te zien zijn.

[Reactie gewijzigd door HolaGanz op 10 april 2015 13:37]

denk je serieus dat een supercomputer 1 grote kast is met cpu's, en daarnaast een kast vol geheugen? Het zijn gewoon servers die met elkaar communiceren, zij het via bloedsnelle verbindingen (infiniband)
De snelste "super computers" uit die tijd hadden +- 10MFlops met een piek op 36MFlops ( CDC7600 CDC 7600 ) das met de apple A7 soc en dat is inmiddels al weer een oude al ruim in de GFlops.. Dus die vergelijking gaat al jaren niet meer op.. Maar je punt is gemaakt ;)
Uiteraard staat het energieverbruik er niet bij en dat zal ongetwijfeld nieuwe records opleveren. De Tian-he 2 slurpt al een slordige 18 megawatt. 5 tot 7 keer zo krachtig betekent in de regel 3 4 maal meer energie. Dus het energieverbruik zal in de orde van 75 megawatt uitkomen.... behalve een supercomputer zal er ook een elektriciteitscentrale naast gebouwd moeten worden. :/
Zou dit de laatste supercomputer zijn/worden zoals wij die kennen?

Moest even graven, maar kon toen weer de quantum computer van d-wave vinden, dacht dat ze al een stuk verder waren, maar de ontwikkeling blijkt toch wat te zijn gestagneerd. (nog een R&D fase meer)
voor welke doeleinden zullen ze dit soort computers nodig hebben , als ik de nummers zo voorbij zie komen dan zijn het zulke "onrealistische" getallen en zeker als ik dan aan het stroom gebruik denk.... Wat zouden ze hierop willen draaien (buiten het kraken van prive gegevens van hun burgers dan)?
180 petaflops.. Klinkt indrukwekkend! Maar voor mijn beeld; wat doet een beetje high end consumenten PC in vergelijking?
Een i7 920 @3.4ghz zit rond de 70Gflops, dus wil je 180 petaflops halen heb je dus:

180 petaflops = 180000000 gigaflops
180000000 / 70 ~= 2571429

Ofwel je hebt ruimt 2.5 miljoen van die processoren nodig wil je die 180 petaflops halen en dan nog in een ideale omgeving.

Het is voordeliger dat met videokaarten te doen, die halen zeker de 800gflops voor enkel-precisie berekeningen.

[Reactie gewijzigd door bernardV op 10 april 2015 16:55]

Jeeeeeeetje! Ik weet genoeg! :p Thanks
De machine is onderdeel van een project om verscheidene supercomputers in Argonne te bouwen die vijf tot zeven keer zo krachtig zijn als hedendaagse supercomputers.

Als het zo ver is in 2018 dan zal dit een oudje zijn , rond die tijd zal de techniek zover gevorderd zijn dat dit een oudje langzaam ding zal zijn
Dat zal wel meevallen, maar het is beslist niet zeker dat deze machine de snelste gaan worden. China zal alles doen om hun nummer-1-positie die ze de afgelopen jaren hadden te handhaven en de Japanners broeden ongetwijfeld ook op plannen om de troon te heroveren.
En dan in 2020 "The Machine" >)
Onderschat de techniek NIET ;)
Dat valt nog wel mee, er wordt iig niet elke week een nieuwe supercomputer afgeleverd dus zo snel wordt ie niet ingehaald, gedeeltelijk ook omdat deze CPU's wilt gebruiken die er nog niet zijn en tegen 2018 dus nog aardig nieuw zijn :)
Wat ik me afvraag, kunnen ze met die pc's geen bitcoins minen? zou lucratieve bezigheid zijn zo tussen de middag :)
ja dat kan, echter kost het je een x factor meer aan energy, dan dat de bitcoins opleveren.
Inderdaad; zo keek ik laatst https://www.youtube.com/watch?v=K8kua5B5K3I en daar worden geen misselijke bedragen genoemd aan energie-rekening; en dat zelfs in een land waar de koopkracht en prijzen aanzienlijk lager liggen dan in NL.
Mensen noemen alles steeds aurora omdat het een cool woord is?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True