Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 124 reacties

IBM gaat in 2012 een nieuwe supercomputer aan de Amerikaanse overheid leveren die tien keer krachtiger is dan de huidige recordhouder. Uiteindelijk moet het Sequoia-systeem 20 petaflops kunnen uitvoeren.

IBM's Sequoia-systeem gaat 96 systeemracks beslaan. Daarin worden 100.000 op 45nm gebakken processors met elk 16 cores en in totaal 1,6 petabyte ram ondergebracht. Veel meer details heeft IBM nog niet vrijgegeven. "Het Sequoia-systeem wordt 15 keer sneller dan BlueGene/P, terwijl de afmetingen hetzelfde zijn en er een bescheiden toename in energieconsumptie is", claimt Herb Schultz van IBM's Deep Computing-tak.

Het BlueGene/P-systeem waar Schultz op doelt, wordt net als de Sequoia-supercomputer in het Lawrence Livermore National Laboratory gebouwd. Beide machines worden ingezet om de staat van het nucleaire wapenarsenaal te analyseren. 'Dawn', zoals de BlueGene/P gaat heten, is uitgerust met gemodificeerde PowerPC 450-processors die vier op 850MHz geklokte cores bevatten. Deze supercomputer huisvest 4096 processors per rack en zal eveneens uit 96 racks bestaan.

In de recentste Top500-lijst van supercomputers eindigde IBM's Roadrunner met een geregistreerde snelheid van 1,1 petaflops op de eerste plek, maar de Jaguar van Cray zou inmiddels al 1,64 petaflops kunnen verwerken.

IBM Bluegene/L
Moderatie-faq Wijzig weergave

Reacties (124)

Gelukkig is het in Amerika anders moest IBM weer mensen over laten vliegen om de supercomputer in elkaar te mogen schroeven... De mainframes en zulke computers van IBM mag alleen maar door IBM technici in elkaar gezet. Volgens de IBM technicus toentertijd bij de IX voor Australie.
Hangt van de systemen af. De low-end servers mag je helemaal zelf beheren, de high-end servers (ook p590 systemen enzo, niet perse supercomputers) krijgen alleen support als ze door een IBM hardware engineer geinstalleerd zijn. En voor de prijs die je er voor betaald maakt dat eigenlijk niet uit, en krijg je de engineer er relatief gratis bij ;)
1600000 processoren delen door 96 racks geeft 16667 processoren per rack. Als zo'n rack 28 HE hoog is, dan is dat een kleine 600 processors per HE. Ergens klopt er iets niet aan de berichtgeving lijkt me.
Het zijn 4096 processoren met 16 cores per rack x 96 racks = 6291456 cores.
Dat ging over de Bluegene.
BlueGene/P uses a modified PowerPC 450 processor running at 850 MHz with four cores per chip and as many as 4,096 processors in a rack. The Sequoia system will use 45nm processors with as many as 16 cores per chip running at a significantly faster data rate.

Both BlueGene/P and Sequoia consist of clusters built up from 96 racks of systems. Sequoia will have 1.6 petabytes of memory feeding its 1.6 million cores, but many details of its design have not yet been disclosed.

[Reactie gewijzigd door l.degroot01 op 3 februari 2009 14:05]

Ik denk dat ze wel een standaard rack gebruiken en die is 42HE hoog.
Dan zitten er dus 16667 CPU's per rack gedeelt door 42 is 394(afgerond) cpu's per HE. Dit lijkt mij realistischer
Dat vindt ik nog steeds heel veel hoor. Nu heb ik geen ervaring met dergelijk opstellingen, maar hoe kun je ooit 394 processors in een HE proppen, en dan ook nog ruimte over hebben voor geheugen en de rest...
In het oorspronkelijke artikel staat dan ook 1.6 miljoen -cores-, oftewel 100.000 processors met elk 16 cores.
Inderdaad het is erg veel. Er wordt niet gezegt hoe diep de racks zijn dus daar kan ook nog verschil in zitten. Ik vraag me dan wel af hoe ze alles gaan koelen?
Vloeistof of lucht?
jij gaat uit van 28 HE hoog is ... klopt dat?
Ik weet eigenlijk ook niet hoe ik 28 kwam, die van ons zijn ook allemaal 42 :-)
10x krachtiger is natuurlijk leuk, maar het interessante is dat de afmetingen en het energiegebruik daarbij gelijk blijven. Ben benieuwd wat daaraan ten grondslag ligt, en of dat principe op den duur ook richting consumenten pc's kan worden doorgevoerd.
Maar uiteindelijk ben je beter af met een efficiŽnter algoritme dan een snellere supercomputer natuurlijk (bij voldoende hoeveelheid data).
Waterkoeling is mijn gok.. Luchtkoeling kost meer elektriciteit doordat waterkoeling een stap (koelen van lucht met water of freon) overslaat.
is gewoon luchtkoeling met cold corridor principe.
Door gebruik te maken van heat dissipation (net zoals in veel frabrieken wordt gebruikt met warm water afvoer) wordt hierna veel warmte hergebruikt.
Waterkoeling brengt te veel risico met zich mee voor dergelijke apparatuur en kost meer geld.

Wat eventueel nog wel een optie zou kunnen zijn is peltier koeling waarna er dmv gecentraliseerde koeling (binnen 1 rack) hitte afvoer plaatsvind, ook dit is niet zo energie efficient maar wel een stuk betrouwbaarder dan waterkoeling.

Overigens kost waterkoeling meer elektriciteit doordat er gebruik wordt gemaakt van een elektrische pomp, welke ook energie verbruikt en hierdoor zelf warmte produceert.
Cold corridor kan ook.

De andere 2 punten moet ik het mee oneens zijn;

Peltierkoeling is gevaarlijk, doordat bij een overactief element condens kan ontstaan (airco verminderd dit risico wel).

Dit artikel van vorig jaar wijst in de richting van betrouwbaarheid van waterkoeling in IBM servers. Pompen (resp. ventilator) van water kost minder dan van lucht, en wel om deze reden: Cp van water is een stuk hoger (4,18 kJ/kg.K) dan de Cp van lucht (~1 kJ/kg.K). Om hetzelfde koelvermogen te bereiken, zal een vier maal grotere massa lucht verplaatst moeten worden dan water. Om dezelfde reden kan een cluster compacter gebouwd worden. (een kg lucht is ~1,25 m3, water 1*10-3 m3)
het is dan wel pas in 2012...
duurt nog ff
Vind 10x sneller eigenlijk niet echt veel als je kijkt dat we dan weer 3 jaar verder zitten... over drie jaar hoef je dan alleen de nieuwste processor te gebruiken en je bent al 10x sneller!
:S
Oh ja? Is dat wel zo? Zo snel gaat cpu snelheid niet meer omhoog hoor. 5 jaar geleden had je al 3 ghz processors, en die heb je nu nog steeds. De trend is juist naar meer cores toe, en dat schaalt niet altijd goed met iedere applicatie (veel cores zijn alleen handig met meerdere threads, en niet ieder probleem is in threads op te splitsen).
Het gaat hier om flops. Deze nieuwe supercomputer heeft 10x zoveel flops als de vorige. Dit kun je simpelweg bereiken door er 10x zoveel processors in te stoppen. Of 5x zoveel processors die allemaal 2x zoveel flops doen. Of die flops worden gehaald door meer cores, hogere kloksnelheden of meer IPC (instructions per clock) doet er verder niet toe.

Je hoeft idd niet te verwachten dat de PowerPC port van Word nu ontiegelijk snel is, maar daar is deze supercomputer dan ook niet voor bedoeld. De algoritmes die hij wel gaat draaien zijn daarentegen doorgaans goed geparallelliseerd, en maken dus vrij efficient gebruik van alle mogelijke hardware threads in het systeem.

[Reactie gewijzigd door .oisyn op 3 februari 2009 14:41]

CPU snelheid in GHz? Je bedoeld clock snelheid.

Als je de totale CPU snelheid niet met 1 applicatie kan gebruiken betekend dat nog niet dat die CPU snelheid niet bestaat. Je kan altijd nog meerdere apps draaien zonder dat die eerste vertraagd.
Wat van Moore: elke 2 jaar verdubbelt de snelheid (en hij zit er nog steeds niet al te veel naast)
http://nl.wikipedia.org/wiki/Wet_van_Moore
Misschien moet je die pagina die je aanhaalt zelf even goed doorlezen, want de Wet van Moore heeft weinig met snelheid te maken :)
en 2^3=8

dus over 3 jaar zijn we 8 keer sneller
over 4 jaar 16 keer sneler!! (als de 1ste van moore het dan nog volhoud)
Elke 2 jaar.
Dus over 3 jaar hebben CPU's 21.5 ~= 2.8 keer zoveel transistors. En over 4 jaar 4 keer zoveel.
Misschien wel leuk om eens te proberen hetzelfde te bereiken met een bedrijfshal vol met relais 8)7
Als je het bron artikel leest dan zul je zien dat het om 1.6 miljoen cores gaat en niet om 1.6 miljoen processors.

"Sequoia will have 1.6 petabytes of memory feeding its 1.6 million cores, but many details of its design have not yet been disclosed."
Ik ben blij dat er competitie is in dit gebied, anders zou er veel minder vooruitgang geboekt worden.
Zou zonde zijn als dit ding allen zou worden gebruikt voor defensie. Je zou hier ook, bijvoorbeeld, klimaatsimuaties op kunnen laten draaien. De medische wetenschap zou er ook wel raad mee weten denk ik.
Of een spelletje go op/tegen spelen.
(Geef ik mezelf een goede kans ;-)
Seti@home op laten draaien O-)
Koop een paar uur tijd en doneer het. ;)

Supercomputers zijn traditioneel volgeboekt qua uren, ik betwijfel of dit sinds de jaren '40 veranderd is.
Ik denk dat The Pirate Bay binnenkort op zoek gaat naar een nieuwe host :+
Gewoon boinc op al die machines installeren om zo lekker de idle time te benutten.
Uiteraard wel een hele reeks (dan wel alle) projecten aanvinken!

Ik denk dat sommige van die projecten alleen maar kunnen dromen van zo een grote rekencapaciteit!
Bangelijk machientje :D
Ik kan me echt niet voorstellen dat al die rekenkracht daadwerkelijk nodig is.
Als het directX10 ondersteunt wil ik het wel :P

Nee nu even serieus: Wel een leuk feit dat dit gebouwd wordt, maar ik vond het idd ook meteen al vervelend dat het nou weer voor nucleare wapens gebruikt wordt. Ik vind het ook zeker een goede opvatting over klimaatsveranderingsberekeningen, :)
Nucleaire winter doorrekenen is ook een klimaatprobleem wat doorgerekend dient te worden. :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True