Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties

Het Amerikaanse bedrijf HP heeft in Las Vegas zijn eerste serie supercomputers aangekondigd. De Apollo-serie moet hpc-prestaties voor bedrijven bereikbaar maken; traditioneel zijn het vooral onderzoeksinstituten die van supercomputers gebruikmaken.

De eerste supercomputers uit de fabrieken van HP zijn al geleverd, voor testdoeleinden bij Intel en als onderzoeksplatform bij het Amerikaanse National Renewable Energy Laboratory. Intel gebruikt de Apollo 6000-serie om zijn processorontwerpen te simuleren, terwijl een Apollo 8000-systeem bij het NREL dienstdoet. De Apollo 6000-serie beschikt over 160 bladeservers per rack, terwijl dat er in de Apollo 8000-serie 144 stuks zijn. Desondanks is de Apollo 8000-serie de krachtigste - en duurste - van de twee.

Volgens HP krijgt de Apollo 8000-serie een prijs van enkele miljoenen dollars, waarmee duizenden petaflops aan rekenkracht in huis wordt gehaald. De Apollo 6000-serie, met 80 servermodules aan boord, zou 'slechts' ongeveer 150.000 dollar kosten.

HP Apollo 6000-chassisHP Apollo 6000-servers

De Apollo 6000 wordt opgebouwd uit 5U hoge trays met daarin maximaal tien trays of blades. Elke tray bevat twee nodes, waarbij elke tray is opgebouwd uit een HP ProLiant XL220a Gen8 v2 Server. Elke node in de tray is opgebouwd uit een enkele Xeon E3-1200 v3-processor met vier cores tot 3,7GHz en maximaal 32GB geheugen. De opslag bestaat uit twee 2,5"-drives. De voeding wordt geregeld door een aparte 1,5U-unit met maximaal zes 2650W- of 2400W-voedingen.

De Apollo 8000-serie is een systeem dat met water gekoeld wordt en per rack met 144 nodes wordt geconfigureerd. De servers worden met twee stuks in een tray gebouwd en bestaan uit HP ProLiant XL730f-servers, met twee processors per node. Elke server beschikt over maximaal 256GB geheugen, een 480GB-ssd en InfiniBand- en gigabit-interconnects. De Xeons zijn uit de E5-2600 v2-serie, met maximale kloksnelheden tot 3GHz en tien cores.

HP Apollo 8000-serversHP Apollo 8000-systeem

De waterkoeling bestaat uit een vacuümsysteem waarbij de servers een volledig gesloten heatpipe-systeem hebben, zodat hotswaps mogelijk zijn zonder kans op waterschade. Het koelwater kan gebruikt worden om met de restwarmte het gebouw bij te warmen; bij de NREL kan het ook gebruikt worden om in de winter de stoep ijsvrij te houden. De koeling zou stukken zuiniger zijn dan traditionele luchtkoeling via airconditioning. De Apollo-serie is per direct verkrijgbaar.

Moderatie-faq Wijzig weergave

Reacties (25)

De benaming voor deze HP supercomputer is opmerkelijk.
Apollo is het bedrijf wat 25 jaar geleden door HP gekocht is, alle Apollo namen zijn kort daarna uit het productaanbod verdwenen. Bron: http://en.wikipedia.org/wiki/Apollo_Computer

HP noemde zijn high line computers altijd Superdome's.
De superdome's zijn hun "mainframes"

Dit is een supercomputer, verschillende servers met een storage systeem die met een hoge sneleheids netwerk met elkaar verbonden zijn. We hebben hier ook eentje staan,

528 compute nodes with two Xeon E5-2670 processors (2,6GHz, 8 cores per processor, Sandy Bridge architecture) and 64GiB of memory, for a total memory capacity of 33 TiB and a peak performance of more than 175 TFlops (Linpack result 152,3 TFlops)

En dit is gewoon een HP "supercomputer"


De superdome's zijn zo ontworpen dat je onder normale omstandigheden het systeem nooit moet uitzetten, cpu's, harde schijven, ram, moederborden kunnen allemaal vervangen worden zonder dat het onderliggende operating systeem afgesloten moet worden,
bij supercomputers draait er op elke blade gewoon een appart os, dat afgezet moet worden als er een component vervangen moet worden.

Superdome's zijn dus nog een slag duurder dan supercomputers.

Verder is deze appollo gewoon een mooie naam voor hun watercooled rack oplossing, de hardware die er in zit kan je ook los kopen denk ik, echter is ze redelijk high density, waardoor je dus een zwaar koelsysteem zal nodig hebben om het met lucht te koelen, en wat dus meestal een groot datacenter met zich meebrengt. Met deze appollo kan je een rack kopen en ergens in een kast zetten...

[Reactie gewijzigd door Keneo op 11 juni 2014 15:01]

Vergeet de HP NonStop server lijn niet... Specifiek bedoeld voor bedrijfskritische databases en applicaties waar up-time en data-integriteit van levensbelang is. Je vindt deze systemen bij veel financiële instellingen, clearing en settlment instituten, telecom en in de 'manufactoring' sector. Je hoort niet veel van die NonStop systemen maar op veel plekken in de wereld gaat het online betalingsverkeer over deze systemen. Zie http://www.hp.com/go/nonstop
Maar Superdome's hebben altijd een HP-UX install erop.

wellicht dat ze hier het OS vrij willen laten ? of juist een ander segment aanspreken.
overigens zijn de Superdomes goed aan de prijs.
Goede kans dat hier inderdaad gewoon Linux op kan draaien met support in plaats van verplicht HP-UX.
Niet helemaal juist.
Superdome's waren niet exclusief geschikt voor HP-UX.
Dat er meestal HP-UX op gedraaid werd is wat anders.
HP noemde zijn high line computers altijd Superdome's.
Het is hun eerste supercomputer, niet geheel onlogisch dat je een nieuwe lijn een nieuwe naam geeft.

Het kan trouwens goed zijn dat de werknemer die deze naam bedacht heeft niet eens op de hoogte was dat ze een kwart eeuw geleden een bedrijf met die naam opgekocht hebben; dikke kans dat ie gewoon de naam van de Griekse god van de kennis toepasselijk vond (en met de door SpaceX vernieuwde belangstelling voor ruimtevaart is het ook geen slecht idee om de naam van het beroemdste programma van NASA lekker te recyclen).
De waterkoeling bestaat uit een vacuümsysteem waarbij de servers een volledig gesloten heatpipe-systeem hebben, zodat hotswaps mogelijk zijn zonder kans op waterschade. Het koelwater kan gebruikt worden om met de restwarmte het gebouw bij te warmen; bij de NREL kan het ook gebruikt worden om in de winter de stoep ijsvrij te houden.
Ondanks dat ik het instituut NREL wel ken, zie ik niet geheel in hoe deze paragraaf logisch uitvoerbaar is?

Het gesloten vacuumsysteem voor de koeling ziet er niet uit alsof het groter is dan 19" breed en maximaal 2U hoog. Ook zie ik geen warmtewisselaar of ander systeem in place voor overdracht van warmte van de koeling naar een extern systeem. Hoe wordt dan het verwarmde koelwater "verplaatst" van server-ruimte naar stoep om daar de sneeuw te doen smelten?

/edit: gevonden in de PDF's. Het systeem blijft vacuum door een sterke pomp bij de grotere/duurdere Apollo-systemen. Hier lijkt ook een hotswap mogelijk omdat je componenten makkelijk kan wisselen zonder dat het koelsysteem dan lekt. Door de extra mogelijkheid van HP om een intake/outtake te realiseren, kan je dus verwarmde koelvloeistof wel door de stoeprand leiden.

[Reactie gewijzigd door MAX3400 op 11 juni 2014 13:23]

Met een pomp?
Maar om die pomp er tussen te plaatsen/aan te sluiten zal je je vacuum verliezen. Ik snap hem ook niet helemaal hoe ze dat willen bewerkstelligen
het is water gekoeld dus de warmte die in de servers modules ontstaat wordt via de heatpipes afgegeven aan het grotere waterkoelings systeem. de server modules zijn hot swappable en zoals ik het lees zit daar het vacuum gedeelte in; dus geen verlies aan de omgevings lucht, maar alles naar het waterkoelings systeem. De pomp valt dan sowieso buiten het vacuum gedeelte en kan pompen waar je de warmte maar wil hebben.
Dat vacuum gebeuren is vooral bedoeld richting het 'hot swap' aspect van het verhaal, wat uiteraard zeer interessant is voor zo'n enorme supercomputer waar je feitelijk 18 nodes (lees: computers) per 5U hebt. Dat is dus pak hem beet 72 'computers' per 42U kabinet.

Als je -ELKE- node afzonderlijk van waterkoeling moet voorzien betekent dat dus dat je -per node- een gesloten systeem moet hebben van pomp+warmtewisselaar.
Als je -ELKE- node op hetzelfde koel systeem kunt aansluiten is dat veel efficiënter en goedkoper.. probleem echter daarvan is dat je HEEL je cluster plat zou moeten leggen om één kapot onderdeel in één node te vervangen.. en dát is nou dus het selling point van deze oplossing.. dat het allemaal seamless interconnected is en tegelijkertijd nog wel hot-swap ondersteunt.
Ik denk dat duizenden petaflops een beetje overdreven is aangezien de snelste supercomputer 'slechts' 33 petaflops haalt.
In het document van de Apollo 8000 staat:
That allows extremely dense configurations that deliver hundreds of teraflops
of compute power in a very compact space with up to 80 kW of power (4 x 30A 3ph 480AC)
supporting up to 144 servers per rack.
Dus dit is inderdaad een beetje overdreven, hoewel hundreds of teraflops al wel bijna naar de petaflop (1000 x teraflop) gaat.
Ik ging er al vanuit dat het niet helemaal klopte. Misschien moet het tweakers-artikel even aangepast worden?
Feedback-knopje kan je onder de titel vinden ;)
The HP Apollo 8000 System reaches new heights of performance density with more than 250 teraflops per rack with ProLiant XL730f Servers.

Voor zover ik uit de PDF kan halen van HP, heeft NREL 6 racks afgenomen. De prijs is niet bekend maar hiermee kom je inderdaad "maar" op 1.5petaflops.
InB4 'Will it run Crysis?"
Waarom zou intel hardware van hp gebruiken?
Kunnen ze zelf veel beter bouwen (beter dan iedereen) lijk mij zo.

Verder is het natuurlijk vreemd dat dingen als olie en waterkoeling nog niet echt zijn doorgebroken in veel datacentra.
Intel en HP hebben altijd innig samengewerkt in de ontwikkeling van CPU's.
Denk maar eens aan de Itanium processor welke door HP en Intel is gemaakt.
Veel HP engineers zijn ook terecht gekomen bij de R&D van Intel.
Hmmm ja maar toch verwachtte ik dat Intel custom next-next-next-next gen systemen heeft staan om de next-next-next-next-next gen cpus te kunnen berekenen :P
Tot er een lek ontstaat, dan snap je waarom niet :)
'slechts' 150.000 dollar.

Joh, die heb ik thuis staan ;)
Inderdaad, duizenden petaflops voor een paar miljoen, dat klinkt wat al te schappelijk :)
Dit is natuurlijk wel een stap voor HP met gemengde gevoelens, het is duidelijk dat deze vlaggeschip/showcase supercomputer in plaats van hun eigen Itanium nu op basis van x86 chips is gebouwd, waarvan HP had gehoopt dat die anno 2014 in serverland niet meer zouden bestaan. Natuurlijk had HP altijd al kleinere x86 servers, maar dit is toch wel het duidelijk einde van HP's Itanium droom. Zal Poulson uit 2012 dan inderdaad de laatste Itanium versie zijn waar HP nog de portemonnee voor trekt?

En voor Intel is dit ook een mooie showcase in de prestigestrijd met IBM's Power 7+ en Oracle's SPARC M5/T5. Ivy Bridge-EX doet echt mee in de big league. Weinig tweakers zullen het zich realiseren, maar het is razend knap dat 1 uarch zo goed schaalt, van ~10W tablet chips tot aan gigantische multisocket servers.

[Reactie gewijzigd door Dreamvoid op 11 juni 2014 21:12]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True