Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Submitter: Jermak

HP heeft zijn Redstone-lijn servers met zuinige ARM-chips geopenbaard. Het prototypesysteem bevat 288 ARM-quadcores van het bedrijf Calxeda in een 4u-behuizing. HP werkt onder de naam Project Moonshot aan zuinige servers.

De eerste Redstone-servers komen in de eerste helft van volgend jaar in beperkte oplage beschikbaar voor een selecte groep klanten van HP. De systemen worden uitgerust met ECX-1000 EnergyCore-system-on-a-chips van Calxeda, die opgebouwd zijn rond twee of vier ARM Cortex A9-cores met een kloksnelheid van 1,1 tot en met 1,4GHz. De soc's zijn geoptimaliseerd voor gebruik in servers en ondersteunen onder andere vijf externe en drie interne 10Gb-kanalen, ipmi 2.0- en dcmi-beheerprotocollen, en netwerk proxy-ondersteuning voor het behouden van de netwerkverbinding, zelfs als de node uitgeschakeld is.

HP Redstone Platform 1 HP Redstone Platform 2

Calxeda levert vier soc's op een systeemkaart en voorziet deze van vier geheugenslots en pci-interconnects. HP kan bij Redstone-trays drie rijen van zes kaarten plaatsen, voor een totaal van 72 ECX-1000-soc's. Door vier trays in een ProLiant SL6500 4u-behuizing te plaatsen, ontstaat een server met 288 servernodes. De server bevat drie psu's en acht fans.

De EnergyCores gebruiken slechts 1,5W, wat minder is dan de ongeveer 8W die bijvoorbeeld Atom-chips gebruiken. HP maakte overigens ook bekend dat toekomstige servers van Project Moonshot over Intel Atoms gaan beschikken. HP richt zich met het project op het ontwikkelen van zuinige servers voor grote bedrijven die webdiensten aanbieden en zich geconfronteerd zien met een groeiend serverpark en oplopende energiekosten. Volgens HP zijn de systemen van Project Moonshot een aanvulling op de huidige Proliant-systemen, die met traditionele Intel- en AMD-serverchips uitgerust worden.

Onduidelijk is of HP het eerste resultaat van Project Moonshot, de Redstone-servers, volgend jaar ook commercieel uitbrengt en wat deze dan gaan kosten.

Moderatie-faq Wijzig weergave

Reacties (44)

En dit moet neem ik aan onder Linux gaan draaien?

En hoe gaat het werken met memory?
- Een ARM Cortex A9 bevat geen 64-bits ondersteuning...
- Gaan die 288 cores dan niet of niet allemaal met NUMA in één gedeeld stuk geheugen werken?

Ik heb even gezocht maar kon dat soort details niet vinden...
Het zijn geen 288 cores maar 288 processors (4 per node, 18 nodes per blade en 4 blades in 1 chassis). Iedere node heeft 4 geheugenmodules welke ieder 4GB geheugen kunnen bevatten voor 16GB per node. Hier staan de techspecs van de ECX-1000.
Iedere node (processor) heeft één geheugenmodule tot z'n beschikking, je hebt 4 nodes per kaart, 18 kaarten per blade en 4 blades in 1 chassis.

Dus: 72 EnergyCards met 288 EnergyCores/Nodes. Elke EnergyCard heeft 4 geheugemodules.

Je hebt dus 4GB per node/processor, wat overeenkomt met de 32bit addresserings limiet.
64 bits ondersteuning heb je ook niet nodig. Dat is leuk als je een boel servers in virtual machines wilt draaien op een krachtige cpu. De bedoeling hiervan is (waarschijnlijk) dat je niet virtualiseert maar één of een paar servers op direct op een node van 4 SoC's laat draaien.
Een paar jaar geleden had ik verwacht dat Intel het ARM moeilijk zou maken door zich meer op de embedded markt te focussen, maar het tegengestelde lijkt nu te gebeuren doordat ARM dit soort dingen aan het ontplooien is.
Het is eerder HP dit dit gaat aanbieden en niet specifiek arm. Daarnaast moeten er eerst eens benchmarks komen om te kijken welke prestaties de server nu echt heeft.

Arm klinkt leuk maar als ze echt nu zo veel sneller zouden zijn als server cpu zouden er misschien al meer servers zijn. Daarnaast is dit misschien ook een server voor een hele specifieke toepassing
Het huidige probleem is dat servers traditioneel uitgerust worden met hele krachtige chips, terwijl veel servers (bijv. web-servers), eigenlijk niet zoveel zwaar rekenwerk vereisen, maar vooral I/O, en vooral veel parallel werk. En dan zijn veel lichte procjes heel voordelig, je hebt bijv. minder last van het continue manipuleren van threads over een beperkt aantal processoren.
Dedicated servers bestaan dan ook bijna niet meer, praktisch gezien, tegenwoordig wordt alles gevirtualiseerd ipv geblade.

Ik zou dus willen weten hoe de performance/watt is van dit chassis met 288 quadcores versus hetzelfde maatje chassis met een quadsocket, 10 core per socket, hyperthreading, dus 80-thread machine met 192 GB ram en een nette hypervisor erop.
Alles staat of valt met het doel van betreffende server. Als je voor dikke virtualisatie op 1 server gaat (consolidatie van rackspace) dan heb je hier gewoon niets aan.
Workloads Suited for Calxeda's Architecture

Applications such as scalable analytics (e.g. Hadoop), static web hosting, lightweight web applications, applications written in Java or other interpretive languages are all good candidates. These applications workloads typically have a set of common characteristics such as:
  • Ability to scale out efficiently with multiple processors
  • Have relatively small memory requirements (< 4GB per process)
  • Have relatively light computational requirements per thread
  • Have high memory, I/O, and networking bandwidth requirements relative to CPU
  • Typically run at low utilization on standard processors
Some specific application that exhibit these traits include:
  • Map-Reduce Applications
  • Simple database searches on large in-memory databases
  • Memcached
  • Video Servers
  • Big-Data-oriented search systems
  • HPC workloads that have high I/O requirements per computational load and that scale out well, such as Seismic processing.
  • Gaming
  • Financial Modeling for trading and risk analysis systems

[Reactie gewijzigd door Xorsist op 2 november 2011 19:33]

ARM is sterk in 'physicalization', en dat is het omgekeerde van virtualisatie. Voor wie het uitstekende ARS-artikel van twee jaar terug gemist heeft:

http://arstechnica.com/bu...cs-of-physicalization.ars
Het gaat sowieso niet om een server. Het gaat dus om een hele hoop kleine serverworkloads. En de vraag is of dat efficiënter gaat op een hele troep aan kleine servertjes, of juist op een midrange dual-tot-quadsocket serverbak met virtualisatie.

Alles wat je op physicalised (goed woord ervoor, bedankt hieronder) servers als deze gaat draaien kan ook op een dikke bak met een hypervisor, alleen kan die laatste ook grotere workloads aan en is dus inherent wat flexibeler.

Zo'n physicalised server moet dus -- nog steeds -- significant beter zijn in performance/watt dan de virtualisatie methode om de mindere flexibiliteit te kunnen overwinnen. En daar ben ik dus heel benieuwd naar.
maar als ze echt nu zo veel sneller zouden zijn als server cpu
Cortex A9's kunnen makkelijk draaien om 3.1gHz - aldus TSMC (die maken ze, dus die zullen het wel weten).

Maar waarom doen ze dat niet? O ja, omdat de potentiele klanten geen drol om snelheid geven! Die zetten een data-center in de Eemsmond o.i.d, en waarom denkt u dat u zo'n ding ten Noorden van Groningen weg zou kwakken? Omdat daar zoveel slimme mensen wonen? Omdat het zo makkelijk te bereiken is, o.a. met OV? Omdat het zo lekker centraal ligt?

Allemaal nonsens natuurlijk, dat is omdat daar de energiecentrales zijn. Wat voor de datacenters van vandaag belangrijk is, is hoeveel Watt koeling per m2 nodig is. En daar scoort ARM veel beter dan Intel.
Wat doen die sata connectors op die borden?
Iedere energycard ondersteund een DAS van 16 schijven (4 per soc). Daarnaast kunnen er ook 4 microsd kaartjes aangesloten worden om een OS mee te booten.
Als je de afbeeldingen bekijkt lijken de EnergyCards zo dicht op elkaar te zitten dat het haast wel onmogelijk lijkt om er S-ATA kabels in te pluggen.
Daar heb je helemaal gelijk in, maar die energycard ondersteund zowel DAS als NAS voor harddisk communicatie. Als ik zo de connectoren van die energycard (een reference design) bekijk lijkt het op 2 PCI-E connectoren welke in lijn staan. Gezien het feit dat de processor welke op deze kaarten zit de PCI-E 2.0 standaard ondersteund lijkt me dit de gemakkelijkste manier om die kaarten aan te sturen cq een communicatie pad te geven.
PCI Express
Four (4) integrated Gen2 PCIe controllers
One (1) integrated Gen1 PCIe controller
Support for up to two (2) PCIe x8 lanes
Support for up to four (4) PCIe x1, x2, or x4 lanes
Helaas is hier geen informatie over te vinden maar indien het DAS gedeelte noodzakelijk is lijkt het me het simpelst om de afstand tussen de kaarten te vergroten. Vergeet niet dat dit een reference design is en dat middels de onderliggende fabric (waar de kaarten in gestoken worden) alle kanten op gegaan kan worden.
ik vraag me toch af veel software ondersteund nu een 4 core al niet goed hoe werkt dit op servers met vele malen meer cores is dat gewoon betere software of worden de cores toegewezen aan services zodat iedere taak een eigen core heefd.
De meeste software voor servers is al lang geoptimaliseerd voor meerdere cores. Dus dat zal hier geen probleem zijn. Het zal hem waarschijnlijk eerder liggen in de optimalisaties voor de ARM structuur en het ontbreken voor optimalisaties voor deze specifieke geheugen config.
zou de servervariant van windows 8 deze lusten?
de arm variant waarschijnlijk wel dus.
Dit kan toch echt nog kleiner gemaakt worden.
In productie lijkt het me toch beter om bijvoorbeeld 8 CPU's in een box te stoppen en die samen als een unit te verkopen, met 36 units zit de server dan vol. Je gaat niet voor dit soort oplossing als je per single CPU wilt uitbreiden toch? Die 8 CPU's kunnen dan veel dichter op mekaar waardoor het geheel maar 2U hoog hoeft te zijn en de productiekost verlaagd hiermee ook nog eens.
Verder zal het energieverbruik sterk afhangen van het intelligent beheren van de CPU's en van de benodigde koeling, want deze moet ook niet full power blijven gaan als de belasting laag is. Ben benieuwd hoe dit uiteindelijk zal werken en vooral wat dit zal kosten.
Het geheel is maar 2U hoog. Er gaan niet voor niets 4 van die blades in 1 4U server ;)
De modules zelf bevatten 4 processoren dus uitbreiding geschied per 4 processors.
De modules zelf gebruiken maximaal 25 Watt en dat is full load met 4 geheugenmodules.
Ik kan het niet zo goed uit de specs halen, maar is dit nu met of zonder RAM? Het lijkt alsof de EnergyCore de zonder word geleverd, dus komt dat dan nog bij die 1.5W? En is die 1.5W voor de 2 of 4 core versie? Of maakt het zo weinig dat het niet uit maakt?

Met 1.5W is dit een zeer zuinige server natuurlijk als je hem vol stouwt. Mijn PC gebruikt dat al snel bij het gamen denk ik.

@Gotcha92:
De ROI zal ook wel een stuk sneller zijn dan bij een "gewone". Waar je het milieu spaart, spaar je ook op de stroomrekening.

@EraYaN
Ja haha, 288*1.5 komt toch aardig in de buurt van de 500W.

[Reactie gewijzigd door LOTG op 2 november 2011 16:00]

Volgens Calxeda zit het als volgt:

Men neme 4 quadcore Cortex A9's SoC's - genaamd EnerrgyCore,
Die stopt men op een soort 'moederbordje' genaamd EnergyBoard,
in dat moederbordje zitten 4 mini-DIMM sloten voor 4GB/slot,
dan is het ding ontworpen om max. 25W te dissiperen, in de praktijk 5W max. per node, en kan passief gekoeld worden.

Nu kan het ding opgeklokt worden tot 1.9gHz, maar HP klokt ze niet hoger dan 1.4gHz kennelijk, dus ze zullen wel minder dan dat verbruiken.

Bron hier inc. mooie pica.

[Reactie gewijzigd door kidde op 3 november 2011 00:44]

Even naar je link gekeken, er staat 5W per node, elk bord heeft 4 nodes, dus verbruik van het bord is 20W.

Ik weet niet of hier gebruik van geheugen al bijgenomen is, maar zuinig DDR3(?) geheugen gebruikt ook al snel 1W per module, dus dan zou je misschien zelfs al aan 24W komen.


Ik vraag me af hoe de prestaties hiervan liggen t.o.v. een Atom server.

[Reactie gewijzigd door knirfie244 op 3 november 2011 12:50]

Jou pc 1.5W? Tijdens gamen? WOW. nowai dus.
1.5 W lek stroom heeft die van mij hier. of nog meer. Eerder 500W tijdens gamen. En als je pc SLI/Crossfire is.. 800-1000W gaat er dan ook wel doorheen.
Gelukkig zijn we bij openSuSE ook aan ARM aan het werken net als veel andere Linux distro's.
De kosten van dit product versus een ander gelijk product zullen de doorslag gaan geven. Als je de energie winst er qua kosten nooit uit kunt halen dan is het voor de meeste bedrijven niet interessant, enkel voor hen die zich als heel groen willen presenteren.
ik dacht dat er een "redstone" server uitkwam met een server pc met 288 ARM quad cores
zodat de server niet lagged als er superveel dingen zijn :P

ik denk al.. wat moet HP hier nou mee?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True