Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 25, views: 36.180 •

HP heeft de eerste Moonshot-servermodellen aangekondigd. De Moonshot-systemen draaien op Intel Atom-cpu's maar er zullen ook ARM-versies uitkomen. Volgens de computerfabrikant zijn de compacte en energiezuinige Moonshot-servers bij uitstek geschikt voor moderne datacenters.

HP werkt al enige tijd aan een nieuwe opzet voor zijn serverproducten onder de noemer Project Moonshot. De computerfabrikant stelt dat de Moonshot-technologie zeer compacte servers mogelijk maakt waarbij voor uitbreiding van de rekenkracht extra cartridges in een rack geplaatst kunnen worden. Volgens HP is het mogelijk om in een enkel 47U-rack tot 1800 servers te plaatsen, tot acht maal meer dan met conventionele servers. Daarnaast wil HP energiezuiniger processors gaan gebruiken, waardoor het stroomverbruik flink gedrukt moet gaan worden.

Voor de Moonshot-cartridges wil HP een breed pallet aan ondersteunde chips gaan aanbieden. Zo heeft het bedrijf plannen om ARM-socs te gebruiken van de firma Calxeda; een experimenteel systeem werd vorig jaar november gepresenteerd als de Redstone-lijn. Ook wil HP chips van AMD, AppliedMicro en Texas Instruments gaan leveren en naast cpu's ook gpu's, apu's, dsp's en fpga's in het assortiment opnemen. Hierdoor zouden klanten gemakkelijker gespecialiseerde systemen kunnen opbouwen.

HP Moonshot 1500 Chassis
Het eerste concrete Moonshot-product dat HP voor een marktintroductie heeft aangekondigd, is de ProLiant Moonshot Cartridge waarin dualcore Atom S1260-processors van Intel zijn te vinden met een kloksnelheid van 2GHz. Ook beschikt elke module over 8GB werkgeheugen, een harddisk en een gigabit-netwerkaansluiting. Volgens HP is de geboden basisconfiguratie, waarbij in een enkele Moonshot-server 45 cartridges geplaatst kunnen worden en maximaal 40 Moonshot-servers in een rack, bijvoorbeeld inzetbaar als een webserver.

De prijzen voor een Moonshot-systeem met Atom-cpu's, die standaard op Linux zullen draaien, beginnen bij 61.875 dollar voor een Moonshot 1500 Chassis met 45 Moonshot Cartridges en een geïntegreerde switch. De hardware is vanaf deze maand in de VS verkrijgbaar en in de loop van dit jaar moeten ook andere configuraties beschikbaar komen.

HP heeft grote verwachtingen van Project Moonshot en stelt dat dergelijke modulaire, compacte en energiezuinige technologie noodzakelijk is om in de toekomst datacenters efficiënt uit te kunnen bouwen. De serversystemen zullen daarnaast het nodige geld in het laatje moeten brengen, omdat HP het als onderneming nog steeds moeilijk heeft. Bovendien kiezen steeds meer bedrijven, en dan met name grote internetondernemingen als Google en Facebook, ervoor om eigenhandig serversystemen in elkaar te zetten uit onvrede over de generieke serverhardware van fabrikanten als HP.

Moonshot Server-cartridge van HP

Reacties (25)

Heel erg interessant, met name voor hosting natuurlijk.
Opzich een gedurfde zet van HP, tegenwoordig wordt er dermate veel gevirtualiseerd zodat je gewoon 1 zware bak plaatst met daarin tig virtuele servers.
Daar komt bij dat er geen enkele vorm van redundancy is binnen een cartridge (1 schijf met geen optie voor raids).

Interessante ontwikkeling met vast veel toepassingen, maar ik vraag me af of het opweegt tegen de vele voordelen van virtualisatie.
Het is een kwestie van uitrekenen.
Als je voor dezelfde prijs een 'echte' machine hebt staan waarvoor je normaal gesproken een virtuele laat draaien. Dan moet je ineens rekening gaan houden met hele andere feiten.

Mocht een van je cartridge afsterfen dan is niet je hele server weg. Hooguit 1 van de 'virtuele machines'. Als er nu iets afsterft op een, niet redundant uitgevoerde server, heb je al gauw een uitdaging te tackelen.

Ik ben vooral benieuwd hoe het financieel uitpakt ten opzichte van de moderne gewone server met keiharde hardware. Het doet mij een beetje denken aan kwantum modulair opbouwen. Allemaal kleine onderdelen die zich gedragen als 1 groot ding.
Ik denk dat hier enorme winst is te behalen met energie besparing.
Zet eens 1500 cores conventioneel neer in een ruimte bereken 1 de hoeveelheid ruimte die je nodig hebt . en 2 hoeveel koeling je dan nodig hebt.
en doe de zelfde berekening voor dit apparaat. trek dat van elkaar af doe dat eens maal 2 of 3 jaar dan heb je een enorme besparing ik denk dat dit zijn kosten wel opbrengt zeker als je er een stuk of 100 hebt staan.
dan heb je een enorm volume besparing wat niet gekoeld hoeft te worden. stel dat je een 1/4 van je center overhoud. Koeling is 1 van de grootste kosten posten van een data center.

nu intel of samsung SSD's er in hangt IPV een conventionele harddisks. en je bent nog zuiniger.
Omdat je natuurlijk veel meer CPU´s nodug hebt om dezelfde performance te halen dan met top of the line CPU´s zal dat uiteindelijk wel weer mee vallen.

Ben erg bang dat eind van dit jaar met de nieuwe i reeks deze ontwikkeling wel weer eens kon eindigen.
Klopt waar het uiteindelijk om gaat de de snelheid per watt. Atom cpu's verbruiken dan wel minder maar ze staan ook niet bekend om hun supper performance. Natuurlijk als je er 45 hebt x dual core is 90 cpu klinkt dat leuk. Intel heeft al 8 cores, met hyperthreading 16 cores. Neem er daar 6 van en je zit al op 96 cores.

S1260 heeft tdp van 8.6 watt x 45 = 387 watt

vergelijk dat bijv met: Xeon® Processor X5690
6 cores met hyperthreading 12
tdp 130 watt

Neem dat x3 dan heb je 390 watt.
6x3 18 echte cores x 2 = 36 met hyperthreading.

De vraag is nu is deze sneller dan 45 atom modules.
De XEON zal veel sneller zijn.
Xeon is een gedrocht dat in het verleden is gebouwd met enkele gedachtes in het achterhoofd.

Met de juiste hardware, software en support is het een snelheidsmonster. Probleem is dat het praktisch custom-made is wat de prijs de lucht in laat schieten en dat specifieke problemen niet altijd snel/vaak opduiken waardoor het langer duurt voordat het wordt opgelost. Ondertussen staat je systeem stil of loopt het sub-optimaal.

Google heeft in het verleden verschillende malen aangetoond dat je servers in elkaar kunt zetten met standaard hardware die net zo goed of betere prestaties zetten dan een dure server met bijkomend support-contract.
Nee, dat zijn Itaniums, Xeon's zijn gewoon de server tegenhangers van de normale CPU's en zijn helamaal niet specifiek maar juist heel erg generiek.
Ik denk dat je dit combineert met virtualisatie: Door de resources van deze machines te poolen tot één virtuele host, behaal je schaalbaarheid (gewoon een paar extra modules bijprikken) en (een deel van) resilience (fout op een enkele module leidt tot capaciteitsvermindering voor je pool, niet to uitval van services.
maar ik vraag me af of het opweegt tegen de vele voordelen van virtualisatie.
Nee, en weet u wat: Daar is het ook helemaal niet voor ontworpen, want dat was ook helemaal niet de vraag van Facebook, Google en vermoedelijk Amazon, Apple en Microsoft. Ze willen geen computer, of SoC; eigenlijk willen ze geen "systeem" in de populaire zin van het woord.

Wat ze wel wilden, was flexibiliteit, hardware voor een gedistribueerd OS waar het niet uitmaakt waar hardware zich bevind. Harddisks om de 5 jaar vervangen, maar CPU's ieder jaar. Hoe doe je dat goedkoop? Niet ieder jaar alle harddisks uit een systeem schroeven en vervangen.

Nee, je pakt het op z'n Plan 9's / Inferno's aan (of het MS-aftreksel genaamd "Singularity?") en bouwt een gedistribueerd / grid-OS (of applicatie): Je douwt alle CPU's in 1 computer (die meerdere server's / racks kan omspannen, dat boeit de software toch geen hol), alle GPU's in een andere en alle opslag doe je in de 3e computer. In een 4e stop je TI DSP's die geoptimaliseerd zijn voor bijvoorbeeld gezichtsherkenning, mocht je dat willen (ook al wil je publiek het niet, voor interne data mining is het altijd handig). En voor een speciale taak douw je allemaal FPGA's in computer nummer 5.
In Plan9 zouden de CPU / GPU en bijv. DSP's over een netwerk-protocol met elkaar communiceren (Styx, o.a. bedacht door 1e succesvolle MULTICS-implementeerder Dennis Ritchie), maar mogelijk hebben FB en consorten daar iets beters voor bedacht.

Vervolgens is het heel simpel: Je vervangt gewoon ieder jaar de complete CPU-computer, en de opslagcomputer mag lekker blijven. Blijkt nou dat in een keer dat Applied Micro ARMv8 (64bit) processoren maakt die beter zijn dan die van x86's van Intel, althans beter geschikt voor een bepaalde workload? Nou, dan plug je die Applied-Micro meuk in, Python voor ARM installeren en apps testen, werkt het dan pleur je gewoon die Atom $61 875 computer bij het grofvuil of op Marktplaats, lekker boeien als je per jaar $100.000 aan stroom kan besparen voor een bepaalde taak. En draaien je apps beter op Nvidia CUDA GPGU's dan op die Applied Micro's, dan pleur je dat ARM-rack er gewoon uit en zet je een GPU-rack terug. Dat is waar de grote cloud-boeren op zitten te wachten.

Als HP of AMD dat kunnen leveren, zijn ze dik binnen.

[Reactie gewijzigd door kidde op 8 april 2013 23:06]

Als ik met dergelijke systeempjes mijn 1 C7000 enclosure moet vervangen, dan kost me dit toch meerdere racks?

Met een C7000 ben ik 10 U kwijt, dan kan ik er nog 4 in een rack duwen (wat ik niet doe, maar het gaat om plaats), bovendien zitten de switches op de C7000 geintegreerd achteraan (Flex10), dus ook geen plaatsverlies.

Ik kijk ernaar uit, ben ook genoodzaakt te bezuinigen, maar laat me dan maar gewone blades toevoegen en virtualiseren.

[Reactie gewijzigd door tellen op 8 april 2013 20:14]

om nog maar te zwijgen van het feit dat je een 4.3U chassis half uit je rack moet sleuren om een cartridge te vervangen en je je storage maar op 1 schijf kwijt kan (dus geen raid)
Local storage is enkel voor boot (in een normale configuratie). Als die boot schijf stuk gaat moet je deze toch al fysiek vervangen.
Als je toch al gedwongen bent tot een high availability / failover oplossing, kun je je de kosten van een redundante boot-storage weer besparen ( controller + extra disk ).
En dit systeem is ontworpen/bedacht waarbij op voorhand bekend is dat deze met enige regelmaat uit het rack gehaald moet worden. Je mag dus aannemen dat de rails/montage hier op berekend is, dus dat 'sleuren' zal fysiek wel wat meevallen ( goede degelijke rails / montage ).
nu moet je direct volledige fysieke servers gaan vervangen ipv failover components, qua maintenance cost kan ik moeilijk geloven dat dit goedkoper is.
Wat wel weer zo is, is dat je nu een complete module in een keer vervangt. Dus cpu gpu en HDD. Als je dus nog niet weet wat het is en je hebt er maar een paar kost het behoorlijk veel tijd om alles na te lopen en in die tijd kan je een deel van je capaciteit niet gebruiken. Nu prik je gewoon een reserve systeempje er in en je hebt rustig de tijd een reparatie goed uit te voeten zonder dat je heel lang met prestatie verlagingen zit. Mocht je toevallig een keer een maand meer Grafische rekenkracht nodig hebben kan je een deel vervangen zonder dat je een compleet rack moet versjouwen plus dat de flexibiliteit veel groter is dan met conventionele servers. Dit is dus zeker wel een goed opzet. De prijs valt ook wel mee. 45 krachtige multicore CPU's die redelijk zuinig zijn, 45x8Gb server geheugen. 45 hotswappable bays rack erbij en nog wat spul voor ¤55.000. Een groot datacenter kan daar zeker wel wat mee.
Er zal best een markt voor zijn. maar voor 62k USD.....
Dat is 1375 per server. voor een atom server lijkt me dat een beetje te veel van het goede.
En ik weet dat de prijs gunstiger uit gaat pakken als je rackspace, netwerking, power en koeling mee gaat rekenen, maar ik zie dit niet als concurrent voor de virtualisatie oplossingen welke op dit moment al beschikbaar zijn.
zet eens 1375 cores conventioneel neer en probeer dat eens te koelen.
doe dat eens maal 20 en zet eens 20 van deze machines neer doe de berekening nog een keer.
bereken dan eens het verschil wat je nodig hebt om te koelen. Omdat dit compact is neem ook eens mee dat je veel minder volume hoeft te koelen stel dat je de 1/2 minder lucht hoeft te koelen. Dan doe je het doe dat eens maal 3 jaar ...... dan zie je besparing enorm op lopen

koeling is 1 van de grootste kosten posten voor een data center.
atoms zijn voor simpele dingen/taken veel beter in te zetten dan dure xeon cores.
een web server heeft vaak niet veel nodig betalings afhandelingen ook niet. een data back up server heeft ook niet veel CPU power nodig als je er goede hardware in hebt zitten.
dus als je dit gaat inzetten voor taken die het systeem aan kan verdient een systeem als deze zich gewoon terug.
Het zijn 45 (dual core) Atom servers die omgerekend 1375 euro per server gaan kosten. 1375 euro voor een atompje is best prijzig en dat is wat McBurger bedoelt.

90 cores is best koelbaar. 16 in een Xeon 26xx server tegenwoordig, dus met 6 1 U servertjes of blades ben je rond.
Verschil is alleen wel dat je met dit systeem net geen 230 servers in dezelfde ruimte kwijt kan.
Ik vind 't maar een raar ding: Heeft wat weg van de DL580 qua formaat, en van wat ik in de spec sheet las, ook 1200W voedingen. Maar die Atom modules moet je aan de bovenkant inpluggen, dus dat ding moet inclusief de steeds groter wordende kabelboom het rack uit geschoven worden voor uitbreiding. Daarnaast is de prijs behoorlijk hoog tov een DL580, en daar kan je 4 flinke CPU's in proppen, 2TB aan ram en nog een aantal disks. De hoeveelheid VM's die je dan kwijt kan is meer dan 45. Sowieso is zo'n Atom module niet uitbreidbaar, en met VM's is dat een stuk beter mogelijk.. Al met al denk ik niet dat ik die erg snel in ons datacenter zal zien komen.
Ik vind 't maar een raar ding: Heeft wat weg van de DL580 qua formaat, en van wat ik in de spec sheet las, ook 1200W voedingen. Maar die Atom modules moet je aan de bovenkant inpluggen, dus dat ding moet inclusief de steeds groter wordende kabelboom het rack uit geschoven worden voor uitbreiding. Daarnaast is de prijs behoorlijk hoog tov een DL580, en daar kan je 4 flinke CPU's in proppen, 2TB aan ram en nog een aantal disks. De hoeveelheid VM's die je dan kwijt kan is meer dan 45. Sowieso is zo'n Atom module niet uitbreidbaar, en met VM's is dat een stuk beter mogelijk.. Al met al denk ik niet dat ik die erg snel in ons datacenter zal zien komen.
Ik denk dat het vooral gemaakt is voor een echt specifieke markt waar een applicatie op meerdere servers draait.
Veel kabels gaan er niet zien. De kabels zallen vast achteraan zitten en er zal wel een gelijkaardig systeem inzitten als de HP MDS600
Absoluut, een traditionele enterprise omgeving of zelfs KMO heeft aan deze oplossing volgens mij niet veel. Het grote voordeel hieruit is dat je echt de servers gaat bekijken als een "bouwblokje" in een hele cluster, gaat er een down maakt het allemaal niet uit bij bv. een webserver-farm of een rekencluster. Bij de traditionele approach, zelfs met virtualisatie, worden de meeste beheerders in een KMO of enterprise al redelijk "zenuwachtig" als een van hun (vaak in totaal maar 3) hypervisors er uit ligt (niet dat met deze bakjes te virtualiseren valt waarschijnlijk).

Maar je hebt gelijk, ik denk dat dit systeem vooral voor scale out applicaties in bijzonder grote omgevingen heel specifiek gericht is. Denk maar aan een traditioneel 3-tiered applicatie (DB - middle - front) kan dit product prima de laatste twee tiers op zich nemen...

[Reactie gewijzigd door HyperBart op 9 april 2013 11:37]

Er zitten twee switches geintegreerd, de enige kabels zijn dan uplinks naar deze switches (6x 10 Gbit), dus dat valt wel mee.
Die ene schijf maakt toch niet uit? Je hebt redundantie door meerdere servers te gebruiken. Het zou zomaar kunnen dat dit systeem meer gebruikers per Watt oplevert en dat is de norm tegenwoordig.

[Reactie gewijzigd door Inkjet op 8 april 2013 22:19]

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Samsung Smartphones Beheer en beveiliging Google Apple Sony Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013