Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 22, views: 5.556 •

Hardwarefabrikant IBM heeft zijn serverproducten een update gegeven: de System x-servers en BladeCenters hebben snellere processors aan boord en IBM heeft een truc om de prestaties van Opterons te verbeteren ingebouwd.

De System x3755 is de eerste server in het rijtje producten die door IBM zijn vernieuwd. De server krijgt drie processors uit de Shanghai-serie van AMD aan boord. De drie Opteron 8384-processors hebben een kloksnelheid van 2,7GHz en worden ondersteund door 12GB geheugen. IBM heeft een zogenoemde CPU Pass Thru Card meegeleverd: deze hardware past in een Opteron-socket en bevat een co-processor die HyperTransport-snelheden moet verbeteren en zo met drie Opterons de prestaties van een systeem met vier processors zou moeten evenaren. Een tweede techniek die de prestaties van de IBM-servers verbetert, is de zogenoemde Xcelerated Memory Technology, waardoor het geheugen, dat in de 8 dimm-slots gestoken kan worden, op 667MHz in plaats van 533MHz kan werken.

Ook de BladeCenter E-chassis heeft nieuwere hardware aan boord. Het frame kan veertien bladeservers huisvesten in zijn 7U-behuizing. De vier voedingen van het E-chassis kunnen ieder 2000W of 2300W leveren en een module om het verbruik te meten is ingebouwd. Ook heeft IBM een dvd-speler en usb-poorten, die door alle bladeservers benut kunnen worden, in de BladeCenter ingebouwd. Een BladeCenter E met twee 2000W-voedingen kost 3665 dollar, terwijl de versie met zwaardere voedingen 3999 dollar kost.

Behalve de servers heeft IBM ook zijn assortiment harde schijven een update gegeven. In zowel de System x-servers als de BladeCenters kunnen hot-swappable 2,5"-sas-schijven met een capaciteit van 146GB worden gestoken. De schijven, met een 6Gbps-sas-interface, draaien rond met 15.000 toeren per minuut, terwijl IBM's eerdere 146GB-schijven op 10.000rpm draaiden. Behalve traditionele schijven kunnen in de servers ook ssd's met capaciteiten tot 50GB worden geplaatst. Prijzen van de ssd's en harde schijven maakte IBM nog niet bekend, wel zouden de opslagproducten vanaf 31 maart verkrijgbaar moeten zijn.

IBM BladeCenter en System x3755

Reacties (22)

Mooi upgrade, mooi te lezen dat bijna alle leveranciers voor hun server-racks ssd's gaan ondersteunen. Daardoor wordt er nog meer onderzoek naar gedaan door de ontwikkelaars waardoor de prijs voor de consument ook sneller omlaag gaat.

Ik kan het alleen maar toejuichen!
De BladeCenters van IBM zijn echt ideaal. Wij waren de eerste in Nederland die de HS20 blades in gebruik namen & nog geen moment spijt van gehad. Hij draait hier nog steeds prima ondanks dat die al 'n paar jaartjes oud is & volgend jaar plaatsen we 'n BladeCenter E-chassis erbij & houden het oude BladeCenter ernaast voor VM's van minder bedrijfs-kritische servers.
Juich dan ook die 4x2000Watt eens toe? Alles moet tegenwoordig enirgiezuiniger met die klimaat verandering: maar als het om servers gaat, ho maar. Ik vind dat servers ook wel eens energiezuiniger mogen. Je hebt de Atom processor voor PC's, ok, ik weet dat je dat niet kan vergelijken. Maar waarom niet een atom achtige server, waarbij het energieverbruik op -300Watt ligt? Als we dat met ons allen gaan doen, en Google, en M$? Dan is die klimaat verandering voor een heel groot gedeelte verholpen ;)
Zo snel je het 'snelste van het snelste' wilt kost het op het moment gewoon meer energie. Je kan er wel zuinigere processoren in zetten, maar dat betekend meteen dat het minder snel is.

Want wat nu het snelste is verbruikt nu veel, maar over 4 jaar verbruikt iets opdezelfde snelheid veel minder, maar is er weer wat snellers wat wel weer veel verbuikt.
Waarschijnlijk zijn er van die 4 maar 2 continu belast, de andere twee nemen het over als de stroom op het primaire circuit uitvalt. Als je dan die 4000 Watt door 14 deelt, dan hou je nog 285 Watt over, wat dus zelfs lager is dan de 300W die jij voorstelt, en dat is dan ook nog piekvermogen...
Deels correct. Standaard draaien alle 4 de PSUs maar verbruiken uiteraard niet de volle 100%. Je moet er dan ook voor zorgen dat de totale maximum load op alle 4 nooit de 50% overstijgt.

De BladeCenter is dan ook volledig redundant uitgevoerd (tenminste als je voor alle modules een redundante module voorziet) en één helft kan uitvallen zonder dat de blades plat gaan. De twee resterende PSUs gaan dan alles draaiende houden.

In eerdere uitvoeringen werd er 'maar' 4x1400W voorzien wat niet voldoende was om 14 full option blades te draaien in redundant mode (dus totale load op 4 PSUs <50%). Dan was het noodzakelijk om in de config te bepalen wat er moest gebeuren bij het uitvallen van één helft van de modules: ofwel specifieke servers ineens uitzetten, ofwel alle servers throttlen (CPU underclocken) om ze toch allemaal draaiende te houden.

Hoe dan ook, het is niet omdat je 4 PSUs hebt van 2000W dat je ook 8000W verbruikt. Een BladeCenter is wel degelijk een manier om stroom te besparen, al is het maar een deel van de oplossing. En als je datacenter niet voorzien is op een warmte hotspot in zo'n klein volume heeft daar in sé niks mee te maken.
En dan als gebruiker klagen dat de servers niet vooruit te branden zijn....

Daarnaast, een paar servers neerzetten welke flink verstoken kan nog altijd milieuvriendelijker zijn dan daar tegenover het 10 of 20 voudige te moeten neerzetten wanneer je van die "milieuvriendelijke, maar slechte performance" machines neerzet.

Wanneer mensen over milieu beginnen kijken ze alleen maar naar onderdelen.... Mijn mening is dat je eerder naar het totaal plaatje dient te kijken.
9 van de 10 servers staan de hele dag uit hun neus te vreten...

Je moet natuurlijk de juiste hardware voor de juiste klus inzetten, er is niets mis met blades als platform.
lezen..... die 8kW is voor 14 blade servers. 14x 300W is ook al 4200W.
Daarnaast is een atom duidelijk te traag voor servers. Vergelijk deze eens met de 65W quadcore Xeons die 10x beter presteren. Als je dan het verbruik van de rest van de onderdelen mee rekent levert de atom dramatisch slechtere prestaties per watt. Om nog maar niet te spreken over prijs en ruimte.
Jij snapt duidelijk niet hoe Blade servers werken. het is een systeem waarbij je zeer kleine mini-servertjes in propt. In de HS20 blade van IBM kunnen er 14 in, zo uit het hoofd, zal bij deze niet anders wezen. Het chassis verzorgt dan de netwerk verbinding, management en power voeding van de servers. Zo'n blade kan tot wel 16GB memory hebben, met dus 2 quad core processors (wordt spoedig weer 2x 6-core)

Nou, dan heb je dus... (2000*4) = 8000/14 = 571W per blade. waarbij het chassis zelf waarschijnlijk zon 500-800W verstookt/nodig heeft, dus zo ruwwerg een 500W PSU per blade. Dat valt redelijk mee, daarbij moet je rekening houden met het feit dat ie waarschijnlijk dual-redundant is, dus dat slechts 2 voedingen verplicht/noodzakelijk zijn, zit je al op 250W per blade.

Vind mij 1 server met twee sockets gemaakt na het jaar 2000 met een 250W voeding... good luck! Blades zijn JUIST bedoeld voor stroom besparing en ruimte besparing (en indirect nog meer stroombesparing omdat je minder intensief de airco in je server-ruimte moet aan hebben staan)
De airco is wel altijd een issue als we bladecenter plaatsen, dit komt omdat de concentratie van hitte zo enorm is.
Normaal zijn 14 2u server zo'n beetje een vol rack met nog wat andere rommel erbij maar nu blaas je met 1/4 van een rack dezelfde hoeveelheid btu's de ruimte in. Het veroorzaakt dan ook enorme hot spots in een datacenter wat daar niet op voorbereid is.

Ik heb best wat bladecenters geïnstalleerd maar ik wordt er niet vrolijk van, firmwares van b.v. de ingebouwde brocade fc switches loopt altijd achter, alles is afhankelijk van elkaar en dat maakt het zoeken naar problemen veel lastiger dan wanneer je de hardware los trekt.

Je hebt b.v. een firmware voor je management module die je os moet ondersteunen voor een goede tb/muis ondersteuning.

Je flashed je helemaal suf aan die apparaten en als je een misflash hebt werken de normale procedures hiervoor vaak niet bij blades.

Je kan niet de disken swappen als die defect gaan zonder de blade uit te zetten en eruit te trekken zoals je dat met normale servers wel kan..dit kan toch niet?

Maar goed, als alles werkt zijn het leuke bakjes en ik moet zeggen dat het met de firmwares de laatste tijd wel de goede kant op gaat.
De airco is wel altijd een issue als we bladecenter plaatsen, dit komt omdat de concentratie van hitte zo enorm is.
Normaal zijn 14 2u server zo'n beetje een vol rack met nog wat andere rommel erbij maar nu blaas je met 1/4 van een rack dezelfde hoeveelheid btu's de ruimte in. Het veroorzaakt dan ook enorme hot spots in een datacenter wat daar niet op voorbereid is.
Hier ben ik het nog helemaal eens met je.
Ik heb best wat bladecenters geïnstalleerd maar ik wordt er niet vrolijk van, firmwares van b.v. de ingebouwde brocade fc switches loopt altijd achter, alles is afhankelijk van elkaar en dat maakt het zoeken naar problemen veel lastiger dan wanneer je de hardware los trekt.
Hier gaat het echter fout.

Ik zie het probleem "dat alles van elkaar afhankelijk is" niet. de bladecenters van IBM kunnen volledig redundant uitgevoerd worden, ook de IO modules en management modules, dus het is kinderlijk eenvoudig om 1 van de brocade switches los te trekken van alle blades, instellinge aan te passen, en daarna aan een (test) blade te hangen.
Je hebt b.v. een firmware voor je management module die je os moet ondersteunen voor een goede tb/muis ondersteuning.
eem MMO die je OS moet ondersteunen, ik volg je niet ....
Je flashed je helemaal suf aan die apparaten en als je een misflash hebt werken de normale procedures hiervoor vaak niet bij blades.
Wat is voor jou de 'normale' procedure dan? booten van een flash flop? dat kan idd niet ;-)
flashtools hebben hier altijd nog prima gewerkt...
Je kan niet de disken swappen als die defect gaan zonder de blade uit te zetten en eruit te trekken zoals je dat met normale servers wel kan..dit kan toch niet?
Als het een probleem is om een blade uit te zetten zou ik eens naar de opzet van je serverpark kijken. Met de huidige technologie mag het geen enkel probleem zijn om enkele servers los te trekken. Ik durf hier best de helft van de blades op een live omgeving uit te zetten...
Maar goed, als alles werkt zijn het leuke bakjes en ik moet zeggen dat het met de firmwares de laatste tijd wel de goede kant op gaat.
Wij werken nog niet heel lang met de IBM blades (een jaar ongeveer) en hebben nog weinig klachten, Enige problemen die wij gezien hebben is brak geheugen...
Bastiaan,

>Ik zie het probleem "dat alles van elkaar afhankelijk is" niet.

Ik wel, en zeker als het achter loopt op andere firmwares en je componenten uit een bladecenter wil koppelen aan componenten buiten je bladecenter.
Voor interlinks tussen fc switches wil geen zo min mogelijk firmware verschil hebben, als IBM dan voor zijn brocade module maanden later met een update komt dan brocade en de brocade update heb je nodig voor een bepaalde reden ga je nat met je interlinks.

Heb je een probleem in een omgeving meegemaakt dat ik mijn management module moest terug flashen omdat mijn nieuwe blade een te laag firmware release had wat niet werd ondersteund volgens IBM support?
Toen viel de rest half om, snel die ene blade flashen en terug steken, een andere oplossing van IBM was toen om deze blade "Even in een ander chassis te flashen" Oh natuurlijk, we hebben er nog 3 op de plank liggen. |:(

Goed, laten we maar zeggen dat ik meer van de bricks ben, alles bij elkaar stoppen komt met een prijs.
Dikke quad CPU 3850M2's en dat met z'n 4'en in een VMware cluster met losse brocade fc switches en volwaardige Cisco switches en een DS5300 voor de opslag..dan verkies ik boven zo'n bladecenter zonder enige twijfel.
"Juich dan ook die 4x2000Watt eens toe? Alles moet tegenwoordig enirgiezuiniger..."


Dat zijn de voedingen van het chassis.
In 1 zo'n chassis kun je to 14 blades (computers) kwijt, multi processor per blade.
Volgens ibm kun je zelfs tot 168 processors in de bladecenter E kwijt.
En dan is minstens 1 van die voedingen bedoelt om redundant te zijn.
M.a.w. waar heb je het over?. :)
Je betaald voor kwaliteit he, dit is niet bedoelt voor een homeservertje, maar voor bedrijven die grote farms nodig hebben. Die kijken niet op een duizendje meer of minder.
Een bladecenter aanschaffen om er vervolgens 1 blade in te stoppen is een verspilling. Dan kun je beter gewoon een 1u x-series machine kopen (of zelfs p-series, kun je er ook nog AIX op draaien :)), is niet alleen goedkoper maar ook een stuk kleiner (vriendelijker voor je rack :p)
De truc om met drie processoren meer performance te halen als met 4 is erg slim en tegelijkertijd ook simpel.

Als er 4 processoren aanwezig zijn dan beheerd bij de Optron (en sinds kort de nieuwe Intel processoren) zijn eigen stuk geheugen (Non-Uniform Memory Access (NUMA)). Dit betekend dat:

geheugen <--> PROC1 <---> PROC2 <--> geheugen
                                /\                            /\
                                |                             |
                                \/                            \/
geheugen <--> PROC3 <---> PROC4 <--> geheugen

om bij het geheugen van processor 4 te komen je altijd via processor 2 of 3 moet. Zeker bij geheugen intensieve applicaties zal dat regelmatig voorkomen. De cache bied hier geen uitkomst want als processor 1 een stuk geheugen in zijn cache heeft zal de processor eerst bij de eigenaar van dit geheugen moeten navragen of de toestand van het geheugen is zoals dat er op dat moment in zijn cache staat.

Door nu één processor te vervangen door een brug:

geheugen <--> PROC1 <---> PROC2 <--> geheugen
                                /\                            /\
                                |                             |
                                \/                            \/
geheugen <--> PROC3 <---->       /

Kan elke processor in of direct zijn eigen geheugen benaderen of in één stap het geheugen benaderen welke door een andere processor wordt beheerd.

Alleen als je zeer rekenintensive applicaties heb welke zijn geoptimaliseerd voor een NUMA architectuur zullen vier echten processoren sneller zijn.

En dit is niks nieuws, IBM doet dit al jaren. Ze zijn erg sterk in het optimaliseren van de chipset. Ook voor Intel processoren hebben ze chipsets zoals de X4 die vele malen sneller (en duurder) zijn als wat Intel zelf levert.
edit:
Tekst plaatjes maken is niet echt makkelijk als je spaties verdwijnen! Gelukkid de non braking space gevonden.

[Reactie gewijzigd door kikkervis op 13 maart 2009 10:48]

"Hardwarefabrikant IBM", lijkt me niet helemaal een goede benaming voor IBM... Hardware is maar een van de onderdelen van het bedrijf. Even belangrijk zo niet belangrijker zijn bv. de services/consulting en software afdelingen.
Guys, even over het verbruik. Jullie staren je allemaal blind op de maximale power output van alle losse voedingen bij elkaar. Als je verder redeneerd valt het verbruik juist mee.

Om een voorbeeld te geven. Wij werken met HP c-Class c7000 enclosures en hp c-Class blades. In zo'n blade enclosure passen 16 servers. Daar gaan 6 voedingen van 2400w max. in. Deze voedingen zijn 90%+ efficient. Max power output voor 6 voedingen zou dan ongeveer 14KW zijn. Daarnaast schakeld het enclosure voedingen uit als de andere voedingen de gehele last kunnen dragen.

Nu komt het echter. De helf van de voedingen is voor redundancy. Dan blijft er van het maximum verbruik nog maar 6,5 KW over.

In tegenstelling tot vroeger heb je nu Quad Core Xeon L5430 @2,66GHz CPU's die maar 50w max verbruiken. Daarnaast worden er alleen nog maar 2,5" schijven gebruikt. Dit samen scheelt dat de helft van de stroom van server van de vorige generatie rack servers.

Uiteindelijk zien we in ons rekencentrum met een vol blade enclosure dat deze ongeveer 4KW verbruikt. Als je daar de stroom behoefte van de in het enclosure ingebouwde management modules, netwerk en SAN switches aftrekt bijlft er zo'n 3,2KW over aan verbruik door servers.

Deel je dat door 16 server komt je uit op zo'n 200w per server. Deze server zijn allemaal uitgerust met 2 CPU's, SAN HBA en een sloot FB-DIMM's Dit is een hele mooie waarde voor een server qua verbruik.

Ga je dan ook nog virtualisatie inzetten zoals VMware ESX, Dan kun je gemiddeld genomen zeker wel 10 virtuele server op 1 fysieke server draaien. Elke server kost dan nog maar 20w aan vermogen.

Kortom als je goed nadenkt over de inrichting van je datacenter valt het allemaal best wel mee met het stroom verbruik. Uiteraard heb dan nog welk centrale SAN storage nodig. Dat verbruikt doorgaan wel een hoop stroom.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013