Compaq begint levering ProLiant BL10e blade servers

Compaq is begonnen met de verkoop van zijn eerste 'blade' servers. Dit zijn servers die zo compact zijn dat er 280 in een 42U rack passen.

Compaq BL10e De Compaq ProLiant BL series, codenaam QuickBlade, zijn onderdeel van een strategie die meer dan een jaar geleden begon en tot doel heeft om zoveel mogelijk paardenkrachten uit een zo minimaal mogelijke ruimte te persen. Rackspace was kostbaar op het hoogtepunt van de internet hype en bedrijven zochten daarom naar mogelijkheden om de kosten van het huren van serverruimte zo laag mogelijk te houden. Tegenwoordig speelt het probleem veel minder, maar desondanks verwachten analisten dat de ultracompacte blade servers op lange termijn toch bestaansrecht hebben.

De eerste Compaq blade-server is de ProLiant BL10e. De BL10e bestaat uit een 3U rackmount die plaats biedt aan maximaal 20 blades. Elk blade is voorzien voorzien van een moederbord, 700MHz Pentium III processor, maximaal 1GB RAM, twee ethernet poorten en een harddisk. De CPU's zijn van een energiezuinig type dat gelijk is aan de PIII's die in laptops worden gebruikt. De blades hebben een prijs van 1799 dollar per stuk. Een familieverpakking van 10 stuks kost 17091 dollar.

Op een later tijdstip wil Compaq zijn blade-lijn uitbreiden met de p-Class serie die krachtiger zal zijn dan de e-class lijn die gisteren is aangekondigd. De p-Class lijn zal ook dual processor blades bevatten en op een later tijdstip zullen er zelfs modellen met vier processors komen.

Hewlett-Packerd kwam een paar weken eerder dan Compaq met haar blade-server, maar HP baseert zijn servers op een al bestaande techniek genaamd CompactPCI. IBM heeft onder de naam Excalibur een eigen blade server in ontwikkeling en later zullen ook Dell en Sun dergelijke servers op de markt brengen. Hand in hand met de blade technologie komt de software om grote aantallen servers te managen. Compaq's Adaptive Infrastructure's plan kan groepen servers beheren en heeft de mogelijkheid om de taken per server te wijzigen, nieuwe software te installeren en server resources zoals processorkracht en geheugen aan specifieke programma's toe te wijzen.

Tegelijkertijd met de BL10e heeft Compaq zijn tweede-generatie DL360 dual processor server aangekondigd. De DL360 is een rackmountable systeem met de grootte van een pizza doos. Een management chip helpt administrators bij het beheren van de DL360.

Compaq ProLiant BL10e blade rackmount

Door Cor van Liere

Nieuwsposter

29-01-2002 • 13:29

52

Bron: C|Net

Reacties (52)

52
51
39
11
3
3
Wijzig sortering
Kan je niet beter wat meer geld uittrekken voor meer ruimte, zodat je later makkelijker kan upgraden? Het lijkt me dat de upgrade mogelijkheden van dit "platte" systeem wel beperkt zijn.
Op deze schaal koop je geen hardware, maar je least voor een aantal jaren. Upgraden doe je dus niet, het spul wordt na drie jaar gewoon vervangen.
Als je een kleine hostingprovider hebt, en je hebt een 3 u rack dat je huurt van een grote provider (je huurt alleen het rack) dan zet je je eigen server erin, komt er nu een klant voor dedicated hosting (zoals jij aangeeft) dan zet je er mooi een servertje bij (die jij dan moet kopen dus),

Maar komt diezelfde klant nu met een opdracht voor colocation, dan koopt hij een server van jou, en plaats jij die voor hem in jou 3U rack erbij, en kan hij er mee doen wat ie wil, en zit jij niet met zijn problemen (zit je met dedicated hosting wel).

en je moet natuurlijk aan de wensen van je klanten tegemoet komen.

waar je 'vroeger' dus een extra 1U rack moest huren, kun je nu veel langer vooruit met je 3U rack.
Volgens mij was colocation juist dat je je server zelf koopt en in de serverruimte laat plaatsen, en dedicated hosting juist een machine van de hosting provider zelf die ook daar geplaatst is..

*checks*

Yup... Dit is van Site5.com:

"Site5's co-location services allow you to house your private equipment in our state-of-the-art facilities"
je huurt nu al de ruimte, als je uit wil gaan breiden komt compaq dus nu met een hele goede oplossing.

verder houden de meeste hostingproviders altijd wel een paar U'tjes vrij tussen verschillende klanten, beter voor de warmte, en natuurlijk meteen goede service als de klant wil uitbreiden, want dan kan ie al zijn racken bij elkaar plaatsen (en dat is ook makkelijker voor de hostingprovider)
Uhm, het idee is dat dit het upgraden juist makkelijker maakt: je begint met 1 of 2 blades, en als je meer power nodig hebt prik je er een extra blade bij.
Geeft toch niet? Gewoon nog een rackje met twintig van die servers installeren in dezelfde kast. Upgraden niet nodig, gewoon meer processing power installeren! :7

edit:

0 points?
Ik dacht dat ik wel een zinvolle bijdrage heb geleverd. Dat anderen dat ook doen, OK, maar om mij nu negatief te modden... (modereren blijft een vak) :P
Tegelijkertijd met de BL10e heeft Compaq zijn tweede-generatie DL360 dual processor server aangekondigd. De DL360 is een rackmountable systeem met de grootte van een pizza doos. Een management chip helpt administrators bij het beheren van de DL360
Die chip bestaat nu ook al bij Compaq, alleen is het een aparte PCI kaart die Remote Insight Board Lights Out Edition heet (wat een naam :) ), alleen bij de nieuwe DL360R02 serie zal deze geintegreerd zijn op het moederbord zodat er geen PCI slot meer bezet wordt. De DL360 serie heeft maar 2 PCI sloten dus uiteraard is dit een mooie oplossing.

Voor degeen die niet weten wat een Compaq RIB is, dat is een PCI kaart waarmee je op afstand waar ook ter wereld, webbased met het internet Ip adres van de server het complete systeem kunt beheren. Daaronder kan je verstaan dat de desktop overgenomen wordt, maar ook het aan/uit zetten van het systeem is mogelijk (dus niet een reboot, maar echt uit en aan zetten van het systeem)

[edit]
Overigens: Klanten die op dit moment nadenken over de aanschaf van minimaal 10 DL360 servers zullen attent gemaakt worden op de nieuwe BL server lijn, voor die doelgroep is de BL server precies uitermate interessant. Een BL server zet je met minimaal 10 tegelijk in, in combinatie met een Enterprise SAN omgeving, en zal je dus ook amper met 1 of 2 tegelijk tegenkomen...
<font color=#786562>* ]Byte[ krijgt het idee dat rrainman bij Compaq werkt :+</font>

Ik denk dat het omslagpunt toch wel wat lager zal liggen als 10 DL360's mag ik aannemen :?
* ]Byte[ krijgt het idee dat rrainman bij Compaq werkt
Nee :+ maar wel vlakbij....
Ik denk dat het omslagpunt toch wel wat lager zal liggen als 10 DL360's mag ik aannemen
In eerste instantie zullen de grote jongens benaderd worden, wellicht wordt het in de toekomst minder als de zwaardere blades komen...
Anoniem: 45115 29 januari 2002 13:32
Was altijd vrij tevreden met zijn voorganger, de Sparc. Kan iemand mij uitleggen wat het voordeel is van zoveel servers in een 42U rack?
Stel je hebt een hosting bedrijf en je hebt 100.000 klanten, waar je er zo'n 25 van op een PC kwijtkan met hun virtual server. Hoeveel geld denk je dan wel niet op jaarbasis te besparen als je in plaats van 100 slechts 5 racks nodig hebt? En dan hebben we het niet alleen over de racks, ook over de locatie waar die servers staan: minder ruimte om te huren en verzekeren, minder infrastructuur nodig, minder brandbeveiliging, etc. etc.

Dit kan je echt tonnen schelen :) Of miljoenen als je groot genoeg bent.
Anoniem: 42934 @JeroenB29 januari 2002 20:44
Miljoenen? Kom op zeg. Zoveel bespaar je je echt niet. Dat zou al in moeten houden dat je honderden miljoenen aan hosting ruimte kwijt zou moeten zijn, nou ik ken niet zoveel bedrijven die dat doen.

Je vergelijkt die machines met normale servers met veel schijfruimte, dat hebben deze dus niet en dat is wel wat je nodig hebt als je dus zoveel klanten hebt (willen allemaal html'en, fotootjes, misschien zelfs wel hun data op jou server). Enige wat je hier hebt is veel processor power, en veel netwerkkaarten. Als ik zoveel klanten had zou ik niet vertrouwen op zo'n 'uitgeklede' server, alleen om ruimte te winnen, zou eerder kiezen voor een zwaardere, multiprocessor systeem, misschien wel een midrange systeem.
Je kunt dan in dezelfde ruimte VEEL meer servers neer zetten, zodat de ruimte VEEL beter benut wordt, en de prijs van de ruimte die je huurt (je huurt dan dus een stuk minder ruimte) een heel stuk lager is.

Oftewel je kosten gaan een stuk naar beneden terwijl je hetzelfde hebt.

edit:

Al zul je weinig mensen hebben die 280 servers nodig hebben (alleen de GROTE hostingbedrijven natuurlijk)


* 786562 Hawks
Je kan veel meer LICHTE servertjes neerzetten. Ipv een aantal zwaardere.

Ik heb weinig nut voor servers die geen remote insightboards hebben, geen 64bit/66 Mhz slot voor een RAID5 controller, geen hotpluggable disc-bays, geen RAID1 voor systeemschijven, etc.

Compaq noemt bv als nut DHCP, DNS, Firewall etc.
Nou de Win2000 DC/GC zijn bij ons niet zo heel licht meer. (Exchange2000/Outlook2000 kunnen die flink belasten) En die machines wil je toch echt wel redundantie in.
Dan nog heb je er daar ook geen 280 van nodig. (of 20 in een 3U enclosure op 1 locatie)
Onze Firewall is nou ook niet bepaald een licht servertje.
Ik zie niet in hoe wij die dingen nuttig zouden kunnen gebruiken. Ooit toen we nog cc:Mail draaiden en je per PC maar 1 router sessie kon draaien hadden we dat soort dingetjes in 486 formaat. Dan kon je een stuk of 20 in een 5U rack zetten. Toen was dat wel nuttig, aangezien die dingen maar heel licht hoefden te zijn. Maar later zette je gewoon 1 steviger machine neer die meerdere router sessies tegelijk kon draaien, en dat was dan veel handiger.

Het zal best wel wat toepassingen hebben anders, had Compaq ze niet gemaakt. Maar de huidige 1U en 2U servers die ze hebben zijn niet misselijk.
(Bekijk de specs van die DL380G2 maar eens)

De uitspraak dat "je kosten naar beneden gaan, terwijl je hetzelfde hebt" gaat niet op voor rack-mounted servers. Je hebt zeker niet hetzelfde.
Als je oude servers alleen maar veredelde desktoppies waren, dan wellicht wel.

(Hoewel je ook dan nog niet hetzelfde hebt, want uitbreidingsmogelijkheden heb je niet)
Ze zijn dus ook vooral bedoeld voor frontend taken die goed geloadbalanced kunnen worden. Hier zijn ze uitermate geschikt voor.

Je hebt geen redundancy in de vorm van RAID e.d. nodig als de servers zelf al redundant zijn.
Compaq zal ze richten op de High-End markt, dus voornamelijk bij server farms.
Een punt wat men snel vergeet is stroomverbruik. Als je 5 42u racks vol met servers hebt staan dan heeft dat een grote invloed op je stroomrekening, terwijl blade servers allemaal van dezelfde voeding gebruik maken...
Lezen:
Rackspace was kostbaar op het hoogtepunt van de internethype en bedrijven zochten daarom naar mogelijkheden om de kosten van het huren van serverruimte zo laag mogelijk te houden.
Simpel, wordt ook in het artikel genoemd: Veel processing power in veel minder ruimte. Je kunt dus besparen op housing costs. Je hoeft minder ruimte te huren op de computervloer.

Genoeg voordelen? ;)
besparing van ruimte en dus van kosten
Anoniem: 42934 29 januari 2002 14:29
Een familieverpakking van 10 stuks kost 17091 dollar. ... grappenmakers, ... ben benieuwd op welk soort familie men hier doelt.... praten erover alsof het over chips gaat.

Waar laat je je RAID SCSI schijven in dit ding? Of gaat men uit van 1 grote IDE 7200 HDD. Daarnaast, is men bij hosting bedrijven wel zo blij met 20 van die dingen per 3 unit. Das dus 20 voedingen, das dus 20 stekkers (of zit er dan 1 voeding in?) Wij hadden bij providers al moeite om die lui uit te leggen wat Redundant powersupply was (ofwel drie stekkers), mocht niet, zou te veel stroom trekken (onzin, maar ach).

Nou mag het dan wel energiezuinig wezen, maar 20 van die dingen naast elkaar... en zo te zien aan het plaatje, heeft ie een dichte bovenkant, en zijn alle units stijf naast elkaar gezet. Hoe haalt een fan dan de warmte uit die units? In onze ML370's zit aan de achterkant een fan van zo'n 12x12 cm, en dan nog is ie aardig warm.
Als je naar true server, vuurwerk of NXS kijkt, dan heb je toch wel kans dat ze een paar van die familiepackjes aanschaffen.

Die zijn zo groot, en hebben zoveel ruimte, waar ook al zoveel ruimte van gebruikt wordt, dat dit voor hun ook heel goed uitkomt, kunnen ze meer servers kwijt, dus meer klanten in dezelfde ruimte huisvesten, en dus meer inkomsten!!
behalve als je een hosting bedrijf bent wat hosting ruimte aanbiedt.....
Lijkt me dat deze apparaaten hotswap zijn. En alle conectoren en aansluitingen via een backplane gaan. Dus dat je hem er alleen in hoeft te drukken en gelijk alle nodige aansluitingen gefixed zijn. voor schijfruimte schaf je gewoon een paar raid arrays aan
Anoniem: 24444 @BrammeS29 januari 2002 17:17
je zal de BL server ALLEEN maar in combinatie met een SAN of een NAS tegenkomen, die blades die donderdag op de markt komen zijn voorzien van een 2,5'' 4200RPM 30GB schijfje, die enkel bedoeld is voor het OS.. De data opslag zal altijd plaatsvinden op het SAN. Dat moet ook wel want die blades kunnen zo ingericht worden dat als er 10 inzitten, dat er 8 in gebruik zijn en 2 hot spare blades zijn. Daardoor zullen ook die 2 hot spare drives van de data op het SAN gebruik moeten kunnen maken..
Voor supercomputing toepassingen wordt vrijwel nooit meer naar monolitische systemen gegrepen, maar juist naar clusters van grote aantallen, (relatief) goedkope servers.

Zie bijvoorbeeld dit nieuwsbericht. Ik citeer:
In totaal omvat het hele systeem 45 kasten: 40 kasten voor de 1024 processoren en 5 kasten storage.
Met gebruik van server blades kan er meer rekenkracht in minder ruimte worden gestouwd. Ideaal.
Een familieverpakking van 10 stuks kost 17091 dollar. ... grappenmakers, ... ben benieuwd op welk soort familie men hier doelt.... praten erover alsof het over chips gaat
10 blades.. het woord familie is door de newsposter als populaire term toegevoegd.
Waar laat je je RAID SCSI schijven in dit ding? Of gaat men uit van 1 grote IDE 7200 HDD.
Bij het toepassen van BL servers zal er op zijn minst een SAN aanwezig moeten zijn. Elke blade wordt voorzien van zijn eigen OS op de HDD die op de blade zit, voor andere dingen is dit niet bedoeld. de data komt op het SAN en zal voor elke blade afzonderlijk te benaderen zijn op die manier.
Das dus 20 voedingen, das dus 20 stekkers (of zit er dan 1 voeding in?) Wij hadden bij providers al moeite om die lui uit te leggen wat Redundant powersupply was (ofwel drie stekkers), mocht niet, zou te veel stroom trekken (onzin, maar ach
en DAT is nou precies de reden waarom die BL server lijn zo interessant is voor grote omgevingen. Ze maken gebruik van 1 powersupply die onderin het rack geplaatst worden, en daar zal heel het rack mee werken. Die blades vragen niet veel aan power en mocht het zo zijn dat een van de blades geen functie heeft of tijdelijk stil staat, dan schakelt hij zichzelf tijdelijk uit...
Nou mag het dan wel energiezuinig wezen, maar 20 van die dingen naast elkaar... en zo te zien aan het plaatje, heeft ie een dichte bovenkant, en zijn alle units stijf naast elkaar gezet. Hoe haalt een fan dan de warmte uit die units? In onze ML370's zit aan de achterkant een fan van zo'n 12x12 cm, en dan nog is ie aardig warm.
Uhm, er is weinig dat warmte kan produceren. Er zitten mobile PIII processoren op, dus erg veel warmte komt daar niet vanaf. En van een 4200RPM schijfje kan ook niet echt veel warmte afkomen.. Uiteraard is het rack wel voorzien van de normale coolingstechnieken, dus dat zit wel goed :)
Een blade server is absoluut niet te vergelijken met een ML370...
Het is overigens 3U maar dat maakt verder niet uit.
Ik begrijp je punt.
Dit soort systemen koop je niet voor 3 of 4 servers!
Je kijkt naar de TCO, want als we jou stelling zouden volgen.......
Wat ga je doen als je moet uitbreiden van 4 naar 5 servers :?
Koop je dan alsnog een BL10e met 4 of 5 blades?
En die andere 1U systeempjes in de prullenbak :?
Nee ik denk het van niet.
Je moet dan eerst kijken naar het verwachte toekomst perspectief.
Als je bijv. kijkt naar t-net (oke is zwaar gesponsored, maar goed...) hoeveel U hebben die nu op dit moment in gebruik?
Als je zoveel U's commercieel moet gaan betalen wordt het plaatsen van een BL10e wel heel snel interessant.....
Er zitten nog wel wat haken en ogen aan de BL10e, zoals het ontbreken van RAID-functionaliteit.
Maar dat zou je dan ook weer kunnen combineren met een andere storage-server en die connecten met 4 * GbE :P die weer wel beschikbaar is (Spring 2002)
Al met al is het 'gewoon' een rekensom loslaten en een goede TCO te berekenen.
Anoniem: 24444 @]Byte[29 januari 2002 17:20
de huidige lijn Blade servers zal enkel bedoeld zijn om gebruik te maken in Server Farms of iets dergelijks.. RAID hebben die dingen ook niet nodig want de data wordt niet op het blade maar op het SAN opgeslagen. Je zal dus ook geen BL Rack zonder SAN wegzetten, omdat je anders je data niet weg kan werken. De geleverde 30GB harddisk op het blade is bedoeld voor het OS, niet voor data.

Overigens gaat in de loop van dit jaar ook nog een dual en een quad processing blade komen, waar dan weer wel 2 hotplug schijven op geplaatst kunnen worden... RAID1 wordt dan per blade mogelijk..
Yep, daarom hebben al die dingen ook 2 netwerk aansluitingen. Een 100 Mb/s Full duplex naar de backbone en de andere 100 Mb/s naar een switch met daarachter een Gb/s SAN systeem met mega storage en snelheid. Is een optimale opstelling
Hoe zo geen Raid???

Je neemt gewoon 2 van die blade's die je hetzelfde laat doen Mirroren..
Anoniem: 42934 @KMK29 januari 2002 17:49
rare oplossing om zo data beveiliging te krijgen. Is een beetje zoeken naar een oplossing alleen om die dingen te kunnen gebruiken.
Ik vergat eigenlijk te zeggen dat je dan een redundant server systeem hebt
Het moge duidelijk zijn dat de blades niet zijn bedoeld voor storage. De hdd's zitten erin voor het OS en voor data opslag wordt een dikke storage server met RAID en alle andere toeters en bellen gebruikt. Op het moment dat je 20 van dit soort simpele low-end servertjes nodig denkt te hebben ben je duidelijk bezig met iets dat goed verdeeld kan worden over meerdere servers. Aangezien er dan meerdere servers zijn die dezelfde taken uitvoeren zijn de servers an sich al redundant.
nogal ja.
Hoeveel U is de kast waar de tweakers spullen in staan en hoeveel van die Compaq gevalletjes zouden daar dan is passen. En hoeveel warmte produceren deze blades in vergelijking met andere die op de markt zijn?
42 u (volledig rack) en........ jaaaaaaa er passen er 280 in zoals reeds in het bericht stond. :)

Warmte zal wel meevallen omdat er mobile versies van de PIII gebruikt worden. Vergeet niet, ze zijn voor dit soort zaken ontwikkeld.
Supported OS: (kan je hier vinden.
Windows 2000 Server
Red Hat Linux 7.1 & 7.2
Er is 1 nadeel, door de verticale plaatsing moet je er zeg maar minimaal 8 tegelijkertijd hebben, bijvoorbeeld als je serverruimte huurt als particulier (tnet) aangezien je ALTIJD minimaal 4u gebruikt en daar 20 blades in kunt zetten, 1 blade neemt nog steeds 4u in.. je kunt dus bij 4 blades nog altijd beter 4 1u servers nemen, net zoveel ruimte.. als blade ECHT populair wordt kun je waarschijnlijk bij serverruimte straks niet alleen maar in u's huren maar ook in blade's.. dus de ruimte voor 4 blades ofzow, ik schat dat een beetje grote ISP van dekking van ongeveer 80% uitgaat van zo'n 4U rack, dat zijn 16 blades, dan is de prijs van 1 blade dus ongeveer 1/4e U aan ruimtekosten, dan komen er natuurlijk nog wel vaste koelingskosten ed. bij..
Kan je wel een machtig mooi Beowulf-cluster(tje :?) van maken.
Shell heeft een clustertje staan van 1024 PIII's in iets van 28 42U racks geloof ik. En dan komt je netwerk en storage er nog bij.
Dit kan je nu terug brengen naar 4 racks voor je servers.
Komt er nog wat voor je netwerkapparatuur en storage bij...
Ben je in iedergeval met zo'n 7 a 8 racks helemaal klaar.
ACM Software Architect @]Byte[29 januari 2002 14:41
Dat zijn er zelfs 32 kasten met 32 machines en dan nog een 33e met de core switch...

Daarnaast is er nog een taperobot en wat controle machines dedicated voor dat cluster aan het werk.

Oftewel, het neemt NOG meer ruimte in dan jij al stelt :)
:) Dat staat al in het artikel, het bespaart een hoop ruimte...

Op dit item kan niet meer gereageerd worden.