Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: Hewlett-Packard

Op C|net is te lezen dat Hewlett Packard als één van de eerste 'grote' fabrikanten een serie blade servers op de markt heeft gebracht. Blade servers zullen, volgens een groot aantal hardware fabrikanten, op termijn het huidige systeem met 'normale' computers in een 19" rack vervangen. In tegenstelling tot de huidige servers, die meestal in een groot (19") rack staan en waarvan er relatief maar weinig in zo'n rack passen, zijn bladed servers zeer compacte modules, die als boeken op een boekenplank naast elkaar staan. Een server kan opgebouwd zijn uit verschillende blades, en elke blade kan verschillende functies hebben. Zo heeft HP nu een bare-bone systeem, met één management blade, die het mogelijk maakt de server te beheren, en die uitgebreid kan worden met extra blades. In een 19" 13U rack kunnen in totaal 38 blades, wat opgebouwd kan worden uit maximaal 16 server blades (cpu, geheugen, enz), 16 data-opslag blades en 2 netwerk blades.

De nieuwe server blades van HP zijn gebaseerd zijn op een 700MHz Intel Pentium III processor, en de 440 GX chipset. Verder zit er een 30GB harddisk in en 512MB ECC geheugen. De software die bijgeleverd wordt, is een Linux distributie van SuSE, Red Hat of Debian. In de loop van volgend jaar zal ook Windows ondersteund worden. Tevens zal HP begin volgend jaar blades gaan leveren die gebaseerd zijn op PA-RISC processoren, en die zullen werken met het HP-UX besturingssysteem. HP heeft voor de ontwikkeling van de blade servers samenwerking gezocht met een flink aantal fabrikanten. Naast Intel gebaseerde systemen, zou HP ook plannen hebben voor blade servers met componenten van onder andere AMD en Transmeta. Deze laatste heeft op dit moment nog als nadeel dat hun architectuur geen ondersteuning heeft voor ECC geheugen, wat in servers vaak wordt toegepast.

Naast blade servers van HP, worden er binnenkort nog dergelijke systemen verwacht van IBM, Dell en Compaq. Het relatief jonge bedrijf RLX Technolgies levert al een tijdje blade servers, gebaseerd op Transmeta Crusoe processoren:

HP blade server bc1100 Hewlett-Packard Company (NYSE:HWP) today launched the industry's first blade server product series based on open industry standards. The series enables enterprises, telecommunications companies and service providers to streamline Internet data center management by adding flexible, efficient, easy-to-manage server capacity and Internet functionality in a highly compact unit.

HP also announced a blade server alliance program to help accelerate the delivery of compatible products that use the same CompactPCI®(1) industry standard used in HP blade servers. The program helps both hardware and software providers to develop, test and market their blades products and give customers more computing options.

Met dank aan wolfmaniak voor de tip.

Moderatie-faq Wijzig weergave

Reacties (55)

Eén Pentium III 700 voor een schijf van 30 GB? Is dat niet een wat scheve verhouding voor een server?

edit:

Wel een gaaf systeem trouwens, met die blades. Kunnen bedrijven heel makkelijk een server naar hun smaak samenstellen die ook nog es makkelijk uit te breiden is.


[edit2]
Om maar ff wat onduidelijkheden de wereld uit te helpen: Ik vond de cpu-kracht overdreven veel in verhouding tot de opslagruimte. Maar zoals RG hieronder aangeeft (externe dataopslag) klinkt het heel logisch. De dataopslag op de blades wordt zuiver gebruikt door het OS, ik ging ervan uit dat er ook files, db etc op kwam te staan. yveZ21 snapt het zelf niet helemaal denk ik. :)
[/edit2]
Ik denk niet dat een bedrijf 1 enkele blade zal bestellen om als server te gaan dienen. Deze jongens worden juist aangeschaft omdat je er 'veel' kwijt kunt in een rackje. Bestel je er bv. 10 dan heb je ook 300 Gb capacity tot je beschikking ( :9)
dat kan wel wezen, maar die 300 GB is wel over 10 aparte servers verdeeld.

je moet niet die blades automatisch als een geheel bij elkaar opgeted systeem zien hoor. Het zijn afzonderlijke verwerkings eenheden.

Dat die die vervolgens met clusterings software aan elkaar kan koppelen... tsja...
Nee maar 30 GB is voor een server behoorlijk wat. Je hoef toch alleen maar een OS erop te installeren. Als je veel opslagruimte nodig hebt dan ga je sowieso werken met externe dataopslag die je dan aankoppelt. En je moet er ook rekening mee houden dat het omde dichtheid gaat en dus om warmte ontwikkeling, dus een heel sneller processor en harde schijf zou dat niet toelaten. Vandaar ook dat VIA en Transmeat processors daardoor behoorlijk in trek zijn.
RG:
Wat is nou 30 GB? Veel zou je misschien zeggen, maar een 30 GB schijfje kost misschien 25 Euro meer dan een 10 GB schijfje.
25 Euro op een server is niet zo heel veel, en daarmee ben je wel voorbereid op de toekomst.
Ja en dan heb je dus ook 10 * Pentium 700 en dat lijkt me overdreven om 300 Gb aan te sturen. Tenzij je voor de dataopslagblades gaat, maar daar zit weer geen geheugen op, wat IMHO veel belangrijker is voor een server.
Jij snapt toch wel dat processor geen ruk te maken heeft met de opslagcapaciteit???
Waarom ik geen 100gb op mn P133 kunnen zetten? Ok, de snelheid van de HD is laag, maar ik heb wel vette oplsagruimte. Dus ik snap je opmerking niet helemaal?
Het enige wat ik kan opmaken uit je opmerking is dat je het nutteloos vind om 10x700mhz te hebben voor 300gb??? Als dat zo is, dan snap jij denk ik niet waar servers voor gebruikt worden. Als er grote databases op komen te staan, waar een dikke 300 man de hele dag door gebruik van maakt, dan heb je wel vette processorkracht nodig in je servers.
En de oplsagcapaciteit staat daar helemaaaal los van.

Nog een kleine kanttekening: Je koopt het als geheel, dus je gaat niet alleen maar extra hdd ruimte aanschaffen, je schaft ze per "blade" aan. En daar zit dan ook een 700mhz proc bij, is alleen maar mooi meegenomen toch?
Dit snap ik dus ook niet. Wat heeft de grootte van de harde schijf nou met de behoefte aan een snelle of langzamere processor te maken?

Ik kan me situaties voorstellen waarin een P3 700 het echt niet gaat trekken, terwijl er maar een 5 GB harde schijf in zit. Ligt er maar net aan wat er op die harde schijf staat.
Even voor de duidelijkheid, de gebruikte Pentium III 700 is geen normale, maar een speciaal ontwikkeld model die maar 1,1 of zelfs 0,95 Volt gebruikt, wat dus ideaal is voor de blade servers. Die blade servers hebben namelijk niet veel ruimte voor koeling, dus hoe minder warm een CPU wordt, hoe lager de warmteafstoot en hoe meer blades je kwijt kan zonder in problemen te komen.

Daarnaast wordt de CPU in een uFCPGA package, welke kleiner is dan de normale FCPGA package en dus erg geschikt is voor deze blade servers.

En zoals gezegd is een P3-700 meestal wel genoeg.
Hoezo? Dat kan toch. Waarom moet de schijf groter/kleiner? Je vraag/statement is nogal onduidelijk.
De reden dat er veel cpu kracht is t.o.v. opslag is dat je dat soort clusters normaal als web serever gebruikt, niet als file server. Als je een scripting technologie gebruikt in je site heb je vaak vrij veel CPU en memory nodig per bezoeker.

Als je bijvoorbeeld een drukke ASP site hebt die 5 MB beslaat en je wilt 1000 bezoekers per minuut afhandelen heb je heel veel CPU nodig maar nog steeds alleen 5 MB hard disk ruimte.
Jammer dat er maar een harddisk in zit.

Verder zie ik zeker wel toekomst in dit type servers. Denk bijvoorbeeld aan een webcluster, of een citrix farm.

Met deze techniek passen er 48 servers in 1 19" rack als je per server een blade aan disken plaatst.
Reken er maar op dat er ook blades komen die alleen hardeschijven hebben zodat je je opslag ook flink uit kunt breiden. Blades met RAID controllers zullen ook vast nog wel komen.
Hebben we daar niet een NAS voor?
Bedoel jij niet een SAN :)
Er komen zeker blades met alleen hd's (iig opslagmogelijkheden). En de blade servers van RLX zijn nog kleiner dan die van HP, dus past er nog meer in 1 rack. Ik denk dat dit wel de toekomst wordt. Zeker als er krachtigere blades komen (die HP dus al wel heeft aangekondigd) kun je zeer veel cpupower en opslagcapaciteit in een zeer kleine ruimte kwijt.
48 servers in een rack is helemaal niet zo veel hoor. Je kunt namelijk nu al servers krijgen met dual PIII en twee 36 of 72 GB SCSI-schijven, waarvan er 42 in een rack passen... Dan heb je dus 84 processoren in 1 rack hangen.

Het probleem daarmee is dus alleen dat je daarachter heel goed je haar kunt drogen :) Ofwel het produceert dan wat veel warmte.
Das wel mooi voor in een koffermod :P
Valt weinig meer aan te modden dan :+
ja en een enorme 64Ampere kabelhaspel en een airo in je andere koffer.
RAID is hier niet nodig, omdat die samen met meerdere blade-servers kan werken. Zodat je ipv data-redundancy system redundancy krijgt !
Ok maar is dat ook sneller?

RAID heeft natuurlijk het voordeel dat het hardwarematig aangestuurd wordt. System redundancy is leuk maar als pakketjes dan op meerdere harddisks geplaatst worden zal dat toch van de ene blade (computer) naar de andere gaan, via de processor en de IDE controller enzo. Lijkt me hogere belasting van je systeem.

Daarnaast heeft system redundancy natuurlijk ook nadelen want als er meer onderdelen draaien kunnen er ook meer kapot gaan. Dat maakt dan misschien voor de availability niet uit (het is immers redundant uitgevoerd) maar voor de kosten wel.
System redundancy is leuk maar als pakketjes dan op meerdere harddisks geplaatst worden zal dat toch van de ene blade (computer) naar de andere gaan, via de processor en de IDE controller enzo. Lijkt me hogere belasting van je systeem.
IDE? Ik denk het niet. Dit zijn geen game pc's hoor. Die vragen zware procesoren en snelle videokaarten. Dit zijn professionele systemen. Datt werkt totaal anders. Bovendien hangt het van je OS af of je processor snel genoeg is. Als je bv een Novell server hebt, kan je voor 500 gebruikers nog heel aardig uit de voeten met een 500 MHz machine. Novell doet nl niets anders dan gewoon een 'remote' HD leveren. Niet meer en niet minder.
Daarnaast heeft system redundancy natuurlijk ook nadelen want als er meer onderdelen draaien kunnen er ook meer kapot gaan. Dat maakt dan misschien voor de availability niet uit (het is immers redundant uitgevoerd) maar voor de kosten wel
Materiaal is volmaakt onbelangrijk in het kostenplaatje. Beschikbaarheid is veel belangrijker. Wat denk jij dat het kost als bv de computers op Wall Street uitvallen?
IDE? Ik denk het niet. Dit zijn geen game pc's hoor. Die vragen zware procesoren en snelle videokaarten. Dit zijn professionele systemen. Datt werkt totaal anders.
Moet ik je toch ff uit de droom helpen, vond het ook al gek dat er 2.5" SCSI disks zouden zijn:
Intel Pentium III 700MHz processor
440GX chipset
512MB ECC memory (PC100)
30GB IDE ultra-low-profile 2.5-inch disk drive
dual 10/100Base-T Ethernet ports
signals for expansion PCI slot (XIO slot)
PICMG 2.16-compliant
Ok, dan zijn het IDE disken, maar dan nog maakt het weinig uit. Iedere 700 MHz processor hoeft er maar 1 te besturen. En misschien kost dat dan 4% processor power ipv 2%. Want ook SCSI moet door je processor worden aangestuurd. De IDE vraagt dan wel 100% meer. Maar dan alleen als de disk ook wat moet doen. Dus de overal performance wordt nauwelijks beinvloed. Als je systeem die extra 2% tijdens disk io niet kan trekken had je al een zwaar overbelast systeem. SCSI is eigenlijk alleen in het voordeel als je grote array's met disken hebt. En die heb je hier niet
IDE? Ik denk het niet. Dit zijn geen game pc's hoor. Die vragen zware procesoren en snelle videokaarten. Dit zijn professionele systemen. Datt werkt totaal anders. Bovendien hangt het van je OS af of je processor snel genoeg is.
Hmm hebben ze ook een optie -1 (belerend) ?
Volgens mij zei ik niks over of je processor wel of niet snel genoeg is en het woord videokaart kwam al evenmin in mijn post voor. Feit blijft dat een RAID controller sneller en met minder handelingen dingen weg zal schrijven dan twee individuele computers. En inderdaad zoals LEiPiE al postte, lezen helpt.
Materiaal is volmaakt onbelangrijk in het kostenplaatje. Beschikbaarheid is veel belangrijker. Wat denk jij dat het kost als bv de computers op Wall Street uitvallen?
Ik denk niet dat ze op Wall Street dit soort systemen gaan gebruiken.

Als geld geen rol speelt kan je ook wel gewoon normale servers kopen, die zullen waarschijnlijk toch stabieler zijn, ivm temperatuur enzo. Dan praat je over de reguliere servers met onderhoudscontracten van 40.000+ per jaar en zijn materiaalkosten inderdaad volkomen onbelangrijk. Dit zijn waarschijnlijk ook niet echt high-end servers als ze nu een 700 Mhz uitbrengen terwijl we toch zo rond de 2 Ghz zitten met gewone procs.

Deze blade servers lijkt me vooral interessant voor middelgrote bedrijven die op deze manier relatief goedkoop toch een professioneel systeem neer kunnen zetten. Hoge mate van flexibiliteit en betrouwbaarheid tegen redelijke kosten.
Dat zijn gewoon twee geheel verschillende dingen, die weinig met elkaar te maken hebben, en elkaar zeker niet uitsluiten.
Geef mij dan maar de 1U servers van HP (LPR) of Compaq (DL360) - ben nog niet in aanraking gekomen met andere merken -. Hierin kunnen in ieder geval 2 x Ultra SCSI-3 10k of 15k schijven in gecombineerd met een RAID-controller. Van deze servers kan je er dus 13 kwijt ipv de 16 zoals boven wordt gezegd. Maar kijkend naar de opties van de niet-blade servers is het verlies van 3 servers wel waard!
Ahum, er staat boven dus dat er 38 blades in een 13U rack kunnen. En dan blijf je met 13 1U servers in 1 rack dus wel een beetje achter. Natuurlijk een beetje afhankelijk van de toepassing. Zeker als er nog krachtigere uitvoeringen komen dan er nu zijn geïntroduceerd.

Alleen vat ik het rekensommetje boven niet. Ze zeggen 38 blades in 1 kast. Waarvan 16 servers 16 data en 2 netwerkblades. Kom ik toch nog steeds 'maar' op 34 :?
4 Management Blades dus dan denk ik :? ;)
Zoals DaffyD heel duidelijk zegt, er kunnen er dus maar 13 in 13U, en niet 16 in 13U. Over hoeveel er in een rack passen heeft hij het niet gehad.
Daarnaast kunnen er waarschijnlijk meer 1U machines in een rack, omdat je daarmee elke U kunt gebruiken, terwijl je anders met eenheden van 13U zit te passen en meten.

* 786562 TheGhostInc
(Dus over 2 blades een taak verdelen kan alleen als de taak in 2 delen kan, bij bv. een database is dit veel lastiger, dan kun je het splitsen langer uitstellen, omdat je een Dual 1Ghz hebt ipv. 1x 700Mhz)
maar dan heb je wel een RAID i.p.v. een cluster
In een 19" 13U rack kunnen in totaal 38 blades, wat opgebouwd kan worden uit maximaal 16 server blades (cpu, geheugen, enz), 16 data-opslag blades en 2 netwerk blades.
Hmm 38 blades, maar als je rekent kom je maar op 34 uit. Waar zijn de overige 4? of is dat ruimte voor extreme koeling? Ik kan me best voorstellen dat op zo'n compacte plaats best een hoop warmte vrijkomt.
Misschien zijn dat de "managment" blades?
Die schijven zijn alleen bedoeld om het OS op te starten. Dataopslag zou moeten komen van NAS/SAN's.
Ik ben het totaal met je eens dat de data oplsag op een NAS/SAN moet gebeuren. Maar die optie is er nou net niet.

Voor mij is het wel duidelijk dat deze blades, op dit moment, alleen nog maar toepasbaar zijn voor een niet bedrijfskritische toepassing. Voor bij een ISP als streaming server oid zal het een prima oplossing zijn.

Het zal vast niet al te lang duren voor ze een Blade laten werken met een SAN. Dan wil ik er zeker nog een keer naar kijken.
Behuizinkje eromheen knutselen en je hebt een 19" laptop ;)

Vroeger had je voor 1 computer een huiskamer gevuld, het wordt steeds compacter, dalijk draag je je eigen webserver mee in je horloge met satelliet uplink.
Blades zijn al een tijd in gebruik zoals bij de SUN 10000. Het wordt inderdaad erg interessant als de andere grote jongens mee doen, zoals IBM en HP

Maar deze worden vrijwel uitsluitend gebruikt voor het berekenen van complexe kans berekeningen, zoals:
*Waar zou aardolie kunnen zitten voor Shell
*Kunnen vluchten rendabeler vliegen met een andere route, crew en onderhoud voor de KLM.

* 786562 poekie
* poekie denkt dat de NS er ook een moet kopen :)
ja om door te kunnen rekenen hoeveel geld ze moeten reserveren voor alle te betalen boetes :(
Dat ziet eruit als een prettig systeem voor onze toekomstige Linux terminal servers. Voor niet al te veel geld wel heel veel pit. Benodigdheden: Linux & VNC :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True