Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties

Intel heeft een nieuw bladeserverplatform geïntroduceerd dat is opgebouwd uit standaardcomponenten. De Clear Bay-bladeserver is gebaseerd op de Modular Server Specification en moet de kosten van bladeservers drukken.

Intel Clear Bay bladeserverClear Bay is gebaseerd op een 6U-hoog bladechassis dat gevuld kan worden met zes blades voorzien van twee dual- of quadcore Xeon-processors en ondersteunt maximaal veertien harde schijfen, twee opslagcontrollers, een beheermodule en twee ethernet-switches. Het platform ondersteunt Intels Multi-Flex-technologie, zo meldt Infoworld.com.

De Modular Server Specification is ontwikkeld door het Server System Infrastructure-forum en heeft tot doel de ontwikkelkosten van bladeservers te verlagen. Dit moet bladeservers ook aantrekkelijk te maken voor kleinere bedrijven en zo de afzetmarkt te vergroten. In plaats van speciaal ontworpen – en dus dure – componenten, worden gestandaardiseerde componenten gebruikt zoals voedingen, koelblokken en connectoren. Naar verwachting groeit de markt voor bladeservers tot en met 2010 jaarlijks met 38 procent.

Moderatie-faq Wijzig weergave

Reacties (30)

Opzich is het natuurlijk wel aardig dat men blades 'goedkoper' maakt door gebruik te maken van 'standaard' componenten. Maar om dan in de ruimte van 6U 'slechts' 6 blades te plaatsen? Dan kan je net zo goed kijken naar 1U pizza-dozen en zal het alleen een afweging worden van de kosten. Terwijl je met de 'standaard' blade oplossingen juist een hogere dichtheid kan krijgen, bv een 4U chasis met daarin 8 duo-proc blades.
In een 1U pizzadoos zit vrijwel nooit een redundante voeding of 4x een NIC en dat is nou net iets wat zo'n blade chassis wel biedt).

Ook kun je veelal in de backend modulair functionaliteit toevoegen die dan automatisch beschikbaar is voor alle blades. Ik heb zelf een IBM bladecenter en via kleine insteekkaarten kan ik hier eenvoudig fibrechannel inprikken en dan via de backbone en een fibreswitch naar buiten. Die fibreswitch is vervolgens eenvoudig weer redundant te maken.

Ik zie het als een manier om heel simpel CPU/Memory aan een omgeving toe te kunnen voegen waarin storage en voeding etc. losgekoppeld zijn. Mijn blades booten via PXE vanuit een SAN een minimale virtual host, om vervolgens daar boven op de virtuele servers te draaien. In het SAN is alle RAID al geregeld en in de virtual hosts doe ik bonding van de 4 NICs (per paar, gekoppeld aan onafhankelijke switches). De bonded NIC die het IP verkeer voor de virtual servers regelt heeft geen IP adres op de host, de NIC die aan het AoE SAN zit is niet beschikbaar in de virtuel servers, zodat de virtual host en virtual server elkaar feitelijk niet zonder firewall kunnen zien. De storage wordt gewoon als block device aangeboden ern is niet gemount op de virtual host.

Het is mogelijk om een draaiende server te migreren naar een andere machine zonder 'm uit te zetten en omdat de virtual hosts de storage niet mounten, is er geen risco van conflicten of caching. Als de virtual server al storage gecached heeft, dan migreert die cache gewoon mee.

Oeps, ik raak een beetje off (blade) topic, maar ik geloof dat mijn inrichting een mooi voorbeeld is van blade server inzet. Ik hoop het in ieder geval ;)
Sorry, maar al onze dell pizza dozen van 1U hebben dual NIC, dual power, dual (of triple disk), biedt de mogelijkheid tot een RAID-1 achtige geheugen setup om live het geheugen uit te zetten en over te nemen. Het enige is dat je meer stroom gebruikt per pizza doos dan in een 6U blade server.
Dit zijn niet al te dure pizza's, dus... ik snap je stelling niet helemaal :)
En is dat trouwens 4x NIC per blade rack of blade?

[Reactie gewijzigd door VisionMaster op 14 januari 2008 15:13]

Klassieke blade servers vind je inderdaad meestal als 12 blades in 8U uitvoering. Maar vaak zijn er dan ook meerdere 4U harddisk cabinets beschikbaar om als SAN te dienen.

De cleaybay is juist bedoeld voor het MKB. Dus blades + SAN in 1 oplossing. Los van het feit dat elk land een eigen definitie van MBK heeft. In Nederland ben je middelgroot tot 250 medewerkers, terwijl Duitsland en de VS 500 medewerkers aanhouden.

Voor intern development kan een clearbay blade systeem wel degelijk interessant zijn. Alle development machines bij elkaar. Bij zeer grote bdrijven kunnen ze zelfs een blade machine per afdeling inzetten. Daarnaast heeft een blade configuratie als grootste voordeel dat deze minder energie verbruikt dan losse machines.

Wat ik wel jammer vind is dat de ClearBay geen ondersteuning heeft voor RAID50/60. (twee RAID 5/6 array's in stripe (RAID 0) mode) waardoor een zeer hoge overdracht snelheid mogelijk is. Wel jammer dat er nog geen prijzen beschikbaar zijn. Richtprijs zou een zelfde configuratie zijn in rack opstelling.
Wat ik wel jammer vind is dat de ClearBay geen ondersteuning heeft voor RAID50/60.
Waar staat dat dat niet ondersteund wordt?
En in plaats van 50 kun je toch ook gewoon 6 gebruiken?
Blades bieden niet alleen ruimte voordeel. Management is mijn inziens belangrijker.

Zelf maken we veelvuldig gebruik van de HP C7000 enclosures. Die dingen zijn werkelijk prachtig en er is zeker goed over nagdeacht. Standaard voorzien van iLO en enclosure management (via https/telnet/secure shell). Alles remote beheersbaar (van firmware updates, remote kvm, power management, mounten van (lokale) iso of (lokale) cd-rom/dvd speler waar de blade van kan booten, koppeling naar je AD voor user management op de enclosure(optioneel)).

Als de enclosure is aangesloten kan je net zo snel een nieuwe fysieke server inrichten als een nieuwe VM. Samen met Rapid Deployment Pack gewoonweg werelspul.

Wat je als nadeel zou kunnen zeggen is dat er maar 2 x 2,5" SAS schijven in kunnen. Mocht je meer nodig hebben kan je een storage blade gebruiken of fibreswitches voor gebruik van een SAN. Al kunnen de 2 onboard nics (je kunt nics toevoegen via de mezzanine sloten) ook ook in de iSCSI mode gezet worden en hiermee naar een SAN connecten.
Maar om dan in de ruimte van 6U 'slechts' 6 blades te plaatsen?
Volgens mij zijn het dual-processor blades. Dan zou het leuk zijn als ze twee onafhankelijke single-processor systemen op een enkel blade konden plaatsen. Niet elk systeem heeft meer dan vier cores nodig.
Bladeservers in combinatie met VMWARE of andere virtualisatiesystemen zijn erg aantrekklijk aan het worden. Hiermee kun je volledige serverparken vervangen door stabiele gevirtualiseerde servers en de hardware door veel kleinere en zuiniger systemen zoals deze. Prima ontwikkeling.
Maar wat is een blade-server nu eigenlijk.

Toen ik op mijn stage daarvan hoorde zei iemand me: "een blade-server is een server die volledig alles dubbel uitvoert, twee cpu's, verschillend geheugen, als er ééntje faalt, kan de andere nog alles doen en de gefaalde server zijn onderdelen kunnen hotswappable vervangen worden.

Op de HP site vond ik niet exact de uitleg.
De belangrijkste voordelen van blade servers, ongeacht de producent:
- gemeenschappelijke onderdelen: voeding, koeling, switches, ...
- hoge mate van redundantie: disks, netwerk paden, koeling, voeding (al kan dat in normale servers ook)
- eenvoudiger management
- minder plaatsgebruik
- standardisatie van hardware
- lagere kosten per server ivm bvb 1U pizzadozen
- ... (er zullen er nog wel zijn)

Blade servers icm VMware komen idd veel voor, maar ze kunnen eigenlijk voor eender welk doel gebruikt worden. Het is pas wanneer meer 'exotische' setups nodig zijn (fibre channel, veel interne storage, ...) dat ze minder nuttig zijn. Dan worden klassieke servers gebruikt.

Eens de blade chassis aangekocht kopen veel bedrijven een spare blade, aangezien de interne hardware toch grotendeels identiek is in elke blade. Server kapot? Harde schijven overplaatsen, ev CPU of mem aanpassen en booten. Ondertussen kan dit zelfs on-the-fly icm boot from san. Server kapot? LUN mounten naar andere blade en booten, enkele minuten later is alles terug in orde. Handig!

CPU redundantie betwijfel ik echter; misschien kan dit hardware matig wel maar ik gok dat Windows dan toch een BSOD geeft. Iemand ervaring mee?
Ja het kan, ik ben er zelf geen voorstander van. Ik heb liever in zo een geval 1 blade als master en de ander als slave.
Fibre Channel is nu net ook één van de zaken waarbij blades in het voordeel zijn.
Met een virtual connect module kan je zo over een paar kabels een volledig bladecenter met 8 of 16 blades van FC-storage voorzien. Scheelt weer een hoop in bekabeling en (dure) FC-switch-poorten...
Deze blade doos is niet optimaler dan 1U servers, hij is 6U hoog en er kunnen er maar 6 in. Hij zal het dus van zijn andere features moeten hebben.
Beheerstechnisch scheelt het al zo veel dat het niet in kosten is uit te drukken, zeker als de managementsoftware goed is.
Dat is niet eens zo'n slechte conclusie. Want opzich komt het er op neer dat je inderdaad meerdere logische computers hebt in 1 chassie. De andere voordelen zijn al vertelt hierboven ten opzichte van een cluster van losse servers ipv een cluster bestaande uit blades.
Was het net aan het lezen ;) voor jouw post.

Eigenlijk zet je dus gewoon verschillende servers in één bak, met gemeenschappelijke voeding, geheugen ?

[Reactie gewijzigd door HyperBart op 14 januari 2008 12:07]

Gemeenschappelijk wat het Blade enclosure kan bieden, geen geheugen dus.
TCO is heel erg belangrijk bij Blades en gelukkig wordt het nu ook wat toegankelijker gemaakt voor het MKB _/-\o_

En doordat je meerdere blades kan gebruiken met ESX is het inderdaad beter managable (zie duidelijk post van Achiel)
Heb deze bladeserver mogen zien op de ICC dag. Leuk ding.
De beheertool die erbij zit, ziet er echt strak uit.

Ik krijg over een tijdje hoogstwaarschijnlijk eentje van Intel om mee te spelen :9~

Kan niet wachten.
En toch heb ik al vaker een blade enclosure volledig zien uitvallen. Nadeel is dat dan dus al je gehoste servers / virtual servers uitvallen. Nou heb je dan wel bijvoorbeeld een 4 uurs contract bij bijvoorbeeld HP, maar je zit even niet lekker als je een hele zwik servers mist in je serveromgeving.
Wat waren de oorzaken dan?

Ik heb dit al wel gezien op IBM Bladeservers waar 14 zware servers in zitten. Ook al heeft die 4 voedingen (2 per helft), als hij te zwaar belast wordt draait elke helft over 50% van de capaciteit en kan er bij een stroomuitval niet alles op één kant gezet worden. Ligt ook aan de config (server throttling e.d.) maar vaak wordt dit vergeten.

Dat kwam uiteindelijk omdat Intel verkeerde specificaties aan IBM gegeven had over het stroomverbruik van bepaalde Xeon CPUs; gevolg was dat IBM de max stroomvoorziening te laag had ingeschat. Maar tegenwoordig kan je tot 4x2000 watt gaan dacht ik.

Ben het wel eens met de post van Qwerty-273, 6 blades in 6U is het ondermijnen van één van de grote voordelen van blades. Nu nog afwachten wat ze kosten...
In ieder geval hebben we een aantal keren voedingsproblemen gehad. Ook hebben we een keer oververhitting gehad in een van de enclosures. Er komt echt een gigantische hitte uit die enclosues. Oververhitting kwam toen door een serverkast die zijn hitte niet goed kwijt kon aan de achterkant. ( was HP kast trouwens).

Qua software op de enclosures hebben we wat kleine problemen met ESX gehad, er komen meer patches uit voor ESX maandelijks dan Microsoft de laatste tijd. En ook dan ligt je hele blade systeem eruit.

Dus tja, we gebruikken ze wel, en ze zijn inderdaad goed uitwisselbaar qua hardware, maar we draaien er geen prio 1 servers erop.
kwa ruimte en stroom besparing is Supermicro Blade een geduchte concurent
http://www.supermicro.com/products/superblade/
Qua performantie anders niet, ze ondersteunen enkel SATA. Dat noem ik technologische achterstand.

NOTE: Blade modules currently support SATA hard drives only. SAS drive support is coming soon.
Niet iedereen heeft SAS drives nodig. Raptors lijken me ook niet heel slecht.
Technologische achterstand? Nee, dat is voldoen aan de vraag op de markt. Ik zie steeds meer bedrijven die de (relatief dure) SCSI-oplossingen aan de kant zetten voor (iets goedkopere) SAS-oplossingen of zelfs SATA.

Het is ook maar net waar je een disk of meerdere disks voor inzet; ik vermoed dat 50% van de servers in een datacentre makkelijk uit de voeten kan met IDE-schijven omdat die voldoende performance leveren voor het neusvreten van de server.
SAS is dan ook gewoon de opvolger van SCSI en in alle opzichten beter.
Wij zijn bezig met opzet van een nieuw bedrijf waarbij we 2 redu. clusters op gaan zetten in en om amsterdam en met glasvezel een failover maken. Helaas bleek dat de vergelijking DELL/HP/Intel/Supermicro niet goed is.

- HP en DELL leveren beide contracten, on-site.
- Bij Dell en HP is overduidelijk veel kennis beschikbaar en advies is goed

Supermicro heeft niemand aanwezig binnen NL, en ook bij de directe leveranciers amper, met verstand van deze machines. Tevens is het met Supermicro niet mogelijk een SLA af te sluiten

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True