Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties

Computerfabrikant Dell breidt zijn Poweredge-lijn uit met twee nieuwe bladeservers op basis van Intel en AMD en een 10U modulaire bladebehuizing voor datacenters.

Zestien halfhoge bladeservers kunnen een plekje vinden in de Poweredge M1000E behuizing die is voorzien van maximaal drie redundante of zes niet-redundante voedingen van 2360W. De behuizing biedt verder plaats aan maximaal zes input-output modules voor drie redundante configuraties met ethernet- of glasvezel-switches.

Dell heeft zijn Openmanage-beheerapplicatie geïntegreerd in de Poweredge M1000E. Hiermee is onder meer het stroomverbruik en de snelheid van ventilatoren vanaf een console op afstand te regelen.

De Poweredge M600 en M605 zijn bladeservers die respectievelijk met Intel- en AMD-processors uitgerust kunnen worden. De M600 wordt in configuraties geleverd tot aan twee Intel Xeon 5400 quadcore-processors op 3,16GHz, met maximaal 64GB fb-dimm-geheugen en 300GB schijfopslag. De M605 is uitgerust met maximaal twee quadcore Opterons op 2,3 GHz of twee dualcore Opterons op 3,0 GHz en de 64GB wordt gehaald met acht 8GB ddr2-dimms. Beide servers worden beheerd via Dells Openmanage en kunnen worden geleverd met Windows Server 2003, Red Hat Linux, Suse Linux of Vmware ESX.

Dell M1000e
Moderatie-faq Wijzig weergave

Reacties (26)

@ Floor-is,
Je maakt erg goede punten echter wil ik er wel een paar kanttekeningen zetten & wat aanvullen.

WBT de platform stability weet ik dat ook IBM & HP je geen server kunnen leveren die identiek is aan een model van 3 of meer jaar geleden.
Alle producenten zitten met het zelfde probleem dat ze afhankelijk zijn van 3e partijen voor het aanleveren van bepaalde stukken hardware, denk bijvoorbeeld maar eens aan cpu's. Je weet zelf hoe vluchtig de markt voor bepaalde hardware is, de enige optie die een fabrikant zou hebben is het massaal inkopen van hardware om een dergelijk beschikbaarheid te kunnen garanderen welke je onmiddelijk in de prijs terug gaat zien, dit is geen reële optie meer in de huidige markt een klant gaat niet meer betalen voor een dergelijke stock. Wat overigens wel gebeurt is dat een zelfde naam voor een product word aangehouden maar dat de interne hardware na een peroide veranderd.
Laat overigens over support & platform stability geen misverstand ontstaan, de support breid zich bij Dell ook ruim over de 3 jaar, zeker 5 jaar uit.

De storage oplossingen moeten we ook onderverdelen in verschilende segmenten, low, middle & high-end.
Waarbij ook nog een duidelijk verschil is tussen de FibreChannel & ISCI based oplossingen. EMC's heeft zich vanuit de historie gericht op de high-end omgevingen en is marktleider in dit segment. In het midden segment positioneren zijn de clarion producten welke inderdaad ge OEM'd worden door Dell, lower end hebben ze onlangs een 2 tal nieuwe producten gelanceerd 1 op FC basis (AX4-5) de ander op ISCSI basis (AX4-5i), verder overigens identieke producten.
Overigens heeft Dell onlangs ook Equallogics overgenomen om met Nettapp te kunnen concureren op de ISCSI based storage omgevingen.

Het werd overigens ook tijd dat Dell met een nieuw bladeplatform op de proppen kwam, ze hebben hier lange tijd HP & IBM voor zich moeten laten door de beperkte feature en IO set welke ze in hun vorige generatie blades hadden, slechts 1 extra IO slot welke met een extra netwerk, Fibrechannel of infiniband module uitgerust kon worden naast de standaard dubbele ethernet aansluiting is een beetje een killer zeker als we naar een VMware platform kijken...

Overigens is het moeilijk om te zeggen welke oplossing op voorhand de 'beste' is omdat dit zoals altijd sterk afhankelijk is van de wensen & eisen van een omgeving, dit geld voorzowel storage als server technieken.

Hoe dan ook een leuk onderwerp! :)
Waar worden dit soort servers eigenlijk zoal voor gebruikt?
Voor alles waar je schaalbaarheid en/of plaatsbesparing voor wil.

In de plaats van 42 1U of 21 2U servers ga je nu een paar blade enclosures plaatsen in je rack waar je, als ik me niet vergis, afhaneklijk van het type bijna 100 servers in kwijt kan.

Er wordt ook nog eens stroom bespaard. Dingen die je normaal gezien dubbel zou hebben (elke server bvb 2-3 redundante voedingen) hoef je nu maar 1 keer redudant te hebben. Je gaat dus bijvoorbeeld 2-3 redundante voedingen in je blade enclosure stoppen die dienen voor als je blade servers.

Ook schaalbaarheid is perfect bij een blade systeem. Als je op dit moment bvb X capaciteit nodig hebt, en verwacht binnen de 4 jaar 2X nodig te hebben kan je nu gewoon een enclosure kopen met extra ruimte en dan het aantal servers die je nu nodig hebt. Wanneer je dan extra capaciteit nodig hebt hoef je er enkel een blade server bij te prikken en klaar. Je moet dus niet een nieuwe server kopen of allerlei onderdelen vervangen maar "gewoon" een blade erbij stoppen. Perfect voor clustering dus.
Je hoeft zelfs geen harde schijven in zo'n blade server te stoppen, dat kan perfect met een SAN.

Idieale toepassingen zijn dus, zoals hierboven al staat, web servers, database servers, en zoals je in het artikel al ziet, VMWare/Xen servers. Allemaal dingen waar je meestal wel, naargelang van tijd, extra capaciteit gaat voor nodig hebben naargelang de tijd voorbij gaat.

Doordat je je data volledig op een san kwijt kan is er ook geen risico op grote downtimes als er een server stuk gaat. Gaat 1 van die blade servers stuk hoef je dan gewoon maar de oude te vervangen door een nieuwe. Geen tijd verliezen met mirrors of backups terug te zetten,...

Je bespaart ook nog eens een hoop stroom met die dingen doordat veel zaken kunnen weggelaten worden (voeding, schijven, koeling,..). Dat loopt op als je veel servers hebt, al helemaal als je het over een heel datacenter vol hebt.

[Reactie gewijzigd door DinX op 21 januari 2008 17:29]

Van de site van dell zelf:
High density environments running network infrastructure, web applications, SAN compute nodes, HPCC applications, database front-end, and file and print.
Dell

En idd, aangezien er maar weinig opslag plaats is (max 300GB) en veel geheugen (max 64GB) zijn deze servers ideaal voor databases en webapplicaties, maar niet voor opslag.

[Reactie gewijzigd door wiels op 21 januari 2008 17:19]

Storage wordt natuurlijk niet zozeer in de server als wel op het SAN gedaan. Stop een stel fiberchannel kaarten in deze machines en je kunt er vele terabytes aan storage aanhangen.
maar niet voor opslag.
Daarvoor kun je toch gewoon een storage unit in het rack hangen?
webapplicaties of websites hosten. (facebook.com bijv.)
Clustering is er 1 van. Kun nogal wat van deze dingen in 1 rack kwijt. Compact met veel power.
Praktische toepassing zal je onder meer vinden in verzekeringsbedrijven, banken, webhosters, ed.
Als je die dingen dan meteen met ESX uitrust is het helemaal prachtig, dan wordt je downtime geminimaliseerd naar bijna nul. Zodra er iets mis is met een van de servers zal dat management programma wat erbij zit een melding geven aan ESX, die verplaatst alle virtuele serverinstanties naadloos naar een van de andere servers in de pool en daarna schakelt de server zich uit en mag ie vervangen worden.
Je hele business blijft draaien zonder downtime :D Werkt geweldig. We gebruiken het hier ook.
uh, wat is het probleem met maar 32A??
Een beetje fabriek of kantoor is al minimaal 2 a 3 maal zo hoog gezekerd (ook rekening gehouden met selectiviteit), sterker nog de kracht wcd's in de fabriek waar ik werk zijn allemaal 32A.
Goed dat ter zijde.

Zijn blade servers als je er mee virtualiseert geschikt voor sql 2005 met een heel erg hoge I/O per seconde? Ik praat over 20 a 30 duizend i/0 per seconde op bit niveau? (specialistische industriele applicatie).
Of is virtualisatie met blade servers daar absoluut niet voor geschikt?

(dus os: 2003 server en sql 2005 en dat 2x met zeer hoge I/o per seconde)

Wat ik me ook afvraag is hoelang spare servers in dit wereldje te bestellen zijn, kijk ik kan me voorstellen dat cpu's veranderen, maar dat er bijvoorbeeld gemixt kan worden met blades die verschillende cpu's hebben.
Hoelang kan men meestal leveren dus? 5 jaar, 10 jaar, 20 jaar, wat moet ik me daarbij bij voorstellen?

[Reactie gewijzigd door Ghoztmaster op 22 januari 2008 19:47]

Wat ik me ook afvraag is hoelang spare servers in dit wereldje te betsellen zijn, kijk ik kan me voorstellen dat cpu's veranderen, maar dat er bijvoorbeeld gemixt kan worden met baldes die verschillende cpu's hebben.
Je kunt ze zonder problemen door elkaar gebruiken zolang ze maar in de enclosure passen. Het is vaak mogelijk dat je ook verschillende formaten blades kan gebruikt, bijvoorbeel voor single-/dual of quadsocket , storage en communicatieblades.
Hoelang kan men meestal leveren dus? 5 jaar, 10 jaar, 20 jaar, wat moet ik me daarbij bij voorstellen?
Volgens mij is 3 jaar platformstability gebruikelijk. Maar verkrijgbaarheid, buiten overstock , 2nd hand en refurbished, zal niet zo lang zijn als jij wilt. Ik denk dat 2 jaar al lang is.

[Reactie gewijzigd door PcDealer op 21 januari 2008 21:28]

3 jaar platformstability is echt om te huilen, laten we wel zijn. IBM gaat uit van 8 jaar, HP rekent 6-8 jaar.

Sowieso zijn de Dell-oplossingen die ik tot op heden heb gezien zwaar inferieur aan de Hp oplossingen, waar IBM -mijns inziens- zelfs nog beter presteert.

Als we praten over I/O's dan hebben we het minder over de blade(server)s, maar over storage-oplossingen. Je sluit aan over FibreChannel (2/4 en binnenkort ook 8Gbit) Er zijn een aantal spelers:
- NetApp (IBM OEM't die dingen) die redelijk low-end beginnen en goed uitbreidbaar zijn.
- HP heeft low-end de AIO en MSA's, daarna EVA en als je echt heftig wilt doen een XP-lijn.
- EMC (Dell OEM't die dingen), schijnen best goed te zijn, maar kunnen voor zover ik weet nog niet tippen aan de NetApp, laat staan de EVA of XP's van HP.

Ga je werken met Virtualisatie zijn er eigenlijk maar een paar oplossingen:
- VMWare, veruit de grootste en terecht marktleider
- Xen, ook opensource te krijgen, iets minder geavanceerd, maar zeker een interessante speler
- Terminal Server van Windows is momenteel nog niet zo ver, maar met de Win2008 server versie en geplande updates voor dit jaar zie ik hele leuke dingen tegemoet.
Voor applicatiestreaming hebben we Citrix, een geweldig stuk software als je naar snelheid, functionaliteit en groeipotentie kijkt. (Citrix heeft bovendien Xen gekocht en gaat dus verder dan alleen applicatiestreaming tegenwoordig!)

Blades zijn handig, want:
- Een blade is goedkoper en zuiniger dan een server (minder onderdelen)
- Een chassis kan tussen de 6 en 16 servershuisvesten (er komt een oplossing van een hele grote producent met 2 nodes/blade aan!)
- Switching (IP/SAN) kan in het chassis waardoor je heel veel kabels minder nodig hebt
- Het is een eitje om een blade te verwisselen (geen gedoe met kabels)
- Management/onderhoud van blades is veel eenvoudiger (helemaal in combinatie met tools als HP SIM, RDP en VMWare)
- Een chassis is veel zuiniger dan losse servers omdat er minder voedingen nodig zijn die bovendien evenrediger belast worden.
- Een chassis gaat over het algemeen langer mee dan een generatie blades
- Kleinere footprint nodig
- Minder power nodig en dus minder koeling nodig

Nadelen zijn er echter ook:
- Kleinere footprint zorgt voor meer powerconsumption per vierkante meter: koeling kan een issue zijn in kleine ruimten en het kan lastig zijn om 4 chassis in een enkel rack goed te koelen.
- Als je netwerk en serverbeheer wilt scheiden kan je met pass-through modules werken, maar dan heb je enorme kabelbossen (met klassieke servers natuurlijk ook, maar je gooit zo een voordeel weg)
- Er zijn relatief weinig switches leverbaar die in een chassis passen (natuurlijk Nortel, Cisco, Brocade, QLogic en de nodige Infiniband switches etc, maar geen exoten)
- Eenmalige investering kan even schrikken zijn (chassis' zijn niet gratis en lonen vaak pas de moeite vanaf zo'n 6-7 blades)
- Weinig storagemogelijkheden op de blades. Er zijn wel IO-uitbreidingsmodules om meer disks (en tapes en complete AIO's) kwijt te kunnen, maar je wil je storage bij voorkeur buiten het chassis houden. In sommige gevallen moet er dan (dus) een SAN worden aangeschaft.
- Niet voor elke toepassing wil je een chassis met blades hebben, er zijn zeker situaties denkbaar waar 'klassieke servers' een betere oplossing bieden.

Er zijn bovendien kleine chassis leverbaar (IBM S-Chassis, HP C3000) die minder redundant zijn opgebouwd. Hierdoor zijn ze inderdaad beter betaalbaar, waardoor ze voor het MKB eerder bereikbaar zijn, maar dus wel tegen een bepaalde kostenpost (redundantie). Combineer een C3000 met een MSA1000 en je hebt echt een tof begin, je kunt bovendien de blades uit de C3000 eenvoudigweg in een C7000 steken als je uitbreiden moet. (Zelfde geld voor IBM S-chassis en de grote broer: het H-Chassis)
Je haalt, qua virtualisatie wel een paar dingen door elkaar...

VMWare - Xen okee, klopt...

Maar je meldt wel MS Terminal Services, maar geen Citrix Presentation Server (en die is toch echt véél verder)

Voor applicatiestreaming (als je Citrix Streaming Server écht "streaming" kan noemen) heb je natuurlijk ook meerdere producten, zoals Softgrid en Altiris SVS. Allebei goede oplossingen, beide met hun eigen voors en tegens.

Wat ik een beetje raar vindt, is dat er al heel lang een product is wat m.i. veel meer potentiaal heeft: Ardence (inmiddels ook overgenomen door Citrix en omgedoopt tot Citrix Provisioning Server)

Je hoort er nooit iets van, terwijl ik (uit eigen ervaring) weet, dat dit een product is wat veel meer bekendheid zou mogen hebben. (En "nee", ik verkoop het niet...)

Je kunt hiermee het hele OS virtualiseren, terwijl het (i.t.t. VMWare / Xen) wél op individuele hardware blijft draaien. Je bent hiermee vrijwel net zo flexibel als VMWare/Xen maar hebt wel full recources per server (In tegenstelling tot VMWare/Xen, waarbij verschillende VM's de recources draaien) Het blijft natuurlijk wel een ander toepassings-gebied, maar kan m.i. nog veel bedrijven heel goed van dienst zijn...
Ik denk dat ik je niet helemaal goed begrijp over het stuk van Ardence. Je kan het voor virtualisatie gebruiken, maar je kan maar 1 virtuele server per fysieke server draaien? Dat lijkt mij eerder een nadeel. Het feit dat er meerdere virtuele servers kunnen draaien is eerder een voordeel.
VMware heeft ook zo'n immens opwindende optie voor dynamische resource toewijzing, waar je gewoon een pool aan fysieke hardware hebt en een berg virtuele servers die automatisch verdeeld worden voor optimale performance. Het heeft danook de mogelijkheid om virtuele instanties naadloos over te zetten van de ene server naar de andere. (Ervanuitgaande dat je wel een SAN hebt.) Dit betekend bijvoorbeeld als er een server een storing begint te voorkomen (meeste storingen worden wel opgevangen door de management software) dat ESX een melding hiervan krijgt en automatisch de server in kwestie leegtrekt en zijn instanties overzet op de andere servers in de pool. Vervolgens gooit IT er een nieuwe blade in en worden de instanties weer verdeeld.
De enige manier om zo nog een uitvallende server te hebben is basicly als er iemand een kop koffie overheen gooit ofzo.
Zoals jij het stelt, heeft het inderdaad geen voordelen.

Wat bij grote organisaties met grote Citrix farms vaak het probleem is, is het gelijkhouden van de individuele servers.

Met Ardence (ik blijf het zo noemen) kun je één diskimage maken, en die aan (bijv.) 100 servers hangen. Wanneer deze servers zijn gestart, zijn deze dus alle 100 100% gelijk.

Moet je een update/toevoeging doen, dan kopieer je het image, hangt het in private mode aan één individuele server, installeert de patch/nieuwe software/whatever en klaar.

Je kunt dan (bij wijze van test) het image (in shared mode) aan een aantal servers hangen, om te testen. Werkt het, plak je het image aan de oorspronkelijke 100 servers en reboot.

Kortom: VMWare en Ardence zijn geen concurrenten. Niet in dezelfde markt in ieder geval...

[Reactie gewijzigd door ramaekd op 22 januari 2008 14:06]

Hier snap ik even iets niet.
Als ik praat over 2003 server met sql 2005 waarom praat je bij I/O dan over storage? De blade zal toch eerst alles moeten verwerken via netwerk?
Ik praat dus over I/O op ISO4 en dan ook nog op bit niveau, als je dat gaat virtualiseren met blade(s).

Dat wilde ik dus even duidelijk hebben. Ik hoop dat ik mijn vraag geneog heb kunnen verduidelijken.
Wat bedoel je dan precies met virtualiseren. Als je een CPU/Mem/IO intensieve applicatie/database hebt, voegt virtualiseren alleen maar extra overhead en dus bottlenecks toe...

Het mag dus NOG duidelijker ;-) (no flame!!!)
Quadcore AMD Opteron's. Ze komen \o/

Helaas is het nog niet bekend wanneer... Maar iig een goed teken dat ze nu bij Dell op de site staan.
Wel een grapig detail trouwens dat de versie met AMD processoren het nummer 605 heeft gekregen. (hoger dus dan de intel 600 serie)

Nu hoop ik niet dat iemand die over blade-servers gaat binnen een bedrijf zegt "oh die heeft een hoger type nummer, oeh dus AMD is beter, die nemen we."

Maarja ik vind het toch een grappig detail, zijn QuadCore Opterons op dit moment nog sneller dan de intel tegenhangers?
Ik weet niet hoe ik die ene benchamrk moet zien die ik heb gezien (verdiep me niet zo in de servers) maar daaruit bleek dat:

1 CPU Systeem: Xeon 2,8GHz maakte gehakt van de Barcelona 2GHz (duh)
2 CPU systeem: 2-way Barcelona 2GHz was net iets sneller als een 2-way Xeon 2,8GHz systeem.

Zou eens wat benchmarks moeten zoeken, maar het kan best zijn dat Intel bij 8 cores totaal echt een zware bottleneck aan zijn FSB heeft, daar waar HT3.0 nergens last van heeft.

Blijkt hier ook wel waar de Barcelona een stuk beter is als een Xeon:
http://www.anandtech.com/.../showdoc.aspx?i=3091&p=13

[Reactie gewijzigd door GENETX op 21 januari 2008 17:46]

Is bij HP ook al tijden zo:
ProLiant BL460c = Intel
ProLiant BL465c = AMD
Maar bovenstaande redenatie nog niet voorbij horen komen vanuit management. :X
Maar bovenstaande redenatie nog niet voorbij horen komen vanuit management.
ik denk dat 't ook eerder zal zijn: intel was eerder, toen kwam AMD, dus hebben we die 0 maar in een 5 veranderd.

ik denk dat dat ook de enige motivatie zal zijn. :)

* arjankoole heeft een complete vloot aan DL3x0 en DL3x5's, en nog een enkele DL585.
Die blade servers zijn interessant, alleen een complete gevulde blade behuizing maak je wel het energiebedrijf helemaal happy mee :+ Ding zuipt stroom, maar de footprint is wel klein en een server bijplaatsen is simpel (geen extra kabels e.d. nodig). Veel bedrijven moeten nieuwe kabels aanleggen, omdat zo'n blade systeem al 32A kan trekken.

[Reactie gewijzigd door UTMachine op 21 januari 2008 19:10]

Grote datacenters van grote bedrijven die hierop dingen virtualiseren. Applicatie en fileservers die doordat ze de zelfde hardware hebben makkelijk snel te vervangen zijn.
Kunt er gewoon alles op draaien hoor. (Wij draaien er hier Citrix servers op). Het zijn gewoon volwaardige servers.

Voordeel is, dat je een hoop bekabeling bespaart. Passen op deze manier 64 servers in een 42U rack... Doe dat maar eens met 42 1U pizzadozen...
Hmmm... Wel eens nagedacht over wie die 32A voedingsaansluiting aan moet (of vooral: kan) leggen?

Lijkt me redelijk specialistisch werk. :Y)

[Reactie gewijzigd door tommie-boy op 21 januari 2008 19:50]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True