Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties

Dell heeft nieuwe PowerEdge-bladeservers uitgebracht, waaronder een model dat met twee op de Fermi-architectuur gebaseerde Tesla-kaarten kan worden uitgerust. Ook komt Dell met een nieuwe PowerEdge met Opteron-processors.

De PowerEdge M610x is een two socket-bladeserver die Intel Xeon 5500- en 5600-quadcores of -sixcores kan bevatten en ondersteuning biedt aan maximaal 192GB geheugen. Dell heeft twee pci-e 2.0-x16-slots geplaatst, waarin twee kaarten uit Nvidias nieuwe Tesla 20-serie zitting kunnen nemen. De PowerEdge M1000e-behuizing van de blades biedt stroomconnectors voor een verbruik van maximaal 250W per kaart. De kaarten moeten de cpu bij general purpose- en hpc-taken ontlasten. Dell kan echter ook Fusion-io's ioDrive Duo-flasdrives in de sleuven plaatsen. De basisconfiguratie van de M610x kost 2269 dollar.

Dell kondigde ook de PowerEdge M710HD aan: een bladeserver met 18 geheugenslots, embedded hypervisors en hot-swappable sas-harde schijven en ssd's. Ook deze machine wordt met Intel Xeon 5500- en 5600-quadcores of -sixcores geleverd en er is ruimte voor twee 2,5"-sas-drives. De M710HD moet in zijn eenvoudigste configuratie 2474 dollar gaan kosten.

Daarnaast introduceert Dell de PowerEdge R715. Dit is een rond AMD opgetrokken machine met Opteron 6100-chips. Deze server heeft 16 geheugenslots, waarin tot 256GB past, uitgaande van modules van 16GB. Verder heeft de R715 zes pci-e 2.0-sleuven, terwijl er zes 2,5"-sas-of -sata-drives in passen. De R715 heeft een startprijs van 3199 dollar.

Dell M1000e chassis

Moderatie-faq Wijzig weergave

Reacties (16)

http://www.xbitlabs.com/n...dows_HPC_Server_2008.html
Dacht even waarvoor, maar bovenstaand link maakt het duidelijk.
wat maakt dit nou nog een blade server als er gewoon alles inzit wat in een complete server hoort?
Er worden wat dingen gedeeld inderdaad. Met name de netwerk IO is wel een grote winst. De switches zitten aan de achterkant in de enclosure je hoeft dus veel minder kabels te trekken. Met 2 management touwtjes en twee keer 10 gigabit ethernet ben je wel klaar bijvoorbeeld.
Ook is het een stuk makkelijker om een blade te vervangen als die stuk is. Je trekt hem eruit schuift er een nieuwe in en gaan met die banaan.
Bij mijn weten worden nog steeds voeding, koeling en I/O gedeeld door het enclosure. Blades zijn er vooral voor de compactheid en efficiŽnt design.
In theorie zijn blades gewoon complete servers hoor.

(Ik moet wel toegeven dat ik niet zo bekend ben met de enclosure en blades van Dell, dus ik kan er wel iets naast zitten)
Volgens mij wil dat zeggen dat er meerdere blades in 1 blade behuizing zit, en dat maakt het een blade server. Waarschijnlijk is er gewoon 1 voeding voor meerdere blade racks te voeden.
Niet echt een echte bladeserver zo aan de afbeeldingen te zien, maar geef toe het klinkt stoer.
'Blade' is gewoon een andere 'form-factor' dan een rack of een tower.

Bij Dell hebben alle servers een naam als 'R710', 'T710' of 'M710', waarbij de eerste een rackserver is, de tweede een tower en de derde een blade, de 'M' staat voor 'Modular'.

Weer een ander verhaal zijn de 'C-class' servers, die geoptimaliseerd zijn voor cloud gebruik. Extra density dus.
De vraag die op ieders lippen brandt:
Hoeveel frames haal je in crysis? :P

OT:
De koppeling van CPUs met GPUs in servers wordt al vaak toegepast in de wetenschap. GPUs zijn goed met floating point operations voor bv. het simuleren van een botsing tussen twee deeltjes.
GPUs zijn goed met floating point operations voor bv. het simuleren van een botsing tussen twee deeltjes.
Fout, GPU's zijn goed in bewerkingen die parallel kunnen worden uitgevoerd op enorme hoeveelheden data. Floating point is meestal (weet niet hoe dat bij Fermi zit) een zwak punt van GPU's, omdat ze precisie opofferen ten bate van performance.
Dat proberen ze met de Fermi dus wat aan te doen:
http://www.nvidia.com/object/io_1258360868914.html
* Support for the next generation IEEE 754-2008 double precision floating point standard
* ECC (error correcting codes) for uncompromised reliability and accuracy
Dus precisie zou geen issue meer moeten zijn. Wat ik mij wel afvraag is hoe de verhouding single/double precision is. Voor een CPU is single bijna 2x zo snel.

Mooi kaartje: de wetenschap bouwt op IEEE 754 voor double precision :)
Wss ver onder jou verwachtingen..
De vraag is eerder hoeveel }:O }:O haal je eruit....
Dat is allemaal heel leuk, maar dit maakt de situatie in server ruimtes alleen maar erger, vaak zit je met limitaties per rack qua stroom en warmte afdracht. Als je er nog 100 Nvidia kaarten in een rack propt dan heb je volgens mij toch echt een probleem (qua stroom/warmte).
Als je een blade enclosure installeert is het eerste waar je naar gaat kijken "hoe voorzie ik het ding van stroom" meestal komt er dan 3 fasen stroom in het rack, word het zaakje redundant uitgevoerd etc...
Je hoeft deze uitvoering ook niet te nemen. Er zijn ook nog "reguliere" modellen verkrijgbaar. Als je echter toch dergelijke videokaarten nodig bent in systemen in je datacenter (denk bv. tbv. HDX 3d acceleratie), dan is dit een erg mooie optie. :)
tesla gpu's hebben (dacht ik ) geen beeld aansluitingen, ze zijn alleen maar voor berekeningen voor het beeld wordt er vaak een quatro in gemikt.
http://www.nvidia.co.uk/p...rcomputer_tech_specs.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True