Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties

IBM heeft afgelopen week een nieuwe categorie servers op de markt gebracht. Deze zijn speciaal ontwikkeld om te voldoen aan de eisen, onder meer op het gebied van energiegebruik, die de uitbaters van web 2.0-sites aan hun hardware stellen.

In datacenters wordt gemiddeld tien tot dertig keer zoveel energie gebruikt als in gewone kantooromgevingen. De verwachting is dat het aantal datacenters de komende jaren sterk blijft groeien, aangezien de vraag naar streaming video, online gaming en socialnetworkingsites zal blijven toenemen. IBM heeft daarom een nieuwe set bladeservers gebouwd, speciaal met het oog op energieverbruik. De nieuwe servers hebben de naam iDataplex gekregen.

IBM iDataplex-bladeserverrackDeze nieuwe iDataplex-blades gebruiken veertig procent minder energie, terwijl hun performance maximaal vijf keer hoger wordt. Verder zijn deze nieuwe bladeservers aanzienlijk kleiner, waardoor er dubbel zoveel in een standaard IBM-serverrack passen. De iDataplex-blades kunnen achterop het systeem met een liquid cooled wall voorzien worden zodat ze op 'kamertemperatuur' kunnen werken en er geen airco nodig is.

De iDataplex-servers zijn uitgerust met Xeon-cpu's van Intel; als de vraag groot genoeg is wil IBM overwegen om ook Opteron-chips te leveren. Kopers kunnen kiezen uit 22 moederborden, waarmee ook de keuze voor de processor, aantal pci-slots, het geheugen en storageopties mee bepaald wordt.

De bladeservers maken verder gebruik van Linux en zullen vanaf juni beschikbaar zijn in Amerika en Canada. De apparaten zullen vanaf het einde van dit jaar wereldwijd te koop zijn. De iDataplex-servers zijn custom-built apparaten en er is daarom geen standaardprijs beschikbaar. Volgens IBM zouden ze echter goedkoper moeten zijn dan oplossingen van andere bedrijven.

Moderatie-faq Wijzig weergave

Reacties (26)

Ben ik nu de enige die het concept van een "liquid cooled wall" opvalt? Het is een concept uit de tijd van de oude Egyptenaren (of misschien wel eeder) maar wordt nog steeds maar bar weinig toegepast (waarschijnlijk omdat electriciteit altijd zo goedkoop is geweest).

Stel je het volgende voor. Een "muur" van geleidend materiaal, spiegelglad aan de kant van de blad servers, ruw/grof/poreus aan de andere kant. Warmte van de bladeserver warmt de muur op, laat nu water verdampen aan de andere kant (of indien niet verdampen ivm kalk aanslag ofzo gewoon stromende vloestof in een gesloten container) en het enige dat je nodig hebt is een beetje energie om het water omhoog te pompen.

In de oudheid gebruikte ze ijs gewikkeld in natte doeken om ijs vanuit de bergen naar de steden te kunnen transporteren zonder dat het smolt. Het wordt eens tijd dat deze oude basale wijsheden wat meer werden gebruikt in deze tijd.
Ik had er eerst ook overheen gelezen, de "liquid cooled wall" werd terloops genoemd en zei me niet direct wat. Wel mooi inderdaad dat er zulke basale maar degelijke concepten van stal gehaald worden!
Hebben hier een heel nieuwe computerzaal met dit principe ingericht. Alleen de APC uitvoering. En ik moet bekennen, het werkt wel heel "cool". Alleen grote verschil met normale rekencentra, er gaan nu niet alleen koper, glas, stroom kabels naar de kasten maar nu ook buizen voor het water of wat er ook in mag zitten.

Wat wel opvalt is dat er gewoon minder warmte is in de zaal, geen airco's hangen, maar wel twee enorme water? tanks op het dak staan met wat warmte wisselaars of zo iets.

Wat ik wel begrijp uit de werking is dat het ook nog eens zuinig is in verbruik, wordt gebruik gemaakt van het principe dat warme vloeistoffen een lagere massa hebben dan koude vloeistoffen en dat hierdoor weinig energie nodig is om de boel rond te pompen, lijkt wel een soort omgekeerde CV installatie.

[Reactie gewijzigd door Wim-Bart op 27 april 2008 01:21]

Vroeger hadden de huizen (stook)kelders en stond de verwarmingsketel daar.
Maar toen we huizen bouwden zonder kelder is de cv naar de zolder verhuisd.

Een cv pomp in de kelder gebruikt slechts 25% van een pomp op zolder.
Ik zie echt niet in waarom dit zo super geschikt is voor web 2.0 sites, lijkt me meer gewoon promo-praat! De wensen van de gebruikers van datacentra zijn op energiegebied gewoon gelijk: Zo min mogelijk warmte en energieverbruik.
Is het volgens mij wel een beetje. De server is bedoeld voor de volgende sites:

De verwachting is dat het aantal datacenters de komende jaren sterk blijft groeien, aangezien de vraag naar streaming video, online gaming en socialnetworkingsites zal blijven toenemen.

En die sites zijn een vrij zware belasting voor servers door het vele laden van filmpjes, informatie etc., maar in mijn ogen is web 2.0 ook een oplossing voor die zware belasting: niet de hele pagina wordt opnieuw geladen, maar juist een klein deel (dus minder belasting). Web 2.0 zou dus zelf ook al een verbetering zijn en het artikel lijkt erop te wijzen dat dit niet het geval is.
Er wordt maar een deel van de pagina gerefreshed, maar dat gebeurt wel veel vaker, dus alsnog een hoge load.
Wellicht doelen ze op het feit dat er vrij veel dynamisch gebeuren in "web 2.0" zit en je dus relatief krachtige cpu's en vrij veel geheugen e.d. moet hebben terwijl doorgaans de storage ergens centraal geplaatst is. Je moet alleen wel een hele zware site hebben, wil je zo'n compleet rack van ze nodig hebben...
Ik ben wel met je eens dat het verder gewoon een suffe marketingterm is.
Ach ja, neem het ze eens kwalijk, ook IBM moet zijn koopwaar weten te slijten en dan is wat marketingprietpraat tegenwoordig een vereiste.

Los daarvan zijn het volgens mij best puike systemen, als ik de specs zo zie. Met name de focus op het verminderde energieverbruik is interessant, elektriciteit wordt meer en meer de bottleneck bij datacentra...
Nou, ik denk dat Hyves wel een paar van die rekken kan gebruiken hoor... Maar dat is dan ook een ultieme 'enterprisy web 2.0 site' ;)
Ik denk dat Hyves haar problemen er zeker niet mee op zal lossen ;)
Hadden ze niet iets van 60 servers?
grappenmaker, eerder 1200
Web 2.0 site's zijn over het algemeen wel zwaarder.. dus er zit wel een logica achter. Alleen of het nu zoveel nut heeft, tja, dat kan ik zo niet zeggen.
Web 2.0 site's zijn over het algemeen wel zwaarder.. dus er zit wel een logica achter.
Dacht juist dat web 2.0 (wat een rare naam eigenlijk voor iets wat al 10 jaar bestaat) gewoon een implementatie is van een website met client side java scripting. En volgens mij ligt client side scripting meer op de client dan op de server. De server krijgt hooguit een zooi soap/xml requests te verwerken. En als het slim is geschreven zal dat niet zo veel belasting zijn voor de servers. Iets anders dan server side java/asp/.net spul.
Die client scripts doen in veel gevallen wel calls naar de server. De server wordt dus niet echt ontlast. Doordat er geen full page refresh gebeurt is de user-expirience wel een stuk beter
Wat ik raar vind is dat de servers 40% minder stroom gebruiken en de helft kleiner zijn.

Maar omdat je 2 servers hebt, krijg je dus, 2 x 100% - 2 x 40% (80%) = 120% dus een overhead van 20%. Dus je hebt weer een stijging van 20% per rack. Tenzij je het vanuit een relatief perspectief ziet.

Aan de andere kant zijn ze dan wel veel krachtiger en neemt de hoeveelheid af. Maar omdat ze het weer verkleinen, wordt er weer meer warmte geproduceerd in 1 rack. Hierdoor hebben ze dus weer een zware liquid cooling voor nodig die weer zoveel extra stroom verbruikt.

Maar goed, wij weet kunnen we dat ooit nog virtualiseren 8)7

[Reactie gewijzigd door TGoC op 26 april 2008 16:07]

Ja het levert per vierkante meter dan misschien wel een hoger energieverbruik (en dus zwaardere koeling) maar je hebt dan wel twee keer zoveel rekenkracht. Die dingen blijven (als IBM gelijk heeft) gewoon zuiniger in prestatie/watt.
Per vierkante meter wel meer inderdaad, er zijn alleen minder vierkante meters nodig. Dus gaat de prestatie per vierkante meter een heel stuk omhoog.
TGoC

Wat een dom gelul is dit !

Je kunt stroomverbruik en volume niet met elkaar vergelijk.
De helft kleiner betekent 2x zoveel servers in een rack.
40% betekent 40% minder dan een oude server.

De nieuwe zijn 5x sneller: Dus 1 nieuwe presteerd meer als de 2 oude van jou.
Dit levert een besparing van 2x100% - 1x60% = 140 % besparing.
Hiermee is bewezen dat de berekening van jouw nergens op slaat.
Wat je kunt maar 100% besparen (en dat is de machines uit zetten)

Bij deze liquid koeling heb je slecht een pomp nodig en deze verbruikt vrij weinig.
bv pomp van de wasmachine 25 Watt en de pomp van de CV 45 watt.
Een 80 mm fan is 7 watt, en 1 pomp voor 10 servers 45/10 = 4,5 watt.
Welke distro wordt er gebruikt?
Juist....een airco.
Waar staat dat?
Nu moet je serverhokken soms zo inrichten dat het meer op een vrieskist lijkt met zo'n airco. Als je een hok zo moet inrichten dat het op kamertemperatuur blijft dmv. een airco, moet je toch weer iets aan je ruimte sleutelen. Nu hoef je alleen een kast neer te zetten en klaar. Ik zie de voordelen wel. Het werkt ook nog eens lekkerder op 2 manieren; je hebt geen last van de aircokoelte en geen last van de aircolawaai.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True