Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: News.com

HP zal volgende week beginnen met de verkoop van een waterkoelingsysteem, zo is bekendgeworden. Het 'Modular Cooling System' bestaat uit een systeem dat aan de zijkant van een rack met computersystemen bevestigd kan worden en waarmee een afgesloten ruimte van afgekoelde lucht gecreëerd wordt, onafhankelijk van het klimaat in de rest van het datacenter. Volgens Paul Perez, vice president van de 'storage, networking and infrastructure'-groep bij HP, wordt het door deze oplossing mogelijk dat een rack tot dertig kilowatt energie verbruikt, drie keer zoveel als met traditionele koelingen in datacentra mogelijk is. Daarvoor heeft de koeleenheid overigens wel nog een verbinding nodig met een externe waterkoeler. HP kiest hiermee voor een nieuwe benadering.

HP Modular Cooling SystemTerwijl traditioneel de warme lucht achteraan de computer uitgestoten wordt en door de airconditioning van het datacenter weer afgekoeld, laat HP dezelfde lucht constant circuleren in een rack. Bovendien is de systeembouwer al bezig met de ontwikkeling van de opvolger van dit systeem, waarmee een volledige rij computerracks gekoeld zou kunnen worden. Dat product wordt echter niet voor het eerste kwartaal van 2007 verwacht. Vooralsnog zal het systeem enkel werken in combinatie met het HP 10000 G2 Universal Rack, een nieuw 1200 dollar kostend rack dat zeven verschillende modellen die voorheen gebruikt werden moet gaan vervangen. Later dit jaar zal een 'retrofit kit' beschikbaar gemaakt worden, waarmee het systeem ook aan de oudere G1-racks bevestigd kan worden.

Moderatie-faq Wijzig weergave

Reacties (41)

Uit Lanvision

Volgens een woordvoerder van HP groeien sommige bedrijven snel naar een situatie waarin er een één op één relatie ontstaat tussen koelen en stroomvoorziening, waar het een paar jaar geleden nog zo was dat 1 euro aan stroom 30 cent kostte om te koelen. Hiervoor heeft HP nu haar Modular Cooling System (MCS), een warmtewisselaar met waterkoeling die aan de zijkant van een rack wordt geplaatst en volgens HP tot 30 kilowatt aan vermogen kan koelen in een enkel rack. De wisselaar kost $30.500,- en wordt beheerd via HP's Systems Insight Manager (SIM).
Daarnaast kwam HP met een standaard rack voor al haar servers; de ProLiant, BladeSystem, Integrity, Integrity NonStop en HP 9000 servers, en de StorageWorks opslagproducten. Voorheen verkocht HP zeven verschillende racks voor haar hardware, hetgeen ook betekende dat veel servers niet bijelkaar in één rack pasten. Het nieuwe Universal HP 10000 G2 Series Rack is leverbaar in twee maten, 36U en 42U.
Het derde aangekondigde product is de HP Power Distribution Unit (PDU) Management Module, waarmee de HP-stroomvoorzieningen in een datacenter kunnen worden beheerd. De module, die $199,- kost, kan meldingen naar de HP SIM software sturen.
Daarmee bevestigt HP inderdaad dat koeling versus electriciteit 1:1 is geworden; 30.000$ voor een systeem dat 30.000 KWh mag verbruiken.. Dat is toch 1$ per KWh?
Hoeveel kost een KWh? 1$?
Nai --- 30.000$ is aanschafprijs (eenmalig, afgeschreven over zeg 3jaar). 30 kwh (niet 30000) is een verbruik PER UUR (en een kwh kost niet echt een euro).
Wat deze koelunit verbruikt is niet duidelijk hier, en ook niet de totale kost want de warmte uit de externe waterkoeler moet ook weer afgevoerd worden.

Het verbruik van 30kwh op jaarbasis: 30kwh x 24 h x 365= 260.000kwh. De claim is dat bij snelgroeiend en daardoor slecht georganiseerd datacenter, 260.000kwh koelen zo'n extra 260.000kwh kost per jaar: de 1:1 verhouding.

Dus je nieuwe koelingskost is 10.000$/jaar + stroomverbruik van dit grapje per jaar --- en die moet in verhouding zien tot de 260.000kwh x prijs per kwh:
deze verhouding kunnen we enkel berekenen als we (a) kostprijs per kwh (voor grootverbruiker, incl taksen en al) weten plus (b) het verbruik van deze koeler (plus (c) extra installatiekosten, planning, maintenance, ingenieursplannen voor herinrichting, zinloze vergaderingen, ... )
Voorbeeld:

Dit is best een oplossing voor marktplaats omdat die 35 graden per rack aan het verstoken waren ofzo. Het boeltje is nu verdeelt over 16/18 racks, echter nog steeds best warm daar :)


Ik vraag me alleen af of een Datacenter dit gaat accepteren. Airco bijzetten lijkt me handiger en veiliger !
Ik denk juist dat datacenters deze oplossingen zelf gaan plaatsen.

Het verbruik per rack neemt door bladeservers en krachtige 1U servers alleen maar toe. Datacenters moeten dus steeds krachtiger airco's gaan aanschaffen om voldoende capaciteit te houden om alles te koelen. Dan is het wellicht goedkoper om bepaalde hotspots (zoals in jou voorbeeld marktplaats) actief extra koeling te geven dan een compleet nieuwe airco aan te schaffen. Ook het verminderen van het verbruik van een rack door systemen te spreiden is namelijk geen echte oplossing. Daardoor kun je namelijk minder systemen in je datacenter kwijt waardoor de kosten ook verder oplopen.
Ik denk dat je beter wat kosten verhoging kan hebben met meer zekerheid/veiligheid dan meerdere systemen te dicht op elkaar met een koeling die tevens ook niet 100% "waterdicht" is.

Ik heb zelf ook ook minimaal één kooimoer ruimte tussen mijn servers en dat zou mij ookwel 5-10 servers per rack kunnen schelen.

Bladeserver begin ik zelf nog niet aan, gewoonweg te "link".
waterkoel systeemen zijn heel betrouwbaar te maken,
zeker omdat het hier niet om de looks gaat zoals bij veel thuis gebruikers
overall kunnen dikke slangen worden gebruikt (dikken wanden bedoel ik dan natuurlijk) van sterk materiaal, ook omdat het niet doorzichtich hoeft te zijn, en ook kan je overall slangen klemmen op zetten.
of als je toch standaart kasten hebt kan je het hele zooitje in de kast allemaal met masive buizen doen aan elkaar gelast, en de aansluiting voor pomp en radiator aan de buitenkant maken of iniedergaval op een plek (appart vakje) waar geen electronica in de beurt is.

servers met waterkoelig word trouwens als veel langer gedaan, veel van de cray super computers hadden waterkoeling bijvoorbeeld.
als het echt zo onveilig is als jij hier lijkt te beweren hadden ze dat nooit gedaan.
Die kooimoer ruimte heeft helemaal geen zin. Zo benaadeel je juist de warmtestroom in het rack en de ruimte. Als ervaren rackenbouwer kan ik je dat wel meegeven. + Dat de servers en andere zaken niet netjes in het rack passen.
En anders is een rooffankit ook een oplossing als je achter je rack te weinig ruimte hebt om de lucht af te voeren.

Het valt me trouwens nog mee dat gehoorbeschermers niet verplicht zijn in serverruimtes. Heb welleens een dB meter meegenomen en de geluidsdruk liep soms welleens op tot 90 dB...

Die muffe lucht is op een gegeven moment trouwens ook niet fijn, dus ik kijk er wel naar uit als die waterkoeling een gemeengoed wordt!
ach huilende babys kunnen tot ver over de 100 dB produceren, daar heb je ook geen gehoor bescherming voor nodig.
als het echt zo onveilig is als jij hier lijkt te beweren hadden ze dat nooit gedaan
Risico blijft er gewoon !! Zolang je niet eens met een fles cola de Coloruimte in mag ookal is de fles dicht en gaat hij ook niet open zie ik geen verschil.

Een lasnaad kan ook aangetast worden door water/kalk, zo verder.

Het brengt gewoon een groter risico met zich mee, zeker wanneer de ruimte door verschillende Colocaters wordt gebruikt.

Een bedrijf als Sara is erg stil en daar wordt niet zo 1,2,3 even een server uit een rack getrokken als er wat is. Voldoende spare aanwezig en onder het motto... dan is het maar wat duurder zijn ze daar wat voorzichtiger en heeft de klant graag een goed resulaat en betaalt ook graag.

Veel (kleinere) bedrijven moeten "rammen", het kost algenoeg dus moet het snel... snel betekent altijd fouten...

Ik zie dit niet snel gebeuren in Telecity/Globalswitch en L3... die staan dat echt niet 1,2,3 toe.
Die kooimoer ruimte heeft helemaal geen zin. Zo benaadeel je juist de warmtestroom in het rack en de ruimte. Als ervaren rackenbouwer kan ik je dat wel meegeven.
Dan heb je zeker ook advies gegeven bij XS4ALL ;) gebruiken ook 1 kooimoer ruimte.
wat is dat nou weer voor een retorische vraag. Ik zou juist geen 1 kooimoer ruimte tussen de servers laten.
Een lasnaad kan ook aangetast worden door water/kalk, zo verder.
kalk zet alleen maar af, tast het metaal niet aan, en water doet niks met metaal behalve in combinatie met vervuiling en zuurstof. en geen van beide zal je vinden in het water dat gebruikt word om te koelen.
net zo min als je er kalk in zal vinden trouwens.
biede zijn gewoon non-issues.

en zeker zolang het hele water-systeem van het zelfde metaal is gemaakt zal het water zich hooguit opvullen met ionen van dat metaal, en vervolgens houdt de 'errorsie' van het metaal op. over het gehele systeem genomen zal de buis wand hierdoor nog geen atoom dunner worden al reken je het over 20 jaar.
Moet jij eens opletten, dat kan zo erg zijn dat je hoofdpijn krijgt en je je handen op je oren moet leggen. Als je me niet gelooft probeer het dan maar eens uit (gaatjes schieten = huilen)
Bij Luna hebben ze ook een keer met waterkoeling getest :+
Net nu waterkoeling uit de mode raakt (luchtkoeling haalt tegenwoordig de hele voorsprong in), komen ze hiermee. Niet echt een daverende move als je het mij vraagt.
Uhm... ik weet niet of je het nu over je getweakde PC hebt, maar in data center is iets andere koek. Daar heb je niet 1 rack staan met minimaal een 3x 16A aansluiting, maar daar heb je een hele zooi bij elkaar.
Nu alles zo veel kleiner wordt, kan je dus met minder moeite en ruimte veel meer energie vrij maken en daar moet je nu meer moeite voor doen om het kwijt te raken.
Het principe is niet nieuw, want er zijn al jaren fabrikanten die watergekoelde racken maken plus hardware, maar dat HP dit nu doet en verkoopt als 'standaard' oplossing is een zegen.
Dit heeft niets te maken met de modes die bij de consumenten in trek zijn.

In een datacenter geeft het niet dat je een server uitrust met 6 delta-fans die een gigantisch kabaal maken.

Deze oplossing komt er eerder voor het stijgende energie gebruik van servers (clusters, SMP,...) en de daarbij horende warmte ontwikkeling
Ik vraag me alleen af of een Datacenter dit gaat accepteren. Airco bijzetten lijkt me handiger en veiliger !
die werken ook gewoon met water hoor
je kan deze zelfs op de zelfde watertoevoer aansluiten staat er.

ik denk dat dit heel interressant is voor klanten die een eigen klimaat willen onafhankelijk van wat er in de rest van het data center gebeurd
Dan heb jij de eerste airco te pakken die op water goed werkt :)
De grootste koelunits (condensors) die ik ken worden nog steeds met water gekoeld en niet met lucht. Maar misschien bedoel je het medium dat het transport doet tussen de condensor en de unit. Je moest eens weten hoeveel watergekoelde condensors voor een groot groen telecom bedrijf werken. Die dingen verbruiken iedergeval heel wat kuubjes water waar een gemiddeld dorp een jaartje mee vooruit kan.
Zo werken airco's dus duidelijk niet.

Het water wat een Airco afzet haalt hij uit de lucht, dit is ook een functie van een airco.

Wanneer een Airco door het waternet gekoeld zou worden zou het onbetaalbaar zijn en is dus ook gewoon niet waar.

Een Airco wordt gekoeld door Freon (of hoe het het ook schrijft) met een Radiator buiten. Het maakt niet uit hoe warm het is, dat is de simsalabim van de airco icm met Freon :)

(Goh, pas geleden nog met de mannen van GTI staan praten tijdens het onderhoud ;))
Licht helemaal aan de airco's! De veteranenziekte heet zo omdat het voor het eerst opdook in een hotel met een hoop veteranen die daar waren voor een bijeenkomst! Wat bleek: de legionella bacterie werd verspreid via het water wat de airco gebruikte om te koelen en wat mee de hotelkamers werd ingeblazen!

Dat GTI nu airco's installeert op Freon basis betekent dus niet dat er geen airco's op waterbasis zijn!
@Rutger M

Ik denk dat je of mijn stukje iets beter moet lezen, of je had iets langer moeten praten met die man van GTI.
Er staat duidelijk waterkoeling op de condensors. Water geeft namelijke een betere koeling aan een condensor dan lucht. Ja, freon wordt onder andere gebruikt voor koelsystemen om de warmte af te voeren bij de bron. Maar dan moet de condensor zijn warmte kwijt.....

(tot 2 jaar geleden fysieke projectcontrole/oplevering gedaan voor het opleveren van computerruimten voor een groot groen telecombedrijf)
De radiateur van een airco kan inverband met ruimte gebrek makelijk watergekoeld worden. Water is immers makkelijker te transporteren over grotere afstand dan de gebruikelijke koelmedia.
Waterkoeling is toch nog steeds beter. Betere prestaties, maar wat vooral makkelijk is: je kunt het water ergens anders laten afkoelen. Dat is veel effectiever, je hoeft bij de computers niet of nauwelijks rekening te houden met airflow.
Dit ding zorgt voor een koele lucht binnen in het rack en koelt niet de servers individueel (dat zou misschien een volgende stap kunnen zijn). De servers zelf moeten dus nog wel degelijk goed luchtgekoeld worden...
Maar het betekent wel dat er geen externe lucht bij komt kijken! De lucht moet natuurlijk verplaatst worden maar dat moest toch al en daarvoor zitten er toch al fans in het rack!

Nu echter wordt de lucht gecirculeerd binnen het rack en heb je geen aparte airco nodig voor je serverruimte!
Natuurlijk wel, waar denk je dat die waterkoel-unit z'n warmte dissipeert? Dat verdwijnt heus niet in het niets. Airco is nog zeker wel nodig. Sterker nog, de airco moet in potentie nog harder gaan draaien, omdat deze waterkoel-unit veel meer koelvermogen heeft dan een conventioneel rack.
Stelletje na-apers. IBM vorig jaar juli al met de COOL BLUE en toen verklaarde iedereen IBM voor gek. Je gaat toch geen water een datacenter binnenbrengen werd toen gezegd. .
Schijnbaar is zoiets het toch noodzakelijk en worden de HP servers warmer dan gewenst is. Je kan met dit soort toepassingen wel tijdelijk voorkomen dat je een complete nieuwe airco moet kopen
Ach. Wie aapt wie na?? Dit soort oplossingen wordt iedere keer opnieuw gebruikt als de nood daar is!

Als je een terug zou kijken naar de computerruimtes van 25 jaar geleden, die hadden ook al dit soort oplossingen.

De eerste verbrandingsmotoren hadden ook alleen luchtkoeling. Later is daar ook vloeistofkoeling bij gekomen!
Ik zie het al voor me bij de aanbiedingen van coloboeren. :Y)

- Remote Power Switch + ¤4.- per maand
- Kraanaansluiting + ¤6.- per maand
- Backup mogelijkheid + ¤ 8.- per maand.
De primecenter reeks van fujitsu siemens heeft dit al een hele poos.
Hoe het met HP zit weet ik niet, maar dit is een afgesloten systeem waarmee het water zich alleen onderin het rack bevind. Hier word de lucht gekoeld en koele lucht naar boven gestuurd.
Er is dus geen gevaar voor lekkage op de servers!
Energetisch gezien is dit een beter systeem. Bij een airco wordt meestal gebruik gemaakt van een warmte pomp. Dit kost minimaal 1/5 van de te verpompen hoeveelheid warmte. Door direct de warmte bij de bron weg te nemen en dan extern van de serverruimte te brengen hoeft de airco minder te verpompen. Alle ander energie transporten blijven ongeveer het zelfde. De airco moet zijn warmte ook verpompen naar een ander ruimte.

Uit eigen ervaring van waterkoeling heb ik ervaren dat niet alleen de cpu temperatuur door waterkoeling om laag ging maar ook de temperatuur in heel mijn kast als ik de rest van de koeling het zelfde hield.
Ik meende me te herinneren dat ik 2 jaar terug op de stand van Rittal op de CeBit ook al een dergelijk systeem zag, alleen dan universeel voor alle soorten servers...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True