Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties

Supercomputerfabrikant Cray heeft een vloeistofkoelsysteem geïntroduceerd dat efficiŽnter warmte uit supercomputers zou afvoeren dan bestaande methoden. Hierdoor kan een rekencentrum energie besparen en meer computers plaatsen.

Schematische weergave Ecophlex-koeltechnologie van CrayHet nieuwe koelsysteem is door Cray 'Ecophlex' gedoopt, waarbij 'phlex' staat voor phase-change liquid exchange. Volgens de fabrikant van hpc-oplossingen kunnen supercomputers met behulp van een Ecophlex-systeem efficiŽnter gekoeld worden. In veel rekencentra lozen systeemkasten de gegenereerde hitte met behulp van fans naar de omliggende ruimte, waarna airconditioning de warme lucht afvoert en weer koelt met behulp van koud water. Volgens Cray is dit veel toegepaste systeem echter inefficiŽnt, nauwelijks schaalbaar en neemt het kostbare ruimte binnen rekencentra in beslag.

De Ecophlex-koeltechnologie, die als optie bij de XT5-systeemkasten van Cray wordt aangeboden, werkt volgens hetzelfde principe als traditionele koelsystemen, maar zou aanmerkelijk minder vloeistof nodig hebben en tot tien keer meer warmte af weten te voeren. De gegenereerde hitte, afkomstig van de racks die in de systeemkast draaien, kan worden afgevoerd door de kasten te koppelen aan externe waterkoelsystemen of middels het afvoeren van warme lucht via verticale airconditioning. Hierdoor blijft de temperatuur in de directe omgeving van de systeemkasten vrijwel constant.

De warmte-ontwikkeling van supercomputers kan binnen de perken gehouden worden door minder krachtige processors te gebruiken of door de klokfrequentie ervan te verlagen. Hierdoor werken systemen echter niet op volle kracht, waardoor de schaalbaarheid en kostenefficiŽntie van een hpc-computers niet ten volle wordt benut, zo meldt Cray. De fabrikant claimt dat zijn Ecophlex-technologie dergelijke noodgrepen overbodig maakt. Bovendien zouden de kasten gewoon kunnen blijven staan als verouderde hardware door een nieuwe generatie rekenmachines wordt vervangen.

Moderatie-faq Wijzig weergave

Reacties (25)

kijk dit vind ik wel weer jammer:

"Hierdoor kan een rekencentrum energie besparen en meer computers plaatsen."

oftewel jaag die extra energie er maar net zo snel doorheen :S , de overheid is druk bezig met reclameboodschappen dat we rustig aan moeten doen met de energie en met warmteuitstoot, 60 graden wassen? nee joh doe maar lekker op 30 graden is beter voor het milieu!!! laat de rekencentra eens hetzelfde doen :p , een beter milieu begint OOK bij een ander en niet alleen bij mij
Ik snap niet waarom de warme lucht niet meteen de buitenlucht in kan? Dat scheelt meer dan de helft aan energie in zo'n rekencentrum!
Goeie vraag. En waarom gebruiken ze 's winters de gegenereerde warmte niet voor het verwarmen van de rest van het gebouw waar de supercomputer staat? Phase change is gewoon eenzelfde systeem als wat in je koelkast zit... is dat nou zo revolutionair? Het is volgens mij een beetje opnieuw het wiel uitvinden wat hier gebeurt...

Edit: @ musiman:
Nee, ze gebruiken in plaats van water speciale koelvloeistof, en speciale koelvloeistof met een laag kookpunt werkt veel efficienter (zie PDF). Dit is voor computerkoelingmisschien nieuw, maar gebeurt in koelkasten altijd al. Dus het is nog steeds niks nieuws. Dus jij moet eerst lezen en dan kritiek geven.

[Reactie gewijzigd door Roger525 op 28 augustus 2008 19:16]

Wellicht kun je het artikel nog een keer lezen. Cray heeft het bestaande phase-change principe geoptimaliseerd, waardoor er minder koelvloeistof nodig is en er meer warmte afgevoerd kan worden.

Eerst lezen, dan reageren.

En Cray kennende, maken ze waar wat ze beloven. Veel technologie die zij "lang geleden" ontwikkeld hebben, wordt in de huidige supercomputers nog steeds gebruikt. Zoals de supersnelle backplane technologie, die je ondermeer ook vindt in de IBM BlueGene.

edit:
@Roger er wordt ook bijv. stikstofkoeling gebruikt.

[Reactie gewijzigd door musiman op 28 augustus 2008 19:21]

De warme lucht die je naar 'buiten' loods, zal othc echt vervangen moeten worden door koude lucht - nu is het in Nederland niet overdreven warm, maar die buitenlucht mag ook weer niet te warm zijn.

Verder vraag ik me af of je niet een enorme luchtstroom nodig hebt om met jouw systeem een effectieve koeling te bereiken.

* Little Penguin vindt overigens het verlagen van de gegenereerde warmte een punt dat minstens even belangrijk is - maar dat betekend dat de CPU-bouwers moeten gaan werken aan meer efficiente processoren ipv het zoveelste snelheids+warmte kanon...
De warme lucht die je naar 'buiten' loods, zal othc echt vervangen moeten worden door koude lucht - nu is het in Nederland niet overdreven warm, maar die buitenlucht mag ook weer niet te warm zijn.
Het naar buiten loodsen van warme lucht sluit toch niet uit dat de van buiten binnenkomende lucht vervolgens kan worden gekoeld? Ik weet niet precies wat voor luchtvochtigheid een serverruimte het liefst ziet, maar ik kan me niet voorstellen dat de hoeveelheid energie die nodig is om het te veel aan vocht uit de buitenlucht te halen groter is dan de energie die nodig is om het verschil in warmte tussen buitenlucht en door de server verwarmde lucht op te heffen (de buitenlucht zal toch snel 15 tot 20 graden celsius kouder zijn).
Dat wordt al gedaan door SiCortex, een bedrijf dat vorig jaar gestart is door voormalige Digital werknemers en met relatief trage MIPS processoren een relatief hoog aantal GFLOPS behaalt tegen een veel lagere warmtegeneratie dan bij een x86 systeem.
Het lijkt me een goed idee conventionele koeling door de warmte naar de ruimte om de kast af te voeren en vervolgens die ruimte weer met airco te koelen is natuurlijk niet echt een handige oplossing, als is het alleen maar door de vele verschillende warmte overgangen die nodig zijn om vaak een relatief klein opervlak te koelen.

Wat Cray lijkt te doen is gewoon een arico in de kast hangen, en als je een kleinere ruimte moet koelen is dat natuurlijk veel makelijker dan die ruimte en de ruimte er om heen te koelen.
En natuurlijk is het zuiniger om 10m3 te koelen dan 150m3, maar of het nu de oplossing is ik betwijfel het.
waarom niet datacenters in woonwijken zetten, kun je de afgevoerde warmte in de winter aan een blokverwarming hangen.
En 's zomers dan?
Warmtewisselaar erin en het tapwater verwarmen.
je kunt ook denken aan warmtepompen.grondwater gebruiken om te koelen.

[Reactie gewijzigd door erikdeperik op 29 augustus 2008 15:15]

Nice maar,
De gegenereerde hitte, afkomstig van de racks die in de systeemkast draaien, kan worden afgevoerd door de kasten te koppelen aan externe waterkoelsystemen
wordt volgens mij ook al gebruikt in die serverboxen (zeecontainers) van o.a. Sun.
Eigenlijk een systeem wat Rittal al jaren heeft zeg maar.
Hierdoor kan een rekencentrum energie besparen en meer computers plaatsen
Dus de bespaarde energie wordt weer verstookt door extra computers... nuttig hoor!
Zekers want ipv 10% meer verbruik doe je 10% meer met hetzelfde verbruik. De uitbreiding is nodig en komt er toch. Het is dus al winst om die extra productiviteit te behalen met hetzelfde verbruik.
Lijkt me een duidelijk en fijn systeem om mee te werken

Verticale afzuiging van warme lucht zoals ze noemen is het meest efficiŽnt door turbulentie in de ruimte, daar zijn echt geen nette convectiestromen aanwezig...

Echter als ze het "voor Nederland" beter willen doen zouden ze in de zomer de warmte ondergronds kunnen dumpen en in de winter het gebouw ermee verwarmen en de koude lucht van buiten afzuigen.

Een goede rekencenter heeft geen gasrekening :)

je zou ook een buffer kunnen bouwen voor op rotsgronden. Een tank van 4.000 liter water kan heel wat warmte vasthouden en zeker bij peltierphase.
Dit warme water is overal voor te gebruiken van schoonmaak tot verwarming tot de koffieautomaat..

Aan geforceerde koeling die extra energie kost ontkom je niet. Servers en zeker de jongens van Cray weten wat Ampere eten is.

Oja, de motor op de tekening staat dus in de rackmount?!
Dat is vragen om magnetische inteferentie en je houd minder ruimte over voor de computer. ehhh

het enige ťchte voordeel is dat als er een faalt dat je maar 1 rack te pakken hebt en niet heel de ruimte, Ik weet niet hoe zwaar dat weegt.

[Reactie gewijzigd door Rogresalor op 28 augustus 2008 19:15]

Een simpel data center heeft geen Cray supercomputer staan hoor.........

Er zijn niet veel bedrijven die een Cray hebben staan. Wat ik wel weer weet is dat de marine ze destijds gebruikt heeft en soms nu nog.
Maar het gaat over de Cray ;)

en heel veel rekencentra's zouden bij warmteopslag gebaad zijn, alleen is de moeite die het kost vaak het probleem.

Ik weet echt wel waar ik over praat, maar je hebt wel gelijk als je zegt dat niet elk rekencentra zulke maatregelen nodig heeft, mee eens.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True