Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Aad Offerman

Freelancer

Op weg naar een duurzaam datacenter

Thermal shutdowns

RecycleHet koelen van de servers in een datacenter kost energie, en niet zo'n beetje ook. Er wordt wel eens gesteld dat de noodstroomvoorziening, airconditioning en verlichting tweederde van de verbruikte energie voor hun rekening nemen en dertig procent bij het systeem uitkomt. Dat zou dan weer de helft voor zijn eigen koeling gebruiken. Omwille van de duurzaamheid en de kosten worden allerlei nieuwe technieken ontwikkeld om het energieverbruik van zowel servers als koeling terug te dringen, maar we zitten nog midden in die beweging. In de ideale situatie zou de koeling van de systemen geen energie kosten, maar opleveren.

Het uitbaten van een datacenter is bepaald geen makkelijke business. De enorme capaciteit die aan het eind van de vorige eeuw was neergezet, kreeg men na de dotcom-crash niet meer verkocht. Veel ruimte in datacenters, bij sommige meer dan de helft, bleef jarenlang onbenut.

Toen een paar jaar later de economie weer aantrok, bleken die oude datacenters niet meer geschikt voor moderne high-density apparatuur, zoals 1U-servers en blade-systemen. Die verbruikten zoveel stroom en genereerden zoveel hitte, dat de koeling van bestaande rekken daar niet op berekend waren. Dat probleem bleef bovendien niet beperkt tot de rekken. Ook per zaal bleek niet genoeg stroom en koelcapaciteit beschikbaar.

Dat betekende dat veel datacenters hun locaties alleen konden verhuren door ruimte tussen de systemen open te laten. Soms bleef zelfs een derde van de slots ongebruikt. Op die manier werden zogenaamde hotspots voorkomen: plaatsen in het datacenter waar de temperatuur onaanvaardbaar hoog opliep. Te warme systemen resulteren immers in thermal shutdowns en falende onderdelen.

Koude en warme straten

De oude kasten werkten volgens het principe van seriële koeling: lucht werd vanuit de vloer naar boven toe gezogen. Daarbij werd de lucht uiteraard steeds warmer naarmate deze hoger in de kast kwam, en de bovenste systemen werden dus het slechtst gekoeld. Een ander probleem was dat servers ontworpen zijn om koellucht horizontaal te verplaatsen. De behuizing van de servers en de horizontale luchtstromen zaten de koeling van de kast dus behoorlijk in de weg.

Tegenwoordig wordt meestal gewerkt met koude en warme straten. Koude lucht wordt van onderaf aan de voorkant over de systemen verdeeld, en achterin van boven afgezogen. Dit noemen we parallelle koeling. In deze opstelling staan de rijen met kasten afwisselend met de voorkanten en de achterkanten tegenover elkaar. Maak je de kast en de gangen zo veel mogelijk luchtdicht (met afdekplaten, strips en deuren), dan spreek je van een koude of warme corridor. Dat kan enorme winst opleveren. Volgens de datacenter-analisten van The Uptime Institute kan een derde van de energie verloren gaan door bypass, als koele lucht bijvoorbeeld door open slots niet wordt gebruikt, en door recirculation - als warme lucht wordt teruggezogen, bijvoorbeeld als te weinig koude lucht wordt aangevoerd.

Volgepropte rekken

Om een idee te geven van de koelcapaciteit van de verschillende generaties: voor de eeuwwisseling was een paar kW per rek vaak genoeg, maar tegenwoordig is twintig kilowatt per rek al normaal. En die capaciteit heb je ook nodig als je een heleboel drukbezette 1U-servers of vier blade-chassis boven elkaar in een kast zou plaatsen.

"Een vol blade-chassis verbruikt normaliter 3,5 à 4,5kW," vertelt Edwin Veltman, technology consultant van HP's Critical Facility Services, "maar in de praktijk plaatsen klanten nooit vier enclosures in een rek. Vaak zijn het er twee. En zetten ze er drie in een rek, dan creëren ze daar meer vrije ruimte omheen. In een testopstelling zou je meer dan 25 kW kunnen halen."

Kwaliteit van warmte

De overgang naar gescheiden straten voor warme en koude lucht was een belangrijke omslag in het denken over datacenterkoeling. Voorheen wilde men de hitte zoveel mogelijk over de zaal verspreiden, en werd die warme lucht via de airconditioning naar buiten gewerkt. Nu wordt de warmte juist zo veel mogelijk geconcentreerd. Dat maakt het niet alleen gemakkelijker om de warmte af te voeren, maar ook om deze te hergebruiken. In het jargon heet het dan dat de kwaliteit van de warmte toeneemt.

Dat laatste werd belangrijk toen net voor de kredietcrisis de energieprijzen explodeerden. Zo opende Intel vorige maand - na twee jaar vertraging - zijn nieuwe duurzame ontwerpcentrum in het Israëlische Haifa. In het bijbehorende datacenter zijn de efficiëntste componenten toegepast en wordt een combinatie van water- en actieve koeling gebruikt. De afgevoerde energie wordt hergebruikt voor verwarming van de kantoren en de warmwatervoorziening voor keuken en sportcentrum. Het energieverbruik van het centrum ligt naar schatting 17 procent lager dan normaal.

Gecombineerde koeling

Maar ook als er geen gelegenheid is om de gegenereerde hitte te hergebruiken, zijn er goede redenen om de warmte geconcentreerd af te voeren. Tegenwoordig worden steeds vaker gecombineerde koelingen gebruikt. Daarbij wordt de airconditioning alleen ingezet als het buiten te warm is, anders wordt de energie via vloeistof- of luchtkoeling naar buiten afgevoerd.

Het rendement van vloeistofkoeling is evenredig met het temperatuurverschil tussen koelvloeistof en buitenlucht. Elke graad die het koelmiddel warmer is, betekent dat de airconditioning langer uit kan blijven. En die temperatuur kan omhoog naarmate de koeling dichter op de componenten zit. Omdat het stroomverbruik van de airco niet zelden meer dan de helft van dat van de systemen bedraagt, is duidelijk dat hier fikse besparingen te behalen zijn.

De toekomst is dan ook aan vloeistofkoeling op systeemniveau, een praktijk die we nu vooral van de supercomputers kennen. Zo heeft Google, dat bekend staat om zijn zelfbouwsystemen, onlangs een patent voor vloeistofgekoelde moederborden aangevraagd. Ook bij HP wordt aan vloeistofkoeling voor servers gewerkt, al zijn marktrijpe producten daar nog jaren weg.

Ten slotte moet de KyotoCooling nog even worden genoemd. Dit systeem maakt gebruik van een gescheiden luchtcirculatiesysteem en speciale hittewielen op het dak. Deze oplossing wordt door Uptime Technology samen met KPN ontwikkeld en aan de man gebracht.

Meer parallellisme

De reden achter alle innovatie in koelsystemen moge duidelijk zijn. Uit onderzoek van het Lawrence Berkeley National Laboratory en de universiteit van Stanford blijkt dat de stroomkosten inmiddels net zo hoog zijn als de aanschafkosten van de it-systemen. Uptime InstituteKen Brill, de oprichter van The Uptime Institute, spreekt dan ook van de 'economische meltdown van de Wet van Moore'. Die wet zegt dat het aantal transistors op een chip elke twee jaar verdubbelt. Volgens Brill worden de facilitaire kosten echter een belangrijkere rem op de inzet van it dan technologische beperkingen bij de fabricage van chips.

Waar chipontwerpen voorheen werden geoptimaliseerd op performance-per-dollar, is dat nu performance-per-watt geworden. Daar hebben we ook de beweging naar meer kernen en lagere kloksnelheden aan te danken. Omdat transistors ook stroom verbruiken als ze niet schakelen - door statische dissipatie - moeten zoveel mogelijk transistors effectief aan de prestaties van het systeem bijdragen. Dat betekent meer parallellisme.

Een andere manier om transistors te gebruiken voor meer performance is met hogere kloksnelheden en grotere caches, maar uit berekeningen van Intel blijkt dat dat minder efficiënt is. Met elke volgende generatie halveert immers het oppervlak dat voor een bepaalde hoeveelheid transistors nodig is, maar het stroomverbruik daalt met slechts twintig procent. Dat betekent dat de dissipatie bij gelijkblijvende oppervlakte elke keer met zestig procent toeneemt.

Consolidatie en virtualisatie

Op systeemniveau wordt nog steeds hard gewerkt aan consolidatie en virtualisatie. Door data en processen van verschillende systemen samen te pakken, kan de hardware veel efficiënter worden gebruikt.

De flexibiliteit die virtualisatie met zich meebrengt, doet daar nog eens een schepje bovenop. Door virtuele machines in rustige tijden samen te pakken en de ongebruikte machines uit te schakelen, worden steeds zo min mogelijk servers gebruikt. Wie meer over de wereld verspreide datacenters heeft, zou de virtuele machines zelfs met de nacht kunnen laten meebewegen naar de koelste tijdzone: follow the moon. Uiteraard kan dit alleen met werklasten die geen snelle interactie met de gebruiker vereisen, want die zit natuurlijk precies aan de andere kant van de wereld ('follow the sun'). De software om dit te automatiseren, wordt op dit moment ontwikkeld.

Een andere belangrijke ontwikkeling is de vervanging van 1U-servers door blades. Door voedingen, ventilatoren en netwerkaansluitingen te delen, kunnen tientallen procenten op stroom worden bespaard. Zo bevat het C7000-blade-chassis van HP zes voedingen van 2250 Watt. Deze zijn echter niet allemaal tegelijkertijd actief. Er wordt pas een nieuwe bijgeschakeld als de al actieve voedingen op vol vermogen draaien. Omdat voedingen het efficiëntst zijn als ze maximaal worden belast, wordt zo het beste rendement behaald. Ook het grote vermogen van de afzonderlijke voedingen draagt daar aan bij.

Bij vloeistof- en luchtpompen werkt de natuurkunde juist tegenovergesteld: omdat de benodigde energie kwadratisch toeneemt met het geleverde vermogen, loont het om meerdere pompen naast elkaar in te zetten. Bovendien krijg je op die manier de redundantie cadeau.

Kooldioxide-neutraal

Wie geen eigen datacenter heeft en zijn systemen toch groen wil beheren, kan bij diverse CO2-neutrale aanbieders terecht. Zo heeft EvoSwitch bijvoorbeeld het The Green Fan-programma. "Wij zijn nu drie jaar open en groen vanaf de eerste dag," zegt algemeen directeur Eric Boonstra. Hij vertelt dat de power usage effectiveness van zijn datacenter, de verhouding tussen totale energieverbruik en het verbruik van de computersystemen, ongeveer 1,5 bedraagt. "Het gemiddelde datacenter zit op een pue van 2,0, maar sommige zitten ook op 2,3 of 2,5. Je doet het al goed als je onder de 2 zit."

"Eind dit jaar breiden we de huidige capaciteit van 4000m² uit met nog eens 5000 m². Daar willen we op een pue van 1,2 uitkomen. Dat doen we door het hele jaar door vrije koeling te gebruiken. In het datacenter wordt geen koude maar juist een warme straat opgezet." Daarvoor maakt EvoSwitch gebruik van modulaire boxen van Dataxenter. De daadwerkelijke koeling vind plaats via een gescheiden circuit in combinatie met drycoolers op het dak. Boonstra benadrukt echter dat het om een ander systeem dan dat van KyotoCooling gaat: "Wij denken dat onze techniek efficiënter is."

Beheersoftware

EvoSwitch biedt ruimte alleen per rek aan. Kleinere klanten kunnen bijvoorbeeld via dochter Leaseweb hun systemen bij EvoSwitch onderbrengen. "Wij kunnen geen eisen stellen aan de systemen van de klanten," vertelt Boonstra. "Zij bepalen hun eigen beleid. We kunnen hen wel adviseren. Omdat we per rek meten, kunnen grote klanten die hun systemen op rek-niveau beheren, een nieuwe generatie servers kopen als dat een belangrijke reductie in stroomverbruik oplevert."

Volgens Veltman zal management-software in de toekomst een veel belangrijkere rol krijgen. Zo zou precies genoeg lucht kunnen worden aangevoerd: "Geef je te weinig, dan worden de systemen te heet, geef je te veel, dan kost dat geld."

Drie jaar geleden introduceerde HP al Dynamic Smart Cooling. Met behulp van sensors op de voorkant van de rekken werd bepaald hoe hard de koeling moest werken, maar tijdens de kredietcrisis is dit product gesneuveld. In de toekomst wil HP wel soortgelijke functionaliteit in zijn Smart Grid inbouwen. Daartoe zal onder andere de 'Sea of Sensors' worden gebruikt die in de nieuwste servers standaard wordt ingebouwd.

Wie meer wil weten over de inrichting en het beheer van energiezuinige datacenters, kan daarvoor de Europese Code of Conduct for Data Centres raadplegen. Deze bevat onder andere een lijst met best practices.

Reacties (74)

Wijzig sortering
Je kan de warmte van het datacentrum gebruiken voor verwarming, maar andersom kan ook. Je kan namelijk met een absorptiekoelmachine koude maken door warmte toe te voeren. Je stopt er water van 100 graden en (koel)water van 30 graden in en er komt water van 5 graden uit(in het kort, zie wiki).

Ik werk bij een warmtekrachtcentrale en in de zomer hebben we water van 100 graden over. Een deel van onze warmte maken we door een beetje electriciteitsproductie(1 MW stroom -> 10 MW warmte) op te offeren en een deel gratis, die warmte gaat anders de schoorsteen uit. Zelfs de gratis warmte kunnen we in de zomer soms niet kwijt.

Situatie nu:
Rack gebruikt 20 KW stroom
Airco gebruikt 20 KW stroom
Centrale gebruikt om 40 KW stroom te maken(50% rendement) 80 KW energie(in aardgas).
Alles wordt omgezet in warmte dus 80 KW opwarming van onze atmosfeer.
Totaalrendement(verbruik rack tov verbruik aardgas): 25%

Situatie absorptiekoeling schoorsteenwarmte (warmteoverchot in centrale):
Rack gebruikt 20 KW stroom
ABK gebruikt 20 KW warmte, geen stroom
Centrale gebruikt om 20 KW stroom te maken(50% rendement) 40 KW energie(in aardgas).
Alles wordt omgezet in warmte dus 40 KW opwarming van onze atmosfeer. De 20 KW warmte die de ABK uitstoot tel ik niet mee, omdat die warmte anders door de centrale uitgestoten wordt, die zit in de 50% rendement van de centrale.
Totaalrendement(verbruik rack tov verbruik aardgas): 50%

Situatie absorptiekoeling warmte ipv stroom(geen warmteoverchot in centrale):
Rack gebruikt 20 KW stroom
ABK gebruikt 20 KW warmte, die warmte maken kost 2 kw stroomopbrengst in de centrale.
Centrale gebruikt om 20+2 KW stroom te maken(50% rendement) 44 KW energie(in aardgas).
Alles wordt omgezet in warmte dus 44 KW opwarming van onze atmosfeer. De 20 KW warmte die de ABK uitstoot tel ik niet mee, omdat die warmte anders door de centrale uitgestoten wordt, die zit in de 50% rendement van de centrale.
Totaalrendement(verbruik rack tov verbruik aardgas): 45%

Zijn er datacentra bekend waar dit wordt toegepast?
Lijkt me ideaal, in de zomer gratis warmte (en dus koeling) en in de winter (als de warmtevraag hoog is) heeft het dcentrum niks nodig.


Een soortgelijke oplossing is een eigen WKK(warmtekrachtkoppeling) voor het dcentrum. Dit houd in dat het centrum zelf stroom opwekt met(meestal) een gasmotor. De warmte die van de motor afkomt wordt dan weer gebruikt voor de absorpriekoelmachine.

Het electrisch rendement van zo'n motor is ongeveer 40%, thermisch 50%, 10% verlies.

Situatie WKK:
Rack gebruikt 20 KW stroom
ABK gebruikt 20 KW warmte, geen stroom
WKK gebruikt om 20 KW stroom te maken(40% rendement) 50 KW energie(in aardgas).
WKK maakt daarbij 25 kw warmte -> warmte over -> verlies
Alles wordt omgezet in warmte dus 50 KW opwarming van onze atmosfeer.
Totaalrendement(verbruik rack tov verbruik aardgas): 40%

Situatie WKK2:
Rack gebruikt 20 KW stroom
ABK gebruikt 20 KW warmte, geen stroom
WKK gebruikt om 20 KW warmte maken(50% rendement) 40 KW energie(in aardgas).
WKK maakt daarbij 16 kw stroom -> stroom tekort -> kopen van centrale met 50% rendement.
20-16=4 kw van centrale kost (50% rendement) 8 kw in aardgas.
Totaal 40 + 8 = 48 kw energieverbruik
Alles wordt omgezet in warmte dus 48 KW opwarming van onze atmosfeer.
Totaalrendement(verbruik rack tov verbruik aardgas): 42%

[Reactie gewijzigd door AMDtje op 16 juli 2010 12:02]

Een kleine nuance in het verhaal. Kyotocooling is door inderdaad door Uptime technology in samenwerking met KPN ontwikkeld. Maar Uptime Technology brengt het zelf aan de man. KPN heeft afstand gedaan van de techniek, de investering, e.d.

Just my 2 cents :)

nb. Leuk artikel, er is nog erg veel geld te verdienen in DC land. En je kan de besparing op de achterkant van een bierviltje uitrekenen.

[Reactie gewijzigd door Ibus op 15 juli 2010 15:06]

Super interessant en duidelijk artikel. Complimenten aan de auteur.
Wat ik me alleen afvraag is in hoeverre deze ontwikkeling ook doorgevoerd kan worden richting thuisgebruikers. Met alle moderne apparatuur in huis gebruikt dit ook aardig wat stroom en is het zeker in de zomer best lastig om de woning koel te houden als alles aan staat.
Voor een huis houden is het goed om eerst eens te bekijken wat je echt nodig hebt in de verschillende kamers.

Hoe minder schijven hoe meer ruimte in de kast hoe makkelijker de temperatuur onder controle te houden is. Een file server of nas kan een enorm verschil maken omdat deze systemen over het algemeen in verhouding tot de rest van de systemen hele lichte processoren hebben en toch enorme hoeveelheden data beschikbaar kunnen maken. Iets wat erg veel energie kan besparen als je bijvoorbeeld je game systeem niet aan hoeft te zetten om dat moeders de vrouw zo graag even dat filmpje wil bekijken dat op jouw systeem staat omdat har systeem geen ruimte meer had of omdat het nu toevallig naar jouw systeem is gedownload.

Een andere goede tip is om dan natuurlijk de file server of nas oplossing in een koude kamer te plaatsen denk aan een kelder bijvoorbeeld of een andere ruimte waar je normaal niet stookt en die ook in de zomer lekker koel blijft.

De volgende handige truck is om eens te kijken of je hardware niet aan vervanging toe is. Natuurlijk is het initieel goedkoper om bijvoorbeeld de kleine jouw oude systeem te laten gebruiken maar vaak zit daar een enorm zware processor, gpu etc in althans voor het geen de kleine er mee doet kon dat nog wel eens flinke overkill zijn. Een atom systeem met een ion gpu oplossing betekend dat de kleine gewoon HD films kan kijken en al het huiswerk gewoon kan doen een game spelen is wat lastiger maar dat kan natuurlijk altijd nog op jouw nieuwe systeem dat toch veel beter is dan je oude systeem. Het opgenomen vermogen van een Atom/Ion opstelling in vergelijking met een oude game PC is enorm en dus is ook de warmte productie een heel stuk lager.

Als je naar de energie kosten kijkt zul je waarschijnlijk met de verkoop van je oude PC en de aanschaf van een nieuwe energie zuinige Atom oplossing binnen 1 jaar al geld verdienen op de investering zeker als de kleine graag mag chatten en een filmpje kijken op zijn tijd ook niet al te vervelend vind.

Natuurlijk is een andere belangrijke overweging, of een overclock wel nodig is. Voor een winst van een paar procent in een game verstook je vaak heel veel meer ook als het beestje gewoon niets aan het doen is. De andere vraag is heb je wel zo'n krachtig systeem nodig of kun je bijvoorbeeld ook met een veel lichtere grafische kaart uit de voeten. Een beetje GPU tegenwoordig verstookt als snel +200W terwijl een IGP veel al nog niet boven de 50W uit komt. Als je voldoende hebt aan een IGP dan is het natuurlijk wel leuk om op te kunnen scheppen over je snelle systeem maar is het je echt 4x zo veel geld per uur waard?
Ook het koelen van een systeem tot onder de 30 graden zo als tegenwoordig veel mensen denken te moeten doen is belachelijk. Een beetje CPU kan makkelijk gewoon lekker werken bij 75 graden en als je het beestje koelt tot rond de 60 graden dan is dat meer dan voldoende. De levensduur van het beestje gaat er echt niet op achteruit en de prestaties niet op voor uit. Maar de 3 fans die je bespaard door de temperatuur net even wat hoger te laten worden besparen ook weer flink geld.

Lees voor de grap maar eens wat Google gedaan heeft om enorme energie besparingen door te voeren. (gewoon de temperatuur een paar graden hoger op laten lopen en hop tientallen procenten reductie in koel capaciteit)
Je kunt bijvoorbeeld een nas als server gebruiken of een router met usb als nas. Ik gebruik zelf een Qnap TS119 als Debian server. Draait 24/7 en kost ongeveer 14W.
Nog verdere reductie kan je bereiken door het gebruik van een mITX bordje te gebruiken als fileserver. bijkomend voordeel is dat je deze tevens als htpc / streamserver / webserver of casual gamebak kunt gebruiken wanneer nodig. OS zet je standaard op een CF / USB stickie, passieve CPU cooling. Zelf heb ik een stick van 16Gb waar mijn gedownloade contant op binnenkomt. Een scriptje zorgt ervoor dat eens per dag een map weg wordt geschreven naar een 1,5 TB ecogreen schijf die de rest van de dag slaapt. standaard +- 10-15W.

Natuurlijk "kost dit wat" maar dat is bij iedere investering in klimaat besparende maatregelen. De vraag die je je moet stellen is wat is het je echt waard?
Nog verdere reductie kan je bereiken door het gebruik van een mITX bordje te gebruiken als fileserver.
Daar haal je echt geen reductie uit.
Een Qnap TS119 heeft een ARM processor daat kan geen ITX tegenop.
bijkomend voordeel is dat je deze tevens als htpc / streamserver / webserver of casual gamebak kunt gebruiken wanneer nodig.
Alles behalve gamebak kan de Qnap TS119 ook.

Ik denk dat je met een QNap of een ander merk NAS met 2.5" disks en een ARM core op energie gebied het beste af bent. Je kunt de disks ook uitzetten als je ze niet gebruikt.
Wat ik een beetje mis in al deze posts van tweakers zijn de oudere pc's die meestal weinig gebruiken en goed gebruikt kunnen worden als downloadservertjes.

een oude pentium 1 of 2 gebruikt meestal niet meer dan 40 watt, en is snel genoeg om een harddisk aan te koppelen, en zijn soms ook nog erg stil.
Een pentium 2 is zelden stil en ook niet efficient. Een P1 MMX zou je beste optie zijn, maar daar kan je dus weer echt helemaal niets mee -- dat is ook niet genoeg pk voor een flink aantal torrents (met name kwa geheugengebruik kom je in de knoop met een moderne distro).
Onzin. Ik heb jaren een Pentium 2 zonder fan gedraaid; dat maakt geen geluid. Gebruikte ook nauwelijks stroom, werd nauwelijks heet en had genoeg power voor een fileserver. Voor simpele taken als fileserven, webserven en torrenten is ~100MB geheugen vrij ook al meer dan genoeg.

Kortom, het is niet supersnel maar het kan prima.
Vervolgens een oude brakke laag rendement voeding, oud OS / bios wat niet meer dan 20GB(?) ondersteund?
Ik geef toch de voorkeur aan iets meer functionaliteit.

NB de meeste ontwikkeling in "groene" HDDs zit toch in de sata lijn en niet zo zeer in pata.
Wat de BIOS ondersteunt is irrelevant, zolang je maar kunt booten. Daarvoor volstaat een kleine bootpartitie vooraan op de schijf. Recente Linux en BSD distro's draaien perfect op alle CPU's sinds de Pentium Pro en ondersteunen wel gewoon moderne harde schijven, want de IDE drivers negeren de BIOS compleet (en hebben dus ook geen BIOS support voor grote schijven nodig).

Een slechte voeding is natuurlijk niet ideaal, maar dat geldt ook voor een modern systeem. En zelfs als je voeding (zeg) 50% efficiënt is: 2x weinig is nog steeds niet veel.
Inderdaad. Zelf gebruik ik een mITX bord met een Atom 230 erop. Snel zal voor alle fileserver taken.
Wat een mooie oplossing zou zijn, is een NAS die ook als switch en mediatank fungeert.
Maar dat gaat allemaal net nog niet samen helaas :(
Het zou wel mooi zijn als je in de toekomst je computer kon aansluiten op de centrale verwarming. Zeker in de winter is dat toch maar mooi meegenomen: extra koeling voor je pc en het water wordt al voorverwarmd. In de zomer zou je zoiets ook kunnen doen om warm water voor je zwembad te maken of iets dergelijks.
Het probleem is alleen dat je met één pc niet zoveel warmte genereert om liters water op te warmen, en pc's in serie zetten werkt niet goed omdat dan de laatste niet goed gekoeld wordt. Maar toch scheelt het al een paar graden die je niet hoeft te verwarmen.

Ik vraag me ook af wat de mogelijkheden zijn van bijvoorbeeld een stirlingmotor. Zo zou een pc de warmte die hij produceert weer om kunnen zetten in energie en een veel hoger rendement halen.
Meestal wil je de ruimte waar de computer in staat verwarmen, dus het heeft geen zin om je pc op de verwarming aan te sluiten.

Op zich is het aansluiten van alle warmtebronnen in huis op een centraal systeem geen gek idee, heb er ook vaak aan gedacht, maar het is zo onpraktisch en elk apparaat moet dan aangepast worden, en hoeveel win je er nu echt mee?
Met luchtkoeling kun je de ruimte natuurlijk ook verwarmen, alleen dat is de koeling zelf niet zo efficiënt. Als de kamer warmer wordt stijgt de omgevingstemperatuur en wordt het temperatuurverschil dus kleiner, waardoor er minder goed gekoeld wordt. Als je constant koud water aan zou voeren (wat dat betreft kun je trouwens ook koude lucht gebruiken als je een centrale airco of iets dergelijks hebt), blijft het temperatuurverschil de hele tijd groot.

Het is nu nog wel onpraktisch, maar wie weet wordt een aansluiting voor koeling in de (verre) toekomst net zo gewoon als een stopcontact of internetaansluiting. Alles wordt ten slotte steeds duurzamer. Je hebt wel gelijk wat de winst betreft, waarschijnlijk levert het niet heel veel op …
Een verwarming voert alleen geen koud water aan. Zelfs lage temperatuur verwarming moet nog wel 30 graden oid zijn. Veel verwarmingssystemen zijn zelfs 60+ graden. Dat zou ik niet graag in mijn waterkoeling willen hebben.

MIjn PC is watergekoeld met een flinke radiator in de bovenkant. Die koelt het water tot net iets boven de kamertemperatuur. Dat werkt uitstekend ;)
Een grote besparing thuis is mogelijk door apparatuur alleen aan te zetten als je het echt nodig hebt en anders uit (dwz echt uit, dus stroom van de stekkerdozen).

Het is mijn inziens onzinnig dat elk huishouden 24/7 een server moet draaien. Die van mij heb ik zuiniger proberen te maken met een Atom 330 en een raidcontroller die de harde schijven (veertien stuks in totaal) automatisch uitzet als deze niet worden gebruikt. Helaas verbruikt de raidcontroller zelf ook circa 20W en hebben de disks in standby wat verbruik. Hierdoor komt het systeem in totaal moeilijk onder 70W.

Ik gebruik mijn server voornamelijk voor backup, opslag van bestanden die ik weinig nodig heb en bestanden die ik wil delen, o.a. mijn mp3-collectie. Omdat ik tegenwoordig in mijn eentje ben kan ik de mp3's echter net zo goed naar mijn workstation halen zodat ik de server nog minder vaak nodig heb. Gemiddeld staat hij per dag misschien een uur aan. Er zijn weken waarin ik mijn server dagenlang niet aan heb.
Helemaal geen slechte oplossing om van "centrale" naar "decentrale" oplossing over te gaan. Hieraan toevoegend zijn er inderdaad een hoop kosten te besparen en help je het millieu ook aanzienlijk.

Servers de deur uit (besparing 902KWh):
Hier heb ik zelf twee van mijn drie servers de deur uit gedaan. Het waren wel laptops maar het scheelt weer. Nu staat er nog 1 die alleen mijn e-mail afhandeld en een kleine FTP server host. Teruggang van 130 Watt naar 23 Watt (kleinste doosje gehouden, is onder Linux toch makkelijk te doen). Websites en databases worden nu extern gehost op een shared server, gezien de bezoekersaantallen kan het makkelijk en kost het daar minimaal energie. Kosten € 49,00 per jaar.

Spaarlampen (besparing 784KWh)
Mijn 12 gewone lampen zijn vervangen door spaarlampen. Dit bespaard aanzienlijk. Ze zijn verdeeld als volgt 7x60 Watt -> 7x8 Watt, 4x100 Watt -> 4x11 Watt. Nu heb ik niet al de verlichting constant aan dus besparing is berekend aan de hand van een gemiddeld gebruik zoals ik voor mezelf eventjes in Excel gegooid heb. Verder doen spaarlampen het een stuk langer waardoor de aanschafprijs gewoonweg te verwaarlozen is.

Uit is uit (besparing ???)
Mijn PC gaat na gebruik compleet spanningsloos, mooie rail met schakelaar waardoor alles spanningloos gaat. Zelfde geldt voor audio/video spul.

Wat levert het op
Eigenlijk maakt het niet zo veel uit, maar ben in totaal van €162,50 terug gegaan naar iets van € 119,00 per maand alleen voor electriciteit. Hierbij zitten ook andere maatregelen.
Die grote besparing richting spaarlampen, kwam gedeeltelijk omdat je voorheen kennelijk teveel licht had. Vermoedelijk had je voorheen minder lampen tegelijk aan dan nu?

Op papier had je voorheen namelijk kunnen volstaan met 7x40W en 4x60W

Overigens hulde voor je keurige besparing. Het volledig uitschakelen van de PC zal je als het goed is ook positief tegenkomen in de levensduur.

[Reactie gewijzigd door mae-t.net op 16 juli 2010 15:22]

Heb even je server gechecked Maar is het niet beter die 14(!) schijfjes te vervangen naar 1,5/2 TB ecogreen schijven?. Dan heb je er minder nodig en zijn nog zuiniger ook.

off topic
Waar heb je in hemelsnaam die controller vandaan?! 24x sata300 _/-\o_

[Reactie gewijzigd door Maddog McHare op 15 juli 2010 11:54]

Nou...

Heb je er wel eens over nagedacht dat de investeringsenergie voor het maken van deze ecogreen harde schijven wel eens veel groter kan zijn dan het verbruik van de 14 kleinere schijfjes?

Dit zou best een beetje een wassen neus kunnen blijken...
kom 's met bronnen want nu klinkt het alleen als geblaat..
De 500GB schijven zijn oude uitgerangeerde schijven die in een groot raid 5-array draaien waar de backups van de server op staan. Die schijven staan normaal gesproken altijd op standby behalve op het moment dat er backups worden gemaakt. De andere schijven zijn al energiezuinige notebookdrives voor boot en 5900rpm Barracuda's LP voor de live data.

Die schijven zullen in standby niet zoveel energie verbruiken dat vervangen rendabel (zowel besparing van kosten als besparing van energie als productie van nieuwe schijven wordt meegeteld). Ik vervang ze wel een keer als ik meer capaciteit nodig heb en er nieuwe energiezuinige 5400 of 5900 toeren schijven in komen met een capaciteit van 2TB of hoger.
Deze problemen zijn heel makkelijk op te lossen :)

In plaats van een computer te laten downloaden, doe je dat op een popcorn hour of NAS.
Apparatuur die standby staat volledig uitschakelen. Mijn pc en installatie verbruiken maar liefst 70watt in standby!

En in de zomer moet je niet al je apparatuur aanzetten, maar lekker buiten gaan zitten :)

Kwa toepasbaarheid van de genoemde koelings technieken zal dit voor je huis niet rendabel zijn, omdat de ombouwkosten en dergelijken te hoog zullen zijn.

Een raam openzetten zal toch wel het beste zijn voor dat ene beeldscherm dat aan staat
Het beste waar je mee kan beginnen zijn vaak de lampen: spaarlampen gebruiken aanzienlijk minder.

Verder een goed punt is dat PC's (zeker van tweakers) veel stroom verbruiken. Als je een betere PC hebt, is het stroom verbruik vaak hoger en dus de warmte productie. Als je je PC dus aan laat om te downloaden, dan heb je een enorme warmte productie. Je kan beter kiezen om met een laptopje met weinig specs te gebruiken om te internetten/downloaden.
Ik merk het verschil hier iig, een eigenlijk budget PC met een AMD BE CPU en een 8600GT heeft binnen een halfuur hier de kamer al een beetje opgestookt, terwijl de laptop dit echt niet lukt:)

Er zijn nog veel meer punten waarop je warmte kan besparen. TV's, versterkers (die willen ook nog wel eens warm worden), de digitale ontvangers, etc....
Uit het artikel: In de ideale situatie zou de koeling van de systemen geen energie kosten, maar opleveren.

Beetje jammere fout: de tweede hoofdwet van de thermodynamica zegt dat de entropie alleen kan toenemen, dwz. dat warmte-energie alleen van warm naar koud stroomt en dat je niet nuttige energie kunt halen uit het koelen van een systeem, maar dat koelen juist altijd nuttige energie (bijvoorbeeld stroom) kost.
Koelen zal altijd entropie genereren, maar dat zegt op zich nog niets over of je de energie nuttig kan gebruiken. Simpelweg komt het erop neer dat als je twee systemen hebt, A en B, en A is warmer dan B, dan kan je nuttige dingen doen door A warmte af te laten staan aan B. (Bij een koelkast wil je het tegenovergestelde, daar wil je A die al kouder is dan B nog kouder maken; dat kost alleen maar energie.) Dit is precies de situatie in een serverruimte: de servers zijn heet, buiten is het koud, en je wilt de warmte van de servers naar buiten brengen. Daarmee zou je in het ideale geval dus inderdaad stroom op kunnen wekken, bijvoorbeeld door de servers als warmtebron voor een stoommachine te laten fungeren. (Een stoommachine waar iets anders dan water in zit, uiteraard, want je wil je servers geen 100 graden laten worden. :) )
Een server levert gratis het bijproduct warmte. In de huidige datacenters kost het energie om die warmte af te voeren. Vaak zal het tezamen met de warmte die de airconditioning toevoegt in de open lucht verdwijnen, waar het verder geen nut dient. De warmte kan echter ook nuttig ingezet worden door bijvoorbeeld een naastgelegen gebouw te verwarmen. In dat geval zal er energie bespaard kunnen worden ten opzichte van de bestaande situatie.
In de zomer is veel koeling nodig en weinig/geen verwarming. In de winter andersom(koeling met buitenlucht ipv airco). Dit is dus maar een betrekkelijk klein deel van het jaar nuttig.
Warmte hoeft niet alleen gebruikt te worden om een woning te verwarmen, maar ook jouw tapwater zou hiermee warm gemaakt kunnen worden. Je doucht toch nog wel steeds in de zomer? ;-) Datacenter krijgt dubbelrol als CV-ketel

Buitenzwembaden hebben in de zomer ook nog wel eens verwarming nodig: Restwarmte gebruiken

Er moet minder in problemen en meer in oplossingen gedacht worden.

[Reactie gewijzigd door feelthepower op 15 juli 2010 16:57]

Edit: ik was even vergeten te vermelden dat ik bij een warmtekrachtcentrale werk die warmte levert aan een stadsverwarmingsnet. Zie mijn andere reactie verderop http://tweakers.net/react...=Posting&ParentID=4029601 . Dan is het wat duidelijker waarover ik blaat :) /edit.

Warmteverbruik stadsverwarming hier in de winter: 500 MW.
Warmteverbruik stadsverwarming hier op dit moment: 80 MW.
In de zomer zitten we soms onder de 50 MW.

Dat is tapwater plus verwarming, zowel huizen als kantoren.

Dat beetje tapwater is mooi meegenomen, maar het is maar een klein deel van de warmtevraag. Vaak is het dan niet rendabel om verwarmingsleidingen ed te gaan aanleggen naar bedrijven/huizen in de buurt. Alleen het kantoor horende bij het datacentrum wordt dan verwarmd met restwarmte.

In de zomer gebruik je dan een paar % van de restwarmte.

Tapwater moet minstens 85 graden zijn. In jouw linkjes gaat het beide over verwarmen, niet over douchewater. Buitenzwembad is idd een oplossing. Je eerste linkje niet(in de zomer geen cv nodig), of ze moeten met een warmtepomp aan 85 graden komen(met de bijbehorende verliezen).

Het is niet zozeer een probleem om het te maken, het is alleen lastig(duur) om alle(of een groot deel) restwarmte te benutten omdat de warmteproductie en vraag precies tegenovergesteld zijn.

[Reactie gewijzigd door AMDtje op 15 juli 2010 21:05]

Nu zit ik zo te denken, als ze nu eens al het water wat naar de stadsverwarming toe moet via een datacenter laten lopen?
Het moet toch worden verwarmt, dus alles wat een datacenter toevoegd aan warmte hoeft niet meer opgewekt te worden.

Het lijkt me dat er toch genoeg warm water wordt gevraagd om een constante flow van koud water door je datacenter te laten lopen?
Het water wat van de centrale naar de stad gaat is al 100 graden, niet handig om te koelen.
Het water wat van de stad terug stroomt naar de centrale is bij oude stadsverwarmingsnetten +/- 60 graden en bij nieuwere +/- 40 graden.

Daar is iid wel wat mee te doen.

Een datacentrum heeft 1000 racks ofzo? 5 kw per rack is 5000 Kw, plus 5000 kw voor de airco = 10000 kw = 10 MW aan warmte.

Stel: je wilt het water 5 graden opwarmen in het dcentrum.
Om al de warmte in het verwarmingswater te krijgen moet het datacentrum 45-65 graden zijn.

Af te voeren warmte: 10000 kw=10000000 W = 10000000 J/S
Warmteinhoud water: 4160 Joule per kilo per Kelvin.
10000000/4160/5 graden=481 kilo/seconde=1732 m3/h.

Dit is de hoeveelheid water die door het dcentrum moet gaan om 10000kw te koelen. Als je het water 10 graden opwarmt is de helft van het water nodig, maar wordt de temp in het centrum 50-70 graden.

Het waterverbruik van de stad is nu(op dit moment, 22 graden buiten) 300kg/s. Met die flow door het dcentrum zit je dan ongeveer op 47-57 graden.

Hartje zomer dalen we naar 200kg/s -> 52-72 graden.

Dit is dus een flinke stad aan 1 datacentrum.

Het is dus lastig om alle warmte in het water te krijgen én de temperatuur in het centrum laag genoeg te houden. Ook al kan je de kw's makkelijk kwijt.

[Reactie gewijzigd door AMDtje op 15 juli 2010 19:52]

[...] maar dat koelen juist altijd nuttige energie (bijvoorbeeld stroom) kost.
Hoeft niet hoor http://www.tweaktown.com/..._engine_theory/index.html
20KW PER RACK? Daar sta ik echt van te klapperen met me oren. Jeetje wat een verbruik. Moet me aansluiten bij Denyos. Heel interessant artikel en hulde aan de auteur.

Hoe kan een datacenter met honderden kasten a 20KW per kast in hemelsnaam zijn energierekening betalen? 1 kast 24 uur x 20KW is 480KWH PER DAG PER RACK!!!! Met de huidige energieprijs is dat 480KWH x 23cent (ongeveer?!?) is 110 euro per dag aan energie.....Vandaag dat die tarieven daar zo ONWIJS hoog zijn.
Zo'n datacenter heeft natuurlijk een leuke deal met een energiebedrijf, maar zoals dit hele artikel wel suggereert proberen ze dat flink terug te brengen. En de manier waarop ze het betalen is uiteraard door het door te berekenen aan de klant. Wat die klant hopelijk motiveert om efficienter om te springen met energie.

Let wel dat de meeste racks lang niet in de buurt van die 20kW komen, tweakers.net zit bijv met 2 racks (16 servers, dus voor een groot deel leeg) op zo'n 111kWh per dag, dus op gemiddeld 4,6 kW. Wat dus een gemiddelde van 2,3kW per rack betekent.
Maar dat is het verbruik van jullie servers zelf right? Afhankelijk van wat het datacenter doet moet je dat dus nog met een factor 1.5-2.5 (grofweg 2) vermenigvuldigen voor de koeling etc.
Maar dat is het verbruik van jullie servers zelf right? Afhankelijk van wat het datacenter doet moet je dat dus nog met een factor 1.5-2.5 (grofweg 2) vermenigvuldigen voor de koeling etc.
Ja, dat klopt. een van de grote fouten die bedrijven en datacenters ook hebben gemaakt is de denkwijze: "ik heb 42U aan rackspace, die moet vol". Maar daarbij werd dus niet gekeken naar wat het toelaatbaar opgenomen vermogen kon/mocht zijn. In 1999 kon je een rack wel volstampen, maar toen de boel veel en veel krachtiger werd, liep je daar heel erg op vast.

Bij een ex werkgever keken we daar wel heel bewust naar, en dat voorkwam toch wat spectaculaire problemen die andere klanten op dat DC wel hadden.
20KW per rack? Nou, als je goed leest is het nog veel erger.

slechts 1/3 is voor het rack, 2/3 zit in airco etc, dus eigenlijk zelfs 60KW per rack

En veel, tsja, hou rekening mee dat in een 42U rack dus max 42 pizzadozen van servers kunnen, bijv. HP DL360, ieder met 2 quad core cpu, veel memory, vaak ook nog wat local storage. Of 2, 3 of zelfs 4 bladechassis, dus 32, 48 of zelfs 64 servers, ook ieder met 2 quad cores en zwik memory.

Wij hebben zelf 48 blades in 1 rack zitten, 2e rack grotendeels vol met SAN storage en dan nog 3e rack met actieve componenten, wat losse servers, tape library etc

Genoeg om een 1200 mensen te laten werken.
Zéér interessant artikel. Vooral dat "Kyoto Cooling" sprak me wel aan.
Ik weet niet of iemand hier een keer de film The Island heeft gezien? Maar daar maken ze ook gebruik van zo'n warmtewiel. Interessant dat dat toevallig in zo'n film naar voren komt.

Verder vindt ik het hardstikke goed dat bedrijven kijken en ook daadwerkelijk iets doen om het stroomverbruik omlaag te halen. Dit artikel geef daar nog eens extra de nadruk op.
En voor diegene die niet zoveel van serverpark-koeling afweten is dit artikel toch grotendeels duidelijk genoeg. Erg interessant. :)
Deze bedrijven doen dat niet uit humanitaire of milieu gronden. Als het stroomverbruik omlaag gaat, dan gaan de kosten omlaag. Het gaat gewoon om de knaken. We hebben nu geluk dat de maatregelen gunstig voor mens en milieu zijn.
Het gaat niet zozeer om kosten, of om milieuredenen, maar sustainability in zijn algemeen. Er zijn bijvoorbeeld gevallen waar een datacentrum van een bedrijf gewoon fysiek niet meer electriciteit aangeleverd kan krijgen van de plaatselijke nuon. Opties die je dan hebt zijn investeren in een nieuw centrum op een nieuwe plek, of het optimaliseren van je bestaande portfolio om efficienter van de beschikbare stroom gebruik te maken.


Nog een leuk weetje:
Volgens een onderzoek van Gartner stoot de IT-industrie evenveel Co2 uit als de luchtvaart industrie
De blade oplossing spreekt mij erg aan. Simpel maar doeltreffend. Pas bijschakelen op het moment dat dit nodig is. Waarom alles los als je de functies binnen een systeem ook kan combineren en daarmee een meerwaarde kan vinden.

En voor de climategate mensen onder ons. CO2 of niet: Man, man, man, wat een geld gaat er om in het energieverbruik van deze serverparken. Dit soort besparingen leveren zeker grote winsten. (euro's en CO2 dus)

Echt een leuk achtergrond artikel. Hulde!
Waarom alles los als je de functies binnen een systeem ook kan combineren en daarmee een meerwaarde kan vinden.
Simpel, een HP C7000 kost veel geld zelfs al koop je eerste minimale config en daarna uitbreidingen. Zo'n monsters zijn vooral een besparing wanneer je al geld hebt en je het meteen volledig kunt inzetten om omzet mee te maken.
Vanaf 5 2U 2-socket servers wordt blades interessant. Onder dat pijl is het financieel en qua ruimte niet echt interessant.
Omdat voedingen het efficiëntst zijn als ze maximaal worden belast, wordt zo het beste rendement behaald. Ook het grote vermogen van de afzonderlijke voedingen draagt daar aan bij.
Hier wordt op Tweakers toch altijd aangeraden om bvb voor een systeem dat 500W verbruikt een 800W voeding te nemen omdat die efficienter is?
En als je kijkt naar de graphs van fabrikanten is de voeding nooit het meest efficient op 100% belasting. Dit ligt meestal rond de 50-70%
Klopt, voedingen zijn rond de 70 a 80% het meest efficiënt. Dit heeft te maken AC/DC, gelijkrichters en de condensatoren.
Hangt wel een beetje af van eht design van de voeding en de specificaties van de componenten en wat je prikt als nominale belasting. Je kan op zich ook een voeding ontwerpen die het efficientst is op 100% en daarna als een baksteen in elkaar dondert -- die is alleen wat minder universeel inzetbaar dan een pc voeding is (en moet zijn)
IBM heeft recent een supercomputer met waterkoeling geinstalleerd: http://www-03.ibm.com/press/us/en/pressrelease/32049.wss

Zie ook: http://www.google.nl/search?q=Aquasar
IBM heeft recent een supercomputer met waterkoeling geinstalleerd: http://www-03.ibm.com/press/us/en/pressrelease/32049.wss
de NSA heeft al een (ik dacht super-cray) supercomputer staan sinds de jaren '80 met waterkoeling. Dat van IBM is nieuwer en efficienter, maar het is zeker geen nieuwe inovatie.
Leuk artikel. Besparing en toch hetzelfde doen is altijd leuk. Verspillen blijft lomp.

Maar het verbruik van apparatuur is het probleem helemaal niet. Het probleem is waar onze energie vandaan komt.

Een beetje slecht of minder slecht is nogsteeds slecht. Zuiniger is zoals het in dit artikel gebracht wordt alleen maar uitstel van executie.

Wanneer de verbruikte energie in een kringloop zit of praktisch oneindig aanwezig is (zoals geisers of zonlicht) dan maakt het weinig tot niets meer uit hoeveel energie een machine verbruikt.
Niet helemaal, voorbeeld:

Als we zonnepanelen in de ruimte hangen en een manier verzinnen om de stroom op aarde te krijgen is die energie oneindig aanwezig. Je bent dan echter wel de aarde extra aan het opwarmen(extra energie toevoeren). Er zijn dus meer eisen dan alleen oneindig/in kringloop, voordat het energieverbruik niet meer uitmaakt.

Met bijvoorbeeld aardwarmte haal je ook extra energie naar het aardoppervlak, ook niet goed. Bij zonnepanelen moet je er meer neerzetten -> minder ruimte voor bv de natuur of ... (vul maar in).

Waar de energie vandaan komt is erg belangrijk, maar het verbruik toch ook.
Snel verversende kringloop bedoel je, neem ik aan?

Olie bevindt zich namelijk ook in een kringloop, de koolstofkringloop..

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True