Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties

De verwachte exponentiŽle toename van het stroomverbruik door de almaar groeiende vraag naar datacenters, blijft achter bij eerdere verwachtingen. Dit lijkt te komen door de opkomst van virtualisatie, waardoor er minder fysieke servers zijn.

Uit onderzoek van Jonathan Koomey van de Stanford University blijkt dat het daadwerkelijke aantal servers flink is gedaald ten opzichte van eerdere voorspellingen. Dit zou komen door de afgenomen vraag naar rekenkracht, de economische crisis en de opkomst van virtualisatie en energiezuinigere chips.

Volgens Koomey, die zijn onderzoek deed op verzoek van The New York Times, spreekt zijn onderzoek een voorspelling van de Environmental Protection Agency tegen. Deze organisatie stelde in 2007 dat door de explosieve groei van het internet, het stroomverbruik door datacenters tussen 2005 en 2010 zou verdubbelen. Deze verdubbeling zou leiden tot een verbruik van grofweg 100 miljard kilowattuur. De stroomconsumptie van datacenters in alleen de VS zou volgens dit rapport in die periode stijgen van 7 tot 12 gigawatt.

Hoewel er nog steeds sprake is van een forse groei, blijkt deze verdubbeling bij lange na niet te zijn gerealiseerd. Volgens het rapport van Koomey, getiteld 'Growth in Data Center Power Use 2005 to 2010', is het verbruik van datacenters wereldwijd met 'slechts' 56 procent toegenomen. In de Verenigde Staten zou dit zelfs maar 36 procent zijn. "Dit komt vooral door de recessie, maar ook door een aantal veranderingen in de manier waarop datacenters worden ontworpen en gebruikt. Het stroomverbruik van datacenters is duidelijk veel lager dan wat werd verwacht", aldus de onderzoeker in The New York Times.

Moderatie-faq Wijzig weergave

Reacties (35)

lijkt me ook dat dit komt doordat ze steeds efficiŽnter alles koelen etc
Helaas is het 'effecienter' koelen maar in beperkte zin mogelijk. Vraag me niet de technische achtergrond waarom dit zo is ik spreek enkel vanuit een bouwtechnische achtergrond en mijn ervaringen met verwarming/koeling van grote complexen.
Koelingstechnieken worden niet vernieuwd hooguit verbeterd waarbij de resultaten uiterst beperkt zijn. Wat wel beter gaat is hoe men met energieverlies omgaat. Vroeger blies men dit keurig uit heden ten dagen probeert men deze energie te hergebruiken. Wat ook belangrijk is dat men nu beter begrijpt wat de vereisten voor een data-center zijn. Vroeger werd er simpelweg een x-oppervlakte gereserveerd nu zit men met de data-specialisten op voorhand bij waardoor er practischere inderlingen mogelijk zijn.
Hetgeen wat men dan ook aanhaalt als belangrijkste redenen waarom men nu minder energie nodig heeft zit dan ook eerder niet in de koeling maar simpelweg effecientere servers, effecienter omgaan met servers en simpelweg het uitblijven naar de vraag dankzij de recessie.
---edit---
@opvolgers, de genoemde opties die jullie aangeven zijn geen nieuwe technieken en worden al geruime tijd toegepast of hebben invloed op slimmere keuzes die men nu maakt zoals ik eerder aangaf. Hoe dan ook het is niet zoals de TS dat de technieken zelf zijn verbeterd.
Overigens zijn WKO's interessant zij het in een beperkte zin. Ik kom nu gebieden tegen dat dit letterlijk geen optie is omdat in de buurt al een groot verbruiker zit.

[Reactie gewijzigd door n4m3l355 op 1 augustus 2011 10:59]

Het efficienter koelen zoals ik het datacentrums gezien heb doen ze meestal op de volgende punten:
- Warmer koelen. In plaats van alles op 19/20C te zetten, niet kouder koelen dan 25C.
- Direct koelen aan de buitenlucht. Als het buiten vriest gewoon direct die lucht gebruiken :)
- Koude gangen. De facto standaard geworden.
Het hele jaar rond is een datacentrum in NL prima te koelen met koude-warmte opslag.
Nou nee... Het idee achter warmte-koude opslag (WKO) is dat er gedurende het jaar ongeveer evenveel warmte nodig is als koude. De WKO werkt hierbij als buffer waar je in de zomer koude uit de grond haalt en warmte in de grond stopt en 's winters vice versa. Hierdoor blijven de koude- en warmebron in evenwicht, wat ook een provinciale eis is als je een vergunning aanvraagt voor het boren van een bron.
Aangezien een datacenter alleen maar koeling vraagt, krijg je dus een enorm warmte overschot. Dan zou je al een ander gebouw of een flinke woonwijk naast een datacenter moeten hebben, die 's winters de warmte kan gebruiken, maar dan heb je hiervoor weer geen opslag in een bron (WKO) nodig...
Volgens mij is efficiŽnter koelen wel degelijk mogelijk. Zo zou een warmtewiel veel minder energie vragen dan een airco om dezelfde warmtebron te koelen. Daarnaast zijn er hierboven al een paar verbeterstappen genoemd.
Een warmtewiel kan zelf niet koelen. Het is slechts een "roterende warmtewisselaar".

De centrale vraag is natuurlijk "willen we wel koelen". Zoals verderop in de reacties al te lezen is, is koelen met "buitenlucht-met-buitentemperatuur" een serieuze optie. Dat stelt wel andere eisen aan de luchtbehandelingsinstallatie. Door de hogere verversingsgraad van de lucht, moet er veel meer (buiten)lucht gefilterd en rondgepompt worden.

Bij gesloten circulatie wordt geen buitenlucht aangezogen, maar moet een (condensor)installatie geplaatst worden die de warmte aan de buitenlucht kan afstaan.

Uitendelijk weet je alleen achteraf welke optie nou goedkoper geweest zou zijn... Stroom is duur, maar elke week filters vervangen ook.
Klopt, een CPU en overige componenten kunnen goed werken bij een graad of 35 (en nog hoger). Daarom is het koelen met buitenlucht in nagenoeg alle gevallen voldoende, gewoon flinke volumestroom er doorheen jagen. In de sporadische gevallen dat je meer moet koelen zijn er relatief simpele manieren om flink te kunnen koelen, met het vernevelen van water bijvoorbeeld.
Het ironische probleem is dat ICT beheerders erg achter de feiten aanlopen en nog steeds vasthouden aan koeleisen die tot een jaar of 10 geleden relevant waren.

[Reactie gewijzigd door Floor op 1 augustus 2011 16:05]

Waarbij je voorbij gaat aan 2 punten:
Koeling valt meestal onder de facilitaire dienst (gebouwbeheer), niet ICT, en gebouwsystemen zijn er op gemaakt om 10+ jaar mee te gaan. Daarom komt het omslagpunt tussen efficiŽntere koeling en de investering in de nieuwe methode wat verder in de toekomst te liggen omdat je bij vroegtijdige vervanging een desinvestering doet op je huidige koelmethode.
Het ombouwen van een ruimte van recirculatie (dat zijn de meeste koelingen nu) naar vanuit de buitenlucht "gewoon flinke volumestroom er doorheen jagen" zou wel eens voor wat bouwkundige problemen kunnen zorgen. Dat flinke volume moet wel vanuit de buitenlucht naar het datacenter getransporteerd worden. Dat zal me een flinke pijp worden als je een beetje datacenter heb. Plus dat je in korte tijd die buitenlucht op de juiste relatieve luchtvochtigheidsgraad moet krijgen.
Dat klopt, maar kijk maar eens in een datacentra anno 2011. Ze zijn anders dan de oude. Daarbij worden deze ook al modulair gebouwd wat scheelt in investering. Je bent sneller als centra sneller aan het draaien en zodra het nodig is zet je er weer een extra container aan.
Op vakantie een datacentrabouwer ontmoet en aangezien mijn achtergrond uit de klimaatbeheersystemen hebben we gezellig gepraat. Waarom wordt er anders geŽxperimenteerd met centra's die volledig in de buitenlucht staan? In Noord Europa is dat vanwege het klimaat koeltechnisch geen enkel probleem. Leuke materie.
Exact, voor mijn gevoel is er zo veel vernieuwing en verbetering rondom koeling en efficiency van datacenters in het nieuws geweest. Ik vind het raar dat daar niet op in wordt gegaan in dit nieuws item.

Maar dat wil niet zeggen dat ik niet blij ben over de brede implementatie van virtualisatie. Het is al sinds jaren gemene goed in zowat elke processor, maar consumenten gebruiken het vooralsnog weinig. Dus ik vind het goed om te horen dat het tůch stevig wordt toegepast in de server wereld!
Ik ben benieuwd in hoeverre de zuiniger processors en geheugen hierin bijdragen. De TPD is een heel stuk omlaag gegaan als je naar het rendement kijkt (berekeningen per Watt). Daardoor is de warmteproductie ook verminderd.
Fijn dat er ook eens goed nieuws komt over dit onderwerp. Dataservers worden niet alleen sneller en betrouwbaarder, maar gebruiken ook nog eens minder energie. Win-win.
Niet helemaal...
Ze gebruiken nog steeds 56% meer energie. Het is alleen lager dan de voorspelde 100%.
Maar er staan nu ook meer servers. Je kunt dus wel stellen dat er efficienter gebruik van de energie wordt gemaakt.
De winst in efficienecy komt voornamelijk uit de cpu. De cpu's worden steeds zuiniger ofwel met hetzelfde wattage heb je nu 2 of 4keer meer snelheid.

Waar je vroeger 2 pc's nodig had inclusief voeding, verbruik moederbord, hdd heb je er nu eentje of msischien zelfs 1 i.p.v 4. automatisch krijg je daardoor minder verbruik, c.q evenveel verbruik bij meer vermogen.

Vitualisatie is ook het sleutelwoord, 12 cores server, of 24 core servers i.p.v quad cores met hetzelfde verbruik. Data die op een san staat enz enz
dat denk ik niet, het is waar dat cpu's een stuk zuiniger zijn, maar ze zijn ook sneller waardoor je er minder van nodig hebt om het zelfde te presteren. ergo minder feitelijke cpu's ergo minder stroom verbruik..

maar er is NOG een factor welke je vergeet... het is namelijk een gegeven dat het afkoelen van een datacentrum vaak enkele keren meer stroom kost dan de cpu's verbruiken ... koeling is dus de grootste kosten post... echter als je hier naar kijkt, en je hebt minder cpu's - dus minder warmte - dus minder koeling nodig - dus minder stroom verbruik...

het mes snijd werkelijk aan alle kanten.
OS- en programma's worden ook zwaarder, en hebben meer cpu en geheugen nodig ...
Dus snellere cpu en meer geheugen bij zelfde stroomverbruik is niet per definitie zuiniger ...

[Reactie gewijzigd door Xubby op 1 augustus 2011 16:26]

Yep, maar die besparing kun je alleen meetellen wanneer de nieuwe systemen meer load verwerken dan de oude systemen.

Wat er hier toe doet is dat het verbruikte energie met 56% is toegenomen.
MAAR (een hele grote "maar"), het aantal servers is gedaald.
Er werd verwacht dat het verdubbeld zou worden, ten opzichte van de laatste ~5 jaar.
Dit is niet gehaald door de opmars van virtual servers.

Dat betekend dat de servers die er al stonden dus meer load hebben gekregen en er weinig besparing overblijft. De besparing zit hem dan in het niet hoeven aankopen van een extra rack/mobo/cpu-combo's.

Het extra verbruik komt dus omdat er niet is uitgebreid. Dat is nooit zuinig :P imo.
Als er namelijk wel was uitgebreid, of geŁpgrade dan hadden ze (waarschijnlijk) zuinigere racks gehad, die de load makkelijker konden verwerken.

Maar ze gaan niet upgraden, want de oude systemen brengen (56%) meer inkomsten binnen dan tijdje terug. Zou jij de koe slachten als hun uiers opeens 56% meer melk gaven?

*edit: Typo's*

[Reactie gewijzigd door Yezpahr op 1 augustus 2011 10:56]

Maar ze gaan niet upgraden, want de oude systemen brengen (56%) meer inkomsten binnen dan tijdje terug. Zou jij de koe slachten als hun uiers opeens 56% meer melk gaven?
Als ik weet dat de volgende koe net zo veel melk geeft maar de helft aan hooi eet zou ik het wel weten.
Drogredenering. Je weet niet hoeveel servers er bij zijn gekomen en wat de rekenkracht is. Je stelling kan eenvoudig onderuitgeschopt worden als de capaciteit met maar 10% is toegenomen en alle capaciteit in beide gevallen 100% werd benut. In dat geval is de efficiŽntie dus veel lager itt dat wat jij beweert.
Absoluut verbruiken ze wellicht meer energie, maar als het aantal servers met meer dan 56% is gegroeid, is het relatieve verbruik natuurlijk gedaald.
Een van de voordelen van virtualisatie is dat ipv. 10 fysieke servers die gemiddeld nog geen 10% worden belast maar wel de energie verbruiken wordt er nu maar 1 fysieke server gebruikt die op 80% zal draaien. HIerdoor wordt de gebruikte energie veel optimaler benut.
Die berekening behoeft nogal wat nuancering
1) Idle servers gebruiken niet zoveel stroom als servers onder load (zeg maar ongeveer de helft)
2) Virtualisatie geeft overhead, waardoor je een relatief zwaardere machine nodig hebt voor de zelfde taak (tegenwoordig vooral meer geheugen)
3) Ook je virtualisatie server zal niet continu op 80% draaien, aangezien je dan met geen mogelijkheid pieken kan opvangen.

Als 10 servers met een load van 10% op 1 de zelfde machine worden geconsolideerd, dan zal deze rood gloeien. Je gaat dus compenseren door een veel zwaardere bak te gebruiken wat de winst gedeeltelijk opheft.

Uiteraard zal je nog steeds zuiniger uit zijn.
Ook het gegeven dat power management tegenwoordig ook op servers geen vies woord meer is lijkt me een relevante oorzaak voor de beperking van de stijging van het verbruik.
Heel stom, maar volgens mij hebben mensen prive al vaak een bak thuis draaien etc voor eigen sites etc. Tuurlijk valt hierbij het stroomverbruik in het niet tov een datacenter, maar is imho wel een factor waar rekening mee gehouden mag worden, evenals het folding-verhaal: ipv datacenters te gebruiken, gewoon huis tuin en keukenpc's.

Voor wat de groei van internet betreft: Internet groeit razend snel, men doet ook meer op internet dan een jaar terug, dan 2 jaar terug, dan 10 jaar terug etc.

De vraag (naar bandbreedte/internet-space etc) is dus explosief gestegen...

Maar zoals ik al eerder min of meer aangaf: die cijfers kloppen niet omdat er meerdere factoren zijn waar rekening mee gehouden mag worden ;)
Die vraag naar bandbreedte en storage space valt nog wel mee volgens mij. Ik zit al een jaar of 6 op 5 Mbit en nog geen behoefte om een snellere lijn te nemen. Een filmpje downloaden stelt weinig voor: een DVD-rip duurt een halve dag o.i.d, en dat doe ik maar zelden. En ik heb nu een harddisk van 1,5 TB die ik waarschijnlijk nooit vol krijg met alleen maar bruikbare data. (Ik moet er al niet aan denken om alles uit te zoeken. Dan liever een format.) De komende jaren heb ik waarschijnlijk weinig extra meer nodig. Misschien nog een keer een bak geheugen erbij, maar das alleen maar voor het gemak. Het O.S. compleet vanuit RAM draaien is op zich interessant maar niet echt belangrijk.
Ik denk eerder dat de markt een beetje terugvalt omdat zelfs goedkope computers al enorm veel rekenkracht en storage hebben. Die is waarschijnlijk, tot grote tegenzin van alle monopolisten, sneller toegenomen dan de vereisten van commerciele produkten. M.a.w: ze hebben het niet goed gespeeld. Hardware wordt te goedkoop.

[Reactie gewijzigd door blorf op 2 augustus 2011 09:27]

Ik zou een data center naast een andere instelling neerzetten die warmte moet produceren, gek voorbeeld stadsverwarming... dan hoeft de stads verwarming minder gas te stoken omdat het water al deels verwarmd wordt door het datacenter.
Ik heb een oude Compaq 5500dual cpu socket staan met 2 x 1800W voeding erin en die word aan alle kanten eruit gewerkt door een Icore 5 2500K met een zuinige voeding die maar een 100w opneemt bij vollast .....
en als je dan ook nog eens VM doet en die verschillende servertjes zo combineert valt er veel te winnen...
Het is wel fijn, dat dit soort berichten ook langskomen, dan kun je zien, dat er toch efficienter gewerkt wordt in de datacenters. Zoals het hoort natuurlijk.

Het artikel zegt het ook al, zuinigere processoren, efficienter gebruik van de beschikbare capaciteit door gebruik te maken van virtualisatie, daarnaast wat minder leuke oorzaken, zoals de crisis, waardoor de vraag naar servers achterblijft.

Ik ben wel benieuwd of er ook onderzoek gedaan wordt naar de effecten van de vergroting van de capaciteiten en vulling van datacenters en welk effect dit heeft op het gebruik van servers op kantoor en op het gebruik van PC's thuis. Stagneert het stroomgebruik overal of wordt het gebruik op kantoren en bij mensen thuis wel meer?
Ik denk dat thuisgebruik wel toeneemt, zeker als ik kijk naar mijn eigen situatie.
Enerzijds is het zo dat tv's en laptops zuiniger worden door nieuwe technieken en bij laptops begint het een eis te worden dat de batterij steeds langer meegaat.
Anderzijds, als men kijkt naar wat voor voedingen er tegenwoordig nodig zijn voor zware pc (/gamepcs) dan krijg ik de indruk dat we alleen maar meer zijn gaan gebruiken door de videokaarten v/d laatste jaren en gebruik van SLI/Crossfire. We halen wellicht 70-80% grafische prestatiewinst, maar we gebruiken wel voor een 2de volle kaart aan energie.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True