Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: InformationWeek

Volgens een studie, uitgevoerd door de Stanford universiteit in opdracht van AMD, is het energieverbruik van datacentra in 2005 verdubbeld ten opzichte van 2000. De verdubbeling is veroorzaakt door het snel toenemende aantal servers wereldwijd.

Koeltoren kerncentrale bij nachtDe studie stelt dat slechts 5 à 8 procent van de toename veroorzaakt wordt door een hoger energieverbruik per server en 90 procent te wijten is aan het in bedrijf zijn van meer servers. In het goedkopere segment is het aantal servers sterk toegenomen, terwijl de hogere segmenten een kleine daling qua aantallen laten zien. In 2000 waren er wereldwijd ongeveer 12,2 miljoen low-end servers in gebruik, 1,8 miljoen mid-range servers en 66.000 high-end servers. In 2005 waren er 26 miljoen low-end servers, 1,2 miljoen mid-range servers en 59.000 high-end servers in bedrijf.

Het energieverbruik van al deze servers en de gerelateerde infrastructuur wordt geschat op 14.000 megawatt hetgeen equivalent is aan de energieproductie van 14 typische elektriciteitscentrales. In de Verenigde Staten werd circa 1,2 procent van de gehele energieproductie gebruikt voor de datacentra, ongeveer evenveel als het verbruik van alle tv’s, en goed voor een energierekening op 2,7 miljard dollar. In het rapport worden verschillende suggesties gedaan om het energieverbruik te verminderen. Bijvoorbeeld slimmere koelstrategieën, virtualisatiesoftware en efficiëntere voedingen kunnen gebruikt worden om het verbruik te verlagen.

Moderatie-faq Wijzig weergave

Reacties (47)

Is het mischien een idee om dergelijke grote datacentra te voorzien van een warmtewisselaar, zodat je de omliggende bedrijven kunt helpen met de verwarming.
De paar datacentra die ik ken liggen echter niet in de buurt van kantoren of zwembaden, dus mischien niet heel erg handig idee in de praktijk.
Deze kwestie is niet zo makkelijk als het lijkt. Weliswaar produceren de computers heel veel warmte, maar het warmte verschil t.o.v. de omgeving is heel laag. Bijvoorbeeld de lucht opgewarmd tot 35 graden.

Daardoor is het heel lastig om die warmte terug te winnen... Omzetten van warmte vereist grote temperatuur verschillen. Eigenlijk kun je alleen er mee werken als je direct die opgewarmde lucht kunt inzetten.

Sommige datacentra's gebruiken de warmte van de computers voor de verwarming van de kantoor ruimtes in hetzelfde gebouw, simpelweg door de warmte lucht van de serverruimte de kantoren in te blazen. Zoiets is goed te doen, maar werkt natuurlijk alleen in de winter...
je hebt helemaal geen grote verschillen nodig. je hebt alleen een grote warmtewisselaar nodig. als je de warme luchtstromen (in de winter) via een warmtewisselaar naar buiten laat lopen (lucht dus gewoon naar buiten) en de andere buis in de warmtewisselaar van buiten naar de werkplekken leid dan heb je ten eerste verse lucht en ten 2e warme lucht. gelijktijdig kan je nu van buiten koude lucht aanvoeren in het datacenter die dit vanzelf weer opwarmt.


* whizzy81 werkt bij een grote speler op de klimaatautomatisering. ons kantoor word door 2 bronnen verwarmt en verkoeld. de warme bron is 22 graden en de koude is 18 graden. het bedrijf is een constante 20 graden, dag en nacht. dit word namelijk gevoed door het zonlicht in de zomer en de kou in de winter. hier komt geen ketel aan te pas. als je meer wilt weten: http://www.geslotenkas.nl/nl/geslotenkas.htm
Toevallig heb ik hier een gesprek met bepaalde mensen over gehad, energie verbuik loopt de spuitgaten uit, dus er word ook geprobeerd om de koeling op een ander manier te laten werken (want dan hou je energie over).
Datacenters lopen ook tegen en ander probleem aan, de levering van energie, electriciteit centrales zijn niet berekend op dit soort extra grootverbruikers....

Een aantal datacenters gaat nu ook de energie kosten in rekening brengen (stroomverbruik+koeling+ups verbruik) omdat dit ook enorm is gestegen.

Was 5 jaar geleden ongeveer 500 Watt per m2 normaal, is tegenwoordig word er 2000 Watt per m2 verbruik gevraagd, en sommige nog (veel) meer.

Ik vind zelf als TBér ;) vooral het verhaal van de energie besparing intressant, daardoor kun je eigenlijk weer uitbreiden.
Ik heb zelfs al begrepen dat VMware (meerdere servers op 1 proppen dmv virtualisatie) per jaar al voor 5 miljard KWh aan besparing zorgt.
Ook is al een Californische stroomleverancier die 400 USD geeft per server die een bedrijf virtualiseert. Dit alleen om maar van die stroompieken af te zijn.
Wie legt mij nu eens uit waarom virtualisatie helpt stroomverbruik te beperken? Hardware onder full load is toch volledig stroomverbruikend?
Of je daar nu virtuele servers op draait of niet.
Door meerdere servers op 1 machine te draaien gebruik je de resources van die machine, en dus ook de voeding, optimaal. Dit in tegenstelling tot een machine die veel tijd gewoon wat staat te idlen. Je hebt altijd een basis-belasting van je voeding, zeg X en de belasting door je echte systeem-load, L. Met 4 servers heb je dus 4X + 4L. Met 1 VMware bak heb je X + 4L (er van uitgaande dat je ene machine die 4L kan leveren natuurlijk). Kwestie van minder overhead.
Lees de post boven je: 'om van die stroompieken af te zijn'. Wat gebeurt er als 1 server piekt: dan heeft hij plots veel meer stroom nodig. De huidige switching power supplies reageren pas een aantal milliseconden later. Dit betekent dat er plots een grote vertraging stroom -> spanning is.

En de stroom die achterloopt op de spanning (in fase), zoiets hebben energieleveranciers absoluut niet graag. Dit betekent veel grotere energieverliezen in transformatoren.

Conclusie: als je 1 server hebt die minder pieken heeft, maar een meer constante load; dan is dit voordelig voor de stroomleverancier.
Ik ben net klaar met het bouwen van een nieuwe server met een mobile CPU

2 x 2GHZ C2D en 4 HD's in raid 5
Die trekt max 60 watt full load :*)
We kunnen heel veel stroom besparen met slimmere CPU's en zaken als zuinige HD's en efficientere voedingen.
Dat kunnen ze inderdaad maar dat is niet alleen afhankelijk van diegene die het systeem in elkaar zetten maar van de CPU/HD bouwers. 60W is dat niet wat weinig voor dat systeem? Ik dacht dat een C2D alleen al 65 W gebruikt.
lees eens goed voor je blaat
Ik vind virtualisatie in combinatie met zuinige servers de oplossing. De gemiddelde cpu load van een server is wereldwijd zo'n 4%.... Kun je nagaan hoe weinig servers we nodig hebben als we meer gaan virtualiseren!
waardoor hosting weer goedkoper wordt :9 dus meer mensen die gaan klooien met html weblogs enz enz
"Energieverbruik datacentra verdubbeld sinds 2000"

Uhm, 59.000 high-end wereldwijd lijkt me beetje niet zoveel.
In grote serverparken zoals er in elk land wel één staat staan toch al meerdere van dit soort servers?
Elke moderne universiteit heeft ook minstens 1 fatsoenlijke server, of huurt er 1 lijkt me.

Dan heb je nog research centra van Intel, AMD en nVidia etc. Die hebben ook wel meerdere high end servers om alles te runnen. Weet iemand wat de definitie is van high-end server in deze context?


Verder idd een erg grote toename in het aantal low-end servers!! Thuisgebruikers en kleine bedrijfjes zijn de schuldigen :P
Weer een hoop markt gecreeerd voor extra energiezuinige (en duurdere?) servers van AMD dus, en niet geheel onterecht natuurlijk, het verbruik moet binnen de perken blijven.
Het is juist een trend (geweest?) om high-end servers door meerdere low-end te vervangen, zeker bij de high-performance-computing (clusters ipv supercomputers) waar de universiteiten die je noemt mee bezig zullen zijn. Verder is op sommige plaatsen vast de behoefte aan processor-power zodanig dat het eerst door een mid-end of high-end systeem geleverd moest worden, maar nu door een trapje lager voldaan kan worden.

Overigens betekent het hebben van 'low-end' servers absoluut niet dat het ook om kleine bedrijven en particulieren gaat. Juist ook de grote bedrijven hebben tientallen of honderden low-end servers ;)
Wat dacht je van honderden blade servers die en een hp rack hangen. Bij ons op school zijn ze in ieder geval overgestapt van lompe mid-range/low-end naar blades omdat het flexiebeler is. Verder lijkt me dat taken vlugger verdeeld worden ipv alles te richten op één machine.

Misschien dat dit weer gaat veranderen met de virtualisatie trend van de laatste tijd :7
Het is me echt een raadsel waarom die low-end zooi zo enorm populair is. Beheer technisch een hel omdat je gruwelijk grote aantallen kleine doosjes krijgt die allemaal bewaakt moeten worden en toch individueel wat configgen nodig hebben. Tevens slurpen al die low-end bakken heel erg veel stroom en gaan ze gewoon vaak kapot(met name budget zooi van hp)

Als mensen zo graag kleine losse bakjes willen hebben is daar wel een oplossing voor: Kleine zooi virtualiseren op mid- en highend servers:) Dan bespaar je tenminste nog heel erg veel energie.
Ben je thuis in die markt? Meestal wordt centraal een aantal images bewaart. Die worden op de harde schijven van de blades gezet, waarna deze vrolijk draaien. Dat proces gebeurt meestal automatisch.

De server worden in de gaten gehouden via Remote Administrator Cards, zoals de DRAC van Dell bijvoorbeeld. Daar staat system health, system usage, etc. op. Je wordt automatisch verwittigd als een server raar doet. Doordat je fail-over hebt, merkt de eindgebruiker er niets van.
Jij als beheerder kan dan rustig even kijken wat er mis is.


Op zich is het leuke van die blades net dat je ze kunt beheren wanneer je wilt. Alles blijft steeds beschikbaar.
Maar zo weinig uitbreidingsloten die Blades.
Als je wilt virtualiseren en je wilt veel redundante netwerkaansluitingen dan kun je, je blades wel gauw vergeten. Goedkoop zijn ze ook al niet waar ze dan weer wel op scoren is netheid in je serverroom :)

Nee geef mij maar zo een lekker DL585, 12 nics, 2 dual HBA's en een sloot geheugen. Dat zijn nog eens lekkere Virtualisatiebakken
:9
Juist niet de thuis gebruikers, die hebben geen server in een datacenter staan, maar juist thuis in de kast, anders waren het geen THUISservers :z
De marketingmolen van AMD is weer aan de gang zo te zien. Dit kunnen ze mooi gebruiken om CPU`s die virtualisatie-support aan te prijzen.
De marketingmolen van AMD is weer aan de gang zo te zien. Dit kunnen ze mooi gebruiken om CPU`s die virtualisatie-support aan te prijzen

Ik denk dat het wel meevalt. Aangezien Servers geconsolideerd zullen worden. 5 Dual processor systemen wordt een dual dualcore systeem. Dat betekent dat ze maar 2 processors ipv 5 x 2 in oude situatie kunnen verkopen.

De processors zijn eerder goedkoper goedkoper dan duurder geworden.Netto worden ze er wijzer van maar niet veel.

Als er iemand is die beter wordt van Virtualisatie buiten het milieu is het VMware en Xensource. Voor de processor fabrikanten is het marginaal.

In de bedrijven waar ik werk worden systemen alleen vervangen na de afschrijfperiode: 3 jaar.
Intel processoren hebben tegenwoordig ook virtualisatie technologie aan boord.
Vooral virtualisatie gaat een grote rol spelen in de toekomst. Stroomkosten worden zo duur dat het goedkoper is om alles op 1 server te droppe. Laats een heel stuk over gelezen in een blad (het is me effe ontschoten welk blad)
Ik denk dat virtualisatie icm clustering een grote rol zal spelen: hiermee heb je 1 server die verspreid is over meerdere machines. Daardoor heb je een hogere uptime (1 apparaat defect is geen probleem) en kun je capaciteit veel effectiever inzetten (even meer nodig, dan worden meer apparaten ingezet).

Als je het niet begrijpt een voorbeeldje:
- je hebt 5 fysieke machines
- je hebt 8 virtuele servers
- 1 virtuele server bevindt zich bijvoorbeeld op 3 machines tegelijk

Dit is een ideale situatie, ook best haalbaar icm NAS en goeie virtualisatie-/clusteringsoftware.
Daarvoor is wel dure shared storage met clustered filesysteem nodig. Een gewone NAS zal dit karretje niet trekken. Zowieso kost clusteren over verschillende lokaties nogal een paar centen aan netwerk.
Lekker duidelijk...

In 2000 was Intel al bezig hun energieverslindende P3 & P4's te verkopen/verschepen. Dus toen was het al (te) hoog.
Dus het klopt, een server gaat (iig bij de wat minder bedeelde bedrijven) makkelijk 5 jaar mee, dus dat nu het energieverbruik is verdubbeld, kan wel door de Netburst-populariteit gekomen zijn.
Nou, een paar voorstellen heb ik wel, deels afgeleid van eerdere nieuwsberichten:

• centrale 3/5/12V-punten, geen voedingen meer dus: minder points-of-failure, één conversiepunt, minder energie gaat verloren

• warmte zo veel mogelijk gebruiken om kantoor-/receptieruimte / omliggende panden te verwarmen

• geen Intel Xeons meer in servers gebruiken (extreem energieverbruik: 150W per cpu of meer komt voor) 8)7 (niet als flame bedoeld, wel als stof tot nadenken)

• indien mogelijk in met name winter zo veel mogelijk koude lucht van buiten gebruiken om te koelen: semipassief koelsysteem kan de kou van buiten aanpompen om de warme lucht binnen te verkoelen en het werk van airco's gemakkelijker te maken. Zeer complexe en effectieve structuren zijn mogelijk! Helaas reduceert dit enkel aircokosten, geen serverstroomkosten. Maar alle kleine beetjes helpen :)
centrale 3/5/12V-punten, geen voedingen meer dus: minder points-of-failure, één conversiepunt, minder energie gaat verloren
Nadeel is dan wel dat je enorme stromen gaat krijgen op die lijnen en een kortsluiting in 2 server kan een heel rack plat krijgen. Dit omdat je stromen van 20 A of meer liever niet wilt zekeren bij zo'n lage spanning.
Grote stromen zijn per definitie al niet praktisch vanuit een besparings-oogpunt.
P=I^2 * R, oftewel vermogensverlies neemt kwadratisch toe met de stroom.
Was het niet zo dat gelijkstroom meer verlies in de bekabeling teweegbrengt dan wisselstroom? Dan zou je naar de servers 12V/5V-AC kunnen aanleveren, zodat de voedingen feitelijk alleen nog maar een gelijkrichter hoeven te hebben.
lage spanningen hebben per definitie een groter verlies tijdens transport. Of dit nou gelijkspanning of wisselspanning is, maakt niet uit.
Het is gewoon zo dat de stromen dan veel hoger zijn bij gelijk vermogen en hoge stroom is veel verlies (tenzij je leidingen van 0 Ohm hebt, maar die bestaan niet)
Wisselstroom zou mischien iets minder inefficient zijn, maar dat voordeel haal je meteen weer weg door een gelijkrichter en stabilisator in de PC's te moeten plaatsen.
Simpel rekenvoorbeeld: Spanningsval over een diode is zo'n 0,3 - 0,6 V (afhankelijk van het materiaal) en in een bruggelijkrichter gaat dat nog eens keer 2.
Dus dan verlies je al zo'n 10 - 20% van de geleverde spanning.
Daar zijn in theorie(!) ook trucjes voor te verzinnen, met per server een zekering bijvoorbeeld: qua aanschafkosten zal dat dan niet zo héél veel schelen.
Klopt, maar op dit moment zijn er toch ook voedingen die dit aankunnen? Alsmede redundante voedingsystemen. Ik kan me niet voorstellen dat dit niet op grotere schaal op te zetten is. Per rack zou je kunnen denken aan één centrale redundante voeding.

Dit is volgens mij al eens door IBM ofzo voorgesteld en zou tot een besparing van in het beste geval 20% kunnen opleveren door het fors verhoogde rendement. En 20% is niet niets.
Die voedingen kunnen de uitgangsspanning van de regelaar aanpassen op de gemeten spanning na de zekering. Dat kun je met een centrale voedingsrails niet doen.

edit:
Dit is volgens mij al eens door IBM ofzo voorgesteld en zou tot een besparing van in het beste geval 20% kunnen opleveren door het fors verhoogde rendement. En 20% is niet niets.
20% lijkt me ietwat optimistisch. De huidige PSU's kunnen al > 80% efficientie halen, dus dan is 20% besparing schier onmogelijk..
met per server een zekering bijvoorbeeld:
Ook per server trek je nog erg grote stromen.
Denk aan zo'n 100 Watt aan energie. Alleen over 5V is dat al 20A.
Als je dat gaat zekeren zal de spanning na de zekering zakken, omdat een zekering in feite niets meer is dan een kleine weerstand.
Als je het electronisch gaat regelen, heb je ook te maken met een spanningsval en transistoren of relais die dat schakelen zijn ook niet heel erg goedkoop.
Om eerlijk te zijn valt me dat nog reuze mee. Met de enorme groei van dataverkeer is het verbruik 'slechts' verdubbeld in vijf jaar tijd, terwijl ook nog eens blijkt dat het verbruik van de server zelf maar een erg klein aandeel heeft in deze toename. Wat me vooral interessant lijkt is dan ook dit energieverbruik afzetten tegen de hoeveelheid dataverkeer, servers zijn namelijk ook krachtiger geworden in die tijd.

Dat gezegd hebbende blijft het natuurlijk altijd nuttig om te besparen waar mogelijk is, ook al hebben we het over 'maar' 1% van de energiecapaciteit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True