Google claimt pue-waarde van 1,14 voor zijn datacenters

Google stelt dat zijn datacenters circa 50 procent minder energie gebruiken dan een gemiddeld rekencentrum, met een power usage effectiveness-waarde van 1,14. In 2008 behaalde Google nog een pue-waarde van 1,21 met zijn datacenters.

Een pue-waarde is een maatstaf voor de efficiëntie van een datacenter, waarbij het totale stroomgebruik wordt gedeeld door het opgenomen vermogen van de servers. De waarde geeft een indicatie over welk deel van de energie wordt gebruikt door zaken als koeling, processors en verlichting. Een lagere pue-waarde duidt op een efficiënt opererend datacenter.

Volgens een blogposting van Joe Kava, eindverantwoordelijk bij Google voor het beheer van datacenters, heeft de zoekgigant in zijn rekencentra in het afgelopen jaar een pue-waarde van 1,14 weten te behalen, terwijl dit in 2010 nog op 1,16 lag. Bij de eerste pue-metingen, uitgevoerd in zes datacentra, behaalde Google in 2008 nog een pue van 1,21.

Kava stelt dat de meeste winst is te behalen door zoveel mogelijk vrij beschikbare passieve koeling in te zetten om de servers te koelen. Zeker drie datacenters zouden voor 100 procent gekoeld worden zonder actieve koelmethoden. Zo gebruikt Google bij een datacenter in België koelwater vanuit een nabijgelegen kanaal, terwijl een rekencentrum in Ierland vrije luchtkoeling gebruikt. In de Finse plaats Hamina wordt zeewater ingezet om het serverpark koel te houden.

Pue-gemiddelden van datacenters Google (bron: Google)
Een andere methode om het energieverbruik in zijn datacentra te verminderen is door de temperatuur in de computerzalen hoger te laten oplopen dan gemiddeld. Daarbij zouden de temperaturen soms hoger oplopen dan serverfabrikanten voor hun apparatuur als maximum opgeven, maar Google stelt dat vrijwel alle hardware hier goed tegen kan. Desondanks kan de warmte in de datacentra wel zo oplopen dat personeel genoodzaakt is om de ruimtes te verlaten.

Met een pue-waarde van 1,14 presteert Google naar eigen zeggen aanzienlijk beter dan datacentra gemiddeld doen. In 2011 was de gemiddelde pue-waarde van een datacenter 1,8. In Nederland streeft het KNMI, dat onlangs een nieuw datacenter met een supercomputer in gebruik nam, ook naar een pue-waarde van circa 1,14. Het is nog niet duidelijk wanneer het KNMI deze score zal behalen.

Door Dimitri Reijerman

Redacteur

28-03-2012 • 17:41

57

Lees meer

'Datacenters gooien veel energie weg'
'Datacenters gooien veel energie weg' Nieuws van 24 september 2012

Reacties (57)

57
57
38
6
0
14
Wijzig sortering
Quote zonder bron:
"PUE by itself is meaningless if it is just used as a statistical boasting right versus another data center"

Data Center Efficiency Metrics: mPUE,, Partial PUE, ERE, DCcE
http://www.thegreengrid.o..._Metrics_2011.pdf?lang=en

Data Center Design Guide 2012
http://www.thegreengrid.o...20Guide_final.pdf?lang=en
Dat Datacenters energie zuiniger worden is prima door welke toegepaste techniek dan ook, maar vergeet niet dat je dit niet mag en kan vergelijken met een lokaal server hokje van 5*3 bij willekeurig bedrijf, of die vaak nog een een klein 19inch rackje hebben staan in de kelder.
Warmte ontwikkeling is de grootste vijand apparatuur, en reduceert de levensduur aanzienlijk, als je van een Juniper Core Router een kaart de geest geeft bv, praat je niet over drie tientjes maar meer over de grote van je jaar salaris, dus 30 graden in een DC is een no go.

@ onder, we hebben het over omgevings temp in een DC, de werkelijke temp van de apparatuur zal dan al snel richting 40 á 50 graden gaan. en als je flow in je rack niet optimaal is door te veel te stapelen wat customers doen bv. in een colo, zit je rap aan je max.

[Reactie gewijzigd door Habana op 23 juli 2024 07:59]

Uiteraard niet toepasbaar op de gehele server, maar google heeft een aantal jaar terug al onderzoek gedaan naar harde schijven en wanneer ze stuk dreigen te gaan in combinatie met de SMART parameters.
Hieruit is toen ook gebleken dat de temperatuur heel weinig uitmaakt voor de levensduur van de een harde schijf.

Bron: http://research.google.com/archive/disk_failures.pdf

Dat is dan voor een harde schijf, maar ik kan me voorstellen dat een server ook nog prima werkt als die wat warmer wordt. Uiteraard willen fabrikanten bekend staan als betrouwbaar en daardoor zullen ze wellicht (aanname!) wat conservatiever zijn wat betreft maximum temperaturen. Want mòcht het dan van invloed zijn, dan is het niet hun schuld als het misgaat.
Warmte ontwikkeling is de grootste vijand apparatuur, en reduceert de levensduur aanzienlijk, als je van een Juniper Core Router een kaart de geest geeft bv, praat je niet over drie tientjes maar meer over de grote van je jaar salaris, dus 30 graden in een DC is een no go.
Dat klopt dus niet. Google test al jaren met hogere temperaturen en zoals het artikel ook zegt: de meeste apparatuur kan hier gewoon tegen. Natuurlijk moet je het niet tot het smeltpunt laten komen, maar 30°C zal echt geen verschil maken. Natuurlijk wil je als klein bedrijfje niet het risico lopen dat net jou apparatuur er niet tegen kan, maar een simpele server heeft hier echt geen moeite mee.
wat een onzin, al die apparatuur kan makkelijk tegen een temperatuur van 30 graden. Het moet alleen niet 60 graden worden binnenin de servers. Volgens mij was er bijvoorbeeld een aantal jaar geleden een onderzoek van Google dat uitwees dat bij een verhoging van 20 naar 30 graden de levensduur van de gebruikte harddisks niet significant afnam.
Warmte ontwikkeling is de grootste vijand apparatuur, en reduceert de levensduur aanzienlijk, als je van een Juniper Core Router een kaart de geest geeft bv, praat je niet over drie tientjes maar meer over de grote van je jaar salaris, dus 30 graden in een DC is een no go.
Ik denk dat het voor Google meer een no go is om kaarten in te zetten die bij 30 graden uitvallen. Of ze zetten (als het echt moet) daar een aparte ruimte voor op.

Je hebt je 19-inch rackjes in de kelders, dan heb je de "consumenten" DC's en ergens ver daarboven heb je Google / Apple DC's waar een jaarsalaris voor een kaart niet meer relevant is als ze 2 (of meer) jaarsalarissen aan energie-kosten besparen...
ik vraag me af of google dan werkelijk zoveel efficienter doet dan de gemiddelde datacenter. De temperaturen op laten lopen, klinkt een beetje om kunstmatig de cijfers laag te houden. In principe kan elke datacenter dat doen. Als ze nou echt betere technologie hadden ontwikkeld, zou het getal meer zeggen. In ieder geval denk ik zo.. maar misschien zie ik het iets te kort door de bocht!
Als ze nou echt betere technologie hadden ontwikkeld

Google is een meester in het gebruiken van technologie voor hun eigen systemen. Er zijn tal van technieken die ze gebruiken :

- Servers : Deze zijn allemaal zelf gemaakte servers met aangepaste moederborden en aangepaste voedingen. De voedingen voeden meerdere server direct op gelijkstroom en ze gebruiken battery packs per server. ( Link : http://www.google.com/abo...e/efficiency/servers.html & http://news.cnet.com/8301-1001_3-10209580-92.html )
- Containers : Een Google datacenter bestaat uit verschillende blokken, niet zelden in zee containers ingebouwd. Hiervan word de temperatuur de hoogte ingejaagd en met buitenlucht gekoeled.
http://asset2.cbsistatic....Google_data_centers-4.jpg
- Geografische shutdown :
Sluiten bepaalde load van datacenters zodat deze enkel en alleen in de avond werken wanneer de lucht cooler is.
- Onderhoud : Zoals eerder gezegd open ze pas een container als er meer dan 20% uitval is. Ze nemen dan ook ineens de hele container offline en laten deze taken overnemen door andere datacenters / containers. Dankzij hun eigen ontwikkeld File System is alles mooi gedistribueerd over andere units. Men vervangt alles en start de unit weer op.

Het is eigenlijk ongeloofelijk hoeveel technologie Google al heeft ontworpen voor datacenters op alle niveaus ( Cooling, Architectuur van de servers en werking ). Je vraagt je bijna af wat de andere datacenters al die jaren hebben gedaan...
Draai het om: de andere datacenters gooien onnodig energie weg omdat ze kouder koelen dan strikt noodzakelijk.

Is (marketing technisch) ook logisch dat datacenters (met vaak verschillende cliënten) verder koelen: als ik tussen 2 datacenters kan kiezen en één vertelt "ja het is hier erg warm, warmer dan mag volgens de specificaties van je hardware, maar dat vind je geen probleem toch?" dan kies ik denk ik toch voor het andere datacentre. De Google servers zijn gebouwt zodat het "geen probleem" is als een server uitvalt.
de stroomkosten kunnen prima opwegen tot het iets vaker vervangen van wat hardware.
Bovendien zijn de meest warmtekritische compenenten (cpu, ram, psu,...) thermisch beveiligd zodat ze stoppen ipv stukgaan.
Je kan er dan vanuitgaan dat als het niet stopt, het blijft draaien. Wellicht met meer slijttage, maar na x jaar is de boel toch afgeschreven en wordt vervangen, versleten of niet.
In principe kan elke datacenter dat doen.
Klopt en dat doen ze niet DUS is het niet zo efficient...

Om nou te zeggen dat de cijfers en kunstmatig mee verlaagd worden is een beetje lame. Aangezien het gewoon minder energie kost en dus beter is voor het millieu dan een serverpark waar dat niet gebeurt...
[...]
Klopt en dat doen ze niet DUS is het niet zo efficient...
Dat doen ze niet veelal met een belangrijke reden (als hw stuk gaat wie betaalt het dan? Dat is bij Google ietwat makkelijker dan bij een willekeurig datacenter)
Aangezien het gewoon minder energie kost en dus beter is voor het millieu dan een serverpark waar dat niet gebeurt...
Milieu is een leuke marketingtechnische bijverdienste, in 1e instantie zal het ze puur om het bespaarde geld gaan. Minder energie -> minder kosten
Het is ook een gebrek aan kennis bij beheerders van datacentra. Te vaak wordt aan verstokte idee vastgehouden en teruggegrepen. De temperatuur kan nog veel hoger dan 30 graden heb ik mij laten vertellen. Die iemand is iemand die ze ontwerpt... .
Desondanks kan de warmte in de datacentra wel zo oplopen dat personeel genoodzaakt is om de ruimtes te verlaten.
Dit lijken mij persoonlijk ook niet de fijnste werkomstandigheden. Ik ben het ermee eens dat de temperaturen in het datacenter best omhoog kunnen (staat nu vaak tussen de 20 en 25 graden afgesteld) maar als je bij een temperatuur van >30 servers moet gaan ophangen dan zal je daar niet erg blij van worden.
Ik zie ook niet direct het nut ervan, als de omgevingstemperatuur hoger is dan kan de apparatuur ten eerste minder goed de warmte aan de lucht kwijt en ten tweede maakt het niets uit voor hoeveel warmte er uiteindelijk moet worden afgevoerd.

Als je 100 BTU aan warmte aan een ruimte afgeeft moet je 100 BTU afvoeren om de temperatuur in de ruimte constant te houden, of dat nou op 10, 20 of 50 graden is maakt geen hol uit. Mogelijk dat de warmte wat makkelijker is af te voeren bij een hogere temperatuur, maar erg veel zal dat niet uitmaken lijkt me.
of dat nou op 10, 20 of 50 graden is maakt geen hol uit.
volgens mij maakt dat erg veel uit, omdat de hoeveelheid moeite die het kost om warmte af te voeren afhankelijk is van de temperatuur van het koelmiddel. Stel, je koelt met zeewater van 5 graden, dan neemt dat water veel meer warmte op bij 50 graden dan bij 30 graden. Hetzelfde geld uiteraard voor lucht.

Weet de precieze fysica niet, maar stel dat de temperatuur uitmiddelt, dan heb je dus bij de situatie van 50 graden een resultaat van (50-5/2) graden en dus 22.5 graden winst, en bij 30 graden is het (30-5/2)=12.5 graden winst. Uiteraard klopt er niks van deze berekening maar het gaat om het principe.
Ik snap het principe, maar waar de warmteoverdracht makkelijker gaat van 50 graden omgeving naar 5 graden zeewater gaat de warmteoverdracht weer moeilijker van de apparatuur van 80-90 graden naar 50 graden omgeving ipv 20 graden omgeving.
De besparing zit hem er vooral in dat je niet heel veel energie besteed aan het afkoelen van de lucht die het datacentrum in gaat.
Warmte afvoer schaalt met de verschil temperatuur tussen de omgeving en de heat source.

Q = h A (Tsource - Tamb)

Q = warmte hoeveelheid (watt)
h = heat transfer coefficient (w/m2-K)
A = oppervlak
Tsource - Tamb = verschil temperatuur (K)

Normaal gebruik je fans om de heat transfer coefficient hoog te krijgen.

Als je geen fans wilt gebruiken (stroom besparen) dan wordt je h lager maar dan moet de verschil temperatuur omhaag als je dezelde hoeveelheid warmte wil afvoeren.
Dat is toch eigenlijk hetzelfde als bij airco's? Als je in de zomer de temperatuur op 17 graden zet zal hij dat nooit halen en dus blijven koelen. Zet je de temperatuur op 20 graden dan zal hij veel vaker uitslaan. Zo bespaar je flink wat energie terwijl je eigenlijk bijna de hele tijd eenzelfde gevoelstemperatuur hebt

[Reactie gewijzigd door Mellow Jack op 23 juli 2024 07:59]

[...]


Dit lijken mij persoonlijk ook niet de fijnste werkomstandigheden. Ik ben het ermee eens dat de temperaturen in het datacenter best omhoog kunnen (staat nu vaak tussen de 20 en 25 graden afgesteld) maar als je bij een temperatuur van >30 servers moet gaan ophangen dan zal je daar niet erg blij van worden.
Achja, er zijn zoveel banen te verzinnen waarbij je onder veel erbarmelijke omstandigheden moeten werken. En dan hebben we het nog niet eens over landen waar helemaal geen ARBO bestaat. Daarbij lijkt het mij een klein offer om te maken voor een gigantische energiebesparing. Wellicht kunnen ze bij werkzaamheden ook de temperatuur tijdelijk wat aangenamer maken.
Als ik de ganse dag servers moet wisselen,
dan graag een ventilator ter gezelschap. Als ik als werknemer zou delen in de besparing, dan zou ik het in mijn shorts gaan wisselen.
Daarnaast ruikt het niet echt fris als je bij 30 graden moet gaan werken en vervolgens iemand te woord gaat staan.
Als je de hele dag servers staat te wisselen is er iets mis met je data-center. (let wel, we hebben het hier over een data-center in gebruik door één partij, dus met weinig verloop van servers.)

Ik zie "onprettige" werkomstandigheden in een data-center als een voordeel, mensen in een data-center zijn een risico, hoe korter ze er rondhangen hoe beter. (En met een ventilator kom je er wat mij betreft al helemaal niet in, nog een extra kans op storingen)
dat dacht je! met 100.000 servers op 1locatie, worden er gemiddeld altijd nog 111(!) per dag vervangen.
meer dan een dagtaak voor 1 man dus...

(100000 / 3 jaar/ 300 dagen)
Jij gaat je werk ook beter doen als het 30 graden op kantoor is?
Anoniem: 175233 @sab29 maart 2012 14:03
Bij een datacentrum als dat van Google, hoef je alleen naar binnen als er iets kapot is. Dat gebeurt niet zo heel erg vaak. Verder duurt het ook geen uren om een kapotte harddisk te vervangen. Overige configuraties op de server kun je allemaal remote doen.

Als je dus continue in een dergelijke serverruimte bezig bent, is er iets mis.
En ventilator in een datacenter is echt complete nonsense. Er is daar sowoeso een lucht circulatie van weet ik hoe sterk om warmte af te kunnen voeren. (zou het moeten weten we hebben zelf 7 rijen racks staan in de kelder)
Je hoeft maar een vloertegel op te tillen of onder in een rack te voelen.
[edit]
En als je inderdaad langer dan een uur op zo'n data voer rond hangt is warmte het minst erge. Geluid/volume van al die servers is al erg genoeg

[Reactie gewijzigd door bwt op 23 juli 2024 07:59]

heb jij de tekst wel gelezen??
"Zo gebruikt Google bij een datacenter in België koelwater vanuit een nabijgelegen kanaal, terwijl een rekencentrum in Ierland vrije luchtkoeling gebruikt. In de Finse plaats Hamina wordt zeewater ingezet om het serverpark koel te houden."

er is geen actieve koeling. Dus geen apparaat dat ijskoude lucht onder de vloer door pomp. Er is een data center dat op omgevingslucht koelt. Ik geloof best dat het daar heel warm wordt.... boven de 30 graden. zeker in de zomer.
De lucht wordt niet gekoeld maar er moet natuurlijk wel geventileerd worden. Dus ik denk dat BWT goed gelezen heeft. Je gooit gewoon het ventilatievoud flink omhoog. Ventilatievoud is hoevaak een ruimte met verse buitenlucht wordt ververst.
De volgende stap is om de ventilatie op thermische trek te gaan generen (schoorsteen) waardoor je de electrische ventilatoren stil kan zetten. De trek regelt het ventileren. Wanneer het buiten erg warm is zal je de trek een handje moeten helpen, of je moet wel heel hoge schoorstenen bouwen.
Anoniem: 13087 28 maart 2012 17:48
Desondanks kan de warmte in de datacentra wel zo oplopen dat personeel genoodzaakt is om de ruimtes te verlaten.
Ik dacht dat serverruimtes normaalgesproken erg koel zijn. Hoger dan normaal leek mij dan ook eerder zoiets van "normaal is een serverhok 15 graden, wij laten het 18 worden". Maar als het zo warm is dat het personeel weg moet, dan moeten we dus eerder aan 30+ denken?

Knap!
Tja de hardware van tegenwoordig heeft geen problemen met die temperaturen en het bespaard hun gewoon flink wat geld aan koeling.
dat heeft weinig met tegenwoordige hardware te maken imho. Al zo lang ik me kan herinneren wordt 30°C als maximumtemperatuur voor de koelende lucht in de server gezien.
Wat wel een significant verschil is de manier waarop gekoeld wordt: vroeger werd veelal vanuit de vloer koude lucht geblazen die (op sommige plaatsen) in het plafond werd afgezogen. Daardoor gaat de koude lucht verticaal door een rack heen en hebben de bovenste servers het een stuk warmer. Bovendien wordt warme en koude lucht voortdurend gemengd.
De moderne aanpak is met gangen tussen de racks: aan de voorzijde wordt in de gang koude lucht geblazen, die horizontaal door de server wordt gezogen en aan de achterzijde in een warme gang terechtkomt. Die lucht wordt veelal afgevoerd ipv gekoeld.
Zo wordt de bovenste server amper warmer dan de onderste en blijft koude lucht van warme lucht geescheiden, wat véél efficiënter is: je hoeft immers maar te koelen tot de maximum temperatuur die je aan je server wil voeren, niet tot het maximum-de warmteproductie van x servers. Daarbovenop kan je kiezen waar je de lucht haalt die gekoeld moet worden; het is meestal een stuk voordeliger die (via een filter) van buiten te halen dan uit je eigen datacenter!
15 graden lijkt me sowieso geen verstandige temperatuur.
Tegenwoordig zie je veel temperaturen tussen de 18 en 23 graden, en dan eerder tegen de 23 dan tegen de 18.

Ook met cold corridors maak je het efficienter, de intake is dan fysiek gescheiden van de uitlaat, zo moet je dus niet ook de warme lucht nog eens afkoelen maar word deze gewoon afgevoerd en word er al koele lucht nog verder afgekoeld en deze bij de intake van de server aangeboden.
Dit heeft uiteraard wel tot gevolg dat er minder energie in het koelen gestoken hoeft te worden zonder dat het voor de apparatuur een verschil maakt. Zo kunnen ze dus een betere pue-waarde halen.
Hetzelfde wordt ook behandeld in http://tweakers.net/video...-de-randstad-(video).html vanaf ongeveer 2:40 min.
Leuk dat ze natuurlijke bronnen gebruiken zoals de zee of kanalen, maar die warmte is toch helemaal niet goed voor het leven in de kanalen en de zee?
De tempratuur laten oplopen tot mensen is ook niet de oplossing lijkt me, al vraag ik me af wat de standaardtempratuur is bij dataservers (verwarming zullen ze in ieder geval niet nodig hebben lijkt me :p)
Ik zie juist veel vissers bij mijn energiecentrale. :)
Voor sommige soorten zal het niet goed zijn, en voor andere weer wel.

[Reactie gewijzigd door Soldaatje op 23 juli 2024 07:59]

In Nederland zijn er regels welke temperatuur (of verschil) koelwater mag hebben voordat het geloosd wordt.
dat zie je helemaal goed!
vlg mij zal er ook een vergunning worden afgegeven met een bepaalde max temperatuur die je terug mag sturen. (denk maar aan de enorme koeltorens die je wel langs rivieren ziet staan: het water wordt daar ook eerst verder gekoeld door lucht, alvorens terug te laten stromen.

halverwege afgelopen decennium was de temp in een zaal nog zo'n 21 graden de laatste jaren is dat flink omhoog gegaan. nu kun je al 5 tot 8 graden hoger zitten.
Tijdens de afgelopen datacenterbeurs in de Ahoy is de standaard voor volgend jaar zelfs begin 30 graden.
(server) fabrikanten zullen hier dus steeds meer rekening mee gaan houden/ de high temp product reeksen worden steeds meer uitgebreid.
voor een gemiddeld datacenter scheelt dat gewoon tonnen (in euro's en CO2 :P per jaar aan energiekosten.

uiteraard kun je dat niet bij co-lo's doen, maar dat spreekt voor zich 8)7

[Reactie gewijzigd door GMJansen op 23 juli 2024 07:59]

De opwarming is maar heel weinig. Denk dan aan iets als 1 graad.

Verder is het vaak juist beter voor het leven als het iets warmer is...
Nadeel is wel dat je apparatuur minder lang meegaat in hogere temperaturen.
Google weegt wel af of dat zo is en of dat duurder is dan de energiebesparing
Maar wat is beter voor het milieu? Energie besparen bij het koelen om dan weer uit te geven bij versnelde hardware vervanging (plus grondstoffen verbruik).
Maar mogelijk heeft Google ook dat onderzocht..
Anoniem: 211998 @Fly-guy28 maart 2012 18:26
Ach, als je ziet hoeveel er nu al aan apparatuur in de containers ligt bij de gemiddelde ophaaldienst...
En je punt is? 'Meer afval maakt niet uit' of zo iets?

Google heeft inderdaad een schitterend datacenter systeem. Ik meen dat een zoekopdracht zo'n 2-3 Watt kost. Dus als je het milieu wilt helpen; gebruik goede zoektermen ;)
Dat slaat helaas nergens op. Energie druk je (meestal) uit in Joules. Watt is een eenheid voor vermogen (energie per tijd).
Hoezo niet? Aantal zoekopdrachten per dag/ verbruikte energie per dag en je hebt je tijd.
Nee, dan heb je Joules...
Ik denk dat de economische afschrijving (het moment waarop de apparatuur veelal vervangen wordt) eerder valt dan het moment waarop de apparatuur stuk gaat door de hogere temperaturen.

En door de verdergaande verbeteringen in de industrie zal de nieuwe hardware zuiniger en sneller zijn, waardoor je extra winst hebt bij het vroeg vervangen.

@Fly-guy hierboven; beter voor het milieu is nog altijd om geen computers te gebruiken ;)
En aanschaf/vervanging wordt niet in deze cijfers vermeldt.

[Reactie gewijzigd door SPee op 23 juli 2024 07:59]

Anoniem: 425494 @SPee28 maart 2012 18:52
Klopt, de economische levensduur is bij apparaten waar een flinke technische ontwikkeling in zit altijd korter dan de technische levensduur. Bij de bestaande apparatuur bereken je de opbrengst en de variabele kosten (Afschrijvingkosten niet want het geld is immers toch al weggegooid), voor de nieuwe apparatuur de opbrengst en variabele kosten en wel afschrijvingskosten (het moet immers worden aangeschaft). Als deze marge bij nieuwe apparatuur hoger uitvalt, is het voordeliger om te vervangen. Het hangt dus niet alleen af van de kosten die een apparaat met zich mee brengt maar ook zijn opbrengsten.

Er zit nog steeds een voortdurende stijging in de prestaties van de processors en ook dalen de variabele kosten en prijzen nog steeds. Daarom zal apparatuur nog steeds voortijdig vervangen worden. In dat geval is het juist logische om de temperatuur van de ruimten te laten oplopen. Dat vermindert de technische levensduur maar als die groter dan de economische is, speelt dat geen rol. Maar je kan zo wel de gebruikskosten, als koeling verminderen.

Van 1.21 naar 1.14 is een behoorlijk grote verbetering als je realiseert dan 1.00 de ondergrens is. Dat is een daling van 33%, Dat is gaat alleen maar over de effectiviteit van de het gespendeerde vermogen t.o.v. het opgenomen vermogen. Het laat nog buiten beschouwing dat het opgenomen vermogen ook steeds efficiënter wordt gebruikt door gebruik van zuinigere processoren. Ik vind het erg mooi wat Google ook op dit gebied doet.

Net als op de browser zet Google ook hier benchmarks neer waar anderen zich op kunnen gaan richten, dat heeft zeker een groot effect.

Je kunt inderdaad afdingen dat hier niet gekeken wordt naar alle energiekosten van de fabricage. Dat wordt eigenlijk door bedrijven nooit gedaan, voor een deel zitten die kosten er natuurlijk wel degelijk in verwerkt. recyclingskosten worden tegenwoordig door de overheid er ook ingebracht via speciale heffingen. Nog niet alle kosten helaas. De kosten die de afbraak van en roofbouw op de natuur op langere termijn met zich meebrengt zitten er niet in. Het belangrijk dat overheden bedrijven, vooral mult-nationals, daarmeer confronteren. De roofbouw moet een einde nemen.

[Reactie gewijzigd door Anoniem: 425494 op 23 juli 2024 07:59]

Anoniem: 154887 28 maart 2012 18:26
Zo gebruikt Google bij een datacenter in België koelwater vanuit een nabijgelegen kanaal,...
Allemaal mooi en wel, maar ze vergeten er wel bij te zeggen welke nefaste invloeden dit heeft op de fauna in het kanaal.

Zo zijn er tal van studies die aantonen dat energie centrales die het omgevingswater gebruiken als koelwater een drastische impact hebben op de omgeving.

Voor de duidelijkheid, het gaat hier over de effecten van de verhoging van de temperatuur, niet van eventuele lozing van nucleair afval, vermits de kringen gescheiden zijn.
Daarom zijn er in Nederland een paar zomers geleden plannen gelanceerd om een aantal centrales die op deze manier gekoeld worden (misschien wel werden inmiddels) van koeltorens te voorzien.
Zodat er geen warm zuurstofarm water meer geloosd hoeft te worden.
Denk dat het slimmer is om eens te gaan investeren in de efficiëntie van computers. Als je ziet hoeveel elektrische energie wordt omgezet in warmte is dat best even schrikken. Als de efficiëntie hoger ligt kunnen er ook gelijk meerdere voor het zelfde stroomgebruik worden gebruikt. Lost dat gelijk het performance>efficiency probleem op :)
Dat verbeterd ook alleen niet door Google :) Daar heb je de natuurlijke concurrentie op de markt voor nodig die er gewoon is...

Miscshien gebruiken de huidige CPU's wel een stukje meer (hooguit 2x) dan bijv een oude P4 maar de rekenkracht is ondertussen met factoor 10 gestegen en dat door elkaar delen is het ttegenwoordig dus pakweg 5x efficienter dan voorheen :) (zo uit me mouw geklopt)
Volgens mij hadden de snelste Intel P4 Prescott CPUs al een TDP van 100W+.
Een Sandy Bridge i7 2600K (of in ieder geval de i5 2500K) hangt aan 95W.

Vergelijk die twee eens qua prestaties - vermoedelijk presteert een Atom D2700 aan 10W TDP bij de meeste taken beter dan die Prescott P4.
Ligt het aan mij of zijn de termen "datacenter" en "rekencentrum" een beetje verwarrend. Ik stel me bij beide namelijk iets anders voor terwijl het het er in het artikel op lijkt dat de begrippen hetzelfde betekenen.

Op dit item kan niet meer gereageerd worden.