Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 193, views: 50.296 •

De Europese Commissie vindt het onnodig dat veel datacenters worden gekoeld tot een temperatuur van 22 of 23 graden. Hardware blijft prima werken bij hogere temperaturen, denkt een medewerker van de Commissie. Dat scheelt geld en is beter voor het milieu.

Volgens Paolo Bertoldi, leider van een onderzoekscentrum van de Europese Commissie, zijn er nog veel datacenters die tot lage temperaturen van 22 of 23 graden Celsius worden gekoeld. Dat schrijft TechWorld. Volgens Bertoldi is er genoeg bewijs dat hardware ook bij hogere temperaturen blijft werken. Hij denkt daarbij aan temperaturen van 26 of 27 graden, oplopend tot zelfs 30 graden.

Het is niet de eerste keer dat wordt opgeroepen tot hogere temperaturen in datacenters; onder andere Intel deed dat eerder. Hoewel hardware in principe bestendig is tegen hogere temperaturen, is de industrie echter conservatief en wordt in veel datacenters nog vastgehouden aan koeling tot lage temperaturen. Toch proberen sommige datacenters de grens langzaam op te schroeven, bijvoorbeeld naar 24 graden.

Een medewerker van IBM zegt tegenover TechWorld dat het verhogen van de temperatuur grotere uitval van servers tot gevolg kan hebben, maar die kans zou zeer minimaal zijn. Pas bij het verhogen van de koeltemperatuur naar 32 graden treedt een 1,5 keer zo hoge failure rate op; dat betekent dat op 1000 servers elk jaar twee extra servers stuk gaan.

Reacties (193)

Reactiefilter:-11930186+1124+212+30
1 2 3 ... 6
lagere temperaturen is hogere snelheid toch? (meer flops) of maakt dat op die paar graden (te) weinig uit? als ik mijn server rond de 50 graden laat draaien (passief) haalt ie zon 10 gflops minder dan wanneer hij met actieve koeling) rond de 30 draait... (en het is niet dat hij terug geclocked wordt) in een datacenter heb je ik weet niet hoeveel processorcores, die dan allemaal wat minder kunnen rekenen...

[Reactie gewijzigd door _-SaVaGe-_ op 23 november 2012 14:35]

Het gaat hier om de temperatuur van de ruimtes buiten de processors.
Processoren worden inderdaad onderklokt, om oververhitting te voorkomen.
Ik zeg, data centrum zo dicht mogelijk in de buurt van de noord of zuidpool bouwen. Dan kun je het grootste deel van de tijd gewoon buitenlucht gebruiken om te koelen. Als je dan toch al zuinig met energie wilt omgaan ;)

Maar wat is nou eigenlijk de beste tempratuur voor een HD om ze werkt (ze blijven echt wel werken met een graadje meer maar) het best te doen en slijtage zo laag mogelijk te houden ? Want te koud is ook weer niet goed.
En proc's, blij welke temp slijten ze nou echt ? Is daar nou al onderzoek naar gedaan of iets het allemaal vanuit het verleden aan genomen en overgenomen. Zoiets moet toch te doen zijn om er goede en reeele getallen aan te hangen. Aan de hand daarvan kun je dan de temp echt in gaan stellen. Want om nou maar te zeggen het kan allemaal wel een graadje meer zonder onderbouwing ?

Of is die warmte die geproduceerd wordt nog anders te gebruiken, dus ipv koelen de wamte voor naast gelegen kantoor gebruiken of...

[Reactie gewijzigd door bonus op 23 november 2012 10:36]

En dan de poolkappen nog eerder smelten. Kunnen de ijsberen in januari al gaan zwemmen ... goed plan!
En dan de poolkappen nog eerder smelten. Kunnen de ijsberen in januari al gaan zwemmen ... goed plan!
Of je nu rond de evenaar of op de noordpool servers neerzet maakt totaal niet uit. De aarde is een soort "gesloten systeem". De warmte van de evenaar zal uiteindelijk ook de noordpool bereiken. Echter omdat je op de noordpool geen energieverslindende airco's nodig hebt is het per saldo beter voor het poolijs.
Toch zal het op de directe natuur wel degelijk van invloed zijn. Of dat nog schade oplevert valt te bezien, maar je zult het heus wel merken dat het ijs wat sneller smelt om de datacenter heen.
Plaatselijke effecten zijn denk ik niet echt significant in vergelijking met de schade die we zelf toebrengen met ons allen middels onze zware videokaart.
Je hebt helemaal gelijk als je zegt dat het niet uitmaakt dat het datacenter op de noordpool danwel zuidpool wordt geplaatst.
Echter, dat gesloten systeem valt heel erg mee. De influx outflux naar space is enorm en de extra warmte die je maakt op de evenaar zal nooit de polen bereiken omdat het tegen die tijd al lang vervlogen is naar space. De extra co2 die nodig is om deze extra warmte (energie) te maken is echter wel onderdeel van een gesloten systeem. Omdat de co2 invloed heeft op de influx/outflux van de aarde heeft dat uiteindelijk wel degelijk invloed op de temperatuur in de polen ("lokale" effecten zijn natuurlijk lastig te voorspellen)
Je hebt een punt. Ook al zal de temperatuur niet eens altijd zo hoog zijn. De luchtvochtigheid is dan ook nog eens te hoog. Daar heb je ook geen last van op de poolkappen. :P
Nog nooit van de Wet van behoud van energie gehoord zeker ? :)
De wet van behoud van energie geeft dus ook aan dat als ik X warmte creeer met een computer, deze X warmte ergens heen moet gaan. het maakt dan ook niet uit hoe koel de lucht is, als de flow langs de componenten en de afvoer van warmte uit de ruimte maar goed geregeld is.

Het gaat meer om de efficienty van de koelapparathuur, als deze meer warmte produceren dan de energie benodigd voor het creeren van extra luchtflow, dan is het dus inefficient om op een lagere temperatuur te koelen.
Nog nooit van de Wet van behoud van energie gehoord zeker ?
Maar heb jij hem begrepen?
De Wet van behoud van energie is een natuurwet, of meer specifiek een behoudswet, die stelt dat de totale hoeveelheid energie in een geïsoleerd systeem te allen tijde constant blijft.
De aarde is geen geïsoleerd systeem.

[Reactie gewijzigd door Zer0 op 23 november 2012 16:32]

Wat Raziel zegt. Niet slim. Natuurlijk, je bespaart de energie voor airco's / chillers, maar de warmte moet er evengoed uit waarmee je dus de buitenlucht verwarmd. Lijkt me op de poolkappen niet zo'n strak plan.
mij wel. De energie die je bespaart voor de koeling levert een hoop op. De efficiëntie van je apparatuur ligt grotendeels aan de temperatuur. Als jij een PC gebruikt die een temperatuur van 50 graden in de kast heeft produceert hij veel meer warmte doordat de omzetting niet efficiënt meer is. een datacenter op de noordpool heef gemiddeld een luchttemperatuur van -45 graden om zich heen en zal intern een temperatuur kunnen behouden van 10-20 graden mits de muren geleidend genoeg zijn uiteraard. het enige wat je dan nog nodig hebt zijn slechts een handjevol ventilatoren de de lucht laten circuleren (dat kan echter ook met twee slim geplaatste ramen en dan koelt de temperatuur binnen nog beter.


een PC werkt net als het menselijk lichaam. Bij 40 graden en een hoge luchtvochtigheid moet het ook veel harder zijn best doen om de eigen warmte kwijt te raken. Zo werkt het bij een PC ook. Hoe koeler de omgeving hoe efficiënter de energieoverdracht
Volgens een paper van Google labs, is de levensduur van een harde schijf optimaal rond 40 °C. Er wordt aangetoond dat bij lage temperaturen er een hogere kans op vroegtijdig falen optreed terwijl bij hoge temperaturen er een duidelijke trend is die aangeeft dat schijven een minder lang leven beschoren is. Volgens dit paper is de average failure rate, ongeacht de ouderdom van de schijf, het laagst bij een gebruikstemperatuur rond de 40 °C.
Interessant paper, maar het dateert al wel uit 2007. Technieken voor oa harde schijven zijn de laatste vijf jaar wel verder (door-)ontwikkeld, dus zou die conclusie tegenwoordig nog steeds zo zijn?

Daarnaast, harde schijven zijn uiteraard essentieel voor in een datacenter ;) , maar er zijn nog meer onderdelen ...
De technieken van de laatste 5 jaren zijn maar zeer beperkt voor mechanische onderdelen die falen, zoals bijvoorbeeld de lagers of motoren. Shingled recording staat los van de temperatuur.
Dan moet ik toch maar eens denken om de fans die op die schijven bij mij staan maar eens te verplaatsen aangezien mijn schijven toch echt rond de 30 draaien.
Dat paper is helaas niet al te goed geschreven. Het prbleem is dat ze verschillende HDDs hier alleen op temepratuur hebben gesorteerd. Als bijvoorbeeld de beroemde Hitachi "deathstar" vrij koel bleef of vooral in goed gekoelde servers werd ingebouwd, zou uit het onderzoek komen dat koele HDDs (=Hitachi) minder betrouwbaar zijn.
In Nederland kan je ook prima met buitenlucht koelen. Hoeveel dagen per jaar is het in Nederland nou 25+ graden? Dat scheelt al een heleboel. Het datacenter waar veel van onze servers staan doet dit al. Dat scheelt echt gigantisch in de kosten.
Dan hoop ik wel dat julie al die warme lucht niet weggooien maar bv naar huizen in de buurt sturen.
Leuk idee maar ik denk dat er geen enkele energieleveranciers in Nederland is die hier geld in wil steken. Dit soort projecten kosten namelijk veel meer dan dat het oplevert.
Dat is nu typisch het probleem met onze samenleving... Alles draait om geld terwijl alle beetjes we kunnen doen voor het milieu en tenslotte voor elkaar de moeite waard zijn.

erg hé... Dat we niet zien dat een 'oplevering' niet alleen in een financieel voordeel moet bestaan.
Ijsland bijvoorbeeld. :) Niet alleen lekker koel, maar ook goedkope en duurzame energie.

http://www.sprout.nl/242/...t-met-groene-dropbox.html
Ik zou zeggen, bouw het naast een stad en leg stadsverwarming aan. Dan kun je de voor het datacenter opgewekte energie veel efficienter gebruiken.

Als er nou een manier zou komen om de energie in elektrische vorm terug te winnen uit warm water zou het helemaal prachtig zijn natuurlijk.


Edit: Geen idee waarom dit onder de post van skoelewijn terecht gekomen is. Mobiel en de nieuwe site mogen elkaar niet.

[Reactie gewijzigd door MartijnGP op 23 november 2012 13:40]

Inspringen en orderning van posts is een chaos op V7. Geen flauw idee waar wat bij hoort.
Ik zeg, data centrum zo dicht mogelijk in de buurt van de noord of zuidpool bouwen. Dan kun je het grootste deel van de tijd gewoon buitenlucht gebruiken om te koelen. Als je dan toch al zuinig met energie wilt omgaan
Dan zal je ook de energievoorziening daar ergens in de buurt moeten hebben. Je kan electriciteit niet zonder grote verliezen over duizenden kilometers transporteren. Een kolencentrale op de noordpool lijkt me niet wenselijk en opwekken met zonnepanelen lijkt me niet echt haalbaar. Bovendien zal de warme lucht die je uitstoot ook gevolgen hebben voor het kwetsbare eco systeem op de polen.

Daarnaast is het energieverbruik niet het enige criterium op basis waarvan je een lokatie voor een datacentrum kiest. Je zal er ook bij moeten kunnen als er onderhoud nodig is en je zal een goede verbinding naar de rest van het internet moeten hebben. Je wilt een veilige locatie, zowel voor terroristen/vandalen/dieven als voor natuurrampen. Al met al zullen de nadelen nooit opwegen tegen de voordelen.
Hier in de gemeente (5 km van hier) werken ze momenteel aan de bouw van een datacenter. Zowel stroom als koeling volledig met natuurlijke bronnen.
http://www.lefdalmine.com/
wat ik bedoel te zeggen, is dat er rekenkracht verloren raakt bij cpu's als ze warmer worden. een cpu op 20 graden haalt meer gflops dan een cpu op 30 graden (naar mijn ervaring dan)

Edit: toch wel vreemd dat ik dit dan bij meerdere pc's heb ervaren. Bij Linpack tests begint mijn phenom bijvoorbeeld op 30 graden met 70 gflops, komt ie bij de 40 dan is dat nog maar 67gflops. per graden dat de |CPU omhoog gaat zie je het net iets inzakken... geen printscreen bij de hand, weet exacte cyfers zo ook niet. dit gebeurt, zowel bij mn G530 webserver, als bij mijn Q6600, en mn 1090T phenom...

[Reactie gewijzigd door _-SaVaGe-_ op 23 november 2012 13:39]

Dat is niet zo. CPU's klokken zichzelf naar beneden als ze richting de kritieke temp gaan en ja, dan worden ze trager.

Maar dat komt dus door de verlaagde kloksnelheid (wat weliswaar gedaan wordt om oververhitting tegen te gaan), maar niet door de temp.
Door de temperatuur dus.
Maar dan spreken we wel over temperaturen die richting de 100°C aanlopen. Een omgevingstemperatuur (en niet CPU/Die temp) die enkele °C hoger komt te liggen zal GEEN invloed hebben op de performance van de CPU.

ENKEL de performance van de medewerks kan dalen door oververhitting.
Nee joh, boven de 25C vreten de CPU's al 10% meer stroom, DUS presteren ze dan minder.

Vooral server cpu's is het dus belangrijk die tussen de 15C en 20C te houden.

Overigens bij KOUDERE temperaturen (ver onder 0) presteren ze ook minder ofschoon het niet zo dramatisch is als bij hogere temperaturen.
Dus een CPU zonder voeding heeft een oneindige performance?

De klok is vast (tot hij oververhit raakt) en performance blijft dus gelijk ongeacht het energiegebruik.
Tenzij je dingen als dynamisch overklokken gaat doen.

Je hebt het wellicht over het maximaal haalbare performance (bij overklokken).

Wat ze misschien wel doen, is het datacenter koelen om het cpu verbruik omlaag te brengen, wat wellicht minder kost dan de extra koeling.
In feite zou je de performance per hoeveelheid toegevoerde energie moeten bekijken.
Bij een hogere temperatuur verbruik je meer energie voor dezelfde performance.
Maar er is een ander probleem.
Elke graad meer koelen kost exponentieel meer energie.
Om van 30 naar 25 graden te gaan kost minder dan om van 20 naar 15 te gaan.
De verliezen van een hogere cpu temperatuur botsen met de verliezen van meer koelen.
Ergens zal dan een optimum temperatuur zitten voor performance per energie.
Klopt niet, uit performancemetingen blijkt gewoon dat de prestatie dan servers inzakt bij temperatuursverschillen van maar enkele graden, helemaal niet 100° of dergelijke.
dat ligt er dus aan wat de kritieke temp is. als je deze dus verhoogt van 23 naar 30, zullen ze dus minder snel omlaag klokken. je kan zelfs zeggen dat een geklokte processor die maar 23 graden mag worden, dus omhoog kan worden geklokt zodat die 30 graden wordt. dus effectief zelfs sneller draaien.
ASML maakt machines om CPU's mee te produceren. Het blijkt dat ze beter presteren als je ze tussen de 15 en 20 graden houdt.

Eisen dat ASML gaat ontwerpen voor 30C+ is niet realistisch. Dan kun je beter ASML, de complete marktleider op dit gebied, zijn deuren laten sluiten en neemt een fabriekje in China het wel over, die dan apparatuur produceert die net als ASML cpu's produceert die je in serverruimtes tussen de 15 en 20 graden wilt houden.
Dit heeft werkelijk niets te maken met ASML. Chipdesign en -productie gebeurt bij de klanten van ASML; ASML levert alleen de litho-equipment en aanpalende optimalisatie hard- en software. Wat je zegt, laat zich vergelijken met de stelling dat een metselaar een ander soort troffel en speciekuip moet gaan gebruiken, want dan zal de architect tenminste een mooier gebouw ontwerpen 8)7 Makes. No. Sense.

Daarnaast is het falen van servers bij hoge temperaturen veel eerder een functie van het falenvan harddisks dan van niet-mechanische componenten.
Wel nee, temperatuur maakt geen verschil een processor gaat echt niet sneller rekenen als je het ding buiten in de vrieskou zet. Wat je zou kunnen doen is dat je het ding zou kunnen overklokken om er op die manier meer performance uit te persen. Niemand met een greintje verstand doet dat met een productie server.
Ook het onderklokken van een processor is niet iets dat je normaal gesproken ziet in een datacenter. Simpel weg omdat het vaak ook niet goed is voor dingen als garantie en zo.

Het geen waar het hier om gaat is dat veel bedrijven nog zijn blijven hangen in het idee dat een server ruimte hoe dan ook nooit heter mag zijn dan een temperatuur van ~25 graden daar boven vergaat de wereld of zo. In werkelijkheid zou je de processoren zonder problemen in een ruimte van rond de 30 tot 40 graden kunnen draaien, het enige echte probleem is dat de warmte afvoer lastiger is omdat het temperatuur verschil tussen processor en de omgeving kleiner is waardoor er meer lucht over het koel lichaam geblazen zal moeten worden om een zelfde hoeveelheid warmte op te kunnen nemen.

Het geen waar het omgaat is dat je processor in plaats van zo rond de 30 graden zo rond de 40 of 50 graden wordt. Dat is echt geen probleem de indianen verhalen van een veel korter leven zijn totale onzin. Een korter leven ja als je het ding constant op 80 graden of meer laat werken dan wel maar voor een chip die zonder problemen 70 graden kan worden is een temperatuur van rond de 50 graden als deze constant is geen probleem.
Het probleem is juist het opwarmen en afkoelen van het ding hoe vaker je de processor verhit (uitzetting) en weer flink koelt (krimp) hoe sneller het ding kuren gaat vertonen. Maar omdat een gemiddelde CPU in een data center echt niet iedere paar uur uitgezet wordt en dus een vrij constante temperatuur heeft is een iet wat hogere temperatuur echt niet schadelijk voor het ding.

Het lijkt er op dat de mythe van het koelen nog steeds niet de wereld uit is. Een koelere processor is echt niet een snellere processor. Je zou in theorie de processor sneller kunnen laten werken (en dus meer warmte laten genereren) als je hem beter koelt maar in een bedrijfssysteem is dat niet het geen dat men doet. Dat soort garantie vernieling is alleen bij consumenten processoren een "gewoon" iets. En op een paar processoren na wordt het door de fabrikanten zo als Intel en AMD ook echt niet vergoed mocht je processor komen te overlijden door een flinke overklok.

De temperatuur in een server hok kan makkelijk 30 graden zijn zonder schade voor de machines. Google draait ze zo rond de 37 graden en zij hebben genoeg machines om een verhoogde uitval (zelfs als het maar 1% extra is) meteen te voelen in de kosten. Als zij en ze doen het al jaren op hogere temperaturen kunnen draaien dan kan de rest van de wereld dat ook, en dat bespaart flink op de kosten voor de koeling en natuurlijk op de nodige energie wat weer fijn is voor de boompjes en de beestjes...
>Processoren worden inderdaad onderklokt, om oververhitting te voorkomen

>Wel nee, temperatuur maakt geen verschil een processor gaat
>echt niet sneller rekenen als je het ding buiten in de vrieskou zet.

Volgens mij verwijst Oeroeg gewoon naar de thermische beveiliging die je tegenwoordig in cpu's terugvind. Dan gaat de snelheid toch wel degelijk naar beneden als ze tegen te hoge temperaturen lopen. Ik ben geen systembeheerder, maar ik kan me toch voorstellen dat bepaalde servers toch hogere cpu-temperaturen hebben dan 30 graden (dat lijkt me eigenlijk spectaculair laag, mijn i3 doet 30 graden op idle)

[Reactie gewijzigd door spoonman op 23 november 2012 10:41]

Thermische beveiliging mag bij een productieserver nooit inkicken. Die moet voldoende eigen koeling hebben om bij wijze van spreken 24/7 onder volle belasting op vol vermogen te draaien.
De temperatuur van servers is intern overal anders. De CPU temperatuur is bijvoorbeeld veel hoger dan andere interne delen van de server en uiteraard is het buiten de server kast ook weer volledig anders.

Er zitten daaomr in een standaard server (DELL/HP) tegenwoordig enorm veel sensoren. Deze houden overal in de gaten hoeveel er daadwerkelijk gekoeld moet worden. Zie voor een uitgebreide uitleg: http://www.youtube.com/watch?v=1sOngLZvlOI

De thermische beveiliging van een CPU zou in een server nooit in moeten kicken. Dan is er namelijk iets ernstig mis (bijvoorbeeld Fan failure). De server zou dan ook automatisch uitgeschakeld worden om meer schade te voorkomen. Hetzelfde geld voor een te hoge buiten temperatuur. Volgens mij schakelt een HP server zich zelf uit als de buitentemperatuur meer dan 40 graden is.
Google draait ze zo rond de 37 graden
Stel je hebt een datacenter en jouw medewerkers moeten met enige regelmaat werkzaamheden verrichten.
In de Arbo-wet en de beleidsregels wordt geen expliciete uitspraak gedaan, in de zin van: de temperatuur mag niet hoger of lager zijn dan..... In de Arbo-wet staat dat er sprake moet zijn van een behaaglijke temperatuur in relatie met de te verrichten arbeid en dat het klimaat niet tot schade van de gezondheid mag leiden.
Behaaglijkheid is een subjectief begrip, wat de ene werknemer als een prettige temperatuur ervaart kan voor de andere werknemer veel te warm zijn. Er is sprake van een behaaglijk kilmaat als minder dan 20% van de werknemers over het klimaat klaagt.
Vanuit de ISO-normering zijn er wel enkele regels:

Het temperatuursverschil tussen 10 cm en 110 cm boven de grond mag niet meer zijn dan 3 graden.
De luchtsnelheid moet kleiner zijn dan 0,25m/sec.
De vochtigheidsgraad moet liggen tussen de 30 en 70%.
De lucht- en stralings temperatuur in de zomer moet liggen tussen de 23 en 26 graden en in de winter tussen de 20 en 23 graden.
Zodoende heeft het verhogen van de temperatuur niet enkel te maken met wat de hardware wel of niet aan kan.
Zodoende heeft het verhogen van de temperatuur niet enkel te maken met wat de hardware wel of niet aan kan.
Maar goed bakkers en glasblazers werken vaak in de hitte en slagers vaak in de kou. Laten we nu niet meteen problemen zoeken die er niet echt zijn. Een mens kan best een tijdje tegen 35 graden hoor.
Vind ik nogal makkelijke uitspraak. Werk jij elke dag bij een temperatuur van 30 graden? Ik zou ervoor bedanken namelijk.

Ik vind het nogal opmerkelijk dat in het artikel het belang van medewerkers helemaal niet wordt meegenomen. Ik heb eens met een collega een uur in zo'n ruimte moeten werken. De lucht is er kurkdroog, een lawaai van jewelste en dan straks ook nog temperaturen van 30 graden? Ik vond één uur daar vertoeven al meer dan genoeg. Stel je voor dat het onderhouden van die krengen je werk is.
Ja, stel je voor dat je je eens moet aanpassen. 30-35 graden vind ik dan niet eens zo heel extreem.
Krijgen postbodes vrij bij hoge of lage temperaturen? Legt de bakker het werk neer als de temperatuur te hoog word?

Ik zelf werk ook in extreme temperaturen, uren aaneen van -40 tot +40, en ik doe ook gewoon m'n werk.

Enfin, ik wil wel eens weten wat het verschil in consumptie is met 1 graad verschil van zeg 23 naar 24 graden in een beetje datacenter.
Goed, jij vindt het niet extreem, anderen wel.
Maar de omstandigheden zijn toch zwaarder. Dat betekent dat medewerkers meer fouten maken of minder prettig werken en liever ergens anders werken.
Het zal dan lastiger zijn om goed functionerende mensen te vinden.
Gelukkig zijn er mensen die dit geen probleem vinden en het werk met liefde doen.

Ik werk zelf in een fabriek als storings monteur waar het geluid boven de 80 decibel is, de lucht vochtigheid in de zomer tot 90% kan op lopen en temperatuur van rond de 32 graden.
Het is gewoon wat je gewent bent, ik kan mij voorstellen dat als je een kantoor baan hebt en een airco hebt dat het werk je niets lijkt maar dat geldt ook voor mij, ik kan niet in een kantoor werken en al helemaal niet met een airco, ik word daar namelijk ziek van.

Mensen zijn verschillend en dat is maar goed ook.
In combinate met een lage luchtvochtigheid zou je er niet veel van moeten merken. Sauna's gaan ver buiten de Arbo-grenzen voor deze datacenters.

Dus als de werknemer naar een sauna zou gaan en niet in dat ''serverhok''...wat dan? Hypocriet is deze werknemer dan zeker, maar wat doe je er aan als de regelgeving het voorschrijft?

Regelgeving maakt meer kapot dan ons lief is blijkt wel weer...
De sauna-tijden zijn zo'n 2 uur voor een hele cyclus waarvan 15 minuten echt warm zijn. Zoiets zou ook kunnen met een datacenter, je moet er natuurlijk niet de gehele dag in zijn. Indien er een gewoon kantoor is waar je even wat kan drinken en afkoelen in de 20C omgeving. De omstandigheden zijn minder extreem....maximaal 1 uur werken op een dag in zo'n omgeving? Bespaart veel energie en je hebt een groen imago.
Ja inderdaad, leuk werken in een datacenter ruimte van 28°C of zo.
Hopelijk hoef je geen pak te dragen.
en toch geeft ibm aan dat bij 30 graden er +/- 2 servers per jaar meer zullen sneuvelen door oververhitting... het zal jouw bak maar zijn, gaat de eu dat ook vergoeden aan de mensen die hun server in het rek hadden hangen, en nu hun investering vroegtijdig naar de haaien zijn gaan. ...

ik denk dat niet zo moet zeiken over de feitelijke temperatuur ... maar dat ze eens moeten denken over het max aantal WATT dat gebruikt mag worden voor de koeling van x m² dan zul je snel genoeg zien dat men gaat kijken naar alternatieven ... zoals koeling met rivierwater, gebouwverwarming, en dat soort shit.
Hoe je het ook went of keert: een koeler datacenter kost meer energie. En hoeveel energie is het waard om een 0,2% lagere kans op uitval te hebben?
Als het datacenter 0,3% goedkoper kan zijn omdat het er 2 graden warmer is, is de keus duidelijk.

Uitval hoort er bij, dat heb je gewoon in te calculeren. Je kunt niet zeggen dat je bij een kans op uitval van 0,2% wel een backup moet hebben, maar bij een kans van 0,13% best zonder kunt.
Wil je 100% dekking, dan moet je gewoon 2 load-balanced servers naast elkaar draaien terwijl er maar werk is voor 1 (wat ook de load en daarmee de temperatuur van elke server ten goede komt). De verhoogde uitval eigenlijk alleen een issue voor bedrijven die tussen de 500 en 750 servers hebben en daardoor statistisch gezien beter één extra server kunnen neerzetten.
Google draait ze zo rond de 37 graden
typo? Google draait ze volgens mij rond de 27 graden.

http://www.google.com/about/datacenters/efficiency/internal/#temperature
Niet door de temperatuur dus.
Dat is de ARBO hier in Nederlands, in Amerika of China zullen er vast niet zulke strenge regels zijn als hier. Maar je hebt verder wel een goed punt. Alleen daar zijn vast ook wel weer oplossingen voor te vinden.
Als de datacenters rond de 37 graden zou zijn, zou de warmte ook weer gebruikt kunnen worden om bijvoorbeeld omliggende woningen/bedrijven/dorpen/steden te verwarmen.
Hedendaagse processoren presteren AANZIENLIJK slechter in de vrieskou.

Sterker nog, ver boven de 25C vreten ze al 10% meer stroom dan als je ze tussen de 15 en 20 houdt.

Vandaar dat alle datacentra aanvankelijk 19C als temperatuur aanhielden.
Met veel pijn in 't hart is dat al iets omhooggegooid.
Bij ons stond het lokaal ook ingesteld op 19°C, koud als je daar even moet werken.
Dit jaar is het verhoogd naar 21°C.

Ik meen toch ook dat de batterijen van de UPS langer leven en werken met zulke temperaturen.
het enigste probmleem wat ik me kan bedenken is een verminderde reactie tijd.
Stel het koel systeem in een dergelijke ruimte raak (deels) defect dan stijgt de temperatuur langzaam. van 30 naar 35 gaat dan natuurlijk sneller als van 25 naar 35
Dit kan je dus best een uur of meer kosten in je tijd om te reageren voordat alles plat gaat.
niet een onoverkomelijk iets overigens...
10 gflops verschil lijkt me wel erg veel. Wat voor server hebben we het dan over?
quote: wikipedia
Most microprocessors today can do 4 FLOPs per clock cycle. Therefore a 2.5-GHz processor has a theoretical performance of 10 billion FLOPs = 10 GFLOPs.
En welk deel van je server is 50 graden? de kast of de processor?
In de goede oude tijd van de athlons had ik een athlon die gecertificeerd wat tot 95 graden en ik draaide die jarenlang 24/7 met een passieve koeling op 80 graden zonder dat hij een flop langzamer was dan wanneer hij op 30 graden draaide.

Ik weet niet tot welke temperatuur jouw cpu gegarandeerd wordt door de fabrikant, maar misschien heb je hem ook wel zo ingesteld dat hij max 50 graden mag worden. dan zal hij inderdaad langzamer gaan werken om te proberen omder de 51 te blijven. Ik ken geen cpu die geen 60 graden mag worden en de meeste worden tot 80 gegarandeerd. hem instellen op 50 graden is de genoemde conservatieve instelling.

Het artikel gaat natuurlijk wel over de omgevingstemperatuur. Het is niet dat als het 22 graden in een ruimte is je server 30 graden wordt en als we het 24 graden maken in de ruimte je server ineens 50 graden wordt.
inderdaad, verschil zal met die paar graden wel te klein zijn om te merken.

offtopic: precieze cyfers weet ik zo niet ui mn kop van mijn server, maar er is wel duidelijk verschil te meten. max temp ingesteld is 85 graden.
Meet maar eens het stroomverbruik als je de cores onder full load tussen de 15-20C houdt versus 60C. Laat de cores wel hard rekenen, GIMPS is een goed om dat te doen (Prime95 of nieuwer), want die vermenigvuldigt, precies ook wat supercomputers voornamelijk doen (vermenigvuldigen).
Je krijgt meer weerstand als de temperatuur toeneemt als het metaal een PTC is. Koper wordt er volgens mij het meest gebruikt. En silicium dat in de chips zit is een halfmetaal, en die hebben andere eigenschappen bij verschillende temperaturen. Maar die paar graden zal niet uit moeten maken. Correct me if I'm wrong ;)
lagere temperaturen is hogere snelheid toch? (meer flops) of maakt dat op die paar graden (te) weinig uit? als ik mijn server rond de 50 graden laat draaien (passief) haalt ie zon 10 gflops minder dan wanneer hij met actieve koeling) rond de 30 draait... (en het is niet dat hij terug geclocked wordt) in een datacenter heb je ik weet niet hoeveel processorcores, die dan allemaal wat minder kunnen rekenen...
Dat is alleen de case als je het spul harder laat draaien dan waar het voor ontworpen heeft. Een stock gekoelde graka of cpu maakt ongeacht de temperatuur evenveel flops, albeit dat je bij hogere temps wel sneller electronlekkage krijgt wat voor meer foute berekeningen kan zorgen...
Wij hebben sinds kort ook de airco's op 24 ingesteld.
Dit had er meer mee te maken dat het ook voor een airco moeilijk is om tot 20 graden te koelen.

Nu gaat het ook kwa luchtvochtigheid een stuk beter. En ze hoeven minder hard te werken.
Ga je maar druk maken over de temperatuur in datacenters.... Sorry hoor maar er zijn toch belangrijkere problemen die opgelost moeten worden?
Domme en kortzichtige opmerking die bij elke probleemstelling wel te maken valt. Reageer dan gewoon niet?

Jij hebt zeker geen idee van de enorme hoeveelheden electriciteit die wordt verstookt in datacenters wereldwijd...
Het stroomverbruik van koeling is een aanzienlijk deel van het totale verbruik van een datacentrum. Wanneer je dit weet te reduceren (door de temperatuur te laten verhogen), verlaag je je stroomverbruik. En dat draagt weer bij aan een ander, belangrijker, probleem.
En dat draagt weer bij aan een ander, belangrijker, probleem.
Bij de oplossing ervan, hoop ik.
Wat is dit nou weer voor een opmerkingen? Net alsof alle medewerkers daar 24/7 bezig moeten zijn mijn de schulden crisis...

Automobilisten worden dood gegooid met milieu regels en dan mogen ze geen advies uitbrengen voor datacenters?
Ja maar als iedereen zich druk zou maken over allerlei "kleinere zaken" als datacenters, dan gaat dat in totaal toch behoorlijk wat opleveren. Daarnaast kweekt het bewustzijn, wat weer bijdraagt aan hoe mensen zelf omgaan met energie.
datacentra verbruiken 1 a 2 % van de wereld energie behoefte waarbij minimaal de helft aan koeling.... Ga eens rekenen....

Bron even onbekend, het kan zelfs hoger zijn...
Het betreft simpele maatregelen die op het eerste gezicht niks lijken te kosten en die onmiddelijk een vrij grote besparing lijken te kunnen veroorzaken.

Jouw argument is dat men dit dus vooral niet moet oplossen omdat er belangrijkere dingen zijn? Wat doe jij als je veter los zit? Ga je dan ook mekkeren over honger in afrika?
Buiten de servers zelf, is koeling de grootste energieslurper binnen datacentra. Aan de serverkant kan vrij vaak weinig gewonnen worden als eenmaal gekozen is voor een systeem, bij koeling licht dat dus klaarblijkelijk anders; een paar graden scheelt enorm in zowel de operationele kosten als de ecologische voetprint. In tijden van zowel economische als ecologische crises, lijkt me dit zeker relevant ;)
Goed, enigszins kort door de bocht, geef ik toe. Vermakelijk appels-peren vergelijkingen jongens.

Waar het mij om gaat : Een maatregel als deze zou waarschijnlijk niks doen economisch gezien. De datacentra gebruiken minder stroom en maken meer winst, dus de energieleverancier draait wat minder omzet. Er wordt dus wat geschoven met geld in de keten, maar thats it.
Waneer je er van uit zou gaan dat de datacentra hun prijzen naar beneden gaan gooien, dan wordt dit wel een goede maatregel. Maar hoe groot achten jullie die kans?

Natuurlijk is het beter voor het milieu, daar hebben jullie een punt, maar niet iedereen is even overtuigd van de ernst en prioriteit van dit probleem, en de berichtgeving hierover is nog altijd erg tegenstrijdig.

Maar ik zal niet weer zo kort reageren, terecht gedownmod :)
De datacenter markt is niet de telecom markt, er is wel degelijk behoorlijk wat concurrentie op dat vlak en als ze de concurrentie voor kunnen blijven, waarom niet? Zeker bij nieuwe datacenters zal je dat vaker zien. En vergeet niet al die bedrijven die hun eigen datacenters draaien. Iemand zal er inderdaad winst uit halen, wie dat precies zal zijn hangt van de betreffende keten af.

het is goed voor het milieu omdat er minder stroom wordt verkwist...
lagere vraag (naar energie) zal idd niet snel leiden tot een lagere prijs, maar wel maar een relatief grotere voorraad en minder co2 uitstoot. dat kan niet echt fout zjin zou ik denken
Zelfs als er geen problemen met het milieu zijn (waar dit idee toch vandaan komt is mij niet duidelijk, 99% van de wetenschappers is er wel van overtuigd, en van de overige 1% zegt bijna niemand dat het niet zo is, maar twijfelen ze aan de ernst/prioriteit die het moet krijgen) kost het niets (het levert zelfs geld op) om minder te koelen, en kan het geen kwaad.
Of zet je ook in de zomer ook je verwarming vol aan en de ramen helemaal open, gewoon 'omdat het kan'?
zoals ik beneden al meld is het vrij ineffectief, ipv minder airco gaan de fans in de servers harder draaien. dan kan je evt wel gaan powercappen, maar daar staat weer tegenover dat je mogelijk niet de resources ten volle kan benutten en dus weer extra machines moet plaatsen.

En er schijnt hier echt de mening te hangen alsof datacenters daar niet al 100x over nagedacht hebben, tuurlijk willen die hun stroomverbruik terugbrengen!!

Mocht de EC wat duurzamere opties voor milieuvriendelijkheid willen aanbieden doe het dan op alternatievere methodes zoals bv de restwarmte gebruiken of 'natuurlijke" koeling gebruiken. Ga in elk geval niet in de tech specs van een specialistische markt roeren.
Het werkt aantoonbaar wel degelijk. Zo moeilijk is het ok niet om te snappen dat een airco meer stroom vreet dan een fan.
@laadmin

We hebben het over datacenters waar makkelijk 300 servers of meer in een cabinet staan. een rijtje van 8 frontfans a 4W per stuk is dan al bijna 10KW wat ie per uur verstookt.

Zorgt de airco dat de temperatuur net boven een threshold blijft, staan de fans dus permanent een tandje hoger te draaien, 24/7 en waarschijnlijk een jaar of 4~5 lang.

Het gaat hier dus niet om een los bedrijfservertje wat in een achterafhok staat te brullen het gaat om de grootverbruikers.
Een fan koelt niet, die verplaatst alleen maar lucht, hete lucht er uit, minder hete lucht erin. Een airco koelt daadwerkelijk de lucht en dat verbruikt enorm veel stroom in vergelijking met harder blazende fans. In veel gevallen worden servers niet (altijd) 100% benut, dus hebben ze ook geen baad bij extra koeling. En wanneer de fans aan gaan kan je in een aantal gevallen ook bij servers instellen en in een hele hoop gevallen helemaal niet (dus gaan ook niet harder blazen bij een hogere temperatuur).

Wat een hoop 'tweakers' lijken te vergeten dat een temperatuur van 30 graden in de serverruimte niet vertaald naar procs die maar 30 graden zijn. Koeler zullen ze in de meeste gevallen niet zijn, wel een hoop heter. Er zal dus gekeken moeten worden hoe en of 135W DTP procs waarvan er vier in een 1U pizzadoos zitten, over weg kan met minder koeling in de server ruimte. Het grootste probleem blijft gewoon dat de meeste datacenters niet meer dan 32A per rack kunnen leveren, dus dan heb je toch al niet zo snel een probleem, tenzij je genoegen neemt om je rack met slechts 25% van de servers te vullen...
Nou het is wel degelijk iets om je druk over te maken. >60% van de energie die een datacenter gebruikt wordt gebruikt voor koeling. Op het moment dat de airco's tot maar tot 24C hoeven te koelen i.p.v. 20 maakt dat best een groot verschil in koelingsefficientie.
Als je daarnaast bedenkt dat ICT tegenwoordig goed is voor 2 - 3% van het wereldwijde energieverbruik en dat hoofdzakelijk wordt verbruikt in datacenters kun je best wel wat energie besparen. Daarom is https://tweakers.net/nieu...taflops-in-duitsland.html ook zo'n goed initiatief, rest warmte van datacenters gebruiken om nuttige dingen mee te doen.
Dat de EU met dit soort plannen komt is weer eens illustratief voor het soort onzin waar die bestuurslaag zich mee bezig houdt. Het is in dit geval heel vreemd om aan te nemen dat een groepje Europese ambtenaren de optimale temperatuur voor datacenters beter in kan schatten dan de bedrijven zelf. De bedrijven hebben namelijk ook zelf al enorm sterke incentives om de temperatuur wat hoger te maken: datacenters gebruiken immers enorme hoeveelheden elektriciteit voor koeling, waardoor de elektriciteitsrekening één van de voornaamste kostenposten van deze bedrijven is. De EU moet niet vergeten dat de productie van nieuwe systemen die de extra systemen die kapot gaan bij een hogere temperatuuur moeten vervangen ook zeer veel energie kost. Bovendien mogen eventuele inefficiënties die ontstaan door hogere uitval niet genegeerd worden, want deze gelden zouden theoretisch ook kunnen worden aangewend om het milieu te verbeteren.

Omdat het duidelijk is dat onnodig koelen zou leiden tot minder winst voor bedrijven impliceerd dit verhaal dat deze EU mensen blijkbaar denken dat bedrijven organisaties zijn die het milieu het liefst zo veel mogelijk schaden, zelfs als dat ten koste gaat van hun winst. Dat is wel een heel cynische kijk op het bedrijvsleven...

[Reactie gewijzigd door SPT op 23 november 2012 10:30]

Zonder regelgeving over uitstoot van schadelijke gassen door auto's zouden we nu nog steeds hoge niveaus van NOx, roet, lood etc. in de lucht hebben. Juist dankzij de EU en andere regelgevers (voor auto's speelt California een belangrijke rol sinds de jaren 80) is smog en zure regen sterk teruggedrongen.

Dat bedrijven voor datacenters nog niet de keuze maken voor een hogere operationele temperatuur kan ook komen doordat de externaliteiten (kosten als gevolg van klimaatverandering) onvoldoende in de energieprijs worden verrekend.
Zonder regelgeving over uitstoot van schadelijke gassen door auto's zouden we nu nog steeds hoge niveaus van NOx, roet, lood etc. in de lucht hebben. Juist dankzij de EU en andere regelgevers (voor auto's speelt California een belangrijke rol sinds de jaren 80) is smog en zure regen sterk teruggedrongen.
Jij begrijpt niet goed wanneer overheidsingrijpen gerechtvaardigd is. In de gevallen die jij aanhaalt is er sprake van niet geïnternaliseerde externaliteiten die specifiek gerelateerd zijn aan automotoren, waarbij het voor een automobilist zelfs überhaupt niet uitmaakt hoe veel NOx, roet, lood de auto in de lucht brengt. Op zo'n moment liggen de incentives duidelijk fout, en kan er dus aanleiding zijn voor de overheid om in te grijpen. In het geval van de datacenters speelt dit incentive probleem niet.

Wel kan je je afvragen of het terecht is dat bedrijven min of meer vrijgesteld zijn van de energiebelasting, wat er voor zorgt dat externaliteiten gerelateerd aan energieverbruik in zijn algemeenheid niet worden ingeprijst. Als ze het energieverbruik van het bedrijfsleven dus op een efficiënte manier willen verlagen moeten ze die tarieven maar gewoon gaan verhogen. Vanuit het oogpunt van de vervuiling zelf is er alleen aanleiding tot het voeren van sectorspecifiek beleid op het moment dat een eenheid elektriciteit verbruikt door een datacentrum meer vervuiling zou veroorzaken dan dezelfde eenheid verbruikt door een andere sector. Maar dat is natuurlijk niet zo; de hoeveelheid vervuiling wordt bij elektriciteit vooral bepaald door de manier waarop deze is opgewekt.

Andere reden om sectorspecifieke maatregelen te nemen is dat er verstoringen (met name in internationale specialisatie) ontstaan op het moment dat sommige landen wel een energiebelasting invoeren en andere landen niet. Dan zou je echter een hoge belasting moeten invoeren bij sectoren die lastig naar het buitenland te verplaatsen zijn (bijvoorbeeld gezondheidszorg of detailhandel), en lage belastingen bij sectoren die gemakkelijk naar het buitenland te verplaatsen zijn. Laat een datacentrum nu net bijna het ultieme voorbeeld zijn van een bedrijfstak waarbij de locatie van het datacentrum tov. de klant bijna irrelevant is...

[Reactie gewijzigd door SPT op 23 november 2012 11:53]

Dus jij vind het milieu niet belangrijk? Dit is ook een belangrijke zaak waar we allemaal iets mee zouden moeten doen.
Dus jij vind het milieu niet belangrijk?
Tja dat is lekker makkelijk roepen, hij schat het effect gewoon verkeerd in waardoor hij de impact waarschijnlijk onderschat en in zijn ogen dus weinig verschil uitmaakt, dat is inderdaad een denkfout, maar zegt niet dat ie niet om het milieu geeft...

Maargoed in mijn ogen geeft niemand om het milieu als dat betekend dat ie er zelf op achteruit gaat. Naja een enkeling is bereid die opoffering te maken, maar de meeste niet, of rijd half nederland niet in een auto die per 10km minimaal 1 Kilo afval creëert (en dan is het afval wat voor de verwerking van olie naar benzine niet eens meegeteld, en de auto ook niet, enkel uitlaatgassen)...

We zijn allemaal imo dus ontzettend hypocriet bezig, we willen allemaal een betere wereld zolang we er zelf maar niet op achteruit gaan!
Gaan we ook vulkaan uitbarstingen verbieden?
In Nederland zijn vulkaanuitbarstingen al verboden, dat willen ze ook doorvoeren in de rest van Europa... *facepalm*

De vergelijking slaat nergens op, de ene is een natuurlijk gevolg (welke men graag zou willen stoppen), de ander is een door mensen gedreven proces waarvan er nu een aantal mensen denken dat er daar behoorlijk kan worden bespaard op stroom en daardoor kosten en milieu.
je moet je afvragen of het daadwerkelijk wel zo milleuvriendelijk is. besef je wel dat de EC eigenlijk maar een beetje de beste stuurman aan wal uithangt.

Deze ambient temperatuur is al duizend keer berekend de beste afweging tussen stroombesparing en prestaties. Wat gebeurt er namelijk met een CPU die staat te maxen in een 5 graden warmere omgeving? Die gaat tegen de BIOS vertellen dat de fans op hogere toeren moet draaien...keer x*aantal servers.

Effectief wissel je dus het ene stroomverbruik voor het andere om.

dan hebben we het inderdaad nog niet gehad over de extra uitval,
Stel nu dat er pak 'm beet 2 servers meer eruit donderen in dat jaar, wat denk je dat dan milleuvriendelijker is? 2 kasten vol met zeldzame metalen, koper en aluminium scrappen of 100KW aan stroom extra uitgeven die je eigenlijk toch al niet bespaart want die gaat in de fans zitten?
Ga je maar druk maken over de temperatuur in datacenters.... Sorry hoor maar er zijn toch belangrijkere problemen die opgelost moeten worden?
Het groeiende energiegebruik gecombineert met scherpere emissie grenzen om te verkomen dat we dep laneet om zeep helpen, lijkt me niet zo heel onbelangrijk?

Sure er zijn andere acutere problemen in de wereld, maar klimaatveranderingen werken echter als catalysator op de meeste natuurrampen, honger, armoede en daarmee volksverhuizingen, geweld, oorlogen en ziekten...

Besides, je kunt niet met z'n allen aan het zelfde probleem werken..terwijl de een armoede bestrijd kan de andere werken aan een groenere energievoorziening / efficienter gebruik...
Servers houden het misschien wel uit in 30 graden maar ik niet.. .
Kom regelmatig in datacentre's. De mooie hebben altijd een warme en koude kant van de kasten.
koude kant is altijd heerlijk werken maar de warme kant die soms 30+ graden is word ik nooit zo vrolijk van.
Er zou voor gekozen kunnen worden om tijdens onderhoudswindows de airco wat harder te laten werken. In theorie is het grootste deel van de tijd niemand fysiek aanwezig bij de servers.
In mijn ervaring is er altijd wel iemand bezig op de colo's.
Alleen op die van de KPN is het meestal leeg.

Je zou kunnen zeggen dat in de nacht er meestal niemand is. maar soms heb je dan ook onderhoudsuren. en het werkt voor de techneuten gewoon niet lekker in die temperaturen. vooral niet als er iets stuk is wat ASAP gefixed moet worden.

Weet ook niet of de hardware goed tegen temperatuurschommelingen kan?

Er zijn wel nog colo's waar je geen warme\koude kanten hebt. en de hele ruimte gecooled moet worden. Dat is wel enorm zonde..

[Reactie gewijzigd door Eewokney op 23 november 2012 09:58]

Dat zou ik nu juist niet doen. Diverse onderzoeken hebben aangetoond dat met name harde schijven prima tegen hoge temperaturen kunnen MAAR zeer slecht tegen (abrupte) temperatuur variaties.
Hij denkt daarbij aan temperaturen van 26 of 27 graden, oplopend tot zelfs 30 graden.
Uiteraard draait het ook prima bij 30 graden, alleen is de levensduur van de harde schijven wat korter. Daarnaast vergeet hij waarschijnlijk dat er ook nog mensen moeten werken en onderhoud plegen, dat is niet echt aangenaam bij 30 graden als je daar een halve dag moet zitten. Maar rond de 25 graden moet wel kunnen.
In een keuken is het vaak ook 30 graden of warmer. Die mensen werken ook gewoon.
wat voor vergelijking is dat nu |:(
sommige mensen werken aan 40+ graden, die mensen werken ook gewoon?
Ja ik zie het probleem niet? In een keuken is het vaak gewoon erg warm en die mensen klagen ook niet. Ik zeg gelijk erdoor die regeling.
somige mensen zijn nou eenmaal eeuwige klagers
21 graden nee heb het koud even trui aan trekken
23 graden oh dit is te warm zweet me kapot.
echt als om dat soort dingetjes al wakker ligt ga dan ander werk zoeken.
zelf ben ik het er 100% mee eens die airco's installaties vragen enorme stroom capaciteit meer nog als de servers zelf vaak.
die paar graden ga je echt niet dood van.

En anders raad ik jullie aan eind januari een weekje mee te gaan met mijn broer in de bouw als het 0 graden is en -5 gevoels temperatuur in de ochtend kijken hoe lang jullie dat volhouden en smeken om de warme serverruimte
Idd, en er zijn ook zat onderhouds-mensen die werken vlak naast ovens van 900 graden, in de top van 200 meter hoge meetmasten of vriescellen van -30. Onderhouds ICT'ers zijn wat dat betreft behoorlijk verwend volk,
Vindt het een goede zaak. De slijtage bij iets hogere temperaturen zit een beetje tussen de oren heb ik altijd het idee. Uiteraard is het goed om niet te hoge temperaturen te hebben maar het milieu en het geld dat je met een hogere temperatuur bespaard gaat ruimschoot over de reparatiekosten heen van die ene server die misschien een keer zou uitvallen.
http://www.datacenterknow...gle-servers-keep-humming/

Studies by Intel and Microsoft showed that most servers do fine with higher temperatures and outside air, easing fears about higher hardware failure rates. Dell recently said it would warranty its servers to operate in environments as warm as 45 degrees C (115 degrees F).


Hoog tijd dus om server ruimtes niet meer zo absurd te koelen.

[Reactie gewijzigd door DRaakje op 23 november 2012 09:49]

Allemaal leuk en aardig. Maar zie jij jezelf al een paar uur bezig zijn in een ruimte van .. laten we zeggen 35 graden, om een paar servers in een rack te hangen/vervangen?
Stel dat je per jaar 200 uur in een serverruimte bezig bent om spullen neer te hangen, dan weegt dat dus op tegen de 8460 uur dat je aanzienlijk minder energie verbruikt?!

Vergeet niet dat de luchtvochtigheid een stuk lager is.

Zo ben ik jaren geleden al bezig geweest in de serverruimte van een uitwijkcentrum waar de temperatuur zo rond de 26 graden lag. Ik kan je zeggen dat dat beter is dan wat vroeger normaal was: 18-19 graden.... << DAT was pas erg! Brrrrr.
Liggen bij dergelijke serverparken die onderdelen (meer) bloot? Hoe moet ik dat voor me zien? Want bijvoorbeeld de thuisPC, als de temperatuur in de kamer oploopt naar 25 graden, dan hoor je toch echt dat binnen in de kast van de PC het aanzienlijk warmer is geworden (hoger dan die 25 graden denk ik dan), omdat hij dan flink gaat blazen.

Wat ik me dus eigenlijk afvraag, hoe werkt die wisselwerking van kamertemperatuur en kasttemperatuur in een serverpark, of is die temperatuur meer gelijk aan elkaar omdat alles (meer) open ligt.
In een server zitten vaak al 8-12 fans, de lucht wordt dus snel ververst. Bij een PC is dat anders, die maken ze vaak zo stil mogelijk.

Buiten temperatuur 30 graden houdt dan vaak in dat de binnentemperatuur ook redelijk op 30 graden wordt gehouden, in een PC kan het dan al wel 50 graden zijn. Daarom is het ook geen probleem, wij schroeven de temperatuur in de serverruimtes ook al jaren steeds een graadje op zonder probleem.
Liggen bij dergelijke serverparken die onderdelen (meer) bloot? Hoe moet ik dat voor me zien? Want bijvoorbeeld de thuisPC, als de temperatuur in de kamer oploopt naar 25 graden, dan hoor je toch echt dat binnen in de kast van de PC het aanzienlijk warmer is geworden (hoger dan die 25 graden denk ik dan), omdat hij dan flink gaat blazen.
Dat is eigenlijk heel simpel uit te leggen, jouw Computer is zoals ik het lees luchtgekoeld. Een simpele luchtgekoelde PC zal NOOIT! meer gekoeld kunnen worden dan zijn omgevingstemperatuur. Immers blaast het lucht met de temperatuur van de kamer tegen de CPU/GPU, stel jouw kamer is 25 graden Celsius dan is de minimum temperatuur van jouw CPU/GPU 25 graden Celsius.

Dus hoe koeler de omgevingstemperatuur des te beter de koeling van de componenten, dit werkt ook zo met waterkoeling maar net iets anders, bij waterkoeling zou je bijv. ook nog een cryostaat kunnen toevoegen (een apparaat dat water koelt) zodat je WEL kunt koelen onder de omgevingstemperatuur.

Zie de airco's in dit geval als een cryostaat, airco's daarintegen beinvloeden niet rechtstreeks de koeling van de componenten zoals de crystaat dat doet, maar eerst de omgeving en daarna pas de componenten.
Het lijkt me voor de portemonnee van de eigenaar van het datacenter ook beter om de temp wat hoger te houden? Ik denk dat die 10 graden behoorlijk wat meer kost aan kWh's dan die 1 of 2 servers die eventueel kapot gaan. Met de huidige energieprijzen zou ik het wel weten. Mits het redundante servers zijn natuurlijk. Als faillure meer problemen geeft dan louter reparatiekosten is het een iets andere overweging.
Dergelijke grote bedrijven kunnen het zich niet permitteren om data te verliezen denk ik, dus iedere faillure zou er dan één teveel zijn. Alhoewel ik weet dat Google alle data in tweevoud opslaat.

Vraag me trouwens wel af wat voor data Microsoft op servers moet hebben staan. Van Intel vraag ik me dat al helemaal af.
tja, als het uitvallen van een server een probleem is voor je datacenter, dan doe je toch iets niet goed..
bedrijven geven miljarden uit aan BCP plannen, dan is het slecht te verkroppen als er door temperatuur op te schroeven er hogere uitval is. Verkoop dat maar eens aan de directie.
BCP plannen zijn zware (theoretisch overbodige) onkosten welke puur zijn ingesteld tegen uitval/data verlies.
Temperatuur verhogen levert X euro op
Extra uitval kost Y euro

Zolang X groter is dan Y + reparatie kosten zal het makkelijk uit te leggen zijn aan de directie. Vooral als X in de orde van 10 tot 100 keer hoger is dan Y.
De gedachte opzich is niet verkeerd vind ik, ze moeten alleen wel rekening houden met oplopende faillure rates, en dit op een goed manier ondervangen.

Zolang ze dat onder controle hebben zal de besparing aanzienlijk zijn.
Dit is weer eens een bewijs dat "Europa" van een stelletje fantasten is en niet van burgers. Ze vergeten namelijk gemakshalve maar even dat er ook nog iemand moet werken in zo'n datacenter. 30 graden wordt dan wel erg zweterig en koeler is weldegelijk beter ook al kan een chip makkelijk 75 graden hebben.
Anderzijds denk ik wel dat datacenters slimmer gebouwd kunnen worden, bijvoorbeeld ondergronds of met veel natuurlijke ventilatie door de gekozen bouwvorm =natuurlijke trek. Ik meen dat er in België een nieuw center komt [of al is] met zo goed als geen energiegebruik door een slimme combi van goede bouw en veel zonnenpanelen.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013