'Koeling datacenters niet van deze tijd'

Datacenters die hun serverpark tot 20°C koelen, raken uit de gratie, zo stelt een koelingsdeskundige. Veel apparatuur is gecertificeerd om tot boven de 37°C te blijven draaien, waardoor er aanzienlijk minder energie verbruikt hoeft te worden.

DatacenterJim Simonelli, werkzaam bij de fabrikant van serverapparatuur APC, stelt in een interview met PC World dat vrijwel alle apparaten die in een datacenter zijn te vinden, veel warmer mogen worden dan systeembeheerders momenteel toelaten. Ook de luchtvochtigheid zou hoger mogen liggen. Door hogere temperaturen binnen de muren van datacenters toe te laten, kan veel energie worden bespaard; zo kan het verhogen van de temperatuur van 20 graden Celsius naar ruim 26 graden al een energiebesparing van 50 procent op de koeling opleveren.

Volgens Simonelli gaan met name grote datacenters over op het hanteren van hogere temperaturen om zo hun energierekening omlaag te krijgen. Twee jaar geleden publiceerde Google nog een onderzoek waaruit bleek dat de harde schijven in zijn datacenters vrijwel geen last ondervonden van temperaturen van 37 graden Celsius of hoger.

Een bijkomende ontwikkeling die invloed heeft op de 'koelingsstrategie' van datacenters is de opkomst van virtualisatie. Door het virtualiseren van toepassingen zijn er veelal minder servers nodig, maar de overblijvende systemen hebben door het draaien van meerdere virtuele machines gemiddeld een hogere cpu-belasting. Als systeembeheerders servers verwijderd hebben omdat deze door virtualisatie overbodig geworden zijn, moeten ze er volgens Simonelli voor waken dat ze de lege ruimtes niet onnodig koelen. Daarnaast is er betere software nodig om het serverpark te monitoren, omdat gevirtualiseerde applicaties eenvoudig naar andere servers gemigreerd kunnen worden.

Een ander probleem bij veel bestaande of nog in aanbouw zijnde datacenters is dat de eigenaren veel apparaten met een hoog verbruik hebben aangekocht omdat ze rekening houden met groei. De groei kan uitblijven, waardoor er een overschot kan komen van energieverslindende apparatuur. Volgens de koelingsdeskundige kunnen rekencentra daarom beter hun maximaal leverbare vermogen modulair aanleggen, waardoor eventuele uitbreidingen van het serverpark stapsgewijs uitgevoerd kunnen worden. Hierdoor zou de efficiëntie van een datacenter op peil blijven en loopt de stroomrekening niet onnodig hoog op.

Door Dimitri Reijerman

Redacteur

15-06-2009 • 11:43

170

Lees meer

Google werkt aan datacentra in zee
Google werkt aan datacentra in zee Nieuws van 8 september 2008

Reacties (170)

170
165
141
16
0
1
Wijzig sortering
Sowieso is er meer te winnen aan efficiëntie door bodemkoeling en ventileren dmv buitenlucht.

Stel dat je in de winter kou opslaat in de grond, en de ruimte afkoelt dmv warmte afgifte aan de buitenlucht. Dan kun je in de zomer de airco laten werken op de kou die je in de grond hebt opgeslagen.
In kassen wordt dit al steeds meer toegepast, waarom zou het in een serverruimte niet gebruikt kunnen worden.

En een datacenter van 30graden is voor de mensen niet heel prettig, tenzij de luchtvochtigheid laag is. Maar zo erg is het toch niet om bij 30graden te werken? Het went snel. Desnoods ga je er tussenin zitten, met 25graden.
In kassen wordt dit al steeds meer toegepast, waarom zou het in een serverruimte niet gebruikt kunnen worden.
Omdat kassen met GAS >warm< worden gestookt en dat 24 uur per dag. Gas is nog steeds vele malen duurder dan elektriciteit (waar airco's meestal op werken) en kassen zijn in vergelijking tot de meeste serverruimtes enorm. Kassen moeten daarbij in de winter warm worden gestookt en in de zomer zou het er koeler kunnen. De rest warmte in de zomer slaat men dan op om deze in de winter te gebruiken. aangezien het hier dan ook om enorme hoeveelheden energie gaat, is het ook rendabeler om zulk soort oplossingen te implementeren. Het voordeel van kassen is ook dat hun eigen oppervlak zo groot is dat ze onder deze kassen (en dus op eigen grond) de installatie in de bodem kunnen plaatsen. Als ik in datacenters kijk dan staan die vaak midden in een stad, hoog in een gebouw, meestal kleiner dan een gemiddelde eengezinswoonkamer en daar wil jij dan allemaal warmtepompen gaan plaatsen/intalleren? De ruimte onder gebouwen is vaak beperkt door parkeergarages, funderingen en heipalen (al weet ik niet zeker of dat beperkende factoren zijn) en zijn er vaak geen uitwijkmogelijkheden naar andere stukken grond om het in te plaatsen.

Al met al een lastig verhaal denk ik.

Verder vind ik een tropenrooster tijdens uren in een datacenter een prima idee :) 1 uur op; een half uur af :)

ik blij (lekker pauze), mijn baas blij (lage energie rekening) en het milieu(onze kinderen) blij

[Reactie gewijzigd door Freemann op 23 juli 2024 05:19]

Gas duurder dan elektriciteit? Dat lijkt me onwaarschijnlijk. Elektriciteit is (per joule) waarschijnlijk aanzienlijk duurder vanwege het verlies dat heeft plaatsgevonden bij de productie en het transport. Zeker als de de elektriciteitscentrale zijn energie uit aardgas haalt.
1m3 Aardgas = 31,65 MJ
1 kilowatt hour = 3.6 × 106 J (or 3.6 MJ)


Gemiddelde prijs van aardgas per m3 in 2009: € 0,71810 incl btw (regio 3)
Gemiddelde prijs van kwh: € 0,25 incl btw (excl. vastrecht)

1 x €0,71 = € 0,71
8.79 x €0,25 = € 2,19

Elektriciteit is , in joules, dus inderdaad flink duurder.

Maar waar het mij ook om ging is "de wet van de grote getallen" die geldt in de kassen. Zulke installaties zijn dan veel efficiënter op het gebied van kosten in plaats van dat je voor ieder klein datacentertje van een paar honderd m2 een peperdure warmtepomp-installatie te plaatsen. Waar je bij datacenters in enkele honderden vierkante meters en bij uitzonderingen praat over enkele hectaren, praat je bij kassen in grote regelmaat of enkele (tientallen) hectaren oppervlak wat het aantal m2 kassen in Nederland/de wereld ontelbaar maakt en waar datacenter oppervlak in weg valt.
Elektriciteit is duurder dan gas, want het wordt opgewekt uit aardgas. Het elektrisch rendement is minder dan 40%.
Een airco doet niets anders dan het verplaatsen van warmte. Die kan je ook verplaatsen door te ventileren, zeker in Nederland is het 300 dagen van het jaar koud genoeg.
Maar server ruimtes stopt men het liefst ergens in een kelder en om dan ventilatiesleuven te gaan hakken is teveel moeite.
Systeembeheerders piepen vaak harder dan servers als het te warm wordt.
Als on-site engineer bij een bedrijf die 24/7 personeel heeft rondlopen in en rond een datacenter wil ik mijn (niet wetenschappelijke) ervaringsdeskundigheid inbrengen: toen het in april/mei dit jaar plots vrij warm werd knalde bij ons een airco er uit. De omgevingstemperatuur schoot plots gigantisch omhoog. Ik heb (met een normale thermometer) temperaturen van 40+ graden gemeten in de warme gangen van dat stukje. En ja, er vielen meerdere servers uit door die temperatuurstijging.

Een aantal racks zitten bij ons vrij vol (doen de klanten zelf), twee zelfbouw servertjes zijn daar ondertussen vervangen nadat ik zo ongeveer elke 2 uur de machines weer mocht aanzetten. Toen spraken we over een temperatuur in dat rack van zo'n 30 graden, waarbij je de betreffende servertjes (de kasten) niet langer kon aanraken dan een halve minuut.

Wat ik wil zeggen: theoretisch en met de beste apparatuur is een hogere temperatuur vast wel mogelijk. Maar in een datacenter waar je niet volledig in de hand hebt wat klanten plaatsen of hoe de verdeling is door de ruimte gaat qua stroomgebruik en warmteontwikkeling, kan je de temperaturen niet al te ver op laten lopen.
De servers gaan niet kapot door de stijging van de temperatuur maar door het te snel warm worden. Z'n stijging moet zo langzaam mogelijk gebeuren, we hebben hier immers te maken met metalen welke uitzetten als het warm wordt en krimpen als het koud wordt... hier houden servers niet van..
Goed punt!
Stel: Ik wil met een nieuwe server naar binnen in een DC met een temperatuur van 30 graden. Moet ik de server dan eerst een dagje laten acclimatiseren alvorens het ding aan te zetten? Mijn gok: Eigenlijk wel...
Anoniem: 281125 15 juni 2009 19:05
Ik ben momenteel al een tijdje Datacenter engineer.

1. 37'C kan je ECHT NIET maken tegenover klanten en werk- en aannemers. 30max
2. Alleen ventilatie kan zowiezooo niet, want de servers moeten niet blootgesteld worden aan buitenlucht.
3. ALS je 37 graden zou aanhouden en er valt een koelunit uit.. dan heb je totaal geen speling.. apparatuur zou binnen enkele minuten doorbranden.
4. Wij blazen 24in en houden ruimtetemparatuur op 28.C (zat speling in geval van calamiteiten.

Die zogenaamde 'koelingsdeskunde' zal vast en hoop weten van koeling en temparaturen, maar weet niks van de werkomstandigheden van een datacenter
Better safe than sorry?

Ik kan me voorstellen als ik een groot / duur datacenter heb, liever de temperatuur wat na beneden wil drukken. Sowieso voor het personeel wat (soms) werkzaam moet zijn in zo'n ruimte. Daarlangs kunnen de criteria misschien zijn aangepast, maar stel dat er toch een 'overgevoellig' transistortje zit? Of nou net een productie fout is waardoor de max. temp 'slechts' 35 graden is.

Neej ik zou 't op safe spelen :X
Als je op safe wilt spelen maak je sowieso backups van alle data of zorg je voor een systeem dat iets als een falend transistortje opvangt doormiddel van enige redundatie of iets dergelijks. Daarnaast zal die zwakke transistor het waarschijnlijk evenwel begeven.

Zoals google al ondervond is het temperatuursverschil van 10 graden niet zo relevant, maar als zoals in het artikel wordt genoemd 50% van de energie kan worden bespaard, dan is dat mijns inziens zeker wel interessant. Het geld dat daarmee bespaard wordt kan overigens worden geïnvesteerd in de afschrijving van de hardware zodat deze wellicht eerder vervangen kan worden, waarmee je de risico's die jij beschrijft ook weer kan inperken.

20 of 26 graden lijkt mij voor computer hardware nogal irrelevant, zeker als je ziet dat processors gemaakt worden om onder 50 graden zelfs nog te kunnen werken.
Bekijk het eens van deze kant: Stel: Je apparatuur werkt nog net goed op 40 graden.
Als je koelingsproblemen krijgt (altijd mogelijk) heb je dan liever dat je DC standaard op 20 graden draait (langere tijd voor detectie, troubleshooten, plannen maken en uitvoeren) of op 36 graden draait (Detectietijd vreet waarschijnlijk al je tijd op voordat je apparatuur op de 40 graden zit).
Het lijkt mij sowieso beter om de temperatuur laag te houden, al zou het maar zijn om de levensduur van de apparatuur te verlegen! Het is natuurlijk een afweging tussen de kosten die bespaard kunnen worden op koeling en eventuele extra kosten die erbij komen door aanschaf van nieuwe producten omdat deze minder lang mee zullen gaan.

Ik zeg niet dat bijvoorbeeld een temperatuur van 26 graden funest is voor dergelijke systemen, maar het is vaak uitgewezen dat een hogere temperatuur de levensduur van componenten aanzienlijk kan terugdringen.
De technische levensduur ligt meestal heel ver voorbij de economische levensduur. Oftewel tegen de tijd dat het onderdeel mogelijk vervangen zou moeten worden vanwege technische levensduur, is het waarschijnlijk al héél veel eerder vervangen omdat de "opvolger" veel sneller en goedkoper is.

Het is een prima idee om de ruimtes iets minder te koelen. Erg veel mensen zullen er ook niet continu in de server ruimte rondlopen. En voor de mensen die er wel komen, betekent het dat ze hun kleding wat aan moeten passen. Niet echt iets om nou over te gaan zeuren en zielig doen. Er zijn ook genoeg mensen die in een veel warmere kas of een ijskoude diepvries moeten werken.....

Als ze nu meteen in die bedrijven een systeem installeren waarbij al die overtollige hitte niet zomaar afgevoerd wordt, maar gebruikt wordt om de rest van het pand te verwarmen of eventueel bedrijven/woningen in de buurt. Of opslag voor in koudere periodes. Dan zou er echt iets aan het milieu gebeuren.
Het artikel stelt juist dat de levensduur niet in gevaar komt door een hogere temperatuur, iig in zoverre dat de besparing op koeling opweegt tegen de hogere afschrijving op de hardware.
Daar moeten we dus mee stoppen. Het is NIET alleen "een afweging tussen de kosten die bespaard kunnen worden op koeling en eventuele extra kosten die erbij komen door aanschaf van nieuwe producten omdat deze minder lang mee zullen gaan".
Het is een manier om aanzienlijke energiebesparingen door te voeren die hard nodig zijn om de CO2 emissies te beperken. De winst door emissiebeperking is niet alleen in geld uit te drukken; die zie je terug in het behoud van de planeet waar we met z'n allen op leven. Voor sceptici: www.ipcc.ch - het door de VN ingestelde panel om klimaatverandering te monitoren. Daar is duidelijk in de trends te zien dat sinds de industriële revolutie en de daarmee gepaard gaande CO2 uitstoot en stijging van CO2 concentraties de temperatuur stijgt. Dat leidt onder andere tot het afzinken van de Tuvalu eilanden en vele andere archipels.
Wat dat betreft zou je alle datacenters beneden het vriespunt moeten houden, nog minder kans dat er net een overgevoelig transistortje kapot gaat...

Het blijft nu eenmaal een kosten/baten analyse. Door de ruimtes op 35 graden te houden ipv op 20 graden bespaar je flink wat energie (en dus geld) op het gebied van koeling. Als je goede backups hebt en de uitval-kans niet significant hoger is dan met 20 graden, dan kun je veel kosten-efficienter werken.

Maar goed, dan blijft het probleem dat het voor mensen die in het datacenter moeten sleutelen aan een server niet echt prettig werken is met 35 graden.
Je hoeft niet gelijk naar 35 graden. Als van 20 naar 26 graden al 50% procent besparing oplevert, begin daar dan eens mee...
volgens mij werken veel tuinbouwers ook al in beestig warme ruimtes....
Je kunt de beheerders die in zo'n ruimte van een graad of 30 toch een lekker fris pakkie aan laten doen.
Lol daarom hebben systeem beheerders een opleiding gevolgd en zijn de tuinders die jij bedoeld vaak jongere die het als bij baan hebben :P
Sorry hoor, maar tuinbouwers doen hun job niet even een paar jaartjes in hun jonge tijd. Je begint er vroeg aan met enorme leningen om je hele bedrijf op te bouwen en bent daarna een paar decennia bezig om het allemaal af te betalen. En ja hoor, dat is dag in dag uit van 7 's morgens tot erg laat 's avonds continu in het zweet werken. De plantjes hebben die zon en warmte graag. Helemaal niet te vergelijken met een 9-to-5 job.
Je beeld van de tuinbouw is een beetje scheef.
en wat voor personeel heeft diegene voor het grote deel????

Oprichters van bedrijven hebben geen recht tot klagen... al zit je te klagen had je er niet aan moeten beginnen :S das logisch toch
In mijn contreien zijn dat allemaal buitenlanders. Eventueel eens een jongere voor een weekje, misschien 2. Erg lang houden die dat doorgaans niet vol.

De meeste tuinbouwers doen hun werk met plezier, al wordt het wel zwaar als je je pensioen nadert. Hangt natuurlijk ook van de persoon af.

D-rez had het volgens mij ook over de tuinbouwer zelf, niet zijn werknemers. En die doet dat dag in ,dag uit wat echt niet te vergelijken is met een jobstudent die zoiets een paar weken in zijn gehele leven doet.
Daar wordt het inderdaad nog wel warmer dan 37 graden. Toch is de vraag of de kleding gebruikt in de tuinbouw ook representatief is voor systeembeheerders. Ik denk het niet.
Systeembeheerders die werken in een datacentrum hoeven toch niet representatief te zijn? Zo lang ze de systemen maar aan de praat houden, boeit het volgens mij bijzonder weinig of ze in een 3-delig maatpak lopen of in een korte broek en t-shirtje op slippers.
@ATS: Er is een zekere dress-code voor een rekencentrum. Dit heeft te maken met arbo voorschriften. Zo dient het lichaam ten alle tijde bedekt te zijn in verband met mogelijk contact met electisch geladen componenten. Nu weet iedereen dat een rack aan aarde ligt, maar helaas, arbo is arbo.

Sterker nog, als een beheerder met korte broek, teenslippers en t-shirt in computerruimte loopt en er flikkert een blade uit zijn handen op zijn tenen, dan heeft dat hele nare gevolgen. Beheerders zijn vervangbaar, maar alle rompslomp met arbo inspectie, onderzoeken, ziekteverzuim etc. kosten meer dan een nieuwe beheerder.
Ten eerste zou het een hele grote fout van de kwaliteits controle zijn.
Ten tweede; dat is waarschijnlijk de reden dat aangegeven wordt tot "26 graden" te gaan in plaats van 20 graden. Op 26 graden is het nog goed te werken voor het personeel.
Nou, dat ligt aan de luchtvochtigheid... als de luchtvochtigheid > 85% is, word het wel heel drukkend hoor... En aangezien veel hardware gecertificeerd is op <95% luchtvochtigheid, zou het nog best eens vervelend kunnen worden....

Maar ja, een brandweerman moppert ook niet dat moeder natuur hem een vervelende werkomgeving geschonken heeft :+
Nou, dat ligt aan de luchtvochtigheid... als de luchtvochtigheid > 85% is, word het wel heel drukkend hoor... En aangezien veel hardware gecertificeerd is op <95% luchtvochtigheid, zou het nog best eens vervelend kunnen worden....
De luchtvochtigheid in ruimtes met arico is over het algemeen serieus laag. 20°C bij die luchtvochtigheden voelt gewoon koud aan... Dus 26°C zou zelfs een aangename temperatuur zijn. Dat is totaal niet te vergelijken met 26°C buiten in onze streken. In drogere gebieden voelt 26°C ook niet warm aan.
Het is ook niet perse voor de luchtvochtigheid, voor het menselijk lichaam en het aanvoelen van de temperatuur, het is voor ons met name de luchtstroom.
Voor de onderdelen maakt luchtvochtigheid natuurlijk ook uit, maar daar ga ik even niet op in.
Luchtstroom bepaald in de grootste mate wat voor het menselijk lichaam aanvoelt als 'koude'. Vraag dat maar na aan een fysioloog. Zo zou 20 graden in een windstil (dus geen blazende airco's in de ruimte) in een serverpark dus veel werkbaarder (minder fris aanvoelend) zijn. In een ruimte waarop volop geblazen moet worden om die 20 graden te bereiken, en dat moet natuurlijk in elk serverpark wel, zeker zomers. In principe is kamertemperatuur al 20 graden..misschien 'ns 17-18, maar veel kouder gaat het toch niet worden met hitte producerende servers -zonder- airco aan, zeker zomers niet. Dus haast per definitie is het bij 20 graden natuurlijk een locatie met veel luchtstroom en dat maakt het fris aanvoelen. 35-37 graden is ook niet lekker, maar als er luchtstroom aanwezig blijft al veel werkbaarder dan wanneer die afwezig zou zijn (en de temperatuur daardoor op 35-37 uitkomt). Als je nu inderdaad voorneemt de temperatuur op een graad of 26 te houden, dan kan a) de airco een stuk lager wat scheelt in b) energie en geld c) luchtstroom in de serverruimtes waardoor deze d) minder fris aanvoelen en dus ook werkbaarder zijn dan ruimtes van 20 graden.
Daarnaast bepalen inderdaad ook wel luchtvochtigheid en dan uiteindelijk de absolute temperatuur in graden Celcius, hoe warm of koud iets aanvoelt.
Luchtstroom en waterstroom koelen het lichaam het meest af, vandaar dat je in koud water (titanic, blabla) eerder afkoelt dan bij die zelfde temperatuur zonder allemaal water om je heen.

Vanwege de enorme besparing een interessante en goede nieuwe maatregel om om grote schaal door te voeren. Voor werknemers moeten er uiteindelijk niet al te grote bezwaren zijn..de bedrijfsarts zal het wel (of waarschijnlijker: niet) gaan merken; wat hier de invloed van is dus voor het welbevinden van de werknemers.
Geen idee waar dat vocht in een serverruimte vandaan zou moeten komen.
Een lekkende waterkoeling mischien? :-)
Ik denk dat overgevoelige transistortjes wel doorbranden in de behuizing.
In het artikel hebben ze het erover dat veel apparatuur gecertificeerd is tot 37C, daarin zal het niet doorbranden. Bovendien heeft de q-controle zijn werk dan niet goed gegaan en het verlies van 1 server kan een beetje datacenter makkelijk aan.
Ze hebben het over een stijging van 20 naar 26 graden. Als je daar 50% energie op de koeling kunt besparen lijkt me het heel mooi.
Daarbij heb je dan nog 11 graden marge.
Ik heb in ons serverhok ook de temperatuur verhoogt naar 25 graden, alles werkt prima. In een 2e serverhok (wat eigenlijk meer een meterkast is) in een ander gebouw is het 30 graden, en ook daar geen problemen.
Als je fatsoenlijke hardware hebt dan moet 25 of 30 graden geen probleem zijn, 37 graden lijkt me dan wel weer heel optimistisch voor een datacenter zoals wij dat in gedachten hebben, maar er is zat apparatuur die zeker tegen zulke temperaturen kunnen zoals telecomspul.

Samen met de temperatuurverhoging heb ik hittewerende folie op de (getinte) ruiten aangebracht en hoop zo deze zomer geen problemen te krijgen met de airco, en bovendien nog eens flink geld uit te sparen aan energiekosten.
Misschien is mij dat even ontgaan, maar zijn er ook airco's of koelinginstallaties die buitenlucht gebruiken?

Stel;
Maandag, buiten temp is 15 graden.
Dat de koelinginstallatie dan z'n koele lucht uit de buitenlucht pakt en dat filtert naar juiste vochtheidniveau?

Beetje het idee van de airco in bungalows die buiten hangt, maar dat ie dan ook echt de buitenlucht gebruikt om dat naar binnen te blazen en niet om daarmee zijn water te koelen.
Anoniem: 105188 @peak15 juni 2009 12:15
Nee een airco gebruikt geen buitenlucht. De reden waarom de condensor buiten staat is omdat hij heet wordt en dan heeft het geen nut om hem binnen neer te zetten terwijl je binnen probeert te koelen. Die condensor werkt op het zelfde principe als een koelkast.

Veel mensen denken dat een airco kouden lucht naar binnen blaast. Niks is minder waar, een airco ontneemt warme lucht uit de omgeving en vervangt deze met koudere lucht.

Zie:
http://www.howstuffworks.com/ac.htm
Enkel omdat er geen buitenlucht naar binnen wordt geblazen, wil nog niet zeggen dat de AC geen buitenlucht gebruikt natuurlijk.
Hier op school bijv. gebruikt de AC de buitenlucht om de binnenlucht te koelen in de winter. Daarvoor gebruiken de AC units warmtewisselaren. (http://nl.wikipedia.org/wiki/Warmtewisselaar)
In de zomer werkt het inderdaad wel net als een koelkast.

Nou weet ik niet in hoeverre je ons "data center" kunt vergelijken met een redbus, hier staan geloof ik maar zo'n 200 servers. Maar goed, de meeste data centra bestaan volgens mij ook uit meerdere kleinere suites, die misschien wel vergelijkbaar zijn met wat we hier hebben.
Ja, KPN/Getronics is hiermee aan het experimenteren (ik meen in regio Amersfoort).
Ik meen dat ze het Kyoto-koeling noemen.
Anoniem: 212433 15 juni 2009 16:38
Jim Simonelli heeft absoluut ongelijk. De meeste apparatuur is niet geschikt voor temperaturen boven 22 graden celsius. Dat een gedeelte van de apparaten het volhoud bij hogere temperaturen geeft aan dat de hardware steeds beter wordt, maar wordt ontworpen voor 22 graden. De levensduur gaat logaritmisch omlaag bij hogere temperaturen, de praktijk bevestigd dit. De praktijk moet uitgaan van worst case omdat data uitval een groot probleem kan vormen en een ongeluk altijd in een klein hoekje zit, de wet van murphy dus.
Een marge in het temperatuur bereik van de hardware is dus noodzakelijk, 37 graden heeft geen marge meer naar boven en is derhalve onacceptabel.

PE1MMK
Wanneer ik naar HP Servers en storage kijk:
Environment:
  • Operating temperature: 10° to 35°
  • 10 to 85% relative humidity (Rh), 28°C
En Dell en IBM zullen denk ik zelfde range liggen. Eigenlijk is 28° met 20% luchtvochtigheid niet eens zo gek dus.
Sun (Netra) :
Temperature long-term 5 - 40, short-term -5 - +55.
Humidity 10% to 90% noncondensing

De stelling van pe1mmk ( dat er geen marge is bij 37C ) klopt dus niet. Je server overleeft het structureel, met marge, en bij uitvallen van de airco heeft je server zelfs 18 graden marge voordat er schade optreedt.
Ik moet ook de eerste server nog tegen komen waar dingen als cool and quiet aan staan.
terwijl dit voor de cpu(s) erg in warmte afgifte kan schelen.

voor de drukke momenten heb je dan de performance, maar op de rustige kun je tot 50W per cpu besparen. Doe dit eens over alle servers van een datacenter en verdubbel deze besparing omdat dit niet gekoeld hoeft te worden.
Het is niet zozeer luiheid (van de systeembeheerder), maar het heeft verder geen zin, je koopt namelijk je stroom niet per verbruikt kilowatt-uur in, maar per Ampére. Dat betekend dus dat je op piekmomenten alsnog 100% energie gebruikt, en daar ook op moet inkopen.

Voor bandbreedte geld namelijk hetzelfde, dat koop je ook in Mbit/s in, en ook daar houd je enkel rekening met je piekmomenten, dat je in de "daluren" amper verstookt, tja, jammer dan.

Als je server in daluren staat te idlen, dan moet je eens goed nadenken over op welk tijdstip je dingen als backups doet, en of er geen taken zijn die je kunt plannen in dat soort momenten (rebuilden van search-index bijvoorbeeld, of vertraagde updates/inserts voor databases). Dat bespaart namelijk veel meer, want dan kun je met een lichtere "configuratie" toe, en dus minder stroom!

Edit: Ja, helaas is het in deze wereld nog steeds zo dat het om de centen gaat, zolang een ondernemer het niet in zijn portemonnee voelt (positieve PR daargelaten), zal hij weinig ondernemen op het gebied van "verantwoord ondernemen".

[Reactie gewijzigd door AndriesLouw op 23 juli 2024 05:19]

Fout: je "reserveert" je maximum vermogen door een bepaald amperage te voorzien maar je betaalt vooralsnog alleen wat je verbuikt hebt.
Bij een overgedimensioneerd amperage betaal je je verbruik wel aan een hogere prijs.
Tja, sommige mensen die werken de hele dag in een datacenter. Dan lijkt het me ook wel fijn als het niet te warm is ipv 30graden. Misschien leuk voor datacentra's waar bijna nooit iemand komt maar Redbus of easynet zullen hier niet aan beginnen denk ik.

EDIT:
Er zijn ook mensen die bijvoorbeeld bij Leaseweb of een andere coloboer met een paar duizend servers werken. Dan kan het een dag taak zijn om in het datacenter te werken. Voor het geluid heb je oordopjes om je gehoor te beschermen maar voor warmte ?

[Reactie gewijzigd door GrooV op 23 juli 2024 05:19]

Dit lijkt me een enorm slecht argument.. Al gewoon naar 26 graden, wat niet onhoudbaar is, is al een enorme besparing (volgens het artikel 20% op de energie die de koelgroep eist).

Ik ben geen voorstander van nutteloze ingrepen, maar de koeling tot 20° laten draaien gedurende de zomer vind ik compleet absurd, als je weet hoeveel vermogen een koelgroep eist..
Het is zelfs erger dan dat; er zijn bepaalde harde schijven (ik noem geen namen) die onder de 18 graden gewoon niet meer goed presteren en in een safety mode springen (best gezellig als je productieomgeving er op draait en je dat niet op voorhand weet). Te hard koelen kan dus ook serieuze gevolgen hebben.

Ik vraag me trouwens af vanwaar dat algemene idee komt dat een datacenter op 20 graden gekoeld moet zijn, dat heeft denk ik meer te maken met de "menselijke inschatting" van een "goede temperatuur", eerder dan een wetenschappelijk argument. Ik kan me niet voorstellen dat het draaien op 20 graden, 25 graden of 30 graden een wezenlijk verschil uitmaakt voor de levensduur van de hardware (die typisch om de 3 jaar hernieuwd wordt, of misschien vandaag na 4 of 5 jaar -- ik kan niet geloven dat het een jaar zou schelen!).
Als de omgevingstemperatuur in je datacenter 20 graden is, dan zijn de harddisks in een server al snel 25-30 graden. Wanneer wat zwaardere servers dicht op elkaar gepakt zitten in een rack kan dat zomaar oplopen tot 30-35 graden. Dat verschil moet je in dit verhaal wel meenemen natuurlijk. Ga je die 20 graden dan verhogen naar 26 komen je harddisks op 31-36 graden. Dat zijn nog prima waarden, dus die stroom mag prima bespaard worden, graag zelfs. Maar vanaf 45 graden zie je ook in dat onderzoek van Google dat de levensverwachting achteruit gaat. Onder normale omstandigheden moet daar een veiligsheidsbuffer van een aantal graden tussen zitten, om ook bij onderhoud aan het koelsysteem of piekbelasting van het datacentrum nog altijd de doeltemperatuur te halen.
Als die koeling zo'n probleem is, is het dan niet beter waterkoeling in die servers te hangen?
IPV met moeite de lucht koud genoeg houden
Dan ben je veel minder flexibel. Koppel dat aan de veel hogere kostprijs en dan is het al snel voordeliger om per rack 4 tot 8 servers minder te hangen dan over te stappen op waterkoeling.
Waterkoeling kan voor hotspots zorgen bij onderdelen die niet op de waterkoeling zijn aangesloten (bijvoorbeeld elco's, die toch een aanzienlijk deel van de levensduur van het totale apparaat bepalen).
Maar een elco kun je toch ook apart vervangen? Je gaat toch niet een server weggooien omdat er een elco gesneuveld is?
Dat weggooien gebeurt anders dagelijks. Een elco zit op het moederbord of in de voeding gesoldeerd en wordt door een ICT'er niet als vervangbaar onderdeel beschouwd. Dat wordt dus op zijn minst een nieuw moederbord of nieuwe voeding, maar het kan na een aantal jaar practisch gezien handiger zijn om een nieuwe server neer te zetten (leverbaarheid moederbord enz.).

Als electronicus ben ik wel geneigd een losse defecte elco te vervangen, maar daar zit downtime aan. Je gaat dus hoe dan ook reservehardware nodig hebben.

Dus hoe je het ook wendt of keert: Het is gewoon handiger als er binnen de geplande levensduur niets stuk gaat.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 05:19]

De technische levensduur van de zwakste onderdelen van je server halveert elke 10 graden. Het verschil tussen 20 en 30 graden kan dus behoorlijk significant zijn, en zeker meer dan het jaar dat jij nu noemt.

Zie mijn voorbeeldberekening elders. Afhankelijk van lokaal verder oplopende temperaturen en componentkeuze van de fabrikant kan de minimaal te verwachten levensduur van je server zomaar ergens tussen 2 en 8 jaar varieeren bij het genoemde temperatuurverschil. 8 jaar is doorgaans ruim voldoende, maar na 2 jaar wil jij echt nog geen onderhoud plegen aan je hardware.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 05:19]

Sterker nog, een verhoging van de temperatuur van 6 graden zou een besparing van 50% opleveren.
zo kan het verhogen van de temperatuur van 20 graden Celsius naar ruim 26 graden al een energiebesparing van 50 procent op de koeling opleveren.
Ik ben ooit in het server park van IBM geweest. Wat ik me daarvan kan herinneren is dat het 'koeler' aan voelde dan 20 graden. 20 graden is een lekkere kamer temperatuur maar het voelde erg 'koel' aan.

Nu zijn er natuurlijk argumenten dat het niet verstandig is om alles op de toegestane temperatuur te laten werken maar als een verhoging van 6 graden al een dermate besparing op levert, waarom niet.
Het zal waarschijnlijk koeler aanvoelen omdat er relatief weinig vocht in de lucht aanwezig is.

Ik merk overigens wel dat een te hoge temperatuur, gevoelsmatig 30 graden celsius een negatieve invloed heeft op de duurzaamheid van servers en vooral harde schijven.
Dat is tegenstrijdig met wat Google ondervonden heeft. En buiten dat, als het apparatuur gecertificeerd is tot 37 graden zou 26 graden niet uit mogen maken. En al wordt de levensduur daar minder op. De server zal eerder door economische redenen aan vervanging toe zijn dan dat de levensduur door de temperatuursverhoging dermate verkort is dat deze er plotseling mee op houd.
Wat ik gemerkt heb is dat servers een stuk langer leven als je ze ophangt met 1U tussenruimte.
Kost wel iets extra ruimte maar het resultaat was een temperatuur verlaging van 10 graden op de moederbordsensoren, en machines die opeens wel gewoon bleven draaien.
Je kan in die ene U ook de kabels wegwerken naar de zijkanten toe, dus het ziet er nog netjes uit ook.
Verschillende temperaturen he. Jij en ik meten globaal de temperatuur in je serverruimte. In en rond de servers is de temperatuur een stuk hoger. Je servers hebben die koele lucht nodig om de onderdelen op de juiste temperatuur te houden.

Hoewel de temperatuur nu zo rond de 20 graden zal hangen is de gemeten temperatuur in de server, via HP Openview, rond de 40 graden, ambient is 16 graden.

En ik heb dus servers al ruim binnen de economische levensduur zien sneuvelen. Sowieso kun je mi servers nog prima na de ecenomische levensduur inzetten als test server of als een backup server, uiteindelijk kun je daar ook prima mee besparen.
Gecertificeerd voor 37 graden, maar hoeveel uur minimaal te verwachten levensduur heeft de server dan nog? Economisch kan je een server ergens tussen 3 en 5 jaar vaak wel vervangen (hoewel applicatietechnisch gezien het soms ook wel 5 a 10 jaar mag zijn), maar met mijn snelle berekening een paar posts hierboven kom je in het optimistische scenario al eng dicht in de buurt van die levensduur en in het pessimistische scenario zit je meer richting 2 a 3 jaar te kijken voor de redelijkerwijs minimaal te verwachten technische levensduur. En dat alleen op basis van de kwetsbaarste componenten, als je een serieuze berekening zou gaan maken komt het nog een fractie pessimistischer uit schat ik.

Kijk dus goed uit. 20 graden is nog best te doen. 25 misschien ook nog wel. Bij 30 ben je al heel hard aan het vertrouwen op de interne koeling van de server (hotspots zijn dan taboe dus er moet letterlijk in elke hoek airflow zijn) en als je nog hoger gaat merk je dat gewoon in je levensduur.
Een gemiddeld datacentrum is sowieso geen fijne werkomgeving. Serverruimtes zijn dan ook bedoeld om servers te plaatsen, niet als kantoor.
Als je datacentrum opeens 37 graden mag worden is het in Nederland voldoende om voor fatsoenlijke ventilatie te zorgen, de airco kan dan uit. Tot nu toe was het altijd zo dat elk beetje energie wat door een server verstookt werd ook nog dubbel gebruikt werd door de airco om de daarmee gegenereerde warmte weer af te voeren. Als de airco uit kan scheelt dit dus zomaar 50% op de energie rekening.

Dus helaas voor de mensen die vaak in een datacentrum lopen maar het economisch niet te verantwoorden om de boel met airco's te gaan koelen voor de paar mensen die er rond lopen.
Leuk dat je het artikel nog een keer overtypt maar volgens mij ben je nog nooit in een datacentrum geweest? :?
Mensen die daar binnen werken, zijn daar om noodzakelijk onderhoud uit te voeren en de airco's hangen daar heus niet om hun werkomgeving aangenamer te maken.
Het is verder maar de vraag of je met gewone ventilatie alle warmte die de servers genereren kan afvoeren.
Het blijkt dus, itt tot wat jij denkt, dat het voor de servers niets uitmaakt.
Gewone ventilatie is meer dan genoeg. Dat weet iedereen.
En, kom op...dat wist jij ook wel...Jij die zo vaak in data centers loopt.

Hier in Jakarta is het ook altijd 31 graden, dus in de data centers beneden zelfs veel heter. Ja, er hangt een aircon, maar die altijd uit.
Twee ventilatortjes in een kast zijn genoeg voor de bruutste thuis PC...en voor de data centers, wat het zelfde principe is, een grote kamer met wat stokers erin, nog een paar extra ventilators, en net iets groter.

En de controls, op een simpel PC'tje...die zijn toch wel boven, en niet naast je gierende towers daar hoop ik...
Jij, die daar iedere dag loopt?

Het leuke is dat een fikse ventilator niet eens zo veel minder verbruikt dan een leuke Aircon.

Enniewee, Ja, inderdaad, je hebt gelijk, in plaats van 20 jaar gaat de aparatuur maar 19.5 jaar mee, maar gemiddeld wordt de aparatuur vervangen, na, wat is het...5 jaar?
Misschien wel 10 jaar?

Het is slechts voor de mensen die daar werken, hier hetzelfde.
Heerlijk als het niet te warm is...
Productiever...met het noodzakelijk onderhoud. :?
Elke dag kapot.

Het artikel is goed, en zou gewoon bij wet gevolgd moeten worden.
Kwartiertje in de hitte, en dan weer naar boven, peukie doen, achter je facebook/msn (GoT in mijn geval ;) ).
Twee ventilatortjes in een kast zijn genoeg voor de bruutste thuis PC...
Ja, haha, stapel jij maar ff lekker 40 van die brute pc's op elkaar in een case van 5cm hoog en 45cm breed... Lekkere vergelijking is dat. "Die ferrari kan zo hard, dus een T-ford met grote motor kan dat ook wel!"

Als je meerdere dingen opstapelt, dan kan het z'n warme lucht ook moeilijker kwijt. En het moeilijkste is nou om alles op een fatsoenlijke temperatuur te houden. Even een plaatje: http://www.evoswitch.com/...tch_ServerRack_300dpi.jpg
Zoals je ziet is het aanzuigen van lucht moeilijk, je hebt welgeteld 3 roostertjes per server waar alle lucht doorheen moet. Vaak zitten daar ook de hardeschijven voor, dus het koelen van die dingen is niet zo vanzelfsprekend. Stop er een flinke Xeon in (of 2), en ik kan je garanderen dat dat heet wordt en lastig te koelen is.

Overigens denk ik dat de standaardtemperatuur niet zozeer 37 graden moet zijn, maar gewoon 'omhoog' gaat (richting de 25 oid), wat nog wel werkbaar is. Dit zal ook al een hele hoop schelen.
Je kan nou wel zeggen dat het werkt, maar in de praktijk ben je toch vaker apparatuur aan het vervangen, en dat wil je niet als je uptimegaranties moet bieden. Neem simpelweg de elco's in de voeding en op het moederbord, omdat die een mooi berekenbare slijtagekarakteristiek hebben.

Pessimistisch scenario: Bij 105 graden celcius is hun levensduur vaak op 1000 uur gedefinieerd (deze verdubbelt voor elke 10 graden lager).

Stel bij een op 20 graden gekoeld datacenter is de elco zelf 45 graden. Bij een op 30 graden gekoeld datacenter is de elco zelf 55 graden.

Levensduur bij 45 graden: 32.000 uur
Levensduur bij 55 graden: 16.000 uur

Nou zal je zeggen: dat valt wel mee. Maar nee. In een jaar gaan al 8760 uur, dus bij 55 graden is de gegarandeerde levensduur nog geen 2 jaar!

Nou valt het in de praktijk wel mee, want sommige elco's hebben een levensduur van 2000 uur bij 105 graden en worden bovendien beter gekoeld waardoor ze maximaal 10 graden koeler zijn dan waar ik hierboven van uitga. Het optimistische scenario gaat dus uit van een 4 maal langere levensduur: ruim 7 jaar.

De werkelijkheid ligt in het midden, en dus onaangenaam dicht bij de geplande levensduur van servers (3 tot 5 jaar). De moraal van het verhaal: als je niet elke 2 a 3 jaar preventief je hele serverpark wilt vervangen, doe je er goed aan de temperatuur niet al te ver boven de 20 graden te laten komen.

Ohja, en mocht het allemaal wel meevallen: Wat dacht je van die dure telefooncentrale die ook in je serverruimte staat? Die moet toch echt minstens 10 jaar en liefst langer mee.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 05:19]

Als een datacenter eenmaal draait hoef je er niet echt vaak te komen. Hoogstens een nieuw servertje erin hangen of hard disk vervangen. Ik vind het ook achterlijk. Het is er vaak juist erg koel. Die apparatuur kan goed tegen een beetje normale warme temperatuur.
Sowieso is het door het kabaal niet leuk om er te werken. Server erin, en op afstand inregelen.
Ligt toch een beetje aan het datacenter. Gemiddeld genomen heeft een server een levensduur van een jaar of 3 a 4, en als je bijv. een datacenter hebt met 800 tot 1000 servers, en je gaat kijken naar het aantal normale WERKdagen, dan zou je om het bij te houden elke dag 1 server moeten vervangen, omdat deze een jaar of 3 a 4 oud is, en simpelweg om de betrouwbaarheid te garanderen vervangen moet worden.

Dan heb je nog groei, datacenters en het centraliseren van gegevens is nog steeds big business, en groeit nog steeds.

Tel daarbij het vervangen van hardware, het toevoegen van hardware, het onderhoud dat alleen van de console kan gebeuren (zoals upgrade van het OS in veel gevallen), problemen die je tegenkomt, en je hebt al snel te maken met een datacenter waar dagelijks mensen over de vloer komen en daar meerdere uren aan het werk zijn.
Een server wordt in 3 a 4 jaar afgeschreven, de meeste bedrijven laten deze veel lager doordraaien, vaak zelfs tot ze het echt bijna begeven.
En dat zijn dan juist vaak de belangrijke servers omdat die nooit uitmogen voor onderhoud of migratie van de klant.
Dus hebben veel klanten bij ons nu 8 tot 10 jaar oude server nog op NT4 draaien....
En wij willen wel migreren maar zij niet.
Er zij ook bedrijven die voor stabiliteit zijn en dan dus ook geen servers meer serieus draaien die geen garantie meer hebben.

En zijn die klanten met een server van 10 jaar oud niet gewoon particuliere hobbyisten, ik kan me namelijk niet voorstellen dat een bedrijf een server van 10 jaar oud nog gaat gebruiken voor een serieus doel.
@BGB4rn

Ik denk dat dat vervangen van servers na 3-4 jaar voornamelijk ook te maken heeft met de periode waarop je een server kunt afschrijven voor de belasting. Daarna gaan bedrijven afwegen of het rendabel/goedkoper is om een eventueel energie zuiniger en snellere server te plaatsen. De hardware zelf moet toch wel langer als 3-4 jaar mee kunnen gaan.

[Reactie gewijzigd door HerrPino op 23 juli 2024 05:19]

ook nog niet vaak/nooit in een data center geweest zeker.

Kom er gemiddeld 1 dag in de week, en als het druk is 2 of meer dagen...

Kabaal is wel te doen, het wend of je moet gewoon oordoppen in doen.

Temperatuur... 37 graden... dan houdt ik mijn t-shirt echt niet meer aan... niet echt netjes voor klanten op de webcam...

helaas hebben wij elke week wel weer nieuwe servers te plaatsen, en ook al kan alles op afstand kan, zijn deze functies (helaas) bijna nooit allemaal gerealiseerd.
37°C daar kan je gerust in werken mits aangepaste kledij. Ik werk momenteel aan een milieusaneringsproject in Brazilië en daar gaat het vaak boven de 30°C. Komt daar nog eens bij dat wij om veiligheidsredenen (giftige stoffen) ons huidoppervlakte (quasi) volledig bedekt moeten houden (enkel aangezicht niet). Dan zweet je wel wat af, maar zolang je genoeg drinkt valt dat allemaal wel mee. Het midden-oosten is momenteel de grootste bouwwerf ter wereld en daar gaat het kwik tot 50°C.

Bovendien loop je daar (in Brazilië) ook buiten in de zon en is vooral de (tropische) vochtigheid bijzonder lastig, een "droge" omgeving van 37°C is heus wel te doen. Gewoon een korte broek en een lichte tshirt en het valt allemaal wel mee.

Ik ga nooit beweren dat het een topomgeving is om in te werken, maar hier wegen de voordelen (veel minder energieverbruik) volgens mij wel op tegen de "nadelen" (een paar IT-ers die wat meer gaan zweten tijdens het werk).

[Reactie gewijzigd door SteroiD op 23 juli 2024 05:19]

En daar komt bij dat die paar IT-ers ook al wel geholpen zouden zijn met een simpele ventilator. Het wordt er niet kouder van, maar de bewegende lucht geeft toch een lagere gevoelstemperatuur en maakt het zeker werkbaar voor een paar uurtjes in de week.
Maar dat zijn toch allemaal oplosbare problemen, als er genoeg terugverdien effecten zijn door de energiebesparing?
Remote admin zit zo ongeveer overal op, om het ook toe te passen zal niet vreselijk veel kosten. Als je met grote regelmaat servers moet toevoegen of schijven vervangen, kan je dat spul ook best op voorraad inprikken.
Er zal wel een en ander in de werkwijze moeten veranderen, en SLA-gedreven datacenters houden daar niet van, maar echt ingewikkeld lijkt het me niet.
Anoniem: 212607 @Rinzwind15 juni 2009 12:33
Het probleem is ook vaak dat het op bepaalde punten echt fris is (vooral waar de airco zelf hangt) en op andere punten (vaak de uithoeken) toch behoorlijk warm. Als men dus slechts 1 centraal punt heeft waar de airco hangt is men vaak verplicht om de airco harder te zetten zodat ook computers aan de verste uiteinden niet oververhitten.

Vaak zijn zulke problemen ook aan te passen door bv meerdere kleine airco units te plaatsen, de kosten zijn dan wel iets hoger voor plaatsing maar die win je automatisch terug als de airco wat lager kan staan.
Beetje datacentrum werkt met warme en koude straten. En als je het echt lekker wilt gewoon met waterkoeling. Hier is pas een nieuwe kleine computerruimte met 6 rijen van 40 racks, alles watergekoeld, geen airco meer nodig, alleen goede ventilatie.
Tussen warme/koude paden en waterkoeling zit nog een stapje: Cold corridor.
Kort gezegd komt het erop neer dat een koud pad wordt afgesloten met schuifdeuren en een dak zodat alle koude lucht wel door de aanwezige apparatuur heen moet.

Dit schijnt behoorlijk efficienter te zijn en dus ook goedkoper.
Ga een server ophangen bij LeaseWeb in Haarlem en je ziet dit principe in werking. Werkt inderdaad best goed.
Wordt de airco niet gewoon geregeld door censoren en handelt de airco dat allemaal niet af?
Dat heeft dan met een slecht ontwikkeld koelsysteem te maken, niet met de uiteindelijke temperatuur.
Weinig projecten gedraaid zeker.
Momenteel ben ik bezig met een project voor het inrichten van en migreren naar een DC (verhuizing). De werkomstandigheden zijn relatief slecht voor mensen en relatief goed voor mijn apparatuur.

Ik heb alleen niet de illusie dat als alles eenmaal draait ik er bijna nooit hoef te zijn.
Projecten / onderhoud genoeg.
bedenk voor de gein eens dat een datacentrum nooit op 1 dag gevuld en gestart word
ook worden er continu mutaties van internet lijnen etc uitgevoerd
Anoniem: 290112 @Rinzwind15 juni 2009 12:42
owieso is het door het kabaal niet leuk om er te werken.
Ooit het kabaal gehoort van een server in een omgevingstemperatuur van 30graden?
Kan je beter naast een straaljager staan :P
lol dus nog nooit in een datacenter geweest of nooit langs een straaljager gestaan... Datacenter = meestal ongeveer 80 decibel
Straaljager = 140-170 decibel
En mensen die riolen repareren, werken ook in een vervelende omgeving. Wat is je punt nou? Dat servertechnici het waard zijn 2 keer zoveel aan elektriciteit uit te geven?
Anoniem: 145435 @Brent15 juni 2009 16:29
Je vergelijkt nu riolen met serverparken?

Nuja, het is een spel van vraag en aanbod. Werknemers in de riolen gaan ook niet verwachten dat ze in een riool komen dat ruikt naar rozen en zo proper is als een ziekenhuis. Ze krijgen dan ook meer betaald of extra premies voor het werk dat ze verrichten. Krijgen ze dat niet zou er een enorm aanbodtekort zijn van werknemers.

Tenzij hem een extra vergoeding wordt aangeboden zal een server technicus altijd kiezen om te werken in 20°C boven 35°C. Ook zal het meer bekwaam personeel sneller uitwijken naar andere oorden met als gevolg dat de werkgever nog vast zit met minder productieve werknemers, neem daar nog eens bij dat in 35°C je een pak minder productief kan werken dan in 20°C en economisch is het zelf beter om de airco aan te laten staan.

Probeer maar eens riolen te verlossen van de stank met als enigste middel het verschil tussen het normaal loon en het loon van iemand die in riolen werkt, veel succes zou ik zeggen.
Anoniem: 126610 @Brent15 juni 2009 13:27
Wat dacht je van een koelcel ;-)
Ach wat dacht je van je gewassen groenten bij de AH.
Er staat in de buurt van schagen ergens een loods.
Waar alles word gesorteerd en gewassen.

Constant kouder dan 6graden en nat (is een hele zware combinatie).
Zal je niets verbazen dat vooral niet autochtonen daar langer dan een paar weken willen werken.
Een datacenter is zoizo geen plezier om in te werken. Ik ben een tijdje geleden in het datacenter van BIT geweest en daar was het dan wel koel, maar met al die gigantische herrie om je heen werken is nog erger dan in de hitte.
Een datacenter waar veel mensen komen mag wel eens wat hogere eisen aan de servers stellen die daar hangen. De enige reden waarom ik in een datacenter kom is als er een server bij moet of vervangen wordt. Voor het overige is er remote beheer.
Regulier onderhoud en projecten zorgen over het algemeen voor een behoorlijke bezetting in onze grotere datacenters. (Denk: Filters, fans en voedingen checken, nieuwe server, extra NIC, moet ook gepatched worden, server upgrade, aanleg huurlijn / nieuwe VPN-koppeling.

@Alle mensen hier die alleen over servers praten: Op elk datacenter hangt meer dan alleen een stapel servers.
Voorbeelden:
Core-switches en routers, edge-routers, inbelapparatuur, storage (dat altijd lekker groeit), externe koppelingen (modems, VPN's) met allemaal installatiehandelingen en andersoortig onderhoud.

Remote beheer is leuk, maar lang niet in alle gevallen toepasbaar.
Tja, sommige mensen die werken de hele dag in een datacenter.
Van de Arbo mag dat niet hoor. De temperatuur is 1 ding, maar het is zo'n pokkeherrie in het datacenter. Daar ga je echt alleen maar heen als je er moet zijn (servers plaatsen/verwijderen, of geen remote toegang meer tot de server).

Ik vraag me wel af *waar* precies die 20/26/37 graden gemeten wordt. Je hebt koude airflow in en warme airflow uit (veel datacenters werken dan ook met warme/koude gangpaden tussen de racks). Wat is er nou precies die 26 (of watdanook graden). De temperatuur van de lucht bij intake? Dan zal het in de praktijk warmer zijn in het datacenter.

Is het de luchttermperatuur van de lucht die er uit gaat? Dan zal het een stuk frisser zijn.
Ik zie geen probleem om in een datacentre te werken waar het 30 graden is. Mensen die in de glastuinbouw werken dan? Daar is het vaak nog warmer als 30 graden. Die hebben toch ook geen enge ziekten ofzo? Aan die warmte wen je echt wel hoor.
Anoniem: 182860 @GrooV15 juni 2009 11:56
t-shirtje, kort broekje, flipflops ;)
En je omkleden op de gang zeker. ja handig.
Oh, zo loop ik hier in ZA altijd rond, maar ja, het is dan ook geen Nederland, haha.
Het datacenter waar wij naartoe aan het verhuizen zijn heeft douches...
Hoe vaak en hoe lang werken er mensen in zo'n datacenter? Als het vaak van die korte bezoekjes zijn en paar keer per dag, dan is het niet zo erg dat er mensen tijdelijk met 37 graden werken?
Er zijn mensen (zoals in RedBus) die daar hun kantoor hebben naast de vloer, die lopen dus gemiddeld zo'n uur of 5/6 per dag over zo'n vloer heen.

Zelf heb ik mijn servers in een ander datacenter hangen en daar lopen altijd 1 tot 2 engineers fulltime over de vloer om kabels te trekken, hands-on support te verlenen, racks dicht te maken met blindplaatjes en incidenteel ook nog eens wat servers op te hangen. Voor dit soort mannen lijkt mij 26 graden niet echt plezierig om heel de dag in rond te lopen. Aan de andere kant zoals met alles, het went vanzelf wel ;)
Ten eerste lijkt het me niet ARBO technisch verantwoord om je kantoor aan/in de serverruimte te hebben. Lawaai is erger dan de evt iets hogere temperatuur.

Daarnaast: hoe kunt je nou 2 engineers fulltime rond hebben lopen om kabels te trekken en racks dicht te maken?!? Kabels trek je toch alleen als je eens een keer een nieuwe server erin hangt of er een verhuist. Hands-on support moet je gewoon remote doen.
Ten eerste lijkt het me niet ARBO technisch verantwoord om je kantoor aan/in de serverruimte te hebben. Lawaai is erger dan de evt iets hogere temperatuur.

Daarnaast: hoe kunt je nou 2 engineers fulltime rond hebben lopen om kabels te trekken en racks dicht te maken?!? Kabels trek je toch alleen als je eens een keer een nieuwe server erin hangt of er een verhuist. Hands-on support moet je gewoon remote doen.
Mooi he, blades met blade switches :) Switch poorten configureren op afstand en de rest is toch al via Glas aangesloten :)
- Niet alles is geschikt voor een blade-infrastructuur.
- Blade-enclosures moeten ook aangesloten worden
- Je vergeet voor het gemak de storage en netwerkcomponenten die ook op de computervloer aanwezig zijn.
Waarom zou je met een constante temperatuur werken. Als de apparatuur tegen 26 graden kan, maar je werknemers niet, waarom dan 24 uur per dag tot 20 graden koelen?

Op het moment dat de werknemers het 20 graden willen hebben, en de servers ook bij 26 prima functioneren, koel je het tussen 9 en 5 tot 20, en de rest van de tijd kan de temperatuur lekker oplopen.

Aangezien personeel maximaal 40 uur per week regulier onderhoudt uitvoert, zijn er 128 uur per week over waarin het warmer mag zijn. Dit levert uiteraard niet de besparing uit het artikel op, maar zal wel voor een aanzienlijke besparing zorgen.
Ik heb helaas meerdere keren mee moeten maken dat er een flinke calamiteit is waardoor je flink wat uurtjes in het datacentrum zelf bezig bent en het niet mogelijk is om de server mee te nemen of remote uit te voeren. Een ruimte van 26graden lijkt mij prima werkbaar.

Dynamisch koelen van de ruimte wil je ook niet.
Ik heb helaas meerdere keren mee moeten maken dat er een flinke calamiteit is waardoor je flink wat uurtjes in het datacentrum zelf bezig bent en het niet mogelijk is om de server mee te nemen of remote uit te voeren. Een ruimte van 26graden lijkt mij prima werkbaar.

Dynamisch koelen van de ruimte wil je ook niet.
Ik vraag me af wat voor calamiteit dat is.
Server defect = server er uit, nieuwe er in, is het geen blade, dan ff kabeltjes aanklikken. Minder dan 10 minuten werk.
Disken in Array defect = klik eruit, klik er in.
Switchpoorten die het niet doen = Switch PCB er uit, nieuwe er in. Of switch vervangen.

De rest doe je allemaal Remote, servers spoel je in met RIS, Ghost via bootP, Altiris etc. In een rekencentrum moet je niet klooien, gewoon standaard procedures. En specifieke afconfiguratie doe je op afstand. En ja, je software distributieserver = CLUSTER! :)

O ja, (R)ILO of de Dell tegenhanger is ook mooi handig, BIOS configureren op afstand, ideaal, ook wanneer je server niet meer via ssh of rdp is over te nemen.

[Reactie gewijzigd door Wim-Bart op 23 juli 2024 05:19]

Offtopic, als je werk normaal remote doet aan de andere kant van het land en je moet dan iets gaan doen op servers wat je normaliter niet doet en de zaalbeheerder laat je de servers niet uit het rek halen. heb je weinig keus.

Ik werk voor een groot ICT bedrijf waar de zaalbeheerders meer een ander bedrijf zijn dan collega's. Uiteraard zijn ze wel vriendelijk maar de politiek en regeltjes hebben het zo gevormd dat het tegen je werkt. Daar komt ook nog eens bij dat je begint aan iets wat je even snel gaat fixen en dan uiteindelijk als nog een hele dag duurt. :)
Uiteraard kan je twijfelen of ik dan mijn kennis wel goed heb, maar zonder te freubelen leer je nooit niets nieuws ;)
(en IBM heeft RSA kaarten als iLO/DRAC tegenhanger, en die zijn k*t en instabiel, tenminste wel in die series die wij hebben gehad).
Ik kom zelf 1x soms 2x per week in een datecenter maar ben dan vaak wel de hele dag bezig. 20 graden heb ik nog niet meegemaakt, de 25 wordt vaak wel aangetikt.
Het is niet de meest prettige werkomgeving, maar is zeker nog te doen.
Als je de verhalen van de tweakers.net crew leest over hun server-upgrade-sessies, dan blijkt dat ze toch flink wat tijd doorbrengen bij de apparatuur. Laatste tijd lees je er veel minder over, wellicht een teken dat de kinderziektes er bij de server-setup uit zijn.

Met 37 graden werken is echt niet prettig (is hier een ARBO-richtlijn over die een maximum stelt aan binnen werken met een bepaalde temperatuur?). De tussenoplossing van 26 graden die een aantal keer is genoemd is al een stuk redelijker.
Houden ze dan ook rekening met fans in de machines.
Weet uit metingen dat dat ook al 90W per server kan zijn!
(300W vs 390W)
Maar tot 24/25gr graden koelen met buitenlucht adviseer ik nu al.
Werkt voor de meeste prima en de besparing kun je prima per case uitrekenen en onderbouwen.

[Reactie gewijzigd door raymondw op 23 juli 2024 05:19]

Je bedoelt de voordelen van cold-corridor, en geforceerde luchtstromen door racks heen? (Dus van "voor" naar "achter" toe)

Dat scheelt inderdaad wel in de temperatuur, ikzelf merk dat onze servers minder moeite zelf hoeven te doen om de boel koud te houden, gezien er een behoorlijk druk verschil zit tussen "voor" en "achter". Ik denk zelfs, dat als dit druk verschil nog iets wordt opgevoert, je bij hogere temperaturen in het DC, toch dezelfde temperaturen in je server kunt bereiken!
Klopt, koude en warme straat. Professioneel principe, eigenlijk de enige goede.
Cold corridor gaan nog 1 stapje verder: Sluit de koude straat af met deuren en een plafond (en uiteraard alle lege HE's in de kasten voorzien van blindplaten). Dat is nog weer efficienter dan de "normale" warme/koude paden.

Op dit item kan niet meer gereageerd worden.