Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties

Woensdag opent EvoSwitch een nieuwe hal van zijn datacenter in Haarlem. De hal bestaat uit losse 'blokken', die als zelfstandige datacenters functioneren. Het voordeel daarvan zou zijn dat de capaciteit desgewenst snel kan worden uitgebreid.

Op dit moment is de nieuwe EvoSwitch-hal, met een oppervlakte van 5000 vierkante meter, gevuld met vier modules van zes bij twaalf meter, die elk 32 standaard 46u-serverracks bevatten. In totaal is er ruimte voor 22 modules, zodat het maximale aantal servers in theorie ruim 32.000 stuks bedraagt. De racks moeten echter ook aanvullende systemen als switches en ats-systemen huisvesten, waardoor het aantal servers in de praktijk lager zal uitvallen.

Elke module heeft bekabeling, twee ups-systemen, twee koelsystemen en een eigen blusvoorziening aan boord. "Het zijn eigenlijk kleine datacenters", zegt salesmanager Stijn Grove van EvoSwitch. Door modules te gebruiken, kan de capaciteit van de nieuwe datacenterhal bovendien geleidelijk worden uitgebreid. Ook kan een nieuw geplaatste module worden uitgerust met de nieuwste techniek, zegt Grove. Operationeel directeur Don Leemker geeft toe dat de modulaire opbouw ook een nadeel heeft: "Wanneer alles staat, heb je een beetje meer uitgegeven dan wanneer je op de eerste dag de hele hal had volgebouwd." Desondanks verwacht het bedrijf dat de nieuwe hal binnen enkele jaren volledig gevuld zal zijn.

Verder is de nieuwe hal volgens EvoSwitch erg efficiënt: het bedrijf claimt een pue-coëfficiënt van 1,2. De al bestaande hallen van EvoSwitch, dat in 2007 werd opgericht, zijn met een pue van 1,4 nog wat minder efficiënt. In verouderde datacenters komen ook pue-waarden van meer dan 2 voor.

De modules worden gekoeld met buitenlucht. In de modules wordt verder zoals gebruikelijk gewerkt met warme en koude straten, waarin servers afwisselend met de voorkanten en de achterkanten naar elkaar toe staan om de koeling effectiever te maken.

Moderatie-faq Wijzig weergave

Reacties (43)

Ik snap dat verhaal over die ATS in het filmpje niet helemaal, volgens die man hoef je de server nog maar met ťťn voeding uit te voeren, maar wat nou als die voeding nou de geest geeft? dat voer je toch ook juist daarvoor dubbel uit?
Eigenlijk moet je het completer toepassen.
2 powerfeed A+B in een kast
ATS met A+B met default op A naar servervoeding 1
powerfeed A naar servervoeding 2

Op deze manier belast je je feed A volledig en feed B niet. Voedingfail wordt hiermee opgevangen en powerfeedfail ook. Meegenomen voordeel is dat de niet belaste UPS geen ellende veroorzaakt. Een UPS die voor 50% belast wordt is namelijk 1) inductiever en 2) de powerfactor is lager.
Oh ja, belastingen schatten op je powerstructuur is hiermee ook niet meer nodig, gewoon UPS A uitlezen ;)
nadeel: bij failure van 1 der componenten GELIJK! handelen
Ach die man vergat op te merken "om een uitval van een powerfeed op te vangen".
In mijn ogen is niet alleen ťťn PSU een SPOF maar ook de ATS die de 2 feeds aan die ene PSU aanbied.
Plus een extra apparaat wat stuk kan gaan. ATS stuk, hele kast zonder stroom. Geen idee wat zo'n ATS kost maar zou mijn geld liever steken in dubbele voedingen.
Vind het nog altijd maar gek dat ze nog steeds geen verticale servers hebben, warmte trekt altijd nog naar boven, nu hoopt die warmte de server boven zich op en zo door, lijkt mij dat daar nog wel wat winst te behalen is ;)
dan zouden alle racks dwars moeten zijn
en servercases ook
Evoswitch is een super datacenter, ik hang er zelf ook met eigen servers, EvoSwitch probeer alle energie zo nuttig mogelijk te besteden.

racken dwars zetten enzovoort is geen optie, dit is niet zo gunstig voor de servers en hardeschijven zelf..

In de datahallen word gebruik gemaakt, van een Col-Air-Corridor, dit is een hal tussen de 2 wanden met servers in, hier is het heerlijk koel, de servers moeten zelf doormiddel van de ventilatoren de koude lucht uit de holle vloer trekken, en je kunt nagaan als er 100en servers hangen dat het er best tocht... (onze server was echt zeer koel, optimaal gekoeld, processor koelblok word naar volle belasting niet eens warm)
aan de andere kant (waar de server beheerders rond lopen) blazen de servers de warme lucht eruit.. deze lucht word afgezogen en word door EvoSwitch weer effeicient gebruikt, zo gebruiken ze deze lucht om de CV installaties van warmte te voorzien, (een soort CV-ketel dus...)

EvoSwitch heeft enkele zeer zware diesel generatoren voor de deur staan, deze moeten bij het uitvallen van de stroom het hele datacenter minstens 48 uur online kunnen houden..

2 woorden,, Top Datacenter!!

p.s. Hyves heeft haar servers hier ook gevestigd, en de cache servers van Wikipedia hangen hier ook, (1 rij naast onze servers :P)
Vrijwel elk datacentrum heeft tegenwoordig Cold-Corridors, en Hyves en Wikipedia hangen bijvoorbeeld ook in Easynet en zo nog een paar centra. Nothing special dus.
En zonder diesel generatoren heeft een datacentrum geen bestaansrecht.

Niet dat EvoSwitch geen goed datacetrum is hoor!, maar ze zijn vrij standaard uitgerust en helemaal niet zo speciaal.
Vrijwel elk datacentrum heeft tegenwoordig Cold-Corridors
Niet helemaal. Vrijwel elk datacenter heeft hot en cold isles. Cold-corridor gaat iets verder door de cold isle volledig af te sluiten van de hot isle. Dat vind je steeds meer, maar de oudere DC's hebben 't niet.
Het valt wel heel erg mee met warmte. De fans van zo'n server zelf trekt er heel snel lucht doorheen. Dan beschik je ook nog eens over een airco unit die lucht in de ruimte rond blaast doormiddel van je verhoogde vloer of een ander systeem. En zit er in het rack zelf meestal ook nog in de bovenkant een fan voor afvoer.

Zo warm wordt het niet.
Deze modules zijn in 2009 in het SmartDC datacenter in Rotterdam opgebouwd. De modules hebben wel een verhoogde vloer maar deze is niet bedoeld voor de koeling. De koeling staat namelijk boven de servers.

Zowel de koude als warme gang zijn afgesloten:
- in de koude gang wordt koele lucht aangeblazen
- deze gaat met hoge snelheid door de servers
- de warme lucht wordt aan de achterkant van de servers afgezogen

De airco staat dus heel dicht bij de servers en dit verhoogt de efficiency enorm. Ook het afsluiten van zowel de koude als warme gang helpt hierin mee. De PUE is dan ook heel laag met dit bouw concept.
Zie www.smartdc.net voor informatie hierover.

De servers hoeven verder niet verticaal in het rack als het rack 100% gevuld wordt met apparatuur. Zolang er geen "stilstaande" lucht in de racks is, is alles goed. De doorvoer snelheid van de lucht is ook te hoog om warmte ophoping te krijgen. Met een standaard, niet high-density datacenter, is dat moeilijker omdat daar een grote ruimte koel moet worden gehouden en er beperkte luchtdoorvoer onder de vloer mogelijk is.
Betreft koeling via de verhoogde vloer was een voorbeeld zoals ik ook omschrijf he ;)
Verhaal van de gescheiden gangen ben ik inderdaad bekend mee.

En mocht een rek niet 100% gevuld zijn: Blind panels. Die zijn er niet om je rack op te fleuren :+

Lucht kiest uiteindelijk voor de makkelijkste weg, bijvoorbeeld een opening waar geen apparatuur is geplaatst. Door dit af te dichten verspreid je de lucht over alle mogelijkheden.

Stel:
De lucht wordt van onder omhoog geblazen en je hebt in het midden van je rack een open gat, dan zal de lucht eerder door dat gat heen gaan dan alle servers die boven dat gat zitten.
Je hebt wel blade servers. Die hangen dan nog weer wel in een horizontale 'server'.
Volgens mij is dit een ontzettend dure oplossing.
Nog steeds een stuk goedkoper dan een traditioneel datacenter.
Door dat we zeer efficient omgaan met stroom kunnen we juist een hele scherpe aanbieding doen. We kunnen al racks aanbieden voor rond de 450 euro inclusief stroom. Dus zeker geen dure oplossing.
En hoeveel amps hebben we het dan over...?
Als de klant wil betalen voor een eigen module. Dan komen ze wel. Dit is niet zomaar gedaan. Dit soort bedrijven denken die maanden van te voren al uit.

Een tweaker vervangt de hardware in delen. Mij pa haalt een hele computer bij de aldi.
Niemand zei dat het goedkoop is. Maar het is voorname heel handig en inderdaad mee gaan met de toekomst. Mogelijkheden om verschillende koeling/apparatuur etc in verschillende modules te gebruiken. Ga zo maar door
Dus ze hebben nu een lege hal op 4 modules na? Rendementvol is anders, maar wel handig voor bedrijfsfeestjes zullen we maar zeggen :p
De andere 3 hallen staan zo goed als vol.
Dus ze hebben geld zat:)
naja, verwarmen hoef je het niet, en voor de rest is het alleen groei-ruimte, dus ik denk niet dat het bedrijf er echt minder efficiŽnt van wordt, met die extra ruimte.
Ze hoeven dus daar ook niet te koelen. Of racks voor in te kopen. Dat gebeurd naarmate je groeit. Blijft een stuk goedkoper dan een hele hal bouwen met alle koeling/ups/power/etc al op zijn plaats.
Die modules heeft i3D ook in zijn nieuwe datacenter (SmartDC) in Rotterdam. Zou alleen niet durven zeggen of de blusmiddelen ook per module geregeld zijn. Zo kan je heel erg snel schakelen, mooie oplossing.
Ja ook blusmiddelen per module:)

[Reactie gewijzigd door xares op 13 april 2011 17:23]

Klopt, dit zijn dezelfde datacenter suites. SmartDC zet dit in de markt als een datacenter in datacenter concept. Daarbij kan een bedrijf een eigen operationeel datacenter bouwen binnen het SmartDC datacenter. Voordelen zijn legio, onder andere eigen koeling, blussing, security, power infrastructuur.

[Reactie gewijzigd door Stewie! op 13 april 2011 17:30]

nou daar is wel aangedacht, vaak zie je dat in de racks ventilatoren geplaatst zijn die de warme lucht netjes bij de servers vandaan geleiden naar boven dan wel niet opzij.
De servers moeten natuurlijk niet te warm worden, maar een constante temperatuur is ook erg belangrijk.

[Reactie gewijzigd door Peaky op 13 april 2011 17:14]

De lucht wordt geforceerd aangeboden en afgezogen voor optimale airflow.
De fans in een server trekken zoveel lucht door de kast, met natuurlijke convectie ga je dat nooit redden met koeling. Daarnaast is de ruimte natuurlijk makkelijker in te delen met horizontaal gestapelde servers.
Best wel handig bedacht.

Maar lijkt me beetje het idee van een Google Datacenter, waar de datacenters ook in modules zijn opgebouwd, maar daar zijn ze dan echt in zeecontainers gegooid.
Dit is JUIST goedkoper.
De kosten om de boel 100% te houden zijn lager, het is snel aangepast of uitgebreid.
volledig aan te passen aan de eisen van de klant.

Het is niet voor niets dat de grote jongens in de IT wereld dit doen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True