Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: InfoWorld

De afgelopen tijd zijn binnen de IT-wereld steeds meer stemmen gaan klinken die oproepen om 'iets' te doen aan de alsmaar stijgende energiekosten van datacenters. Een van de oplossingen waarnaar gekeken wordt, is het ontwikkelen van energiezuinigere hardware, zoals cpu's en chipsets, en configuraties, zoals SAN's en bladeservers. Een optie waar pas recent meer interesse voor is gekomen in de zoektocht om energie te besparen, is het gebruik van virtualisatie. Vroeger was het zo dat virtualisatie vooral gebruikt werd om te besparen op kosten: hardware was nog erg duur en het neerzetten van een extra server was een kostbare zaak. Inmiddels is hardware relatief goedkoop geworden en virtualisatie enigszins uit de gratie geraakt. Het gebruik van meerdere virtuele servers of desktops op één fysieke computer zorgt er echter voor dat relatief gezien minder energie verbruikt wordt doordat per saldo minder fysieke hardware gebruikt wordt. Daarnaast biedt virtualisatie ook andere voordelen op bijvoorbeeld het gebied van flexibiliteit en beheerbaarheid, waardoor de techniek langzamerhand weer meer gebruikt wordt door voornamelijk serverbeheerders.

Moderatie-faq Wijzig weergave

Reacties (45)

Alleen al 12V/5V/3V leveren zodat de afhankelijkheid van een voeding verdwijnt, zou al een leuke verbetering van rendement zijn!

Nog minder kans dat de zooi kapot gaat ook, en je zou met zekeringen de ingewanden van de servers kunnen beveiligen.
Ja, dan worden de kabels die nu in de datacentra lopen zo'n 20x dikker en gaat 10% van de energie in de kabel verloren (iets met R=U/I). Bovendien moet de lijn aan het eind toch opnieuw gestabiliseerd en gezekerd worden, omdat anders je hele serverpark gefrituurd wordt als er in die ene trafo iets fout gaat.
Als toepassing in een compleet datacenter is het inderdaad niet zo'n goed idee, aangezien je dan een laag voltage over grote afstand moet vervoeren.
De formule die je dan moet aanhalen is P=I^2 * R, oftewel vermogens verlies neemt kwadratisch toe met de stroom en die is hoog bij lage voltages.

Maar voor korte afstanden, zoals in een rack is het eigenlijk helemaal niet zo'n gekke oplossing. Gewoon dikke rails aan de achterkant van het rack waar de servers op geprikt worden.
Dan heb je maar 1 voeding nodig voor een heel rack en die kun je dan zo efficient mogelijk maken, omdat de kostprijs daarvan best iets hoger mag liggen.
Dat bestaat al, Blade servers.

de voeding, en koeling in één doos, waarin je dat vele broodjes met cpu + hd kunt schuiven.

http://h18004.www1.hp.com...omponents/components.html
Dat bestaat al, Blade servers.

de voeding, en koeling in één doos, waarin je dat vele broodjes met cpu + hd kunt schuiven.
en voor de huidge datacentra onmogelijk te koelen
Er zijn goedkopere duurzame energie althernatieven, zoals directe zonne-energie met volt-boosters. De aanschaf kost alleen veel geld.
Wat denk je dat de productie van zonnecellen kost aan energie?
Die dingen zijn eigenlijk alleen maar interessant op plekken waar de zon veel schijnt en het vrij duur is om energie heen te transporteren.
Dat heb je dan toch verkeerd begrepen, een zonnepaneel levert binnen 1 tot 3 jaar de energie die benodigd was voor z'n eigen fabricage.

Verder wekt een gemiddeld zonnepaneel tijdens zijn levensduur 9 tot 17 keer zoveel energie op als dat zijn eigen fabricage gekost heeft.

Daar zit hem dus het probleem niet. Het is meer dat reguliere stroom nog te 'goedkoop' is, zodat het puur economisch gezien vaak voordeliger is om gewoon grijze stroom te blijven gebruiken.
Om eerlijk te zijn is virtualisatie al weer een tijdje "hot"
Ik ben er mijn scriptie over aan het schrijven.
Je weet half niet hoe redundant je een virtueel serverpark kunt maken.
Blades waar virtuele servers op draaien, en als zo'n machine wegvalt neemt een andere blade automatisch de machine over. Je merkt er niks van.

De compatibilteit is , dat alle vm's hetzelfde zijn. Je kunt dus middels images de servers kopieren en installeren.

Je kunt dus erg efficient je beschikbare servers indelen, met dus beheerskostenbesparing, kostenbesparing en stroombesparing tot resultaat.
maar als je meerdere virtuele servers of desktops gebruikt lever je wel meer in op redundancy en dat is meestal één van de redenen om meerdere servers te gebruiken

edit: kijk naar het voorbeeld van memphis en de reactie van Heineken01
Je moest eens weten hoe het in sommige bedrijven te werk gaat, die zetten met gemak een server neer voor een simpele database voor een afdeling van 10 personen. Als je 20 van zulke afdelingen hebt kan je prima 10 virtuele servers op 1 draaien.
nadeel is dan alleen dat als de hardware kapot gaat iedereen niks kan doen ;(
ja alleen is er weer een voordeel dat je elk van deze instances gewoon op een andere server kunt deployen, en mocht je 2 servers of meer hebben ze gewoon transparant van server naar server kunt laten hoppen,..

Stel je hebt 10 servers, eentje gaat down == een afdeling opnieuw reinstallen.

Of je hebt 3 servers, eentje gaat down, de virtuele services (die niet hardware afhankelijk zijn), kunnen zo op een andere server draaien. == geen afdeling down.
Mogelijk welkom in de wereld van clustering?

Zoals memphis aangeeft kan je een redelijk besparing aan hardware genereren door meerdere applicaties (of in zijn voorbeeld databases) op 1 server te laten draaien.

Van die besparing kan je mooi een 2e server kopen, geclusterd eraan hangen en klaar. Gaat er 1 kapot, dan loopt de volgende zonder problemen verder en als het allemaal meezit, heeft Dell/IBM/HP de defecte machine binnen een dag gerepareerd.
hehe als het goed is wel, omdat elk stukje hardware on-the-fly vervangen kan worden ;) En je hebt redundantie!
Daar ben ik het niet helemaal mee eens... Je kan kiezen voor meer redundante hardware, waardoor alle instances van je OS of applicatie gezien de hardware juist meer redundant is dan op 1 enkele server...
Wel afhankelijk van wat voor virtualisatie natuurlijk, Zones in Solaris 10, VMware, VIO op pSeries, of appl. virtualisatie..

Omdat je de sizing tot zeer kleine hoeveelheden kan bepalen, is het veel makkelijker om voor redundante hardware te kiezen, omdat je het veel effectiever kan gebruiken...
In theorie is het veel makkelijker om een virtuele server te mirroren. De onderliggende hardware is namelijk gevirtualiseerd, waardoor je redelijk makkelijk de virtuele server ricthing een andere machine met compleet andere hardware kan verplaatsen. Zelf heb ik op mijn machine VMWare Server Beta 3 draaien. Hieronder heb ik een virtuele machine voor Windows XP en een voor Linux aangemaakt. Ik kan dus niet alleen Windows XP en Linux tegelijkertijd draaien, ik kan de virtuele servers ook naar een andere machine verplaatsen, zonder dat ik maar iets hoef te veranderen in de virtuele machine. Als een machine waarop een aantal virtuele servers staan dus stuk gaan, kun je ze zonder veel problemen binnen een mum van tijd op een andere machine opstarten.

Nu stel je het volgende scenario voor. Je hebt een server die webpages serveert en een server die mySQL, waarvan de gegevens door de webserver gebruikt worden, draait. Als een van servers stuk gaat, kun je dus niets meer. Echter, zou je op beide servers een virtuele server voor het web, en een virtuele server voor mySQL draaien, dan heb je meteen dus een stukje redundantie. Als namelijk een virtuele server uitvalt, is er immers nog de andere die op een andere machine draait. Gaat de hardware stuk, dan kun je ook gewoon doordraaien. Virtualisatie kan dus ook tot een betere redudantie leiden.

Ter info, mijn hoofdbak is een Athlon 64 X2 3800+ in combinatie met een ASRock 939Dual Sata2 moederbord. Mijn andere machine is een Athlon XP-M 2400+ met een nForce 2 moederbord.
maar als je meerdere virtuele servers of desktops gebruikt lever je wel meer in op redundancy en dat is meestal één van de redenen om meerdere servers te gebruiken
als je redundantie wilt, kan dat echter ook. Bij Vmware hebben ze daar virtua-center en vmotion voor. Gaat er een machine plat die virtuals host, dan worden de draaidende virtuele machines verplaatst naar een andere machine.

Virtualisatie is dan ook zeer geschikt voor sommige bedrijven, maar voor bedrijven met 1 server niet.
Inleveren op redundancy? Boot from SAN -> Valt een server uit, schuif een nieuwe in het rack, booten en klaar...
[...]lever je wel meer in op redundancy en dat is meestal één van de redenen om meerdere servers te gebruiken
Je moet geen concessies doen op je redundancy, maar kijken hoe je efficienter met het energieverbruik kan omgaan.
Er zijn ook veel bedrijven die zeggen voor "die-en-die-applicatie wil ik een aparte server" terwijl dit vaak niet eens noodzakelijk is.
Gebruik maken van clusters is geen vreemde in dit soort omgevingen.
Clusters moet je dan ook blijven gebruiken! (en wel op verschillende fysieke hardware!)
Alleen door het samenvoegen (virtualisatie) kan je veel onnodige hardware overhead over de schutting gooien, en daarmee bespaar je vervolgens ook weer de nodige energie.
Voorbeeld:
Applicatie xyz, 1 systeem, min. 1,5 GB RAM, 35 GB opslag voor OS, Appl en data (groei ca. 7% per jaar)
Wat wordt er besteld? Xeon, Opteron, ...? met 4 GB mem. (kost toch al niet zoveel meer) en 2*72GB (als het al niet meer is)
Wat wordt er gebruikt?
< 30% cpu
1,5 - 2 GB memory
~ 43 GB na 3 jaar
Systeem is dan afgeschreven, van de CPU is 70% onbenut gebleven, mem 50% en van de disken ruim 65% onbenut.
Dit alles vraagt wel stroom, en de vrij gebleven resources hadden uitstekend elders voor gebruikt kunnen worden.
Verder hebben we dan nog zaken als netwerkaansluitingen waarvoor ook extra switch-capaciteit voor nodig is die ook weer stroom verbruiken.
Al dit stroomverbuik bij elkaar produceert ook nog de nodige warmte die vervolgens ook nog gekoeld moet worden!
2 virtuele servers op 2 machines waar 10 virtuele machines op draaien is beter redundant dan 1 fysieke server.
banken draaien al een aantal jaar virtueel met bepaalde hardware. sterker nog mocht een server kapot gaan kun je een server compleet binnen 2-4 uur weer draaiende krijgen op basis van de laatste image. tis goedkoper en sneller weer de lucht in te krijgen dan de ouderwetse aanpak.
2-4 uur is nog best wel lang IMHO.
Als je kijkt naar de virtualisatie van pakketten als Virtuozo van SW-soft (de makers van Plesk), daarmee kun je in de tijd van seconden tot mischien minuten gewoon switchen naar een andere hardware-node.
Zou je de image van je virtuele omgeving niet gewoon op een SAN kunnne zeten?

Zo zou je bij een crash van machine A de virtuele omgeving toch binnen enkele minuten weer op machine B weer up moeten kunnen krijgen (omgeving mounten binnen machine B )?
Dat banken virtuele servers draaien is logisch immers het meeste geld dat ze beheren is ook virtueel.

Maar ontopic, 2-4 uur is dat niet ongelooflijk lang? Als je een image van je virtuele server hebt dan verschuif je die toch naar een ander stuk hardware en zou je server binnen 2 tot 4 minuten weer op kunnen zijn.
Relatief gezien kan het energie gebruik hiermee positief worden beinvloed (voornamelijk in de term van prestatie per watt lijkt me), maar op een ander aspect brengt de virtualisatie weer enorme problemen met zich mee.

Bladeservers en andere apparatuur brengt per cm2 een dusdanige warmte ontwikkeling met zich mee, dat de traditionele luchtkoelingstechnieken het punt bereiken waar deze niet meer in staat is om al deze warmte ontwikkeling voldoende af te kunnen voeren. Vaak zijn de datacenters uitgerust met koeling waarbij b.v 2000 watt per m2 gekoeld kan worden. Echter, met de voortdurende verkleining van apparatuur wordt er steeds vaker een overschrijding van dit vermogen per m2 geconstateerd, wat resulteert in het niet volledig kunnen benutten van een rack in het datacenter, puur omdat bij volledige opvulling er te weinig koelvermogen voorhanden is.
Er zijn hiervoor natuurlijk wel technieken om dit efficienter te kunnen laten verlopen, zoals het in het artikel genoemde hot-aisle/cold aisle, evt. hotspot koeling, en waterkoeling.
Dan krijg je nog dat er een probleem ontstaat, niet op het afvoeren van de warmtelast, maar op de toevoer van energie.
Als ik kijk naar een toch wel recentelijk gebouwd datacenter, en men hier per kast 2 onafhankelijke stroomcircuits aanvoert (2x 16 ampere) ter redundantie, en dit inmiddels zover is dat ze per kast ipv redundant, afhankelijk van beide circuits zijn omdat er anders te weinig vermogen beschikbaar is om de kasten volledig te kunnen voorzien van prik.
Dan kan je raden dat door betere benutting van relatief minder hardware, het vermogen per gebruikt oppervlak stijgt, en dit dus op andere punten weer problemen met zich mee brengt. Het virtualiseren is dus wat dat betreft niet zaligmakend als oplossing, en legt de problemen weer elders neer.
Het is inderdaad een verschuiving van het probleem, maar eigenlijk ook een combinatie van 2 wensen van een datacenter.
1) een zo laag mogelijk energieverbruik per prestatie
2) zoveel mogelijk verwerkingskracht per m^2.

Door virtualisatie voldoe je aan punt 1, of aan punt 2. Terwijl je eigenlijk aan beide punten zou willen voldoen.

Door virtualisatie kun je dus in feite toe met minder hardware, maar in de praktijk is er nog steeds vraag naar serverruimte, dus zullen racks niet minder gevuld worden, terwijl de machines wel zwaarder belast worden.

Een ander voordeel wat we in de (nabije) toekomst zullen gaan zien is dat ook de servers de functionaliteit meer zullen spreiden.
Op die manier krijg je een betere verdeling van de belasting in het rack en kun je ook beter de koeling regelen.

Kortom om de virtualisatie effectief te maken moet er inderdaad meer gebeuren, maar het is een goed begin.
>Sundead
2x 16 Ampère is wel erg weinig, als je bedenkt dat 1 bladecenter (in dit geval van Intel) al 4 voedingen heeft, die elk een 16A aansluiting nodig hebben.

Je kunt dan in de praktijk 2 voedingen op 1 16A zekering aansluiten.

Als je zo'n bladecenter helemaal gevuld hebt met blades, wordt er welliswaar (bij ons) maar 1100 watt per 2 voedingen getrokken, terwijl een voeding 2000 watt kan leveren. Dus 4000 watt trekt de groep niet, maar 2x 1100 = 2200 watt weer wel.

Dus per bladecenter zeg maar 2 groepen. 4 Bladecenters maximaal in een 42h kast = 8 groepen!
Overigens zijn gevulde bladecenters zwaar, wat bij ons weer maximaal 3 centers per kast toestaat...

Maar het voordeel is wel dat er bijelkaar gezien (veel) minder stroom, ruimte en warmte gebruikt wordt.
(alleen wel oordoppen indoen, het maakt nogal herrie:-))
Door gebruik te maken van Virtuele servers zal er misschien wel wat stroom bespaard worden maar of het echt de kosten drukt valt nog te betwijfelen.

Doorgaans zal de hardware waar deze servers op draaien vele malen krachtiger moeten zijn dan servers met een enkel OS, verder zijn ook de beheerkosten hoger en betaal je ook voor de licenties de volle mep (er is niet zoiets als een virtual server licenense voor een lagere prijs)
Daarnaast kost ook de software (zoals VMware ESX) een vermogen.
Bovendien heeft een eventuele hardwarestoring een veel grotere impact op de continuiteit van de geleverde services (één fysieke machine down betekend meerdere virtual servers down)

Het enige voordeel wat ik zie is dat je snel testomgevingen kan creeren.
Nee dan zie ik persoonlijk toch meer heil in het gebruik van bladeservers.
Door gebruik te maken van Virtuele servers zal er misschien wel wat stroom bespaard worden maar of het echt de kosten drukt valt nog te betwijfelen.
Ja, toch wel. We hebben een live-netwerk en een testnetwerk, allebei bestaande uit 12 servers. Binnenkort is het live-netwerk volledig vervangen, de oude hardware gaat ingezet worden in het testnetwerk. Maar er komen maar 6 servers terug in het testnetwerk, de overige 6 worden gevirtualiseerd. Simpel voorbeeld, met behoorlijke gevolgen.

Maar om je live-netwerk te virtualiseren ben ik wat huiverig voor: het uitvallen van 1 server kan dan enorme gevolgen hebben (zoals Heiniken01 al aangaf). Redundantie is dan inderdaad het sleutelwoord: snel kunnen schakelen naar andere hardware m.b.v. images.

Doorgaans zal de hardware waar deze servers op draaien vele malen krachtiger moeten zijn dan servers met een enkel OS, verder zijn ook de beheerkosten hoger en betaal je ook voor de licenties de volle mep
Je "verdient" geld, doordat je minder hardware aan hoeft te schaffen. Deze moet inderdaad krachtiger zijn (meer geheugen, misschien ook meer processoren), maar daar valt overheen te komen doordat je minder servers hoeft aan te schaffen.
Minder servers betekent minder onderhoud: in plaats van een patch op 10 servers te moeten installeren, installeer je deze op (bijvoorbeeld) 4 servers. Dus minder downtime en minder tijd kwijt voor de systeembeheerder. De OS kosten blijven inderdaad gelijk, daar valt geen winst te behalen.

Nee dan zie ik persoonlijk toch meer heil in het gebruik van bladeservers.
Een bladeserver-omgeving in combinatie met virtualisatie en redundantie klinkt op het moment toch als ideaal, imho. Weinig servers, makkelijk uitbreidbaar en vervangbaar, bij het crashen van een blade verplaats je de productie naar een andere blade m.b.v. images, terwijl je door de virtualisatie minder blades nodig hebt als wanneer je alle servers fysiek in huis zou moeten hebben...
Een voordeel dat nog niet genoemd is: de hardware onder een gevirtualiseerde omgeving veroudert veel minder. Als een standalone server de last niet meer trekt, kan je hem met een beetje geluk misschien nog ergens voor iets minder veeleisends gebruiken. Als een virtuele machine begint te hijgen geef je hem gewoon een grotere hap uit de hardware.
Het stroomverbruik is o.a. erg afhankelijk van hoe de servers worden ingezet en belast. Daarnaast wordt vaak vergeten dat het aantal KVA/m2 een zekere warmtelast (BTU) veroorzaakt, die nog meer energie vraagt, dus in die zin begrijp ik de redenering wel, want je hebt minder KVA nodig, doordat je ook minder hardware neerzet.

Daarnaast vind ik het (nogal) raar dat blades worden aangekaart als energie besparend......de nieuwste modellen hebben 4 aansluitingen van 32A....Dat is best veel, aangezien een gemiddelde DLT380 rond de 2~3A vraagt.

Nee ik ben niet overtuigd, virtualisatie is meer een flexibile oplossing voor beheer en niet kostenbesparend op energie.....
Blades trekken best veel, maar hoeveel losse servers zou je nodig hebben om hetzelfde werk te doen, wanneer je geen virtualisatie zou gebruiken?
Uiteraard verschilt dat nogal per toepassing en het verschil in belasting tussen piek-momenten en dal periodes.
Maar ik denk dat je zelfs met wat energievreters kunt besparen.
Het gebruik van meerdere virtuele servers of desktops op één fysieke computer zorgt er echter voor dat relatief gezien minder energie verbruikt wordt doordat per saldo minder fysieke hardware gebruikt wordt.
Verbaasd me dat ze het alleen over "relatief gezien" minder energie hebben. Doordat er minder servers zijn, zou je al verwachten dat er minder energie gebruikt wordt.
Daarnaast daalt het energiegebruik ook nog eens, doordat de airco's van de datacenters minder hard hoeven te draaien: minder fysieke servers betekent ook minder warmteafgifte...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True