Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties

Bedrijven zijn in de afgelopen jaren nauwelijks meer gebruik gaan maken van virtualisatie, zodat datacenters onnodig inefficiŽnt zouden worden gebruikt. Ook Nederlandse en Belgische bedrijven scoren matig met hun datacenter-efficiency.

Dit concludeert Oracle op basis van een eigen onderzoek onder bijna duizend bedrijven met een omzet van 100 miljoen dollar of meer. Uit het onderzoek blijkt dat Nederland en België geen hoogvliegers zijn met de ontwikkeling van datacenters en de inzet van geavanceerde technologie.

Oracle heeft de resultaten van zijn onderzoek vertaald in een indexcijfer, waarnaar de fabrikant refereert als de Oracle Next Generation Datacenter Index. Deze index geeft volgens de fabrikant een indicatie van de voortgang van organisaties met de ontwikkeling van hun datacenters door de inzet van geavanceerde technologie.

Gemiddeld scoren de ondervraagde bedrijven 5,28 op een schaal van nul tot tien. De Benelux behoort met een score van 5,64 tot de middenmoot. Duitsland en Zwitserland scoren met een 6,09 het hoogst, terwijl ook Scandinavië met een 5,95 relatief hoog scoort. Achterblijvers ten opzichte de gemiddelde score van 5,28 zijn Spanje en Portugal (4,73), Italië (4,50) en het Midden-Oosten (4,41). Europa scoort met 5,32 punten iets lager dan de VS (5,79).

Volgens Martien Ouwens, principle solutions architect bij Oracle Nederland, blijkt uit het onderzoek van zijn bedrijf dat ondernemingen in de afgelopen jaren amper meer gebruik zijn gaan maken van virtualisatie. "Virtualisatie wordt al snel bestempeld als verouderde technologie, maar is dat zeker niet. Tweederde van de bedrijven heeft bijvoorbeeld minder dan de helft van zijn systemen gevirtualiseerd, terwijl slechts 15 procent meer dan 70 procent van de runtime omgeving virtualiseert. Het gemiddelde gebruik van virtualisatie is ten opzichte van 2003 echter nauwelijks toegenomen."

De ict-architectuur van veel bedrijven is in de afgelopen jaren volgens Ouwens in rap tempo complexer geworden, terwijl de datacenters niet mee zijn ontwikkeld. "Veel onderdelen in datacenters zijn verouderd, waardoor bijvoorbeeld realtime-toezicht op het stroomverbruik in veel gevallen niet mogelijk is. Ook is het lastig om de koelstructuur van een bestaand datacenter aan te passen, waardoor koeling niet hoog op de agenda staat."

Juist door op de koeling te letten kan echter fors worden bespaard, stelt Ouwens. "Door de temperatuur in het datacenter een graadje hoger te zetten, kan al flink worden bespaard. Hoe lager de temperatuur moet zijn, hoe harder de systemen moeten werken om te koelen. Ook hebben veel bedrijven geen realtime-inzicht in hun stroomverbruik en datacentertemperaturen. Slechts 11 procent houdt actief toezicht op de workload, het stroomverbruik en de temperatuur."

Uit het onderzoek van Oracle blijkt dat veel bedrijven behoefte hebben aan een nieuw datacenter. Ongeveer de helft van de ondervraagde respondenten zegt binnen twee jaar een nieuw datacenter nodig te hebben; 7 procent heeft dat nu al nodig.

Overigens heeft het leeuwendeel van de ondervraagde bedrijven (39 procent) een eigen datacenter binnen de bedrijfsmuren. 24 procent beschikt over een enkel intern datacenter, maar gebruikt ook een externe colo. Een vijfde van de bedrijven zegt meer dan één intern datacenter te hebben, terwijl nog eens 17 procent zowel eigen datacenters als colo-faciliteiten inzet.

Moderatie-faq Wijzig weergave

Reacties (29)

Dat vind ik nog eens een bijzonder onderzoek.. De reden dat veel bedrijven en instellingen hun Oracle-omgeving nog niet gevirtualiseerd hebben is omdat Oracle zijn licenties daar niet op ingericht heeft (je moet dan een licentie aanschaffen voor al je servers (hosts) in plaats van alleen je oracle-server (guest)). Zij zijn daarom wat mij betreft wel de laatsten die daar iets over mogen zeggen.
Inderdaad, wat wij dus ook gedaan hebben is een virtuele Oracle farm gebouwd. Een stuk of 20 blade servers (het aantal schommelt een beetje dankzij de processoren die steeds meer cores per socket bieden) met elk 2 sockets en quad of hexa cores (binnen kort octo cores), en daar dan een Oralce licentie op. Dan draai je daar op de kleinste systemen een 10 tot 12 tal virtuele processoren en op en hop je kunt geld besparen op de kosten per CPU licentie.
Nu werkt dat natuurlijk alleen als je ook zo veel relatief kleine databases hebt, en die hebben we in overvloed (niet zo blij mee maar dat is een ander verhaal)

Oracle virtualiseren kan best alleen moet je dan wel groot genoeg zijn om ook echt voordeel te halen uit zo'n setup... Daar naast moet je het aandurven om zo af en toe net even tragere responses te hebben dan op een fysieke machine mogelijk zou zijn omdat je nu eenmaal een kleine over subscription hebt wat betreft het aantal virtuele processoren in verhouding tot de fysieke processors.

De manier om efficiŽntie te meten die Oracle hier gebruikt is inderdaad weer een nieuwe en ik heb geen idee hoe deze is opgebouwd maar als ik de Oracle jongens en af en toe ook meisjes een beetje ken dan doelen ze op een opstelling zo als hier boven beschreven. In veel gevallen blijft de TDP van een processor gelijk als je meer cores per socket hebt terwijl je wel meer virtuele processors kunt draaien op deze cores en je dus ook je energie gebruik per transactie flink kunt terug schroeven.

De reden dat er zo veel verschillenden maatstaven zijn en er steeds nieuwe uitgevonden worden is omdat er zo veel verschillende methode zijn om de efficiŽntie te verbeteren en de meeste methode of wel te generiek zijn om de optimalisaties te tonen dan wel te specifiek zijn om deze mee te nemen in hun resultaten.

Ik denk als ik eerlijk moet zijn dat in veel gevallen Oracle's model helemaal zo gek nog niet is alleen praten we dan wel over een andere schaal grote dan het MKB, maar bedrijven die meer dan 100M omzet draaien horen daar ook niet meer echt bij. En voor Oracle is er nu eenmaal heel veel meer geld te verdienen bij deze grote bedrijven dan binnen het MKB, je moet ongeveer even hard werken om een licentie te verkopen aan een MKB bedrijf als aan een bedrijf dat 100M aan omzet genereert per jaar. Het verschil is dat een groot bedrijf veel al niet om een licentie voor maar 2 cores vraagt maar al snel met een verzoek komt voor een licentie waar +20 cores gebruikt kunnen worden...
Punt is wel dat als je oracle op deze wijze virtualiseert, je theoretisch geen performance meer overhoud vanwege de lage I/O die je onder Intel krijgt van de verschillende hypervisors. Hebben jullie daar ook al eens metingen over gedaan?
Ik kan je geen harde cijfers geven, maar de storage performantie valt tegenwoordig wel mee.
Wel moet je de volumes voor de oracle databases dan rechtstreeks aanbieden aan de guests (RDM of NFS) en niet via vmdk's.

Ik zou het nog steeds niet gebruiken voor een datawarehouse, maar voor veel andere databases is virtualisatie eventueel een mogelijkheid.
Heel mooi voorbeeld. In veel gevallen waar virtualisatie als voordeel wordt berekend worden gemaks-halve wat licentie kosten links en rechts 'vergeten'. De kosten van virtualisatie die veel ict-budget-bewaarders zien zijn de hardware kosten en de licentie kosten van de os-en en de virtualisatie software.

Waar 5 jaar geleden het adagio was: "Maak een virtueel systeem voor elk apart systeem" is het nu weer "zo veel mogelijk op 1 machine schoenlepelen'. Waarom immers virtualisatie & 4 os-en en 4 database licenties om 4 databases te draaien waar je met 1 os en 1 database licentie ook goed 4 databases kan draaien. Scheelt de licenties en de os-overhead op de zelfde hardware.
Eigenlijk is de regel: min(aantal servers, aantal guests) * max aantal cpu's in een server.
Als je 1 enkele oracle guest hebt en 5 servers, dan moet je maar 1 server licentiŽren.
Wel moet je alle cpu's in die server licentieren, niet enkel de toegewezen cpu's.

Binnen Oracle VM, kan je ook logical sub clusters aanmaken en dan mag je per subcluster rekenen. Ook is het mogelijk om binnen OVM te werken met cpu pinning, waardoor je enkel de effectief toegewezen cpu's (cores) moet licentiŽren.
(maar dan verlies je wel vrijwel alle flexibiliteit).

Bottom line blijft wel dat met virtualisatie je vrijwel altijd meer zult betalen voor je oracle licenties. Tenzij je een dedicated grid maakt voor Oracle, of in bepaalde gevallen als je kunt werken met NUP (named user licenties).
Tadaa.. En daar komt Oracle exadata om de hoek kijken.. Dit is dus de hele strategie.. Verlaag eerst de waarde van alles om je heen zodat je een moment later je eigen product naar voren kan schuiven.. Als je daar eenmaal aan Exadata vast zit (en dat kom je gegarandeerd te zitten als je deze kant opgaat) verhogen ze de prijzen en is het cirkeltje rond!
Misschien is het juist omdat oracle hierdoor meer licentiegelden kan vragen dat ze dit onderzoek doet
04 May 2011 09:00
Oracle Next Generation Datacenter Index: Benelux loopt voorop in datacenter efficiency
Middenmoot? Bovenstaande quote komt van website Oracle waarnaar dit artikel linkt... :P

Kijk maar naar de eerste grafiek van hun 'Press Fact Sheet':
http://emeapressoffice.oracle.com/imagelibrary/downloadMedia.ashx?MediaDetailsID=1651

Ik stel me wel een paar vragen bij dit indexcijfer.
Schaal: 10
Gemiddelde: 5.28
Hoogste score: 6.04
Laagste getal: 4.41 (veel lager zal je al ni kunnen gaan als je dat gemiddelde wil houden)

We zullen nu even afronden op laagste: 4 en hoogste 6. Maw, de volledige populatie bevindt zich tussen die 2 getallen. Dat is maar 20% van de volledige beschikbare schaal...

Ben ik hier nu volledig verkeerd in (ik ben niet echt een wiskunde/statistiek held) of ben ik terecht in het onzeker zijn over de qualiteit van dat index-cijfer?
Ik deel je punt volledig.
Ik denk dat dit een onderzoek is in het kader van de welbekende "Lies, damned lies, and statistics"...

Ik werk zelf voor een enterprise met twee eigen datacentra (40MW per stuk) en ik durf te beweren dat bedrijven/enterprises zŤlf de efficienty al niet eens kunnen overzien; laat staan Oracle op "afstand".
Waarom gebruiken ze nu weer een eigen index? Er zijn meer dan voldoende standaarden om efficiency van datacenters weer te geven zoals PUE factor etc.

Zie bijvoorbeeld: Global Harmonization of Data Center Energy Efficiency Metrics en zo zijn er nog wat initiatieven.

Nu kun je nog weinig met de cijfers... ik was wel benieuwd hoe we het er zelf vanaf brachten ten opzichte van dit onderzoek, maar dat zit er niet in zo...

[Reactie gewijzigd door Felyrion op 4 mei 2011 14:21]

Alsof virtualisatie altijd efficientie betekent.

Vaak genoeg zie je ook dat er maar allemaal virtual machines uit de grond worden gestampt, omdat het zo makkelijk gaat. Dat zijn ook verspilde cycles.

Ook wil het omgekeerde ook vaak genoeg gebeuren. Dat voor virtualisatie enorm overgeschaalde hosts worden gebruikt, die vervolgens niet vol worden benut.

Als je efficient je datacenter wilt benutten zijn er veel meer factoren dan alleen virtualisatie.

Het verhaal over de koeling is een waarheid als een koe. Daar valt enorme winst te behalen.

[Reactie gewijzigd door Keypunchie op 4 mei 2011 15:25]

Inderdaad: Uitlezen van hardwarepoorten wil wel eens mis gaan (exacte timing), en nog wat van die zaken. Performancegaranties worden vrijwel onmogelijk op applicatieniveau omdat de virtualisatielaag bepaalt hoeveel cycles een VM krijgt. Probleem is dus dat de leverancier dan zegt: we testen het op physieke hardware en als het probleem daar niet speelt is het jouw probleem.

<enigzins offtopic>

Ik ben al enige tijd op zoek naar goede virtualisatie performance tests maar google helpt niet echt, ik vind alleen maar deeltestjes. Waar ik naar zoek:

1. Run op bare metal --> dit is de norm: 100%
2. Run met diverse hypervisors (esxi, hyper-v, ....)
3. Run met diverse virtualisatie-oplossingen die op host OS draaien (vmware workstation ed)
4. more...

Natuurlijk niet alleen syntetische benchmarks maar ook I/O intensief spul (disk & network access)

</enigzins offtopic>
Je zal zelden benchmarks vinden die en gevirtualiseerde server vergelijken met zijn fysieke variant.
Bij het benchen van de virtuele server krijg je namelijk er variŽrende resultaten die erg afhankelijk zij van externe factoren: de resource-concurrentie, de configuratie van de hypervisor, mulithreading en virtuele multicores,....
Alle virtualistaie software biedt inmiddels goeie performance monitoring tools en resource-beheer dat het mogelik moet maken een goeie asessment toe doen alvorens te virtualiseren.
Common sense zegt ook dat "resource-hungry" servers niet de eerste of beste virtualisatiekandidaten zijn. Een dedicated machine is in zo'n gevallen, ook in deze virtuele tijden, vaak een/de goeie oplossing. Zeker aangezien in een gemiddelde IT omgeving er voldoende machines zijn die wel de hele dag "uit hun neus staan te eten".
Overigens is virualisatie niet direct de term die in mijn hoofd komt bij "efficiŽnt datacenter", wel consolidatie. Virtualiseren is dan wel een goeie, moderne en eficiŽnte manier om te consolideren, het loont toch nog steeds de moeite om consolidatie ook op andere vlakken te overwegen, gezien de performantie/watt die een nieuwe server heeft tov een ouder exemplaar.
Eerste test die ik wil zien is natuurlijk alles toewijzen aan VM, verder leeg... Om puur de overhead van de laag te zien. Maar een grote virtualisatie performance test lijkt me wel wat. Natuurlijk zullen de licentievoorwaarden je beperken in het publiceren ervan... ;-)

Nieuwe hardware is inderdaad ook vaak al een energiebesparing.
Tja, data centers zijn nu eenmaal grote stroomverbruikers . De koeling kan volgens mij inderdaad bij veel centers toch wel wat lager.

En wat de virtualisatie betreft, veel bedrijven kunnen het nog niet bekostigen. Tevens is het omzetten van alle oude servers in een groot bedrijf naar virtuele omgevingen niet even zo gedaan, laat staan het monitoren hiervan.
"En wat de virtualisatie betreft, veel bedrijven kunnen het nog niet bekostigen"
Een fysieke machine voor een virtuele omgeving is ongeveer net zo duur als een gewone fysieke machine. En als je het goed opzet gaan de kosten voor beheer en onderhoud naar beneden door schaalbaarheid en consolidatie.

De enige reden waarom bedrijven niet over gaan naar virtueel is angst en kennisgebrek bij degene die het moeten uitvoeren/beslissen.

Er zijn verder meer dan genoeg P2V-tools om een fysieke omgeving naar een virtuele over te zetten. En het monitoren van een virtuele omgeving is net zo lastig/eenvoudig als bij een fysieke omgeving.

[Reactie gewijzigd door tes_shavon op 4 mei 2011 14:40]

Het is juist wat je zegt, de kennis is nodig. Toch blijft het voor veel bedrijven moeilijk, en wachten liever af...
En wat de virtualisatie betreft, veel bedrijven kunnen het nog niet bekostigen.
Volledig fout. Zelfs bibliotheken met budgetten kleiner dan een simpele KMO kunnen al gebruik maken van virtuele servers. Vanaf dat een bedrijf te groot wordt om alles op 1 server (binnen hetzelfde OS) te doen, kunnen ze qua budget (normaal toch) virtualiseren.

En sinds dit onderzoek gaat om bedrijven met minstens een omzet van 100m dollar, denk ik dat we eerder naar de IT-afdeling moeten kijken. (Of gewoon dat onderzoek...)
En electriciteit is aardig goedkoop in NL, zeker voor grootverbruikers. Lijkt me logisch dus dit.
Oracle zal wel weer een agenda hebben met dit onderzoek.. Wellicht gaan ze zelf datacenters openen waarbij ze dik in gaan zetten op Exadata systemen.. Ik moet zeggen dat ik een beetje flauw begin te worden van de arrogantie en de agressieve markbewerking van Oracle.

Als ik zo om me heenkijk kan ik me met geen mogelijkheid voorstellen dat er sinds 2003 geen groei is geweest in gebruik virtualisatie.. Wij doen bijna niets meer op bare metal, alleen als het echt niet anders kan.. en op bijvoorbeeld System-P kŠn je niet eens meer bare metal draaien..
Als je de extra licentie kosten door virtualisatie (performance verlies) meerekent en kijkt naar bedrijven als Oracle e.d. die per CPU rekenen dan zou je wel gek zijn om alles te virtualiseren.
Oracle marketing, ze zijn weer opzoek naar nieuwe projecten.
Wij van WC-eend .....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True