Nederlandse datacenters ondertekenen nieuwe aanpak voor energiebesparing servers

Vertegenwoordigers van de Nederlandse datacenterbranche hebben een nieuwe aanpak voor energiebesparing ondertekend. De bedoeling is dat daarmee meer energie wordt bespaard dan de opbrengst van een miljoen zonnepanelen.

Datacenterservers worden wisselend belast. Toch worden servers soms standaard ingesteld op hoge prestaties, ook als er lagere activiteit is. Zo produceren ze niet alleen meer warmte, maar verbruiken ze ook meer energie. Daarom werd vorig jaar de wettelijke maatregel 'Stel geautomatiseerd energiebeheer in op servers' geïntroduceerd, die inzet op geautomatiseerd energiebeheer. De kloksnelheid en spanning van de processor zijn daarmee aanpasbaar, afhankelijk van het aantal berekeningen per seconde. De gedachte is dat processors op die manier niet steeds op volle kloksnelheid draaien en er energie bespaard wordt, terwijl de prestaties gelijk blijven.

Omgevingsdienst Nederland en de brancheorganisaties Dutch Datacenter Association en NLdigital hebben gezamenlijk de nieuwe aanpak ondertekend, die de naleving van deze maatregel regelt. De omgevingsdiensten zorgen er met behulp van de Landelijke Handhavingsstrategie Omgevingsrecht voor dat ook datacenters die zich nog niet aan de werkwijze committeren, alsnog aan de maatregel worden gehouden.

De maatregel kan een flinke energiebesparing teweegbrengen, zegt Ruben Vlaander, bestuursvoorzitter van Omgevingsdienst Nederland. "Als alle datacenters binnen Nederland de wettelijk verplichte energiebesparingsmaatregel doorvoeren, levert dat in potentie een energiebesparing op die hoger is dan de jaaropbrengst van één miljoen zonnepanelen. Het is goed dat wij samenwerken met de branche. Dankzij deze aanpak kunnen datacenters substantieel bijdragen aan energiebesparing en zorgen we vanuit de overheid voor een gelijk speelveld voor de implementatie."

Door Eveline Meijer

Nieuwsredacteur

27-06-2024 • 14:34

111

Reacties (111)

111
111
44
6
0
59
Wijzig sortering
Altijd van die lekkere vage getallen waar ze mee komen.

Als alle datacenters binnen Nederland de wettelijk verplichte energiebesparingsmaatregel doorvoeren, levert dat in potentie een energiebesparing op die hoger is dan de jaaropbrengst van één miljoen zonnepanelen

Misschien kunnen ze gewoon kWh of TWh gebruiken, energie meet je niet in zonnepanelen per jaar.....
Als iemand dit soort termen gebruikt kun je er van uit gaan dat het percentage dat ze besparen niet bijster hoog zal zijn, anders hadden ze gewoon een percentage genoemd.

Even een bierviltjes berekening:
Totale verbruik (2021) 3.700.000.000 kWh
1.000.000 panelen (ga uit van 300Wp) = 300 * 1.000.000 * 0.85 = 255.000.000 kWh
Dus zo'n 7 procent besparing.

Bron: https://www.dutchdatacenters.nl/cijfers/

[Reactie gewijzigd door Zoidberg_AvG op 22 juli 2024 14:49]

Omdat de gemiddelde Nederlander, maar ook de gemiddelde manager bij een datacenter of ambtenaar bij een omgevingsdienst / bevoegd gezag, een getal als 0,37 TWh niets zegt. Dan wordt er gezocht naar een anekdote, zoals aantal zonnepanelen. Dit soort persberichten worden niet alleen voor Tweakers geschreven.

In het artikel staat verderop overigens ook gewoon een besparing van 10% benoemt. Dus je zit aardig in de richting met je berekening.
Dit soort persberichten worden niet alleen voor Tweakers geschreven.
Maar dat betekent nog niet dat je onzin moet schrijven.... Een percentage wordt gewoon begrepen maar dat is vermoedelijk niet indrukwekkend genoeg.

Een anekdote zonder een 'common ground' is toch niet zinvol?
een getal als 0,37 TWh niets zegt
Dat is dus juist noet zo. Dat zegt precies wat men wil weten. Dat niet iedereen alle eenheden kent...tja....daarvoor hebben dan dus percentages. Iets uitdrukken in een beschrijving die behoorlijk variabel is, is nu eenmaal onzinnig.

"Hij woog net zoveel als 3 grote vissen"...... wat zegt dat nu?
Oppervlaktes worden ook vaak omgerekend in een aantal voetbalvelden. Iedereen weet min of meer hoe groot een voetbalveld is.
Een alternatieve grootheid vind ik helemaal niet zo'n slecht idee, maar je moet de waarden in normale eenheden niet weg gaan laten.
Een voetbalveld heeft toch een vastgestelde grootte? Dat is bijna een eenheid....

Iets omrekenen naar een vastgelegde waarde is geen probleem.
Nou... Een voetbalveld heeft GEEN vaste afmetingen.

Maar hoe groot is een voetbalveld voor volwassenen op professioneel niveau?

Lengte: De standaard lengte varieert tussen 100 en 130 meter (328-427 voet).
Breedte: De standaard breedte varieert tussen 64 en 75 meter (210-245 voet).

Daar zit dus een behoorlijk verschil in: 100x64 = 6400 m2, 130x75 = 9750 m2.
Het grootste veld is ruim 1,5 keer zo groot als het kleinste veld.

En dan zijn er nog meer verschillen op amateur-niveau.

Bron: https://www.soccerconcept...groot-is-een-voetbalveld/
Aha, I stand corrected - dus is de vergelijking/omrekening meteen minder zinvol.
Omrekeningen zijn alleen bedoeld om een globaal idee te geven. Een verschil van een factor 1.5 doet er dan niet zo heel veel toe. Het irriteert me wel als alleen de omgerekende waarden worden genoemd, zonder de werkelijke waarden in standaard eenheden te vermelden.
'De gemiddelde Nederlander ' wordt steeds dommer ingeschaald met dit soort aanduidingen.
Het gaat inderdaad altijd over 'x zonnepanelen, 'x zwembaden vol', 'x olifanten zwaar', e.d.
We mogen toch aannemen dat tegenwoordig iedereen wel weet hoeveel een kWh, liter of kg is.
Er zijn veel klachten over de kwaliteit van het onderwijs en dit soort aanduidingen helpen daar niet bij.
Ik ben er van overtuigd dat dit niet is omdat de Nederlander dommer ingeschaald word, maar heel bewust om de Nederlander niet het werkelijk verhaal te vertellen.

Als je vertelt: we ondertekenen een nieuwe aanpak om 10% energie te besparen, dan reageert iedereen met: lekker boeiend, volgende nieuws item.

Als je vertelt: we besparen de hoeveelheid energie van 1 miljoen zonnepanelen, dan denken mensen: goh, die zijn goed bezig zeg.

Het zou ook kunnen dat de communicatie mensen erg door de wijze van communiceren in de VS zijn beinvloed, maar bewust het verhaal mooier laten klinken lijkt me veeeeeeeel waarschijnlijker.
idd. Het is dus erger. Ze willen 'de' Nederlander dom houden en/of het mooier laten klinken dan het eigenlijk is. Dat is leuk voor aan de borreltafel / bar maar zou dus een overheid juist niet moeten doen.
Het gebruik van "Landmark numbers" (YouTube: Landmark Numbers and Bad Number Analogies) is niet perse slecht. Maar je moet ze wel juist kiezen.

Heeft de gemiddelde persoon echt meer feeling bij hoeveel "De jaaropbrengst van 1 miljoen zonnepanelen" is dan bij "0,37 TWh"?

Zoietsals "Aantal zonnepanelen" is in mijn ogen net zo nuttig als een afstand uitdrukken in hoeveel dollarbiljetten op elkaar gestapeld dat zijn.

(Misschien iets) betere landmark numbers om te gebruiken bij zaken als energie zijn "Het energiegebruik van <Neem een stad> gedurende X tijd".

Maar in werkelijkheid hebben mensen uberhaupt niet heel veel feeling met hoeveelheid energie, dus waarom dan niet gewoon normale eenheden gebruiken?
Interresant filmpje, Matt Parker kan dingen altijd goed uitleggen, hij komt ook regelmatig voorbij op het Numberphile kanaal (aanrader als je getallen interessant vindt)

Ik ben op zich niet tegen het gebruik van landmark numbers, maar zeg ook gewoon wat de waarde is en noem dan een landmark als verduidelijking. Probleem is bij dit specifieke voorbeeld dat je geen idee hebt of hij panelen van 150Wp of van 500 Wp, dus dan heb je al een factor 3 onzekerheid te pakken. Dit soort landmark nummers geven de afdeling marketing veel ruimte om te gaan sjoemelen.
Maar in werkelijkheid hebben mensen uberhaupt niet heel veel feeling met hoeveelheid energie, dus waarom dan niet gewoon normale eenheden gebruiken?
Precies dit, als we geen kWh of TWh in een artikel gebruiken gaan mensen ook nooit feeling met de getallen krijgen. Als je zegt dat het x TWh is en dat je x zonnepanelen nodig hebt om dat per jaar op te wekken dan heb je kans dat mensen een beetje gevoel krijgen over hoe groot een TWh aan energie is.
Matt Parker kan dingen altijd goed uitleggen, hij komt ook regelmatig voorbij op het Numberphile kanaal (aanrader als je getallen interessant vindt)
Ja ik ben ook wel Numberphile-phile:) En ga dit jaar ook voor het eerst naar een Festival of the Spoken Nerd show (nerd-comedy met Matt Parker, Steve Mould en Helen Arney)
Ho ho, hier een “gemiddelde ambtenaar” van een omgevingsdienst. Die 0,37 TWh zegt de gemiddelde ambtenaar juist heel veel. Het zijn onze bestuurders en communicatiemensen die liever in termen als zoveel “zonnepanelen, voetbalvelden, zwembaden’ of andere beeldspraak spreken in de hoop “het publiek” beter te kunnen duiden waar het om gaat.
ijdele hoop.....termen gebruiken die door iedereen verschillend kunnen worden geinterpreteerd juist om iets duidelijk te maken is gewoon dom....
Waarom zou de gemiddelde Nederlander geen beeld hebben bij 0.37TWh? Hooguit nog even aanpassen naar 370000kWh en iedereen weet heel goed hoeveel dat is want iedereen is tegenwoordig wel thuis bezig met kilowattuurtjes besparen (en/of de prijs daarvan).

Als ik op een gemiddeld verjaardagsfeestje tijdens de koffie-met-taart zeg dat Nederland zo 370000kWh per jaar kan besparen dan heb ik echt wel de aandacht hoor.
Als ik naar mezelf kijk; om een beetje beeld te krijgen bij 3.700.000 kWh (je mist 3 nullen) deel ik dat snel door ongeveer 3000kWh om te zien over hoeveel huishoudens dat dan gaat.

Het jaarverbruik van 12.000 huishoudens zegt mij meer dan 0.37TWh, maar ik werk dan ook niet in de energiesector...

Overigens heb ik bij 12.000 huishoudens ook niet meteen een beeld. Alle huishoudens in de gemeente Duiven of Wijk bij Duurstede zegt me dan meer.

Overigens bizar dat er wettelijke maatregelen nodig zijn om dit af te dwingen. Het is dacht ik vrij helder dat we in een klimaatcrisis zitten, dan pak je dit soort laaghangend fruit toch gewoon mee?

[Reactie gewijzigd door bartvb op 22 juli 2024 14:49]

Overigens bizar dat er wettelijke maatregelen nodig zijn om dit af te dwingen.
Juist. Maar dankzij een vreemde kapitalistische structuur betalen zij vast minder voor de energie (grootverbruik korting of aangesloten op een windmolen-park?) en dus is de incentive vrij laag.
Maar dan heb je dus eigenlijk geen wettelijke maatregelen nodig om bedrijven te dwingen te bezuinigen maar gewoon eerlijke energie prijzen.... O-)
Het is een Amerikaans bedrijf, dan krijg je dat. :+
Ze verspillen ook voor 11666666 kratjes bier aan zeer schaars drinkwater per jaar. (of gewoon 84 miljoen liter.)

Het zou verboden moeten worden.
Je springt hier van watt(piek) naar KiloWatt, dus een factor 1000 anders, die 0.85 slaat denk ik om het percentage effectiviteit, maar je moet nog vermenigvuldigen met het aantal uren dat de panelen aan 85% draaien.
Gaat goed. Hij rekent met 850 vollasturen per jaar. Delen door 1000 om van Wp naar kWh te gaan. Ofwel 0.85.
Geloof wel dat er tegenwoordig met iets hogere vollast gerekend wordt (1000), daar zal wel de onderschatting van de berekening door komen.
Het ding is dat het ook enorm afhangt van welke zonnepanelen ze gebruiken.
Als ze zonnepanelen van 20 jaar geleden gebruiken, (150Wp), komt dat op de helft maar uit.
Inderdaad, en het is ook vaag dat de besparing zonder tijdseenheid gelijk is aan een opbrengst van zonnepanelen per jaar. De besparing per jaar is gelijk aan de opbrengst van panelen per jaar, of de besparing is gelijk aan de gemiddelde opbrengst van 1 miljoen zonnepanelen.

Wanneer nieuws artikelen nooit getallen publiceren leren de lezers ook niet een gevoel bij getallen te onwikkelen.
Misschien omdat de meeste datacenters niet zoveel servers hebben. Dat hebben de providers die bij ze huren en dat is buiten hun controle.

Uitgezonderd de hosters/hyperscalers die zelf eigen datacenters hebben maar dat is een andere club.
Dit klinkt wellicht als een no-brainer dat dit al gedaan zou zijn, energie kost immers geld toch?
De praktijk blijkt toch nog wat ingewikkelder, zoals met de meeste onderwerpen het geval is.

Als cloud/virtualisatie-platform architect bevind ik mij regelmatig in gesprekken met bedrijven over hoe de workloads te draaien en wat er van het platform verwacht wordt. In al die gesprekken is de bewustwording zeker aanwezig en wordt er gedacht aan energieverbruik, dit zijn aanzienlijke kosten. In eerste instantie zijn de meeste bedrijven voor het besparen van energie en deze instelling wordt, bij de klanten die ik afgelopen jaren heb bediend, eigenlijk met het standaard advies ingeschakeld.

In de praktijk blijkt echter dat er wel degelijk prestatieverlies is ten opzichte van het draaien op maximale prestaties. Dit verlies is klein, echter, hoe groter de omgeving en het gebruik door klanten, hoe beter dit verlies te meten en merken is.
Als voorbeeld, de app(s) van de banken zijn tegenwoordig het product, daar zitten miljoenen mensen op en maken daar vaak meerdere keren per dag gebruik van. In het geval van energiebesparing gaat door de verminderde prestatie aan de voorkant bij de klant de ervaring achteruit, dit is volledig meetbaar en komt ook duidelijk terug in klantfeedback.

Dit komt vervolgens bij mij aan tafel ter sprake en wordt duidelijk dat het bedrijf meer waarde hecht aan de gebruikerservaring en een snel functionerend product om de klant te behouden dan de energiebesparingen. Die klanten brengen immers het geld binnen en het product moet beter en sneller zijn dan die van de cocurrentie.
Conclusie, de datacenters gaan weer op maximale prestaties.

Ik ben volledig voor dit besluit, maar zeggen dat de prestaties niet afnemen is niet correct. Bovenstaand voorbeeld heb ik bij meerdere klanten ondervonden en "kunnen" dus niet besparen op energie. Niet omdat het bedrijf dat zelf niet wil, maar omdat de klanten van die bedrijven niet willen dat iets traag of loch is.

[Reactie gewijzigd door drocona op 22 juli 2024 14:49]

Als het meetbaar is, vermoed ik dat de voorwaarde
De op de server geplaatste applicaties zijn niet zodanig vertragingsgevoelig dat vertragingen van enkele microseconden problematisch zijn.
voor een uitzondering kan zorgen.

Wellicht worden applicaties verdeeld tussen "high performance" en "normaal", met iedereen normaal op powersave. Kwestie van de juiste config naar het juiste rack sturen, lijkt me.
Let op dat er "vertragingen van enkele microseconden" staat, dus niet eens milliseconden! Als er data over het internet wordt verzonden zijn vertragingen microseconden echt niet merkbaar.

Als er grotere vertragingen zijn dan moet er wel meer aan de hand zijn, bijv. onbedoeld de hele CPU downclocken in een eco setting.
Ik heb gevallen gezien waar niet per se de latency, maar de jitter van microseconden stabiele code ineens in allerlei vertragende configuraties stuurde. Dat kwam weliswaar door race conditions en andere onzin die feitelijk gewoon bugs waren, maar de code deed het prima als je gewoon de CPU op een vaste frequentie zette, alle power saving uitschakelde, RAM van bepaalde snelheden gebruikt, NUMA op bepaalde manieren instelt, etcetera. Mitigaties voor Spectre/Meltdown/enzovoorts waren natuurlijk uit den boze. Op zich geen probleem op dedicated CPU's, maar wel lastig.

Verder heb je nog drivers die heel moeilijk doen over power save. Ik heb dat zelf vooral met laptops meegemaakt, maar ik betwijfel dat dat beter gaat bij servers. Als Intel het voor elkaar krijgt om een scherm te laten flitsen en knipperen als de CPU is toegestaan onder bepaalde frequenties te komen, ben ik toch benieuwd wat dat wel niet zal doen met hun SSD's en netwerkkaarten.

Allemaal dingen die niet hoeven fout te gaan natuurlijk, maar tot de bugs opgelost worden, zullen bedrijven dit soort smoesjes gaan proberen te gebruiken onder deze uitzondering.

[Reactie gewijzigd door GertMenkel op 22 juli 2024 14:49]

Je hebt geen keuze bij een Hyperscaler, of ze moeten een greenchoice te bieden hebben. Klant kan wel willen, een onpremise oplossing geeft je de keus, zodat je tailored oplossing kan neerzetten. Dit is de trend niet. Maar je zou de complete footprint moeten meenemen. Maar de situatie is te specifiek aan de organisatie en de dienstverlener voor wat er mogelijk is. Het zijn weer extra kosten waar niemand op zit te wachten, of bijna niemand.

[Reactie gewijzigd door Fermion op 22 juli 2024 14:49]

Echt... WTF. Processoren ondersteunen dit al 2 decennia ofzo, en is betrouwbaar ook. Heel de energietransitie in volle bak, iedereen moet aan de zonnepanelen, elektrische auto's, isolatie, enz.. En dan lees je dit.

Fijn dat ze er wat aan gaan doen. 8)7
Ja, servers ondersteunen het maar vanuit de box, staan de meeste servers ingesteld op "Scream baby scream!". Je moet eens zien hoeveel stroom een 1U 6x dubbel fan dat op 6000+ rpm draaien zuipt. Gewoon de fans op eco mode zetten met de CPU temp, en bingo, 30W minder stroom verbruik. Doe dit op een rack en ... je haalt 1500W van een rack. Ironisch genoeg was de fans in screem mode 1/3 van de stroom verbruik bij die servers in idle! HP servers waren een ramp want die hadden geen goede control, was bij de Dells. Nu ja, ik spreek over de 620 series, en de equivalent HP series in de tijd. Nu beter?

Waarom staan ze zo ingesteld? Omdat de extra luchtstroom = minder kans dat componenten sneller sterven en minder problemen voor de makers van de Server. Het is goedkoper voor een paar fans te vervangen, dan een dode moederbord / psu / whatever (niet dat dit zoveel van de levensduur afhaalt).

En ja, ik ben niet verbaast dat CPUs ingesteld staan op max performance, of de PCIe lanes geen deftige C states staan. Waarom? Wel, bij PCIe kan dat soms problemen geven bij bepaalde hardware, dus als de boel op volle stroom levering staat = geen problemen.

Alles word gewoon gepushed naar de klanten, en de meeste weten niet beter of het kan hun geen bal schelen. Als je ITer bent in een bedrijf, ga je echt servers gaan testen in Eco mode, en omgaan met mogelijk problemen omdat X exotisch Hardware niet goed werkt met een C state van Y. Of ga je gewoon "yep, draait perfect in default mode, naar de rack!". Het is niet uw salaries dat die extra stroom betaald ... En als je er toch aandacht aan besteed, dan kan het je manager zijn dat op zijn heup krijgt dat je zoveel tijd spendeert in het testen van de servers. Manager: "Als er problemen zijn, daar hebben we de extended warranty voor", plop, naar de rack!

Wil je nog een leuke: Zoek eens op de 7945HX CPU en vergelijk die met de 7700X ... Beide zijn dezelfde AMD chiplet CPUs, de ene is voor laptops, de andere is desktop, identieke. De 7945HX draait op 9W, de 7700X draait op 35W idle. Ja, er zijn verschillen met de moederbord enz maar de ene heeft een andere firmware waarbij het meer systematisch zaken zoals de ifiber downclocked, beter in C states gaat enz. En de andere is in "performance" mode uit de deur, met een insane energie budget (ivp met de HX... We gaan nog niet spreken over Intel).

Enorme winsten daar te halen, maar ja, is de klant hun probleem voor de extra stroom gebruik. Bij de HX kunnen ze dat niet verbergen want die gaan in laptops en daar merken mensen dat energie gebruik (als ze op batterij zijn, of via de duidelijke luidere fans).

In reality, zijn er ENORME winsten te halen overal op energie gebruik, en niet die benul van "stroom sluipers", ja, die kosten ook watts maar dat is niets tegenover wat de industrie erdoor jaagt overal het pushen van energie gebruik naar de klanten.
Klopt wat je zegt. Maar je kan je fans gewoon 100% laten draaien en je CPU's automatisch laten klokken. Dan blijven ze nóg koeler. Want naast het energieverbruik gaat het probleem van datacenters nog verder: koelcapaciteit.

En wat je noemt over exotische hardware... Dan laat je die op een dedicated rack draaien. Dan heeft de rest er toch geen last van. Anyway, het artikel gaat om de meest basic processorfrequenties aanpassen, dat is zó basic dat ik er echt van sta te kijken.

Al die verspilling van energie (en daarmee ook aan extra koeling). Ik vind het gewoon niet fijn om te lezen omdat je als consument al zo'n schuldgevoel in je schoenen geschoven krijgt qua milieu.
Een beetje serverfan wil 1A trekken. op 12V. 12W per fan en als daar een hele rits van in zit in push pull config, dan krijg je vooral veel herrie, veel storm, veel lucht en dus ook veel stroomverbruik van alleen al die ventilators. Als de warme onderdelen koel genoeg blijven is een dikke fanspeed echt niet nodig, maar het is te gemakkelijk om die dingen op full performance te zetten.
Oxide Computer bouwt als bedrijf servers als rack ipv 1U units en een van de grootste besparingen in hun product komt door de mogelijkheid om grotere fans te gebruiken die met minder stroomverbruik even veel lucht kunnen verplaatsen.

Uit een artikel van The Register:
As we've covered in the past, fans can account for up to 20 percent of a server's power draw. But in Oxide's rack, Cantrill claims that figure is closer to 2 percent during normal operation.
Nou moet zeggen dat wij het wel altijd doen. Al heb ik een intel blade systeem in het verleden gehad die bij bepaalde C states geheugen errors begon te geven en dus wel op max moest draaien voor stabiliteit… maar dat is uitzondering.

Je moet zo denken: voor een heel rack kan dat zo zorgen dat je meer servers in een rack kan plaatsen, want stroomcapaciteit is vaak eerder een limit dan de fysieke ruimte. Om nog maar even te zwijgen van de kosten, zeker de afgelopen jaren.
Ik denk niet dat je op datacenters heel veel hebt aan de automatische kloksnelheidreductie die in je processor zit. Cloudcomputers delen hun CPU's vaak over enkele tot honderden virtuele machines/containers. Als je automatisch de kloksnelheid gaat bepalen, zal er altijd werk te doen zijn, en is de CPU altijd op volledige snelheid aan het draaien. Plus, de overheid om continu van frequentie te wisselen kan de boel onnodig vertragen.

Op zo'n schaal kun je misschien beter kijken naar hoeveel cores je op idle hebt staan, en op basis daarvan CPU-werk verdelen. Wellicht kan het uit om het rack dat op 25% capaciteit staat te draaien meer werk te geven en een ander rack dat op 100% draait naar beneden te clocken (naar iets van 75%, vooral de laatste procenten aan performance vreten stroom). Dat moet wel handmatig gebeuren, want individuele cores hebben geen kennis over de load van een datacenter.

Wat de mogelijkheden zijn, verschilt nogal tussen datacenters, klanten, architecturen, en hardware. Als het zo makkelijk was als de processorfeature aan zetten, hadden cloudproviders dit jaren geleden al gedaan; stroom voor een datacenter is niet goedkoop, zelfs niet met korting als mega-afnemer.
Hele goede punten inderdaad. Maar dat ik volgens mij niet wat er nu in het artikel wordt besproken. De eerste alinea heeft het enkel over het "High Performance" energieprofiel en variabele kloksnelheden. Vandaar dat ik er zo verbaasd op reageer, want dit is zo basic.

Wat jij noemt is een goed interventie stap om je datacenter actief efficiënter te maken.
Ik heb in de praktijk helaas toch flinke performance verschillen gezien met alles behalve high performance of equivalent.
Denk aan bv ci jobs die tot 2x zo lang duren of elastic search nodes met flink hogere latencies.

Dan wordt er toch snel de keuze gemaakt om meer geld aan stroom uit te geven dan een persoon langer te laten wachten…
Ik heb in een eerdere functie veel HPE Proliant DL360 en 380 aangeschaft en default BIOS profile is geheel niet 'High Performance', maar eerder "General Power Efficient Compute". Zie HPE documentatie oa: https://www.hpe.com/psnow...rofiles_perf_options.html
Ja en elke applicatie zegt dan zet je bios in hpm.
Noem eens wat voorbeelden van applicaties die dat zeggen? Ik ken ze niet.
Exchange , SQL, zoon beetje elke DB die er is.

ow is de performance niet goed staan je power settings dan wel op max is ook altijd de eerste support opmerking.
Ik heb jarenlang Exchange beheerd en was de architect voor een grote organisatie.
Als premier support met zo'n kutsmoes zou komen dan zou ik dat simpelweg niet accepteren en escaleren.

Maar het helpt als je een fulltime technical account manager van Microsoft hebt die je kunt aanspreken en als premier support gemerkt heeft dat als wij bellen dat het nooit een simpel probleem is, en dat ze bijna per definitie moeten doorschakelen naar tweedelijns support.

Overigens is het gedrag van een grote exchange server zeer voorspelbaar. Die cpu loads bleven binnen een marge van +-5%. Dus dan kan je het aantal servers goed afstemmen op capaciteit.
dat weet je ookdat dePLA voorschijft dat power optimisation uit moet staan en dat NIC nooit mag slapen etc.

Daarnaast is het aanbevolen om bios op performance mode te houden
Dit klinkt zo makkelijk dat ik me afvraag of (en anders waarom) dit niet al gebeurd is daar waar technisch mogelijk. Maar wellicht is het ingewikkelder om dit toe te passen, zijn er verschillende belangen, of moet goed uitgezocht worden op welke server dit wel en niet kan.

Er is vast een Tweaker die ons hier meer over kan vertellen.
Deels is dit vaak een ingesleten gewoonte onder beheerders, het is een enterprise achtige server, dús moet alles op max performance is dan de gedachte. Ik heb nog nooit gezien dat er op systeemniveau naar het stroomverbruik wordt gekeken, maar performance problemen zijn wel altijd een prioriteit. Dan is de keuze snel gemaakt. Als er al op gestuurd wordt is het op cluster- of rack niveau en wordt naar hele andere maatregelen gekeken.

Daarnaast heb ik meer dan eens gezien dat power management features rare problemen geven met specifieke enterprise software en hardware als NIC’s, HBA’s, licentiedongels, etc. met vaak vrij brakke drivers. En ook niet zelden wordt aanbevolen om het uit te schakelen door de fabrikant.

Het is dus vaak een (behoorlijk overschat, maar niet onbestaand) risico op performance en stabiliteitsproblemen wat je makkelijk uitsluit door (iets) meer verbruik toe te laten, waar vervolgens toch geen haan naar kraait.

[Reactie gewijzigd door RonJ op 22 juli 2024 14:49]

Klopt helemaal. Leuk in de theorie, maar niet zelden los je performance issues op door eigenlijk alle automatische instellingen/functies uit te schakelen. Die zit in de hardware UEFI (HPE/Dell), in de hypervisor en de VM's.

Uiteraard mooi als 'automatisch' goed werkt, maar dit gaat echt uitgezet worden i.g.v. problemen.
Powermanagement op pci of nics etc kan inderdaad problemen opleveren. En niet alleen op servers, maar die ervaring hebben veel van ons immers ook met desktops.
En bovendien levert het heel weinig op, want die gebruiken niet veel energie.

Maar powermanagement op de CPU heb ik nog nooit problemen mee gezien en daar kun je wel heel veel besparen.
Deels is dit vaak een ingesleten gewoonte onder beheerders, het is een enterprise achtige server, dús moet alles op max performance is dan de gedachte. Ik heb nog nooit gezien dat er op systeemniveau naar het stroomverbruik wordt gekeken, maar performance problemen zijn wel altijd een prioriteit. Dan is de keuze snel gemaakt. Als er al op gestuurd wordt is het op cluster- of rack niveau en wordt naar hele andere maatregelen gekeken.

Daarnaast heb ik meer dan eens gezien dat power management features rare problemen geven met specifieke enterprise software en hardware als NIC’s, HBA’s, licentiedongels, etc. met vaak vrij brakke drivers. En ook niet zelden wordt aanbevolen om het uit te schakelen door de fabrikant.

Het is dus vaak een (behoorlijk overschat, maar niet onbestaand) risico op performance en stabiliteitsproblemen wat je makkelijk uitsluit door (iets) meer verbruik toe te laten, waar vervolgens toch geen haan naar kraait.
Ik heb dezelfde ervaring, bij heel wat zit ingeslepen dat je je servers altijd configureert voor maximale performance en dat iedere vorm van power management vragen is om vage problemen. Niet helemaal onterecht maar imho ook niet proportioneel tot de risico's en een beetje een zelfvervullende voorspelling. Als je power management niet gebruikt op servers dan worden bugs niet gevonden en blijven we hardware maken die het verkeerd doet.

Overigens denk ik heel in het algemeen dat als je dergelijke onbetrouwbare hardware hebt je eigenlijk een te grote gok neemt en misschien beter naar andere vormen van betrouwbaarheid kan kijken dan bidden dat die ene server het altijd blijft doen. Voor alles wat belangrijk is zou je een fail-over en spare moeten hebben (heel in het algemeen), monitoring om fouten te vinden en een soepel fail-over mechanisme. Uiteraard is dat makkelijker gezegd dan gedaan.

PM helemaal uitschakelen is vandaag de toch eigenlijk al niet meer echt mogelijk. Er zijn heel wat limieiten en grenzen en een deel zit in de hardware. Moderne CPU's zijn niet gemaakt om 100% van de tijd op 100% van de capactiet werken want dan koken ze zichzelf gaar, daar beschermen ze zichzelf tegen met power management.
Denk dar het vooral te maken heeft met zelf hosting in een huur datacentter dan met grote hosting spelers.

Vaak zijn de kosten voor stroom vast bedrag dus boeit het niet als afnemer en full performance mode klinkt dan beter toch. Je betaald per HE of per kg in de meeste dc hosting centers

[Reactie gewijzigd door Scriptkid op 22 juli 2024 14:49]

Sinds een aantal jaren al niet meer. Een aantal datacenters hebben die contracten opengebroken vanwege overmacht en rekenen nu forse bedragen per KWh.
https://www.hostinginnederland.nl/colocatie/

Staat toch nergens kwh prijs alleen zoveel max amp.
En als je dat vermenigvuldigt met 230V kom je erachter dat je geen high performance servers kunt ophangen onder de goedkope contracten.
Filter maar eens op 6U of hoger, dan kom je op 1/4 rack uit en betaal je wel degelijk los voor de stroom.
High performance server of niet is totaal irrilevant voor je windows/ linux en bios power settings.

Met 1A mag je gewoon 0,23kwh pakken en kun je je 1u server gewoon op high performance instellen. Als hij dan 2% util doet throttle hij niet terug dus verbruikt hij te veel.

Als ik op 6he filter zie ik nogsteeds gewoon 6-20A zonder kwh prijs. Dus ook daar fixed pricing.

[Reactie gewijzigd door Scriptkid op 22 juli 2024 14:49]

Meeste 1U contracten uit dat lijstje zijn 0,5A of zelfs 0,25A en hebben idd stroom inbegrepen.
Filter je op 1A of meer zitten er direct al een paar tussen excl stroomverbruik.
Ja een paar maar heeeel veel ook niet
Misschien dat ze ook meteen wat aan het waterverbruik kunnen doen aangezien de watermaatschapijen de burgers nu voor het totale waterverbruik willen laten opdraaien... Iedereen van 130 liter per dag terug naar 100. Je moet voor de grap eens opzoeken wat een datacenter aan drinkwater verbruikt.
Geen reet. Dit fabeltje blijft maar verspreid worden door de media en andere mensen die geen grote getallen op waarde kunnen schatten. Abiatisch koelen met water gebeurd sowieso alleen op hele hete dagen en dan vaak uit een eigen minder zuivere watervoorziening (maar wordt dan technisch als drinkwater gerekend in vergunningen ed).

Bijv. Microsoft gebruikt maar liefst 84 miljoen liter water bij haar DC. Paniek en ophef alom! Schande! Reken je dat even terug naar kubieke meters en het jaarverbruik van een gemiddeld huishouden dan is dat gelijk aan slechts 808 huishoudens! Dan valt het toch wel erg mee voor een cloud-DC locatie waar het halve NL’se bedrijfsleven op draait. De verouderde DC’s waar die workloads hiervoor draaide verbruikte ongetwijfeld een veelvoud aan energie en water dan de veel en veel efficiëntere hyperscalers.

Je kan het er natuurlijk over hebben of adiabatische waterkoeling voor een x aantal dagen per jaar waar er niet met buitenlucht gekoeld kan worden wenselijk is, maar dan moet je ook de alternatieven wegen. Dat zijn dan veel grotere, zwaardere airco’s die ook water, energie, geld en grondstoffen kosten om te maken en dan het gros van de tijd volledig stilstaan. Dan is een beetje licht gereinigd water uit het IJsselmeer verdampen helemaal geen gekke keuze wat mij betreft.

[Reactie gewijzigd door RonJ op 22 juli 2024 14:49]

Probleem is dat ze hiervoor drinkwater gebruiken:

Voorheen was het “normaal” dat bedrijven drinkwater gebruikten als ze water nodig hadden in hun bedrijfsvoering. Met alle klimaatverandering is dat nu aan het veranderen. Alle grote hyperscalers (Amazon, Microsoft en Google) willen allemaal waterneutraal zijn in 2030, waarbij ze meer water teruggeven dan dat ze gebruiken.

Ze stappen in hun datacenters over op andere soort water voor het koelen van hun datacenters. Bijvoorbeeld industriewater, rioolwater of zeewater. Dat maken ze eerst schoon, vervolgens gebruiken ze het voor de koeling en uiteindelijk willen ze het doorgeven aan bijvoorbeeld boeren om akkers mee te sproeien. Dat vereist flink wat aanpassingen en een zoektocht naar leveranciers van “vuil” water en afnemers van gebruikt koelwater.
Bij de grote jongens, zoals microsoft, is dat vaak al zelf gezuiverd water. Zuiver genoeg om de machines niet te vervuilen, maar lang geen kraanwater. Dat verdampt of gaat terug het ijsselmeer in.

Bij de DC’s in en rond de grote steden wordt wel kraanwater gebruikt. Daar is ook niet zo makkelijk toegang tot een bron en om ruimte te maken voor dergelijke installaties. Ook dan blijft de afweging zoals hierboven genoemd.
"Volgens het CBS gebruiken datacenters maximaal 1 miljoen kubieke meter drinkwater. Dat is zo’n 0,088 procent van het totale leidingwatergebruik in Nederland."
Data valt te verifieren op https://opendata.cbs.nl/s...t/82883NED/table?dl=1A42C
En dat gaat dus over alle datacenters van Nederland samen.
Persoonlijk vind ik dat nog 100 miljoen liter teveel, zeker omdat het daarna gewoon weer geloosd wordt in rivieren. Het zou mooi zijn als het industriewater zou zijn i.p.v. drinkwater.

Niet dat ik roomser dan de paus wil zijn maar zelf ben ik ook aan het kijken of ik niet kan gaan douchen, het toilet kan doorspoelen en wassen met regenwater wat bijvoorbeeld in een tank kan worden opgeslagen onder mijn oprit.

Het blijft tenslotte idioot dat we daar gezuiverd drinkwater voor gebruiken.
Ik zou toch even checken of het water goed genoeg is om te douchen.
Precies. Een voorkombare ziekenhuisopname vanwege bacteriële infectie is vele malen vervuilender dan dat beetje drinkwater gebruiken.
Je kan natuurlijk wel een spaardouchekop gebruiken en je tijd minimaliseren.

Regenwater opslaan onder je oprit is ook niet heel praktisch. Heb je weer energie nodig voor een pomp installatie. Gebouwen waar dit wordt gedaan voor onder meer doorspoelen hebben meestal een grote regenton op het dak staan.
Frappant dat de maatregelen niet al waren ingegeven door de energierekening :?
Grootverbruikers betalen veel minder voor energie. Het opzetten en beheren van deze tooling kost ook geld.
Dat en het feit dat servers over het algemeen allemaal continu dezelfde stroom nodig hebben en het stroomverbruik makkelijk vooraf te bepalen is. Door deze verbruikszekerheid is het ook gewoon een stuk goedkoper om energie in te kopen omdat energiebedrijven hierbij geen risico lopen bij datacenters.
Ik meen dat de datacenter activiteit van Google de nacht volgde, omdat ze met het nachttarief van energie goedkoper uit waren.
Overdag: Dingen doen die latency-gevoelig zijn en daarmee geografisch dichtbij de gebruiker moeten.
's Nachts: Data crunchen op 100% CPU.
En zo lopen de twee functies over de planeet van datacenter naar datacenter, synchroon met het draaien van de aarde.

Of dat heden dagen nog zo is weet ik niet. Inmiddels is dag en nachttarief bijna hetzelfde, omdat energiebedrijven veelal met overschot uit zonnepanelen zitten overdag.
Ondanks dat ze minder betalen is het ook voor hun duurder geworden. Het effect is hetzelfde.
Even heel kort door de bocht, dat belasten ze toch gewoon door aan de klanten? :+
Dat gaat maar zo ver, hoe hoger de prijs, hoe minder klanten ze hebben.
Dan sterven dat soort onzuinige datacenters vanzelf uit!
Ik denk dat projecten als Kepler (https://github.com/sustainable-computing-io/kepler) sinds kort pas echt toepasbaar zijn voor de goegemeente. Daarvoor waren het leuke projecten, maar voor grote bedrijven en datacenters te experimenteel.

Nu het redelijk toepasbaar is zie je steeds meer bedrijven dit implementeren om inzicht te krijgen in hun verbruik en de data als bron te gebruiken voor hun energie management.

[Reactie gewijzigd door Hakulaku op 22 juli 2024 14:49]

Waarom zou je zoiets nodig hebben voor je iets kunt doen?

Wat er in dit artikel besproken word is allemaal al standaard beschikbaar in elke windows of linux installatie. Het enige dat je moet doen is je power management aanpassen van hoogste performance naar gebalanceerde performance.
Vrij simpel,

Zonder monitoring heb je geen inzicht op de gevolgen van deze aanpassing, zowel in besparingsoogpunt als op de correlatie naar de prestaties van de server.

Het aanzetten van zulke features, die behoorlijk wat impact kunnen hebben, zou ik niet snel aanraden aan bedrijven zonder monitoring beschikbaar te hebben.
"de wettelijk verplichte maatregel"
Hoe gaan ze dit handhaven, dan?
He, deze processor in dit rack stond een paar cycles onnodig te draaien?!?
Hier een boete...
Wij moeten een verklaring ondertekenen dat onze apparatuur op die manier ingesteld staat, en als we dat niet willen/kunnen moeten wij onderbouwen waarom wij dit niet willen en kunnen doen.

Overigens gaat het verder, ook moeten we ondertekenen investeringen in energiezuinige apparatuur te gaan doen/oude onzuinige meuk uit te faseren.

waterdicht is het niet, maar het zal vast wel een hoop bedrijven tot nadenken zetten.
Geloof omgevingsdiensten zijn best meedenkend maar als jij je niet gedraagt kunnen ze heel snel heel vervelend worden.
Ik denk dat het een goede stap is en misschien moet de gebruiker er ook maar gewoon aan wennen dat energie toch een min of meer schaars goed is.
Al vraag ik mij af of dan ook niet ingegrepen moet worden bij de internet providers met hun alsmaar hogere snelheden voor consumenten. Hoeveel onnodige energie zou die 8 Gb glasvezel verbinding in het hele traject verbruiken ten opzichte van 1 Gb.

[Reactie gewijzigd door Frogmen op 22 juli 2024 14:49]

De zogeheten papieren tijger :+ .......... NL zit daar helemaal vol mee helaas.
Eerst zien dan geloven is mijn mening EN ervaring.
Vooral de oudere hardware zijn energie slurpers, vervangen kost geld maar levert dan qua energie wel weer wat op ;)
En wat nou als we een extra accupark neerzetten bij elke datacenter en de stroom van zonnepanelen van alle huizen daarin dumpen? Win-Win voor iedereen.
Zodat al die huizen zelf niet op groene stroom kunnen draaien, maar al die datacenters dit wel kunnen claimen in hun marketing?
Er is geen groene of grijze stroom. Dat zijn juist de marketing termen.
Alles wordt letterlijk op 1 hoop gegooid (verdeeld over clusters natuurlijk) of het nou kern, kolen, bio, wind, water of zon energie betreft maakt niks uit. Je krijgt van alles wat uit je stopcontact.
Als je geheel off-grid wil gaan wonen is dat prima maar je kan niet verwachten dat we dat allemaal kunnen.

Het enige wat we kunnen doen is het totale verbruik van bepaalde energie bronnen inperken in de algehele stroompool.
Ik zie niet, op financieel vlak waarom dit voor de energieleveranciers zo win win is, wel voor de burgers, wellicht milieu, en datacenters. Want energieleveranciers kunnen zo minder energie verkopen. En laat dat nou net het businessmodel van private energieleveranciers zijn....

Want als we dat doortrekken, dan hoeft de buurman geen Ziggo abbo, want ik houdt genoeg data over en kan het ook wel aan de buurman leveren met een extra UTP kabel. Geen dure glasvezel naar zijn huisadres nodig, buurman heeft geen modem nodig. Zou toch win-win zijn.

[Reactie gewijzigd door GigaHenk op 22 juli 2024 14:49]

Even een kleine toelichting op mijn vraag. Dat accupark moet onder beheer zijn van de netbeheerder en niet van de DC.
Het probleem voor de energie leveranciers is dat zij een gebrek hebben aan energie opslag, wat inhoud dat zolang de saldering regel bestaat, ze voor elke kWh, ons moeten 'betalen' voor het opwekken en zij moeten aan een derde partij ook betalen om dat kWh ergens op te slaan en te gebruiken.
Salderen is echt een probleem voor ze en ze kunnen niks anders dan teruglever kosten in rekening brengen.
Het enige uitweg is meer opslag van energie. Dat kan bijvoorbeeld met een project zoals het markermeer, wat niet uitgevoerd wordt, of elke individuele huis moet een accu plaatsen om een algehele grid op te zetten.
Het is veiliger en goedkoper om clusters in de buurt van DC's te bouwen dan dat elke huishouden er eentje heeft.
Een DC verbruikt dusnanig genoeg stroom dat het infrastructuur al grotendeels aanwezig is om het te doen.
Een DC heeft dan ook gelijk een UPS waar je U tegen zegt.
Ik kan voor nu, niet 1 negatief aspect bedenken om eerlijk te zijn.

Als je graag je inet deelt met je buurman kan je dat prima doen. Niemand heeft er last van en je split de abo kosten. Ik zie niet echt een relatie tussen ziggo en energie beheer. (in de basis is glasvezel aanzienlijk zuiniger dan electra hetzij UTP of COAX)
Het enige uitweg is meer opslag van energie. Dat kan bijvoorbeeld met een project zoals het markermeer, wat niet uitgevoerd wordt, of elke individuele huis moet een accu plaatsen om een algehele grid op te zetten.
Het is veiliger en goedkoper om clusters in de buurt van DC's te bouwen dan dat elke huishouden er eentje heeft.
Dat is een beetje zwart/wit denken. We hebben ook nog zo iets als Bitcoin miners. Ik weet het, nog steeds veel verguisd door energieverbruik. Alleen wel steeds meer geaccepteerd en steeds schoner, doordat 'stranded energy' steeds meer toepassingen vindt. Uiteraard klinkt een batterij optie mooier. Echter zijn ze nu nog niet rendabel, anders waren ze al wel toegepast.
V.w.b dat Markermeer, dat lijkt ook mooi, maar zoveel energie sla je niet op in één of twee metertjes water hoogte verschil. Zijn wel berekeningen over terug te vinden online,

Wat ik niet begrijp is dat er zo veel tijd, geld en energie gestoken wordt in ouderwetse oplossingen/ideeën als wind, water en zon. Dat is slecht schaalbaar, afhankelijk van de weer/getijden, wolken, neemt veel ruimte in. Het lijkt wel of er totaal niet naar economische en toekomstige aspecten gekeken wordt bij energietransitie. Want het is allemaal wel leuk, maar het geld moet eerst verdiend worden om het uit te rollen. Nu al zie je dat landen die hierop groot inzetten economisch de afgrond in glijden.
Punt is, de afspraak wordt gemaakt om ongeveer 7% minder stroom te verbruiken in de DC's.
Maar we hebben nu al moeite om overtollige stroom te verwerken van zonnepanelen en windmolen en er komen er steeds meer bij want "Toekomst".
Als er minder afgenomen worden krijg je alleen maar meer overtollige stroom en dus meer problemen.

Eerst moet de stroomnetwerk gestabiliseerd worden en daarna kunnen we meer sleutelen aan het verbruik.
Ik zie niet, op financieel vlak waarom dit voor de energieleveranciers zo win win is, wel voor de burgers, wellicht milieu, en datacenters. Want energieleveranciers kunnen zo minder energie verkopen. En laat dat nou net het businessmodel van private energieleveranciers zijn....
Ik kan me voorstellen dat gunstig is als het stroomnetwerk overbelast is. Met accu's kunnen ze pieken opvangen en de kabels ontlasten zodat er geen nieuwe kabels hoeven te worden geleged. Dat is misschien meer iets voor de netbeheerders dan de energieleveranciers, maar de rekening moet uiteindelijk ergens van betaald worden.
Want als we dat doortrekken, dan hoeft de buurman geen Ziggo abbo, want ik houdt genoeg data over en kan het ook wel aan de buurman leveren met een extra UTP kabel. Geen dure glasvezel naar zijn huisadres nodig, buurman heeft geen modem nodig. Zou toch win-win zijn.
Ja, prima voorstel, dat is inderdaad win-win.
Laten we allemaal onze kleine netwerken aan elkaar koppelen en elkaars verkeer van netwerk naar netwerk doorgeven, zoveel mogelijk op basis van wederkerigheid en met gesloten beurs. Veel verkeer kunnen we dan onderling afhandelen via de kabels en antenne's die tegenwoordig in ieder huishouden aanwezig zijn. Dan is het ook niet meer nodig om alle straten open te breken om ieder huis een eigen direct verbinding met de centrale te geven. Alleen voor snelle, directe verbinden op grote afstand hoeven we dan nog gebruik te maken van commericiele netwerkleveranciers.

Als je geld nodig hebt om het concept uit te werken kun je altijd zeggen dat het helpt tegen atoombommen, dan betaalt het leger graag voor je onderzoek.

Laten we dat netwerk van netwerken een naam geven: Internet. :+


Excuses als het een beetje flauw overkomt maar jouw waarschuwing is mijn droom :)
Toch worden servers soms standaard ingesteld op hoge prestaties, ook als er lagere activiteit is.
This sounds like a bad joke? Deze optie zit er al in sinds Windows 2000 ofzo (of evt 2003, dat mag ik kwijt zijn), en al sinds die tijd is het best practice om die modus niet te gebruiken, maar voor "Balanced" te kiezen.

Ik weet dat veel bedrijven middels GPO's die "High Performance'-power plan ook uit Windows slopen om te voorkomen dat iemand die per ongeluk selecteert.

Bizar dat men daar pas anno 2024 achter komt? Is hier dan écht nooit naar gekeken? Nou ja, beter laat dan nooit in ieder geval, want het kan wel flink wat energieverbruik schelen inderdaad. Zeker in de aantallen servers die in een datacenter draaien.,
Ik weet dat veel bedrijven middels GPO's die "High Performance'-power plan ook uit Windows slopen om te voorkomen dat iemand die per ongeluk selecteert.
Ik heb ook het omgekeerde gezien...
Bizar dat men daar pas anno 2024 achter komt? Is hier dan écht nooit naar gekeken? Nou ja, beter laat dan nooit in ieder geval, want het kan wel flink wat energieverbruik schelen inderdaad. Zeker in de aantallen servers die in een datacenter draaien.,
De redenering is dat ze liever wat meer betalen voor stroom dan dat ze problemen moeten debuggen die worden veroorzaakt door power management, van happerende hardware tot onvoorspelbare prestaties en racecondities.
Ik ben het er niet mee eens maar snap het wel, het debuggen van problemen op de rand van hardware en software is moeilijk, frustrerend en onvoorspelbaar. Het soort bugs waarvan je met je hoofd tegen de muur wil gaan bonken. Als je daar een paar keer door gebeten bent denk je al snel "de baas betaalt de stroom maar".

Sterker nog, als ik eerlijk ben heb ik twee weken geleden besloten om even te stoppen met het finetunen van mijn nieuwe PC die ik zo zuinig had afgesteld dat het ding regelmatig crashte. Ik ben uiteraard zelf te ver gegaan en de afstelling nog steeds vrij strak, geen high perfmance, maar ook ik heb besloten liever een paar W meer te verbruiken en mijn aandacht op iets anders te richten omdat ik er even helemaal genoeg van had.
Maar dat finetunen deed je dan waarschijnlijk op methodes die niet 100% gegarandeerd worden.
Handmatig lagere voltages voor je cores in je bios instellen etc. Doe ik ook en AMD heeft er mooie tools voor. Maar daarbij weet je dat je instabiliteit kunt krijgen als je dat te ver doorvoert.

Dat is compleet verschillend van de features die cpu's al lang hebben om zelf automatisch lagere kloksnelheden en voltages in te stellen. Die blijven altijd binnen de veilige marges die de fabrikant heeft gemaakt.
En daar krijg je dan ook geen crashes van.
Veel klanten willen geeneens dat de poweruse anders ingesteld word dan "High Performance" of vergelijkbaar. Nu zijn daar sinds een jaar of wat, 5-8? wel andere settings voor, maar zeker gevirtualiseerde workloads trekken het slecht als er ineens capaciteit mist wat lastig aangestuurd kan worden vanuit een container of VM.

Op dit item kan niet meer gereageerd worden.