Google: datacenter bestuurd via ai verbruikt gemiddeld 30 procent minder energie

Google meldt dat het een aantal maanden geleden is overgegaan naar een systeem dat op basis van kunstmatige intelligentie de koeling van zijn datacenters beheert zonder tussenkomst van mensen. Dat zou tot nu toe een gemiddelde energiebesparing van 30 procent hebben opgeleverd.

DeepMind, een zusterbedrijf van Google, schrijft in een blogpost dat het ai-systeem elke vijf minuten een snapshot van duizenden sensoren van een geheel datacenter binnenhaalt. Het analyseert vervolgens hoe het het energieverbruik van het datacenter kan minimaliseren door bepaalde acties te nemen die zijn afgebakend door veiligheidsoverwegingen. Aan een grafiek te zien, is deze ai control mode in gebruik sinds ongeveer negen maanden. De energiebesparing van gemiddeld 30 procent zou dan ook in die tijd zijn gerealiseerd. Verdere verbetering zou door steeds meer data tot de mogelijkheden behoren.

Het bedrijf maakt niet bekend in welke datacenters de controle volledig wordt overgelaten aan kunstmatige intelligentie, maar spreekt van 'sommige Google-datacenters' waar diensten als YouTube, Gmail en Search worden gehost. Het systeem maakt gebruik van een mate aan onzekerheid, waardoor het een bepaalde actie alleen neemt als het er zeker van is dat het de juiste is. Daarnaast vinden er aanvullende controles plaats of de actie wel binnen de geldende veiligheidsnormen valt. Ten slotte is het altijd mogelijk om de controle weer terug te geven aan traditionele systemen.

Het idee om de controle volledig aan ai over te laten, kwam van de beheerders van de datacentra zelf, die het systeem al gebruikten om aanbevelingen te doen. Het opvolgen van die aanbevelingen zou echter te veel moeite en toezicht vereisen. DeepMind legt niet uit welke acties het systeem precies kan nemen. Dan Fuenffinger, een van de Google-datacentermedewerkers, haalt een voorbeeld aan: "Het was fantastisch om te zien hoe de ai leerde om gebruik te maken van het winterse weer om kouder water dan normaal te produceren, waardoor de voor het koelen benodigde energie verminderde."

google-datacentergoogle-datacenter

Door Sander van Voorst

Nieuwsredacteur

17-08-2018 • 20:05

56

Reacties (56)

Sorteer op:

Weergave:

Ben benieuwd of Google Groningen hier ook al gebruik van maakt.
bron Het nieuwe datacenter maakt gebruik van de nieuwste ontwikkelingen op het gebied van koelingstechnologie, stelt Google. De koeling van de servers vindt namelijk plaats door middel van natuurlijke en aanwezige bronnen, zoals koele buitenlucht en huishoudelijk afvalwater.

Mede hierdoor verbruikt Google’s datacenter 50 procent minder energie dan een gemiddeld datacenter. Voor de resterende energiebehoefte maakt Google enkel gebruik van duurzame energie, die wordt opgewekt in het nieuwe, nabije windmolenpark van Eneco in Delfzijl.
Het nabije windmolenpark van Eneco in Delfzijl kan 175 miljoen kWh aan elektriciteit per jaar leveren en Google Inc. zal tien jaar lang de volledige productie afnemen om het datacenter in de Eemshaven, dat in december 2016 officieel geopend werd, van energie te voorzien. bron
Als dit inderdaad 30% oplevert aan 'energie besparing', waar ik dan even van uit ga is dat dit alleen besparing is op de energiekosten om het systeem op de gewenste temperatuur te houden (zo staat het wel in het artikel, maar het sluit niet uit dat elders ook winst is gemaakt), dan kan dit een aanzienlijke hoeveelheid stroom schelen. Als ik mij niet vergis is +-50% van alle 'stook' kosten binnen een data center besteed aan climaat-regulatie. Misschien niet de beste bron.. maar forbes (link) zegt: 'Global data centers used roughly 416 terawatts (4.16 x 1014 watts) (or about 3% of the total electricity) last year'.

Haal daar 15% vanaf (de helft van de totale stook kosten zoals eerder omschreven), en je kan honderden kolencentrales schrappen, compleet overbodig geworden! dat zou toch fantastisch zijn? Waarom zijn ze zo terughoudend in het activeren van deze AI op meerdere data-centra als de resultaten zo'n gigantische impact op het milieu kunnen hebben?

[Reactie gewijzigd door un1ty op 23 juli 2024 17:52]

Als ik mij niet vergis is +-50% van alle 'stook' kosten binnen een data center besteed aan climaat-regulatie.
Het getal waar het om gaat is PUE. Power Usage Effectiveness is hoeveel kWh het datacenter verstookt ten opzichte van een kWh door een computer gebruikt. Een gemiddeld datacenter heeft een PUE van 2. Voor iedere kWh nuttige energie wordt er nog een kWh gebruikt aan koeling en ventilatie. Google's meest efficiënte datacenters (waar dit artikel over gaat) hebben een PUE van 1.12. Twee van de datacenters die ik gebruik hebben een PUE van 1.15.

Dus, als Google van gemiddeld 1.16 naar 1.12 gaat is dat een besparing van 30% maar niet zo'n grote besparing als wanneer Amazon van 2 naar 1.6 zou gaan.
Ik weet niet over welke dcs je het hebt, maar de meesten draaien niet meer op een pue van 2. Een gemiddeld datacenter maakt gebruik van een zogeheten hot-cold aisle waardoor een pue van 1.2 - 1.3 van toepassing is. Ofwel, voor elke verstookte 100 watt heb je tussen de 20 en 30 watt aan koeling nodig. Bij een pue van 2 zou je 100 watt aan koeling nodig hebben. Een behoorlijk groot verschil dus.

Oude datacenters zijn veelal omgebouwd in NL want je bespaard enorm op kosten.
Ik kom dagelijks in datacenters, en de oudjes zijn niet 'omgebouwd' want dat gaat eenvoudigweg niet met een datacenter. Je kunt niet even een weekje de deuren dichtgooien terwijl je de koeling vervangt en alle racks herschikt rond je nieuwe cold corridor. Ze zullen misschien een keer de chillers vervangen hebben door efficiëntere exemplaren, maar dat geeft geen schokkende verbeteringen.
Ehhh ik zeg ook niet dat alle oude datacenters zijn omgebouwd. Je kan niet zomaar een oude room ombouwen terwijl deze in productie is. In een week tijd is al helemaal een mission impossible bij het moderniseren (afhankelijk van wat je precies wilt doen). Ombouwen is ook niet zomaar een stap of gemakkelijk gedaan. Dat zal je mij ook nergens zeggen. Het heeft echt wel impact en zomaar een room uit productie halen is ook niet iets wat je zomaar doet. Maar op een gegeven punt is het niet meer rendabel en dan moet je een keuze maken. Er zijn genoeg die al deze stap hebben gemaakt. En als je de mogelijkheid hebt om te kiezen dan is een modern datacenter aantrekkelijker omdat je stroomkosten hierdoor vaak omlaag gaat (tenzij er andere prijs structuren zijn).

Maar ik blijf bij mijn standpunt dat een pue van 2.0 verre van het actuele gemiddelde is.

[Reactie gewijzigd door servicedb op 23 juli 2024 17:52]

Datacenters met PUE van 2 zijn oud, heel oud. Moderne schommelen ergens rond de 1.3. In Amsterdam een DC bouwen moet je volgens mij tegenwoordig aan 1.3 voldoen, anders komt er niet eens een vergunning.

Dus ja, datacenters met 2 zijn er nog, maar het worden er steeds minder.
omdat het nog niet zeker is dat het allemaal feilloos werkt vermoed ik.
na een periode van 'beta' zullen langzaam steeds meer dit systeem gaan gebruiken.

maar mochten er nu fouten optreden is het risico beperkt. ipv wereldwijd problemen tegelijkertijd.
Geef root toegang aan een ai op al je data centers. 8)7

Goal: reduce power usage


Best solution: elliminate human users
Waar zie jij staan dat ze root toegang geven tot elke machine die daar staat? Er kan toch ook best infrastructuur zijn die telemetrie bijhoudt en alleen rechten geeft aan de AI om bepaalde handelingen te verrichten die hij wel mag doen.
root@GOOGLE-DC:/home/ai# shutdown -h now :z

** target acquired ** :+
Op zich is dit met procescontrollers ook te realiseren, binnen bepaalde bandbreedtes natuurlijk. Het interessantste is het aantal sensoren wat gebruikt wordt om de ai van informatie te voorzien. En de vraag natuurlijk hoeveel rekenkracht en daarmee energie deze ai gebruikt om die 30% besparing te realiseren. :)
Ik denk dat energieverbruik van deze AI reuze mee valt, het is een relatief simpele opdracht en de data is simpel om te verwerken. Duizenden sensoren klinkt indrukwekkend, maar de AI zal zeer waarschijnlijk die data gaan aggregeren voordat deze data gebruikt wordt voor het bepalen van het luchtbehandelingsbeleid.

Zelfs als het wel een bak rekencapaciteit zou kosten vermoed ik dat dit ondergeschikt aan het ontwikkelen en verbeteren van AI algoritmes gezien het een project is van Deepmind.
Ik lees veel simpel in je reactie. Ik gok dat als het allemaal zo simpel was en er niet veel rekenkracht nodig is dit soort ai en bijbehorende besparingen al een jaartje of 10 geleden gerealiseerd hadden kunnen worden.
Het verwerken van data is het probleem niet. In de meeste moderne autos zit tegenwoordig botspreventie systemen en adaptieve cruisecontrol, deze systemen maken gebruik van sensoren zoals radar om andere weggebruikers te detecteren. Deze moderne autos geen aanhangwagen met daarop een rack met servers of maken gebruik van clouddiensten om deze data te analyseren, dit wordt door een computer in de auto geanalyseerd en indien nodig actie ondernomen.

Het gros van de bezoekers van deze site zal wellicht met een beetje hulp van internet een programma of script kunnen bouwen die een temperatuur sensor uitleest en daar indien nodig een actie uit laten komen om meer of minder te gaan koelen. In dit voorbeeldje is de programmeur de intelligentie immers die bepaald dat bij 30 graden er meer gekoeld moet worden en bij 20 minder en moet je de computer de opdracht geven het programma of script uit te voeren.

De complexiteit ontstaat bij het feit dat zelfs de meest geavanceerde computer geen intelligentie kent en passief is en je dus een programma moet schrijven die de computer intelligentie "geeft" om binnen bepaalde spelregels te werken aan de gegeven doelstelling en daarnaast actuele en historische data kan analyseren aan de hand hiervan zelfstandig optimalisaties kan formuleren.
Precies, het gaat niet om de rekenkracht, maar om de manier van hoe het programma werkt en daarvan leert. Dat staat volledig los van elkaar.
Maar de "intelligentie" die je voor deze toepassing nodig hebt kan ook heel eenvoudig zijn. De complexiteit zit m vooral in de hoeveelheid sensoren en bijbehorende data. De technologie is nu rijp genoeg om dit tegen acceptabele kosten te bouwen maar in het verleden waren de kosten hoger dan de baten.

Als de energiekosten blijven stijgen zal je zien dat er veel meer besparingsopties rendabel worden.
een computer doet dan ook heel veel simpele dingen, maar dan veel efficiënter en sneller dan mensen ;)

een simpel voorbeeld (pun intended) is het optellen alle getallen van 1 tot 100. Je kan er ingewikkelde formules voor verzinnen zoals T = 1/2k(k+1) of je kan heel snel 1+2+3 ... doen in bvb excel :*)
Die 1+2+3+... kan nog veel sneller door met 1 te beginnen en dan een series tot 100 te doen gevolgd door een SUM :-) Totaal geen wiskundige- of informatica-mentaliteit maar wel retesnel om iets uit te rekenen.
Dat is dan nog maar de vraag, een AI zal waarschijnlijk een totaal ander pad bewandelen. Bijvoorbeeld iets als (1+100) * (100/2) uitvoeren. Deze 2 optelsommen en 1 vermenigvuldiging zijn zelfs voor mij uit het hoofd simpel te doen en behoeven dus minder energie dan de 99 optelsommen uit te moeten voeren.
101 * 50 doe ik uit het hoofd in ieder geval vele malen sneller dan dat jij excel met je muis opzoekt, opent, de reeks 1 tot 100 ingeeft en daarna de som functie opgeeft.

De AI zal dus sneller en efficiënter dan mensen de koeling aan kunnen sturen dan dat nu gebeurt. Dat die AI dus manieren ziet die de ontwikkelaar niet voorzien heeft maar welke wel het meest efficiënt zijn, daarin zit de grote winst om de AI toe te passen. Voor wat AI kan doen, zie ook bijvoorbeeld dit stukje hier over code optimalisatie.

Hoe de AI dan exact voor de aansturing van de koeling de besparing oplevert is helaas niet in details uit de doeken gedaan.
Ja maar dat is
1) open spreadsheet
2) vul 1 in willekeurige cel
3) trek rechteronderhoek van cel met waarde 1 naar beneden
tot je 100 hebt
4) selecteer andere willekeurige cel waar de reeks zich niet in bevindt
5) formula editor vul in SUM(
6) selecteer de cel met eerste item van reeks trek naar beneden tot laatste item
7) ga naar formule editor eindig met ) en druk ENTER

Toch wel wat "spreadsheet" mentaliteit voor nodig

Terwijl je op papier of in je hoofd ook dit kunt:
gemiddelde(reeks) * aantal_elementen(reeks)

In een opvolgende gatenloze reeks is het gemiddelde heel makkelijk te vinden
het is het middelste punt in een reeks met een oneven aantal elementen en
het gemiddelde van de 2 middelste punten in een reeks met even elementen.

Dat wordt dus:
gemiddelde(50:51) * 100 = 5050
5) vul in =SOM(A1:A100) en je bent al klaar
6)
7)
En de vraag natuurlijk hoeveel rekenkracht en daarmee energie deze ai gebruikt om die 30% besparing te realiseren. :)
Zou er eigenlijk bij in moeten zitten.
Het enige wat het datacenter doet is die AI draaien. :+
Echter zullen die procescontrollers de energiedaling niet verbeteren in de tijd. Deze zijn dusdanig geprogrammeerd om in bepaalde instanties acties uit te voeren en zullen de daling enkel kunnen verbeteren door tussenkomst van de mens.
De AI zorgt er juist voor dat naarmate de tijd toeneemt de voorspellingen ook beter zullen worden waardoor de energiebesparing alleen maar zal toenemen. Al zal de snelheid van dit laatste exponentieel afnemen.
Als dit al AI is, is die term wel heel snel verwaterd...het is een ML modelletje wat energieverbruik minimaliseert. Waaraan de ML alleen maar zorgt dat de programmeur minder werk hoeft te doen, het lost geen probleem op wat zonder ML niet op te lossen is.

[Reactie gewijzigd door Origin64 op 23 juli 2024 17:52]

Ik verwacht dat waar je met een PID controller oplossing altijd achter de feiten aanloopt, je met wat historische meetgegevens en een beetje wiskunde mooi gedrag kunt voorspellen en dus veel sneller kunt bijsturen/reageren. Daar komt waarschijnlijk de winst vandaan. Of dat AI mag heten, vraag ik me ook af.
Technisch gezien kun je zeggen dat elk ML model AI is, maar ja dan is over een paar jaar bijna alles AI, ML is nuttig en relatief makkelijk te gebruiken, maar ja we moeten dan een ander woord gaan verzinnen of een heel spectrum ofzo voor ingewikkeldere toepassingen.
De term AI is al tijden verwaterd tot "een systeem dat lijkt te denken". Dit is natuurlijk gigantisch generiek en geeft over het algemeen aan dat er een zekere vorm van machine learning gebruikt word.
"De cloud" is ook maar een server die in iemand anders zijn datacenter staat, terwijl dat oorspronkelijk toch eerder over een gedecentraliseerd systeem ging met wereldwijde CDN / failover (je data overal en tegelijk).

Machine learning in deze case = trial and error, blijven doen wat werkt?
Klinkt niet echt als AI, meer als sneller kunnen ingrijpen op meetgegevens. En negen maanden is niet echt een lange tijd om resultaten te bekijken. Wie weet blijkt over nog drie maanden dat alle hardware twee jaar eerder is versleten door de vele wisselingen in het klimaat...
De uitkomst of het doel zegt niets over het middel hoe daartoe gekomen is. In die zien lijkt het ook haalbaar met sneller regulier regelwerk. Maar zonder uitleg wat ze werkelijk onder de buzz words AI (in de cloud) verstaan blijft het onduidelijk of het iets anders dan AI is en of het echt nodig was geweest.
Ik vind vooral deze geweldig:

Het systeem maakt gebruik van een mate aan onzekerheid, waardoor het een bepaalde actie alleen neemt als het er zeker van is dat het de juiste is.

De zeer slimme opa's van deze feilloze energiebesparende KI bedenkers ontwierpen ooit de Titanic die, eveneens afgebakend door veiligheidsoverwegingen en met aanvullende correcties of het wel binnen de geldende veiligheidsnormen viel -en dat deed die boot voor 100 procent- binnen een mate van onzekerheid niet kon zinken.

Ik zou persoonlijk toch niet zo gerust zijn om de controle over zo'n honderden miljoenen kostende faciliteit volledig aan de ai of ki over te laten. De praktijk weet je toch altijd weer te verrassen...
Daarom dat het systeem eerst alleen aanbevelingen mocht doen, en nu het zich bewezen heeft, worden zijn acties automatisch uitgevoerd.
Maar de data centers zelf blijven wel controleren.
Daarnaast weet het systeem van elke actie hoe zeker het is van het resultaat. Bij te weinig zekerheid slikt het zijn advies in.
Heel riskant is het dus niet.
gelukkig zinkt een datacenter niet zo snel. ;)
In principe probeer ik dit thuis ook te doen met een Raspberry Pi en Domoticz ... weerbericht ophalen voor de komende dag, is de kamertemperatuur hoger dan 20 graden en wordt het warmer dan 22 graden vandaag? Dan hoeft de thermostaat niet aan te gaan. Is een van de variabelen anders dan kan die alsnog bepalen of het opgestookt moet worden.

Ja ik kan die thermostaat wel programmeren maar die heeft geen ‘marges’, alleen harde limieten. Is het 20 graden en het dagprogramma 20.5 terwijl het later op de dag 24 graden wordt, dan zal die alsnog eerst verwarmen tot 20.5 en daarna uit gaan. Nutteloos dus.

Dmv meerdere inputs kan ik vantevoren bepalen wat er daadwerkelijk nodig is.

Nu nog een schakeling maken waarbij bepaalde zaken alleen gaan werken als de zonnepanelen voldoende opwekken om het te compenseren; de wasdroger bijvoorbeeld.
Compleet off topic maar doe het wel ff reageren op jouw laatste alinea :
Nu nog een schakeling maken waarbij bepaalde zaken alleen gaan werken als de zonnepanelen voldoende opwekken om het te compenseren; de wasdroger bijvoorbeeld.
Dat is kwestie van of je slimme meter of jouw omvormer uitlezen en je droger schakelen via een relais (bv deze voorzien van ESP easy)

Gezien je al handig bent met domoticz moet dat niet heel lastig zijn voor je toch ?
Nee, maar ik moet ‘t nog wel doen ;-) bovendien heeft mn droger een tiptoets systeem en geen harde aan/uitschakelaar, en moet ik nog iets bedenken zodat ie niet ineens uitklapt als de panelen gedurende een paar seconden ineens 100 watt minder dan mn ondergrens leveren door een wolkje en daarna ineens weer aanspringt.
Kun je geen vertraging inbouwen dat het X seconden onder de drempel moet zijn?

Los daarvan, zonnepanelen om je droger te gebruiken? Daar heb ik een droogmolen en wasrek voor. Kost precies 0kwh, gebruik ik met gezin van 4 personen het hele jaar door (in de winter en met slecht weer op rekje binnen). Droger gaat 5 keer per jaar aan denk ik.
Ja maar handdoeken aan de waslijn drogen worden ze knetterhard van... in de droger worden ze een stuk zachter.

Gezin met 2 kinderen hier, was- en droger maken overuren

[Reactie gewijzigd door DigitalExorcist op 23 juli 2024 17:52]

Als ik dat ene voorbeeld lees van besparing op koeling door het koudere weer in de winter, dan denk ik dat de titel eerder zou moeten zijn:
"Datacenter verbruikte 40% te veel energie totdat ai het energiebeheer overnam"
:D
Ik vind het een heel vaag artikel.
Je wil dat een server onder een bepaalde maximum temp draait. Wat heb je daar meer voor nodig dan een goede thermostaat/ PID die een koelpomp of een airco gaat aansturen.

Veel meer hangt af van je koelmogelijkheden.
Moet je al je warmte kwijt aan de lucht, is er koud water voor handen, of heb je een WP nodig. Dat gaat toch een veel grotere rol spelen.

Zonder meer gegevens snap ik niet wat AI hier echt moet doen.
Beheerder wilt het wat warmer hebben in zijn werkhok
"Sorry Dave I can't let you do that"

Moet ik daar zoiets bij voorstellen? :D
Dat is geen probleem, warmte is er zat ;)
Of het systeem bedenkt dat je beter kan koelen met stikstof en besluit het datacenter te vullen met wat eigenlijk voor het brandblussysteem bedoeld is. Lig je dan met je goeie gedrag dood te wezen 😜

Op dit item kan niet meer gereageerd worden.