Micron komt met energiezuinig werkgeheugen

Micron heeft vandaag de Aspen-geheugenlijn aangekondigd. Het low-voltage ddr2-dram-geheugen kan het energieverbruik van datacenters met vierentwintig procent terugbrengen, claimt het bedrijf.

Ddr2-dram-chips in datacenters opereren momenteel meestal op 1,8 volt. De Aspen-lijn van Micron heeft echter genoeg aan 1,5 volt, wat een aanzienlijke energiebesparing voor datacenters op kan leveren. De servers van deze faciliteiten slurpten in 2005 wereldwijd 123 miljard kilowattuur, schatte het Lawrence Berkeley National Laboratory begin dit jaar. Volgens Micron neemt geheugen hierbij 25 miljard kilowattuur voor zijn rekening. Door over te stappen van 512-megabitmodules naar de nieuwe Aspen 1 gigabit reduced chip count modules zouden datacenters dit verbruik zelfs met de helft kunnen verminderen. Of de geheugenmodules aan gaan slaan is echter twijfelachtig. Ten eerste voldoet de Aspen-serie niet aan de Jedec-standaard voor solidstategeheugen; die schrijft namelijk minimaal 1,8 volt voor. Ten tweede zijn er geen partijen die chipsets bouwen met ondersteuning voor het low-voltage dram-geheugen. Micron hoopt echter dat hier snel verandering in komt. Dat zal een van de redenen zijn dat het bedrijf zitting heeft genomen in het 'Green Grid'-consortium, het overlegorgaan dat streeft naar efficiënter stroomverbruik van datacenters.

Micron ddr2 dram

Door Olaf van Miltenburg

Nieuwscoördinator

18-04-2007 • 21:30

48

Bron: Micron

Reacties (48)

Sorteer op:

Weergave:

rekenfoutje?? die man claimt dus dat ongeveer 1/5 v/h verbruik van een datacenter aan geheugen opgaat??
1/5e aan koeling van een datacenter (geschat)
1/5e aan geheugenverbruik
& 3/5 v/h verbruik gaat dus naar de chipset, multicoreprocessoren en massa's harde schijven...

imho geen realistische rekensom, momenteel zit geheugen dacht ik rond de 4-5% v/h totaalverbruik v/e pc?
edit: net te laat :)
5%?

hoge schatting. dat bij mij doet hoogstens 2-3 %.

oke, een simpel PCtje met 2 GiB RAM doet in idle wie weet dat wel, maar verder...
heb jij een pc met 2 cpu's en 16 tot 32 geheuge banken dan,
en zover ik weet waren SCSI schijven vaak al heel zunig (in verglijk met ata). ik geloof die 1/5 ook nie maar 1/7 a 1/8 zal het zeker wel zijn...
Droog! Ze ontwikkelen geheugen buiten de JEDEC specs, en er is nog geen hardware om het in te prikken. Maargoed, vooruitgang moet ergens beginnen.
Je mag het dan ook bijna belachelijk vinden dat de JEDEC een minimale werkspanning voor schrijft, en hierbij nooit heeft gedacht aan het steentje dat zij bij kunnen dragen aan het reduceren van de energie opname. Door nu dus met een minimum spanning de specificaties overeind te houden, zijn ze niet echt lekker bezig.

Met CPU's is het precies zo gegaan, de CPU's van nu zijn veel krachtiger dan voorheen, bij gelijk gebleven opgenomen vermogen. Een leuke Intel of AMD heeft tenslotte ook een TDP van minder dan 70 Watt, en dat verstookten de oude CPU's van jaren geleden ook al makkelijk. Ook dat hebben we te danken aan schaalverkleining en lagere spanningen. En ook hier was vaak een BIOS update voldoende, hoogste tijd om vanuit de BIOS ook variabele ( en dus vooral ook lagere ) spannigen voor geheugen te gaan ondersteunen.
CPU's zijn pas echt veel vermogen gaan gebruiken vanaf de Pentium 4; de Pentium 3 zat tussen de 15 en 30 Watt, met als enige uitschieter de P3 1.133 GHz die 37.5 Watt wilde hebben (zie http://balusc.xs4all.nl ). De al-oude Pentium (ja, de Pentium 1) had zelfs 'slechts' zo'n 10 tot 15 Watt nodig. De P4 had bij zijn introductie al meteen 50 Watt nodig, en dat is (voor de P4 serie althans) helaas nooit minder geworden.

Persoonlijk vind ik 70 Watt nog steeds veel te veel voor een desktop CPU, en ik zou graag zien dat Intel en AMD wat betreft stroomverbruik teruggaan richting P3 of liever nog P1, maar dat zal er op korte termijn wel niet inzitten...
De snelste energiebesparing is tegenwoordig te vinden in het voltage, niet in kloksnelheid.

Wanneer je je processor overklokt en het standaard voltage gebruikt vreet je CPU niet eens zo heel veel meer vermogen dan normaal, doe je het voltage een tikje hoger en draait je standaard snelheiden zit kwa verbruik hoger.
Persoonlijk vind ik 70 Watt nog steeds veel te veel voor een desktop CPU, en ik zou graag zien dat Intel en AMD wat betreft stroomverbruik teruggaan richting P3 of liever nog P1, maar dat zal er op korte termijn wel niet inzitten...
Al onderklokken overwogen? De klokfrequentie is zowat de belangrijkste factor voor het stroomverbruik, en door ze dus terug te schroeven naar P3 nivea zal het verbruik ook drastisch dalen.
met als voordeel dat je een onderklokte processor ook op een lage voltage kan zetten
Ja, de P1 gebruikte 10-15 watt voor 100 MHz. Trek dat eens door tot 1000 MHz voor de P3? ;)
De P1 100Mhz verbruikte 3,9 watt typical tot 10.1 watt max.

Als je uitgaat van die maximale waarde 24 uur per dag dan koste een P1 op 100Mhz 17,50 euro per jaar

De PIII zat op maximaal 26 Watt:
Dan kom je uit op 45,50 euro per jaar.

Een een moderne CPU van 70 watt:
122,50 euro per jaar.

En dat is dan alleen nog maar de CPU.
@Part:
24/7 op full-load is natuurlijk ontzettend overdreven. Ten eerste staat een gemiddelde pc misschien maximaal 8 uur per dag aan (lijkt me al veel zelfs) en ten tweede staat de cpu het grootste deel van die tijd uit z'n neus te vreten (surfen/MSN e.d.)
Een factor tien lager lijkt me dan ook een stuk realistischer.
Het is toch logisch dat er een minimum is,.. stel dat alle chips tot 0,001 volt moesten kunnen om aan de standaard te voldoen,.. de standaard is gewoon wat ook haalbaar moet zijn.

Natuurlijk had er wat meer speelruimte mogen zijn maar ach je kan ook niet overal rekening mee houden,.. en als er een markt voor is, dan komt alles op den duur vanzelf wel,.. want ja geld blijft geld.
de standaard is gewoon wat ook haalbaar moet zijn.
Ja... en 1,5 volt is dus haalbaar. Conclusie: het is tijd om de standaard te herzien.
Ja, maar waarom staat het minimum zo hoog? Maak het variabel en in tijden als nu, met het klimaat e.d., kan je makkelijker een voorsprong halen.
de spanning is zo hoog omdat de datasignalen welke uit het geheugen komen altijd nul volt zijn of de voeindgsspanning. Als geheugen op 1.8 volt draait ziin de uitgaande signalen ook 1.8 volt. Als de spanning echter 1.5 volt is dan zijn de uitgaande datasignalen ook maximaal 1.5 volt, en dit kan wel eens te weinig zijn voor de chipset/cpu om een logische 1 te zien waardoor de chipset of cpu niet samen kan werken met het geheugen
@Kurgan

Het was ook een reactie op CARman die het bijna belachelijk vind dat de JEDEC een minimale werkspanning voorschrijft, en in dit geval is een voor zo'n standaard toch echt een minimum en een maximum nodig omdat het anders vrijwel onmogelijk wordt om aan de standaard te voldoen (en ja ik vind ook dat het minimum lager mag,.. maar gewoon niet oneindig laag)
en dat verstookten de oude CPU's van jaren geleden ook al makkelijk
Eh... Vroeger werden CPUs passief gekoeld; zelfs zonder koelblok. Ok, de prestaties zijn spectaculair toegenomen, maar het verbruikte vermogen heeft er ook onder geleden.

edit: dubbelpost; te lang gewerkt blijkbaar ;), mod maar weg
@carman

De energieopname hangt niet alleen af van de spanning. Het opgenomen vermogen hangt af van spanning X opgenomen amperage. Als je 50 % energie wil bezuinigingen én aan de Jedec standaard wil voldoen dan houd dit dus in dat het amperage met 50% moet dalen. Hier heeft Micron dus de plank mis gelsagen. Jedec schrijft geen minimaal amperage voor wel een maxium. Waarchijnlijk is het makkelijker de energie bezuiniging te realiseren op basis van het verlagen van de voedingspanning ipv het verlagen van de stroom.
Respect voor Micron dat ze niet ageren op kritiek van het energiegebruik van datacenters (toch deel van hun businessplan). Ze zien het juist als een kans om voorloper te zijn.
en er is nog geen hardware om het in te prikken.
......................................... zuinig is het dan he? :)
24% hoe komen ze daar aan??

als het totaal energie verbruik van geheugen in datacenters 25 miljard kilowatuur is op een totaal verbruik van datacentra van 123 miljard kilowatuur is 25/123=20% van het verbruik voor geheugen ;)

dus deze chips leveren stroom :D


edit: volgens de bron " data centers could reduce system memory power consumption by approximately 24 percent" erg slordig overgenomen
Beetje sterk die 24%,.. als je 1,5/1,8*100% krijg je 83,33% of te wel een besparing van een kleine 17%,... zitten er verder nog technieken in de energie besparen soms? (tenslotte: watt=volt*ampere)?


Edit:
hoe weet je dat zo zeker? Wie zegt dat de weerstand van deze chips hetzelfde zijn en dat ze minder ampere nodig hebben? (moet eigenlijk wel anders halen ze nooit die 24% afnamen,...) maar alsnog het staat nergens,.. althans ik zag het nergens staan.
als de spanning omlaag gaat gaat ook de stroom omlaag dus W=V*I, I=V/R dus W=V^2/R. het vermogen neemt dus kwadratisch af met de spanning
24% lijkt me ook wel beetje overdreven. Maar ja marketing.

Al zou deze chip maar 1% besparen van 123 MW. Is het toch al veel.
Goed initiatief. Alleen ik denk dat mensen inderdaad zullen schrikken als hij niet gecertificeerd is door JEDEC. Maar wel dom dan geheugen minimaal 1.8v moet lopen. Het kan blijkbaar zuiniger zonder stabiliteit's verlies. Ik snap ook wel dat je het vast moet leggen om er voor te zorgen dat je mensen hun chipsets er op af kunnen stellen. Maar misschien is het tijd om de marges dus wat groter te maken. Zodat we zuinige producten kunnen maken.

OC geheugen is ook niet JEDEC certificeert maar dat wordt ook door veel tweakers gebruikt en is ook helmaal stabiel.
tweakers gebruiken het, maar systeembeheerders (normaal) niet ;)
Dat snap ik maar het geeft wel aan dat als iets buiten spec loopt het niet slecht hoeft te zijn.
Eeeh, denk je dat veel mensen weten wat JEDEC gecertificeerd inhoud? Ik denk dat er genoeg mensen zijn die daar geen flauw benul van hebben ;)
Maar de mensen die onderdelen voor een server kopen, weten dat hopelijk wel ;) Je wil namelijk niet graag dat je server onderuit gaat, doordat je geheugen niet goed blijkt te werken.
Helaas zegt volts niets over het opgenomen vermogen. Alleen als de stroomsterkte hetzelfde blijft, die je een afname in vermogen van 17%.
Je kan geheugen (of elk computeronderdeel trouwens) niet gewoon zien als een weerstand qua stroomgebruik.

Als je de spanning het geheugen verhoogt krijg je meer lekstroom in het geheugen, hierdoor kan je er wel van uit gaan dat een hogere spanning ook een hoger verbruik oplevert.
Verklaar dan maar es waarom een op 5V werkende 286 minder vermogen trekt dan een op 1,7V lopende P4.

Tuurlijk, stroomsterkte is niet recht-evenredig met vermogen, maar spanning ook niet...
Voor energie verliezen maakt het nogal wat voor electrisch circuit je voor je hebt.

Een weerstand R dissipeert een vermogen V^2/R; bij een capaciteit C - die je oplaadt en ontlaadt - zijn de verliezen evenredig met f*C*V^2.

De frequentie zit er dus lineair in. Bij hogere frequenties heb je dus grotere verliezen: een van de redenen waarom moderne (en steeds snellere geheugens) zoveel dissiperen.

Natuurlijk is het wel zo dat een lagere voedingsspanning V -als het geheugen maar blijft werken - ook kwadratisch minder verliezen heeft.
Energiezuinig = verder overclocken :9

Zullen ze hetzelfde (energie zuinige) geheugen niet ook als niet-energiezuinige maar snelle(re) versie uitbrengen? Van de fabriek 'overgeclocked' dus, net zoals met bijvoorbeeld processoren gebeurt.
Energiezuinig hoeft nog niet te betekenen dat je verder kan overclocke,.. je zal minder snel tegen warmte problemen aanlopen maar de vraag is of de transistors wel gebouwt zijn om sneller te schakelen/bij hogere voltages te werken,...

Omtrend dit was al een hele discussie gaande over de EE versies van AMD, werdt door nogal wat mensen vermoed dat die niet hoger zouden overclocke omdat ze simpelweg niet gebouwt werden voor hogere voltages/kloksnelheden maar voor lager energieverbruik.
Goede zaak dit. Bij stroomverbruik denk je altijd als eerste aan de CPU, harddisk en scherm. Vooral die eerste komt er vaak mee in het nieuws. Sinds het P4/prescot fiasco is daar dan ook veel aan verbeterd recentelijk.

Geheugen is echter bijna onopgemerkt ook een behoorlijk energieslurper geworden. Ik weet nog dat ik zeer verbaasd was toen een tijd geleden de eerste ram chips met koeling kwamen, meer vandaag de dag zijn enorme koellichamen zoals we die van de CPUs kennen al niet meer een totaal onbekend verschijnsel.
En juist het cache geheugen in je cpu is de energievreter. Het is snel maar neemt ook 6 transistors (Sram) ipv 1 transistor (dram) per bit in beslag. ;)
"Jedec-standaard voor solidstategeheugen"
't is niet dat JEDEC nog nooit een nieuwe versie van een standaard heeft ontwikkeld, of slechts één standaard beheert... dat hoort helemaal geen belemmering te zijn voor dit product.

Alleen zal Micron steun moeten vinden bij anderen op de markt, want alleen zullen ze het niet halen. Dat terwijl dit toch weer mooie technologie lijkt te zijn :)
is dit niet handig voor umpc's?
Met zuinigere chipsets die effectiever met het geheugen omgaan en zuinige processors die zichzelf uitschakelen/lager clocken haal je er veel meer rendement uit. Maar energiezuinige chipsets zijn veel lastiger te produceren waardoor dat domweg niet gedaan wordt. De overstap naar 2,5" harddisks bijvoorbeeld zal een enorm verschil in wattage opleveren bij een grote server.

De servers van deze faciliteiten slurpten in 2005 wereldwijd 123 miljard kilowattuur. Volgens Micron neemt geheugen hierbij 25 miljard kilowattuur voor zijn rekening.

Kan kloppen maar dan nemen ze het geheugen van adapters/expansions ook mee, anders lijkt het me erg onrealistisch.

Het lijkt me niet dat dit aanslaat of het moet net zo duur gaan worden als het huidige marktaanbod. Om nou als bedrijf op een geheel nieuwe chipset over te stappen voor 0,3 voltage per latje minder is ook een beetje ver gezocht..

Op dit item kan niet meer gereageerd worden.