Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties
Bron: Micron

Micron heeft vandaag de Aspen-geheugenlijn aangekondigd. Het low-voltage ddr2-dram-geheugen kan het energieverbruik van datacenters met vierentwintig procent terugbrengen, claimt het bedrijf.

Ddr2-dram-chips in datacenters opereren momenteel meestal op 1,8 volt. De Aspen-lijn van Micron heeft echter genoeg aan 1,5 volt, wat een aanzienlijke energiebesparing voor datacenters op kan leveren. De servers van deze faciliteiten slurpten in 2005 wereldwijd 123 miljard kilowattuur, schatte het Lawrence Berkeley National Laboratory begin dit jaar. Volgens Micron neemt geheugen hierbij 25 miljard kilowattuur voor zijn rekening. Door over te stappen van 512-megabitmodules naar de nieuwe Aspen 1 gigabit reduced chip count modules zouden datacenters dit verbruik zelfs met de helft kunnen verminderen. Of de geheugenmodules aan gaan slaan is echter twijfelachtig. Ten eerste voldoet de Aspen-serie niet aan de Jedec-standaard voor solidstategeheugen; die schrijft namelijk minimaal 1,8 volt voor. Ten tweede zijn er geen partijen die chipsets bouwen met ondersteuning voor het low-voltage dram-geheugen. Micron hoopt echter dat hier snel verandering in komt. Dat zal een van de redenen zijn dat het bedrijf zitting heeft genomen in het 'Green Grid'-consortium, het overlegorgaan dat streeft naar efficiënter stroomverbruik van datacenters.

Micron ddr2 dram
Moderatie-faq Wijzig weergave

Reacties (48)

rekenfoutje?? die man claimt dus dat ongeveer 1/5 v/h verbruik van een datacenter aan geheugen opgaat??
1/5e aan koeling van een datacenter (geschat)
1/5e aan geheugenverbruik
& 3/5 v/h verbruik gaat dus naar de chipset, multicoreprocessoren en massa's harde schijven...

imho geen realistische rekensom, momenteel zit geheugen dacht ik rond de 4-5% v/h totaalverbruik v/e pc?
edit: net te laat :)
5%?

hoge schatting. dat bij mij doet hoogstens 2-3 %.

oke, een simpel PCtje met 2 GiB RAM doet in idle wie weet dat wel, maar verder...
heb jij een pc met 2 cpu's en 16 tot 32 geheuge banken dan,
en zover ik weet waren SCSI schijven vaak al heel zunig (in verglijk met ata). ik geloof die 1/5 ook nie maar 1/7 a 1/8 zal het zeker wel zijn...
Droog! Ze ontwikkelen geheugen buiten de JEDEC specs, en er is nog geen hardware om het in te prikken. Maargoed, vooruitgang moet ergens beginnen.
Je mag het dan ook bijna belachelijk vinden dat de JEDEC een minimale werkspanning voor schrijft, en hierbij nooit heeft gedacht aan het steentje dat zij bij kunnen dragen aan het reduceren van de energie opname. Door nu dus met een minimum spanning de specificaties overeind te houden, zijn ze niet echt lekker bezig.

Met CPU's is het precies zo gegaan, de CPU's van nu zijn veel krachtiger dan voorheen, bij gelijk gebleven opgenomen vermogen. Een leuke Intel of AMD heeft tenslotte ook een TDP van minder dan 70 Watt, en dat verstookten de oude CPU's van jaren geleden ook al makkelijk. Ook dat hebben we te danken aan schaalverkleining en lagere spanningen. En ook hier was vaak een BIOS update voldoende, hoogste tijd om vanuit de BIOS ook variabele ( en dus vooral ook lagere ) spannigen voor geheugen te gaan ondersteunen.
CPU's zijn pas echt veel vermogen gaan gebruiken vanaf de Pentium 4; de Pentium 3 zat tussen de 15 en 30 Watt, met als enige uitschieter de P3 1.133 GHz die 37.5 Watt wilde hebben (zie http://balusc.xs4all.nl ). De al-oude Pentium (ja, de Pentium 1) had zelfs 'slechts' zo'n 10 tot 15 Watt nodig. De P4 had bij zijn introductie al meteen 50 Watt nodig, en dat is (voor de P4 serie althans) helaas nooit minder geworden.

Persoonlijk vind ik 70 Watt nog steeds veel te veel voor een desktop CPU, en ik zou graag zien dat Intel en AMD wat betreft stroomverbruik teruggaan richting P3 of liever nog P1, maar dat zal er op korte termijn wel niet inzitten...
De snelste energiebesparing is tegenwoordig te vinden in het voltage, niet in kloksnelheid.

Wanneer je je processor overklokt en het standaard voltage gebruikt vreet je CPU niet eens zo heel veel meer vermogen dan normaal, doe je het voltage een tikje hoger en draait je standaard snelheiden zit kwa verbruik hoger.
Persoonlijk vind ik 70 Watt nog steeds veel te veel voor een desktop CPU, en ik zou graag zien dat Intel en AMD wat betreft stroomverbruik teruggaan richting P3 of liever nog P1, maar dat zal er op korte termijn wel niet inzitten...
Al onderklokken overwogen? De klokfrequentie is zowat de belangrijkste factor voor het stroomverbruik, en door ze dus terug te schroeven naar P3 nivea zal het verbruik ook drastisch dalen.
met als voordeel dat je een onderklokte processor ook op een lage voltage kan zetten
Ja, de P1 gebruikte 10-15 watt voor 100 MHz. Trek dat eens door tot 1000 MHz voor de P3? ;)
De P1 100Mhz verbruikte 3,9 watt typical tot 10.1 watt max.

Als je uitgaat van die maximale waarde 24 uur per dag dan koste een P1 op 100Mhz 17,50 euro per jaar

De PIII zat op maximaal 26 Watt:
Dan kom je uit op 45,50 euro per jaar.

Een een moderne CPU van 70 watt:
122,50 euro per jaar.

En dat is dan alleen nog maar de CPU.
@Part:
24/7 op full-load is natuurlijk ontzettend overdreven. Ten eerste staat een gemiddelde pc misschien maximaal 8 uur per dag aan (lijkt me al veel zelfs) en ten tweede staat de cpu het grootste deel van die tijd uit z'n neus te vreten (surfen/MSN e.d.)
Een factor tien lager lijkt me dan ook een stuk realistischer.
Het is toch logisch dat er een minimum is,.. stel dat alle chips tot 0,001 volt moesten kunnen om aan de standaard te voldoen,.. de standaard is gewoon wat ook haalbaar moet zijn.

Natuurlijk had er wat meer speelruimte mogen zijn maar ach je kan ook niet overal rekening mee houden,.. en als er een markt voor is, dan komt alles op den duur vanzelf wel,.. want ja geld blijft geld.
de standaard is gewoon wat ook haalbaar moet zijn.
Ja... en 1,5 volt is dus haalbaar. Conclusie: het is tijd om de standaard te herzien.
Ja, maar waarom staat het minimum zo hoog? Maak het variabel en in tijden als nu, met het klimaat e.d., kan je makkelijker een voorsprong halen.
de spanning is zo hoog omdat de datasignalen welke uit het geheugen komen altijd nul volt zijn of de voeindgsspanning. Als geheugen op 1.8 volt draait ziin de uitgaande signalen ook 1.8 volt. Als de spanning echter 1.5 volt is dan zijn de uitgaande datasignalen ook maximaal 1.5 volt, en dit kan wel eens te weinig zijn voor de chipset/cpu om een logische 1 te zien waardoor de chipset of cpu niet samen kan werken met het geheugen
@Kurgan

Het was ook een reactie op CARman die het bijna belachelijk vind dat de JEDEC een minimale werkspanning voorschrijft, en in dit geval is een voor zo'n standaard toch echt een minimum en een maximum nodig omdat het anders vrijwel onmogelijk wordt om aan de standaard te voldoen (en ja ik vind ook dat het minimum lager mag,.. maar gewoon niet oneindig laag)
en dat verstookten de oude CPU's van jaren geleden ook al makkelijk
Eh... Vroeger werden CPUs passief gekoeld; zelfs zonder koelblok. Ok, de prestaties zijn spectaculair toegenomen, maar het verbruikte vermogen heeft er ook onder geleden.

edit: dubbelpost; te lang gewerkt blijkbaar ;), mod maar weg
@carman

De energieopname hangt niet alleen af van de spanning. Het opgenomen vermogen hangt af van spanning X opgenomen amperage. Als je 50 % energie wil bezuinigingen én aan de Jedec standaard wil voldoen dan houd dit dus in dat het amperage met 50% moet dalen. Hier heeft Micron dus de plank mis gelsagen. Jedec schrijft geen minimaal amperage voor wel een maxium. Waarchijnlijk is het makkelijker de energie bezuiniging te realiseren op basis van het verlagen van de voedingspanning ipv het verlagen van de stroom.
Respect voor Micron dat ze niet ageren op kritiek van het energiegebruik van datacenters (toch deel van hun businessplan). Ze zien het juist als een kans om voorloper te zijn.
en er is nog geen hardware om het in te prikken.
......................................... zuinig is het dan he? :)
Goed initiatief. Alleen ik denk dat mensen inderdaad zullen schrikken als hij niet gecertificeerd is door JEDEC. Maar wel dom dan geheugen minimaal 1.8v moet lopen. Het kan blijkbaar zuiniger zonder stabiliteit's verlies. Ik snap ook wel dat je het vast moet leggen om er voor te zorgen dat je mensen hun chipsets er op af kunnen stellen. Maar misschien is het tijd om de marges dus wat groter te maken. Zodat we zuinige producten kunnen maken.

OC geheugen is ook niet JEDEC certificeert maar dat wordt ook door veel tweakers gebruikt en is ook helmaal stabiel.
tweakers gebruiken het, maar systeembeheerders (normaal) niet ;)
Dat snap ik maar het geeft wel aan dat als iets buiten spec loopt het niet slecht hoeft te zijn.
Eeeh, denk je dat veel mensen weten wat JEDEC gecertificeerd inhoud? Ik denk dat er genoeg mensen zijn die daar geen flauw benul van hebben ;)
Maar de mensen die onderdelen voor een server kopen, weten dat hopelijk wel ;) Je wil namelijk niet graag dat je server onderuit gaat, doordat je geheugen niet goed blijkt te werken.
24% hoe komen ze daar aan??

als het totaal energie verbruik van geheugen in datacenters 25 miljard kilowatuur is op een totaal verbruik van datacentra van 123 miljard kilowatuur is 25/123=20% van het verbruik voor geheugen ;)

dus deze chips leveren stroom :D


edit: volgens de bron " data centers could reduce system memory power consumption by approximately 24 percent" erg slordig overgenomen
Beetje sterk die 24%,.. als je 1,5/1,8*100% krijg je 83,33% of te wel een besparing van een kleine 17%,... zitten er verder nog technieken in de energie besparen soms? (tenslotte: watt=volt*ampere)?


Edit:
hoe weet je dat zo zeker? Wie zegt dat de weerstand van deze chips hetzelfde zijn en dat ze minder ampere nodig hebben? (moet eigenlijk wel anders halen ze nooit die 24% afnamen,...) maar alsnog het staat nergens,.. althans ik zag het nergens staan.
als de spanning omlaag gaat gaat ook de stroom omlaag dus W=V*I, I=V/R dus W=V^2/R. het vermogen neemt dus kwadratisch af met de spanning
24% lijkt me ook wel beetje overdreven. Maar ja marketing.

Al zou deze chip maar 1% besparen van 123 MW. Is het toch al veel.
Helaas zegt volts niets over het opgenomen vermogen. Alleen als de stroomsterkte hetzelfde blijft, die je een afname in vermogen van 17%.
Je kan geheugen (of elk computeronderdeel trouwens) niet gewoon zien als een weerstand qua stroomgebruik.

Als je de spanning het geheugen verhoogt krijg je meer lekstroom in het geheugen, hierdoor kan je er wel van uit gaan dat een hogere spanning ook een hoger verbruik oplevert.
Verklaar dan maar es waarom een op 5V werkende 286 minder vermogen trekt dan een op 1,7V lopende P4.

Tuurlijk, stroomsterkte is niet recht-evenredig met vermogen, maar spanning ook niet...
Voor energie verliezen maakt het nogal wat voor electrisch circuit je voor je hebt.

Een weerstand R dissipeert een vermogen V^2/R; bij een capaciteit C - die je oplaadt en ontlaadt - zijn de verliezen evenredig met f*C*V^2.

De frequentie zit er dus lineair in. Bij hogere frequenties heb je dus grotere verliezen: een van de redenen waarom moderne (en steeds snellere geheugens) zoveel dissiperen.

Natuurlijk is het wel zo dat een lagere voedingsspanning V -als het geheugen maar blijft werken - ook kwadratisch minder verliezen heeft.
Energiezuinig = verder overclocken :9

Zullen ze hetzelfde (energie zuinige) geheugen niet ook als niet-energiezuinige maar snelle(re) versie uitbrengen? Van de fabriek 'overgeclocked' dus, net zoals met bijvoorbeeld processoren gebeurt.
Energiezuinig hoeft nog niet te betekenen dat je verder kan overclocke,.. je zal minder snel tegen warmte problemen aanlopen maar de vraag is of de transistors wel gebouwt zijn om sneller te schakelen/bij hogere voltages te werken,...

Omtrend dit was al een hele discussie gaande over de EE versies van AMD, werdt door nogal wat mensen vermoed dat die niet hoger zouden overclocke omdat ze simpelweg niet gebouwt werden voor hogere voltages/kloksnelheden maar voor lager energieverbruik.
Goede zaak dit. Bij stroomverbruik denk je altijd als eerste aan de CPU, harddisk en scherm. Vooral die eerste komt er vaak mee in het nieuws. Sinds het P4/prescot fiasco is daar dan ook veel aan verbeterd recentelijk.

Geheugen is echter bijna onopgemerkt ook een behoorlijk energieslurper geworden. Ik weet nog dat ik zeer verbaasd was toen een tijd geleden de eerste ram chips met koeling kwamen, meer vandaag de dag zijn enorme koellichamen zoals we die van de CPUs kennen al niet meer een totaal onbekend verschijnsel.
En juist het cache geheugen in je cpu is de energievreter. Het is snel maar neemt ook 6 transistors (Sram) ipv 1 transistor (dram) per bit in beslag. ;)
Ik kan me absoluut niet voorstellen dat enkel het geheugen van de vele servers op de wereld maar liefst 20% van het energieverbruik voor hun rekening neemt.

Zeker wanneer dit artikel over een nieuw soort RAM-geheugen gaat, lijkt me dit zeer onwaarschijnlijk.
onwaarschijnlijk ja , maar ach elke besparing is meegenomen
Ik denk dat het geheugen meer impact heeft op een server dan de gemiddelde desktop.

Ik verbaasde mij in ieder geval over de hoge temperatuur van de geheugenmodules van de Mac Pro. 65 graden elk. Oftewel de warmste onderdelen. Dat zal niet zijn omdat het de minst verbruikende onderdelen zijn.

Oké, het zijn DDR2 FB-DIMM (volledig gebufferd ECC) geheugens (met koelvinnen waar de processor nog jaloers op is) gestoken in riser-geheugenkaarten (met eigen koeling). Maar zijn dit ook niet de geheugens die in behoorlijke servers ingebouwd zijn?

Vergeet niet, dat een server zelden een energievretende videokaart e.d. hebben, waardoor de invloed van het geheugen groter is dan bij de desktop. De getallen zijn natuurlijk positief gepresenteerd, maar reeler dan je zou denken.

p.s. Kan iemand mij uitleggen waar die witte bolletjes op de chips/printplaten bij de afbeelding voor dienen?
Verbetering van geleiding/contact, koelribbels ?
"Jedec-standaard voor solidstategeheugen"
't is niet dat JEDEC nog nooit een nieuwe versie van een standaard heeft ontwikkeld, of slechts één standaard beheert... dat hoort helemaal geen belemmering te zijn voor dit product.

Alleen zal Micron steun moeten vinden bij anderen op de markt, want alleen zullen ze het niet halen. Dat terwijl dit toch weer mooie technologie lijkt te zijn :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True