AMD's 'Barcelona' spaart 10 watt met verbeterde PowerNow

AMD brengt in het tweede kwartaal zijn 'Barcelona'-quadcore uit, en rolt daarmee zijn Partioned PowerNow-technologie uit. Dat maakt het mogelijk om het stroomverbruik voor iedere core apart te regelen, iets wat tot nu enkel voor de hele chip tegelijk gebeurt.

AMD Barcelona (cropped) De cores kunnen ieder op vier verschillende snelheden draaien, waardoor een 3d-simulatie bijvoorbeeld op 2,5GHz gedraaid kan worden terwijl voor werk op de achtergrond een gigahertz volstaat. Volgens Brent Kirby, productmanager servers en workstations, zorgt dat ervoor dat de Barcelona-processors gemiddeld zo'n 10 watt minder verstoken. De chipfabrikant heeft ook de geïntegreerde geheugencontroller onder handen genomen, zo kunnen de lees- en schrijffuncties worden uitgeschakeld en is het stroomverbruik van de controller afhankelijk gemaakt van de energiebenodigdheden van de meest behoevende core. Door deze verbeteringen neemt de stroomconsumptie van de geheugencontroller met circa 80 procent af, aldus Kirby. AMD bespreekt de ins en outs van de Barcelona-processor op de volgende week te houden International Solid State Circuits Conference te San Francisco.

Door Mick de Neeve

12-02-2007 • 15:16

59

Bron: C|net

Reacties (59)

59
57
22
15
8
26
Wijzig sortering
Door deze verbeteringen neemt de stroomconsumptie van de geheugencontroller met circa 80 procent af, aldus Kirby.
Misschien verbruikt een geheugencontroller weinig en was het doorontwikkelen van je eerste ontwerp niet echt winstgevend. Maar om het verbruik van iets met 80% te laten afnemen. *slik* Dan was je vorige ontwerp toch niet echt geweldig?
Ofwel lees ik het gewoon weer verkeerd O+
Een van de problemen die komt kijken bij het hebben van een geïntegreerde geheugencontroller is dat DDR 2,5 volt nodig heeft en DDR2 1,8 volt, terwijl de core afhankelijk van de snelheid ergens tussen de 1,1 en 1,35 oppikt (minder nog in stroombesparende stand). Stroomverbruik stijgt kwadratisch met voltage, dus bepaalde delen van de geheugencontroller zullen een redelijk doorn in het oog zijn van de zuinige ontwerper. Alleen het feit dat die twee delen straks onafhankelijk gevoed kunnen worden moet al een hoop schelen.
De voeding van het geheugen loopt toch niet over de cpu hoop ik? Tussen cpu en geheugen liggen (lijkt mij) slechts datalijnen, welke een vast voltage hebben (en wel zo gekozen dat signaalsterkte en stroomverbruik een beetje in balans zijn). De voeding van het geheugen kan apart geregeld zijn.

Of loopt er over de datalijnen evenveel volt als de voeding?
Ja, zowel voeding als datalijnen zijn gespecificieerd op 1,8 volt voor DDR2. De processor hoeft de modules inderdaad niet te voeden, maar moet wel binnen een kleine toleratie blijven om ermee te communiceren.
Stroomverbruik stijgt kwadratisch met voltage
Nee: I^2*R was de formule, dus het is "vermogen(sverbruik) stijgt kwadratisch met de stroomsterkte"....

Dat hebben we ooit op de middelbare school zo geleerd, echter dit is alleen zo als de weerstand (impedantie) gelijk blijft....ik vraag me sterk af of dat zo is voor processoren.
In DC geldt:
P = V.I = V²/R = R.I²
Jullie hebben dus beiden gelijk... :Z

Btw, een CPU is imo niet te modelleren als een simpele lineaire weerstand: hij wordt wel gevoed door gelijkstroom, maar intern wordt er voortdurend geschakeld, waardoor capaciteiten en inductanties een rol spelen.

edit:
ik kan me niet inbeelden dat in een chip wisselspanningen (en de bijhorende magnetische velden) doenbaar gaan zijn.
Juist wel: daarom juist is het zo moeilijk voor de fabrikanten om de kloksnelheid van een chip te verhogen. Door de aanwezigheid van capacitieve effecten krijg je bv. vervelende vertragingen in de poortnetwerken op je chip.
je zit toch met gelijkspanning, en ik kan me niet inbeelden dat in een chip wisselspanningen (en de bijhorende magnetische velden) doenbaar gaan zijn.
Impedantie is gedefinieerd als: "Impedantie is een begrip dat wordt gebruikt in de beschrijving van een lineaire respons op een tijdsafhankelijk signaal."
En een dc signaal is niet tijdsafhankelijk. (de 1.1-1.4V waar een cpu op werkt)
Dat is alleen de geheugencontroller.... er zijn meer elementen. Er staat totaal 10% minder, waarvan de geheugencontroller 80% minder, betekend dus dat de geheugencontroller maximaal 1/8 inneemt van de gehele chip.
het is meer zo dat de geheugen controler "vroeger" altijd aan stond, waar hij nu dus ook uit gezet kan worden eventueeel.

als hij in bedrijf is zal hij niet veel zuiniger zijn als eerst als hij op max draaid, maar omdat hij ook uit kan (of alleen langzamer) scheelt het blijkbaar toch een hoop.
maar die 80% is natuurlijk wat uit de lucht gegrepen, het licht er helemaal aan wat je doet natuurlijk.
Ik vind het een zeer goede ontwikkeling dat AMD bewust bezig is met de energieconsumptie van de processor. Deze zijn al na het Toppunt van de Prescott flink gedaalt.
Wat me meer zorgen baart zijn de GPU. Die verstoken meer energie dan de hele rest van de PC (de high-end GPU's). Ik denk dat het tijd wordt voor de GPU-bakkers om hier ook eens mee te beginnen.

Een tijd geleden hebben de CPU-bakker een ommekeer gemaakt dat alleen veel MHz niets meer uithaalde. Dit zouden de GPU-bakkers ook eens moeten doen.
Alleen is het bij cpu's ook nog zo dat de nieuwe architectuur naast dat ie zuiniger is ook nog eens sneller is. Als die dat niet was geweest zouden nieuwe modellen echt niet veel verkocht worden.

Dus bij videokaarten zou dat de prestatie per watt ontzettend toe moeten nemen om nieuwe videokaarten en zuinig en snel te maken.
AMD heeft ook wat goed te maken na het nieuws van hun nieuwste videokaart zeg..
Ja die zijn zeker bewust bezig... maar niet met energie.

nieuws: ATi R600 is monsterkaart
Besef wel dat de energieconsumptie bij de GPU alleen bij de high-end een issue is. Iedereen heeft de keuze om een zuinig onboard of low-end GPU te nemen.
Bij een zuinige CPU is iedereen bij gebaat, vooral de volumemarkt.
En waarom zou je niet mogen kiezen voor een energiezuinige snelle GPU, bij CPU's kunnen ze het blijkbaar wel dus zou niet weten waarom het GPU's anders zou zijn.

240Watt heeft de ATI R600 nodig!!!! dit gaat er toch wel over nieuws: ATi R600 is monsterkaart
En waarom zou je niet mogen kiezen voor een energiezuinige snelle GPU
GPU's hebben al een veel gunstiger flops/watt verhouding dan X86 architectuur. Doordat de X86 architectuur zo inefficiënt is ligt er veel meer ruimte voor optimalisatie.

De GPU van b.v. R580 ligt qua rauwe kracht op ±300Gflops, vele maler krachtiger dan C2D.
De R600 in naar schatting meer dan 600 Tflop. De enige significante manier om nog meer performance/watt te verkrijgen bij GPU is lagere spanning met lagere kloksnelheiden. Gezien de hevige strijd tussen ATI en nVidia lijkt mij het laatste niet echt realistisch tenzij je zelf aan het volmodden gaat.

Daarnaast is de spanning verlagen beter realiseerbaar bij CPU aangezien hier vaker dezelfde chip voor meerdere marktsegmenten wordt gebruikt. Bij GPU zou een grote high-end chip te duur worden voor mainstraim-markt. Het gevolg is dus kleinere chips met hogere spanning en kloksnelheid.

In de high-end GPU markt is de performande/watt meestal minder belangrijk dan maximale performance
In de mainstream markt is kostprijs het belangrijkste.
In de budget is kostprijs ook het belangrijkste, toch zie je hier ook zeer laag geklokte modellen die zuinig en passief gekoeld zijn.
240Watt heeft de ATI R600 nodig!!!! dit gaat er toch wel over nieuws: ATi R600 is monsterkaart

Daargelaten dat dat inderdaad een absurd verbruik is, mag je aannemen dat de kaart dat in werkelijkheid niet uit je stopcontact zal trekken. Het is meer een theoretisch maximum.

Zoals m'n bovenbuurman aangaf hebben GPU's een veel grotere preformance/Watt ratio dan x86 CPU's.

Bovendien bestaat een videokaart uit meer componenten dan enkel een GPU. Pas als je al die componenten optelt krijg je het totale verbruik van de videokaart.

Tel voor je CPU er voor het gemak eens het verbruik van je RAM en Northbridge bij op. Dan ben je pas een vergelijking aan het trekken.
Ik denk dat vele het mee eens zijn dat lager stroomverbruik beter is voor het milieu.
vooral in deze tijd zal dit steeds meer een "hot topic" worden.

Vraag me af of / wanneer er een wattage limiet voor processors / computers komt, ten opzichte van autos die momenteel ook strenge milieu eisen hebben.

je weet maar nooit.
natuurlijk komen er geen maximumverbruiken bij pcs, en dat zou ook echt een idiote maatregel zijn. Dan koop je er toch gewoon 2?

Een heffing op energieverbruik in zijn algemeen is wel heel erg zinvol, en belachelijk dat het nog niet bestaat (in Nederland).
Ja hoor, ecotax heet dat..
Er bestaat al jaren een energieheffing! REB: Regulerende Energie Belasting heeft zo'n 6 jaar geleden gezorgd voor een verdubbeling van de energierekening. En dat is er nog steeds.
En wat is mijn stroomrekening dan?
Iets minder :)
Stroomverbruik is niet slecht(er) voor het milieu.. :\
Nee idd, een kolencentrale zorgt voor groener gras en moeder natuur floreert op kerncentrales. O+

|:(
ummm eigenlijk heb je in beide gevallen gelijk.

gras groeit door kooldioxide uit de lucht te halen, daar de zuurstof af te halen (en los te laten) en de koolstof te gebruiken om te groeien.
zolang je de zwavel enzo uit de rook haalt groeit het gras dus echt beter bij een kolen centrale.

en natuur rond een kerncentrale kan ook al prima, niks dat dat in de weg staat.
en natuur rond een kerncentrale kan ook al prima, niks dat dat in de weg staat.
En zelfs wanneer het misgaat heeft de natuur er blijkbaar baat bij: de natuur floreert vollop in de regio rond Tsjernobyl - en nee, het zijn geen tweekoppige herten ;).
Natuur rond een kerncentrale misschien wel maar de natuur rond het kernafval...

Draai het of keer het zoals je wil, kerncentrales, kolencentrales, enz ze zijn allemaal slecht voor ons milieu. Elke maatregel die ons verbruik kan verlagen moet daarom ook gestimuleerd worden, net zoals bij deze nieuwe cpu van AMD. We leven al enkele tientalle jaren in een maatschappij waar we verkwistend omspringen met energie. Je moet dezer dagen geen groene jongen met geitewollen sokken meer zijn om te beseffen dat onze manier van leven drastisch zal moeten veranderen.

Vooral dit jaar was een confronterend jaar op het gebied van global warming. Juli warmste ooit, augustus natste ooit, september één van de warmste ooit, en tot op heden slechts één serieuze week winter geweest waar de temperaturen onder de 5° zakken... Om nog maar te zwijgen over de wind die niet alleen heel de winter al serieus krachtig is maar ook van zijn normale windrichting is afgeweken...
Draai het of keer het zoals je wil, kerncentrales, kolencentrales, enz ze zijn allemaal slecht voor ons milieu.
Dat probeerde ik helemaal niet te doen, maar het is en blijft wel een feit dat de natuur weer opleeft rond Tsjernobyl. Dit heeft natuurlijk niks te maken met het afval - dat is idd schadelijk - maar met het feit dat de mens nu wegblijft uit die regio.
Je moet dezer dagen geen groene jongen met geitewollen sokken meer zijn om te beseffen dat onze manier van leven drastisch zal moeten veranderen.
Correctie: nu moet het veranderen, of het moest al veranderd geweest zijn.
Persoonlijk denk ik dat heel het plotse milieubewustzijn in de maatschappij weer bij geblaat zal blijven. Zo van "we zullen moeten" en "ik zal later wel eens..." in plaats van te handelen. Bv. de verwarming een paar graden lager zetten en een trui aan doen of gewoon al de tv/lichten/pc uitdoen wanneer er toch niemand gebruik van maakt, is toch zoveel moeite niet.
-----------------
Persoonlijk denk ik dat heel het plotse milieubewustzijn in de maatschappij weer bij geblaat zal blijven. Zo van "we zullen moeten" en "ik zal later wel eens..." in plaats van te handelen. Bv. de verwarming een paar graden lager zetten en een trui aan doen of gewoon al de tv/lichten/pc uitdoen wanneer er toch niemand gebruik van maakt, is toch zoveel moeite niet.
-------------------

Normaal zou ik je hierin gelijk geven aangezien mensen zich meestal alleen bezighouden met hetgeen actueel is, in dit geval de milieu "hype". Verschil is wel dat de natuur ons meer en meer zal confronteren met onze verkisting dus ik denk niet dat dit zomaar zal overwaaien.
Normaal zou ik je hierin gelijk geven aangezien mensen zich meestal alleen bezighouden met hetgeen actueel is, in dit geval de milieu "hype".
De mensen zullen er mee bezig zijn, maar of dat een invloed zal hebben op hun consumptiegedrag is een andere vraag...
In België is het elektriciteitsverbruik bijvoorbeeld weeral gestegen.
Verder merk ik dit ook in mijn omgeving: veel mooie woorden, maar als het erop aankomt, rijden ze toch met de wagen om brood of steken ze toch weer halogeenspotjes in plaats van spaarlampen etc.

Ik hoop dat ik ongelijk heb... *zucht*
ik hoor "quadcore laptop" :)
het lijkt erop dat AMD nu dus eens iets doet met die hoge stroomconsumptie van processors... hier kan intel met hun C2D nog een puntje aan zuigen :Y)

Dit is echt een verbetering voor servers, zo besparen die erg veel stroom uit Idle... toppertje van AMD, nu eens zien of het echt zo efficient is als ze zeggen :D

edit @ jazco2nd
kerel ik heb het hier over Server systemen, die waren ivm intel in prestatie/watt ongeveer gelijk voorgaand. ik denk dat daar nu zeker verandering in zit en dat bedoelde ik te zeggen
Met prestaties/watt was AMD al beter dan Intel met zijn C2D. Ik meende dat X2-3800+ daarmee op de eerste plaats kwam. Nu zullen misschien nog wat zwaardere AMD cpu's tussen de C2D's in gaan staan.

[edit:]
Me valt in dat dit een serverchip is en mijn vergelijkingen dus niet opgaan...
Nu eens iets doet?
AMD doet hier al jaren wat aan hoor.. denk eens aan de XP reeks die veel minder verbruikte dan de P4.. Powernow! voor desktops en de EE modellen.
* fevenhuis Sar-Cast: Jaja Intel heeft het al zo "moeilijk" met het stroomverbruik van hun processors en AMD "scoorde" al zo laag in het stroomverbruik van hun processors.
Volgens mij heb jij zitten slapen de laatste jaren.
Dit is een mooie evolutie. Alleen spijtig dat de winst die de cpu's maken door de gpu's dubbel wordt tenietgedaan :P.

Ergens snap ik niet goed hoe cpu's zo laag kunnen blijven gaan, terwijl de gpu's blijven stijgen. Zal wel met het chipdesign te maken hebben zeker?
Dat heeft mijns inziens meer met marktwerking te maken. GPU-fabrikanten doen op zich al redelijk wat om zuinige chips te bakken, onder andere omdat ze hetzelfde ontwerp ook voor notebooks gebruiken. Het probleem is echter dat ATi en nVidia zo erg met elkaar in strijd verwikkeld zijn dat geen van beide voor de ander wil onderdoen als het gaat om de benchmarks. Beide zoeken met hun topmodellen de limieten van het haalbare op en dat gaat per definitie gepaard met een hoog verbruik.

Bij processors hebben de klanten (met name systeembouwers) uiteindelijk hun mening laten gelden over dit gedrag, maar de doelgroep van high-end videokaarten bestaat uit die-hard gamers, en die geven er blijkbaar toch minder om.
Bij een GPU wil je tijdens het gamen zoveel mogelijk hardware inzetten voor het bereiken van de optimale grafische performance in zo weinig mogelijk tijd.
Bij een complexe CPU zit je vaak te wachten (op data) en is er vaak extra overcapaciteit binnen CPU de beschikbaar die niet ingezet kan worden voor de taak die momenteel onderhanden is.
ins en outs
De specificaties?
Ja waarschijnlijk wel, dat is wat ze meestal bedoelen met 'de ins en outs' van een bepaald toestel ;)
op welk socket word deze gebakken??
socket F+ en socket AM2+ (beide zowel forward als backward compatible met socket F en socket AM2 respectievelijk)

dus ja deze kan je zo in je huidige socket AM2 mobo prikken en het enige dat je nodig hebt is een bios update (als je die al nodig hebt)
Zelfde techniek zou ook in vga mogelijk moeten zijn.
Schakel 9/10e v/d core en het geheugen uit in windows, in combinatie met een voltage en mhz verlaging en het verbruik neem hard af. ATI zou hierbij dus waarschijnlijk een voordeel hebben tov NVIDIA omdat ze AMD kennis kunnen inzetten.
Dat gebeurt toch al? Ipv een deel van de core uit te schakelen, wat imo bergen veel research vergt om mogelijk te maken, verlaagt men gewoon de kloksnelheid van de graka in 2D modus.

Aangezien je graka in 2D vrijwel altijd redundant is maakt 't in theorie niet uit welke kloksnelheid je instelt. Heb je 'n 8800GTX en kan die een lage snelheid van 100Mhz in 2D verdragen, stel je dat gwn in toch? Lijkt me net 'tzelfde effect, voltages zijn op de meeste graka's toch al iets onder 't optimale.
Interessante ontwikkeling. Als ze deze techniek nou ook eens gaan toepassen bij de GPU's dan krijgen we eindelijk eens een stille, snelle PC op alle fronten!
Uhm.. Is dit niet gewoon bijna hetzelfde als Intel's SpeedStep technologie?

Behalve dan natuurlijk dat dit het voor iedere core opzich regelt ipv alles in één.

Zie niet echt iets revolutionairs. Meer zo iets van "Oh, goed idee van Intel. Wij kunnen dat ook, maar dan net iets beter." :Y)
uhh, powernow (cool 'n Quiet) is geintroduceerd door AMD in de eerste athlon 64 cpu's. Intel heeft dit overgenomen meet speedstep. AMD trekt hem nu nog iets verder door.

graag wel ere wie ere toekomt.

ik vraag me trouwens af waarom powernow het niet voor elkaar kan krijgen om 1, 2 of 3 core's uit te schakelen/standby te zetten als je ze toch niet gebruikt. alleen een windows desktop weergeven kan 1 cpu op 1 ghz ook wel, dan kan de rest gewoon uit

Op dit item kan niet meer gereageerd worden.