Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: C|net

AMD brengt in het tweede kwartaal zijn 'Barcelona'-quadcore uit, en rolt daarmee zijn Partioned PowerNow-technologie uit. Dat maakt het mogelijk om het stroomverbruik voor iedere core apart te regelen, iets wat tot nu enkel voor de hele chip tegelijk gebeurt.

AMD Barcelona (cropped) De cores kunnen ieder op vier verschillende snelheden draaien, waardoor een 3d-simulatie bijvoorbeeld op 2,5GHz gedraaid kan worden terwijl voor werk op de achtergrond een gigahertz volstaat. Volgens Brent Kirby, productmanager servers en workstations, zorgt dat ervoor dat de Barcelona-processors gemiddeld zo'n 10 watt minder verstoken. De chipfabrikant heeft ook de geïntegreerde geheugencontroller onder handen genomen, zo kunnen de lees- en schrijffuncties worden uitgeschakeld en is het stroomverbruik van de controller afhankelijk gemaakt van de energiebenodigdheden van de meest behoevende core. Door deze verbeteringen neemt de stroomconsumptie van de geheugencontroller met circa 80 procent af, aldus Kirby. AMD bespreekt de ins en outs van de Barcelona-processor op de volgende week te houden International Solid State Circuits Conference te San Francisco.

Moderatie-faq Wijzig weergave

Reacties (59)

Door deze verbeteringen neemt de stroomconsumptie van de geheugencontroller met circa 80 procent af, aldus Kirby.
Misschien verbruikt een geheugencontroller weinig en was het doorontwikkelen van je eerste ontwerp niet echt winstgevend. Maar om het verbruik van iets met 80% te laten afnemen. *slik* Dan was je vorige ontwerp toch niet echt geweldig?
Ofwel lees ik het gewoon weer verkeerd O+
Een van de problemen die komt kijken bij het hebben van een geïntegreerde geheugencontroller is dat DDR 2,5 volt nodig heeft en DDR2 1,8 volt, terwijl de core afhankelijk van de snelheid ergens tussen de 1,1 en 1,35 oppikt (minder nog in stroombesparende stand). Stroomverbruik stijgt kwadratisch met voltage, dus bepaalde delen van de geheugencontroller zullen een redelijk doorn in het oog zijn van de zuinige ontwerper. Alleen het feit dat die twee delen straks onafhankelijk gevoed kunnen worden moet al een hoop schelen.
De voeding van het geheugen loopt toch niet over de cpu hoop ik? Tussen cpu en geheugen liggen (lijkt mij) slechts datalijnen, welke een vast voltage hebben (en wel zo gekozen dat signaalsterkte en stroomverbruik een beetje in balans zijn). De voeding van het geheugen kan apart geregeld zijn.

Of loopt er over de datalijnen evenveel volt als de voeding?
Ja, zowel voeding als datalijnen zijn gespecificieerd op 1,8 volt voor DDR2. De processor hoeft de modules inderdaad niet te voeden, maar moet wel binnen een kleine toleratie blijven om ermee te communiceren.
Stroomverbruik stijgt kwadratisch met voltage
Nee: I^2*R was de formule, dus het is "vermogen(sverbruik) stijgt kwadratisch met de stroomsterkte"....

Dat hebben we ooit op de middelbare school zo geleerd, echter dit is alleen zo als de weerstand (impedantie) gelijk blijft....ik vraag me sterk af of dat zo is voor processoren.
In DC geldt:
P = V.I = V²/R = R.I²
Jullie hebben dus beiden gelijk... :Z

Btw, een CPU is imo niet te modelleren als een simpele lineaire weerstand: hij wordt wel gevoed door gelijkstroom, maar intern wordt er voortdurend geschakeld, waardoor capaciteiten en inductanties een rol spelen.

edit:
ik kan me niet inbeelden dat in een chip wisselspanningen (en de bijhorende magnetische velden) doenbaar gaan zijn.
Juist wel: daarom juist is het zo moeilijk voor de fabrikanten om de kloksnelheid van een chip te verhogen. Door de aanwezigheid van capacitieve effecten krijg je bv. vervelende vertragingen in de poortnetwerken op je chip.
je zit toch met gelijkspanning, en ik kan me niet inbeelden dat in een chip wisselspanningen (en de bijhorende magnetische velden) doenbaar gaan zijn.
Impedantie is gedefinieerd als: "Impedantie is een begrip dat wordt gebruikt in de beschrijving van een lineaire respons op een tijdsafhankelijk signaal."
En een dc signaal is niet tijdsafhankelijk. (de 1.1-1.4V waar een cpu op werkt)
Dat is alleen de geheugencontroller.... er zijn meer elementen. Er staat totaal 10% minder, waarvan de geheugencontroller 80% minder, betekend dus dat de geheugencontroller maximaal 1/8 inneemt van de gehele chip.
het is meer zo dat de geheugen controler "vroeger" altijd aan stond, waar hij nu dus ook uit gezet kan worden eventueeel.

als hij in bedrijf is zal hij niet veel zuiniger zijn als eerst als hij op max draaid, maar omdat hij ook uit kan (of alleen langzamer) scheelt het blijkbaar toch een hoop.
maar die 80% is natuurlijk wat uit de lucht gegrepen, het licht er helemaal aan wat je doet natuurlijk.
Ik vind het een zeer goede ontwikkeling dat AMD bewust bezig is met de energieconsumptie van de processor. Deze zijn al na het Toppunt van de Prescott flink gedaalt.
Wat me meer zorgen baart zijn de GPU. Die verstoken meer energie dan de hele rest van de PC (de high-end GPU's). Ik denk dat het tijd wordt voor de GPU-bakkers om hier ook eens mee te beginnen.

Een tijd geleden hebben de CPU-bakker een ommekeer gemaakt dat alleen veel MHz niets meer uithaalde. Dit zouden de GPU-bakkers ook eens moeten doen.
Besef wel dat de energieconsumptie bij de GPU alleen bij de high-end een issue is. Iedereen heeft de keuze om een zuinig onboard of low-end GPU te nemen.
Bij een zuinige CPU is iedereen bij gebaat, vooral de volumemarkt.
En waarom zou je niet mogen kiezen voor een energiezuinige snelle GPU, bij CPU's kunnen ze het blijkbaar wel dus zou niet weten waarom het GPU's anders zou zijn.

240Watt heeft de ATI R600 nodig!!!! dit gaat er toch wel over nieuws: ATi R600 is monsterkaart
En waarom zou je niet mogen kiezen voor een energiezuinige snelle GPU
GPU's hebben al een veel gunstiger flops/watt verhouding dan X86 architectuur. Doordat de X86 architectuur zo inefficiënt is ligt er veel meer ruimte voor optimalisatie.

De GPU van b.v. R580 ligt qua rauwe kracht op ±300Gflops, vele maler krachtiger dan C2D.
De R600 in naar schatting meer dan 600 Tflop. De enige significante manier om nog meer performance/watt te verkrijgen bij GPU is lagere spanning met lagere kloksnelheiden. Gezien de hevige strijd tussen ATI en nVidia lijkt mij het laatste niet echt realistisch tenzij je zelf aan het volmodden gaat.

Daarnaast is de spanning verlagen beter realiseerbaar bij CPU aangezien hier vaker dezelfde chip voor meerdere marktsegmenten wordt gebruikt. Bij GPU zou een grote high-end chip te duur worden voor mainstraim-markt. Het gevolg is dus kleinere chips met hogere spanning en kloksnelheid.

In de high-end GPU markt is de performande/watt meestal minder belangrijk dan maximale performance
In de mainstream markt is kostprijs het belangrijkste.
In de budget is kostprijs ook het belangrijkste, toch zie je hier ook zeer laag geklokte modellen die zuinig en passief gekoeld zijn.
240Watt heeft de ATI R600 nodig!!!! dit gaat er toch wel over nieuws: ATi R600 is monsterkaart

Daargelaten dat dat inderdaad een absurd verbruik is, mag je aannemen dat de kaart dat in werkelijkheid niet uit je stopcontact zal trekken. Het is meer een theoretisch maximum.

Zoals m'n bovenbuurman aangaf hebben GPU's een veel grotere preformance/Watt ratio dan x86 CPU's.

Bovendien bestaat een videokaart uit meer componenten dan enkel een GPU. Pas als je al die componenten optelt krijg je het totale verbruik van de videokaart.

Tel voor je CPU er voor het gemak eens het verbruik van je RAM en Northbridge bij op. Dan ben je pas een vergelijking aan het trekken.
Alleen is het bij cpu's ook nog zo dat de nieuwe architectuur naast dat ie zuiniger is ook nog eens sneller is. Als die dat niet was geweest zouden nieuwe modellen echt niet veel verkocht worden.

Dus bij videokaarten zou dat de prestatie per watt ontzettend toe moeten nemen om nieuwe videokaarten en zuinig en snel te maken.
AMD heeft ook wat goed te maken na het nieuws van hun nieuwste videokaart zeg..
Ja die zijn zeker bewust bezig... maar niet met energie.

nieuws: ATi R600 is monsterkaart
Ik denk dat vele het mee eens zijn dat lager stroomverbruik beter is voor het milieu.
vooral in deze tijd zal dit steeds meer een "hot topic" worden.

Vraag me af of / wanneer er een wattage limiet voor processors / computers komt, ten opzichte van autos die momenteel ook strenge milieu eisen hebben.

je weet maar nooit.
natuurlijk komen er geen maximumverbruiken bij pcs, en dat zou ook echt een idiote maatregel zijn. Dan koop je er toch gewoon 2?

Een heffing op energieverbruik in zijn algemeen is wel heel erg zinvol, en belachelijk dat het nog niet bestaat (in Nederland).
Ja hoor, ecotax heet dat..
Er bestaat al jaren een energieheffing! REB: Regulerende Energie Belasting heeft zo'n 6 jaar geleden gezorgd voor een verdubbeling van de energierekening. En dat is er nog steeds.
En wat is mijn stroomrekening dan?
Iets minder :)
Stroomverbruik is niet slecht(er) voor het milieu.. :\
Nee idd, een kolencentrale zorgt voor groener gras en moeder natuur floreert op kerncentrales. O+

|:(
ummm eigenlijk heb je in beide gevallen gelijk.

gras groeit door kooldioxide uit de lucht te halen, daar de zuurstof af te halen (en los te laten) en de koolstof te gebruiken om te groeien.
zolang je de zwavel enzo uit de rook haalt groeit het gras dus echt beter bij een kolen centrale.

en natuur rond een kerncentrale kan ook al prima, niks dat dat in de weg staat.
en natuur rond een kerncentrale kan ook al prima, niks dat dat in de weg staat.
En zelfs wanneer het misgaat heeft de natuur er blijkbaar baat bij: de natuur floreert vollop in de regio rond Tsjernobyl - en nee, het zijn geen tweekoppige herten ;).
Natuur rond een kerncentrale misschien wel maar de natuur rond het kernafval...

Draai het of keer het zoals je wil, kerncentrales, kolencentrales, enz ze zijn allemaal slecht voor ons milieu. Elke maatregel die ons verbruik kan verlagen moet daarom ook gestimuleerd worden, net zoals bij deze nieuwe cpu van AMD. We leven al enkele tientalle jaren in een maatschappij waar we verkwistend omspringen met energie. Je moet dezer dagen geen groene jongen met geitewollen sokken meer zijn om te beseffen dat onze manier van leven drastisch zal moeten veranderen.

Vooral dit jaar was een confronterend jaar op het gebied van global warming. Juli warmste ooit, augustus natste ooit, september één van de warmste ooit, en tot op heden slechts één serieuze week winter geweest waar de temperaturen onder de 5° zakken... Om nog maar te zwijgen over de wind die niet alleen heel de winter al serieus krachtig is maar ook van zijn normale windrichting is afgeweken...
Draai het of keer het zoals je wil, kerncentrales, kolencentrales, enz ze zijn allemaal slecht voor ons milieu.
Dat probeerde ik helemaal niet te doen, maar het is en blijft wel een feit dat de natuur weer opleeft rond Tsjernobyl. Dit heeft natuurlijk niks te maken met het afval - dat is idd schadelijk - maar met het feit dat de mens nu wegblijft uit die regio.
Je moet dezer dagen geen groene jongen met geitewollen sokken meer zijn om te beseffen dat onze manier van leven drastisch zal moeten veranderen.
Correctie: nu moet het veranderen, of het moest al veranderd geweest zijn.
Persoonlijk denk ik dat heel het plotse milieubewustzijn in de maatschappij weer bij geblaat zal blijven. Zo van "we zullen moeten" en "ik zal later wel eens..." in plaats van te handelen. Bv. de verwarming een paar graden lager zetten en een trui aan doen of gewoon al de tv/lichten/pc uitdoen wanneer er toch niemand gebruik van maakt, is toch zoveel moeite niet.
-----------------
Persoonlijk denk ik dat heel het plotse milieubewustzijn in de maatschappij weer bij geblaat zal blijven. Zo van "we zullen moeten" en "ik zal later wel eens..." in plaats van te handelen. Bv. de verwarming een paar graden lager zetten en een trui aan doen of gewoon al de tv/lichten/pc uitdoen wanneer er toch niemand gebruik van maakt, is toch zoveel moeite niet.
-------------------

Normaal zou ik je hierin gelijk geven aangezien mensen zich meestal alleen bezighouden met hetgeen actueel is, in dit geval de milieu "hype". Verschil is wel dat de natuur ons meer en meer zal confronteren met onze verkisting dus ik denk niet dat dit zomaar zal overwaaien.
Normaal zou ik je hierin gelijk geven aangezien mensen zich meestal alleen bezighouden met hetgeen actueel is, in dit geval de milieu "hype".
De mensen zullen er mee bezig zijn, maar of dat een invloed zal hebben op hun consumptiegedrag is een andere vraag...
In België is het elektriciteitsverbruik bijvoorbeeld weeral gestegen.
Verder merk ik dit ook in mijn omgeving: veel mooie woorden, maar als het erop aankomt, rijden ze toch met de wagen om brood of steken ze toch weer halogeenspotjes in plaats van spaarlampen etc.

Ik hoop dat ik ongelijk heb... *zucht*
ik hoor "quadcore laptop" :)
het lijkt erop dat AMD nu dus eens iets doet met die hoge stroomconsumptie van processors... hier kan intel met hun C2D nog een puntje aan zuigen :Y)

Dit is echt een verbetering voor servers, zo besparen die erg veel stroom uit Idle... toppertje van AMD, nu eens zien of het echt zo efficient is als ze zeggen :D

edit @ jazco2nd
kerel ik heb het hier over Server systemen, die waren ivm intel in prestatie/watt ongeveer gelijk voorgaand. ik denk dat daar nu zeker verandering in zit en dat bedoelde ik te zeggen
Met prestaties/watt was AMD al beter dan Intel met zijn C2D. Ik meende dat X2-3800+ daarmee op de eerste plaats kwam. Nu zullen misschien nog wat zwaardere AMD cpu's tussen de C2D's in gaan staan.

\[edit:]
Me valt in dat dit een serverchip is en mijn vergelijkingen dus niet opgaan...
Nu eens iets doet?
AMD doet hier al jaren wat aan hoor.. denk eens aan de XP reeks die veel minder verbruikte dan de P4.. Powernow! voor desktops en de EE modellen.
Volgens mij heb jij zitten slapen de laatste jaren.
* fevenhuis Sar-Cast: Jaja Intel heeft het al zo "moeilijk" met het stroomverbruik van hun processors en AMD "scoorde" al zo laag in het stroomverbruik van hun processors.
Dit is een mooie evolutie. Alleen spijtig dat de winst die de cpu's maken door de gpu's dubbel wordt tenietgedaan :P.

Ergens snap ik niet goed hoe cpu's zo laag kunnen blijven gaan, terwijl de gpu's blijven stijgen. Zal wel met het chipdesign te maken hebben zeker?
Dat heeft mijns inziens meer met marktwerking te maken. GPU-fabrikanten doen op zich al redelijk wat om zuinige chips te bakken, onder andere omdat ze hetzelfde ontwerp ook voor notebooks gebruiken. Het probleem is echter dat ATi en nVidia zo erg met elkaar in strijd verwikkeld zijn dat geen van beide voor de ander wil onderdoen als het gaat om de benchmarks. Beide zoeken met hun topmodellen de limieten van het haalbare op en dat gaat per definitie gepaard met een hoog verbruik.

Bij processors hebben de klanten (met name systeembouwers) uiteindelijk hun mening laten gelden over dit gedrag, maar de doelgroep van high-end videokaarten bestaat uit die-hard gamers, en die geven er blijkbaar toch minder om.
Bij een GPU wil je tijdens het gamen zoveel mogelijk hardware inzetten voor het bereiken van de optimale grafische performance in zo weinig mogelijk tijd.
Bij een complexe CPU zit je vaak te wachten (op data) en is er vaak extra overcapaciteit binnen CPU de beschikbaar die niet ingezet kan worden voor de taak die momenteel onderhanden is.
Allemaal gewouwel over energie verbruik, zijn we hier nou Tweakerts of niet? B-)

Wat mij meer interesseerd is OC'en!
Kan je elke core een eigen multiplier of core frequentie meegeven of is alles gedeeld?

Zou wel leuk zijn als je die ene 'rotte' core een wat langzamere max geeft maar wel het max uit de overige drie kan halen.
ik vermoed 1 base clock generator voor allemaal (inclusief geheugen controler) net als nu

en dan allemaal apart geregeld via een multiplier. dat lijkt me de meest logische en voor de hang liggende oplossing omdat het voortborduurt op het huidige systeem en het eigenlijk de enige manier is om het te doen zonder dat het mobo aangepast hoeft te worden.

er zullen waarschijnlijk snel genoeg programas zijn om elke multiplier apart te regelen en ook met welke multiplier er in de verschillende spaar standen moeten worden gebruikt per core. (net zoals er nu al zijn voor de huidige k8's)

de multipliers zullen nogsteeds naar boven toe gelockt zijn waarschijnlijk maar dat is nooit echt een probleem geweest om een k8 te overclokken.
Nu maar hopen dat er geen Dual Core Optimizer meer nodig is. Er zijn met deze techniek 4 RTC klokken actief in het systeem met potentieel alle 4 aparte signalen waardoor software de tel kwijt kan raken. Hopelijk heeft AMD van de PowerNow!/CnQ fouten van hun Dual Core geleerd.
The last part is new Powernow modes - most importantly the ability to not use drivers.
Zelfde techniek zou ook in vga mogelijk moeten zijn.
Schakel 9/10e v/d core en het geheugen uit in windows, in combinatie met een voltage en mhz verlaging en het verbruik neem hard af. ATI zou hierbij dus waarschijnlijk een voordeel hebben tov NVIDIA omdat ze AMD kennis kunnen inzetten.
Dat gebeurt toch al? Ipv een deel van de core uit te schakelen, wat imo bergen veel research vergt om mogelijk te maken, verlaagt men gewoon de kloksnelheid van de graka in 2D modus.

Aangezien je graka in 2D vrijwel altijd redundant is maakt 't in theorie niet uit welke kloksnelheid je instelt. Heb je 'n 8800GTX en kan die een lage snelheid van 100Mhz in 2D verdragen, stel je dat gwn in toch? Lijkt me net 'tzelfde effect, voltages zijn op de meeste graka's toch al iets onder 't optimale.
De verschillen zijn echt wel groter dan 10 Watt. Vooral als je kijk dat nu een cpu of voluit draait of op low power setting.

Nu kun je een core max zetten en de andere 3 op low nu is het of alles of niets. + De memory controller kan gewoon op full speed blijven lopen als de cores op low power draaien. Nu gaat de memory controller ook langzamer als de core speed omlaag gaat.

+ er kunnen nu delen van de core uitgeschakeld worden als ze niet gebruikt worden.

Ik wil wel zo'n cpu in me laptop hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True