Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: The Inquirer, submitter: secret_force

Het energieverbruik van hardware - met processors in het bijzonder - is een heikel punt, zo bleek ook twee dagen geleden weer. Met de Brisbane-core heeft AMD zijn Athlon 64 X2's zuiniger gemaakt en uiteraard kon Intel niet achterblijven.

Core 2 Duo-processorIntel pakt het deze keer niet al te groot aan; alleen de Core 2 Duo E6300 en E6400 met ieder 2MB L2-cache krijgen een nieuwe revisie, waarin de processors iets zuiniger zullen omspringen met de energie wanneer ze niks staan te doen. In idle-toestand heeft Intel het stroomverbruik van de Core 2 Duo's weten terug te dringen van 22 naar 12 watt, AMD's Brisbane-cpu's hebben idle aan 7,5 watt genoeg. De tdp-waarde van de Core 2 Duo's is met 65 watt ongewijzigd gebleven, waardoor deze gelijk blijft aan die van de Brisbanes. Het vergelijken van tdp-waardes heeft echter vrij weinig nut, aangezien Intel een gemiddelde tdp handhaaft en AMD spreekt over maximum tdp. In de toekomst zullen er ook revisies verschijnen voor zowel de Xeon 3040- en 3050-server-cpu's als de Core 2 Duo E4x00-serie en uiteindelijk ook voor de Core 2 Duo E6600 en E6700.

Oude & nieuwe revisie Core 2 Duo
Zoek de verschillen. Links de oude B2-, rechts de nieuwe L2-revisie
Moderatie-faq Wijzig weergave

Reacties (57)

Idd...hoe hebben ze dat nu weer gedaan.

Als ze dit nou ook voor de videokaarten gingen doen, dan werd het verbruik van je computer nog beter. Want die paar Watt die we bij de processor goedmaken, halen we dubbel en dwars terug bij een videokaart
Nee hoor gewoon een lekker oud doorontwikkeld kaartje zonder externe spanning, passief gekoeld kopen. Geen problemen met stroom :D
Het lijkt me een duidelijk signaal dat er ook eens dual gpu cores moeten komen die schakelen bij licht of zwaar werk.

Misschien hebben ze te lang een nieuw ontwikkelproces opzij geschoven, Nvidia en ATi, om te kijken wat voor winst ze kunnen behalen op dat gebied.

Wat ook een mogelijkheid is, is om op speciale MoBo's een onboard gpu te gebruiken voor 2D werk en bij zwaardere applicatie's of games het te laten schakelen naar een Pci-express kaart. Misschien dat er een busdoorvoor ervoor kan zorgen dat het 2D signaal doorgeleid word door je graka of desnoods met 2 kabels naar 1 scherm, 1 via MoBo en 1 via de graka. Ik denk dat de meerprijs voor een onboard chip wel valt te rechtvaardigen tegen de winst van energie rekening.

Of het mogelijk is weet ik niet maar het lijkt me een praktische oplossing. Maar ze liggen idd. een aantal straatlengte's achter mbt. cpu's, hopelijk komt daar snel verandering in, aangezien de hele hardware markt hard werkt aan kleine processen en lager stroom verbruik.
GPU-cores zijn al zeer geparallelliseerd, ik vraag me dan ook af of jij snapt wat je zegt. Je kan een GPU-core zien als een heleboel kleine coretjes op 1 die. Terugklokken als ze niks te doen hebben doen ze ook allang.
Het 'asociale' gebruik waar iedereen het over heeft komt echter alleen van de highend-kaarten, daarom vind ik het zo irritant dat daar constant over wordt doorgegaan. De vorige generaties (of in ieder geval de kaarten met gelijke prestaties) worden enkel zuiniger, dat wordt dan gemakshalve vergeten. Je HOEFT ook niet de snelste videokaart te kopen...
grapjas, zoek maar eens op hoeveel bijvoorbeeld een GF7300 verbruikt of een x1300, dit zijn low end kaarten, maar verbruiken een stuk meer dan mijn oude GF2

btw, vele (low end) kaarten hebben tegenwoordig veel (traag) ram geheugen, ook dit moet onder stroom gehouden worden...
...of een geintegreerde videokaart.
Het verbruik van videokaarten wisselt behoorlijk van model tot model:

http://www.codinghorror.com/blog/archives/000662.html

Als je dus geen gamer bent maar wel Vista ready wilt zijn, moet je simpelweg een Geforce 7300GS kiezen. :)
Ligt het aan mij of heeft de Geforce 7950 GX2 altijd zijn maximale verbruik, ook tijdens idle dus? De meeste mensen met zo'n kaart zullen wel voornamelijk 3D gebruiken, maar toch...
Zou zeker een goed idee zijn om dit op grafische kaarten toe te passen.
Als ik kijk hoe vaak ik de power van mijn kaart echt gebruik (als ik aan het gamen ben dus met name), dan denk ik dat die een groot deel van de tijd op een ontzettend laag pitje staat, veel vaker dan de processor (immers veel dingen die ik op de pc doe vergen wel wat van de processor, maar niet van de grafische kaart).
Dan koop je toch straks een Intel videokaart? Las laatst dat Intel heel stilletjes een bedrijf had overgenomen, en mensen van 3D Labs in dienst heeft... ach daar kan toch best wat moois uitrollen straks. Misschien krijgen we dan weer kaarten die zonder externe voeding werken net als vroeger. Zelfs mijn 6600GT moet al extern gevoedt worden, beetje slap voor een mid range kaart van toen.
In idle-toestand heeft Intel het stroomverbruik van de Core 2 Duo's weten terug te dringen van 22 naar 12 watt,
Zijn er details beschikbaar over hoe dit mogelijk is gemaakt?
Intel/AMD/IBM/etc stuiten vaak op nieuwe methodes die ze verkrijgen uit de ontwikkeling van de nieuwe technieken (45nm bijvoorbeeld) of nieuwe producten (Yorkfield, Wolfdale) die dan vaak toepasbaar blijken te zijn op de bestaande produktie.

Dit soort 'nieuwe' ontwikkelingen worden dan vaak als eerste gedaan op de lager geklokte modellen, omdat een hoge yield dan minder belangrijk is.

Het wordt niet altijd gedaan, omdat ze liever overstappen op de nieuwe techniek, maar soms zijn de aanpassingen so simpel dat ze het gebruiken om snel een tussenmodel te lanceren. En dat is nu precies wat er nu gaande is, door de lagere idle op de Brisbane. Het is dus vooral marketing om de wind uit de zeilen van AMD te nemen als die de idle-toestand waarde gaat promoten.

Wat de exacte methode is (het kan zo simpel zijn als een betere microcode tot een andere issolator, of zelfs een aanpassing in het ontwerp), dat zullen we misschien wel nooit weten, ik neem aan dat Intel een hoop technieken niet vertelt, om zo de concurentie niet op ideeën te brengen.

[edit] Toevallig van iemand een link gekregen naar een artikel van 17 December waar het Inquirer artikel op gebaseerd is: http://www.vr-zone.com/index.php?i=4385

[quote]
Intel® is initiating a B-2 to L-2 stepping conversion for Intel® Core™2 Duo processors E6300 & E6400 (Conroe) and Dual-Core Intel® Xeon® processors 3040 & 3050 (UP Xeon processors based on Conroe) where they will undergo the following changes:

• New S-Spec and MM numbers for the converting products
• CPUID will change from 6F6 to 6F2
• Extended HALT power specification will reduce from 22 Watts to 12 Watts
• Die size optimized for manufacturability
• Minor visible difference between the B-2 and L-2 packages; see below for a visual comparison
• L-2 package is pin compatible with B-2 package
[/quote]
22W is dan ook vrij veel om niks te doen (zeker tegenover de 7,5W van AMD)
uiteindelijk is dit veel belangrijker dan de max tdp waarde naar beneden halen aangezien office pc's 90% van de tijd (zo goed als) idle staan
Ach, een office pc'tje dat niets doet behalve de screen saver draaien gebruikt toch nog steeds meer dan 100W, het scherm staat immers aan. Dus die maximaal 10% besparing zal allemaal niet zoveel zoden aan de dijk brengen.

Maar alle beetjes helpen, nietwaar ?

Ik zit zelf ook te neuzelen in de marge met mijn X2-3800 op 2.6GHz, maar dan weer wel met RMCLOCK de processor multiplier en spanning zo laag mogelijk zien te krijgen.

Ook mijn Barton XP-3200 had ik gemod naar een soort van XP-M processor zodat ik tenminste met RMCLOCK een soort van CnQ had (weliswaar zonder processor spanning aanpassingen).
En toen ging na 5 min. het scherm op zwart en hadden ze zojuist een nieuw LCD/TFT schermpje gekocht en was het totaal verbruik van de PC slechts 45 watt (laagste wat ik gemeten had iig, gemiddeld over 5 min. is dat)
wat ik het storende vind de laatste tijd is dat de cpu fabrikanten hun best doen om het opgenomen vermogen en daarmee de hitte in kasten omlaag te krijgen en dat de fabrikanten van GPU's min of meer de instelling van intel hadden ten tijde van de P4. Zij pompen gruwelijk veel warmte in je kast alleen omdat ze voor willen blijven lopen op hun concurrent.
Ze zouden eens een voorbeeld moeten nemen aan de cpumarkt zoals die nu vorm krijgt.

@aval0ne
wat ik bedoel te zeggen is dat de gpu bakkers lijken te denken, stroom genoeg desnoods nog een zwaardere voeding, als er maar prestaties uit komen en dat is in mijn ogen een beetje de verkeerde houding.. Ze kunnen toch zelf ook wel zeggen dat ze max 200 Watt acceptabel vinden?
Volgens mij mis je het feit dat de kentsfield 3 core's meer heeft.
Dit is uiteraard niet correct. De laatste nieuwe GPU van nvidia, de G80 is zuiniger maar veel krachtiger dan het vorige topmodel de GX2. En sommige gevallen ook zuiniger dan het huidige ati topmodel.
Bij de cpu's zien we dat de quadcore kentsfield eenzelfde TDP heeft dan Prescott, algemeen aanzien als de meest verbruikende cpu ooit. Dus met stroomverbruik daalt niet bij cpu's, integendeel.
En volgens mij mis je het feit dat de G80 3x zo groot is als de G71 en de helft minder cores bevat dan de GX2.
Ga je dit op de jaarlijkse stroomrekening terug zien ? Denk het niet maargoed :7
idd, 10 watt minder, is 10 Wh (energie) per uur minder verbruik. Of nog, 1 kWh per 100 uur.

168u per week x 52 weken = 8736 uur per jaar.

Per jaar zou een pc die 24/7 het hele jaar lang op idle staat 87.36 kWh minder gebruiken. (en welke pc staat nu continu te idlen). Aan gemiddeld 20 ct/kWh (dagtarief) komt dat op 17.4 euro per jaar minder (worst case). Tja, als je uw pc af en toe als een uitschakelt - tijd dat je niet idle draait= 10 euro per jaar minder?

Er wordt tegenwoordig nogal overdreven hysterisch gedaan over verbruik :) . Ok, dat je geen grafische kaart koopt die 220 Watt verbruikt is gewoon gezond verstand, maar op een paar Watt miereneuken, is gewoon... euh... miereneuken
Leuke berekening

Ik zal het eens even doortrekken naar de 4000 machines die we hier hebben staan.

Er van uitgaande dat de computer in slechts 50% van de tijd ook daadwerkelijk idle is, in plaats van 100%

17,40 x 50% x 4000 = 34.800

En dan hebben we alleen nog onze vestiging. Over de hele wereld hebben we ongeveer 100000 werkplekken. Trek maar even door, toch een behoorlijke kosten besparing. Om maar niet te spreken van de verminderde milieu last.

Als iedere computer over de hele wereld uitgerust zou worden met een dergelijke processor .... denk daar eventjes aan en niet specifiek aan een thuisgebruiker met 1, hooguit 2 van deze dingen.

Intel doet het niet voor de consument maar voor het geheel. Miereneuken ? Ik denk het niet !
Stel.... we hebben 10.000 pc's staan in ons bedrijf....

Waarop we 2,- kunnen bezuinigen hierdoor, dan spreken wel al over ¤20.000,-

Toch mooi meegenomen!
De standaard drogredenatie. Vermenigvuldig het maar met een willekeurig groot getal, en dan lijkt een niet-significant bedrag plotsklaps enorm. Natuurlijk gewoon een kwestie van jezelf voor de gek houden.

Als jullie 10.000 pc's hebben, dan heb je ook een 10.000 maal hogere energie rekenening, 10.000 maal groter bedrijf en zo'n 10.000 hoger budget. En dan is een bedrag van 20.000 euro totaal niet significant.

Het gaat om de percentages, niet om de absolute getallen.
Dan is het nog spectaculairder: 45% minder in idle waar de PC toch 80% op staat. Bij de verbruik van van 65W in niet idle stand zal deze CPU over de hele lijn dus 30% minder verbruiken!
Ja maar 10 watt op 22 watt vind ik nogal veel! Das ruim 45%
Je kan wel voor 1 pc gaan rekenen dat het bijna niks scheelt, maar moet je eens kijken hoeveel processoren er in de wereld zijn. En als ze nu ook eens bij andere PU het vermogen naar beneden schroeven dan schiet het best leuk op!
Voor de processor alleen. Maar dit is niet het enige wat in je pc stroom vreet dus deze verbetering zal zeker niet voor 45% minder verbruik zorgen in het geheel.
Daarbij mag ik toch ook hopen dat je pc ook eens een keer -wel- iets doet, anders zet je 'em gewoon uit ;)
Als ik nu eens gewoon mijn 350W PC vervang door een 75W max. notebook (desktop vervanger :-)
Dan bespaar ik 75% energie, warmte en ruimte ... 8-)
Alleen verlies je 50% meer uit je knip ;)
is gewoon... euh... miereneuken
tis een hobby zoals een ander. Voor sommigen is dit uiterst belangrijk.
Zelfs voor de leek is dit mooi die weten totaal niet wat dit inhoud maar denke oh deze is dan toch iets beter als die andere.
Nog een voordeel:

Minder energieverbruik = minder warmte = ventilatoren die minder hard hoeven te werken/draaien = nog eens extra energiebesparing.


Plus dat het afnemen van opgenomen vermogen ergens moet beginnen. Vandaag is het 10 watt bij idle, volgende week is het 15 watt bij 100% load, over 2 maand is het 12 watt over de gehele linie en ga zo maar door
Zo kom je uiteindelijk op een hele mooie daling in het verbruik wat gewoon altijd positief is
Er wordt tegenwoordig nogal overdreven hysterisch gedaan over verbruik . Ok, dat je geen grafische kaart koopt die 220 Watt verbruikt is gewoon gezond verstand, maar op een paar Watt miereneuken, is gewoon... euh... miereneuken
Niet helemaal. Als je op je energieverbruik kunt sparen kun je ook minder kosten maken met je UPS en je koeling. Daar gaat men sneller geld sparen dan met die paar kwh's.
En het is voor een bedrijf ook uit publicitaire gronden handig: Je kunt beweren dat je bedrijf probeert zo "groen" of "energie-efficient" mogelijk te zijn. Onderschat dat niet.
Maar nu heb je een kantoor met 20 PC's... Of een groot bedrijf met 1000 PC's over meerdere vestigingen... Dan kan je toch weer een leuk bedrijfsuitje sponsoren.
denk het wel want je pc staat toch vaak gras te vreten (=idle)

't kan me niet zuinig genoeg worden bij die pc's die lang aan staan met geen of weinig belasting!
met gras eten denk ik toch meer aan de grazers van de dutch power cows. daarmee draai je dus op je volle 100%.
Ik helemaal me zaadstra eens, vooral omdat ik normale spul voor servers gebruik en dan is het verbruik van idle en max belangrijk. Op het punt van energie zal ik kiezen voor AMD het maakt mij niks uit watt prestatie het gaat mij gewoon gebruikt het veel of niet.
Iedereen zit hier te speculeren hoe ze het gedaan hebben, zit het ook niet in het cache-geheugen? Cache is een enorme stroom vreter (relatief veel transistors). Dit zijn de twee procesoors met 2 MB cache.
Lijkt me dat juist cpu's met veel cache volgens jouw theorie betere kandidaten zijn om zuiniger te maken.
Lees het topic voor je post. Ze hebben de HALT state van de CPU uitgebreid.
het zijn wel relatief veel transistors maar ze verbruiken juist veruit het minste energie.

kijk maar naar het verbruik van een gelijkt geklokte cpu met 1mb en een zelfde model met 2mb of 512kb het verschil zal heel minimaal zijn.
Ik snap dan niet hoe het systeem van mijn ouders met een E6400 op dit moment idle 150 wat trekt... Als ik lees dat de processor idle maar 22 wat gebruikt normaal.
En dat terwijl mijn P4 2.4Ghz systeem idle rond de 60 zit.

Iemand een idee?
Er zit wel 2 gig geheugen in het systeem, maar verder alleen maar wat standaard componenten. Verder een super simpele ATI kaart van 30 E..
Ik heb hetzelfde gegezien. Mijn VGA kaart X1900 XTX gebruikte maar 30-40 watt Idle ( Getest door een voodooo banshee te plaatsen en toen ging ik 30 watt omlaag ). Dus daar zat het niet. Zelf verdenk ik het moedebord. En het werkgeheugen van het hoge stroomverbruik.
Een moederbord gebruik uiteraard stroom, ook de eventuele PCI kaarten, maar ook de optische schijfjes.
in jouw geval zou ik toch eens nakijken of alles wel goed werkt

- cpu krijgt niet door dat hij mag idle gaan (soms moet je hiervoor een driver installeren)
- voeding met extreem slecht rendement?
Bij Intel zit de geheugen controller op de Northbridge op het moederbord. Dat zou wel eens een flinke stroomtrekker kunnen zijn.

Dat is ook altijd het idiote bij die vergelijkingen. Bij AMD zit de controller in de CPU. Je kunt dus niet 1 op 1 vergelijken.

Ik sta altijd met stomme verbazing te kijken dat dat simpel feit domweg vergeten wordt. Ook nu weer wordt er in het artikel vermeld dat Intel gemiddelde waardes neemt, en AMD maximaal, maar wordt de geheugen controller vergeten.

Idemdito met de prijzen van CPU's. Je kunt niet simpelweg de prijzen vergelijken, aangezien Intel moederborden 2x zo duur zijn als AMD borden.
Ik kan je aanbevelen eens in de BIOS te kijken, en als je daar C1E of EIST ziet, zet dat aan...

Ook is het aan te raden om de speedstep drivers en zo in je OS te installeren, deze schelen ook en slok op de borrel als het om vermogen gaat. En natuurlijk je 3D kaart settings checken ;)
Ze hebben misschien een onbelangrijke socketpin uitgeschakeld in de code als die idle wordt.

Heb er niet veel verstand van maar zou best kunnen toch :?.

Edit 2x :

Even een reactie over het gras eten oftewel grazen ;).
Dat is juist 100% load ipv. idle ! omdat de proc dan formules berekent.

Zoals je nu kunt zien is er een vergelijking bijgevoegd (toch ?) en daar hoef je niet lang naar te kijken om te zien wat er is gebeurt, minder transistors dus mijn redenering was onjuist.
Ik zie het al gebeuren, de "Energy-step techology"
De tdp-waarde van de Core 2 Duo's is met - 65 watt - ongewijzigd gebleven, waardoor deze gelijk blijft aan die van de Brisbanes. Het vergelijken van tdp-waardes heeft echter vrij weinig nut, aangezien Intel een gemiddelde tdp handhaaft en AMD spreekt over maximum tdp.
En het leuke daaraan is dat de Intels, die in principe volgens de gehandhaafde TDP-methode meer zouden moeten gebruiken dan de Brisane, er toch beter/zuiniger van af komen in alle previews/reviews/tests :Y)
Mja leuk spelletje; over en weer bieden op minder stroomverbruik. AMD wint. Blijkbaar.

De populairste (intel) proc (6600 d8 ik) blijft 'gelukkig' buiten schot begrijp ik...?
Op een groter nivo toch best besparend, althans... Op een kleiner nivo ook maar dan lijkt de impact minder... Laat mij u informeren:
50% besparen op 1000 euro is toch best een hoop terwijl 1 penis minder hebben dan 2 ook best een vooruitgang is...
Ik zie de correlatie niet tussen processoren en penissen :?
Ik wel. Tweakerts die nog geen brommer mogen rijden beginnen eerst met het pimpen van hun PC-kast. Vervolgens de brommert en daarna de auto. Voila, daar heb je je verlengstuk. }>
Heerlijk zijn die concurrentiegevechten. Prijs-prestatieverhoudingen worden maand op maand maar beter en beter. We krijgen na verloop van tijd niets dan echte op en top zuinige en goed presterende processors.
Dat komt doordat je eigenlijk zegt dat je een lantaarnpaal licht geeft. Dat ziet iedereen toch al, dus waarom het nog es zeggen ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True