Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties

Intel heeft dinsdag nieuwe details bekendgemaakt over de zuinigheidstechnieken in Nehalem. Een van de onthullingen is die van een 'extra core'; een microcontroller met meer dan een miljoen transistors die zich bezighoudt met stroombeheer.

De microcontroller is continu op de hoogte van de processorbelasting, de spanning, de stroomsterkte en de temperatuur van zowel de cores als de totale chip. Doel is om op basis van deze gegevens de optimale configuratie te kiezen. De controller kan er bijvoorbeeld voor kiezen om een of meer cores uit te schakelen, of juist extra snel te laten draaien, zo heeft Intel dinsdag op de eerste dag van zijn Intel Developer Conference bekendgemaakt.

Nehalem power controller

De manier waarop Nehalem-cores uitgeschakeld worden, is fundamenteel anders dan de manier die voor de huidige generatie processors gebruikelijk is. In plaats van alleen de klok stil te zetten wordt in Core i7, de officiŽle naam van Nehalem, fysiek de spanning van de core afgehaald, zodat er zelfs geen lekstroom meer verloren gaat. Pat Gelsinger van Intel bevestigde desgevraagd aan Tweakers.net dat het een 'logische volgende stap' is om deze techniek op een fijner niveau dan alleen hele cores toe te gaan passen.

De turbomode - het tijdelijke overklokken van cores zolang het tdp dat toelaat - wordt al enige tijd in de mobiele wereld gebruikt, maar vindt met Core i7 ook zijn weg naar desktops en servers. Het is systeem is niet langer beperkt tot een enkele turbostand: er kunnen nu minstens twee stappen gemaakt worden boven de standaardsnelheid.

Intel heeft tijdens het ontwerp van Nehalem een paar drastische stappen genomen om het verbruik onder controle te houden. Een van de meest voor de hand liggende manieren om te besparen is door de spanning te verlagen, maar dat levert problemen op met de betrouwbaarheid van de transistors, met name in de geheugencellen waar caches uit bestaan.

Dit probleem heeft de fabrikant op verschillende manieren aangepakt: ten eerste heeft Intel het fout-correctiesysteem verbeterd om drie omgevallen bits tegelijk te kunnen detecteren en tot twee omgevallen bits te kunnen herstellen. Ten tweede gebruikt het bedrijf voor het meest gevoelige systeem - de L1-cache - voortaan een geheugencel die uit 8 transistors bestaat. Deze is een stuk groter, maar wel betrouwbaarder dan de cellen met 6 transistors die al tientallen jaren in gebruik zijn.

Tot slot is Nehalem volledig geÔmplementeerd met statische circuits, de zuinigste ontwerpstijl die mogelijk is. De methode is simpel en stamt uit de jaren tachtig, maar wordt lang niet overal toegepast omdat de prestaties ervan matig zijn vergeleken met die van modernere circuitvormen. Intel heeft op dit niveau dus een hoop moeten inleveren, maar door dat te compenseren met trucs op hogere niveaus weet Nehalem uiteindelijk toch in ieder geval dezelfde kloksnelheid te halen als Penryn.

Nehalem static circuit design
Moderatie-faq Wijzig weergave

Reacties (29)

Intel lijkt een heel snelle processor te willen bakken die de performace/watt kroon stevig in handen zal kunnen krijgen en houden.
De laastse zin:
door dat te compenseren met trucs op hogere niveaus weet Nehalem uiteindelijk toch in ieder geval dezelfde kloksnelheid te halen als Penryn.
Klinkt toch heel erg als of de Nehalem core maximaal op 3.2Gz gaat draaien, dus op dat vlak zal AMD in ieder geval niet zo veel zorgen hebben over deze nieuwe Intel core. Maar als het geen Intel hier beweerd ook maar voor een deel waar is dan zou het best wel een zo kunnen zijn dat de Nehalem core veel zuiniger maar ook een stukje sneller is (ook al lijkt me dat met 8 transistors inplaats van 6 het L1 cache geheugen wel wat langzaamer is) en dat zal AMD vast wat minder blij maken, hun marketing maakte immers handig gebruik van het zuiniger zijn van hun processoren in het verleden.

Hoe dan ook ik hoop dat er snel benchmarks van deze processors zullen verschijnen zodat we ook echt kunnen zien of het Intel gelukt is om de energie honger van hun core te stillen en er toch nog weer meer snelheid uit te persen.

[Reactie gewijzigd door Rob Coops op 20 augustus 2008 09:45]

Ja, en vroeger was een 386DX40 natuurlijk evensnel als een 486DX40. DeP4 3.2 Ghz heeft dezelfde performance als een C2Q 3.2 Ghz. Ze hebben toch immers dezelfde kloksnelheid?

De Sun UltraSparc T2 heeft 8 cores welke draaien op 1.4 Ghz, maar deze maakt op database gebied een Intel Xeon helemaal in. Het is alleen jammer dat de prijs/performance ratio niet gelijk ligt waardoor de meeste nog steeds voor Intel kiezen. Maar dat probleem heeft IBM ook met zijn processors.

Wanneer stoppen mensen nou eens naar het kijken van de kloksnelheid. Het geeft alleen aan dat deze processor iets sneller (of langzamer) zal zijn dat een processor uit dezelfde serie met een andere kloksnelheid.

Overigens zegt het artikel helemaal niet dat dat de I7 op maximaal 3.2 zal gaan draaien. Het zegt juist dat het eerste model op 3.2Ghz zal draaien. Nergens in het artikel staat dat er geen 3.4, 3.6 of zelfs 4.0 Ghz modellen zullen komen.
Ik probeer ook altijd niet blind te staren op een klok snelheid van een CPU. Er zijn nog tal van andere factoren die de snelheid van een systeem beinvloeden. Maar, waarom blijven we toch zo steken op die 3Ghz barriere? Wat is het probleem voor bijv. Intel en AMD om naar 5 of 6 Ghz toe te gaan. Is dit gewoon een maximaal haalbare snelheid in deze techniek? Ik als technisch leek begrijp daar maar niets van.
We zitten gewoon op de maximum haalbare snelheid van silicium techniek, zelfs met SOI. Wil je veel hogere kloksnelheden dan moet je naar dingen als Gallium-Arsenide enzo, waar bijvoorbeeld vroeger Crays en zeer hoge snelheids datanetwerken ook mee werk(t)en. Alleen is GaAs veel (*veel*) te duur voor een consumentenPC.
duidelijk, dank je Jasper. De hoge snelheden op silicium zijn dus alleen te halen als het extreem gekoeld wordt door stikstof. Is dit dan ook de reden dat ze naar multicores zijn gegaan omdat het plafond p snelheid in Ghz behaald is?
Ze zullen het misschien niet snel toegeven, maar dit is hoogst waarschijnlijk de reden.
Ik had gehoord dat ze de P4 eigenlijk hadden ontworpen om uiteindelijk door te klokken tot 5 GHz, misschien 6 GHz? Dat bleek echter technisch onmogelijk (in ieder geval in consumenten pc's).
En daarom zie je na de P4 ook opeens een switch naar multi-core oplossingen. Ze zaten vast.
De Pentium 4 was zelfs ontworpen om uiteindelijk door te schalen naar 10Ghz... En Intel heeft dit zowaar nog bijna gehaald ook. Intern zaten er stukken logica in de P4 die op dubbele kloksnelheid liepen. De snelste P4 is volgens mij een 3.8Ghz (of 4.0Ghz?) geweest. Dat betekend dus dat die dubbel geklokte stukke logica op 7.6 of zelfs 8Ghz draaiden. Bij de eerste generatie P4's (Willamette en Northwood) was dat stuk logica nog niet zo groot en dus best te handhaven, maar later (Prescott) werden deze stukken steeds en steeds groter waardoor de P4 bepaalde (grote) 'hotspots' begon te krijgen en het algehele energieverbruik steeg drastisch. De oorspronkelijke opvolger van Prescott was Tejas, en deze had nůg meer van deze dubbelgeklokte stukken logica. Deze is uiteindelijk dan ook geannuleerd. Het is zeker niet helemaal eerlijk om te zeggen dat ze de 10Ghz bijna gehaald hebben, maar het geeft wel aan dat kloksnelheden boven de 4/5Ghz zeker wel mogelijk zijn, alleen (nog) niet op al te grote schaal...

[Reactie gewijzigd door Niles op 20 augustus 2008 21:06]

bijna elke 45nm core2 haalt anders wel de 3.6-4ghz zonder extreem meer voltage.

dat intel ze niet wil verkopen op die snelheid is iets anders maar echt op de limiet zitten we nog niet met 3.2
We zitten gewoon op de maximum haalbare snelheid van silicium techniek, zelfs met SOI. Wil je veel hogere kloksnelheden dan moet je naar dingen als Gallium-Arsenide enzo, waar bijvoorbeeld vroeger Crays en zeer hoge snelheids datanetwerken ook mee werk(t)en. Alleen is GaAs veel (*veel*) te duur voor een consumentenPC.
Limit zit in de architectuur in combinatie met de productie proces, niet in zo zeer in de techniek, intel kan een langere pipeline gebruiken en zo een 5ghz cpu op de markt zetten, maar of dit sneller is dan deze 3.2Ghz is maar de vraag, waarschijnlijk niet omdat er een hoop ingeleverd moet worden om die 5ghz te halen en niet te warm te worden. Maar het is zeker wel mogelijk om veel hogere geklokte cpu te maken dan die 3.2Ghz.

[Reactie gewijzigd door mad_max234 op 20 augustus 2008 14:31]

Niet helemaal. De Power6 toont aan dat het toch allemaal nog wat sneller kan.
Je kan wel hoger maar zoals hierboven wordt aangegeven gaat dat om bepaalde redenen niet zomaar.

Het kan wel degelijk omhoog alleen dat gaat dan ernstig ten koste van het energieverbruik (en op dit moment staat het niet erg goed als je een processor uitbrengt die bijvoorbeeld 200 a 300 watt verbruikt) en ook omdat de koeling dan vaak een beetje te gek wordt. Al dan niet enorme koeltorens, waterkoeling, droog ijs, vloeibaar stikstof of dergelijke geintjes... Allemaal niet wenselijk in de meeste systemen
Maar, waarom blijven we toch zo steken op die 3Ghz barriere? Wat is het probleem voor bijv. Intel en AMD om naar 5 of 6 Ghz toe te gaan. Is dit gewoon een maximaal haalbare snelheid in deze techniek? Ik als technisch leek begrijp daar maar niets van.
Temperatuur is ťťn van de redenen. Temperatuur gaat samen met verbruik, dat is twee. En dan heb je natuurlijk nog je looptijden van je signalen en de afwijkingen in je transistoren. Als jij op punt A een stijgende flank hebt van je klok, dan heb je zevenhonderd transistors later een stijgende flank die iets vertraagd is. Als dat binnen de marges blijft is er niets aan de hand, buiten de marges loopt je heel spel in de war. Hoe hoger je klok, hoe kleiner de marges natuurlijk.
Daarbij komt natuurlijk ook nog eens de interferrentie in de chips zelf, hoe hoger de kloksnelheid, hoe meer interferrentie je gaat krijgen. 3GHz is gene zever hoor, dat is veel!
ook al lijkt me dat met 8 transistors inplaats van 6 het L1 cache geheugen wel wat langzaamer is
Waarom zou dat langzamer zijn? Die transistoren hoeven niet allemaal na elkaar geschakeld te worden, maar doen dat min of meer tegelijk.
Het lijkt me alleen dat met 8 transistoren (ik vermoed 2 in darlington) het opgeslagen signaal wat meer naar 1 of 0 getrokken wordt, waardoor deze minder last heeft van een lage (of verlaagde) spanning.
Sterker nog, over het algemeen geldt voor geheugencellen dat meer transistoren juist sneller betekent. DRAM heeft er IIRC 1 of 2, SRAM dus inderdaad 6 -- en SRAM is vele malen sneller dan DRAM.
DRAM heeft niet 1 of 2 transistors. DRAM heeft 1 of 2 transistors en een condensator. SRAM heeft alleen 6 transistors en nu dus 8. Het zou voor prestaties echter weinig uit moeten maken aangezien die transistors er enkel voor bedoeld zijn om de stroom in rondjes te laten lopen(en dus op te slaan).
Dit is een hele mooie ontwikkeling voor energiebewuste computergebruikers, zoals mijzelf. De enige manier om grote groepen mensen aan energiezuinige systemen te helpen is door performance & power efficiency te combineren. En nu kan dat, doordat ook high-end processors zoals Intel's 9000-lijn in idle mode erg zuinig zijn.

Aangezien processors bij vrijwel alle computersystemen ~90% van de tijd zitten te niksen, is het echt verspilling als deze 20-30W zuipen. Door moderne technieken te gebruiken, zoals intel nu doet en AMD ook van plan is, kan het idle verbruik tot een minimum worden beperkt. En Šls je dan een keer veel performance nodig hebt, dan maakt het echt niet uit dat je systeem tijdelijk wat meer verbruikt. Dat past immers in de filosofie: "Verbruik alleen stroom als een gebruiker een apparaat actief gebruikt"; geen sluipverbruik dus.

@Countess: als Nehalem het idle verbruik net zo laag kan brengen als de huidige 45nm serie, dan betekent dat een low idle power chip, ook al zou hij een hoge TDP hebben. AMD doet het qua dualcores erg goed maar de Phenoms schieten de pan uit qua energieverbruik; 25W in idle is niet leuk meer.

AMD is overigens wel van plan per-core power switching te introduceren, als de geruchten kloppen tenminste. Andere technieken als split power planes zijn al deels geÔntroduceerd in nieuwe Turion-processors. Zie bijvoorbeeld dit interessante stukje. O.a. de Phenom 9150e en 9350e hebben speciale technieken die het energieverbruik nog verder kunnen terugbrengen, maar geen 4W zoals bij Intel. Deneb 45nm zal wel een verbetering zijn maar AMD is het argument van lage idle power kwijt; maar het heeft nog een wapen: het levert een compleet platform en juist hun chipsets zijn erg zuinig en van uitstekende kwaliteit.

[Reactie gewijzigd door Enlightenment op 20 augustus 2008 12:10]

Dit is een hele mooie ontwikkeling voor energiebewuste computergebruikers, zoals mijzelf
dat kan nog wel eens tegenvallen. ik vermoed dat het voor nehalem bittere noodzaak is om het energie verbruik nog wat binnen de perken te houden. voor een CPU is het namelijk een gigantische chip met heel veel transistors op hoge snelheid. het recept voor een hoog verbruik.

en AMD is het niet van plan, een deel van deze dingen (de minder extreme) hadden ze al een tijdje.

[Reactie gewijzigd door Countess op 20 augustus 2008 11:49]

Dat er cores uitgeschakeld konden worden en dat andere daarna sneller kunnen draaien was al langer bekend, zeer mooie techniek, alleen vraag ik me af hoe die het overklokken beÔnvloed.

Dan ben je je overklok aan het testen met alle 4 de cores aan en is alles stabiel. Opeens beslist de microcontroller dat er twee cores uit kunnen en dat de andere 2 cores sneller kunnen draaien (sneller dan stabiel mogelijk is) en dan crasht je PC.
Ook vraag ik me af of de microntroller inderdaad naar TDP (wattage?) kijkt ipv van de werkelijke temperatuur, dit kan het overklokken ook negatief beÔnvloeden. Door overklokken (en eventueel het voltage wat op te schroeven) wordt het verbruik stukken hoger, en kan de CPU gaan throtlelen terwijl deze nog niet te warm is.

De andere technieken zijn ook best interessant, maar ik hoop wel dat er via het bios het ťťn en ander in te stellen is.
Ik neem toch aan dat Intel hier wel rekening mee houd en via een BIOS setting tweakerts de mogenlijkheid bied ditsoort dingen te beinvloeden, net als speed step en dat soort grappen, je kunt dat gewoon via je BIOS bepalen, en als Intel een complete microcontroller vuil maakt aan het besturen van core (aan/uit, snelheid, temp, etc.) dan dnek ik dat ze het beestje vast wel slim genoeg hebben gemaakt om ook gewoon full blast te werken en de controlle aan de mens te laten.
Tsja, maar overclocken is uiteindelijk alleen maar belangrijk voor de tweakers onder ons. Voor de overgrote meerderheid gaat het gewoon om de kwaliteit van de processor zoals deze gekocht wordt.

Maar wordt het overclocken op deze manier dan niet juist een stuk interessanter?
Ook vraag ik me af of de microntroller inderdaad naar TDP (wattage?) kijkt ipv van de werkelijke temperatuur, dit kan het overklokken ook negatief beÔnvloeden. Door overklokken (en eventueel het voltage wat op te schroeven) wordt het verbruik stukken hoger, en kan de CPU gaan throtlelen terwijl deze nog niet te warm is.
Kortom het koelen van de CPU gaat dan weer belangrijker worden bij het overklokken.
Maar goed, ze hebben gekozen voor een verbeterde correctie voor omgevallen bitjes. Lijkt me dus dat die co-processor op de hoogte zal zijn van het aantal fouten en dus voortijdig zal ingrijpen.
Ik denk dat die functie van het zelfstandig overklokken min of meer alleen werkt als je hem onder de standaard instellingen laat draaien (en zoniet dan is er vast wel een optie om die funktie uit te zetten).

Bovendien als je zelf al overklokt ga je vaak over de TDP heen waardoor je cpu denk ik ook minder 'zin' krijg om zelf nog een schepje er bovenop te gooien. Denk verder ook dat in de microcontroller wel een soort van begrenzer zit die zegt niet meer dan 10% extra of iets dergelijks, denk niet dat Intel het wenselijk vind dat een budget quad core van 2.0 GHz in een vage bui even hun dual core extreme van 3.2 Ghz (als voorbeeld) voorbij raced.
Ik denk dat die extra controller z'n nut in de toekomst veel harder gaat bewijzen als er steeds meer cores per processor komen. Het is goed dat ze er nu al mee beginnen.
Dit is denk ik vooral een grote stap voor servers, deze zijn vaak erg overbemeten maar verbruiken wel continu veel stroom en genereren veel warmte (het grootste probleem in een modern data centre) Bij 1 processor maakt het niet zoveel uit maar als je er 1000 hebt scheeld dat heel veel.
Is het niet zo dat waneer een cpu/Core spanningsloos word gemaakt, en daarna weer spanning krijgt, deze eerst weer geinitieerd moet worden ?

het lijkt mij dat deze actie hetzelfde is als waneer een CPU/core net aangaat, of een reset heeft gekregen, en dus dat ie weer in 16b realmode staat, met zijn IP naar FFFE
Ik zie denk dat dit idd niet echt positief ontvangen word door de overclockers. Het zou mooi zijn als je in je bios een optie had om te kiezen of je het wilt gebruiker of niet, net als cool 'n quiet van amd. Ik weet dat het niet te vergelijk is.

verder snap ik nou niet waarom ze hun top model net zo duur maken als het huidige top model, en ook even snel maken, en als je dit zo leest,, minder goed overclockbaar, wel verbruikt deze minder energy maar mensen die een high end processor hebben maakt het volgens mij niet zoveel uit hoeveel energy deze verbruikt.

(ook nog een kleine typo in de tekst)

De turbomode - het tijdelijke overklokken van cores zolang het tdp dat toelaat - wordt al enige tijd in de mobiele wereld gebruikt, maar vindt met Core i7 ook zijn weg naar desktops en servers. Het is systeem is niet langer beperkt tot een enkele turbostand: er kunnen nu minstens twee stappen gemaakt worden boven de standaardsnelheid.

edit, bovenstaande neem ik terug als ik dit lees:

" Tijdens de keynote heeft Intel een demonstratie van een overklokte Nehalem CPU gegeven. De opgevoerde quad-core CPU - die dankzij HyperThreading met 8 threads werkt - behaalt in de populaire Cinebench 10 benchmark een score van niet minder dan 45864 punten. Dit is een nieuw record voor single-socket systemen. De hoogste score in onze Cinebench 10 benchmarkdatabase bedraagt 24067 punten. Het lijkt erop dat overklokkers zich met Nehalem flink kunnen gaan uitleven. "

[Reactie gewijzigd door maastrix op 20 augustus 2008 11:58]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True