'Intels quadcoregeneratie in 2008 klokt op 4GHz+'

Intel houdt zich aan zijn belofte en is begonnen met het vroegtijdig verschepen van de nieuwste quadcore Xeon's. Op desktopgebied lijkt er echter ook vooruitgang te zijn geboekt; zo zijn een aantal geruchten over quadcore desktop-cpu's boven water komen drijven.

Intel-mannetje presenteert eerste quadcoresDe geruchten gaan over de desktopversie van de 45nm quadcores gebaseerd op de Nehalem-architectuur, genaamd 'Bloomfield'. Ondanks dat deze core waarschijnlijk pas in 2008 het levenslicht zal zien - nadat Intel in 2007 de Yorkfield- en Wolfdale-desktopcores naar buiten heeft gebracht - zijn er al mogelijke specificaties over te vinden. De Bloomfield-quadcores zouden in staat moeten zijn om acht threads tegelijk te behandelen, waardoor de terugkeer van HyperThreading in 2008 een stuk zekerder lijkt te worden. Wel moeten de Bloomfields het stellen met 4MB minder L2-cachegeheugen dan de Yorkfield-cores (8MB tegenover 2x6MB van de Yorkfield). Intel is echter van plan om de kloksnelheid van de Bloomfield over de 4GHz heen te duwen, wat in combinatie met HyperThreading er waarschijnlijk voor zal zorgen dat het effect van minder L2-cache teniet wordt gedaan.

Door Marco Hordijk

19-12-2006 • 14:30

90

Bron: VR-Zone

Lees meer

HyperThreading keert terug in 2008
HyperThreading keert terug in 2008 Nieuws van 21 november 2006

Reacties (90)

Sorteer op:

Weergave:

Het klinkt niet zo onlogisch. Een overstap naar 45 nm biedt weer wat ruimte om de kloksnelheid enigszins te verhogen. IBM is daar ook mee bezig. Daarbij wordt er steeds geavanceerder omgegaan met het gebruik van delen van de processor in relatie tot de belasting. Delen uitschakelen, variabele kloksnelheid en dergelijke.

Ik hoop wel dat ze dit keer het energieverbruik beter weten te beheersen.
eens op een puntje na: Intel heeft meer credit verdiend dan je ze nu geeft voor het feit dat de C2D sneller EN zuiniger is dan de vorige generaties. :>
Valt wel mee, als je de totale waarde van je systeem meet, dan is he Core2Duo niet veel zuiniger dan je P4. Intel heeft het probleem verschoven van de CPU naar de chipset en het geheugen.
Hoewel het natuurlijk waar is dat een syteem niet noodzakelijkerwijs veel minder stroom hoeft te gebruiken doordat de CPU wat zuiniger wordt, is het onzin om te beweren dat Intel het probleem verschoven heeft.

Zowel de chipset als het geheugen zijn niet significant anders bij de core dan bij de Pentium 4.
gezien het kompleet vastlopen van de ontwikkeling en de technische problemen van die vorige generatie was dat natuurlijk niet zo heel moeilijk voor intel.

neemt niet weg dat conroe best een mooi product is.
Ik ben benieuwd hoe jij de kloksnelheid wilt verhogen door over te stappen na een productie proces waarbij je enkel kleinere mosfet's kunt maken.
Hoe kleiner je die transistoren maakt hoe groter je lekstroom wordt en dus neemt je energie verbruik toe en krijg je nog meer problemen met warmte.

Natuurlijk wegen de voordelen op tegen de nadelen. Zo kan een IC bijv kleiner worden gemaakt waardoor ook de kloklijnen korter kunnen worden gemaakt. Op zo'n manier zou je dan je kloksnelheid iig wel weer kunnen compenseren.
Hoe kleiner je die transistoren maakt hoe groter je lekstroom wordt en dus neemt je energie verbruik toe en krijg je nog meer problemen met warmte.

Met het schalen gaat men bij Intel andere dielectrica gebruiken, dus deze standaard redenering gaat niet meer op. Afgelopen jaar heeft Intel al een aantal keer laten weten dat het meerdere succes op dit gebied heeft verricht. Trouwens, bij hun 65nm node gebruikt men daar ook SiON ipv SiO2 als dielectrium.

Ik ben benieuwd hoe jij de kloksnelheid wilt verhogen door over te stappen na een productie proces waarbij je enkel kleinere mosfet's kunt maken.

Als je zo benieuwd bent, raad ik je aan om wat boeken te lezen. Kleinere mosfets schakelen sneller, omdat de gate-source capacitance kleiner wordt.
Vergeet niet dat Intel ook dacht 4Ghz met zijn P4 generatie te bereiken ;) en we weten allemaal wat daarvan terecht is gekomen :P
Blijkbaar ziet Intel in het verhogen van de kloksnelheid een op korte termijn vruchtbaardere toekomst voor hun CPU's dan ze energiezuiniger te maken.

Om bij de Core 2 Duo en de Quad core generatie te spreken van een MHz race is een beetje voorbarig.
Zodra ze weer overgaan op een kleiner fabricage proces zullen ze met deze hogere snelheden evenveel of misschien zelfs minder stroom gebruiken.

Toch is AMD imo een veel interessanter pad ingeslagen.
AMD kiest ervoor om straks de consumenten precies te leveren wat ze nodig hebben door hun "Accelerated Processing Units" te gaan aanbieden. Straks heb je dus de keuze om of een moederbord te kopen waar je een losse videokaart opdoet met een Intel CPU of je neemt een "Ati/AMD based" moederbord waarbij je verschillende APU's erop plaatst.

Voor de onervaren computer gebruikers zal Intel misschien aantrekkelijker zijn door de hogere kloksnelheid maar ik denk dat AMD straks de rest van de markt veel beter zal kunnen bedienen.
dat intel kiest voor meer Mhz wil natuurlijk niet zeggen dat ze in 1 keer af stappen van energiezuinig. dat is natuurlijk volstrekt onzin. er zijn een hele boel ontwikkelingen die er voor zorgen dat een proc sneller kan werken zonder (veel) meer stroom te vreten.

het verhaal van AMD klinkt natuurlijk ook heel erg leuk, maar is nog altijd afwachten hoe dat uit zal pakken. en dat betekend natuurlijk ook dat z;n proc goed is in 1 ding en dus per definitie slecht is in het andere.

AMD zal zijn zaakjes vast wel op orde hebben maar om nu al te zeggen dat de intel CPU meer stroom gaat vreten en AMD het beter gaat doen is natuurlijk een beetje voorbarig.
AMD kiest ervoor om straks de consumenten precies te leveren wat ze nodig hebben

Sorry wat bazel je nu precies? Hoe is dit anders dan nu? Als ik een snellere videokaart wil prik ik die er ook zo bij. Ik zie er alleen maar nadelen in. Wat belet Amd ervan om GPU's voor hun modulaire pc alleen door hen zelf te laten ontwikkelen en zodoende andere fabrikanten die misschien betere producten hebben incompatible te maken met het systeem.

Men moet gewoon een nog snellere interface bus ontwikkelen voor het huidge platform. Ik wil multicore gpu's op 1 kaart hebben. En een betere koel methode.
Als jij nu een andere videokaart wilt prik je die erbij ja, maar in 9 van de 10 computers betekent dat dat de huidige kaart eruit gaat. Dit is dus geldverspilling.

Kun je een snellere chip erbij doen en de huidige aan andere zaken laten werken heb je extra snelheidswinst.

Ook mensen die een simpele pc aanschaffen en er later voor hun werk of hobby intensievere dingen mee willen doen kunnen hun systeem makkelijker upgraden.

Stel je maar voor, je koopt dan een Creative X-FI Fatal1ty FPS APU die je zo op je moederbord klikt en verwijderd de standaard ADI Soundmax chip. Of je koopt het moederbord waar geen standaard chip inzit wat weer geld scheelt.

Het risico is er natuurlijk altijd dat AMD deze technology in eigen beheer houd maar dat kan er wel voor zorgen dat deze techniek niet doorbreekt daardoor. Lijkt me logischer dat ze juist extra compatibiliteit gaan promoten en de andere ontwikkelaars gaan ondersteunen.

Elke verkochte mobo met Ati chipset op basis van APU's zorgt dan op diverse vlakken voor inkomsten bij AMD.
Eer dat AMD komt met het hele APU systeem zijn we wel weer een 5/6 jaar verder, wie weet wat iNtel tegen die tijd te bieden heeft. Er zal tegen die tijd in ieder geval weer een totaal andere architectuur komen.

Dit gaat vooralsnog over 2008. Dan zal AMD heel misschien al iets in de richting van Fusion hebben maar zeker nog geen APUs |:(
Voor de onervaren computer gebruikers zal Intel misschien aantrekkelijker zijn door de hogere kloksnelheid maar ik denk dat AMD straks de rest van de markt veel beter zal kunnen bedienen.
En waar denk je dat het meeste geld te verdienen valt ?
Ik denk dat het ook belangrijk is om interessant te zijn voor een OEM zoals nu te zien bij Dell en AMD. Lever je als fabrikant een compleet platform af en tegen concurrerende prijzen dan win je en mag je veel leveren en daar zit meer geld in dan retail leveringen.
dat zal puur afhangen van de marketing en van de ondersteuning van AMD z'n platform

in het begin keken de meeste mensen ook nogal vreemd naar de 3dfx voodoo, maar eens ze door hadden dat dit veel beter was dan een sneller cpu werd het een gigantisch success

ik denk namelijk niet dat de "onervaren computer gebruikers" echt geinteresseerd zijn in quad core cpu's
maar als AMD z'n APU's echt interessant worden voor bv games, cad, fotobewerking, ... zal dit zeker weten z'n afzet vinden... als het ondersteund wordt door de software
het is vooral dit laatste wat AMD goed voor elkaar zal moeten hebben
Zoals ik uit uit een aantal bovenstaande reacties kan opmaken, moeten ze eerst maar eens wat aan het energieverbruik doen. Ik ben het daarmee eens. Processoren worden wel steeds maar sneller gemaakt, maar tot nu toe wordt er weinig aan energieverbruik gedaan. Ik vind dat daar maar eens moet worden ingegrepen. Dit aangezien er steeds meer energieverbruik komt, en niet alleen van server-cpu's waar dit bericht over gaat. De huidige cpu's zijn snel zat, maar het verbruik ligt te hoog. Volgens mij kan dat stukken lager dan nu het geval is.

@Hieronder:
Klopt, Intel doet er wel wat aan inmiddels, maar eerlijk is eerlijk, die 130 Watt was wel heel erg veel. Maar dan vergelijk je puur en alleen met de P4. Ga je wat verder terug in de tijd, dan zul je zien dat er wel een stuk meer wordt verbruikt, ook de C2D dus. Vergelijk bijvoorbeeld maar eens met de Pentium 3 serie, verbruik rond de 30 Watt of minder. Is dus alsnog meer dan een verdubbeling van verbruik.

Ook AMD moet er wat aan doen. Daar liggen de AM2 X2 cpu's ook op 89 Watt, afgezien van de energiezuinige varianten die op 65 Watt zitten.

En ik ben het ermee eens dat ook de videokaarten een stuk minder moeten verbruiken, daar heb je zo onderhand een extra voeding nodig om alleen een SLI/CF opstelling van energie te voorzien.
Je hebt gelijk als je zegt dat het verbruik wel wat lager kan. Maar wees dan wel zo eerlijk om ook te melden dat Intel al goed z'n best doet.
Waar de Pentium D tot zo'n 130W ging, verbruikt de Core 2 Duo 65W. Dat is dus een halvering! Enige nuance in je verhaal is wel op z'n plaats...
Maximaal ~65W, dat is wat anders hé.

Net zoals de AMD64 Cool 'n Quiet hebben, heeft de Core 2 Duo ook een power save functie. Als je niet meer gebruikt dan x processing power dan verbruik je maar y Watt. Waardoor je in dagelijks gebruik nogal wat onder die ~65W zit.
@jantje.vlaam

Dan heb jij toch even liggen slapen :Z :D

nieuws: Vooruitblik op AMD's 65nm-Brisbane-core

Prestatie per watt (in fps)
Core 2 Duo E6600 (65nm) 0,478
A64 X2 3800+ EE SFF (90nm) 0,366

TDP gaat trouwens altijd over het maximale verbruik, dus bij 100% CPU load. Alleen kan je je processor al 100% belasten zonder dat daarom alle onderdelen (ALU's, FPU's, etc) van de CPU 100% belast hoeven te zijn.

AMD berekent het TDP in het theoretische geval dat alle mogelijke transistoren tegelijk schakelen, Intel kijkt naar de praktijk. Vandaar dat de TDP's van AMD een 20% hoger uitvallen.
Nee, de 65 watt die Intel geeft zijn gemiddeldes. De wattages die AMD geeft zijn op 100% cpu load. De CPU met de beste performance per wat is nog steeds de AMD X2 3800 EE.
De Core 2 Duo's zijn én zuiniger én sneller dan de P4's..
Hoezo wordt niet op energieverbruik gelet?

Laat eerst ATi en nVidia maar eens wat doen aan het verbruik van hun videokaarten..

Over de P3: hoe kan je nou een processor van járen geleden vergelijken met eentje van nu? (nog afgezien van het verschil in rekenkracht dat je geloof ik een beetje over het hoofd ziet)
Wat denk je van chipsets... op een Nforce kan je ook gewoon een ei bakken.
hhm heerlijk toch heb me pc staan naast me bed, hoef niet eens me bed uit om me ontbijt te bakken (A)
Niemand houdt je tegen om een tragere machine te kopen die minder verbruikt.

Je kan besparen op vermogen zoveel je wil, maar uiteindelijk zal de verwerkingssnelheid dan toch op een of andere manier naar beneden moeten.

Van P4 naar Core was een mooie stap, maar bij elke stap naar meer efficientie wordt het keer op keer moeilijker om later NOG efficienter te worden. Het is echt niet zo dat Intel en AMD nog simpele technieken van vermogenverbruik over het hoofd zien.

En is het niet een beetje stopzinning om het verbruik van een P3 te vergelijken met die van een Core Duo? 2 keer het verbruik voor 4 keer meer verwerkingssnelheid? Waarover zit je dan te klagen?

Uiteindelijk koopt de meerderheid van de klanten hun processor nog steeds op basis van absolute rekenkracht, met verbruik slechts als tweede prioriteit.

Maar als jij denkt dat het nog stukken lager kan (voor dezelfde snelheid natuurlijk) dan nu het geval is, dan mag je gerust enkele voorstellen doen. Ik luister aandachtig en wil ze gerust overmaken naar de bevoegde instanties.
Ik vraag me af hoeveel speling je dan nog overhoudt wat betreft overclocken. De Conroe's van dit moment zijn (zoals elke tweaker moet weten) makkelijk omhoog te kietelen, zelfs met (goede) luchtkoeling.
Is het niet zo dat het over vier ekrnen gedeelde cache in de Bloomfield al zo veel winst in performance geeft ten opzichte van het aparte cache per 2 kernen van de eerdere architecturen dat je zowieso juist meer performance mag verwachten?

[opmerking] deze was bedoeld als vraag op het hoofdartikel, niet als reactie op aramdin[/opmerking]
Dat zal Intels minste zorg zijn.
Vanuit het standpunt van het bedrijf is een CPU die men goed kan overklokken een slechte CPU. Want daardoor verkopen ze een snellere (duurdere) CPU minder.
Dus de basis van het "nieuws" is: Er is een GHz getalletje boven komen drijven van een processor die ergens over 2 jaar gepland staat, en die ligt hoger dan die van de huidige generatie?

Met een beetje logica kon iedereen tot die conclusie komen: Er liggen geen speed racers meer in het verschiet bij Intel, wel nieuwe process generaties en wel nieuwe micro-architecturen. Goh, zou het dan gek zijn dat de kloksnelheid toch ook wel een paar sprongen zal maken?
Zo te zien word het weer een lange weg van geld uitzuigen, aangezien Intel al een tijdje geleden aankondigde dat volgend jaar al 8 en 16 core cpu's zouden verschijnen. Ik zie de terugkeer van Hyperthreading dan ook niet meer dan een tussen melk station.

Mogelijk zit Intel ook vast met zijn toekomstige ontwerpen, wat komt er na de 16 core cpu, zodat rekken misschien wel een logische keuze is.
na de 16 core cpu, komt de 32 core cpu... duh :)

Een leuk artikel, voor de software developers on ons, is een artikel van Herb Sutter over concurrency, en wat we in de toekomst mogen verwachten van CPUs. Daarin schetst ie een beeld van mogelijk 512 hardware threads in 2013, sure das nog een lange weg te gaan, maar stel je voor software schrijven voor 512 threads... dat wordt een hele klus...

Daarnaast is het ook eigelijk helemaal niet verwonderlijk dat dit zo loopt... kijk naar de Xbox 360, 3 cores, 2 threads elk, de PS3, 1 core 2 threads + 7 SPUs. Dat zijn current generation platforms. De desktop volgt gewoon binnenkort. Eerst quad core 8 threads, en zo door... binnen een jaar of 3 verwacht ik 16 cores met elk 4 of 8 threads. Ga daar maar eens software voor bouwen.

Anyway, artikel en slides:
http://research.microsoft.com/~larus/Papers/queue01.pdf
http://www.nwcpp.org/Down...oncur_Project_-_NWCPP.pdf

Google video van diezelfde meeting in Redmond:
http://video.google.com/videoplay?docid=7625918717318948700
Wat is er verkeerd aan het maken van een product waarvoor klanten geld willen betalen? Niemand die je verplicht om zoiets te kopen.

Het is niet Intel die geld uitzuigt, het zijn wij die het geld erin proppen. Vrijwillig.

En tov een extra core, is hyperthreading ook nog efficienter qua performance/watt. Wat valt er te klagen?
Ik dacht dat hele GHz verhaal achterhaald was? Hoezo gaan ze nu toch weer door..?

edit:
De moderatie op tweakers gaat dus kwalitatief gezien naar beneden..
Tuurlijk krijgen ze ook een hogere klok. Waarom op 3.0 GHz blijven hangen als meer mogelijk is?
Omdat dat over het algemeen meer energieverbruik en meer warmteontwikkeling oplevert.. Efficienter omgaan met de snelheid die we hebben lijkt me verstandiger

Omdat dat over het algemeen meer energieverbruik en meer warmteontwikkeling oplevert.. Efficienter omgaan met de snelheid die we hebben lijkt me verstandiger.


Waarom niet beide? Keuze blijft toch bij de klant. :)


Beide = Meer GHz èn Meer Efficiëntie
Hehe...efficient programmeren....dat deden ze op de C=64 maar tegenwoordig gebruikt men tools die code genereren die door een andere tool weer omgezet wordt die in een andere tool naar C code wordt gecompileerd waaruit men dan .....

Hoezo efficient programeren, of bedoelde je dat niet ?
Er zit 'n verschil tussen efficiënt programmeren, en efficiënte processors.

Hier een goede uitleg over de bullshitness van 'het grote GHz-verhaal': http://www.youtube.com/watch?v=I3WnXaWjQYE
Hehe...efficient programmeren....dat deden ze op de C=64
Nou, de gemiddelde C=64 demo stond anders vol met NOP instructies. Dit om de timing correct te krijgen, ook de programma's in Basic waren nu niet echt efficient te noemen.

Efficient programmeren is eigenlijk een illusie. Het kan altijd mooier, sneller en beter.
dat filmpje van die Megaherzt myth, wat een onzin, ik geloof er helemaal niets van.
Als ik met mn eigen ogen kan zien in een computer oke dan geloof ik het maar. een stomme powerpoint presentatie (gepresenteerd door een MAC man) is echt zo ongeloofwaardig als wat.
Het verlies dat je maakt door in een hogere programmeertaal te werken is niet zo erg groot, het zal zeker geen factor 2 zijn. Efficienter programmeren is het gebruiken van efficientere algorithmes!
Man, wat voor tools gebruik jij in hemelsnaam? :) Via via via via C-code genereren en compileren? Als je het hebt over .NET en interpreted talen, dan werkt 't toch net iets anders.
@The_Zeroorez

Apple's grote Pipeline Myth is inderdaad een stuk minder objectief ;)
@Abraxas
Zo efficient zijn de huidige generatie talen anders niet.
Nog steeds is men in staat om met C of zelfs assembly bepaalde software behoorlijk te versnellen ten opzichte van wat jij bijvoorbeeld noemt... .NET
En laten die NOP instructies nu net nodig zijn geweest om de mooie / speciale effecten te maken die de makers van de C= 64 in hun stoutste dromen niet hadden kunnen bedenken.

Inderdaad efficient programmeren! ahhh 1986 was a good year :)
@Bosmonster

Dat zeg ik niet, dat van Apple is natuurlijk ook 'n beetje scheef getrokken. Het is alleen wel een behoorlijk goede uitlet van waarom GHz niet altijd het verschil maakt. Tuurlijk zit er tussen een X processor op 2GHz, en een op 3GHz verschil. Maar tussen een X op 2GHz en een Y op 3GHz hoeft dat niet zo te zijn.

En inderdaad, het is niet alleen die pipeline, maar heel de architectuur. Maar dan nog: Die GHz'en maken relatief weinig uit.
Het Gigahertz verhaal is nooit achterhaald geweest, dezelfde core op een hogere kloksnelheid is nog steeds sneller.

Wat er niet klopt is dat je verschillende processoren op basis van kloksnelheid kunt vergelijken, dat je kloksnelheden linear schalen of dat het verhogen van enkel de kloksnelheid de grootste snelheidswinst levert. Dat is ontkracht.

Hier gaat het gewoon over het binnen dezelfde lijn opschroeven van de kloksnelheid, als dat schijnbaar kan terwijl er binnen de eisen aan stroomverbruik of warmteproductie gebleven wordt, waarom niet?
GHz jacht seizoen geopend!!!

Sorry, eerst zien dan geloven. Netburst zou tot 10GHz scalen en bij Intel ging het nu toch om performance/watts en was het hele GHz gebeuren in de prullenbak gegooid...
Kloksnelheid is van wezenlijk belang in een processor. De rekenkracht van de processor is de hoeveelheid die de proc per tik kan doen keer het aantal tikken wat er in een seconde gaan.
De P4's gingen bleven op een zelfde aantal instructies gemiddeld per klokslag zitten. Toen kwam C2D die haalde veel minder klokslagen per minuut maar deed meer instructies per klokslag. Als je 1 van beide verbeterd heb je gewoon een snellere processor (mits bijv de data snel genoeg aangevoerd kan worden, want als alles nog van de HD moet komen zit je supersnelle proc een eeuwigheid te wachten en is een 486 nog sneller).
Mooi. Eindelijk weer eens een flinke stap in het aantal gigahertzen. Meerdere cores is zeker handig, maar omdat veel applicaties nog (grotendeels) single threaded zijn is een hogere rauwe kloksnelheid ook een erg goede ontwikkeling.
flinke stap? in 2008 heeft het intel dus bijna 4 jaar gekost om 400mhz hoger te klokken.
"flinke stap? in 2008 heeft het intel dus bijna 4 jaar gekost om 400mhz hoger te klokken."

En dan vergeet je voor het gemak de 3 extra cores?

Software zal hier in de toekomst beter en efficienter mee omgaan, dit zal zoals alles alleen niet oneindig door kunnen gaan.
Maar om die cores ging het nou juist niet. Want dat 4 cores beter zijn dan 1 of 2 is duidelijk. Theoretisch kunnen 4 cores 4x zoveel werk verzetten als 1 (theoretisch omdat er altijd onderlinge afhankelijkheden kunnen zijn e.d.).

Waar het hier om gaat is dat in het verleden is gebleken dat je een toename van x% in kloksnelheid niet kunt vertalen naar x% toename in gedane arbeid.

Dus het zal vast niet kwaad kunnen, maar verheug je maar niet zoveel op de toename in GHz totdat uit de tests is gebleken hoeveel het uitmaakt.
Dat "rauwe" mhz iets met snelheid te maken heeft is onzin. Kijk naar amd die kon intel bijhouden met een stuk minder "rauwe" mhz.

Het zal wel sneller zijn, maar dat hoeft echt niet meteen voor super prestaties te leiden,
Wel bij de zelfde core, dan zegt mhz wel iets over de prestatie. ;)
Zo flink vind ik deze stap voorwaarts niet. Het duurt nog zeker een jaar (waarschijnlijk meer, 2008 is een groot begrip:P)
Ja, maar effe kalm aan met de vreugde dansjes... dit zeiden ze bj de Pentium 4 ook al, en bij elke nieuwe design kwam de snelheid geheid boven de (veel hoger dan ooit gehaald) snelheid uit.

if seeing then believing else return ( :Z ) zeg maar

Op dit item kan niet meer gereageerd worden.