Intel demonstreert Nehalem en toont 32nm-wafer

De herfsteditie van het Intel Developer Forum is dinsdag van start gegaan in San Francisco met de keynote van ceo Paul Otellini, waarin onder andere een werkend Nehalem-systeem en een wafer met 32nm-chips werden getoond.

Het bedrijf is er in geslaagd om 291-megabit-geheugens met 1,9 miljard transistors per stuk te bakken met behulp van zijn 32nm-procedé. Dit terwijl de eerste 45nm-producten pas over twee maanden in de winkel zullen liggen. Intel denkt dan ook goed op schema te liggen om in 2009 met de massaproductie van de volgende generatie transistors te beginnen.

Nehalem is de tweede generatie 45nm-processor, die wordt omgeschreven als een erg modulair ontwerp met geïntegreerde geheugencontroller en Quickpath, de opvolger van de fsb. De zwaarste configuratie van Nehalem zal acht cores, goed voor zestien threads, op één chip combineren. Een quadcore met 731 miljoen transistors is drie weken geleden voor het eerst uit de fabriek komen rollen en werd live op het podium gedemonstreerd. Benchmarkresultaten zijn helaas nog niet bekend.

Nehalem

Iemand van XtremeSystems kwam tijdens de keynote langs om een zwaar overgeklokte 45nm Penryn-quadcore te demonstreren. Met een drietraps cascade haalde deze een klok van 5,56GHz bij -160 graden, zonder het moederbord aan te passen.

Intel belooft de komende drie jaar de prestaties van geïntegreerde graphics tien keer te verbeteren, onder andere door de gpu met de processor te integeren in de Nehalem-generatie. De 'many-core' Larrabee-cpu/gpu zal de echte highend moeten gaan bieden met 'teraflops' aan prestaties. De eerste demonstratie van dit product wordt in januari verwacht.

Door Wouter Tinus

19-09-2007 • 08:01

33

Lees meer

IBM is eerste met 22nm sram-bouwsteen
IBM is eerste met 22nm sram-bouwsteen Nieuws van 19 augustus 2008

Reacties (33)

33
31
5
4
0
0
Wijzig sortering
Anoniem: 225955 19 september 2007 08:12
Klinkt goed!

Ik hoop dat AMD dit een beetje bij kan houden, dat is altijd gunstig voor de prijs.

Ik weet alleen nog niet of ik zo blij ben met de GPU geintegreerd in mijn CPU. Ik prefereer ze los. Ik denk niet dat je met een geintegreerde CPU/GPU dezelfde resultaten kunt halen als met een "losse" cpu/gpu. Het bied natuurlijk ook voordelen, maar voor de performance (ook al word het 10 x beter als nu) kun je het best gaan voor de losse GPU met cpu.
het gaat ook niet om grafische toepassingen, het combineren van een cpu en gpu in 1 package is bedoeld om berekeningen die goed paralelliseerbaar zijn over te nemen van de cpu. GPU's zijn daar veel beter in dan CPU's en dus wil men door bijv. 1 gpu core op te nemen in een package ervoor zorgen dat de cpu grote hoeveelheden paralelliseerbaar werk kan uitbesteden.
Nou, dat klinkt leuk, maar waarom staat dit dan in het tekstje?
Intel belooft de komende drie jaar de prestaties van geïntegreerde graphics tien keer te verbeteren, onder andere door de gpu met de processor te integeren in de Nehalem-generatie
Of lees ik het verkeerd of begrijp ik het verkeerd?
denk aan laptops, erg kosten besparend en zuinig
en erg warm,

de CPU en GPU zijn de warmste onderdelen in de PC of laptop, door deze te combineren kan dit voor serieuze hitteproblemen gaan zorgen. Dit komt de prestaties toch ook niet ten goede?
Geintegreerde graphics zorgen ook weer niet voor zoveel warmte. En een laptop heeft vaak maar 1 fan, als de te koelen objecten bij elkaar zitten is het denk ik alleen maar makkelijker om het koel te houden.
Nu wel ja, maar dit is 32 nm, dus dat zal wel iets anders liggen...
de ruimte die je eerst kwijt was aan de videokaart kan je gebruiken voor een heat-sink. en het is ook niet voor de high-end graphics vermoed ik
In het artikel staat ook dat ze het beter willen gaan maken. Met de onderdelen van nu is dat niet echt een optie.
Het lijkt mij wel een mooie oplossing, een cpu en gpu in één, waarom niet 1 grote rekenunit in plaats van 2 aparte. Als ze dat op een goede manier weten te integreren, dan lijkt mij het ideaal
De optimale manier om graphics te renderen is niet de beste manier om algemene rekentaken aan te pakken, en andersom. Daarom heb je GPU's en CPU's. :)
JIJ kunt het beste gaan voor een losse GPU en CPU. De PC waarvandaan ik dit bericht typ heeft echter ook geen high-performance videokaart. Die heb ik ook niet nodig voor mijn werk-pc

Je vergeet een beetje dat er andere mensen zijn die hun pc gebruiken voor andere zaken dan jij.
Grappig hoe niemand de toekomst kan voorspellen zelf intel zelf niet.

Ik las net een stukje over de intel roadmap uit 2002. Waarin voorspelingen werden gedaan tot 2007..
Er werd gesproken over dat 7 a 8 Ghz wel realistisch zou zijn met de 0,65nm core.
Niet wetende dat die qua warmte produktie dus totaal niet uit zou komen.
Ook nu zien we steeds meer cores op 1 die. Ze lopen vanzelf tegen een bepaalde (onverwachte) grens aan en dan zullen ze weer wat anders moeten bedenken..


Ow het stukje staat hier. Erg leuk om te lezen!

nieuws: Intel CPU cores roadmap tot begin 2007
Je realiseerd je natuurlijk wel dat je een nieuwsbericht uit 2002 hebt he, en dat we inmiddels een hele 5 jaar verder zijn? :P
als je leest wat hij zegt dan las je gelijk al dat hij wist dat het uit 2002 was en zijn post ging erom dat hij het zo mooi vond dat wat toen gezegt werd totaal niet meer klopt en alles heel anders is in die paar jaar tijd

en trouwens. als je het aantal ghz van alle cores samenvoegt kom je wel op 7-8ghz :p
Hm, ja. Maar da's bijna net zoiets als zeggen dat je 4 auto's hebt, die samen wel 4*120 = 480 km/u rijden :+
als die 2x 3-4 GHz resulteert in evenveel pk's dan wel :+
Geintegreerd kan natuurlijk goed werken voor bv bedrijven.
Die hebben het liefst allemaal dezelfde pc's.

Zo hoef je er maar 1 geschik te maken voor het netwerk
image maken
en planten op al die andere pc's.

Al je veel van dezelfde CPU/GPU produceert, is dat natuurlijk meteen opgelost.
Nu zijn bedrijven afhankelijk van en de CPU, en het moederbord en vaak ook nog de videokaart.
Nu blijft het bij moederbord en cpu/gpu.

En verder zal er wel een optie komen om de gpu-fuctionaliteit uit te schakelen en gebruik te maken van een "externe aandrijving" van de monitor.
video op het moederbord bestaat ook en voldoet voor veel bedrijven.

Het wachten blijft natuurlijk nu op de eerste die roept dat het oneerlijke concurrentie is (gpu samengevoegt met cpu), aangezien je een onderdeeltje minder nodig hebt. Toegegeven: gamers zullen toch wel een andere videokaart aanschaffen. Maar voor het lage segment... Aangezien Kroes na MS toch een nieuw speeltje zoekt, kan ze verder gaan met intel
HEt lijkt allemaal heel wat 731 Miljoen transistors, maar het is nog net geen GPU ;)
1.9 miljard transistors! :>
Dat is wat meer dan mijn pentium 4 met 55.000.000 transistors.
Nice, Fugger heeft in 1 klap een hele serie WR's gebroken met deze cpu.
Team Japan zou 6,2Ghz op de kentsfield nodig hebben om deze scores te passeren :)

Er komt weer een leuke tijd aan :9~
Het is een kwestie van tijd voordat de wafers niet meer werken met nm maar pm. Dat is natuurlijk een goede ontwikkeling. Dat Intel hiermee komt verbaast me minder. Je mag dan misschien wel het niet helemaal geweldig vinden dat ze een megacorporatie zijn met een groot stuk van de taart in de CPU desktopCPU wereld maar ze boeken wel snel vooruitgang. De wereld is nog nooit zo 'gedigitaliseerd' geweest als vandaag de dag en de netwerken hiervan zullen alleen nog maar groter en uitgebreider worden, zelfs met krachtigere chips op minder oppervlakte.

De combinatie van CPU en GPU lijkt veel op vroegere proc's van toen er nog geen echte GPU's waren en deze aanspraak maakten op de CPU. Het spreekt voor zich dat de meeste hier wel inzien dat dit geen parallel is aangezien we het hier hebben over een speciale aanpassing terwijl de vroegere grafische aansturing via CPU's geen specifiek deel hadden. Eigenlijk is dat toch wel de standaard van tegenwoordig vergeken met vroeger. De eerste geluidskaarten hadden ook geen echte chip's in zich zitten tot de eerste geintegreerde midi- en wav-tables, alhoewel dat natuurlijk wel wat anders is dan een GPU processor natuurlijk.
Het is meer een doorontwikkeling van het multi-core idee, zet er een GPU core bij.
Paar vraagjes:

Gaat het hier nu om een 'officiele' multicore? Of nog steeds aanelkaar geknoopte duals?
Wat is een drietraps-cascade? (simpele uitleg graag...)

En ik dacht dat CSI de opvolger zou worden van FSB. Nu hebben ze het over Quickpath :?
quickpath is de marketingnaam en csi de werknaam vermoed ik.
drietraps-cascade is een variant van Phase-change koeling. Phase-Change is in feite niets anders dan wat er in je koelkast zit. Een cascade is een aaneenschakeling van 2 of meer van die systemen. Simpel gezegd, met 2 of meer-trapssystemen haal je dus lagere temperaturen :)

(voor meer info zie ook hier :))

[Reactie gewijzigd door SleutelMan op 23 juli 2024 10:30]

Nu is het alleen maar uitkijken naar de MacPro met deze processor :-) Nog even geduld oefenen. Maar dan hebben we eindelijke de ECHTE quad core!

Op dit item kan niet meer gereageerd worden.