Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: Intel

Intel heeft vandaag bekendgemaakt dat het voor zijn 45nm-chips een nieuw soort transistor heeft ontwikkeld bestaande uit een 'high-k' hafniumlegering en een metalen gate. Men noemt het de grootste verbetering in transistortechniek sinds het polysiliciumontwerp uit de jaren 60.

De nieuwe materialen zorgen er samen met de fysieke verkleining voor dat er ten opzichte van het 65nm-procd meer dan tien keer minder stroom weglekt uit de gate en er zo'n dertig procent minder schakelstroom nodig is. Daarnaast kan er - afhankelijk van de toepassing - gekozen worden tussen twintig procent hogere snelheid of vijf keer minder lekstroom tussen source en drain. Het vinden van de juiste combinatie van metalen was een grote uitdaging, omdat men niet alleen goede prestaties wilde, maar ook rekening moest houden met zaken als kosten, betrouwbaarheid en produceerbaarheid. Welke legeringen men precies gebruikt wil men nog niet zeggen. Hoewel de concurrentie er ongetwijfeld achter kan komen zodra ze de eerste chips in handen krijgen, wil Intel ze waarschijnlijk zo lang mogelijk in het duister laten tasten.

Intel HKMG transistor

Er worden op dit moment drie fabrieken uitgerust met 45nm-productielijnen. De Amerikaanse Fab 32 en D1D zullen in de tweede helft van dit jaar beginnen met massaproductie, in de eerste helft van volgend jaar gevolgd door Fab 28 in Isral. De eerste processor die gebruik zal gaan maken van de techniek is de opvolger van Core 2, die de codenaam Penryn draagt. Deze zal in alle smaken van notebook tot server verschijnen en heeft een paar verbeteringen ten opzichte van de huidige generatie, waaronder vijftig sse4-instructies, een groter cache (hoogstwaarschijnlijk 6MB) en nieuwe features op het gebied van stroombesparing. Volgens geruchten keert ook HyperThreading terug in de 45nm-chips, maar daar heeft Intel zich nog niet officieel over uitgelaten. Als dualcore heeft Penryn in ieder geval 410 miljoen transistors aan boord, wat 820 miljoen voor de quad betekent. De eerste samples draaien al een tijdje in de labs en kunnen tenminste Windows XP, Vista, Linux en MacOS X opstarten.

Intel Penryn 45nm chip

Update (9:05): Direct na de aankondiging van Intel heeft IBM onthuld dat het ook een versie van deze techniek heeft ontwikkeld voor de 45nm-generatie. IBM werkt onder andere met AMD samen op het gebied van productietechniek, dus Intels verwachting dat de concurrentie de techniek pas voor 32nm-chips zal toepassen zou wel eens te optimistisch kunnen blijken.

Moderatie-faq Wijzig weergave

Reacties (34)

Waarom praten ze nog steeds over hyperthreading ? Lijkt me dat 2 processen over 1 core alleen maar vertraagt in de gegevens stroom. HP is nooit echt efficient geweest.
Het basisidee achter HyperThreading is zeker niet slecht. Core 2 kan in theorie namelijk 4 5 instructies per kloktik uitvoeren terwijl er voor heel veel applicaties gemiddeld maar 1 2 gevonden kunnen worden. Door twee threads tegelijk in beschouwing te nemen heeft de core een goede kans om zijn kracht effectiever te gebruiken. De valkuil van HyperThreading is dat de threads met elkaar gaan wedijveren om aandacht, waar ze beide onder kunnen lijden. Dit probleem kwam in sommige applicaties aan het licht in de Pentium 4-generatie, maar dat wil natuurlijk niet zeggen dat het hele idee waardeloos is.
Mijn ervaring is dat hypertreading zelfs vertragend voor multicore applicaties op dual-core machines werkt. Ik werk hier met een computer waar 2 losse Xeon processors op zitten. Als ik met hypertreating een frame uitrender uit 3D studio Max, doet hij er op zo'n 30 seconde 4 seconde langer over dan zonder hypertreating.

Reden genoeg voor mij om het dus uit te laten. bij single treath applicaties merk ik het toch niet mocht het met hypertreating sneller zijn. Pas als je een animatie van een paar minuten ( 25 frames per seconde) moet uitrenderen met 4 seconde winst per frame, merk je het pas.

Eigelijk zou dit hypertreating gewoon allemaal softwarematig door het OS geregeld moeten worden, zodat voor elke "job" de snelste oplossing gekozen kan worden.
Microsoft schijnt daar met de nieuwe Vista kernel wat aan gedaan te hebben, zodat de afhandeling van de threads beter verloopt.

http://www.microsoft.com/.../VistaKernel/default.aspx
Ook in XP had je al speciale HT-support. Sommige (combinaties van) programma's liepen op Windows 2000 nog een stuk trager met HT, terwijl je bij XP zelden of nooit minder performance krijgt dan met HT uitgeschakeld (maar uiteraard wel meer).
Dat zeg ik net, XP ziet dat juist *wel*.
Windows 2000 en eerder zien dat niet.
Vista is misschien nog wat geavanceerder, maar XP weet wel degelijk het verschil.

Zie ook deze documentatie:
http://www.microsoft.com/whdc/system/CEC/HT-Windows.mspx

XP heeft HT-aware thread scheduling:
For HT-enabled systems, it is advantageous to schedule any thread to a logical processor on an idle physical processor, that is, on a physical processor that has no instructions executing on either logical processor. This minimizes the impact of competition for shared HT processor resources on overall system performance.
Alleen zit er nog een bug in Xp die de prestatie nog drukt.
Deze is in vista opgelost(in XP trouwens ook alleen kun je die fox alleen op verzoek krijgen)
Het probleem daarachter zit dat XP geen verschil ziet tussen vituele cores, en echte cores. Daardoor kan dus 1 dubbel-threaded applicatie op 1 fysieke core terecht komen, wat niet bevoordelijk is. Vista kan wel onderscheid maken tussen fysieke en virtuele cores, hierdoor zou een dualcore met hyperthreading beter moeten presteren.
Deze nieuwe "gate" materialen brengen wel extra moeilijkheden met zich mee. Omdat voor de NMOS en de PMOS verschillende materialen moet worden gebruikt, betekent dit dat ze nu twee keer "gate" materiaal moeten deponeren, belichten en etsen (+alle schoonmaak stappen). En dan hebben we het nog niet eens over de "spacer".

Dit zal aardig wat hoofdbrekens kosten voor dat dit proces een beetje goede yield (opbrengst) zal hebben.
Intel heeft een grafiek laten zien waarop de yields van 130nm t/m 45nm worden getoond over het verloop van tijd. Vooralsnog volgt de 45nm-ontwikkeling hetzelfde patroon als dat van 65nm en lijkt het dus in goede gezondheid te zijn. Het zal inderdaad behoorlijk wat hoofdbrekens hebben opgeleverd om het allemaal onder controle te houden met deze nieuwe materialen, maar voorlopig is er nog geen indicatie van problemen.
Dit ziet er aantrekkelijk uit.... Dit is natuurlijk wel weer jammer voor AMD die een achterstand op zal gaan lopen omdat AMD pas op de proppen komt in 2008 met 45nm

Dit bericht moet je niet al te nauw nemen.. de uiteindelijke verbeteringen zullen een factor lager liggen.
AMD loopt tot nu toe altijd "achter" daarmee, maar is dat ooit een probleem geweest??

Dat ze nu "achterlopen" wat betreft processorontwerp is een veel groter probleem voor AMD. Om dat op te lossen zou AMD tegelijkertijd met Intel nieuwe processorontwerpen uitbrengen, maar of dat voor AMD gunstiger is? De periode dat de AMD64 heer en meester was van de P4 heeft AMD geen windeieren gelegd.
Vat het zo op:
AMD loopt achter op met 45nm procedure... Omdat deze ontwikkelingen zo aantrekkelijk zijn, k voor AMD.
Deze technologie zal een fikse stroombesparing kunnen leveren. Tenzij ze deze technologie ook op de 65nm procedure kunnen integreren.
Beetje "Wet van de Remmende Voorsprong" idee. Intel heeft jaren lang met hun Netburst architectuur een voorsprong gehad op AMD, maar hebben daar te lang aan vast (moeten?) (ge)houden. Vervolgens heeft AMD de sprong vooruit kunnen maken (dat was dus ten tijde van de P4 vs AMD64).
Nu maakt Intel mogelijk (gezien de update is dat maar zeer de vraag) weer een sprong.
De P4 was er ook een eindje voor de AMD64 reeks, hetzelfde als de dual-core reeks van intel. Maar telkens kwam AMD met een veel beter presterend product op de proppen gewoon omdat het niet het snelst wilde zijn maar de tijd nam om een degelijk en goed presterend product te maken.
Niet helemaal.
Op het gebied van chip-productie bleef Intel AMD altijd voor. Dat kwam met de Pentium 4 niet helemaal uit de bus, maar zodra men de Core2 op datzelfde 65-nm proces ging bakken, was het weer overduidelijk dat Intel daar nog steeds een voorsprong had... en heeft... want de 65-nm chips van AMD zijn nou niet echt een schokkende verbetering op de 90-nm chips gebleken tot dusverre.
Sinds wanneer heeft een Quadcore CPU werkelijk 2X zoveel transistors als een Dualcore ?

Bij mijn weten wordt zeker bij 6 MB aan cache het overgrote deel van de transistors bepaald door het cache en is hooguit de helft van het aantal transistors toegekend aan de core(s). Wat in zou houden dat een Quadcore hooguit de helft meer transistors heeft dan een Dualcore bij gelijk blijvend cache ............

Beetje ruwe veronderstelling dat een Quadcore dan ineens 820 transistors heeft tegen over 410 voor een dualcore. Gevoelsmatig zeg ik dat die nieuwe Quadcore niet veel verder komt dan 600 miljoen, of het zelfs niet eens haalt als de verdeling van cache t.o.v. de core nog 'ongunstiger' uitpakt.
Sinds wanneer heeft een Quadcore CPU werkelijk 2X zoveel transistors als een Dualcore ?
Sinds Intel zijn quadcores bouwt door twee dualcore dies in n processor te stoppen. (Ja dat doen ze ook voor 45nm).
Het plaatje boven begint al een echte stad te worden met landenrijden erachter.
Het zal wel druk zijn in de straten. :P
Zou je met google earth verder kunnen inzoomen?
Is al bekend of de Penryn gebruik gaat maken van socket 775?
waarschijnlijk, want CSI komt pas weer een jaar of 2 later.

alleen heb je waarschijnlijk nog steeds een new mobo nodig omdat omdat ze de FSB weer verhogen.
Als dualcore heeft Penryn in ieder geval 410 miljoen transistors aan boord, wat 820 miljoen voor de quad betekent.
het lijkt al bijna een GPU! :P
Ik zit eerder te denken dat dit een mooie technologie zou zijn voor de volgende generatie Nvidia videokaarten.

Als ze HT gaan gebruiken denk ik dat ze dat om de volgende reden gaat gebruiken.

Kijk maar naar Nvidia bv de nieuwste videokaart die richting zal de processor ook opgaan. Uiteindelijk om meerdere threads te verhogen is multicore design doodlopend. Er zal voor een Nvidia achtige oplossing gekozen worden. Als je niet begrijpt wat ik bedoel kijk maar wat er nieuw is aan het huidige ontwerp(Nvidia) in tegenstelling tot de voorgaande GPU versies.

quote: het lijkt al bijna een GPU! is natuurlijk onzin de die van Gpu's zien er totaal anders uit. Bekijk de volgende link maar en vertel me wat de overeenkomsten zijn :7

http://www.bit-tech.net/h...2/g70_architecture/2.html

Even een dwars-straatje in het Amiga tijdperk waren ze ook al met multiprocessoren bezig. Iets heel erg nieuws is het dus allemaal niet. Toen gebruikten ze de T800 voor multicpu ontwerpen.

http://cbmmuseum.kuto.de/...e2006-transputer.jpg.html
"...sinds het polysiliciumontwerp de jaren 60."

plak even "uit" tussen "ontwerp" en "de" en dan klopt die zin weer ;)
bij het huidige gateoxide in de 65 nm transistoren is de laag eigenlijk al te dun geworden:

een ander voordeel hier is dat het higk-k gateoxide weer dikker gemaakt kan worden zonder nadelige gevoilgen voor de prestaties.
voor volgende generaties kan 'ie dan, indien nodig, weer dunner.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True