Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 22 reacties

Chipfabrikant GlobalFoundries heeft een eerste testchip in zijn fabrieken geproduceerd die volgens een 20nm-procedé is vervaardigd. Het 20nm-procedé moet het nog te implementeren 28nm-productieproces van de fabrikant opvolgen.

De testchip uit de fabriek van GlobalFoundries werd geproduceerd met behulp van ontwerpen van onder meer Cadence Design Systems, Magma Design Automation, Mentor Graphics Corperation en Synopsys Inc. Die vier eda-leveranciers zorgden voor de chipontwerpen die in 20nm gerealiseerd moesten worden: de geschiktheid van de ontwerptools voor circuits is vanzelfsprekend een belangrijke stap in de validatie van een nieuw productieprocedé.

De ontwerpen van de vier eda-leveranciers werden met behulp van een double patterning-techniek op de wafers overgebracht. Bij grotere lithografische procedés kan volstaan worden met een enkel patroon, maar om de fijnere details succesvol over te brengen zonder onderbrekingen in de structuren zijn trucs als dubbele patronen nodig. Een andere methode om kleinere lithografische processen mogelijk te maken, het gebruik van licht met kortere golflengtes in euv-lithografie, wordt nog niet door GF toegepast.

De testchips werden onder meer gebruikt om het volledige proces van chipproductie, ontwerp, validatie, patroonoverdracht en verificatie te testen. Klanten van GlobalFoundries krijgen de beschikking over een bibliotheek met ontwerpelementen om aan de slag te kunnen met 20nm-chipontwerpen. Op termijn moet de 20nm-technologie de opvolger worden van GlobalFoundries' 28nm-procedé. Dat procedé moet worden toegepast in gpu's voor onder meer AMD.

Moderatie-faq Wijzig weergave

Reacties (22)

Double patterning is er al een tijdje hoor. Zo "nieuw" is dat niet.
Het is meer de ontwikkeling en afstelling van het hele proces.

Een andere methode om kleinere lithografische processen mogelijk te maken, het gebruik van licht met kortere golflengtes in euv-lithografie, wordt nog niet door GF toegepast.

De EUV machines zijn botweg nog niet klaar voor productie. Dus vanzelf sprekend dat GF dit niet gebruikt. (en al de andere fabs)


Edit: typo's

[Reactie gewijzigd door mukkel op 30 augustus 2011 13:32]

EUV wordt inderdaad nog niet voor massaproductie gebruikt, maar Global Foundries heeft ook nog geen test EUV machine beschikbaar in tegenstelling tot de concurrenten. Ze kijken een beetje de kat uit de boom en wachten tot het zich bewezen heeft (2015), maar hopelijk lopen ze uiteindelijk niet achter de feiten aan...
Intussen heeft ASML al tien bestellingen van EUV-machines binnen die worden ingezet in de massaproductie. Deze machines worden in de loop van volgend jaar geleverd aan onder meer Intel, Samsung en TSMC.
Bron

[Reactie gewijzigd door enermax op 30 augustus 2011 13:49]

Dat valt wel mee. Voordeel van nu een euv machine kopen is voornamelijk ervaring opdoen. De machines die nu gekocht worden, zijn nog in de start-up fase, waarbij er nog een lage output is en waarbij weinig ervaring van het gehele proces is.

De bedrijven die nu een EUV-machine kopen, gaan nu proefdraaien: welke parameters in de machine geeft welk resultaat? Door nu veel onderzoek te doen, kan er straks een flinke machinepark gekocht worden en kan er direct worden begonnen met full-ramp productie.

Andere fabrikanten moeten dan maar genoegen nemen met de ervaring van ASML zelf met de machine.

Het kan ook nog zo zijn dat de bedrijven die nu een EUV-machine kopen, dit met een apart contract doen: zo doen ze nu kennis op en delen die met ASML in ruil voor korting als nieuwe machines gekocht worden.

Ik denk dat 20nm niet interessant is voor de consument, hoogstens voor mobiele toepassingen, maar daar zitten complexe chipdesigns aan vast, wat de kwaliteit flink kan doen afnemen als double-patterning wordt toegepast.

Double patterning betekent namelijk ook een verdubbeling van de machinetijd (grof genomen), dus de kosten zullen behoorlijk toenemen. Voor de mobiele chip-markt kan dit nog interessant zijn, aangezien cpu's nog aardige stroomvreters kunnen zijn.
hoe lang zou het duren voordat we de 20nm chips in onze systemen terug zien??
28nm is de volgende generatie en dat is nog ongeveer een jaar a ander half jaar van ons verwijderd de 22nm of 20nm stap is de volgende dat duurt dus nog ongeveer een jaar of 5 a 7 voor je de eerste chips zult zien met die afmetingen.
Dat is er natuurlijk va uitgaande dat de processen zullen werken zo als verwacht en dat de snelheid van nieuwe chips en nieuwe process stappen ongeveer gelijk blijft met het verleden.

Ik weet dat onze vrienden bij Intel al weer tijden met 28nm aan het spelen zijn en dat ze goede vorderingen maken op het 22nm gebied. AMD de voormalig eigenaar van Global Foundries zal denk ik niet ver achter blijven op dat gebied al lijkt het er wel op dat heel langzaam maar zeker Intel ook op dit gebied een kleine voorsprong weet op te bouwen ten opzichte van AMD (en IBM etc die een samenwerkingsverband hebben op dit gebied).

Ik denk dat zeker voor de GPU's de verkleining van het procedé erg belangrijk zal zijn. De huidige chips met hun verbruik van al snel enkele honderden watts onder load kunnen moeilijk nog heel erg veel meer gaan verstoken. Met een kleiner procede kan men meer transistors op een chip kwijt die daar naast ook minder energie nodig hebben en dus zou men een chip kunnen maken die ongeveer de zelfde prestaties levert als de top chips van vandaag terwijl deze een stuk kleiner (en dus goedkoper is) en ook nog eens minder energie nodig heeft. Of natuurlijk een chip die veel betere prestaties levert even groot is en net zo veel energie nodig heeft.

De CPU zal weinig echte verbetering laten zien de af gelopen paar jaar zijn de chips wel eens waar steeds een heel klein beetje sneller geworden maar de echt groei is er uit. De stappen van 2MHz naar 100MHz en toen naar 500MHz, 1GHz en 3GHz etc kunnen simpel weg niet meer gemaakt worden en dus is de enige echte verbetering die je nog ziet het optimaliseren van steeds meer veel voorkomende opdrachten met behulp van gespecialiseerde circuits en dus meer transistors. Dit heeft meer ruimte nodig en meer energie en dus kan zo'n optimalisatie alleen gemaakt worden door steeds kleinere processen te gebruiken en steeds meer transistors toe te passen die niet meer energie nodig hebben.

De eerst volgende echte sprong voor de processor is als grafeen eindelijk met de huidige apparatuur verwerkt kan worden zonder grote aanpassingen. Op dat moment zullen we al snel een sprong zien van de huidige 3GHz naar 10GHz en dan snel door naar nog veel sneller waar door de CPU eindelijk weer echt vooruit kan.
De GPU zal natuurlijk daar in mee gaan deze kan op het moment nog aardig winnen door hogere snelheden (nog steeds draaien de meeste GPU's op ~1.5GHz) en simpel weg meer transistors parallel is wat de GPU nu eenmaal goed does dus heel vele meer micro cores is heel veel meer snelheid.

Voor de rest zal het aller grootste voordeel uit kleinere processen gevonden worden bij de SSD's en andere geheugen verslindende apparatuur. Deze kunnen met minder materiaal de zelfde opslag bieden en dus flink in prijs zakken. Sneller worden ze voorlopig nog wel omdat er nog maar relatief weinig onderzoek gedaan is op dit gebied. De flash SSD bestaat pas een paar jaar op grote schaal de CPU en de GPU al weer tientallen jaren.
Paar kanttekeningen (naast de al genoemde):
Dat is er natuurlijk va uitgaande dat de processen zullen werken zo als verwacht en dat de snelheid van nieuwe chips en nieuwe process stappen ongeveer gelijk blijft met het verleden.
Bedoel je de "snelheid van verkleining", waarbij elk volgend procedé een sqrt(2) ~= 0,7 keer zo grote feature size heeft als het voorgaande? Dat zal nog wel even zo blijven ja, waarschijnlijk tot het moment dat verder verkleinen helemaal niet meer lukt. Wanneer dat is blijft nog even de vraag...
De huidige chips met hun verbruik van al snel enkele honderden watts onder load kunnen moeilijk nog heel erg veel meer gaan verstoken. Met een kleiner procede kan men meer transistors op een chip kwijt die daar naast ook minder energie nodig hebben en dus zou men een chip kunnen maken die ongeveer de zelfde prestaties levert als de top chips van vandaag terwijl deze een stuk kleiner (en dus goedkoper is) en ook nog eens minder energie nodig heeft. Of natuurlijk een chip die veel betere prestaties levert even groot is en net zo veel energie nodig heeft.
Tot nog toe is het gebruikelijk dat de extra transistoren het lagere verbruik per transistor meer dan compenseren: het verbruik gaat steeds maar omhoog. Ik zie geen reden om aan te nemen dat daar, dankzij een nieuw procedé, verandering in gaat komen. Dan kun je misschien beter je hoop vestigen op Intel's "3D fin" transistoren; het is nog even wachten op de eerste echte producten (en echte resultaten), maar het klinkt veelbelovend.
De CPU zal weinig echte verbetering laten zien de af gelopen paar jaar zijn de chips wel eens waar steeds een heel klein beetje sneller geworden maar de echt groei is er uit. De stappen van 2MHz naar 100MHz en toen naar 500MHz, 1GHz en 3GHz etc kunnen simpel weg niet meer gemaakt worden en dus is de enige echte verbetering die je nog ziet het optimaliseren van steeds meer veel voorkomende opdrachten met behulp van gespecialiseerde circuits en dus meer transistors.
En verdere verbeteringen aan de out-of-order machinerie, betere branch prediction, meer cores, ... . CPUs versnellen door de kloksnelheid op te voeren is al een tijd uit de gratie, maar toch worden ze nog steeds sneller. Zeker zodra de compiler-bouwers erin slagen om code automatisch te parallelliseren (en dus automatisch van meerdere cores gebruik te kunnen maken) zullen de voordelen van vele cores echt duidelijk worden. (Helaas is het extreem niet-triviaal om die compilers te maken...)
De eerst volgende echte sprong voor de processor is als grafeen eindelijk met de huidige apparatuur verwerkt kan worden zonder grote aanpassingen. Op dat moment zullen we al snel een sprong zien van de huidige 3GHz naar 10GHz en dan snel door naar nog veel sneller waar door de CPU eindelijk weer echt vooruit kan.
Probleem 1) Ik hoop dat we nog een paar andere sprongen voorwaarts tegemoet kunnen zien, wat grafeen laat nog wel even op zich wachten vermoedelijk.
Probleem 2) Ok, stel dat CPUs nog veel hoger gaan klokken, dan gaan ze alleen maar lopen idlen terwijl ze wachten op het geheugen. De helft van je CPU bestaat nu al uit caches, als CPUs opeens nog veel sneller worden, zonder dat het geheugen eenzelfde boost krijgt, dan ga je nog veel meer cache nodig hebben. Bovendien, zelfs al wordt geheugen sneller, een belangrijk deel van de latency wordt nu al veroorzaakt door propagation delay op de data paden tussen de CPU socket en de geheugen banken en daar is gewoon geen ruimte meer voor verbetering; die signalen lopen met de snelheid die ze hebben en dat kun je niet opvoeren. Ook de paden korter maken is nauwelijks mogelijk, het RAM zit al vlak tegen de CPU socket aan.
De verkleining kan nog wel even door,

IMEC Leuven heeft recent chips gemaakt met 4nm details, met gebruikmaking van een prototype EULV-machine van ASML. {TW}
Met een kleiner procede kan men meer transistors op een chip kwijt die daar naast ook minder energie nodig hebben en dus zou men een chip kunnen maken die ongeveer de zelfde prestaties levert als de top chips van vandaag terwijl deze een stuk kleiner (en dus goedkoper is) en ook nog eens minder energie nodig heeft.
Kleinere chips zijn niet op voorhand goedkoper. Het procedé waarmee ze gemaakt worden is vaak duurder, omdat er nieuwere apparatuur voor nodig is. De yield per wafer is wel hoger, maar dat compenseerd niet een nieuwe productielijn (waferscanner, track, etc.).
dat de yield per wafer hoger is betekend ook gelijk dat de productie per maand hoger is, (uitgaande van chip met de zelfde hoeveelheid transistors) en dus een hogere omzet.

maar het is uiteindelijke goedkoper. de enige vraag is hoe snel je de nieuwe productielijn hebt terug verdiend. aangezien ze dit elke ~18 maanden doen, blijkbaar vrij snel.

[Reactie gewijzigd door Countess op 30 augustus 2011 15:04]

28nm is helemaal geen jaar tot anderhalf jaar van ons verwijderd. Zowel nVidia als AMD gaan hun volgende reeks kaarten op 28nm produceren.

De planning is dat AMD eind dit jaar nog start met de verkoop van die kaarten. nVidia heeft iets meer problemen en hun planning is dan ook het eerste kwartaal van 2012. Dit betekent dat zelfs in het slechtste geval we binnen een half jaar producten kunnen kopen die gemaakt worden met het 28nm proces.
28nm is de volgende generatie en dat is nog ongeveer een jaar a ander half jaar van ons verwijderd de 22nm of 20nm stap is de volgende dat duurt dus nog ongeveer een jaar of 5 a 7 voor je de eerste chips zult zien met die afmetingen.
In Maart 2012 wordt de Ivy Bridge cpu van Intel verwacht. Ivy Bridge is 22 nm. Dat is 6 maanden vanaf vandaag. Geen 5 of 7 jaar.
.... bestaat ..... op grote schaal de CPU en de GPU al weer tientallen jaren.
Een CPU is datgene wat een computer tot een computer maakt. De eerste CPU is dus net zou oud als de eerste computer. Je opmerking over CPUs is een beetje vreemd in dat licht.

De eerste GPU was de Voodoo chip van 3dfx. Dat was in 1996. Net 15 jaar geleden. Geen "tientallen jaren". En de term GPU werd eigenlijk pas gebruikt vanaf the nVidia Geforce 256. Dat was morgen 12 jaar geleden (31 Aug 1999).

[Reactie gewijzigd door gryz op 30 augustus 2011 14:53]

AMD komt met nieuwe CPU's die standaard op 3,9GHz geklokt zijn (bron). Een lichtpuntje aan de horizon.
De vraag is of het opzienbarend is:

De IBM 595 (Power6) op 65nm (!) van een paar jaar terug liep al op 5gHz. Vziw worden die ook geproduceerd bij GF. Dan is het toch tekenend dat we na een paar jaar nog niet verder zijn dan dat.
Massa productie zou starten in 2014/2015.

EDIT: Op aanvraag van IMarks,
Bron: http://news.mydrivers.com/1/203/203124.htm

[Reactie gewijzigd door Toettoetdaan op 30 augustus 2011 14:25]

bronnen, links, any?
Weet iemand eigenlijk wat er word gedaan tegen de gevolgen van kosmische straling? Dit was al een "probleem" toen de Pentium 4 van 0.18 naar 0.13 micron ging. 0.13 micron = 130nm, dus met 20nm zou dit helemaal een probleem moeten zijn.

Zie hier een artikel uit het jaar 2003.
Laatste wat ik ervan gehoord heb (maar wat ik nu helaas niet terug kan vinden :( ) was dat dat grotendeels paniek-om-niks was. Tenminste, op Aarde, beschermd door de dampkring, kan me niet herinneren of er iets bij stond over hoe het in de ruimtevaart zit.

Los daarvan, steeds meer apparaten gaan er toch al vanuit dat een deel van de geheugencellen niet 100% betrouwbaar is; AMD CPUs hebben ECC op de L3 (en L2??) cache zitten bijvoorbeeld. Hetzelfde zie je bij HDDs, die reserveren flink wat ruimte voor fout-correctie. De precieze reden dat een bitje omvalt (hardware defect of kosmische straling) maakt niet zoveel uit, het wordt gewoon gecorrigeerd. Natuurlijk moet wel gelden dat # fouten-door-hardware-defecten + # fouten-door-kosmische-straling < # fouten-dat-gecorrigeerd-kan-worden, maar als problemen door kosmische straling extreem zeldzaam zijn, dan is dat automatisch het geval.
Lang geleden heb ik eens een detector gebouwd voor hoog energetische kosmische deeltjes (muonen). Zo'n detector bestaat basically uit 2m^2 scintillator plaat omgeven door reflectoren ( = aluminium folie) plus een extreem gevoelige foton buis voor detectie. De deeltjes die wij dan konden detecteren waren de gevolgen van botsingen van zeer hoog energetische deeltjes (tot 1 joule) met de dampkring. Je krijgt als zo'n ding binnen valt dus een soort "douche" van deeltjes met lagere energie. Dit gebeurde echter zeer infrequent (afhankelijk van de energie uiteraard). Ik meen me te herinneren dat zulke deeltjes misschien eens per maand gemeten werden.

Bovendien werkte de detector niet als er een betonnen dak boven zat. Ik denk dus dat je inderdaad met rede kan stellen dat de kans op een bitflip door een kosmisch deeltje zeer zeer klein is als je enige bescherming om je computer hebt.
Volgens mij is het maken van chips op deze grootte vergelijkbaar met het bouwen van een huis van skippyballen op de oceaan.
Het is meer het hele proces, machines tov elkaar matchen / regelen:

Hier een filmpje met wat info / details van het proces Double Patterning
http://www.youtube.com/watch?v=CYvPs3tyu3Y

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True