Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties
Submitter: witeken

GlobalFoundries start een vijfjarig project om euv-technologie bij de productie van chips in te zetten. De fabrikant wil euv-chipproductiemachines van ASML gebruiken voor het 7nm-procedé. Met het project is een bedrag van 500 miljoen dollar gemoeid.

Het project omvat de oprichting van een Advanced Patterning and Productivity Center in de staat New York, dat de invoering van de extreme ultraviolet-lithografie voor daadwerkelijke productie moet versnellen. GlobalFoundries werkt samen met het Suny Polytechnic Institute en daarnaast zijn IBM en Tokyo Electron betrokken. GlobalFoundries nam in 2014 de chipdivisie van IBM over.

Het onderzoekscentrum gaat onder andere een NXE:3300B-scanner van ASML gebruiken. Bij het Suny Polytechnic Institute zelf is onlangs ook al zo'n machine geplaatst. Het project zal zich onder andere richten op het verhogen van de productie. ASML maakte vorig jaar bekend dat de productiecapaciteit van de NXE:3300B op meer dan duizend belichte wafers per dag ligt. Eind januari berichtte het bedrijf dat de productiesnelheid bij de NXE:3350B op 1250 wafers per dag ligt.

Intel hoopt euv 'ergens na de start van de 7nm-productie' in te kunnen zetten, zei William Holt, executive vice-president bij Intel onlangs tegen EETimes. De inzet kan dan mogelijk de kosten voor de 7nm-productie flink verlagen: tot euv ingezet kan worden moeten chipfabrikanten multi-patterning bij de huidige immersielithografie-technologie toepassen, om de kleine structuren op de wafer aan te brengen. Hiervoor zijn meerdere stappen en maskers nodig waardoor de productietijd en kosten toenemen.

Euv is de beoogde opvolger van immersie om de minuscule lijntjes voor chips op wafers aan te brengen. De euv-machines maken gebruik van licht met een golflengte van 13,5nm, waarmee in een enkele stap de kleine structuren aangebracht kunnen worden. Het techinstituut Imec becijferde vorig jaar dat 34 lithografiestappen nodig zijn voor 7nm via immersie en 9 via euv.

Gerelateerde content

Alle gerelateerde content (19)
Moderatie-faq Wijzig weergave

Reacties (30)

William Holt, General Manager, VP Technology and Manufacturing Group bij Intel, lijkt er een hard hoofd in te hebben dat er nog veel processor versnelling doorbraken komen. En hij heeft vorige maand meer dan een derde van z'n aandelen Intel verkocht.

Maar ik wens GlobalFoundries veel success in het uitvinden van de toekomst. Moge de beste winnen :)
Dat wil niets zeggen. Integendeel, door zijn inside kennis kan en mag hij niet zomaar aandelen verkopen. HIj heeft ook netjes aan de SEC gemeld.
Prima :). De volgende dag (26 januari) had 'ie nog eens verkocht lees ik nu:

http://zolmax.com/investi...tel-co-intc-stock/367110/

Wat 'ie met dat geld daarna heeft gedaan staat er natuurlijk niet bij. Hij is ook al weer in de 60, dus wie weet gewoon rustig aan z'n pensioen te werken.

[Reactie gewijzigd door Henk Poley op 10 februari 2016 15:47]

Is het einde nabij? Het lijkt mij zo dat de R&D kostprijs steeds duurder worden bij elke verkleining en dat men meer en meer "truukjes" moet gebruiken om daar te geraken.
Ik ben er zo goed als zeker van dat we manieren zullen blijven vinden om snellere en kleinere processors te kunnen maken. De manier waarop men het zal doen is een andere vraag.
Ik ben er zo goed als zeker van dat we manieren zullen blijven vinden om snellere en kleinere processors te kunnen maken.
De reden dat dit voorlopig niet gebeurt, is financieel; niet technologisch.

Wie zijn klanten van 10nm / 7nm en gaan hierin investeren?

Nu al zien we, dat alleen zeer specifieke toepassingen 14nm FinFET vereisen, en de grote bulk van alle apparaten op 28nm wordt gemaakt.

GloFo heeft zelf ook al aangegeven, dat waar kosten een issue is en geen absolute top-performance genoodzaakt is, dat haar 22FDX proces geschikter is dan FinFET.

Een node kost richting de 10 miljard om te implementeren tegenwoordig. Hoe gaat GloFo / Intel dat terugverdienen? Een ontwerp op 10nm kost volgens Handel Jones rond de 150 miljoen, hoe gaat een chipboer die het toch al moeilijk heeft als Qualcomm, AMD of NVidia dat ophoesten?
• PC's gaat het zowiezo niet worden, hier is weinig vraag naar snellere hardware en de markt krimpt. PC bouwers hebben moeite uberhaupt winst te maken. De grootste prestatiewinst in de afgelopen jaren van PC's komt van de overgang van HD naar SSD; dat had op de gebruikservaring veel meer impact dan "de snellere benchmarks" van Skylake / Broadwell en nog een gehaktmolen vol [cynisme] random-Intel codenaam-blubber[/cynisme] .
• Bij datacenters is er vooral vraag naar zuinigere chips, doorvoersnelheid en integratie. FinFET is dan een goed idee maar erg duur. Meer geintegreerde functies op een plak sillicium aka SoC, samen met Interposers / 3D (TSV's), FPGA's en nieuwe geheugehtypen als MRAM - dat soort zaken zijn goedkopere prestatieverhogers dan verdere miniaturisatie.
• Bij smartphones / tablets worden alleen de topmodellen (Samsung Galaxy, Apple iPhone, enkele Qualcomm) gemaakt op de nieuwste FinFET-processen; alle bulk (MediaTek, Spreadtrum, RockChip, AllWinner) wordt gemaakt op 28nm, dat is goedkoop en UMC heeft sinds deze week nog een goedkoper 28nm proces gepresenteerd.
• Videokaarten: Deze worden meer en meer geintegreerd met de CPU; ook hier brengt sneller geheugen met MRAM meer voor minder geld dan miniaturisatie.
• IoT, een van de weinige groeimarkten, heeft belang bij lage kosten en laag energieverbruik; hier zet GloFo ook in op haar 22nm FDX procssen uit haar Dresden-fab, niet op FinFET.
• Misschien de HPC-markt nog voor de top500, maar dat is een kleine niche die bovendien wordt betaald met belastinggeld; en regeringen hebben het financieel ook moeilijk. Verder hebben zij vaak ook meer baat bij GPGPU's / FPGA's dan verdere miniaturisatie. Hier een leuk voorbeeld van een 40nm-ARM server SoC vs. een Intel 22nm FinFET Xeon Phi, en de 40nm-ARM doet het prestatie/Watt beter in dit specifieke HPC-geval.

Maw, alleen de nichemarkt die echt die 10nm / 7nm kan gebruiken, het nieuwste van het nieuwste nodig heeft, en er voor wil betalen, moet die tientallen miljarden gaan ophoesten. Vooralsnog denk ik daarbij alleen aan Xilinx / Intel-Altera en Apple, de laatstgenoemde is eigenlijk ook de enige die er geld voor heeft. De Chinese regering heeft geld en zou willen, maar "mag politiek niet" wegens technologie-export-isues (dual use).

Ook denk ik terug aan de TraceMonkey Javascript VM van FireFox, die software verbeterde enkele jaren geleden bij "het AWFY initiatief" de snelheid van berekeningen in SunSpider letterlijk procenten per maand, langer dan 2 jaar - voor weinig kosten. Doe dat maar eens met hardware!

De snelheid waarmee (de aandeelhouders van) die kleine groep bedrijven die miljarden-investeringen bereid zijn te doen, bepaalt hoe snel EUV voor 7nm zal vorderen, niet de capabiliteiten van ingenieurs / technici.

[Reactie gewijzigd door kidde op 10 februari 2016 16:46]

Is deze node-jump dan zo veel duurder dan de vorige stappen?

Het lijkt me toch dat als je als chip-fabrikant competitief wilt blijven, dat je dan met de concurrentie mee moet. Dus als GlobalFoundries de sprong maakt, dat de rest dan wel mee moet. Tenzij ze GlobalFoundries de hele high-end markt willen schenken, maar dat lijkt me onwaarschijnlijk.
Eigenlijk is het zo dat elke volgende node jump meer tijd en geld kost om te ontwikkelen dan de vorige. Dat was vroeger minder een probleem omdat je met traditionele lithografie een heel eind gekomen bent.

Maar 7nm is dan toch wel echt een flinke stap, omdat je eigenlijk realistisch gezien aangewezen bent op euv welke nog een beetje in de kinderschoenen staat. De complexiteit voor multipatterning wordt te groot, die is kort door de bocht gezegd namelijk exponentieel naar mate je node kleiner wordt en begint zo rond deze node gewoon buitensporig te worden.

Dat in combinatie met het betoog van kidde over dat de vraag naar een kleinere node relatief aan het afnemen is, maakt dat langzaam de voordelen niet meer opwegen tegen de nadelen, en dan krijg je afremming.

ASML pompt gigantische research in hun euv dus er gaat echt wel vooruitgang komen, als 't uiteindelijk niet euv wordt voor de komende generaties dan wel weer iets anders, maar de hevige push van de markt voor miniaturisatie lijkt echt wel deels voorbij.
Toch moet er een keer een einde zijn, een goudatoom is "maar" 0,3 nm in diameter. Dus 7 nm zijn we redelijk tegen het einde aan het lopen. Als het per 3 jaar de helft minder wordt heb je dus nu 14 nm, in 2019 7 nm, in 2022 3,5 nm enz. Als je hiervan uitgaat zit je rond 2033 aan de 0,22 nm, dus daar zal ongeveer het limiet liggen.

en dan nog niet eens meegerekend alle warmteproblemen die we nu al hebben, als een transistor kleiner wordt heeft ie ook geavanceerdere cooling nodig. Enfin, we zullen zien ;)
Ik snap dat je " Als het per 3 jaar de helft minder" gebaseerd is op de wet van Moore, maar draai je logica even om en je zult zien dat we 3 jaar geleden niet op 28 nm zaten.

En als een transistor kleiner wordt heeft hij juist minder warmteproblemen.

Natuurlijk is er een limiet, maar zoals je kunt zien zal die nog wel even op zich laten wachten en dat is dan nog gebaseerd op huidige (maar wel verkleinde) techniek in 2D. Als je QuantumComputing en 3D gaat overwegen kunnen we nog wel even vooruit
Ik snap dat je " Als het per 3 jaar de helft minder" gebaseerd is op de wet van Moore, maar draai je logica even om en je zult zien dat we 3 jaar geleden niet op 28 nm zaten.

En als een transistor kleiner wordt heeft hij juist minder warmteproblemen.
Eum... Drie jaar geleden zaten we exact met 28nm-chips die verschenen. Sterker nog, 28nm-GPU's kwamen massaal op de markt in 2011/2012 (bv. de Radeon HD6000-serie) wat dus al 4-5 jaar geleden is! De hele cyclus van fabricage-procedé verkleinen is net de laatste 10 jaar beginnen vertragen na bijna 50 jaar religieus vasthouden aan het principe van de wet van Moore. Zelfs Intel heeft al aangegeven zijn ticktock-model te moeten lossen en brengt nog een derde generatie uit op 14nm voor ze de sprong naar 10nm wagen.

Die vertraging komt grotendeels door de lekkagestroom die bij elke verkleining groter en groter wordt, waardoor de stroom die weglekt "groter" wordt dan de stroom die de transistor laat schakelen. Hierdoor krijg je chips die rekenfouten geven en (heel veel) extra stroomverbruik en warmte. Waarom denk je dat Intel met FinFet op de proppen moest komen om 22nm en verder werkend te krijgen, of waarom 20nm Planar-chips onvoldoende waren voor high-end chips zoals GPU's en ze dus gewacht hebben op 14nm FinFet?

Daarbij is de warmte-kwestie ook niet meer zo eenvoudig als vroeger. In principe is het inderdaad zo dat hoe kleiner een transistor, hoe minder stroom hij nodig heeft en dus ook hoe minder warm hij wordt. Echter werkt elke vorm van chip-koeling die we tot nu toe gebruiken op basis van dissipatie (via heatspreaders naar heatsinks naar heatpipes naar radiators naar de lucht via ventilators) en dat heeft nu eenmaal contactoppervlak nodig om te werken. Hoe kleiner de transistors, hoe meer er zijn en hoe dichter ze opeengepakt zitten, dus hoe moeilijker het wordt om de warmte nog snel genoeg af te voeren. Het stroomverbruik gaat al een tijdje niet meer lineair naar beneden bij een procesverkleining.

[Reactie gewijzigd door darkjeric op 10 februari 2016 14:36]

Op dit moment zijn hersencellen een soort van referentie, en daar is de max zo ongeveer 5 nm als je de cel meeneemt en de gemiddelde afstand tussen twee cellen.
Grotere dieren zal iets groter zijn, maar kleinere dieren wordt het niet veel kleiner.

Er lijkt een max aan te zitten. Wat kleiner schalen dan de 5nm zie ik nog wel gebeuren, maar onder de nm komen geloof ik voorlopig niet.

Edit;
De dingen heten electrical synapse, en het dient als schakeltje tussen bepaalde cellen.
https://en.wikipedia.org/wiki/Electrical_synapse Volgend Wikipedia zouden ze zelf nog iets kleiner zijn dan 5nm.

[Reactie gewijzigd door Iblies op 10 februari 2016 18:54]

Een hersencel is een factor 1000 groter. Eerder 10micrometer dan 10 nanometer.
Als dat het geval is, is het misschien een interessante uitdaging om bedrijven bij elkaar te zoeken die met problemen werken die absoluut niet multicore* op te lossen zijn. En eens te onderzoeken wat ze er voor over hebben om toch snellere cores te verkrijgen. Vraag me wel af of er voldoende gegadigden zullen zijn die samen erg veel geld kunnen bijdragen.

* zgn. 'perfect sequentiele' problemen, en 'communicatie intensieve' problemen.
Als vuistregel geldt dat je van een chip net zoveel exemplaren moet verkopen als die chip transistoren heeft. Vuistregel, want de Intel Skylake heeft verschillende aantallen transistoren per model, maar van een moderne CPU moet je er inderdaad ruim meer dan honderd miljoen van verkopen.

Die perfect sequentiele problemen zijn te zeldzaam en niet relevant genoeg om een nog complexere CPU te rechtvaardigen. Je kunt geen miljarden CPU's voor die niche-markt produceren.
Ook de machines worden duurder, de maskers en nog steeds te langzaam om goedkoper te zijn als multi paterning of niet veel goedkoper.
Ook moeten de machines nog veel upgrades hebben om naar 3350B te gaan en verder
Zullen ze met processors ook kunnen stapelen net als ze dit doen bij hbm geheugen?
Theoretisch gezien moet dit kunnen.
Of het in de praktijk haalbaar & praktisch blijkt te zijn zal dit waarschijnlijk op korte termijn ook de markt intreden.

Edit; volgens mij word het stacken van processoren en geheugen al toegepast voor server en (high end) workstation processing labs. Meende ik een tijdje geleden ergens te horen.

[Reactie gewijzigd door TecHHeaD op 10 februari 2016 14:08]

Een universiteit heeft vorig jaar de cpu met geheugen kunnen stacken maar productie rijp
is het nog niet, ibm is bezig met 3d cpu stacking maar 1 van de problemen is warmte en vermogen.

http://arstechnica.com/ga...al-brain-like-efficiency/
Interessant, mogelijk dat ze dan ook een hoger aantal bits kunnen gebruiken. Alhoewel dan weer een nieuwe versie van besturingssystemen uit mag komen. Zou het aantal bits voor een os ook schaalbaar kunnen zijn, net als bij gpu?
Volgens mij ben je hier geheugenadressering en de grootte van de geheugenbus aan het verwarren. Een gebruikelijke grootte van de geheugenbus is 64 bit, of 128 bit met dual-channel (of zelfs 192 bit met tripple-channel). De geheugenadressering blijft in alle gevallen echter 64 bit, en dat is wel zo handig (anders zou je ineens een 128 bit OS moeten hebben om dual-channel geheugen te gebruiken).

Of anders verwoord: geheugenadressering telt de bytes in het geheugen, en de geheugenbus bestaat uit de banen tussen de CPU en het geheugen.
Aah ja je hebt gelijk, iets te makkelijk gedacht. :Y)
Processoren hebben een warmteprobleem. De onderste kan z'n warmte simpelweg niet kwijt. Je kunt wel een processor bovenop een stapel geheugen plaatsen.
Als referentie, een NXT (non euv) machine doet 175 wafers per uur. De NXE:3350 heeft dus nog een sprong te maken met 1250 wafers per dag (~52 wafers per uur).

I stand corrected: zie reactie link_mario voor correcte berekening.

[Reactie gewijzigd door rooot op 10 februari 2016 20:08]

Dat is appels met peren vergelijken. Bij (N)XT's wordt gebruik gemaakt van Multi-patterning, zoals ook in het artikel staat:

"Het techinstituut Imec becijferde vorig jaar dat 34 lithografiestappen nodig zijn voor 7nm via immersie en 9 via euv."

Hierdoor moet een wafer dus vaker dezelfde machine passeren bij een immersie proces dan bij een EUV proces.

Tevens doet de meest recente NXT(NXT 1980Di) 275wafers/hour(Dat is een wafer van 300mm per 13 seconde!) volgens de website van ASML. De NXT 1950i doet inderdaad 175wafers, maar die is al enkele jaren oud.

[Reactie gewijzigd door link_mario op 10 februari 2016 19:22]

vijfjarig durend?
vijf jaar durend of vijfjarig
Voor dit soort "foutjes" is `Geachte Redactie` in het leven geroepen ;)
Spel- en tikfoutjes - en dus *geen* andere foutjes - deel 43
Veel chipbakkers durven tegenwoordig 300m wafers nog steeds niet aan (iig niet in bulk) en aangezien de meeste chips tegenwoordig in van alles behalve high-end toepassingen gebruikt worden... waarom zou je naar een kleiner procede gaan?
Hmm, ik denk dat veel kleiner eigenlijk niet veel effect meer heeft.
Vroeger was kleiner, ook vooral meer transistors.
Als je kijkt hoe veel ruimte nu voor Cache en Gpu in de laatste Intels zit.
Die nemen enorm veel ruimte in. Terwijl de GPU natuurlijk wel leuk is, is het niet echt nodig.

Als de warmte afvoer echt een probleem is, en de kleiner zuiniger is,
zou het dan ook nuttig kunnen zijn om de transistor klein en daardoor zuinig te maken, maar een beetje lege ruimte ernaast vrij te houden?

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True