Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Halfgeleiderindustrie denkt dat procedé-verkleining voor chips tegen 2024 stopt

Door , 47 reacties

Het op steeds kleinere schaal kunnen produceren van chips komt tegen 2024 ten einde. Dat schrijven experts van de halfgeleiderindustrie in documenten van de International Roadmap for Devices and Systems. Het zou noodzakelijk zijn op 3d-structuren over te stappen.

Na 2024 is er geen ruimte meer voor verder tweedimensionaal geometrisch schalen, staat in het More Moore-whitepaper van de International Roadmap for Devices and Systems. De halfgeleiderfabrikanten zouden tegen die tijd chips op 4nm- en 3nm-nodes moeten produceren.

De namen van opvolgende nodes lijken wel te suggereren dat structuren nog op kleinere schaal geproduceerd worden, met aanduidingen als 2nm en 1,5nm, maar op de roadmap is te zien dat de traditionele waardes waarop de nodes gebaseerd zijn zoals halfpitch, gatelengte, enzovoorts niet meer afnemen.

Voor verdere besparingen op gebied van verbruik en kosten, en voor een toename van de prestaties moeten chipfabrikanten het vanaf dat moment zoeken in monolithische 3d-integratie. Het gaat hierbij om het stapelen van chips in de hoogte, met directe verbindingen dwars door het silicium heen, oftewel met through silicon via's. In het artikel Klein, kleiner, kleinst, beschreef Tweakers eerder de uitdagingen hiervoor, onder andere met betrekking tot de afvoer van warmte.

Nog voor de overstap op het 3d-stapelen, zullen finfet-transistors uitgefaseerd worden. Dat moet volgens de roadmap vanaf 2019 het geval zijn. De finfets zullen vervangen worden door aanvankelijk lateral gate-all-arounds en later door vertical gate-all-arounds. Zoals de naam al aangeeft bevindt de gate zich hierbij helemaal om de nanodraden van de channels. Bij lgaa liggen de draden nog horizontaal, bij vgaa is dat verticaal.

Andere whitepapers beschrijven het gebruik van nieuwe materialen voor chips, zoals germanium. Dat wordt al lang gezien als halfgeleideralternatief voor silicium, dankzij de hoge elektronenmobiliteit. De documenten zijn onderdeel van de International Roadmap for Devices and Systems of IRDS. De definitieve versie daarvan verschijnt in november, maar de whitepapers bevatten een opmaat naar die publicatie, beschrijft EETimes.

De IDRS is een voortzetting van de International Technology Roadmap for Semiconductors of ITRS. Deskundigen stellen die roadmap sinds 1965 om de zoveel jaar vast om daarmee een blik op de toekomst van de halfgeleiderindustrie te geven. Er is de nodige kritiek op de focus op nanometeraanduiding van nodes, die nog vooral voor marketing bedoeld lijkt.

Olaf van Miltenburg

Nieuwscoördinator

Reacties (47)

Wijzig sortering
Allicht een zij-stapje. Maar denk ik toch relevant. Weet iemand wat betekend dit voor ASML? Het in staat zijn van op steeds kleinere procédés chipproductie te faciliteren is hun competitief voordeel toch?
Aan balpennen is de afgelopen decennia niet zo veel veranderd, toch is er nog steeds vraag naar. Datzelfde zal gelden voor machines om chips te bakken. Misschien zullen ze wat minder snel verouderen, maar lithografie gaat voorlopig niet verdwijnen.

Bovendien is zeker niet gezegd dat lithografie uitontwikkeld is op het moment dat verkleining niet meer mogelijk is. Juist de in het artikel aangegeven 3D-structuren zijn een potentie om op te gaan ontwikkelen en daarmee denk ik dat ASML nog redelijk wat ruimte heeft om door te innoveren.
"Aan balpennen is de afgelopen decennia niet zo veel veranderd, toch is er nog steeds vraag naar. "

Dat klopt, maar ze worden tegenwoordig allemaal in China gemaakt.
Heel erg off topic: https://www.businessinsid...je-een-balpen-moet-maken/

Blijkbaar was dat nog zo makkelijk nog niet.
photondelta in Nederland heeft een interessante samenwerking met AIM photonics in Amerika. Daar werd Micheal Lebby voor binnengehaald om het potentieel van Polymer Photonics mee op de roadmap te zetten.

InP opvolger is Silicon Photonics maar Polymer Photonics is een beter platform voor schaling, snelheid, kost en uiteindelijk ook verpakking en koeling. Lebby weet dit want hij is zonet CEO geworden van Lightwave Logic.
Voorlopig zijn InP en Silicon photonics twee heel verschillende technologieën met verschillende toepassingen.

Silicon heeft in het algemeen minder hoge optische verliezen dan InP, maar in InP kan je actieve componenten (optische versterker en lasers bijvoorbeeld) maken. Dat laatste kan in Silicon niet vanwege de indirecte bandgap. Misschien wordt er in de toekomst wat ontwikkeld om deze te combineren (InP op Silicon groeien bijvoorbeeld), maar dat is nog niet zo makkelijk.

Polymer photonics kende ik nog niet, daar zal ik eens naar gaan kijken. Bedankt :)
Deze reactie gekregen van IBM Jessie Rosenberg PhD ;)

Polymers are very interesting as materials for photonics! There is a lot of excellent work being done on polymer modulators. The main challenge there is still efficient poling and material stability, but there is tremendous progress being made.

https://www.ibm.com/blogs...17/04/osa-ama-jrosenberg/
Aan balpennen is de afgelopen decennia niet zo veel veranderd
Aan balpennen valt weinig te verbeteren, maar snellere chips kunnen we altijd gebruiken.

Als niet een methode wordt gevonden om chips nog kleiner en sneller te maken dan is ASML met z'n huidige technologie verzekerd van werk tot in de verre toekomst.
Als wel een methode wordt gevonden om chips nog kleiner en sneller te maken dan zal ASML nog moeten zien of zo ook daarmee voorop kunnen lopen.
Voor balpennen is zoiets geheel niet relevant.
Vertical gate all around transistoren kan je maken met EUV met high aperture vziw, en dat staat tot 2030 op de roadmap. Dus deze roadmap betekent dat ASML tot 2030 werk heeft lijkt me.

M3D zorgt er wel voor dat het zwaartepunt iets verschuift van litho naar allerlei andere zaken (oa betere resist, Atomic Layer Etching) waardoor juist bedrijven als Applied Material, Amkor, LAM Research, KLA Tencor en Tokyo Electron (en 'ons' ASMI hopelijk?) belangrijker worden.
Als de Procédés niet kleiner meer kunnen, denk ik dat ASML zich gaat focussen op het verbeteren van de efficientie van hun machines.

Uiteindelijk zullen alle grote "chip bakkers" tegen hetzelfde probleem aanlopen. De focus zal meer gericht worden op het optimaliseren van de productie runs, denk ik. :)
Zelfs als kleinere procedes onmogelijk zijn kan er nog heel veel worden verbeterd aan de lithografiemachines: ieder klein voordeel in de yields of de belichtingstijd levert op
Waar moeten die chip bouwers dan op gaan concurreren, die nm-ers bekken wel lekker in de marketing, veel beter dan terra flops
hoeveelheid/volume transistors etc.
Dat was een leidraad voor betere prestaties en betere koeleigenschappen. Als dat stopt kun je nog concureren met multi processoren en eventueel aantal flops. Daar zijn ze immers al een tijdje mee bezig, met multi processing, niet schaalverkleining. Natuurlijk blijven de ghz-en. ;)

Wellicht dat een nieuwe uitvinding of nieuw materiaal uitkomst brengt. Zo zijn ze ook al met grafeen bezig.

lees ook:
https://newscientist.nl/blogs/5-vragen-grafeen/

[Reactie gewijzigd door Tourmaline op 24 maart 2017 15:55]

Grotere chips die ook nog is relatief efficiënt zijn. Momenteel is het zo dat als een chip groot is dat de uitval ook hoger is. Logisch want meer onderdelen = meer kans op falen.
Ze gaan dan weer meer transistoren op een chip zetten. Je krijgt dan steeds meer multichip modules. Uiteindelijk worden de computers dus weer groter. Het worden steeds meer super computerachtige kasten met steeds meer processoren.
Misschien niet de chips, misschien moet het moeder bord eens onder de loep genomen worden. Hier hebben we al jaren dezelfde formats voor.
Terug naar af.
Ik ben nog van de generatie OC13/OC14 germanium transistoren. En daarbij is 0,16 V basis/emitor toch wel weer wat lager dan bij silicium met 0,6 volt. Kan de spanning weer een stuk terug.
Maar hoog frequent was wel een probleem (toen).
Terug naar af is het buizen tijdperk. Denk niet dat je dat wilt. :)...
Worden computers weer net zo groot als de Arena..
Ach in de Arena zie je ook alleen maar getallen als 1-0 0-1 0-0 1-1
En het gelereren van deze getallen duurt ook menig malen langer dan de computers van toen.

[Reactie gewijzigd door ghangster op 24 maart 2017 16:59]

Best bizar en hier speelt nog audio door Germanium transistors ;)
Ik ben heel benieuwd wat dit op de langere termijn betekent voor chip ontwerpers als alle efficientie en zuinigheid berust op de kwaliteit van het ontwerp en ze niet meer een kleiner procede kunnen gebruiken om bijvoorbeeld een hogere klok te halen en een lager TDP.
Dat was bipolaire technologie dat valt niet te vergelijken met hedendaagse MOS technologie.
Stroom gaat niet sneller dan zoveel.
Het stapelen in 3D doen we al met 3D NAND, is de hiervoor gebruikte techniek enkel toepasbaar op NAND cellen?
Je zult wel meer van dit soort ontwikkelingen eerst in NAND (of DRAM) tegenkomen; dat zijn ongeveer de simpelste meest repetetieve structuren die in grote hoeveelheden samengepakt worden, dus vaak ook het makkelijkst om op zo'n manier in te innoveren.
Bij 3D structuren kun je ruimte vrijhouden om buisjes met koelvloeistof door de chip heen te maken.
Denk dat op zo'n kleine schaal dat niet echt iets aan de temperatuur zal doen.

Maybe iets meer thermische geleiding maar zoals ik al zei, weinig noemenswaardige impact
3D NAND is als een piramide met 64 lagen: Iedere laag is vanuit de buitenkant aan de zijkant te bereiken. Het is dus alleen maar stapelen en verbinden aan de zijkant.

Monolitische 3D is als een wolkenkrabber met verschillende lift schachten die op verschillende verdiepingen beginnen en eindigen: De verticale verbindingen lopen dwars door het hart van de lagen. Dit is veel moeilijker, vooral omdat je eerst alle verdiepingen van de wolkenkrabber prefab maakt, en dan moet bij assemblage alle liftschachten perfect op elkaar aansluiten, een verdieping die niet goed past en je hele chip is defect.
Sowiezo ligt de emphasis om zoveel mogelijk parallizatie en cores.

Het probleem is dat het gewoon, zelfs nu we al weer meer dan een decennia dual/quad cores hebben, gewoon extreem lastig om bepaalde taken te parallelizeren qua programmeren.

Je moet je ook afvragen in hoeverre een enkele core nog qua IPC sneller kan worden. Kan me niet voorstellen dat dit enkel een oppervlakte probleem is op de chip. Heb toch een beetje het gevoel dat zowel AMD als Intel toch wel een beetje een grens heeft bereikt wat betreft single core performance.

Wat misschien ook wel meespeelt is de complexiteit van een chip en de hersenen van een mens. Hoe complex kunnen we chips nog maken totdat we zelf de bomen door het bos niet meer kunnen zien? Ik snap dat er veel software voor wordt gebruikt maar alles is natuurlijk eindig.

Wat betreft andere materialen gebruiken, misschien dat we op een of andere manier chips nog een oppepper kunnen geven en hogere kloksnelheden kunnen bereiken...

[Reactie gewijzigd door Marctraider op 24 maart 2017 20:17]

Graag voeg ik daar een belangrijke trend aan toe, voor als meer GHz'en niet meer komen: Specialisatie.

(Bijna) iedereen snapt dat en CPU ook grafische berekeningen kan doen en vroeger zelfs spelletjes draaien, maar dat een systeem met goedkope GPU en CPU beter presteert dan een systeem met alleen 1 dure CPU.

Een paar jaar terug had een dure Core Duo serieus moeite met het decoden van h.264, de load lag vaak boven de 50% en af en toe stotteringen. Nota bene een pre-Cortex ARM11 processor van Broadcom (gemaakt op een aan Intel inferieur proces) uit de Raspberry Pi 1 van hooguit een tientje maakte gehakt van de Core Duuro's. De reden? Een gespecialiseerd blok voor hardware matig decoden van h.264, dat Intel vroeger niet had maar alle ARM SoCs wel.

Kijk naar bitcoin mijnen: Vroeger deed men dat met CPU's. GPU's, zelfs relatief lullige, maken gehakt van Intels duurste CPU's. FPGA's maakten weer gehakt van de GPU's en toen het algoritme in de FPGA's vast lag waren ASIC's goedkoper en efficiënter.

Veel datacentra gebruiken nu ook FPGA's, dan zijn de prestaties 2x zo goed als bij CPU's (Dit bleek uit een presentatie van Bing).

Met andere woorden: Moore's waarneming en daarna het daarna wetmatig streven door chipmakers maakt programmeurs en algorithmici lui. Men zocht in de jaren 90 meestal niet naar systeem-efficientie, want volgend jaar waren de CPU's toch 2x zo snel, dus waarom je algoritmen aanpassen. Maar juist als je kijkt wat de meest reken intensieve taak is die CPU's moeten doen en daar een ander type gespecialiseerde processor voor maakt, of je algorithme 10x zo snel, boek je het meeste vooruitgang.

Wat zijn nu de taken die reken intensief zijn, en waar CPU's het moeilijk hebben? Vooral statistiek, in de vorm van machine learning. Qualcomm schatte dat over een paar jaar 90% van alle berekeningen uit machine leren kan bestaan. De oplossing bij CPU/proces stagnatie is simpel: Ga over op GPU's (NVidia is daar succesvol), FPGA's en ASIC's zoals Google's Tensorflow. De meest reken intensieve taak die mensen CPU's nu laten doen wordt dan 10x zo snel zonder dat de CPU's zelf sneller worden, doorgaans binnen en paar jaar.
Je kunt er tegenin brengen dat als een processor straks allerlei gespecialiseerde functionaliteit heeft, zoals een blokje voor videodecoding, een blokje voor encryptie, een blokje voor GPU e.d., je een hoop transistoren op de processor hebt, die weinig gebruikt worden, videodecoding gebruik je alleen als je films kijkt. In plaats daarvan had je de transistoren ook kunnen gebruiken om extra kernen te realiseren, die weliswaar minder efficiënt zijn, maar breder inzetbaar zijn.

Niet alles lijkt me daarom zinvol. Een GPU is zeer zinnig, een FPGA lijkt me ook erg zinnig. Beiden zijn namelijk programmeerbaar en dus voor meer dan één taak te gebruiken. Ik heb meer twijfels over videodecoding en encryptie, het is als de hoeveelheid transistoren niet meer kan groeien wellicht beter de GPU en FPGA voor die taken in te zetten.

[Reactie gewijzigd door dmantione op 24 maart 2017 23:33]

Ik vraag mij af wat er met de computerindustrie gaat gebeuren als computers niet meer sneller worden. Innovatie zal ook veel langzamer gaan als computers niet sneller meer worden. Dit gaat enorme impact hebben.

Het is al decennia lang duidelijk dat dit er aan zat te komen, maar toch zal het einde van de miniaturisatie pijnlijk zijn. Al jaren worden kloksnelheden van computers niet meer hoger, en nu komt dus de absolute limiet qua afmetingen in zicht.
Best knap van 10.000 nm in 1971 (intel 4004 10um) naar 2 nm rond 2024 misschien. Is een verkleiningsfactor van 5000 in 50 jaar. 100 op jaarbasis.
Ooit een keer een oude simpele chip in metalen behuizing opengezaagd, Die kon je met een loep duidelijk bekijken. ;-)
Kende je deze site al?
https://zeptobars.com/en/

Met kokend salpeter- of zwavelzuur opengebeten chips onder de microscoop gelegd en prachtig gefotografeerd.

Facinerende plattegronden zijn het. Stuk voor stuk schilderijen.

Je zou bijna vergeten dat onze oosterburen ook chips maken. Wat dacht je van de Baikal T1 op 28 Nm in 2015? Ja lach er maar om! De geïntegreerde interface heeft een 10Gb netwerk aansluiting...
https://zeptobars.com/en/...echnologies-P5600-Warrior

Een greep uit de 20 pagina's
De Intel 8080 en een super amoled chip van Samsung
https://zeptobars.com/en/?p=8

Z80 die je in de eerste homecomputers vond zoals de ZX spectrum en MSX computers
https://zeptobars.com/en/?p=15

DVD fotosensor
https://zeptobars.com/en/?p=3

[Reactie gewijzigd door btoman op 25 maart 2017 01:51]

Dit gaat niet lineair maar exponentieel. Als het zou lukken om ieder jaar een factor 100 te verkleinen, dan hadden we in 2 jaar tijd op 1nm gezeten.
Die 100 op jaarbasis is een beetje raar berekend. Als je chips 2 jaar achter elkaar 100x zo klein maakt ben je na 2 jaar 10.000 keer zo klein en niet 200. De verkleining gaat exponentieel. Blijft wel een knappe prestatie.
Valt wel mee, 100 nm eraf per jaar.
Eerder een factor 1.174 per jaar
1.174 tot de macht 53jaar = 4925
Als we niet de breedte in kunnen, dan maar de hoogte?
Of krijgen we dan issues met warmte ontwikkeling?

En wellicht, tegen die tijd dat quantum computing nog iets actueler is geworden,. ?
Het antwoord op de eerste 2 vragen staan letterlijk in het artikel.

[Reactie gewijzigd door gjmi op 24 maart 2017 15:31]

En quantum computing wil ik nog niet actueel noemen in de zin dat het al praktische toepassingen heeft.
Men zal echt transistoren op een andere manier moeten fabriceren, op bijvoorbeeld moleculair of zelfs atomair niveau.

Een MOSFET transistor is nu nog steeds vele tienduizenden atomen groot. Alleen de dikte van de gate is nu enkele atomen dik. Het kan dus nog steeds veel en veel kleiner. En sneller.

Iemand heeft ooit eens de theoretische bovengreens voor de snelheid van een computer bepaald (op basis van energie kwanta in atomen) en dat was honderd miljoen keer een biljoen wat we nu hebben. Dus in theorie kunnen computers veel sneller gemaakt worden.

[Reactie gewijzigd door ArtGod op 24 maart 2017 15:52]

3nm is ongeveer 30 atomen. Als je je structuren nog kleiner maakt gaan ze bij het minste geringste kapot, als je tenminste al wat opbrengst hebt aan niet-defecte chips.
voor een toename van de prestaties moeten chipfabrikanten het vanaf dat moment zoeken in monolithische 3d-integratie.
Misschien daar eens vanaf zien. Monolitisch is naar mijn idee vooral commercieel interessant omdat een CPU dan 1 produkt blijft. Zelfde geldt voor besturingssystemen voor die CPU. Als deze produkten uit meerdere gelijke modules gaan bestaan heb je kans dat de hele high-end markt gaat klappen omdat niemand het nog wat interesseert wat de snelste CPU van vandaag kan aangezien tig spotgoedkope exemplaren samen hetzelfde of meer kunnen. Zelfs real-time graphics, eigenlijk het enige wat op dit moment nog serieus een monoliet vereist gaat het op een zeker moment verliezen van het geweld van kwantiteit.
Best grappig dat de eerste IC gemaakt was van germanium en het verbeterde model daarna van silicium. En nu gaan we weer terug naar germanium. :)
Newly employed by Texas Instruments, Kilby recorded his initial ideas concerning the integrated circuit in July 1958, successfully demonstrating the first working integrated example on 12 September 1958.
[...]
Half a year after Kilby, Robert Noyce at Fairchild Semiconductor developed his own idea of an integrated circuit that solved many practical problems Kilby's had not. Noyce's design was made of silicon, whereas Kilby's chip was made of germanium.
Bron

[Reactie gewijzigd door Bonez0r op 26 maart 2017 12:37]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*