Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

IBM ontwikkelt 2nm-chiptechnologie

IBM meldt technologie voor 2nm-chips ontwikkeld te hebben. Het bedrijf gebruikte hiervoor zijn nanosheettechnologie. De bekendmaking volgt vier jaar op die van 5nm-chiptechnologie, die eveneens op nanosheets gebaseerd was.

Volgens IBM maakt de 2nm-technologie 50 miljard transistors mogelijk op een chip 'met de grootte van een vingernagel', zo'n 1,5 vierkante centimeter. Het bedrijf verwacht dat chips gebaseerd op de technologie 45 procent hogere prestaties dan 7nm-varianten bieden of 75 procent minder energie verbruiken.

IBM maakt gebruik van gestapelde gate-all-around-transistors, die het bedrijf opbouwt met lagen die het nanosheets noemt. Door gebruik te maken van euv-patterning bij de productie, zou IBM zo nanosheets met breedtes van 15 tot 70nm kunnen produceren. IBM heeft de 2nm-technologie al toegepast bij een chip. Cellen van drie gestapelde gaa-transitors hebben bij die implementatie een hoogte van 75nm en een breedte van 40nm met een gatelengte van 12nm. IBM meldt niet om wat voor chip het gaat en waar deze voor ingezet wordt, maar het bedrijf meldt wel dat het bezig is 7nm-technologie te gebruiken voor zijn Power10-chips voor IBM Power Systems.

IBM is niet de enige partij die werkt aan gate-all-aroundtransistors als opvolger voor finfet-transistors. Intel ontwikkelt deze als onderdeel van zijn nanoribbon-technologie. Samsung wil gaa-transistors inzetten voor zijn 3nm-node, maar TSMC gebruikt voor zijn 3nm-procedé nog finfet-transistors. Bij gate-all-around omsluit de gate het kanaal van field-effecttransistors geheel. In 2017 kondigde IBM zijn 5nm-technologie op basis van gaa aan, die het samen met Samsung en GlobalFoundries ontwikkelde. Die laatste partij stopte de ontwikkeling van 5nm en kleiner overigens.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Olaf van Miltenburg

Nieuwscoördinator

07-05-2021 • 10:52

66 Linkedin

Submitter: zakalwe

Reacties (66)

Wijzig sortering
Laat mooi zien wat voor truuken er gedaan moeten worden om toch kleinere chips te maken zonder last te krijgen van de fysieke limiet van 7nm gate lengte: als de gate lengte kleiner wordt als 7nm kan er spontaan stroom gaan lopen, ongeacht of de transistor 'aan' of 'uit' staat. Met deze methode kunnen ze dus transitoren op 2nm van elkaar (of beter, op elkaar) plaatsen, terwijl de gate lengte met 12nm ruim boven de grens zit om een betrouwbare werking te garanderen.
Bij het 7nm process zijn de fysieke afstanden toch ook al niet echt 7nm (maar: 14nm ofzo). Ik begreep dat "zoveel"-nm meer een aanduiding is voor hoeveel rekenkracht per oppervlakte er is, in plaats van dat er iets letterlijk een lengte van zoveel nm.
Er is, zover ik weet, geen vast begrip van de maat van een chip. Het is niet zo dat de process node die bepaald wordt door fabrikanten, nergens op slaat, maar het is niet één op één te vergelijken.
Tweakers heeft een mooi artikel geschreven over hoe de node bepaald werd/wordt en daar wordt het één en ander in detail uitgelegd.

Dat is overigens ook één van de redenen dat Intel erg achterloopt in de nanometer-wedloop:
... Alle chipfabrikanten zijn in de loop der tijd creatief omgegaan met hun procesbenamingen, maar Intel was hier doorgaans toch wat strikter in dan de andere partijen.

De verkleining was bij een nieuwe Intel-node vaak groter dan bij de concurrentie, wat er bijvoorbeeld toe leidde dat Intels 10nm-procedé wat specificaties betreft veel meer lijkt op de 7nm-nodes van TSMC en Samsung dan op hun 10nm-nodes. ...
Wat mij betreft: het is nattevingerwerk, dus als je beweert dat processor a beter is dan processor b omdat de proces-node kleiner is ... dan is dat zeker niet per definitie waar. Daarom had Intel ook een 14nm++++ node: binnen een node is er aardig ruimte voor rek. Hoe leg je dat uit: uiteindelijk is een chip low level een reeks van kanaaltjes met een materiaal met natuurkundige eigenschappen, wat de werking van de elektronica realiseert.
Er zijn veel aspecten van het productieproces die invloed uitoefenen op het eindproduct. Het chipontwerp wordt geprojecteerd met een zogenaamd reticle, alsof je een dia projecteert. Dat ontwerp kan met minieme aanpassingen betere yields realiseren: door dat ene lijntje op het reticle in het midden wat dikker te maken, of de randjes minder scherp, juist scherper dan zal dat invloed hebben op het eindproduct.
Als je tijdens je totale productieproces er achter komt dat een bepaald lijntje of gedeelte van een chip bepaalde problemen heeft en die specifiek in het ontwerp kan tackelen, zal dat betere yields opleveren. Yields zijn hierbij niet alleen meer werkende chips, maar ook betere (snellere/zuinigere) chips. Of het concrete voorbeeld met de lijntjes op het reticle daadwerkelijk werkt, daarvan moet ik je het antwoord schuldig blijven, maar het zal wel iets vergelijkbaars zijn.

Naast dat heb je meer knoppen waar je aan kan draaien tijdens het procuctieproces. Denk aan betere resist (de chemische vloeistof waarin de lijntjes gerealiseerd worden die later de kanaaltjes vormen), belichten met een andere energie, multiple patterning, andere manier van uitlijnen in de machine, de stabiliteit van drukken/flows die de machine aangevoerd krijgt vanuit de fabriek/cleanroom, strengere reinheidsmaatregelen zodat partikels minder invloed hebben op de yields, enzovoort, enzovoort, enzovoort, enzovoort ;).

Ja, er zit veel, heel erg enorm veel complexiteit in iets simpels als verschillende twee-dimensionale ontwerpen op elkaar bouwen. Ik ben ook erg benieuwd waar we over tien, twintig (of dertig) jaar staan qua interesse voor nanometers. We komen een keer de grens tegen van een molecuul-/atoomgrootte en de vraag is hoe we dan chips verder gaan ontwikkelen. Meer lagen? Meer verfijning/uitknijpen van je proces-node? Andere materialen? Een combinatie van dit alles? Gaan we ooit een grens zijn wat technisch haalbaar is in een bepaald volume? Lopen we tegen een grens aan hoeveel rekenkracht een processor per kubieke millimeter kan leveren en zullen we dan steeds grotere processoren krijgen, om meer rekenkracht te realiseren?

Wat betreft nanometers: eerlijk gezegd doet het er niet toe. De proces-node is net als MHz en pk's een specificatie, welke eigenlijk nooit een doel zal zijn.
Uiteindelijk gaat het er om wat het product doet in de praktijk. Hoe hoog is de score in een bepaalde benchmark, wat verbruikt het qua energie, wat kost het, hoe snel accelereert de auto naar 100km/uur?
Goed verhaal, maar "hoe snel accelereert de auto naar 100km/uur" uh, ja, dat maakt in de echte wereld zo goed als niks uit natuurlijk.
Dat kan een persoonlijke smaak zijn, maar in algemene zin wordt daar waarde aan gehecht. Voor mij heeft acceleratie waarde: ik en mijn vriendin hebben elk een auto. Haar auto trekt heel langzaam op (~16 sec naar 100km/uur).

Om het gevoel te hebben om met het verkeer mee te rijden, zal haar auto veel toeren moeten maken. Even snel een vrachtwagen inhalen lukt niet, zelfs al schakel je van 5 naar 3. Mijn eigen auto heeft daar geen problemen mee. Daardoor voelt het alsof mijn auto meer kan en met minder moeite. Zo ook bij elektrische auto's.

En zo kan het ook bij de procesnode zijn: het doet er toe, maar het zegt niet alles. En vaak is het geen doel, maar een middel voor een ander doel.
Tja, mijn Focusje trekt ook voor geen meter op, tenminste niet op snelheid (station met 1.0L driecilinder). Maar om nou te zeggen dat het een probleem is. Overigens lukt bij mij het terugschakelen naar de 4 prima. Maar goed, het is natuurlijk fijner als je er sneller langs kan. Momenteel is het vooral voor kajak-transport vanwege de corona, dus och. Misschien binnenkort forensen.
Ik vind het ook zeer bijzonder welke trucages er allemaal worden uitgehaald. Natuurlijk zelf niet heel erg schaalbaar, bij 3 dimensies houdt het wel een beetje op :+
Oud microprocessor ingenieur van oa Apple en AMD meent hier in 30.05 dat moore’s law niet dood is: https://youtu.be/Nb2tebYAaOA

[Reactie gewijzigd door valerie op 7 mei 2021 11:14]

Heel interessant interview. :9

[spoiler=spoiler alert]Hij denkt dat transistors de komende 10 tot 15 jaar nog wel 100x zo klein kunnen worden.[/spoiler]

Hmm… werken ubb-codes alleen in het forum of zo?

[Reactie gewijzigd door breakers op 7 mei 2021 12:03]

Heb ik ook voorgehad. Je moet de spoiler tags op aparte regel zetten
Even testen..


[spoiler=spoiler alert]
Hij denkt dat transistors de komende 10 tot 15 jaar nog wel 100x zo klein kunnen worden.
[/spoiler]
Zonder die =spoileralert
[spoiler]
Hij denkt dat transistors de komende 10 tot 15 jaar nog wel 100x zo klein kunnen worden.
[/spoiler]

Helpt ook niet. En hoe zet je de link er dan in? Weet je zeker dat het in de nieuws-comments ook werkt, want ik het heb hier nog nooit gezien.

[Reactie gewijzigd door breakers op 16 mei 2021 22:50]

Interessant. Voorlopig kan Moore's Law nog wel wat verder door miniaturisering. Ben wel benieuwd hoe deze nanosheettechnologie zich verhoudt tot de EUV-technologie van ASML.
EUV is een technologie waarmee je een chip maakt, nanosheets zijn structuren in een chip. Met andere woorden : nanosheets zijn WAT je maakt, EUV is HOE je het maakt.
Moet het niet zijn: nanosheet is een ONTWERP dat je maakt en euv is het instrument WAARMEE je het maakt?

Zo kan je ook andere ontwerpen/architecturen ontwerpen en op basis daarvan chips maken. En je maakt het met het instrument van ASML.

[Reactie gewijzigd door Jazco2nd op 7 mei 2021 13:51]

Nee hoor. Er vindt nog verkleining plaats, daar heb je wel gelijk in.

Maar Moore's Law ging specifiek over een verdubbeling van het aantal transistors elke 18 maanden, en die trend is al een tijdje dood helaas. De gratis lunch is voorbij.
De verkleining is bovendien lang niet wat het aantal nanometers suggereert: Een 2nm-transistor zou onder de grens liggen van wat men natuurkundig realistisch acht. Men bouwt transistors evenwel al een tijdje de hoogte in, met allerlei ontwikkelingen als finfets en superfins. Daardoor kunnen de transistoren inderdaad dichter op elkaar, maar worden ze niet in de mate kleiner wat het aantal nanometers suggereert. Dat is dan ook één van de redenen waarom de toename die Moore voorspelt niet meer gehaald wordt.
Ook kwam vroeger technologie node naam redelijk goed overeen met de minimum gate lengte in een proces, wat zeker bij planaire ("normale") transistoren een goede indicator is van hun snelheid. Dus een 28nm node zat op ongeveer 28nm gate lengte.

Hier hebben we een "2nm" technologie, maar de gate lengte is 12nm. Ik ben ook benieuwd welke definitie ze precies gebruiken bij "50 miljard transistoren op een vingernagel". Zoals te zien is, stapelen ze drie transistoren. Maar die zitten wel allemaal aan elkaar vast, die kan je niet individueel zien ga ik heel erg vanuit. Tellen die als één of als drie devices?
Ah, dank jullie. Ik kwam er wiskundig niet uit. :-)
Als ik het goed begrijp moet je de "2 nm" meer zien als een marketing term over te verwachten prestaties tov eerdere technologien. Het is dus geen aanduiding van de grootte van fysieke details op de chip. Klopt dat?
Ongeveer, en ik ben geen expert op dit gebied , maar volgens slaat 2nm op de kleinste afstand die op die manier gemaakt worden. En dat wil niet altijd zeggen dat alle onderdelen zo ‘groot’ zijn.

Overigens zijn we nu wel echt op het randje van nog kleiner kunnen, een atoom is 0.1 tot 0.5 nm groot.
Ik denk niet dat dat hier op slaat. Als je op de foto's kijkt dan zie je dat IBM transistoren op elkaar heeft gestapeld. IBM bedoelt dat ze een transistordichtheid hebben bereikt die overeenkomt met als je 2nm platte, niet-gestapelde transistoren op een wafeltje zou kunnen bakken.
Het wordt een beetje verwarrend op die manier, kunnen we niet beter over gaan op iets als "transistor-dichtheid" per oppervlakte?
Ach, dan stappen we over op magnetische velden om fysieke transtistoren te emuleren. Een foton is kleiner dan een atoom, dus qua resolutie kunnen we nog wel even voort toch?
Klopt helemaal. Sterker nog dat is ook bij de non-discussie over "AMD heeft 7nm chips, dus die zijn beter dan de 14nm++++ chips die Intel maakt" het geval. Delen van de chips van Intel hebben een hogere dichtheid van componenten dan de chips van AMD en vice versa.
Klopt maar die wet heeft veel langer stand gehouden als dat Moore zelf had verwacht.
De IBM nanosheet technology maakt gebruik van EUV, zie ook:

https://www.eenewseurope.com/news/ibm-shows-first-2nm-chip

voor meer informatie. Overigens wordt hier ook verondersteld dat IBM's 2 nm niet voor 2027 rijp is voor productie.
Moore's law, gewoon technologische ontwikkeling.
2nm-chips. Verbaaswekkend hoe het mogelijk is 8)7 . 50 jaar geleden hadden we 10.000 nm chips, 20 jaar geleden 130 nm chips, nu 5 nm en over een paar jaar 2nm.

Wat hebben we over 10 jaar? Over 25 jaar?
wat ik me afvraag; hoe gaan ze het over 20 jaar aanduiden: 0,1 nm? of 100 pm?
Had dat niet te maken met het feit dat we met deze schaalverkleining zo in buurt zijn gekomen van de fysieke afmetingen van individuele atomen en moleculen? De Ångström (Å) valt in ieder geval niet onder het SI eenhedenstelsel.
Ik denk dat we gewoon picometer kunnen gaan gebruiken. Niets mis mee.
Als je de roadmap bekijkt in het artikel gaat men na nm over op A.

reviews: Als nanometers te groot worden - Transistors op ångströmschaal
Een van de opvallendste elementen in haar presentatie was een grafiek met transistorscaling in de komende jaren. Momenteel bevinden we ons in de transitieperiode van 14 naar 10nm, maar op de kaart stonden bekende kleinere nodes als 7, 5 en zelfs 3 en 2nm. De node daarna, gepland voor introductie rond 2025 of 2026, spreekt echter niet meer van nanometers, maar van ångström, een eenheid die normaal gesproken gereserveerd is om individuele atomen te beschrijven. Op de roadmap is sprake van een 14A-node, wat overeenkomt met 1,4nm, aangezien één ångström 0,1nm is.
https://en.wikipedia.org/wiki/Angstrom
The ångström is not a part of the SI system of units, but it can be considered part of the metric system in general.[8][9] Although deprecated by both the International Bureau of Weights and Measures (BIPM) and the US National Institute of Standards and Technology (NIST), the unit is still often used in the natural sciences and technology to express sizes of atoms, molecules, microscopic biological structures, and lengths of chemical bonds, arrangement of atoms in crystals, wavelengths of electromagnetic radiation, and dimensions of integrated circuit parts. The atomic (covalent) radii of phosphorus, sulfur, and chlorine are about 1 ångström, while that of hydrogen is about 0.5 ångströms. Visible light has wavelengths in the range of 4000–7000 Å.
Niets vreemds dus om angstrom te gebruiken.
ze worden zo klein, dat zelfs een elektron er niet meer doorheen kam :)
Ik hoop dat we dan de term m achter ons hebben gelaten en over zijn naar planck units:)
Dat lijkt mij ietwat onpraktisch, zelfs 0.001 nm is namelijk 6.1879273537329 * 10^22 Planck lengte.
Om dat in perspectief te plaatsen: het verschil tussen de grootte van een atoomkern (~10^-15 meter) en 1 meter is kleiner dan het verschil tussen een atoomkern en een planck eenheid (~10^-34 meter).
de nanometer benaming slaagt nu al op niets meer (buiten marketing).
Ze zouden eerder het aantal transistors per vierkante milimeter gebruiken als benaming
Eerder nog per cubieke milimeter oftewel ook de hoogte meenemen.
Het aantal transistors per mm² wordt ook bepaald door het ontwerp van een chip. Hoe ik het begrijp kan een ontwerp niet 'zomaar' verkleint worden zonder het ontwerp licht aan te passen. Lastig om deze parameter te gebruiken voor het vergelijken van productiemethoden.
Over 10 tot 20 jaar hebben de marketingafdelingen het over picometer ja. Bijna niet te bevattten hè, hoe klein het is en hoe ze het nóg kleiner zouden kunnen maken.
En over de afgelopen 40 jaar heb ik iedere keer gedacht, "het kan haast niet kleiner!" :D
Well, met een Si atom zo'n 0.2nm groot denk ik dat de trend toch wel dicht bij het einde zit.
Het is wel beetje van "zo noemen ze het". Bij Intel zou het 5nm heten. TSMC's 3nm gaat nagenoeg even klein worden. En dit heet dan 2nm 🤷‍♂️

https://www.anandtech.com...bm-creates-first-2nm-chip
Quantum computers :) _/-\o_
misschien wel misschien niet ;)
Stacking of 3d chips worden de toekomst. Nog veel werk aan de winkel. Maar stel je een cpu voor de 7nm is en bestaat uit 2 miljard lagen boven elkaar.
Hoe ver kunnen we eigenlijk gaan met dit soort ontwikkelingen?
Natuurkundig gezien is er toch wel iets van een limiet?
Een andere reaguurder merkte op dat een silicum atoom ongeveer 0.2nm groot is. Daarna zouden ze toch echt iets anders moeten bedenken om transistors van te maken.
Dat is wel te hopen iig :)
Wat ik niet zo goed begrijp is waarom IBM nog steeds aan dit soort onderzoek werkt, behalve dan dat het traditioneel altijd een pionier op dit gebied geweest is. Waar gaat dit vervolgens naar toe? Ze hadden hun eigen fabs en technologie toch al een heel lange tijd geleden over gedaan aan GloFo en laten hun eigen chips zoals Power nu elders produceren? Of willen ze dit dan weer in licentie gaan geven aan Samsung, TSMC, Intel? Ze zullen dit niet uit pure goodwill doen voor het pushen van technologie. En dat bedoel ik niet om IBM af te vallen, maar ik begrijp hun business-case niet zo goed voor dit soort research gezien hun eigen strategie qua chip ontwikkeling.

[edit]: Na wat rondstruinen op de IBM research site blijkt dat ze inderdaad veel samenwerken, zoals een samenwerkingsverband met Intel wat ze onlangs hebben opgezet:
https://newsroom.ibm.com/...-Research-and-Development

[Reactie gewijzigd door Squee op 7 mei 2021 11:35]

Het product is het proces om de chips te kunnen maken, zeg maar het recept. Daar kunnen ze aan verdienen door het recept te delen en daar licentiegelden voor te vragen.
ik doe onderzoek naar 0nm.
Sheet, da's best indrukwekkend.
Gebruiken die Amerikanen hier wel het metrische stelsel?

Zou fijn zijn als we dat eens wereldwijd overal gingen gebruiken.
wetenschappers in de VS en Canada gebruiken al decennia lang het metrische stelsel. waar ben je geweest?
333.33 transistors per mm2. Zeer interessante ontwikkeling wat een hoop goeds beloofd voor de toekomst.

Wat ik me afvraag is, of er enige samenwerking is/was? Of dat IBM dit zelf op zijn geweten heeft!
Ik kan het zo 123 niet vinden, aangezien er voorgaande samenwerkingen waren!
333,3 Miljoen transistors per MM^2

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True