Digitimes: TSMC begint later deze week met massaproductie op 3nm-procedé

TSMC zou van plan zijn later deze week te beginnen met de eerste massaproductie op zijn 3nm-procedé. Het stond al op de planning dat de Taiwanese fabrikant daar in de tweede helft van 2022 mee zou beginnen.

TSMC zou op donderdag 29 december een ceremonie willen houden op zijn Fab 18-productiefaciliteit in Taiwan. Die ceremonie zou de aftrap zijn van de massaproductie van chips op TSMC's 3nm-procedé, schrijft Digitimes. Dat schrijft ook dat TSMC op die datum meer bekendmaakt rondom de uitbreidingsplannen voor zijn 3nm-capaciteit in die fabriek.

Daarmee lijkt TSMC zijn eigen planning ternauwernood te halen. Het bedrijf zei begin 2021 nog dat de massaproductie van 3nm-chips voor de tweede helft van 2022 op de planning stond.

Naar verwachting zal vooral Apple in de toekomst gebruikmaken van het productieproces. Er gingen eerder al geruchten dat alle iPhone 16-modellen op 3nm-socs zouden draaien. Later werd ook bekend dat het bedrijf zou zijn begonnen met het ontwerp van een M3-soc op basis van TSMC's 3nm-procedé. De Macbook 14 en 16, de Mac Studio en Mac Mini zouden daarnaast een M3 Pro-soc krijgen die op dat procedé is gemaakt.

Door Tijs Hofmans

Nieuwscoördinator

27-12-2022 • 13:41

33

Reacties (33)

33
33
9
4
0
18
Wijzig sortering
Aangezien 1nm uit ongeveer 10silicium atomen bestaat naderen we ultieme limieten wat verkleining betreft. Een Si transistor heeft 50atomen nodig om electronen te geleiden of tegen te houden.

Kleiner was tot hiertoe altijd zuiniger en elke chip kon meer transistors huisvesten op de zelfde voetafdruk maar de huidige verkleiningstechniek botst op zijn limieten.

Als uitkomst lees ik het en der:
- Photonics chips: chips die data versturen met licht ipv electronen. Licht is 20x sneller en warmt minder op sinds fotonen geen massa hebben waardoor de chips efficiënter kunnen werken ondanks ze groter zijn.

Het goede nieuws is dat met de huidige machines waarmee we silicon chips bouwen kunnen we ook photonics chips maken. Ze zijn dus niet kleiner maar wel efficiënter waardoor je meer rekenkracht kan verwachten met een lager verbruik.

- chips met grafeen. Tot zover ik weet is dit nog verre toekomst.

-analoge chips. Hiervan zijn er nu al prototypes. Dat kan perfect in combinatie met photonics chips.

Het lijkt er dus op dat we als mensheid niet tegen een muur lopen maar onze rekenkracht per watt gaan blijven schalen.
Aangezien 1nm uit ongeveer 10silicium atomen bestaat naderen we ultieme limieten wat verkleining betreft.
De naam van deze procedés heeft al lang niks meer te maken met een daadwerkelijke formaat van een component op de chip. Ze nemen de dichtheid en rekenen dat min of meer om naar hoe klein de chips zouden zijn als alles plat op de chip gezet wordt, wat men vroeger deed. Tegenwoordig halen ze echter verbeteringen in dichtheid op andere manieren, zoals de hoogte in gaan.
De golflengte van licht bedraagt minimaal enkele honderden nanometers. Ik las laatst een artikel over fotonische chips en dat die zeker niet sneller zullen zijn dan onze huidige chips. Is puur wensdenken en wetenschapsfundamentalisme zonder kennis van natuurkunde.
Hoezo zijn ze niet sneller dan? In bepaalde zaken zullen ze niet sneller zijn, maar in andere zaken zullen ze best snelheidswinst kunnen halen hoor. Misschien zijn ze wat groter, maar kunnen ze wel per watt meer rekenwerk doen bijv.
In sommige gevallen, zoals in computernetwerken misschien, maar dat is maar een heel beperkt toepassingsgebied waar mensen dus uiteindelijk weinig van zullen merken.
Is puur wensdenken en wetenschapsfundamentalisme zonder kennis van natuurkunde.
Waar heb je dat gelezen? Sneller in wat? Wie zegt dat het 'wensdenken' is? Quantum computers zouden ook ook nooit 'sneller' zijn dan klassieke chips. Net zoals ons brein niet zo snel is als een rekenmachine maar een reken machine kan niet wat ons brein kan. Het is maar hoe je het met elkaar vergelijkt.

Er zijn voldoende bewijzen dat photonic chip design de toekomst is. De golflengte van licht is idd een fysieke beperking maar dat wil niet zeggen dat licht niet kan helpen berekeningen sneller te laten verlopen. Bijv dit artikel op Tomes hardware.

Als je dit fabeltjes noemt kan je best bij een conspiracy club aansluiten want "fotonische chips en dat die zeker niet sneller zullen zijn dan onze huidige chips." is gewoon uit de lucht gegrepen. Ook zullen er veel gelijkgezinde zijn die 'wetenschapsfundamentalisme' willen uitroeien.
Artikel op Tom's Hardware is enkel gebaseerd op de vermarktingspraat van het bedrijf. Onthoud: het overgrote merendeel van de pioniersbedrijven (start-ups) gaan binnen afzienbare tijd op hun bek. Klein deel overleeft. Geldt voor veel andere nieuwe bedrijven overigens ook.

Het wetenschappelijke artikel waar ik het over had kan ik niet 123 terugvinden, staat op m'n laptop, maar die heb ik hier niet liggen.

Maar dit artikel kon ik wel vinden tussen mijn bladwijzers op mijn vaste computer: https://www.designnews.co...ut-silicon-photonic-chips

Dat gaat enkel nog over computernetwerken, waar het de meeste kans op (enig) succes heeft, niet eens over chips zoals de centrale verwerkingseenheden of grafische verwerkingseenheden in onze computers.
Maar waarom zou je zichtbaar licht gebruiken? Het elektromagnetische spectrum loopt verder dan dat. EUV is 10nm, röntgen 0,1nm, en X-ray drukt men uit in picometers. Gammastraling op tienden daarvan. Dat zal z'n technische uitdagingen brengen om dat werkend te krijgen, en om vervolgens economisch te kunnen produceren.

Misschien in 2123 zitten we wel te werken op een pc met een klein stukje radioactief materiaal om gammastraling op te wekken, die vervolgens door een chip wordt gejaagd. Het feit dat we nu nog niet weten hoe we dat moeten doen, betekent niet dat we het niet kunnen leren.
Rontgen en Xray? Ik weet niet of dat dat wel erg gezond is als je bijvoorbeeld 5 uur op een dag gamed met die straling langs je. Tenzij het in die quantiteit niet gevaarlijk is?
Alleen is de aanduiding 3nm een proces/marketing aanduiding en geen beschrijving van de breedte van onderdelen
Het probleem met TSMC 3 is dat de cache bijna niet kleiner wordt met dit procedé en er worden nu juist steeds grotere caches toegevoegd aan CPU's en GPU's. Het lijkt dan ook vrijwel noodzakelijk om over te stappen op chiplets, waarbij alleen het logica-gedeelte met TSMC 3 wordt gemaakt en de cache en IO op TSMC 6. Een alternatief is het gebruik van een 3D-cache, wederom op een grover productieproces.

Overigens wordt deze variant van N3 (N3B) vermoedelijk slechts zeer beperkt ingezet. TSMC gaat ook komen met een versimpelde versie (N3E) die een stuk goedkoper is. Vermoedelijk is dit het procedé die AMD, Nvidia, Broadcom en andere grote partijen gaan gebruiken.

[Reactie gewijzigd door Ludewig op 23 juli 2024 13:53]

Daarnaast stijgen de prestaties van je cache amper door het procede te krimpen.

Daarom zie je dus inderdaad dat AMD zo hard inzet op modulaire chips, je zal zien dat L3 op termijn losgekoppeld wordt van de rest van de ALU.

L2 denk ik niet, omdat de latency wel stijgt door de cache van de chip te scheiden met een interconnect.

[Reactie gewijzigd door kiang op 23 juli 2024 13:53]

Dat die prestaties niet mee schalen lijkt voornamelijk te komen door het door Ludewig genoemde issue dat SRAM cellen steeds slechter mee schalen bij verkleinde procede's, terwijl de caches steeds groter worden. Hoe groter de cache (fysiek), hoe groter de latency. En je wil juist bij cache, ook bij L3, een zo laag mogelijke latency. Je wil dus voor de beste prestaties zo veel mogelijk cache in een zo klein mogelijk oppervlakte aan fysieke chip stoppen.

Hoe goed een losgekoppelde cache voor CPU's zal gaan werken, zal dus afhangen van in welke mate de fabrikant kan voorkomen dat de latency toeneemt, want als de latency te veel toeneemt door offchip te gaat, kan dat ook nadeling zijn voor de prestaties, al dan niet in bepaalde workloads of in het geheel. Waarbij je dus eigenlijk wil dat die cache chiplets qua fysieke grootte zo klein mogelijk zijn, voor zover ik het begrijp van o.a. Angstromm, semi analysis en semi wiki.

Ik zie het naar chiplets gaan voor bijvoorbeeld L3 cache (als ze dat volledig gaan doen) dan ook eerder als ordinaire kosten besparing (die cache chiplets zijn immers goedkoper op een verouderd procede), dan het voor ons consumenten direct performance voordelen op zal gaan leveren t.o.v. on die L3 cache of 3D stacked cache al dan niet in combinatie met on die L3, zoals bijvoorbeeld bij mijn 5800X3D.

[Reactie gewijzigd door Dennism op 23 juli 2024 13:53]

Ik zie het naar chiplets gaan voor bijvoorbeeld L3 cache (als ze dat volledig gaan doen) dan ook eerder als ordinaire kosten besparing (die cache chiplets zijn immers goedkoper op een verouderd procede), dan het voor ons consumenten direct performance voordelen op zal gaan leveren t.o.v. on die L3 cache
Ik vind dat te kort door de bocht: met zo een cynische blik zijn de AMD chiplets voor cpus ook "een ordinaire kostenbesparing": tenslotte zou een monolitische die waarbij alle cores op 1 chip zitten sneller zijn, en zou een IO die op een kleiner procede ook ietsje zuiniger zijn.

Echter hebben die chiplets van AMD er wel voor gezorgd dat de concurrentie in CPU land weer helemaal terug is, en we op enkele jaren van 4 naar 16 cores zijn gegaan in consumenten CPUs, na jarenlange stagnatie.

Kostenbesparingen zijn, indien er concurrentie is, echt wel goed voor de consument.
Ik sta toch altijd weer versteld dat TSMC zijn agressieve tijdlijn aan kan houden. Je kunt altijd iets plannen maar ze maken het bij TSMC ook waar. Het lijken het zonder al te grote moeite uit te voeren waardoor het bijna vanzelfsprekend is dat ze dit doen. Intel liep met zijn strategie toch uiteindelijk tegen onontkoombare problemen op. Ben benieuwd hoe geschiedenis hier naar gaat kijken, TSMC zet hier toch flinke stappen naar te toekomst.
Het is wel de vraag of ze hun agressieve tijdlijn wel gehaald hebben, analisten hadden eigenlijk, toen TSMC H2 2022 aangaf voor volume productie early H2 2022 verwacht, zodat begin 2023 de eerste producten in volume op de markt zouden gaan komen, dit lijkt niet gehaald te worden. Daarnaast gaan de geruchten dat het helemaal niet zo vanzelfsprekend lijkt te gaan en dat er zelfs klanten zijn afgehaakt.

Verder is een stap als deze, waar je nog net op de valreep claimt te beginnen vaak een noodgreep om net even te voldoen aan public facing statements waar anders aandeelhouders over kunnen gaan klagen als je het niet haalt. Ik zou dus niet direct herleiden uit een datum van 29 december dat alles 100% koek en ei is, terwijl dat mogelijk er juist op duidt dat ze alle zeilen bij hebben moeten zetten om de deadlline van H2 2022 überhaupt te halen. Intel heeft bijvoorbeeld ook wel eens zulke trucjes uitgehaald voor 'volume 10nm' te shippen in de vorm van 1 of 2 Sku's in China. Dat is dan technisch gezien correct, maar praktisch gezien niet wat de aandeelhouders hadden willen zien.

[Reactie gewijzigd door Dennism op 23 juli 2024 13:53]

Kan zijn, maar ze liggen momenteel behoorlijk voor op de concurrentie lijkt het. Voor de aandeelhouder lijkt het me goed nieuws. Of het voor de klanten ook geld weet ik niet, ik weet niet of die een bepaalde tijd in hun contract hebben staan.
Jammer dat de consument er niks aan heeft. Je kan er geen computer van maken, alleen een kant- en klaar systeem om appjes mee uit te voeren.
En de consument zet enkel computers in elkaar?
Helaas niet van TSMC-hardware...
Alsof een computer die je zelf in elkaar zet zoveel 'echter' is: je klikt een paar standaard onderdelen in elkaar en het draait. Met op de achtergrond de Intel Management backdoor waar je geen invloed op hebt en op de voorgrond Windows die met TPM-gebaseerde DRM bepaalt dat je van bepaalde videostreams toch zeker geen screenshots mag maken.
Alle PC onderdelen zijn kant en klare componenten die specifieke 'appjes' uitvoeren.
Als je doelt dat 3nm alleen gebruikt wordt door Apple, dan is dat niet correct. Apple investeert graag in de laatste techniek van TSMC waardoor ze ook als eerste hier gebruik van kunnen maken. Maar zowel AMD als nVidia zullen hier waarschijnlijk gebruik van maken. En er draaien toch heel wat consumenten pc's op die hardware.
Mobieltjes zijn een grote drijfveer achter het kleiner maken van chips, iets waar de pc-markt gratis op mee kan liften. Dus je mag best anti-Apple zijn, maar wees er ook bewust van dat ze een groot deel van deze innovatie bij TSMC subsidiëren. Je kunt TSMC altijd vergelijken met hun directe concurrent Intel en Samsung, die doen het zeker niet slecht, maar de koploper kan voor de laatste techniek de premium prijs vragen. Zo kan AMD goedkoper op 5nm laten produceren terwijl Apple de laatste 3nm lijnen bezet.
Waar ik eigenlijk op doelde is dat de naam TSMC op het niveau van de eindgebruiker/consument niet relevant is omdat iedereen ongeacht de achterliggende computer-hardware tegen hetzelfde aan kijkt.
Als iedereen dezelfde netflix serie kijkt of op tweakers hangt merk je het verschil niet echt. Een gebruiker zal mogelijk wel merken dat zijn nieuwe laptop nu langer op zijn accu mee gaat dan een ouder model. Hoewel ze laptops dunner gemaakt hebben en telefoons groter, dus het voordeel van TSMC’s goedkoper en zuiniger chips zie je niet altijd ook op die manier terug.
Ik beweer ook niet dat ze ondermaats presteren of zo. Geen idee... Alleen, het bedrijf als consument zijnde prijzen heeft geen basis. Ze houden computerhardware en de controle erover juist weg van de consument omdat het zich anders moet waarmaken zonder verplicht platform dat bepaalt wat er allemaal kan en mag.
Daar heb je helemaal gelijk in, de consument kent TSMC waarschijnlijk niet. TSMC heeft geen eigen hardware platform zoals Intel en Samsung.

Het is wel zo dat Intel en Samsung nu ook chips voor anderen gaan produceren, net als TSMC. De kracht van TSMC lag hem juist in het productie proces beheersen, waar Intel en Samsung hun product konden aanpassen aan het proces moest TSMC allemaal varianten werkend krijgen. De gemiddelde consument zal niet weten dat TSMC bestaat, of mogelijk zelfs Intel (Samsung staat nog op je telefoon of tablet gedrukt). En dat hoeft ook niet. Maar toen Apple zijn chip bij Samsung en TSMC liet produceren zag je toch gebruikers op zoek gaan naar de TSMC variant. Een consument mag dus geen weet hebben van de maker van de chips in zijn gadget, maar als een product beter is (kleiner, goedkoper, zuiniger, sneller) dan zal hij waarschijnlijk daar voor kiezen.
Waarschijnlijk ook de reden waarom we zoveel over Taiwan in het nieuws horen, aangezien de wereld door TSMC erg afhankelijk van dit land is geworden.
Ik moet nog zien wat er gebeurt. De hele smartphone-markt kan omvallen als een internationale partij 2 bepaalde besturingssystemen aan de kant gaat zetten en daar niet wereldwijd voor wordt geboycot. Dan kan ineens verbazingwekkend veel op hardware van 5 jaar terug.
Ach ja de nm-race is er ook een om met een korreltje zout te nemen. Producenten gebruiken voor hun de meest voordelige methode.
De Macbook 14 en 16, de Mac Studio en Mac Mini zouden daarnaast een M3 Pro-soc krijgen die op dat procedé is gemaakt.
Dit moet de M2 Pro zijn, met levering vanaf Q1 2023.
Ik denk dat er 29 december in het artikel moeten staan :D
TSMC is scheduled to hold a ceremony at Fab 18 at the Southern Taiwan Science Park (STSP) on December 29 to mark the start of commercial production of chips using 3nm process technology. The pure-play foundry will also detail plans to expand 3nm chip...

[Reactie gewijzigd door cold op 23 juli 2024 13:53]

Ik hoop dat bedrijven zoals nvidia wat meer op efficientie gaan focussen.
De GTX 780 en de GTX 980 bijvoorbeeld waren allebei gebakken op 28nm maar de 980 was toch efficienter.
Het betekent wel dat de efficiency gains steeds moeilijker te behalen zijn.
Misschien dat daarom de RTX 4000 kaarten allemaal stroomslurpers zijn.
Zag laatst bij hardwareinfo dat ze bezig zijn met een RTX 4000 titan met twee van die soms smeltende 12VHPWR-aansluitingen
Zorg er wel voor dat je efficiëntie niet verward met enkel het verbruik.
De 4090 is bijvoorbeeld een best efficiëntie kaart. Vergelijk hem maar eens met de RTX3090Ti. In veel gevallen +-50% sneller bij gelijk verbruik. Dat is gewoon een hele mooie verbetering in efficiëntie.

Verbruik alleen zegt niet zoveel, een kaart die 450W verbruikt tijdens het renderen en een render workload voltooid in 10 minuten is efficiënter dan een kaart die 300W verbruikt maar over dezelfde workload 20 minuten doet.
Ik hoop dat bedrijven zoals nvidia en TSMC wat meer op efficientie gaan focussen.
De GTX 780 en de GTX 980 bijvoorbeeld waren allebei gebakken op 28nm maar de 980 was toch efficienter.
Het betekent wel dat de efficiency gains steeds moeilijker te behalen zijn.
Misschien dat daarom de high end RTX 4000 kaarten allemaal stroomslurpers zijn.
Zag laatst bij hardwareinfo dat ze bezig zijn met een RTX 4000 titan met twee van die (soms) smeltende 12VHPWR-aansluitingen
https://nl.hardware.info/...wee-12vhpwr-aansluitingen

Op dit item kan niet meer gereageerd worden.