TSMC gaat Nvidia-gpu's en AI gebruiken voor sneller ontwerpen van fotomaskers

TSMC gaat Nvidia's cuLitho-platform gebruiken voor het ontwerpen van chips. Dit platform gebruikt Nvidia's gpu's, in plaats van de cpu's die nu worden gebruikt, en kunstmatige intelligentie. Nvidia zegt dat cuLitho sneller en efficiënter is dan bestaande technieken.

CuLitho is een computational lithography-platform dat wordt gebruikt bij het maken van de zogeheten fotomaskers, waarvan er meerdere gebruikt worden tijdens het chipproductieproces. De maskers vormen de patronen voor de belichtingsstappen in het chipproductieproces. De chipontwerpen worden met licht op de wafer afgebeeld. Die fotomaskers moeten 'vervormd' worden om optische problemen als diffractie te compenseren en dat simuleren vergt veel rekenwerk.

Nvidia claimt dat het cuLitho-platform die berekeningen efficiënter kan uitvoeren door gpu's te gebruiken, in plaats van de datacenter-cpu's die nu worden ingezet. Nvidia claimt dat 350 H100-systemen het werk kunnen overnemen van 40.000 cpu-systemen, al meldt Nvidia niet om wat voor cpu's dit precies gaat. Zo kunnen maskers dus sneller geproduceerd worden, óf energiezuiniger.

Daarnaast zegt Nvidia algoritmes te hebben gemaakt die gebruikmaken van generatieve AI voor gebruik met het cuLitho-platform. Dit algoritme zou het cuLitho-platform tot twee keer versnellen. Met die generatieve AI kunnen chipontwerpers ook 'bijna perfecte' inverse masks of inverse solutions gebruiken. Deze techniek wordt volgens Nvidia al twee decennia besproken onder wetenschappers, maar kon tot dusver niet in de praktijk gebruikt worden omdat er niet genoeg rekenkracht voor was. Met cuLitho zou dit volgens Nvidia wél kunnen, waardoor nieuwe fotomaskers nog sneller gemaakt kunnen worden. Naast TSMC en Nvidia hebben ook ASML en Synopsys meegewerkt aan de ontwikkeling van cuLitho.

Correctie, 15.17 uur - In de kop van dit artikel stond aanvankelijk vermeld dat cuLitho kan helpen om chips sneller te ontwerpen. Dat gaat echter specifiek om fotomaskers. Dit is aangepast.

Door Hayte Hugo

Redacteur

09-10-2024 • 14:03

28

Reacties (28)

28
28
14
1
0
8
Wijzig sortering
Ik begrijp ondertussen wat fotomaskers zijn in de chipproductieproces, maar is het niet zo dat TSMC maar 1 keer een fotomasker berekening hoeft te maken per chipontwerp en vervolgens daar op terug kan vallen? Ik vermoed dat het ingewikkelder is dan dat, maar kan zo snel niets vinden dat hier dieper op in gaat.
Je hebt helemaal gelijk, met de opmerking hieronder meegenomen. Het vervelende is dat zo'n masker optimaliseren heel erg veel rekenkracht kost. Een typisch masker is 130mm bij 110mm. Als we uitgaan van de beste productielithografiemachines van ASML, dan heb je ongeveer een pixelgrootte (in pixels denken is hier niet helemaal juist, maar is wel zeker illustratief voor deze vergelijking) van 10nm op waferniveau, ofwel 40nm x 40nm op reticleniveau. Dat betekent dat op één zo'n reticle ongeveer 10 terapixels staan.

Hoe je elke pixel wil optimaliseren hangt ook af van nabijgelegen pixels. Om dan nog even verder te gaan dan het pixelverhaal, je kan ook nog eens de grootte van de pixels aanpassen. Dit is een optimalisatieproces dat eigenlijk niet uitvoerbaar is, zeker voor EUV-lithografie waarbij je voor een exacte oplossing bij elke stap de vergelijkingen van Maxwell moet oplossen om uit te vinden hoe de elektromagnetische golven door het masker verstrooid worden.

Natuurlijk kan je hierbij allerlei aannames doen die het proces versimpelen, maar uiteindelijk is het wel een enorme berekening waarbij een verkeerde optimalisatie kan zorgen voor lagere yields of een lager contrast waardoor een hogere dosis nodig is tijdens de lithostap. Beide zorgen eigenlijk direct voor hogere kosten bij het proctieproces.
Een chip maak je in heel veel stapjes. Bij ieder cyclus in dit proces zit een lithografie stap waar je een ander 'reticle mask' gebruikt.
Voor iedere chip maak je dus berekeningen voor meerdere stappen. Ik neem aan dat ze die berekening dan inderdaad herbruikt wordt voor ieder duplicaat 'reticle'. Aangezien je meerdere productielijnen gebruikt heb je ook meerdere 'reticles'.
TSMC maak veel verschillende chips en dus ook veel van die 'reticles'. De kwaliteit van je chip gaat omhoog door betere 'reticles' te gebruiken. Je zou dus verwachten dat de kosten dalen door deze actie (ofwel de winst gaat omhoog).
Ergens (in mijn instagram feed) was een interview met het Nvidia opperhoofd en die zei dat een H100 ongeveer 40K kost. Dus 350x40K. Dat is weer een goede deal voor ze, alhoewel een kleinigheidje in de chip markt.

Wel grappig. Je hebt een GPU die maakt berekeningen voor het maken van chips, waarbij de GPU zichzelf dus nodig heeft ;-)
"We created the chips to create the chips"
net zoals je een compiler nodig hebt om een compiler te maken ;)
Nah, echte mannen prikken de gaten met de binaire code voor een C compiler direkt op een ponskaart.. compilers zijn voor quiche eaters!
Echte mannen, eigenlijk pubers, tikken de Assembly code van een tijdschrift direct in de commodore. En dan hopen dat je geen tikfout maakt en de code is weg als de stroom uitvalt!
Dit is de Singularity, maar dan de 'pre-versie'.
De Singularity komt er aan, hoe dan ook. Dan is het gedaan met de mensheid en misschien wel met de hele biosfeer op aarde.
Dit is toch helemaal niet nieuw?
Men maakt al jaren gebruik van de hogere rekenkracht van nieuwe chips om nog krachtigere chips te maken.
Of denk je dat de Zen5 met meer dan 8 miljard transistors door een mens in elkaar is gezet?
Het hele artikel gaat over het vervangen van de ene type chip voor een ander type chip. En nou is "de singularity" spontaan ineens los? En "ai" is hierin nieuw? Chips worden zover ik weet al heel erg lang dmv algoritmes en dus "ai" ontworpen. Dus, verklaar je nader waarom deze ene stap dan het einde van de wereld betekent.
Ach sommige denken dat ze hip zijn met dergelijke uitspraken. Weinig kennis en teveel op social media is meestal de oorzaak.
Wel grappig. Je hebt een GPU die maakt berekeningen voor het maken van chips, waarbij de GPU zichzelf dus nodig heeft ;-)
Was toch al zo, je hebt voor de huidige chips ook gewoon computers (en dus chips) nodig om te tekenen/uit te werken. Door de chips krachtiger te maken kan je volgende ontwerp weer complexer en nog krachtiger worden.

Zo werkt kennis bij mensen eigenlijk ook, we bouwen voort op andere mensen (hun kennis), en de generaties na ons doet dat weer op onze kennis.

[Reactie gewijzigd door watercoolertje op 9 oktober 2024 14:34]

Zo werkt kennis bij mensen eigenlijk ook, we bouwen voort op andere mensen (hun kennis), en de generaties na ons doet dat weer op onze kennis.
100% akkoord. Het verschil is dus dat als een mens dit leert dit geen probleem is, maar vanaf je een computer iets leert (aka een model trainen) is het plots not-done.

Opmerkelijke logica toch?
Maar goedkoper dan 20K servers met allen 2 CPU's.

Daarnaast gaan er 8 van deze GPU's in 1 server -> dus dat maakt 43.75 servers. Hoewel ze niet de zelfde formfactor zijn scheelt het een hoop ruimte in je datacenter.

Maar dit is allang geen nieuws meer. Alle bedrijven in de semiconductor industry gebruiken tools van Cadence, Synopsys en ANSYS voor het ontwerpen en simuleren van hun producten op 1000'en CPU cores tegelijkertijd.

GPU's spelen hier echter nog vrijwel geen rol.

Ik zou dit dus ook niet bestempelen als het "ontwerpen van chips", dat is immers al gebeurt wanneer TSMC aan de slag gaat.
Tijdens covid ondervond ASML last van de schaarste aan chips voor productie van chipmachine DUV/EUV.
Bedacht me dit ook al. De grondbeginselen van het voortplantingskenmerk van robots/A.I.

Morpheus:
"We marveled as we gave birth to A.I."

En uiteindelijk doen ze dat zelf.
Ik denk echt niet dat ze 40k betalen. Waarschijnlijk krijgen ze wel een redelijke korting bij zo’n grote aankoop.
Ja we laten Ai zijn eigen nieuwe hardware ontwerpen. Van een mooi eerste hoofdstuk in films en boeken naar de realiteit. 8-)
De chip is al ontworpen, er word een machine learning algoritme toegepast in het proces om het litografie proces voor die chip te ontwerpen. Naast vele andere algoritmes en ander werk.

Marketing maakt daar "AI" van want dat klinkt zo sci-fi en mensen krijgen er meteen bepaalde denkbeelden bij. Maar AI zoals in de boeken bestaat feitelijk (nog) niet.
Nvidia + TSMC = Skynet :o
Nope. Je mist een essentiële stap. Om Skynet te creëren heb je wel robots nodig die door de AI aangestuurd worden die geavanceerd genoeg zijn om alle onderhoudstaken van mensen over te nemen. In de Terminator films wordt die stap nogal onderbelicht. Immers na het lanceren van alle kernraketten is het stroomnet wel compleet doorgebrand.

Anders krijg de AI het probleem dat de AI de mensheid uitroeit maar daarna zelfs meer en meer met power failures te maken krijgt. Tot het punt dat er geen stroom meer is en de AI zelf uitsterft.
Terminator X - the birth of SkyNet
"accelerating production time, while reducing costs, space and power" is vertaald naar "Zo kunnen maskers dus sneller geproduceerd worden, óf energiezuiniger.". Dat lijkt me niet te kloppen. Ik kan me voorstellen dat snelheid een tegenhanger is van kosten en ruimte. Maar het proces zal een bepaald aantal CPU of CPU instructies kosten. Als de GPU efficiënter is dan is het proces per definitie energiezuiniger. Dus die "óf" klopt niet.
Dit soort zaken klinken dus allemaal zo complex dat ik mezelf als een onwetende debiel voel.

Soms bizar om je te realiseren hoe ver sommige technologie al is...

Op dit item kan niet meer gereageerd worden.