Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Cerebras maakt Wafer Scale-chip met 2,6 biljoen transistors en 850.000 ai-cores

Cerebras werkt aan zijn tweede Wafer Scale Engine, een chip die zo groot is dat een volledige 7nm-wafer van TSMC in beslag wordt genomen. De nieuwe chip krijgt 2,6 biljoen transistors en 850.000 cores voor berekeningen voor kunstmatige intelligentie.

Cerebras gaf de eerste details over zijn tweede generatie Wafer Scale Engine tijdens Hot Chips 2020, schrijft AnandTech. Het bedrijf was van plan om de chip in detail te presenteren, maar heeft dat uitgesteld naar later dit jaar. Inhoudelijke details zijn verder niet bekend.

De enorme chip is de opvolger van de Wafer Scale Engine die de Amerikaanse chipmaker Cerebras vorig jaar op Hot Chips onthulde. Die chip werd nog op een 16nm-procedé van TSMC gemaakt en bevatte 1,2 biljoen transistors en 400.000 cores.

Die eerste chip had afmetingen van 21,5x21,5cm. Dat is de maximale grootte die uit een 300mm-wafer gehaald kan worden. De nieuwe chip heeft vermoedelijk ongeveer dezelfde afmetingen, omdat TSMC ook zijn 7nm-chips op 300mm-wafers maakt. Door het kleinere procedé passen er echter veel meer transistors op hetzelfde oppervlak, en dus meer cores.

Bij de eerste Wafer Scale Engine voorzag Cerebras iedere core van 48 kilobyte sram, goed voor in totaal 18GB aan sram. De chip heeft vrij eenvoudige cores, die gemaakt zijn voor berekeningen voor kunstmatige intelligentie. Cerebras maakt zelf een 254kg wegende computer waar de enorme chip in zit.

Chip Cerebras Wafer Scale Engine (2e gen.) Cerebras Wafer Scale Engine
Procedé 7nm, TSMC 16nm, TSMC
Formaat Hele wafer (300mm)
Chipafmetingen nog niet bekend
Hele wafer (300mm)
21,5x21,5cm (462,3cm²)
Transistors 2,6 biljoen 1,2 biljoen
Aantal cores 850.000 400.000
Sram Nog niet bekend 48KB per core, 18GB totaal

Door Julian Huijbregts

Nieuwsredacteur

18-08-2020 • 17:37

34 Linkedin

Reacties (34)

Wijzig sortering
Waarom kan er alleen een vierkante chip uit een ronde wafer gehaald worden? Je zou kunnen denken aan een bijna ronde chip met gekartelde randjes (alsof de AA uit staat) voor nog een flinke hoeveelheid meer cores...
Omdat een Si wafer alleen in rechte lijnen breekt langs een kristalvlak. Super handig als je alles op een perfect dambord raster hebt, een drama als je trapjes wil maken.

Edit: je kan zo'n breuk ook niet halverwege stoppen, je breekt altijd de hele wafer door.

[Reactie gewijzigd door KingFrogzz op 18 augustus 2020 18:08]

Ja maar als je de wafer gewoon vol produceert hoef je niet te breken dus kan je gewoon een ronde chip maken , Toch ??

Het is maar 1 chips dus breken heeft geen nut.
Je zag het verschil tussen Intel en AMD. Het is makkelijker om meerdere modules aan elkaar te plakken dan één grote chip te maken. Een grote chip moet namelijk met één procedé (7nm) gemaakt worden en als er iets fout gaat is die chip minder/niks waard.
Volgens mij liepen de kosten per 7nm wafer bij TSMC op tot ongeveer 16000 euro*, dus dan heb je een gigantische chip die minstens 30cmx30cm groot is en veel meer dan 16000 euro gaat kosten.
Kon originele link niet vinden van kosten, maar deze komt in de buurt: https://wccftech.com/apple-5nm-3nm-cost-transistors/
Aanvulling:
Ik verwacht dat ze geen ronde chip maken omdat het makkelijk is om een vierkante chip te verwerken dan een ronde. Maar het zou eigenlijk wel logisch zijn dat als je toch een hele wafer gebruikt je dan ook alles gebruikt. Dus ik verwacht dat ze niet anders kunnen.

[Reactie gewijzigd door tedades op 18 augustus 2020 20:16]

Fouten zullen gewoon per core lopen net als normale cpu cores, tripple core is een quad met 1 kapotte core.
succes met het stiche van de fields, want max field size dit is wat maximal in een keer geexposed kan worden is 26x33mm
Vraag me inderdaad af hoe dat stitchen gaat. Kan dat uberhaupt? Of scannen ze altijd maar een enkele baan?
Wat natuurlijk wel kan is banen naast elkaar op 7nm, en dan interconnect ertussen op een wat 'grovere' pitch.
Moet je dezelfde wafer eigenlijk 'afmaken' op dezelfde scanner, of zijn ze goed genoeg dat je de eerste belichting op scanner 1 doet en de tweede belichting op scanner 2?
stiche doen ze continu met displays. maar daar zijn de overlay specs niet zo een probleem omdat de feature size heel groot is
Voor Chips moet je zo een goede overlay hebben om geen gaps te krijgen dat dit echt niet makkelijk is,
Als je namelijk op een wafer gaat kijken zul je zien dat bv niet alle fields de zelfde rotatie hebben
Hoe wafers worden gemaakt kan je onmogelijk op een vierkant uitkomen.

https://www.youtube.com/watch?v=aWVywhzuHnQ
Tuurlijk kan je met wat zagen op een vierkante chip uitkomen. Maar efficient is denk ik anders, je hebt immers snijverlies. Qua productietijd maakt het niet veel uit of je nou een enkele core of de hele wafer vol produceert, de doorlooptijden zijn (minimaal) korter. Maar toch was de eerste full-wafer-chip van hun een vierkant, zie linkje in het artikel.

[Reactie gewijzigd door DropjesLover op 18 augustus 2020 18:06]

Omdat een CPU cooler vinden anders een crue wordt :+

</attempt at funny>

Zal misschien een beperking zijn in lithografie voor het etsen, staat me iets van bij dat yields naar de buiten kant van de wafer slechter worden omdat ze met een crystal dezelfde etsing allemaal in 1 keer doen, maar gezien hoe dit monster moet werken, vraag ik me af... misschien hebben ze wel exact hetzelfde probleem, normaal knip je de chips los na etsen. Hier houden ze de computing units als 1 grote die.

Of meer practisch, dat je er dan rechthoekige server kasten of insteek kaarten van kunt maken waarvan x % van je kast of insteek kaart opvulling is.

[Reactie gewijzigd door NEO256 op 18 augustus 2020 17:59]

Dan zou je nog steeds problemen hebben bij de cores op de hoeken van het vierkant.
Waarom wordt er miljard en biljoen door elkaar gebruikt? Tamelijk verwarrend.
omdat "a billion" in het engels vertaald naar "een miljard" en wat er in de tabel staat verkeerd vertaald is.

edit-

Origineel in het artikel staat dus: "1.2 trillion transistors"
wat dus vertaald naar 1.2 biljoen in het nederlands, deze lijkt vervolgens "weer" vertaalt te zijn van biljoen naar miljard,

Dus het woord "Miljard" hoort niet in dit artikel thuis.

[Reactie gewijzigd door Themperror op 18 augustus 2020 18:13]

Het heeft niets met vertalen te maken. Engelstaligen maken gebruik van een korte schaal en "wij" van een lange. Dat leidt steeds weer tot begripsverwarring en vertaalfouten.
Lees dit en je snapt het...
https://nl.wikipedia.org/wiki/Korte_en_lange_schaal
16nm -> 1.2B
7nm -> 2.6B

assumptie dezelfde chip oppervlakte (21.5cm x 21.5cm -> enorm!!).

die scaling lijkt me vrij slecht (ik verwacht (16*16)/(7*7) = 5x meer). Oftwel is er heel veel geheugen bij gekomen...
Ik verwacht dat er ook veel meer traces bijkomen om dat dubbele aantal cores van stroom en data te voorzien.
Die nemen ook oppervlakte in zonder echt in de transistor count te verschijnen.

Daarnaast gaat de 16nm vs 7nm puur alleen om het formaat van een transistor gate. Die eerder genoemde traces kunnen bijvoorbeeld niet echt verkleind worden omdat je dan teveel weerstand krijgt in de power rails, en zo zullen er nog meer dingen zijn die niet 1op1 mee kunnen schalen.
16nm is geen 16nm en 7nm is geen 7nm. Intel 10nm zou min of meer opgaan met TSMC 7nm. En dan hangt het nog af van welke versie van dat proces.
Je kan zo simpelweg niet meer rekenen. Ooit was dat nog daadwerkelijk gebonden aan een te meten dimensie en ergens zijn de maten eerder marketing geworden.
Hopelijk zijn de yields goed... :+
Foto zonder text erop hier.
Zou wel vet zijn als sony een server creëert met deze chip erin om gamers een goede cpu tegenstander te geven op de PlayStation als je online verbonden ben. :)
Dit is echt een zeer krachtige chip. Cerebras is goed bezig!

[Reactie gewijzigd door koningcool op 18 augustus 2020 18:43]

Een dergelijke chip zal op een hele andere manier ontworpen zijn dan de 'gebruikelijke' x86 'chips' die wij als CPU's in onze pc's hebben. Deze twee met elkaar vergelijken heeft helemaal geen zin :)
Eigenlijk is het geen chip meer.
Een slice of wafer
Ik denk dat je niet toe kan met je 4094 Pins van je Threadripper socket :+
Haha dat denk ik ook! Toch zou het wel vet zijn als je zo'n chip in je pc kan stoppen. Ook al gaat dat waarschijnlijk nooit lukken...

[Reactie gewijzigd door koningcool op 18 augustus 2020 18:18]

Goed voor de patsfactor, maar dit is een chip die een soort ding heel heel heel goed kan (AI) en al het andere überhaupt niet of veel slechter dan een gewone x86 cpu van een paar honderd euro.

Hier heb je thuis niets aan tenzij je toevallig een AI wetenschapper bent met een hele goede inboedelverzekering.
En een hele fatsoenlijke aansluiting :+ de voorganger van dit schatje, met minder dan de helft van het aantal transistors, verbruikte een fijne 20KW. Kan je wel gelijk de hele buurt verwarmen.
Denk eerder dat dit echt bagger zou zijn in 99% van de games.

Die zijn niet geprogrammeerd om met 850,000 cores op te schalen, maar max op 2 t/m ongeveer 12. Daarnaast zijn deze cores per stuk ook vele malen zwakker dan een traditionele core van AMD of Intel.

Ook heb je met zo'n grote chip echt last van de latency van het geheugen (hoe lang de processor moet wachten voordat data uit een stuk geheugen aankomt), iets wat verschrikkelijk is voor games gezien die constant nieuwe dingen in moeten laden.
Vandaar ook de SRAM per core. Die met DMA worden gevuld waarschijnlijk.
Over dat geheugen weet ik het niet, dit monster heeft meer sram dan de gemm pc aan dram heeft.

Ik denk dat deze chip het midden is tussen een gpu en een cpu.
The WSE has 18 GB of on-chip memory, all accessible within a single clock cycle, and provides 9 PB/s memory bandwidth.
Oké, en dat is nog eens het vorige model. Ja, wat dat betreft zal geheugen toch geen bottleneck zijn :P
Mooi om te zien dat ze dit doorontwikkelen.

Ik denk echter dat ook dit design uiteindelijk de race niet gaat winnen.
Hoewel deze oplossing ontzettend veel rekenkracht biedt, op deze schaal blijft het een zelfde idee achter de opbouw van een "AI" oplossing.
Zet dit in het rijtje met processors met GPU`s.

Ik werk zelf met dit soort oplossingen en zie vrij recent een ontwikkeling die vele malen intressanter is.

https://cacm.acm.org/maga...chips-take-shape/fulltext

In mijn ogen is het ook een van de weinige oplossingen die uiteindelijk true AI capable gaat zijn.
De standaard proc+GPU en wafer scale oplossingen zijn de huidige vorm van "AI" ofwel machine en deep learning, echter de chips waar ik over spreek simuleren daadwerkelijk de neuronen van een brein.

Dit brengt me bij mijn volgende punt.

Iederen op dit ogenblik wil maar direct een volwassen brein simuleren, waarom?
Ik denk dat het hier zit waarom het fout gaat met veel AI achtige oplossingen waardoor rare resultaten ontstaan.
Dit zal ook te maken hebben met onze perceptie van "AI" maar ik zelf denk ook de aanpak.

De neuromorpische chips bieden de mogelijkheid om met een gelimteerd aantal neuronen te beginnen, een kind dat net geboren is bechikt immers ook niet over de volledige hersencapaciteit.
De hersencapaciteit van een kind breid zich gaandeweg over een x aantal jaren uit.
Dat uitbreiden is dan ook perfect mogelijk met deze neuromorphische of neuroynaptische chips.

Op dit item kan niet meer gereageerd worden.


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True