Cerebras toont chip met 1,2 biljoen transistors en 400.000 cores

Het Amerikaanse bedrijf Cerebras heeft zijn Wafer Scale Engine onthuld: een chip met een oppervlakte van 46.225mm² die is opgebouwd uit 1,2 biljoen transistors. De omvangrijke chip is bedoeld voor berekeningen voor kunstmatige intelligentie.

De Wafer Scale Engine, zo genoemd omdat hij praktisch een hele wafer in beslag neemt, meet 21,5x21,5 centimeter. Cerebras Systems zet de chip met zijn oppervlakte en 1,2 biljoen transistors tegenover de Volta V100 van Nvidia, die 21,1 miljard transistors met een oppervlakte van 815mm² combineert. TSMC fabriceert de Cerebras-chip op 16nm.

De vierhonderdduizend cores van de chip zijn geplaatst in een meshnetwerk met gedistribueerd 18GB sram. De chip heeft verder geen cache en volgens de fabrikant is dit een van de voordelen tegenover het gebruik van gpu's voor ai-berekeningen. "Deeplearningberekeningen vereisen rekenkracht met veelvuldige toegang tot data. Hierbij is het noodzakelijk dat rekenkernen en geheugen dicht bij elkaar staan. Dat is niet het geval bij gpu's waar het grootste deel van het geheugen langzaam is en op grote afstand."

De geheugenbandbreedte van de Wafer Scale Engine is dankzij zijn architectuur 9 petabytes per seconde en gecombineerd is de bandbreedte 100 petabits per seconde. Volgens de makers zijn de zogenoemde Sparse Linear Algebra Cores van de chip speciaal ontworpen voor ai-berekeningen en hebben de programmeerbare cores geen overbodige onderdelen om de overhead te minimaliseren.

Op de chip zijn 84 'tegels' in een raster van 7 bij 12 geplaatst. Elke tegel bevat 4800 cores met elk 48 kilobyte sram. De compiler van Cerebras zet TensorFlow- en Pytorch-modellen voor deeplearningberekeningen om in machinetaal, zodat de engine deze kan verwerken, en libraries met microcode verdelen de rekentaken verder over het netwerk, schrijft EETimes.

Volgens Cerebras treden er bij produceren van een chip van deze omvang onherroepelijk defecten op maar het bedrijf trad bij de presentatie op de Hot Chips-conferentie niet in detail over de yields, oftewel de opbrengst. AnandTech was bij de presentatie. Wel zei het bedrijf dat de werking van niet-functionele cores opgevangen kan worden door omliggende rekenkernen. Omdat zoveel cores op een oppervlak geplaatst zijn is traditionele luchtkoeling ontoereikend en is waterkoeling vereist volgens de maker. Veel details over de chip, zoals kloksnelheden en prijs, zijn verder nog onbekend.

Cerebras  Wafer Scale Engine,

Door Olaf van Miltenburg

Nieuwscoördinator

20-08-2019 • 15:45

111

Reacties (111)

Sorteer op:

Weergave:

Een absoluut bizarre chip hebben ze geproduceerd, mijn eerste reactie was ongeloof, totdat er meer details kwamen van de HotChips presentatie en foto's. Mijn eerste intuitie was dat ze een groot samengesteld chiplet design hadden gemaakt, maar dat is niet het geval, ze hebben het op een veel mooiere manier geflikt. De manier waarop ze deze chip hebben gemaakt is behoorlijk slim; de individuele tiles zijn "normale" ontwerpen van ongeveer 550mm2. Maar in plaats van de chips los te snijden, is er met TSMC samengewerkt om de (snij)ruimte tussen de chips te gebruiken om communicatie links aan te brengen tussen de chip-tiles, zodat ze allemaal een gigantisch mesh netwerk maken.

Op 16nm TSMC schijnen ze gemiddeld maar ongeveer 100 defecten te hebben binnen dit oppervlak.
Binnen een chip-tile hebben ze enkele redundante rijen en kunnen ze de routering aanpassen zodat de software altijd een compleet mesh zal zien en er transparant om defecte delen heen gewerkt wordt.

Voor koeling en stroomtoevoer hadden ze ook nogal wat uitdagingen. De chips zitten ondersteboven gemonteerd en aan de achterkant van de wafer-plaat waar ze op zitten wordt een "cold plate" geplaatst met een enorme hoeveelheid waterkoeling er doorheen. Aan de andere kant zit er een 3D PCB met voedins lijnen, en speciaal materiaal om de verschillen in uitzetting tussen het silicium en PCB op te vangen.

Qua architectuur is het natuurlijk heel erg toegespits op machine learning. Hele kleine cores met een lokaal geheugen die met een hele boel andere cores kunnen communicaren. Ideaal om de gewichten van je neurale netwerk in op te slaan bijvoorbeeld. Het geheel deed me een beetje denken aan de Transputer, een project uit de jaren '80 vorige eeuw wat ook draaide om simpele cores met lokaal geheugen en een bijna oneindig uitbreidbaar netwerk.

Wat een bizar, maar tof, ding :)
De grens is nog niet bereikt. Wafers zijn normaal gesproken rond. Er is aan de afgesneden kanten nog meer dan voldoende oppervlakte over om er nog een paar van deze tiles bij te klussen. Als ze toch van die speciale ontwerpen maken, dan is er niets wat ze tegenhoudt om de volledige wafer in te zetten.

Overigens was de eerste naam die bij me opkwam 'Parsytec'. Ooit bij SARA stond er zo'n vector computer gebaseerd op T414 chips

[Reactie gewijzigd door scsirob op 23 juli 2024 11:45]

Hopelijk zijn ze fault-tolerant voor één of twee cores die kapot zijn. Want hoe groter de wafer, hoe groter de kans dat er een foutje op zit. Zonde als je bij één fout de hele water moet weggooien.
7*12*4800 = 403 200 cores.
Geadverteerd: 400 000 cores

Als ze onafhankelijk aan / uitgezet kunnen worden, kan dus 0,8% defect zijn.

TSMC 16nm FinFET is een erg volwassen proces, dus dat zou moeten lukken.
Alles is redundant, zowel de cores als interconnects als memory. Precies omdat op deze grootte de yields nooit perfect zullen zijn.
Wel zei het bedrijf dat de werking van niet-functionele cores opgevangen kan worden door omliggende rekenkernen
Staat letterlijk in het artikel.
Letterlijk uit het artikel;

Volgens Cerebras treden er bij produceren van een chip van deze omvang onherroepelijk defecten op maar het bedrijf trad bij de presentatie op de Hot Chips-conferentie niet in detail over de yields, oftewel de opbrengst. AnandTech was bij de presentatie. Wel zei het bedrijf dat de werking van niet-functionele cores opgevangen kan worden door omliggende rekenkernen.
Dat is idd ingebouwd door overtollige cores to bakken en de link om de kapotte cores heen te rewire'en.

https://images.anandtech....8/IMG_20190819_180816.jpg

[Reactie gewijzigd door bladerash op 23 juli 2024 11:45]

hopelijk wel want anders is dit echt financieel catastrofaal voor de kostprijs.

stel je voor dat je dergelijke wafers voor voor 400k produceerd (dus 1 euro per core),
en stel dat de kans dat je een volledig perfecte yield hebt is 10% dan zou je dus geen 400k maar 4m betalen voor zo'n schatje,

als dan de kans 90% is dat je minder dan 10% aan cores kwijt bent. en je die niet-perfecte tegen 25% lagere kosten verkoopt

dan is de rekensom ineens heel anders:

10% = 400k = 04000
80% = 300k = 24000
10% = 0k = 00000

je opbrengst is dan 28000 ipv 4000 = x7 zo hoog, ergo, je verkoopprijs kan x7 omlaag

[Reactie gewijzigd door i-chat op 23 juli 2024 11:45]

Blijkbaar zijn er gemiddeld 20 fouten per water. Dan is de kans op 0 fouten exp(-20), ongeveer 2 op een miljard. Dat zijn heel veel onbruikbare wafers :D

Dit is dus een redundant ontwerp.
Heel benieuwd naar hoeveel stroom deze chip gebruikt
Quote van een artikel van Wccftech: "All the cores are optimized for AI workloads and the chip consumes a whooping 15 KW of power." Ofterwels best wel wat ;).

Source: https://wccftech.com/meet...e-size-of-an-nvidia-v100/
Je weet precies wanneer de server volledig belast wordt, de verlichting in de rest van het pand brandt dan zwakker. :+
Dat wordt een groep of 4 aan elkaar. Pakt kroonstenen en trekt de meterkast open...
15KW trekt 65 ampère. Hmmm... Misschien toch beter even een gecertificeerde monteur erbij roepen in plaats van zelf met kroonsteentjes aan de gang te gaan. :P

En dit verklaart ook gelijk waarom je het niet gaat redden met alleen wat luchtkoeling.
Dat samenvoegen is puur om te voorkomen dat mijn plastic aardlekschakelaars vast smelten. De maximale doorvoer had ik al aangepast met paperclips maar de behuizing kan daar niet zo goed tegen. Mijn limiet is hetzelfde als die van de buurt-trafo minus wat de omwonenden nog gebruiken :+

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Oh op die manier. Ja voordat mijn oude huis tot op de grond toe afbrandde, stopte ik, bij gebrek aan zekeringen, ook de behuizingen in de meterkast vol met zilverpapier, maar toen glashelder bleek dat Interpolis mijn schade niet dekte, ben ik daarmee opgehouden.
Indrukwekkend, ik ben heel nieuwsgierig naar de voeding die 15000 ampere moet leveren bij 1 volt.
Het zouden meerdere voedingen kunnen zijn naast elkaar, een gewone Intel chip heeft al honderden pinnen voor power delivery, dit zal er per clustertje honderden hebben en dan dat keer 7x12
Zal dan toch al snel een rack vol worden met VRM's, mosfets, inductoren en condensatoren om dat netjes van power te voorzien. Daarnaast moet je het er allemaal ook nog naartoe brengen. Ik zou het gebruiksklare product wel eens willen aanschouwen. Ik denk dat het meerdere racks worden en uiteindelijk hetzelfde aan footprint gaat krijgen als een normaal cluster, alleen dan met het zeer grote voordeel van het enorm snelle geheugen en de gigantische beschikbaarheid van resources. Plus dat het hele systeem waarschijnlijk toch stukken minder energie zal verbruiken in vergelijking met een cluster hoe we dat normaal gewend zijn, zeker omdat het hier wat koeling betreft zeer gecentraliseerd gerealiseerd kan worden. In een cluster met zegmaar 40 cores per node heb je al 10.000 plaatsen waar gekoeld moet worden met dezelfde core count. Hier is het een centrale plek, wat het plaatselijk wat ingewikkelder maakt, maar over het geheel wel een stuk simpeler.
Wat betreft efficientie is een megachip van stroom voorzien ook beter dan 10.000 stuks los, plus benodigde componenten eromheen. Dit zit op 1 systeem in plaats van 10.000 individuele nodes met elk een mobo, geheugen, io, etc.
Als ik het vergelijk met ABCI, vanwege de corecount die bij beide hetzelfde is maar natuurlijk nog steeds een appels-peren vergelijking blijft, zie je dat ABCI 2.3MW nodig heeft. Dan is die 15 KW voor 400.000 cores dus peanuts. Doe het maal 3 voor koeling, efficientieverliezen en overige zaken en je komt op 45KWh, nog geen 2% van die 2.3MW benodigd voor ABCI. Dit kan dus een enorme technologische sprong betekenen wanneer alle voordelen worden opgeteld, ondanks dat er verder nog geen getallen zijn gegeven wat betreft coresnelheden, IPC, etc...
Het klinkt bijna te mooi om waar te zijn.

[Reactie gewijzigd door Mathijs op 23 juli 2024 11:45]

Ik zou inschatten 1 a 2 rackunits vol met apparatuur inderdaad.

Misschien 1 rack met gear, en dan ernaast 2 halve met voedingen onderin, en 2 halve met radiatoren bovenin ;)
Since all that power needs to be cooled as well, this cooling system would require to be just as revolutionary as its power system. Based on their comments on vertical cooling, I am thinking a submersion cooling system with fast-moving freon would probably the only thing that can tame this beast. The power system would also need to be incredibly robust.
Yikes !
Bedankt voor de info! Zou +2 geven als het kon.

Alleen 15 KW, mijn stekkerblok vliegt al spontaan in de fik als ik er aan denk
nou nou 15 kW is ook maar opgenomen vermogen van een kleinere pomp, niet om gek over te doen.

om het in perspectief te plaatsen:
Als je naar thermisch kijkt, is dat 15 kJ/s / 4,18 kJ/kg.K, zeg een kleine 4 graden temperatuurstijging door er 1 kg/s water langs te laten lopen (typische tapkraan vol open is 600 l/uur) Genoemde waterkraan warmt dan 24 graden op.
Ik denk dat hij wel gelijk heeft hoor. Prik maar eens 15 stofzuigers in een flink stekkerblok en zet ze aan. Even ervan uitgaande dat je een hele grote zekering in je meterkast hebt zitten, want anders is het sowieso snel klaar). Wedden dat er ergens iets begint te smelten of in brand vliegt. :)

Uiteraard is dat met water te koelen als je er 600l/uur langs laat lopen, maar dan moet dat water wel ergens heen. Koelsystemen zijn meestal gesloten systemen, dus dat water zal ergens ook weer 24 graden moeten zakken. Een oplossing met een (h)cfk lijkt me meer voor de hand liggen.
CFKs zijn geen magie: ook die moeten hun warmte weer kwijt. Voor een huge plak silicium is water in een koelblok een betere working fluid dan Fluorinert.
Fluorinert is vooral leuk als je heel veel kleine chipjes en PCBs en draadjes moet koelen, waar je niet echt waterblokken op kan doen.
Het lijkt heel veel maar als je het deelt door 400.000 cores is het nog maar 0,0375 W per core. Dat klinkt best zuinig toch?
De koeling zal wel met een enorm groot blok waterkoeling gebeuren.
Hoeveel stroom dit nodig heeft, die cijfers zou ik ook wel willen zien.
De koeling zal gewoon onderdeel zijn van het verwarmingssysteem 8)7 van een gebouw, met 15kw dat ik hierboven las kun je toch al aardig wat verwarmen.
Met een beetje warmtewisselaar krijg je ook weer wat terug.
Kun je dus je zwembad mee verwarmen.
Een complete tube koelpasta en zo'n industriele ventilator die je in films altijd in buizenstelsels ziet.
Met verbruik van 15kw en dus bijna zo veel hitte kun je de meteen in een kleine windtunnel zetten. Toch ook leuk fantaseren
Waarop baseer je dit in hemelsnaam? Intel heeft bijvoorbeeld tests gedaan met het onderdompelen van servers in zuurstofarm water. Dat zou veel meer voor de hand liggen dan luchtkoeling. Wellicht dat zelfs een combinatie met stikstof hier interessant is.
Joh laat me nou effe fantaseren hoe dat eruit ziet. Why so serious :P

Wat me spannender lijkt is om zo'n lap op een moederbord te zetten waarbij alle pinnetjes in één keer goed in de socket zitten zonder er ook maar ééntje om te buigen.

of mag ik dat ook niet voor me zien
Zullen wel insteekkaarten zijn, denk ik? Zeg maar, een losse PCB met deze chip erop die je dan in een PCIE-slot op steroïden prikt. Of gewoon een geheel losse PCB met de VRM's en alles erop die je dan in een 1U rack zet.
Dit past niet in 1U. Deze chip heeft met zijn support system eerder
een heel rek nodig.
Denk met een Lego hijskraan :9
Doet met 15kw op zon oppervlak niet zo veel
Hoe koel je zoiets? Een koelblok erop zal vast niet lukken, denk ik? Wordt dit hele ding dan gewoon in vloeistof ondergedompeld?
Een koelblok kan wel, maar met meerdere secties.
Dus meerdere inputs / outputs in compartimenten.

Of heel veel microfins, en een hele brede intaken en output.
Zodat je het vlak over de breedte laat koelen.
Mogelijk nog met genoeg fans om de omgeving er omheen te koelen, en sub zero koeling.
Zouden ze hier sub zero koeling opgebruiken? Denk dat het risico van condens te groot is voor zulke bakbeesten. Interessant wel.
Een quantum processor heeft een koel systeem dat ervoor zorgt dat die werkt op 15 millikelvin.

Zo koud zullen ze met deze CPU niet gaan, maar in een (bijna) vacuum, een sub zero koeling is een mogelijkheid.

https://www.youtube.com/watch?v=60OkanvToFI
https://www.dwavesys.com/...ave-quantum-hardware#h2-5
Bij een quantumcomputer is dat nodig om te kunnen werken. Het betekent wel meteen dat er vrijwel geen temperatuurverschil meer is, en dat is nodig voor warmteafvoer.
Custom koelblok laten maken. Met een aftermarket koelertje kom je er niet nee...
Koelblok eronder is ook mogelijk. De achterkant van wafers is glad. en Silicium geleid wel warmte, niet zo goed als koper maar toch.

Ondergedompeld (submersive) kan ook
https://www.youtube.com/watch?v=YyKIZPuepl8

(link added).

[Reactie gewijzigd door tweaknico op 23 juli 2024 11:45]

Ze geven aan dat ze water koeling gebruiken.

je moet trouwens niet vergeten dat een van de dingen die belangrijk bij koelen de power density / dichtheid van de chip is. Met iets van 0.3 W/mm2 is deze 4 keer zo laag als de zen2 CCDs.
Fluorinert of een andere vloeistof die warmte kan transporteren.
Gewoon onderdompelen en de vloeistof transporteert de warmte.

https://www.3m.com/3M/en_...5002385+3290667380&rt=rud
Van waar is de opkomst voor tech bedrijven om zoveel focus te leggen op deep learning, van wat ik begrijp bestaat het eigenlijk al jaren, maar nu wordt overal geroepen dat het de next big thing is?
Ik denk omdat de hardware nu ook eindelijk op een niveau is om dit soort technieken breed in te gaan zetten.
Het bestaat al langer, maar de techniek die nodig is om dat efficienter te doen staat nu nog steeds in de kinderschoenen. Waar je voorheen dus voor het verwerken van een beetje data voor deeplearning al een heel pand nodig had, heb je nu dus deze chip voor, en als we enkele jaren verder zijn, dan zal dat weer gereduceerd zijn tot een chip die in je smartphone past.
Vooral de beschikbaarheid van enórme datasets. Big data, dus. Dat is nou eenmaal prettiger werken dan met een lokaal aangelegde SQL-database van vroeger...
Omdat AI nu langzaam maar zeker in productie genomen wordt.
Op het moment dat AI lekker draait, wordt Deep Learning de engine die AI gaat boosten.
Technisch directeur van een AI bedrijf hier; wij gebruiken Deep Learning al een tijdje in de praktijk. Toen ik 20 jaar geleden afstudeerde in AI hadden we nog geen effectieve manier om fouten in de output over 3 of meer lagen terug te rekenen naar de inputlaag. Inmiddels hebben we een aantal technieken. Simpele, zoals drop-out (niet alle factoren aanpassen in elke trainingsronde) tot complexe (LSTM, 12 matrixen per laag om de aanpassingen klein te houden)
Ben benieuwd welke boost deze chip zal geven aan AI ontwikkeling!
Skynet kan niet snel genoeg komen!

....ik vind AI eng.
Het risico is vooral dat er computers kunnen ontstaan waar niemand de werking van kan controleren maar die wel "altijd gelijk" hebben. Als er overal 42 op de displays komt te staan ben je te laat. :+

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Daarnaast bestaat de kans dat intelligente systemen zichzelf zouden kunnen gaan verbeteren/herschrijven. Op dat moment heb je inderdaad een systeem dat we niet meer kunnen controleren maar nog erger, de capaciteiten van zo'n systeem zouden op zichzelf kunnen voortbouwen, met iedere iteratie een slag slimmer. Als dat gebeurt dan is het zelfs mogelijk dat wij, met onze minimale vleescomputertjes, deze systemen fundamenteel niet meer kunnen begrijpen. Brr
Daar zit een fundamenteel probleem in: de situatie in een computer tijdens een klokcyclus, dus een rij bits die een waarde of instructie voorstelt heeft geen enkele relatie met de cyclus die daarvoor plaatsvond en ook niet met die daarna. Alles is strikt gescheiden door tijd. Er kan zich geen "entiteit" vormen die daar boven staat, alleen de programmeur ervan heeft daar invloed op. Ik denk dat je met je "minimale vleescomputertjes" een enorme onderschatting maakt.

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Een mens is ook maar een bak moleculen. Toch?
Punt is dat zo'n AI zich wel zou kunnen vormen. Een zelfbewustzijn, een "beeld" van de buitenwereld, die zou kunnen constateren: "als ik alleen maar 42 zeg krijg ik allemaal kattenfoto's als input, du ik probeer wat anders" en zo controle krijgt over 'de buitenwereld".
Dat wordt nogal lastig AND, OR en XOR, of in de basis slechts 2 bits met elkaar vergelijken, het enige is wat je doet en kan. Ik denk dat die moleculen iets anders werken.
Een andere logica-fout is aannemen dat iets bestaat omdat niet aantoonbaar is dat het niet bestaat. De afwezigheid van iets is nooit aantoonbaar.

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

En toch met die NANDs kan je een computer maken en alles doen wat een computer doet. 3D-games maken, het weer voorspellen, spraak herkennen, objecten herkennen op een wazige foto.
Dingen die heel ver af staan van die '2' bitjes.
Tegenbewijs: zet je programma op pause. Alle computers kunnen dat, zonder dat 1 bit aan de situatie verandert. Waar 'denkt' je AI op dat moment aan?

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Die 'denkt' dan helemaal niet. Maar gaat gewoon verder als de clock weer wordt gestart.
Bij mensen kan dat ook gebeuren (bijvoorbeeld bij een hersenbloeding waarbij heel snel wordt ingegrepen).
Ik ken ook iemand die korte blackouts heeft als vorm van epilepsie, zonder dat zelf goed te merken, maar dat lijkt mij iets anders dan full stop en continue. Wat ik in de basis bedoel is dat enkel de toestand van een serie registers, wat je tijdens die pause hebt geen doel of wil kan hebben, en ook niet op een of andere paranormale manier het geheel kan 'overzien' of ermee is verbonden. Intelligentie is niet van toepassing, alles kan alleen maar gebaseerd worden op harde logica.

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Maar er zij ALs die al programmas kunnen schrijven, dan zou dat ook moeten kunnen
Wat is er intelligent aan een programma dat zelf programmacode aanmaakt? Oh, wacht, het wordt gedaan met een neurologisch netwerk, daarom is het AI.

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

Daar heb je geen Al voor nodig
Gelukkig is Al nog steeds buiten bewustzijn, ook omdat we niet weten hoe je een bewustzijn moet programeren
Volgens jou hebben intelligentie en bewustzijn geen verband met elkaar? In dat geval is een schaakprogramma al behoorlijk AI.

[Reactie gewijzigd door blorf op 23 juli 2024 11:45]

"Bestaat de kans"? Welnee. Zelfs mijn kleine bedrijfje gebruikt al een jaar AI om de AI te verbeteren. Dat is al dagelijkse praktijk. En inderdaad, dat wordt dus met elke iteratie beter. En begrijpen wij de interne werking van die AI's? Nee, op beide lagen niet. De uitkomsten aan de buitenkant interpreteren is al uitdaging genoeg. Je kunt niet de miljoen interne parameters begrijpen, zeker niet als de AI die aan de lopende band varieert.
Ongelofelijk 100petabits per seconde. Wat een onwerkelijke snelheid en rekenkracht.

Overigens moet ik ook telkens denken aan de aflevering van MacGyver, waarin hij het op moet nemen tegen een AI Server.
En wint, met een paperclip, een elastiekje en een luciferhoutje? :P
4800*84=403200 cores...der mag idd al eens een core breken...
= 0.0000024% perf. loss/core
..;-)
De eerste die vraagt of Crysis hier wél op kan draaien krijgt een virtuele mep.
Crysis? Je kan er in je eentje een stampede mee doen. :D
*insert Does it run Minesweeper-joke*

Iets meer OT: ik weet hier niet veel vanaf, maar klinkt gaaf. Ben benieuwd of de yields nog gaan verbeteren of dat dit voorlopig een lastig punt blijft.
met of zonder raytracing O-)
Can you imagine a Beowulf cluster of these?
Maar draait het hier dan wel of niet op?
Details zijn nog onbekend maar Meestal zie je bij veel cores lagere frequentie en is het maar de vraag of het x86-64 is
Die wil ik ook wel in mijn pc zetten! :9
Met die warmteontwikkeling en energiekosten heb ik liever een normale pc en regelbare vloerverwarming.
Dat kan beide!🙃 De hitte die deze CPU produceert moet je omzetten naar vloerverwarming etc. Ik zeg doen! ;)

Op dit item kan niet meer gereageerd worden.