Intel toont Meteor Lake-testchips met gestapeld ontwerp

Intel heeft een wafer getoond met daarop testexemplaren van Meteor Lake-M-chips. Dit is de processorgeneratie die in 2023 beschikbaar moet komen voor laptops en waarbij Intel gebruikmaakt van Foveros voor het stapelen van chips op een enkele package.

De 300mm-wafer van Intel Labs bevat honderden Meteor Lake-testchips, waarbij de bovenste laag is opgebouwd uit chiplets met daaronder een basislaag van chips, beschrijft CNET. De site maakte foto's van de wafer tijdens een tour door Intels Fab 42 in de Amerikaanse staat Arizona. Ook mocht de site een foto van een individuele testchip maken. Het gaat niet om volledig werkende chips, maar om testchips voor het valideren van bepaalde functionaliteiten.

Het zijn de eerste foto's van Intels komende Meteor Lake-chips. Meteor Lake is de codenaam voor de 7nm-processors die in 2023 moeten verschijnen en dan uit een compute-die, een soc en een gpu-die gaan bestaan. Intel zet voor het stapelen van chips de tweede generatie van Foveros-technologie in, met meer through silicon via-verbindingen. Er verschijnen processors met tdp's van 5W tot 125W, waarbij de getoonde Meteor Lake-M-chips zuinig zijn voor gebruik in laptops.

CNET toont ook foto's van onder andere Xeon Scalable-chiplets met HBM van de Sapphire Rapids-generatie en Ponte Vecchio, een accelerator voor datacentertoepassingen.

Intel Meteor Lake CNET
Intel Meteor Lake CNETIntel Meteor Lake CNETIntel Meteor Lake CNET

Intel Meteor Lake-testchips, bron:CNET.

Door Olaf van Miltenburg

Nieuwscoördinator

19-11-2021 • 10:50

35

Reacties (35)

35
34
25
4
1
7
Wijzig sortering
Ik als CPU leek zou graag bij dit soort hardware updates toch ook een zinnetje willen lezen wat het voordeel van het stapelen van chips is. Wat is nu precies het voordeel? Weer kleiner en dus in potentie sneller?

Ik begrijp dat Tweakers een bepaalde basiskennis verwacht, maar er zijn nogal wat onderwerpen binnen Tweakers waar je basiskennis voor moet hebben onderhand ;)

EDIT: Dank voor alle uitleg! Hoop dat de redactie hier ook mee aan de slag gaat om toch ergens onderaan een explainer toe te voegen als dat nuttig zou kunnen zijn!

[Reactie gewijzigd door Risce op 2 augustus 2024 10:28]

Een ander voordeel behalve die al aangehaald zijn door anderen, is dat verschillende process nodes gebruikt kunnen worden.
Zo kun je een ouder process (groter, meer nm) gebruiken om bijvoorbeeld je grote cache in te stoppen en deze dan boven op je dure fancy process monteren.
Of bijvoorbeeld je power regulators en andere analoge componenten op je chiplet (in welk process dan ook) plaatsen en zo veel mogelijk digitale logica op je main chip.

Er is hier veel mogelijk dus ik ben benieuwd wat Intel specifiek hier uit wil halen.

Misschien een ingebouwd RAM geheugen van vele megabytes (zou gigabyte al passen op die oppervlakte?) wat op (bijna) volle cpu snelheid mee tikt? Dan kunnen ze eerst ophouden met grotere caches :)
Misschien een ingebouwd RAM geheugen van vele megabytes (zou gigabyte al passen op die oppervlakte?) wat op (bijna) volle cpu snelheid mee tikt? Dan kunnen ze eerst ophouden met grotere caches :)
Je weet dat jouw voorstel samengevat kan worden als "laten we L4 cache uitvinden"? :+ Dus nee, laten we vooral niet ophouden met caches. Ik bedoel, L3 heeft een kopietje van de meest gebruikte data in RAM, je echte fysieke RAM heeft een kopietje van de meest gebruikte data uit je virtuele RAM (de rest zit in je swap file), je RAM heeft een kopietje van de meest gebruikte data van je harde schijf. En vandaag de dag is de inhoud van je harde schijf vooral een kopietje van de meest gebruikte data van het Internet (Netflix, games (en natuurlijk DLC :-s ), wat IE vroeger "temporary internet files" noemde is je browser cache, ...), want het Internet (sorry, "de cloud") is uiteindelijk de plek waar we écht dingen opslaan. Stoppen met caches is precies het tegenovergestelde van de huidige ontwikkelingen; "it's caches all the way down" om maar eens een leuke quote te parafraseren. :)
Ik stelde voor om op te houden met het vergroten van caches, die vergeleken met het externe geheugen nog aanzienlijk klein zijn...

En alhoewel ik je punt over een L4 zie, zat ik meer te denken aan een stuk geheugen wat een logisch onderdeel van de memory region kan zijn waar je externe RAM ook is en een groot stuk van je operating system kan bevatten.
Ik stelde voor om op te houden met het vergroten van caches, die vergeleken met het externe geheugen nog aanzienlijk klein zijn...
Maar dat is juist het geniale van caches; ze zijn heel veel kleiner dan het volledige geheugen en toch slagen ze erin om in een heel groot deel van de gevallen de data die je nodig hebt te bevatten. Toegegeven, het is niet perfect (een theoretisch geheugen met dezelfde grootte als je RAM en dezelfde latency als je cache zou nog beter presteren), maar het gaat een heel eind in de goede richting.
En alhoewel ik je punt over een L4 zie, zat ik meer te denken aan een stuk geheugen wat een logisch onderdeel van de memory region kan zijn waar je externe RAM ook is en een groot stuk van je operating system kan bevatten.
Dus een deel van je address space wordt opgeslagen in het geheugen dat jij voorstelt en de rest van je address space komt in "gewoon" RAM terecht? Dat is technisch zeker mogelijk (in feite is het een vorm van NUMA), maar het brengt een heleboel hoofdpijn met zich mee voor zowel het OS als je applicaties (zoals gezegd, net als NUMA). Ik zou niet durven zeggen of het dat waard is.

Een groot voordeel van caches is namelijk dat de programmeur zich er geen (of, weinig) zorgen om hoeft te maken. Ja, je data-structuur zo uitlijnen dat het netjes overeenkomt met je cache lines is zeker aan te bevelen en soms moet je aan de slag met prefetch, maar voor een heel groot deel werkt het automagisch. Met jouw voorstel zou ik extra system calls moeten doen om te vragen hoeveel "snel" geheugen er nog beschikbaar is (of botweg afsluiten met "minimaal x MB super memory nodig om dit programma te kunnen draaien"), dat voor mijn programma malloc'en en vervolgens dynamisch proberen te kiezen welke data ik daar neer wil zetten en wat in gewoon geheugen kan blijven. Ook het verplaatsen van die data is lastig: verplaats ik het naar een ander adres (maar dan moet ik bijhouden waar elke pointer náár dat object staat, zodat ik die aan kan passen) of verplaats ik het door data op hetzelfde adres te laten staan, maar verplaats ik dat geheugen-bereik (met virtual memory trucjes) naar het snelle geheugen?

Ik zeg niet dat het het niet waard is, alleen dat ik bang ben dat het (totdat iemand laat zien dat het al die extra kopzorgen waard is) weinig kans maakt om populair te worden.
Er zijn 2 redenen waarom 3d ertoe doet:

1) sram heeft een latency vs size trade off. Een lage latency vraagt ook grotere transistors (meer ‘breedte’) wat niet helpt. Om daarmee om te gaan is het cache systeem ontworpen, nu dus 3 laags. Nieuwe nodes brengen weinig voordeel in snelheid. Om ze toch groter/sneller te maken stapel je ze, zodat het signaal minder afstand hoeft af te keggen.

2) een kleinere node kan zorgen voor meer functies/oppervlak. Het oppervlak zelf word echter duurder. Sommige onderdelen op een soc schalen niet of nauwelijks (io, controller en dus ook high density sram). Dan is het goedkoper om deze op oude nodes te laten. Wat daar dan ook niet bij helpt is dat je ondanks dat onderdelen niet schalen je ze wel helemaal opnieuw mag ontwerpen in een nieuwe node wat nogal wat ‘verloren’ kosten zijn. De reden om dit niet eerder te doen is omdat het verbinden van chiplets ook niet gratis is en yield loss geeft.
Volgens mij heeft het er ook mee te maken dat verbindingen in een 3d context korter kunnen zijn dan alles naast elkaar.
Je wil zo veel mogelijk chips on een wafer kwijt kunnen vanwege de kosten. Dus door de chiplets bovenop de chips te bakken heb je minder 'footprint' nodig lijkt mij.

Wellicht zijn er ook hardwarematige verbeteringen mogelijk doordat de elektrische signalen op de chip zelf kortere afstanden hoeven af te leggen. Er zal heel wat gesleuteld kunnen worden aan de architectuur/ontwerp van zo'n chip om het te optimaliseren hierdoor.

[Reactie gewijzigd door A Lurker op 2 augustus 2024 10:28]

Je wil zo veel mogelijk chips on een wafer kwijt kunnen vanwege de kosten. Dus door de chiplets bovenop de chips te bakken heb je minder 'footprint' nodig lijkt mij.
nee, dat is niet waar, dwz: ja, als dat de enige maatstaf zou zijn dan had je inderdaad gelijk, want meer cpu per gram aan materiaal zou dan goedkoper per eindproduct zijn.

zo zit het in de praktijk echter niet. andere factoren zijn namelijk over het algemeen genomen veel meer van invloed op dit soort productielijnen dan alleen het gebruikte materiaal.

1. hoe complexer het ontwerp, hoe foutgevoeliger het proces: dus hoe meer kapotte chips er op de afvalberg terecht komen.
2. hoe complexer het ontwerp, hoe groter de kans dat je chipmachine het niet in één ronde afkan, en dus hoeveel extra tijd (op de machine) je per chip nodig hebt, meer tijd is minder chips = duurder, meer tijd = meer stroom = duurder. meer rondjes op de machine meer kans op fouten bij het opnieuw uitlijnen op de machine = meer productiefouten. (en ga zo maar door)

waarom dan wel,
van het kleine beetje dat ik begrepen heb zit het ongeveer zo,

elke baan van onderdeel 1 (bijvoorbeeld cache) naar onderdeel 2 (bijvoorbeeld rekenkern), is van een geleider gemaakt, die geleider heeft een bepaalde weerstand per strekkende nm. hoe langer de weg is die zo'n signaal moet afleggen, hoe meer weerstand er overbrugd moet worden EN DUS hoe sterker dat stroompje moet zijn.

hoe sterker dat stroompje is, hoe meer storing het gaat geven naar andere onderdelen van de chip en andere stroompjes in die chip... hoe meer interferentie er is, hoe verder componenten weer uit elkaar moeten liggen om geen last te hebben van die storing... maar ook, hoe langer die baantjes dan weer worden en dus de stroompjes weer sterker moeten worden.

deze eindeloze race naar steeds meer stroom en steeds complexere manieren om die interferentie tegen te gaan kun je eigenlijk maar op 3 manieren oplossen;

1: het verlagen van de weerstand op die baantjes (door bijvoorbeeld supergeleiding), = op dit moment nog niet mogelijk

2: gebruik maken van de eigenschappen van machnetisme en hoe die elkaar kan opheffen ... daar wordt je chip wel weer eindeloos ingewikkeld van.

of 3. en daar lijkt intel nu voor te kiezen, je verzint een manier om die baantjes korter te maken. en als dat niet meer naar. links, rechts, voor of achter kan, dan maar naar boven of onder.

[Reactie gewijzigd door i-chat op 2 augustus 2024 10:28]

de chiplets worden in een volledig parallel proces "gebakken", daarna getest en alleen de goede chiplets worden dan bovenop de andere lagen geplaatst.

Eens ze geplaatst zijn, zijn er volgens mij geen extra stappen zoals wafer patterning / etsen / grinding nodig. Dit gebeurd in de voorafgaande processstappen en appart voor de basislaag als voor de bovenlaagjes (chiplets).

Het hoofdvoordeel van stacked chips is idd de kort verbindingslengte, die op zich minder gevoelig is voor storingen en ook een veel lagere capacitieve waarde heeft en daardoor sneller kan schakelen.
Eigenlijk met alles CPU related. Zoveel mogelijk met zo min mogelijk. Door te stapen kan je met één stroomtoevoer al meerdere componenten aanspreken. Kan je meer power stoppen in een klein pakketje. Is het geheel misschien heter, maar wel met één component te koelen. Zie het maar als een dual CPU oplossing zonder al de problemen van Dual CPU.
Ik vermoed dat het te maken heeft met kortere afstanden tussen componenten. Dit kan voor meer snelheid zorgen, met minder power. Oftewel sneller en zuiniger. Immers hoe korter de afstand die afgelegd hoeft te worden, hoe sneller dat kan en het kost ook minder energie. Dit geld als je van huis naar werk gaat, maar zeer zeker ook op cpu schaal.
Afstanden worden kleiner, dat helpt bij sommige stukken van het proces waar de snelheid van de electronen een limiterende factor is. Misschien ben je bekend met de cache in CPU's, die zijn er op meerdere niveaus om maar steeds een beetje opslag héél dicht bij de rekenkernen te hebben. Dit voordeel wil je ook met andere zaken.

Daarnaast worden de chips ook kleiner, dan passen ze in meer apparaten en ze worden daarmee over het algemeen goedkoper. Je kosten zijn simpel gezegd bepaald per wafer (dit klopt niet, maar er is wel op zijn minst een sterke correlatie), kan je dus meer chips produceren op één wafer, dan zijn je kosten per chip lager.

Het gaat hier dan ook nog eens om chiplets, dit is (simpel gezegd weer, niet geheel accuraat) een soort van CPU module. AMD past een chiplet ontwerp nu ook toe en kan daarom relatief eenvoudig CPUs met veel cores maken door meer chiplets in de CPU te stoppen. Het is een soort tussenlaag tussen een gehele CPU en een CPU core. Als Intel via dit stapelen kleinere chiplets dan AMD kan maken, dan kunnen ze ook CPU's met meer cores aanbieden dan AMD nu kan doen. Vooral voor de datacenter/server markt is dit heel interessant. Daar maakt AMD juist nu grote stappen mede dankzij het feit dat ze uberhaupt chiplets hebben (zij het niet gestapeld zoals Intel in de toekomst gaat doen).

Een gestapeld ontwerp is wel moeilijker te produceren EN kan meer problemen opleveren met de afvoer van warmte.
Het oppervlakte van de chip blijft hetzelfde alleen nu met stapelen zou deze chip dus dikker maken omdat de chiplet is gestapelt.Deze methode hebben ze ook al toegepast met sommige harde schijven het is een techniek om ruimte te besparen, en dus de chip nog krachtiger te maken.Tussen de chips in zit dus een vorm van isolatie zodat men lekstromen kan gaan uitschakelen.De warmte van de chip zal misschien hoger zijn omdat tussen de chips de grootste waarneembare hitte zal zijn.Men moet dus ook een goede koeling moeten hebben zodat dit in de praktijk waar te maken.Bij zware workloads zal hij dus het warmste moeten worden.Dus met andere woorden de capaciteit van de cores worden groter.Meer cores per opprervlakte.

[Reactie gewijzigd door rjmno1 op 2 augustus 2024 10:28]

Ik, zou graag wat meer interpunctie zien in je zinnen.
Er zijn al een stel goede antwoorden gegeven, maar ik wou nog een puntje toevoegen. Het maken van een chip is nogal een precisie-werkje. Zelfs een heel klein foutje kan al een defect veroorzaken en het is niet zinvol om defecten te repareren (zelfs als het zou kunnen, dan is het vele malen goedkoper om de mislukte chip weg te gooien en het gewoon opnieuw te proberen).
Er zijn een aantal trucs bedacht om chips met een defect toch nog te kunnen gebruiken (nagenoeg alle triple core CPUs zijn stiekem eigenlijk quad core CPUs waarvan één core een defect bevat; die wordt dan uitgeschakeld en tada, opeens is het een triple core). Het aantal trucjes dat je uit kunt halen is echter beperkt; het liefst wil je voorkomen dat een chip een defect bevat.

Om steeds meer functionaliteit op één chip te krijgen heb je steeds meer transistoren nodig. Transistoren worden gelukkig steeds kleiner (wat veel mensen de "Wet van Moore" noemen, ook al zegt die eigenlijk net iets anders), zodat er steeds meer transistoren op een vierkante centimeter passen, maar de laatste tijd gaat die verkleining steeds langzamer. Als je toch meer transistoren nodig hebt voor je nieuwe CPU, dan heb je dus meer vierkante centimeters nodig.
Het punt is nu dat het aantal defecten onder andere afhankelijk is van de grootte van de chip: hoe groter de chip, hoe meer kans dat ie een defect heeft. Chips zijn heel lang uit één stuk gemaakt, want het combineren van meerdere componenten tot één chip is heel erg moeilijk; alle contactpunten (en dat zijn er honderden) moeten exact op elkaar aansluiten (ik weet de afmetingen niet uit mijn hoofd, maar véél minder dan een millimeter). Pas toen het aantal mislukte chips simpelweg te groot werd (mede doordat ze steeds groter werden) was er geen keuze meer en moesten chipfabrikanten wel overstappen. We zitten op dit moment zo'n beetje midden in de overstap van monolithische chips (gemaakt uit één stuk) naar chips die worden opgebouwd uit onderdelen (of je die nu chiplets noemt of een andere naam geeft, het idee blijft hetzelfde).

Waarom die chiplets niet alleen naast elkaar maar ook op elkaar worden gelegd is in andere reacties al uitgelegd. Het leek me echter nuttig om ook uit te leggen waarom we niet veel eerder zijn overgestapt op deze techniek.
Dan moet je wel weten dat afstand relevant is op een CPU.

Zonder enige kennis van CPU's kin je een tiental andere dingen bedenken van stapelen dat logisch redeneerbaar is zonder dat het klopt.

Mag best wat vriendelijker. Is geen domme vraag.

[Reactie gewijzigd door SideShow118 op 2 augustus 2024 10:28]

Afstand is bij alles relevant. Niet alleen bij (inter) connecties van cpu's, maar ook bijvoorbeeld gewoon in uw woon-werk verkeer. Korter = sneller en efficiënter.
Bij cpu’s mag dat misschien waar zijn mits je bepaalde materiaaltechnische beperkingen in het oog houdt zoals interferentie, warmte ontwikkeling en designoppervlak

Maar vij woon-werkverkeer is het al minder evident
Grotere afstand is snelwegen
Kortere afstand is b-wegen met tractoren, verkeersdrempels en stoplichten
Kortom lang niet altijd evident sneller zo ook met cpu-ontwerpen
2x de afstand op een snelweg is 2x zo lang, 2x de afstand op een fietspad is 2x zo lang.
En dan hebben we het niet eens over efficiëntie, ruimte die wegen in beslag nemen, etc.
Dit is prima te vertalen naar het gros van oplossingen, wegen, CPUs, waterleidingen, etc.
ja en nu haal je er alweer dingen bij, namelijk. begrippen als fietspad, efficiëntie, en om er nog meer bij te halen, energie per killometer, doorstroming, luchtweerstand, rolweerstand en ga zo maar door, OOK in een cpu-ontwerp mag je verwachten dat er dergelijke factoren spelen die bijvoorbeeld invloed hebben op de nabijheid van verschillende paden ten opzichte van de voltage's en de frequenties.

voor je het weet kom je op een punt waar een 3baans rotonde weliswaar veel meer ruimte kost, ook enkele tientallen meters langer is, en toch veel sneller blijkt dan een stoplicht of voorrangskruising.
Als ik twee computers naast elkaar heb staan, dan prik ik de eerste netwerkkabel ertussen die ik kan vinden (en die lang genoeg is). Als dat een rol van tien meter is, nou dan ligt er een stuk opgerolde kabel, daar heb ik geen last van. Maar belangrijker, de kwaliteit van de verbinding (snelheid (bandbreedte), snelheid (rtt) en betrouwbaarheid) heeft er geen last van.

Op moederborden met vier geheugensloten wordt meestal aanbevolen om de slots het verst van de CPU te gebruiken als je slechts twee geheugenreepjes hebt. In de tijd dat we nog IDE harde schijven gebruikten was het advies ook om bij het aansluiten van slechts één schijf de connecter op het einde van de kabel te gebruiken. (In beide gevallen om dezelfde reden: de "losse uiteindes" van de draden van het dichtsbijzijnde slot naar het achterste slot worden in feite antennes (edit: zie correcte uitleg in reactie van 680x0) als er niets op dat achterste slot is aangesloten.)

Ik ben het volkomen met je eens dat afstanden zeer relevant zijn bij het ontwerp van CPUs (kijk bijvoorbeeld naar de clock tree), maar ik ben het niet met je eens dat het voor een leek meteen duidelijk moet zijn dat dat zo is. Het idee "CPUs zijn zo klein, alles zit toch al vlak bij elkaar, dan kan afstand niet meer belangrijk zijn" mag dan fout zijn, ik vind het wel een begrijpelijke fout.

[Reactie gewijzigd door robvanwijk op 2 augustus 2024 10:28]

Uw voorbeelden houden geen steek.

De reden waarom je bij flatcables en degelijke van buiten naar binnen moet werken is om een correcte termination te hebben. Open uiteindes laten het signaal bouncen, en dan ook nog eens uit fase. Dit heeft niets met 'werkt als antennes' te maken.

Uw netwerk kabel voorbeeld is net een perfect bewijs van wat ik zeg. 10Mb over 150m kabel is geen probleem. 100Mb zal niet meer lukken. Mss half duplex. 1Gb kan je helemaal vergeten over die lengte over koperdraad. Trouwens, netwerkkabel opgerold laten is altijd een slecht idee. Je maakt immers een spoel.

Hoe sneller het gaat, hoe korter de afstanden moeten zijn tussen begin en eindpunt of tussen repeat nodes.

En dat geldt voor alles.

[Reactie gewijzigd door 680x0 op 23 juli 2024 09:11]

Open uiteindes laten het signaal bouncen, en dan ook nog eens uit fase. Dit heeft niets met 'werkt als antennes' te maken.
Sorry, je hebt helemaal gelijk, geen idee waar ik met mijn hoofd zat toen ik dat schreef. Heb een correctie toegevoegd aan mijn vorige post.

Mijn voorbeelden waren bedoeld om te demonstreren dat er meerdere situaties zijn waar "korter is altijd beter" in de praktijk niet opgaat. Dat mensen met enige computer-ervaring, maar zonder specialistische kennis over chip-ontwerp, niet uit zichzelf bedenken dat dit een cruciaal punt is (zoals SideShow118 het zei: "Dan moet je wel weten dat afstand relevant is op een CPU.") vind ik dan ook volkomen begrijpelijk.
"Er verschijnen processors met tdp's van 5W tot 125W (...)"

Zouden er dan eindelijk weer toegankelijke sub-25W cpu's voor desktops verschijnen of zijn deze echt alleen weer voor laptops? Ik vrees het laatste.

Performance maakt mij niks uit, als ik maar kan surfen, citrix kan draaien en een achtergrondmuziekje kan opzetten. Liefst niet op een computer die idle 100W verbruikt maar 1/10 daar van...
TDP is wat ie verbruikt op volle last zonder turbo, dat zegt nog niks over idle verbruik.
In dit topic vind je veel info over zuinige machines, daar komen wel setups voorbij met 65W TDP CPU en iets van 4W idle verbruik.
Of hier iemand met 35W TDP CPU die ca 2W idle doet.
Dat zijn machines zonder monitor (omdat dat mijn interesse heeft) dus voor desktop gebruik moet je dat er nog wel bij rekenen.
Ik ken het zuinige server topic, en heb zelf ook een servertje dat idle 6 à 7 watt trekt (met info uit dat topic) :)

Het gaat mij er meer om dat ik een mini-behuizing heb staan met eenCPU van 18W TDP (25W systeem-piekvermogen bij 100% belasting) waarin ik een nieuwe setup wil gaan bouwen tzt. Deze heeft passieve koeling opgenomen in de behuizing, voor maximaal 20-25 watt. Ik zou het jammer vinden wanneer de CPU steeds tegen de 80 graden aan staat te hikken zodra deze wordt belast. De CPU uit mijn zuinige server heeft bijvoorbeeld een cpu met TDP van 51W met passief 40W koelblok en komt ook richting het kookpunt (en throttlen) zodra deze even goed staat te blazen. Gebeurt zelden, maar met grotere ZIP bestanden ontkom je daar niet aan.
Een desktop wordt wat zwaarder belast, de koeling is krapper bemeten dus staat deze vaker te koken dan ik fijn vind.
Het zou niet vreemd zijn als een dergelijke chip in een NUC opduikt. De huidige mini pc's komen trouwens al extreem dicht in de buurt: reviews: Mini-pc's met Core i5-1135G7 - Blijft de 'echte' Intel NUC de beste?
Ik verwacht dat de desktop cpu's niet onder de 35W zullen gaan. Maar dat is max TDP, je ziet vaak bij die 35W i3's dat die 35W ook echt op max turbo is. Enige nadeel is dat ze idle vaak niet zover zakken in stroom gebruik.

Maar voor de simpele taken is een basic Intel NUC met een laptop CPU vaak ook voldoende.
Weet iemand wat de impact van het stapelen van chips is op de thermal performance?
Gezien een CPU heatsink altijd contact maakt met een 2 dimensioneel vlak, en dat door het stapelen van chips nog meer hitte op een hetzelfde oppervlak wordt geconcentreerd, vraag ik mij af of we hierdoor wel het optimale uit de chips kunnen halen. Zeker met in het achterhoofd dat de huidige generatie (intel) chips vrij veel hitte generen tijdens zware workloads.
Ik heb geen idee hoe het bij deze chips wordt opgelost, maar een oplossing is om banen aan te brengen in de chip die de warmte naar de oppervlakte geleiden.
Ben ik ook wel benieuwd naar. En ook naar de fysieke thermal stresses, een idle chipgedeelte heeft zo stel ik me voor minder uitzetting dan een gedeelte wat aan het rekenen is. Hoewel je dat ook hebt als alles in een vlak zit maar zijn de vertikale verbindingen even sterk of flexibel als horizontale?
Exactly my thoughts! Meer doen op dezelfde oppervlakte door dingen op elkaar te stapelen zou volgens mij moeten leiden tot meer hitte die lastig kan worden afgevoerd, dus automatisch meer throttling?

Op dit item kan niet meer gereageerd worden.