Intel zet '1nm'-procedé 10A op de roadmap voor eind 2027

Intel wil in 2027 beginnen met chipproductie op een 10A-procedé. Dat deelde het bedrijf tijdens een presentatie op zijn IFS Direct Connect-evenement. Productie op het eerder aangekondigde 14A-procedé moet in 2026 beginnen.

Intel noemde de komst van zijn 10A-procedé voor het eerst tijdens een besloten presentatie, meldt Tom's Hardware, dat aanwezig was op IFS Connect. Productie op dat 10A-procedé moet eind 2027 van start gaan. De naam van die node verwijst naar 10 ångström, wat neerkomt op 1nm. Tijdens de presentatie deelt Intel-evp Keyvan Esfarjani details over het verwachte aantal wekelijkse waferstarts op verschillende procedés. Daarop is te zien dat de eerste 10A-wafers tegen het einde van 2027 aan het productieproces beginnen, hoewel dat dan een relatief klein aantal betreft.

Productie op het 14A-procedé, dat Intel vorige week al aankondigde, begint in 2026 en wordt in 2027 opgeschaald. Dat wordt de eerste node waarvoor Intel high-NA-euv-machines van ASML gebruikt. Die volgende generatie euv-lithografie biedt een hogere numerieke apertuur, oftewel NA, wat hogere resoluties en daarmee de productie van kleinere transistors mogelijk maakt. Intel was vorige week niet duidelijk over wanneer 14A-productie precies zou beginnen, hoewel het bedrijf toen wel bevestigde dat een verbeterde 14A-E-node in 2027 zou verschijnen.

Intel zei tijdens de presentatie ook dat het zijn productiecapaciteit voor geavanceerde packaging gaat uitbreiden. Intels technieken als EMIB en de Foveros-familie worden gebruikt om meerdere chips of chiplets met elkaar te combineren tot één werkend geheel. Dit soort packagingtechnieken worden momenteel vooral gebruikt voor de productie van AI-accelerators, zoals Nvidia's H100- en AMD's Instinct MI300-chips. Packagingcapaciteit is momenteel een bottleneck. Volgens geruchten zal Nvidia deels overstappen op Intels packagingfabrieken omdat hoofdleverancier TSMC niet voldoende capaciteit kan leveren.

Door Daan van Monsjou

Nieuwsredacteur

27-02-2024 • 20:24

74

Lees meer

Reacties (74)

74
73
38
3
0
27
Wijzig sortering
Intel heeft de laatYe 10j veel beloofd, maar echt weinig van hun beloften kunnen inlossen. We krijgen weer de ene na de andere roadmap... Waar waarschijnlijk amper iets van gerealiseerd zal worden.
Ergens vraag ik me sterk af hoelang Intel dit nog trekt als renderende bedrijf, op een gegeven moment moet het toch goedkoper worden TSMC en co de chips te laten bakken...
Het zit mensen nog steeds hoog dat ze lange tijd niet naar 10nm konden. En te lang op monolithische chips bleven hangen.

Denk dat het niet lastig is om te zien dat ze dat tij aan het keren zijn. Hun beloofde 5N4Y; 5 nodes in 4 years is prima op schema. En ze gaan de goede kant op met chiplets, tezamen met goede packaging daarvan; immers, Nvidia gaat met ze in zee voor advanced packaging.

Ze investeren ook in High NA waar TSMC dat niet doet. Bovendien wil men zich in het westen los weken van Taiwan. Omstandigheden voor Foundry zien er goed uit.
Het zit mensen nog steeds hoog dat ze lange tijd niet naar 10nm konden.
Dat zou kunnen. Of andere mensen weten beter wat er daarna beloofd is en wat ervan terecht gekomen is.

Ze hebben na het langdurige sukkelen met Intel 7 (dat is hun nieuwe naam voor wat eerder Intel 10 heette), die uiteindelijk succesvol uitgerold met de 12e generatie processoren. Daarna hebben ze volgens plan een kleine refresh gedaan met de 13e generatie. Vervolgens was het plan om voor de 14e generatie naar een nieuwe architectuur op Intel 4 te gaan, met Meteor Lake. Dit is fout gelopen en dus hebben voor de 14e generatie desktop dezelfde chips nogmaals uitgebracht met een nieuw naampje.

Meteor Lake is wel uitgebracht voor laptops, maar volgens de reviews die ik heb gezien is er een kleine prestatieregressie ten opzichte van de 12/13e generatie. Wat verklaart waarom ze die niet hebben uitgerold voor de desktop.

Dan heb je ook nog Intel Arc. Ik denk dat we allemaal wel weten dat dit qua software lang niet veel soeps was, maar er lijken ook hardware-beperkingen te zijn waardoor de beoogde prestaties niet worden behaald. Nvidia en AMD behalen dezelfde prestaties met een veel kleinere en dus goedkopere chip. En het is niet op een Intel-proces gemaakt, maar bij TSMC. Dus zelfs dat product zegt niks over wat hun processen kunnen. De volgende generatie van Intel Arc stond eerst op de roadmap voor volgende kwartaal, maar dat lijkt op zijn best eind 2024 te worden. Ook weer gemaakt bij TSMC, dus daarmee gaan ze ook niet aantonen dat ze high-end GPUs kunnen maken op hun nieuwe nodes.

Dus wat hebben we nu eigenlijk gezien van die 5 nodes in 4 jaar? De langdurig vertraagde 12e generatie op Intel 7 die gelukkig wel goed was, maar daarna slechts nog 1 product op het Intel 4 proces dat ondermaats presteert. Intel 3 zou een half jaar geleden klaar zijn voor productie en Intel 20A dit kwartaal. Daar hebben we echter nog niks van gezien.

Ik hoop echt dat Intel een tijdje een voorsprong neemt en zo hun strategie kan waarmaken en een goede concurrent wordt voor TSMC, maar ik beoordeel bedrijven niet op hun plannen of op basis van wensdenken, maar op basis van de resultaten. En tot nu toe zijn die echt niet zo goed en worden de beloftes grotendeels niet waargemaakt.
Het gaat er mij vooral om dat ik versnelling zie in de node-opvolgingen na het debacle van de 14nm node die maar bleef duren voor desktops:

Haswell: 22nm
Broadwell: 14nm
Skylake: 14nm
Kaby Lake: 14nm
Coffee Lake: 14nm
Comet Lake: 14nm
Rocket Lake: 14nm
Alder Lake: Intel 7
Raptor Lake: Intel 7
Raptor Lake 2: Intel 7
Arrow Lake: Intel 4?

Arrow Lake, 15th gen, zou in ieder geval een kleiner procede krijgen dan Raptor Lake, dus dat kan een interessante serie gaan worden.

Als ik dit zo bezie hebben ze nu toch de smaak te pakken om de achterstand goed te gaan maken.

[Reactie gewijzigd door A Lurker op 23 juli 2024 12:17]

Het probleem dat ik heb met jouw voorstelling van zaken is dat het puur gebaseerd is op beloftes. Volgens de planning zouden ze nu al op Intel 4 moeten zitten voor de desktop, maar dat is niet gelukt. Dus de eerste de beste kans die ze hadden om te laten zien dat ze kunnen leveren hebben ze laten mislukken. We zitten nu dus op minimaal 1 jaar vertraging voor Intel 4 op de desktop. Ik ga er niet zomaar van uit dat dit niet vaker kan gebeuren, gezien ze bij de overgang van Intel 14 naar Intel 7/10 maar liefst 4 jaar vertraging hadden.

[Reactie gewijzigd door Ludewig op 23 juli 2024 12:17]

Nou bewijs het dan maar dat de eerste roadmap van 5NY4 op zijn minst significant bijgesteld is intussen en/of de 5 nodes in 4 jaar onhaalbaar zijn.

Als ik hier naar kijk en naar de signalen op de markt, zie ik geen enkel aanleiding dat het 14nm debacle herhaald wordt; niet in die extreme vertraging van 4 jaar:
https://www.intel.com/con...n.intel.web.1920.1080.png

Er zijn zat geruchten dat 15th gen op Intel 4 gebakken wordt. Die komen niet alleen door roadmaps van Intel. Intel 4 is al in gebruik voor de mobile-serie: https://en.wikipedia.org/wiki/Meteor_Lake

Ik heb dan ook geprobeerd met de generaties en de nm's van desktops duidelijk te maken dat het me daarin vooral gaat dat ik versnelling zie, en ik bovendien dus verder kijk dan beloftes/roadmaps en ook dan vertragingen van individuele nodes, Intel belooft niet voor niks 5 nodes in 4 jaren, en dan kan het soms mee en soms tegenvallen op de individuele stappen in dat 4-jarenplan. Dat neem ik op de koop toe. Ik kijk dan ook naar de trend en zie 14nm meer als een anomaliteit dan als een voorbode voor wat er nu komen gaat. Ook kijkende naar Intel die in High NA investeert en omschakeling naar chiplets, dat zijn belangrijke stappen om de doelen qua nodes te halen.

Ik moet dan ook lachen als mensen zeggen dat chiplets overrated zijn zoals hier in de comments; want sure een 11900k op 276mm^2 zal vast prima te produceren geweest zijn, en AMD Intel en ook Nvidia doen deze transitie voor de lol. Modulariteit en advanced packaging gaan essentieel zijn in de komende jaren.

[Reactie gewijzigd door A Lurker op 22 juli 2024 14:02]

Wat moet ik bewijzen?

Intel beweert dat het plan is om in 2025 de beste te zijn. Ze hebben ook van plan om een grote foundry te worden voor externe partijen, wat betekent dat ze een flinke range aan producten moeten kunnen maken en flink wat externe klanten moeten hebben. In de praktijk zie ik van beide nog weinig terug.

Intel beweert dat ze in de labs allemaal leuke dingen hebben. Dat zou kunnen. Aan de andere kant dachten ze ook met Intel Arc te kunnen scoren en dat liep volledig mis. En ze dachten met Meteor Lake een goede concurrent voor Zen 4 uit te kunnen brengen. Dat liep ook mis. Dus waarom zou ik dan zomaar geloven dat ze vanaf nu opeens alles goed gaan doen, of in elk geval voldoende om weer aan te haken?

Wat mij betreft is het aan hen om te bewijzen dat ze dit kunnen. En dan bedoel ik echte producten en klanten, geen woorden op een roadmap.
Als ik hier naar kijk en naar de signalen op de markt, zie ik geen enkel aanleiding dat het 14nm debacle herhaald wordt; niet in die extreme vertraging van 4 jaar:
https://www.intel.com/con...n.intel.web.1920.1080.png
Je blijft maar roadmaps aanhalen, terwijl Intel in het verleden veel roadmaps niet heeft gehaald en de geruchten voor de toekomst ook zijn dat ze meer roadmaps gaan missen (zoals voor Battlemage).
Wat moet ik bewijzen?
Een fatsoenlijke deelnemer aan een discussie komt met bronnen, feiten, en bewijsmateriaal.
Dus waarom zou ik dan zomaar geloven dat ze vanaf nu opeens alles goed gaan doen, of in elk geval voldoende om weer aan te haken?
Dan geloof je het toch niet? Ik vraag je nergens om zoals je zegt "zomaar" iets te geloven, maar blijven zeuren over dat ik roadmaps aanhaal, terwijl ik overduidelijk ook allerlei andere argumenten aandraag is echt een grote patstelling over wel of niet geloven. Zo werkt een constructieve discussie niet.

Zo kom je dus onder de streep nergens. Ik had het bij 1 enkele comment hier moeten laten en niet meer moeten reageren, we zijn na al deze comments geen enkele stap verder; jij gelooft van niet, ik denk van wel.

[Reactie gewijzigd door A Lurker op 23 juli 2024 12:17]

Een fatsoenlijke deelnemer aan een discussie komt met bronnen, feiten, en bewijsmateriaal.
Ik heb meer echte feiten geleverd dan jij, dus dit vindt ik een vreemde aantijging. Neem het feit dat Meteor Lake voor de desktop is gecancelled, de lagere prestaties voor Meteor Lake op mobiel dan de 13th gen mobiele chips, de veel lagere prestaties per chipoppervlak van Intel Arc. Of het feit dat er van de 5 nodes in 4 jaar, er slechts 1tje wordt gebruikt voor een succesvol product en 1tje voor een gefaald product. Van twee andere nodes die af zouden moeten zijn is geen spoor te bekennen.

Of het feit dat ze nog geen externe klanten hebben. Of het feit dat ze nooit een discrete GPU (of GPU-chiplet) hebben gemaakt op een Intel-proces.
jij gelooft van niet, ik denk van wel.
Je leest niet goed, want ik heb nergens beweerd dat het niet gaat gebeuren. Ik ben het slechts oneens met jouw bewering dat er goed bewijs ligt dat ze op schema liggen.

Ik zie daar nauwelijks bewijs voor, maar ze kunnen best fantastische dingen hebben liggen die wij nog niet op de markt zien. Maar zolang ze niet op de markt komen, weten we dat gewoon niet.
Ik heb meer echte feiten geleverd dan jij, dus dit vindt ik een vreemde aantijging.
Dit is geen aantijging maar een antwoord op je vraag waarom je dingen moet bewijzen; ik kijk naar de toekomst en jij denkt dat je mij simpelweg kunt overtuigen door het extrapoleren van het verleden. Bijna al je feiten zijn samen te vatten als "in het verleden behaalde resultaten zijn genoeg reden om niets/weinig te mogen/durven/willen beweren/geloven over de toekomst".

Prima, maar waarom reageer je dan steeds op mij? Want dat zijn 0 argumenten voor iemand als ik die vooral kijkt naar hoe Intel er nu voor staat en wat zij de komende jaren gaan doen. Inhoudelijk, over hun keuzes en strategien, en tussenresultaten (Intel 7, Intel 4), niet enkel over hun roadmaps, wat je me steeds opnieuw voor de voeten legt dat ik dat wel zou doen enkel op beloftes en roadmaps. Roadmap is simpelweg een kapstok om daar vervolgens op in te zoomen. Maar blijkbaar is dat zo'n beetje het verboden woord hier. Dus het zal wel. Einde discussie roadmaps.
Je leest niet goed, want ik heb nergens beweerd dat het niet gaat gebeuren.
En jij schrijft dan niet goed:
"Het probleem dat ik heb met jouw voorstelling van zaken is dat het puur gebaseerd is op beloftes."

puur op basis van beloftes?; nee dus, dat heb ik meermaals uiteengezet dat dat niet zo is

"Dus waarom zou ik dan zomaar geloven dat ze vanaf nu opeens alles goed gaan doen, of in elk geval voldoende om weer aan te haken?"

Zomaar geloven. Je stelt het zelf zwart/wit en dan mag ik het niet hebben over dat je niet gelooft.

Begrijp je het probleem van de richting van de 'discussie'? Het is gewoon een wellus-nietus met extra woorden.

Want als ik even terugga stel ik nergens dat Intel alle roadmaps gaat halen, maar dat ze aan het versnellen zijn tov 14nm. En dat de 5N4Y mooie resultaten boekt, maar nergens pretendeer ik dat ze 20A in productie gaan nemen dit jaar; er is een duidelijk verschil tussen een proof of concept of Manufacturing Ready (stomme marketing-term) en af; als in klaar voor de klant. Ik bedoel, Intel 4 is pas hun eerste node met EUV, en als dat in 2024 naar de desktops komt zie ik dat als een prima snelheid qua innovatie en technische vooruitgang. Bovendien, Intel 18A zou "Manufacturing Ready" moeten zijn in 2024, maar dat is natuurlijk nog een lange weg naar productie. Dat Intel 2025 al weer de beste wil gaan zijn, geen idee, maar dat is dan ook geen vereiste voor mij, sterker nog ik denk dat dat sowieso niet voor 2027 gaat zijn dat we wat meer weten over High NA EUV in productiechips en hoe hard dat zich gaat uitbetalen voor Intel. De beste zijn is iets anders dan het gat met de concurrentie verkleinen, dus daar doe ik dan ook geen uitspraken over, wanneer en of ze weer de beste worden.

[Reactie gewijzigd door A Lurker op 23 juli 2024 12:17]

Want als ik even terugga stel ik nergens dat Intel alle roadmaps gaat halen, maar dat ze aan het versnellen zijn tov 14nm.
Je blijft de term 14 nm gebruiken, terwijl dit niet de huidige naam van de node is en het gebruik van nanometers eigenlijk nergens meer op slaat (dit zijn al heel lang slechts marketingtermen die geen relatie meer hebben met de daadwerkelijke grootte van structuren op de chip). Intel 10 is de huidige naam.

De gigantische vertraging met Intel 10 is een ramp geweest voor Intel, die voorbijgestreefd is door AMD. Dus als ze niet (flink) versnellen ten opzichte van Intel 10, dan raken ze hopeloos achter en is het wellicht het einde van Intel (zoals het nu is).

Maar de belofte van Intel is niet om het beter te doen dan de rampzalige Intel 10, maar om het leiderschap weer over te nemen, chips voor anderen te maken, etc.

Ik zie op dit moment echter niet eens hard bewijs dat ze het beter doen dan bij Intel 10. Ze zijn 6 generaties blijven steken op Intel 10. Ze zitten nu op 3 generaties van Intel 7, zonder een succesvolle nieuwe node daarna. Dus hoe kun je dan nu al concluderen dat het beter gaat? Pas als ze een duidelijk betere chip afleveren op Intel 4 of kleiner, voordat de 6 generaties om zijn, kun je zeggen dat ze het duidelijk beter doen.
leuke discussie...

wat hier nog even vergeten wordt omtrent de "Intel doet nu wel effectief" 5 nodes in 4y.

intel 4 is niet echt een node :) het is gewoon EUV op hun 7
intel 3 is geen echte node, het is een densitiet verhoging door extra EUV lagen
20A is wederom enkele lage en is de start van de gate aanpassing (die TSMC in 2 stappen wil doen terwijl intel in 1 stap)
de 18a en 14 a zijn ze nu al aan het verschuiven, wat in 18 zat zit nu in 14 maar de 18 blijft wel staan op roadmap...18 was de effectieve "node" en die zit nu dan ineens op 14....(zie de aankondiging van het licht)

ja ik weet het andere noemen dat dan 5-4nm maar het geeft aan dat marketing zeer ruime termen gebruikt

daarbovenop, komen er amper producten op hun nodes... beetje op 4 beetje op 3.
op 4 zit zelfs geen volume, want enkel ML zit er op en deze ML tiles oplossing komt voor 75% van TSMC tiles. 3 "zou" een andere volume balans hebben met sierra en granite.. waar sierra niks anders is dan een low ghz giga multi core chip, dus daar is ook niet de "verbeterde prestatie" uit te halen. Enkel Granite zal vergeleken kunnen worden met huidige Xeon lineup. 20A zou dan weer voor de consumenten versie zijn... maar daar komt nu al info dat het geen mass volume is in 2024... ja ze halen de "bring to market" marketing term..... je kan het paperlaunch noemen :P

dus al bij al, ja ze volgen een roadmap (maar niks met eigenlijke nodes) die ze zelf technisch naar believen verschuiven. Zolang ze geen massa producten en volume op iets uitbrengen via hun eigen IFS is en blijft het voor mij "marketing lucht"

[Reactie gewijzigd door d3x op 23 juli 2024 12:17]

Absoluut eens hoor met veel van je punten. Hun marketing doet goed hun best.

Ik heb geprobeerd uit te leggen dat ik daar voorbij kijk maar ook wel naar de technologische stappen die wel lukken. Chiplets, EUV, High NA in de toekomst. Dat zijn de juiste keuzes mijns inziens ivm de monolithische 14nm chips van weleer. Waar em dat dan in zit dat het toen alsmaar niet lukte om naar Intel 7/10nm te gaan (ook niet met technieken als multiple patterning bij gebrek aan EUV) weet ik niet, maar ik denk dat Gelsinger aan het roer een goede is. Ik heb er alleen geen hard bewijs voor. Wel weet ik dat de rek er zonder EUV bij lithografie wel uit is. Het is een benodigde transitie DUV -> EUV -> High NA EUV.

Ik ben daar dus blijkbaar optimistischer in dan een aantal hier, qua toekomst van Intel. Prima toch.

[Reactie gewijzigd door A Lurker op 23 juli 2024 12:17]

@d3x

Dat de node-namen eigenlijk alleen maar marketing-terminologie zijn maakt het inderdaad erg lastig om te beoordelen wat ze überhaupt eigenlijk beloven. We hebben eigenlijk geen idee hoeveel verbetering Intel 3, 20A, 14A en 10A nu eigenlijk echt gaan brengen.

Het lijkt inderdaad zo te zijn dat Intel nu kleinere stapjes zet per node, terwijl ze bijvoorbeeld met met Intel 10 en Intel 7 in 1 keer een grote stap maakten. Het probleem met een grote stap is dat er dan veel fout kan gaan. Als 1 van de verbeteringen die ze willen doen niet lukt, dan gaan de verbeteringen die wel lukken ook niet in productie. Dus wat dat betreft juich ik toe dat ze wat kleinere stapjes nemen.

Overigens zien we bij TSMC ook dat ze nadat een node zogenaamd af is, nog veel details verbeteren. Zo is N6 een verfijning van N7 en N4 een verfijning van N5. En de eerste versie van N3 is feitelijk mislukt, waarna ze nu een verbeterde versie uitbrengen als N3E.

@A Lurker

Zolang Intel geen producten op Intel 4 uitbrengt die daadwerkelijk een significante verbetering zijn ten opzichte van Intel 7, zie ik het (nog) als een grotendeels mislukte node. Gezien de productieplanning die ze ook recent hebben gepubliceerd, waar pas in 2026 echt stevig op Intel 4 wordt geproduceerd, lijken ze te denken dat ze die node in 2026 wel op orde hebben. Maar ik vindt het wel opvallend dat ze voorlopig nog vrijwel alle productie op Intel 7 plannen, wat suggereert dat ze ook in 2024 en wellicht in 2025 nog desktop- en server-CPUs massaal op Intel 7 produceren.

Dat vind ik toch geen teken dat ze voor 2026 al echt een ommekeer hebben.
Je blijft de term 14 nm gebruiken, terwijl dit niet de huidige naam van de node is en het gebruik van nanometers eigenlijk nergens meer op slaat
Oh leuk, nu wordt het zelfs een semantische discussie. De 14nm is nu eenmaal de nodenames die gebruikt zijn bij Skylake etc. Dat ze die later hernoemen naar Intel 10, daar kun je toch wel doorheen kijken? En gewoon even kijken naar mijn opsomming hierboven over alle generaties en hun toenmalig designated node; 14nm/14nm+/14nm++/14nm+++.

Wie zegt dat ik de huidige node benoem? Feit is dat ze 6 generaties op 14nm/Intel 10 zaten, 3 generaties op Intel 7 uit mijn hoofd, en dit jaar Intel 4 doen voor desktops, waar hun eerste Intel 4 op mobile al gedaan is met chiplets en op EUV. Maar alsnog een teleurstelling in jouw hoofd. Prima, maar dat is de niet de doelpaal waar we begonnen, waarin jij stelde dat ik puur op beloftes van Intel mijn opvattingen heb. En dat ze niet aan het inlopen zijn, of gaan de komende jaren. Daar ben ik nog steeds van overtuigd dat dat wel zo is; na 5NY4 danwel in 2027 staat Intel er relatief beter voor ivm concurrentie dan nu.

Ik denk dat je het hele punt van mij intussen allang kwijt bent. Want je gooit het dan op dat je hard bewijs wil, maar ik denk dat je hard bewijs enkel achteraf krijgt dus dan kun je beter een paar jaar wachten met reageren op mij.

Anders had je ook geen drogreden nodig bij
"Dus waarom zou ik dan zomaar geloven dat ze vanaf nu opeens alles goed gaan doen, of in elk geval voldoende om weer aan te haken?"

Prima dat je dat vindt, maar wederom, waarom moet dat allemaal hier, je lult tamelijk langs mijn standpunten heen, weigert bewijs aan te dragen voor vertragingen omtrent Intel 4. En lijkt mijn opmerking over 5N4Y op schema steeds maar te interpreteren als "alle nodes binnen die periode hebben geen enkel kwartaal vertraging".

Als je nog steeds niet snapt dat er een wereld van een verschil is tussen 4 jaar vertraging tijdens 14nm/Intel 10 en een kwartaal of 2 op Intel 4 (nogmaals, kom gerust met bronnen die stellen dat het allemaal veel vertraging heeft maar die wil je niet geven gezien je eerdere antwoord op mijn verzoek voor bewijs hieromtrent); dan houdt het hier op voor mij.

[Reactie gewijzigd door A Lurker op 23 juli 2024 12:17]

Ik snap je ongeduld, Intel moet van heel ver komen om hun achterstand op TSMC in te halen. Maar de eerste test-wafers waren niet verkeerd, en de opbrengst (yield) is inmiddels ook op orde. Intel en AMSL hebben nauwe banden, en dat helpt. Als je Intel z’n huidige 10nm chips corrigeert voor de process node (tussen de 20 .. 30% in energie), lopen ze wat ontwerp niet zo gek ver achter meer.

Zaterdag hoorde een interview met Gina Raimondo, de Amerikaanse staatssecretaris in reactie op de 1.5 miljard voor Global. En zij zei letterlijk dat defensie een hele belangrijke reden is. Op dit moment is defensie nog afhankelijk van TSMC chips uit Taiwan, en dat is een probleempje. Defensie wil ook chips van Nvidia, maar dan wel op Amerikaanse bodem geproduceerd. Kortom, Intel mag niet falen.

Hier een stukje van dat interview, het hele interview is op de podcast CNBC Closing Bell Overtime for 23 februari.
https://www.cnbc.com/vide...e-chip-manufacturing.html
Maar de eerste test-wafers waren niet verkeerd, en de opbrengst (yield) is inmiddels ook op orde.
Dan ga je er vanuit dat hun beweringen kloppen, maar zowel TSMC, Samsung en Intel kunnen we helaas niet vertrouwen omdat ze nogal creatief met de waarheid omgaan. Dus ik geloof het pas als er daadwerkelijk producten uitkomen (of juist niet), want dan moeten ze met de billen bloot.

Als Intel 4 volgens Intel fantastisch is, maar Meteor Lake een prestatieregressie heeft, dan geloof ik de feiten en niet de beweringen.
Intel en AMSL hebben nauwe banden, en dat helpt.
Uiteraard hebben alle chip-fabrikanten nauwe banden met ASML, dus je doet nu alsof Intel hierin een voorsprong heeft, waarvoor ik geen bewijs zie.
Op dit moment is defensie nog afhankelijk van TSMC chips uit Taiwan, en dat is een probleempje. Defensie wil ook chips van Nvidia, maar dan wel op Amerikaanse bodem geproduceerd. Kortom, Intel mag niet falen.
TSMC, Samsung en Intel hebben allemaal fabrieken in de VS en zijn bezig met nieuwe fabrieken. Dus wederom doe je alsof Intel iets unieks doet, terwijl hun concurrenten dit net zo goed doen.
Ik snap je reactie. Heb zelf ook wel eens met marketing mensen meegereisd, en dan zit je als ingenieur met kromme tenen te luisteren hoe verkopers een mooi verhaal kunnen ophangen dat weliswaar niet geheel onjuist is, maar wel in een totaal vertekende context gebracht. Wij techneuten zijn te eerlijk om het ver te schoppen in deze wereld;).

Desalniettemin, maakt Intel wel degelijk grote voortgang, en met name doordat ze veel steun van ASML krijgen. Dat heb ik niet alleen via media vernomen. En nee, het is niet waar dat Samsung en TSMC de meest geavanceerde nodes naar de VS brengen. TSMC bouwt een 3nm fabriek, kan de Samsung cijfers niet vinden, maar 17miljard is niet genoeg voor de meest geavanceerde nodes.
De 13th en 14th gen chips zijn wel "anders".
i7 13th/14th
16 vs 20 core,s.
24 vs 28 threads.
30 vs 33mb l3 cache.

Performance verschil is minimaal maar zeker aanwezig zoals single core performance verbetering.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 12:17]

Ik denk dat je het verschil tussen een model/cut en een chip niet begrijpt. Intel verkoopt voor hun 13e generatie bijvoorbeeld 25 verschillende desktop-modellen, maar dit zijn maar 3 verschillende chips. Ze kunnen dezelfde chip verkopen met verschillende hoeveelheden cores, threads, cache, power limieten, clock-snelheden, overclock-opties en een in- of uitgeschakelde grafische core.

Voor de 14e generatie verkopen ze i7 processoren met een configuratie die ze bij de 13e generatie nog als i9 verkochten. Zo bieden ze klanten bij dat model meer waar voor hun geld, maar het is geen andere chip, maar slechts een andere configuratie van dezelfde chip.

[Reactie gewijzigd door Ludewig op 23 juli 2024 12:17]

En toch blijft het een "ander" processor.
En vertel eens waar het onderscheid zit met andere fabrikanten zoals Amd?
Beter goed afkijken dan slecht uitvinden !
daan rebranden ze dezelfde chip 4 maal en verkopen ze als een nieuw product.

maar als Intel dit doet zijn het bandieten?
AMD doet het nog slimmer dan Intel, want zij zijn nog beter in het hergebruiken van chips om daarmee meer modellen te maken, dankzij het gebruik van chiplets, waar Intel door hun monolitische aanpak meer verschillende chips moet ontwerpen en produceren.

Daar is ook helemaal niks mis mee.

Maar waar het hier om gaat is dat Intel de afgelopen jaren teveel problemen heeft gehad met het uitrollen van nieuwe chips of nieuwe procesnodes. Daardoor bleven hun producten achter bij de concurrentie.

Ze moeten daar echt (weer) beter in worden en ook leren van de innovaties van AMD, want bijvoorbeeld op het vlak van chiplets en 3D-cache hebben ze echt lopen slapen.

[Reactie gewijzigd door Ludewig op 23 juli 2024 12:17]

TSMC volgt later met high NA volgens mij die gaan heus niet achterblijven intel is simpel weg iets eerder
Dat Intel eerder is met high NA, zou dan toch ook die kritiek moeten doen verstommen zou je denken. Maar het sentiment Intel speelt niks klaar blijft in online chat maar populair. Als je nou hun snelle processors energiehonger zou blijven dissen, dat is voorlopig nog prima }>
Ik heb nog geen cpu gezien van Intel die energie efficiënt is de laatste jaren. Dat duidt erop dat hun process node nog niet optimaal is. Ze proberen met extra vermogen meer prestaties neer te zetten, maar dat is gewoon t verbloemen van hun probleem. Ik neem hun plannen niet zo serieus totdat ze echt stappen maken.
Sinds gen 12 klopt dat vooral voor de i9 en ietswat voor de i7. De i5 is juist best zuinig, vooral als je ook kijkt naar idle gebruik.
ja en de laptop variant is nog zuiniger,

Net als een fiat500 zuiniger is dan een audi A4,

Als je een chip helemaal terug schroeft dan wordt hij vaneigens zuinig. Het gaat er juist om dat je een performance chip hebt die nogsteeds zuinig kan zijn en dan heb je een goed design en procede nodig zoals AMD dat heeft.
ze willen de enduser liever wat meer performance geven,
kost enkele € per jaar maar als je top wilt, moet je het prijs kaartje erbij nemen .

om maar even erbij te schetsen , in full power mode haalt intel meeste cinebench.
2000 punten meer voor 100w extra consumptie .

7950X Stock 38.420 235W
7950X 80W 26.019 82W
13900K Stock 40.411 334W
13900K 80W 26.047 80W

ga je ondervolten zie je net iets meer CB voor 2W minder verbruik.

in mijn ogen is deze 13900k superieur , je kan er betere performance mee halen bij lagere voltage en de beste performance bij full power (hier staat dan wel meer verbruik tegenover)
Vergeet niet dat 100 watt bijna 50% meer power is.

Dat kun je niet een beter design noemen voor de paar % snelheid gain
De CPUs kunnen best efficiënt zijn maar om niet net achter AMD te liggen kwa performance klokt Intel ze zo hoog als ze kunnen en daardoor schiet het stroomverbruik door het dak.

Dat is wel vaker gebeurt, zoals AMD met sommige videokaarten zoals Vega. Vega staat ook bekend als gigantisch inefficiënt maar dat valt heel erg mee, met bijna geen prestatieverlies kan je het stroomverbruik heel erg veel verlagen (en in combinatie met wat memory tuning kan je zelfs meer prestaties krijgen) maar ze zijn standaard gewoon waardeloos ingesteld.

Deze Intel CPUs zijn hetzelfde daarin (ookal kan je hier vgm niet meer prestaties krijgen). Dat maakt de producten natuurlijk niet beter maar het is niet per se een probleem van de process node of zelfs de CPU architectuur.
hoezo zou dat de kritiek moeten verstommen als server lauches worden uitgesteld? Dat geeft aan dat het nog steeds niet lekker loopt dus nee nog genoeg problemen daar. Als ze nou eens op gang komen met nieuwe server lauch producten dan denk ik dat de kritiek wel zal afnemen

[Reactie gewijzigd door atthias op 23 juli 2024 12:17]

Misschien kun je het nog eens proberen met leestekens. Dit gebrabbel is niet te begrijpen.
goed punt iets beter zo hoop ik
Een hele vooruitgang ja! Met dank!
Dat eerder met high-NA is weer een belofte van gouden bergen. De praktijk is dat Intel zijn nieuwste Emerald Rapids-processoren wederom op 10nm produceert en de tijd dus stil lijkt te staan. Nog niet eens EUV, en ze lopen al op te scheppen over high NA? Daarom verstomt de kritiek niet.
de definitie "later" kan pas worden uitgesproken als er effectief producten beschikbaar zijn met een bepaalde technologie... zoniet is het enkel marketing goed weer show.
chiplets zijn wat mij betreft vrij overrated. Ik zie nog altijd liever een mono design omdat de idle power draw veel lager is.
Ik ging net hetzelfde zeggen, naast het feit dat chiplets ook problemen kunnen hebben met bandbreedte.

Daarmee ondanks dat Intel lang op een “oud” procedé vast gezeten is dat ze AMD altijd bleven bijbenen en nu dat ze op een kleinere node zitten terug ingehaald en voor de meeste gevallen beter zijn.

De grote vraag gaat zoals bij nVIDIA op HBM zitten. AMD zit vast zelfs met hun late overstap naar DDR5, de volgende generaties gaan echt tenminste een 16-64G geheugen moeten inbakken alvorens een L2 RAM te gebruiken. Apple heeft hier het voorbeeld van nVIDIA gevolgd, en de voordelen zijn bekend.
jij vergelijkt GPU met CPU met andere non x86 technieken en smijt wat consumenten platformen door elkaar.... hopeloos dus.
AMD heeft al jaren testen gedaan met HBM op verschillende producten, zijn niks laat met ddr5, zij hebben nu producten met echte shared memory tussen cpu en gpu https://www.anandtech.com...transistors-shipping-h223 (zoals apple in hun M chips), nvidia moet het nog op de markt brengen, dus wat komt er zogezegd van nvidia?????

intel zit niet op ene kleinere node, wat jij meeneemt is marketing termen van node namen... het gaat em uiteindelijk over EUV lagen momenteel. trouwens 75% vna intel laatste technologie komt vna TSMC, enkel de minieme P core vna ML komt van hun eigen fabs.

INel bijblijven benen met AMD op oud proces? heb jij al eens gekeken wat ze verbruiken met hun beperkt aantal P cores om bij te benen? heb je al eens gezien hoeveel e-cores ze moeten toevoegen om bij te benen in hun multi core proces? met alle gevolgen vandien? leuke statements maak jij.

chiplets hebben geen problemen met bandbreedte. Een mono mega core design moet ook al geheugen layout splitsen om alle cores te voorzien (kijk maar naar de laatste intel high core count designs)
is goed , blijf dan maar voor altijd op je 9900 hangen...

idle power design heeft trouwens9 tege niks te maken met chiplets, het heeft te maken met communicatie tussen dies en hoe de ene al of niet verdere "power" reductie kan doen. In mono blocks is alles sterker aan elkaar "gelinkt" en dus makkelijker in geheel in een bepaalde "status" te brengen of op andere "drager" om zichzelf in een andere "status" te kunnen zetten. Het verbruik verschil van dit alles is marginaal. In 1e generatie zat er op de AMD wel wat verschil op (tsja uw favoriete en enige merk moet er nog goed en wel mee beginnen), maar ondertussen is de interconnect en het status systeem al veel optimaler.

idle power draw zit vandaag de dag in PCI-e en geheugen bus die op zichzelf veel meer verbruiken. Genoeg testen te vinden dat de core op zichzelf in een chiplet heel zuinig is in idle. Wat je ook dus ziet als je je eigen gen9 tegen laatste gen zou zetten van intel die de ddr5 heeft en laatste pci-e generatie..

[Reactie gewijzigd door d3x op 23 juli 2024 12:17]

is goed , blijf dan maar voor altijd op je 9900 hangen...
Tot er iets is dat ik een accptabele optie vind zeker. Hij doet immers alles nog prima en bespaart me dus dagelijks geld uit. Battlefield 2042 een zeer cpu heavy game nog 160 fps op 1440p dus heb ik het nodig? NOPE !
En wat intel tot nu toe gebracht heeft is ook niet om over naar guis te schrijven. Ik ben overigens wel benieuwd wat hun chiplet design gaat doen qua idle en low load power omdat ze net iets anders stacken. Het kan positief uitvallen of juist negatief.
idle power design heeft trouwens niks te maken met chiplets, het heeft te maken met communicatie tussen dies en hoe de ene al of niet verdere "power" reductie kan doen. In mono blocks is alles sterker aan elkaar "gelinkt" en dus makkelijker in geheel in een bepaalde "status" te brengen of op andere "drager" om zichzelf in een andere "status" te kunnen zetten.

idle power draw zit vandaag de dag in PCI-e en geheugen bus die op zichzelf veel meer verbruiken. Genoeg testen te vinden dat de core op zichzelf in een chiplet heel zuinig is in idle.
Je spreekt jezelf tegen. chiplets = dies. Dus je zegt precies wat ik zeg. Een chiplet = meerdere dies cpu heeft meer idle power draw.
En de core kan prima zuinige of zuiniger zijn maar als moederbord en IO daar een stokje voor steken dan is het geheel dus gewoon minder zuinig en ik hoop dat ze dat weten te verbeteren. Tot die tijd is een mono die zuiniger.
De rede erachter is niet relevant het enige wat relevant is dat ene mono cpu zuiniger is in idle en low load scenario's.
nee zoals gewoonlijk doe jij een rondje AMD bashen, tiles en IO geven marginaal verschil in verbruik, het zit in de andere onderdelen (buiten de eerste generatie tile-io communicatie en dus vooral alle externe dingen), vooral bij platform aanpassing zie je ineens de powerbump.

om even te staven, wat resultaten van je favoriete en enige valabele merk :Y)
review: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K
deze zegt eigenlijk al genoeg, maar soit. dan maar even verder richting de nieuwere
review: Intel 13th Gen Core Raptor Lake - Core i5 13600K, i7 13700K en i9 139...
review: Intel Core i5 14600K, Core i7 14700K en Core i9 14900K

tot dusver het statement tiles zorgen voor hoger idle verbruik vs mono....ze hebben er allemaal last van omdat het daar vooral niet van komt 8-)

[Reactie gewijzigd door d3x op 23 juli 2024 12:17]

Nee zoals gewoonlijk probeer jij een puntje te scoren.
Ik geef gewoon de flaws aan die mensen als jij blijven accepteren of omdat je een die hard AMD fan bent en blind ben voor alles wat slechter is aan de rode kant of omdat het toevallig niet in jouw uisacase cvalt of jij extra kosten accepteerd voor wat voor een reden dan ook (velen betalen immers niet zelf de stroomrekening... Overigens "bash" ik Intel net zo hard voor alles wat ze fout doen/deden maar mensen als jij KIEZEN ervoor om dat niet te zien. Zelfde voor Nvidia trouwens.

En 2/3 links die jij deelt bevestigen alleen wat ik zeg dus wat probeer je te laten zien?

En het feit dat de 14th gen chips een hoog idle hebben is duidelijk een error ergens omdat het gewoon een 13th gen chip is. Daar gaat dus simpelweg ergens iets niet goed. Daarom gebruik ik ook nooit data van tweakers. Hoe goed de intentie ook er mist altijd data of er gaat te vaak iets verkeerd. De echte reviewers doen dat gewoon een stukje beter en consistenter.

Maar geniet van je gevoel van superioriteit met jou valt toch niet te redeneren/communiceren..

[Reactie gewijzigd door computerjunky op 23 juli 2024 12:17]

wuut.. jij kan echt goed charts lezen... de links tonen perfect aan dat je favorietje elke generatie meer verbruikt terwijl ze nog op een monolith zitten... het verschil dan wel? ze hebben andere pci-e chipsets en geheugen snelheid aanpassingen...

7700k 0.06 (dd4 2400 - pci-e 3)
10600k 1.87 (ddr4 2666 - pci-e 3)
11600k 3.4 (ddr4 3200 - pci-e 4)
dan een iets andere dieplakker
12600k 5.07 (ddr4/5 - pci-e 4/5)

we zullen dan de 14th design error maar weglaten?

en ja die charts tonen aan dat tiles + IO ook meer kunnen gebruiken als het niet juist zit, kijk maar van de 5000 serie naar de 3000 serie, maar dat ligt daarom dus niet alleen aan tiles design, het heeft met interconnects etc te maken. Je basis statement monolith dies heeft dat probleem niet is dus gewoon FOUT want verbruik is ook meer dan verdubbelt. ALs je in laatste generaties cpu mobo+cpu neemt lopen ze niet ver meer uit elkaar. enkel oude generaties met oude IO verbruiken minder.

[Reactie gewijzigd door d3x op 23 juli 2024 12:17]

Als het zo goed gaat met Intels eigen productie waarom wordt 3nm procedé uitbesteed aan TSMC ?
Ze hebben recent tientallen miljarden uitgegeven aan nieuwe fabrieken. Helaas duurt het vele jaren voordat die af zijn, de machines geleverd en geïnstalleerd en afgesteld en de productie kan beginnen. Iets in een test fab maken is stap 1 stap 2 is de fab hebben en daar zijn ze nog volop mee bezig.
Volgens mij zit TSMC al een tijd op EUV. Intel zet nu vol in op de EUV inhaalslag met High-NA. Wat mede zichtbaar is door de 10A die maar 1 jaar later staat gepland dan 14A. Dit realiseren zal een uitdaging worden maar serieus zijn ze zeker.
Intel heeft de laatYe 10j veel beloofd, maar echt weinig van hun beloften kunnen inlossen. We krijgen weer de ene na de andere roadmap... Waar waarschijnlijk amper iets van gerealiseerd zal worden.
Misschien moet je dan iets meer bij de tijd komen! ;)

Intel heeft inderdaad de nodige problemen gehad met hun 10nm nodes, 2017-2022 volgens mij, en daardoor de nodige schade opgelopen. Maar sinds Pat Gelsinger weer aan boord is en Intel Foundry Services heeft opgezet is Intel weer in de lift naar boven met hun 5Y4N belofte, in 5 jaar 4 nieuwe nodes introduceren en dat gaat toch wel redelijk volgens planning.
Volgens mij hebben we de resultaten van die zaken nog niet mogen 'proeven'?
Intel 4 is er al en intel 3 zal productie binnen enkele maanden starten.
Intel 7: Alder Lake, Raptor Lake.
Intel 4: Meteor Lake.
het is 5N4Y : 5 nodes in 4 year
Uit de presentaties van afgelopen week is 1 ding in ieder geval duidelijk. Het idee van Intel Foundy wordt serieus doorgezet.

Lijkt ook dat Foundry moet groeien, met onder andere AI. Ze kunnen hun fabrieken niet vullen met eigen ontwerpen. De markt voor x86 chips zal waarschijnlijk de komende jaren vlak zijn. In AI toepassingen wordt het niet gebruikt en in server en straks op laptop concurrentie van ARM.
Niet gebruikt in server kan je natuurlijk niet direct stellen, al die AI capaciteit die nu geïnstalleerd wordt, zal veelal geïnstalleerd worden met x64 cpu's in de nodes, en daar lijkt Intel nog altijd een graantje mee te pikken. Ik vraag me eigenlijk wel af wat Intel daar exact brengt, dat zowel Nvidia in hun DGX ranges voor Intel kiest, maar ook bijvoorbeeld Microsoft in hun Mi300 Azure instances. Mogelijk hun on-chip acceleratoren? Je zou toch eigenlijk verwachten, dat zeker in dat laatste geval, dat AMD graag zowel de cpu's als de gpu's geleverd zou hebben.

Dat zal Intel zeker niet zoveel opleveren als dat het bijvoorbeeld Nvidia oplevert, maar zolang de grote cloudproviders in ieder geval deels Intel blijven kiezen voor hun Ai datacenter nodes pikt Intel in ieder geval een graantje mee.
Nvidia heeft ook al ARM based datacenter cpu's werd ik laatst op gewezen. Als de gpu de hoofdattractie is voor steeds meer toepassingen, kan dat daar snel populairder worden, om dan alle hoofdbestanddelen van Nvidia te nemen.
Die hebben ze inderdaad ook, denk aan de Grace cpu, en daarnaast o.a Grace Hopper GH200 cpu / gpu combo, maar voor zover ik weet zijn die laatste nog niet leverbaar, behoudens gebruik in hun eigen supercomputer (ik meende GA in Q2 / H2 2024) en tot die tijd is voor zover ik weet alles wat Nvidia verkoopt qua H100/A100 DGX nodes momenteel Intel. Maar dat zal dus wel gaan veranderen.
ARM heeft specifieke toepassingen. Als je enkel de GPU nodig hebt en de I/O dan kun je inderdaad ARM (of zelfs DPU) gebruiken. Ook als je zelf super-optimaliseert of lage rekenkracht maar enorm uitspreidende toepassingen (denk nginx als proxy moet schalen naar miljoenen hits en 100G+ bandbreedte)

Het overgrootste deel van de bedrijfswereld wil gewoon SQL databases draaien en er een GPU voor de Windows VDI of misschien voor de LLM koppelen. Het is goedkoper om een nieuwe server te kopen dan een nieuwe programmeur aan te nemen om een paar euro aan energie te sparen.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 12:17]

? De huidige 3nm werd in 2019 beloofd voor 2025 en is er al sinds eind 2023 .
4nm was voorspeld 2022 en was begin 2022 .
7nm was niet veel anders, 10nm liep vertraging op.
Hun roadmap is momenteel accuraat en on target tegenover die van TSMC en Samsung dat nu al meer dan een half jaar achterstand hebben op hun volgende node.
Ik denk dat x86 eigenlijk sinds 2j geleden al ten dode geschreven is... x64 voor servers, AI chips en misschien wat high end computing... Gelukkig voor Intel zijn dat bijna allemaal enorme groeimarkten indien ze hun posities niet blijven verliezen tov AMD
Een vraagje aan de Tweakers gemeenschap (de process experts): Ik maak analoge ontwerpen (data converters) in deze process nodes, en mij valt op dat met name onder de 5nm ruis (stroom / spanning fluctuaties) enorm toenemen. De ruis-gamma (thermal noise access factor https://www.epfl.ch/labs/...V_UMW04_Christian_Enz.pdf) is veel groter dan 1 onder de 5nm.

Die ruis moet heel hoog zijn in 1nm lijkt mij. Maar weet iemand waarom? En betekent dit niet dat zelfs in digitale circuits er random fouten ontstaan? Met name bij deze hele korte kanalen?

[Reactie gewijzigd door elteck op 23 juli 2024 12:17]

Weet er niet alles van, maar voorheen maakte men zo'n chip plat (in 1 laag), en met nm gaf men dan de lengte aan van eoa feature in dat platte vlak.
Nu maken ze het niet meer plat, maar met meerdere lagen. Met "nm" wordt dan niet meer de werkelijke feature lengte aangegeven, maar wat de feature lengte zou zijn bij een op eoa manier equivalente platte versie (waarbij marketing ook de nodige vrijheid neemt om dat mooi te laten lijken). Vandaar ook dat het in de titel tussen aanhalingstekens staat overigens.

Waarom die ruis toeneemt bij kleinere features; door quantum effecten veranderen elektronen spontaan steeds van positie. Daardoor komen er altijd "ongewenste" elektronen in de gate, waardoor ie altijd deels aan staat. Als elektronen gemiddeld altijd hetzelfde sprongetje maken, heb je daar vanzelf meer last van bij kleinere transistors omdat de benodigde afstand om hem aan te zetten kleiner is.

Wellicht dat je dit alles al wist en op iets anders doelt maar goed.
Dank je voor deze reactie! Ja ik zie aan de transistormodellen dat de versterking efficiëntie (gm/id) veel hoger is voor FINFets omdat in feite er haast geen capacitieve deler meer bestaat tussen de gate en het substraat. Voor de “wrap-around” gate is dat nog beter. Maar je maakt een goed punt, door het “oprollen” van het kanaal is werkelijke lengte langer dan de effectieve planaire lengte.

Ik weet niet helemaal zeker of ik je ruis uitleg goed begrijp: Met gat, doel je op de “dangling bonds” tussen de gate-isolatie en het substraat? Ik heb altijd geleerd dat dat het “flicker ruis” process is, omdat dat voornamelijk laag-frequente ruis veroorzaakt. Dat process manifesteert zich inderdaad als een fluctuerende gate-lading. In hele kleine transistoren manifesteert het zich ook als telegraaf ruis, omdat het zo traag kan zijn dat het net morse-code lijkt.

Waar ik op doel is de thermische (Boltzmann) ruis, die tot zeer hoge frequenties doorloopt. Wij leerden (in de bulk MOS tijd) dat je het kanaal als een weerstand kan beschouwen met de bijbehorende Boltzmann ruis. Voor een plenaire transistor zie je zo’n 2/3 van de kanaal weerstand ruis, voor 7nm is dat 1x de kanaal weerstand ruis, maar kom je onder de 5nm, neemt die ruis sterk toe tot wel 5x de kanaal weerstand ruis. En dat laatste verbaasd mij. Nu is thermische ruis afgeleid voor de statistiek van de grote getallen, mogelijk gaat dat hier niet meer op? Mijn collega's denken dat het door hete elektronen komt (shot-noise), maar dat kan hooguit een verdubbeling verklaren.
Ik omschreef het meer in lekentaal, niet omdat ik dacht dat jij een leek was, maar omdat ik er zelf een ben :) Ik heb er geen studie/werk in gevolgd maar vang hier en daar wat op, en daar maak ik dan een mentaal plaatje van.
Hoe dat tot in verder detail precies zit, en of mijn plaatje ueberhaupt wel klopt, kan ik helaas niet beoordelen, het lijkt erop dat jijzelf daar meer in thuis bent.
Inderdaad. Daarom dat die processors niet analoog zijn, maar zelfs dan DDR5 voegt een reeks kanalen toe tov DDR4 gewoon voor foutcorrectie (80 bit ipv 72 bit voor een 64 bit word (2x32 bit bij DDR5). Ook voor PCIe. Het is aan die hoge bandbreedtes praktisch gezien wat aan een kant als een digitaal signaal verzonden is een analoog signaal dat moet oncijfert worden aan de andere kant.

Dus de ECC wordt alsmaar gesofisticeerd en is nagenoeg verplicht end-to-end. Zelfs de UEFI en software hebben hun deel om fouten te detecteren en autonoom op te lossen (self-healing RAM).
Klopt, maar dan heb je het puur over communicatie. Ik heb het over logische bewerkingen. Je gaat er vanuit dat je een enorme ruis-marge hebt, waardoor de kans dat een vermenigvuldiging het verkeerde antwoord oplevert eens per 100 miljard is. Nu zie je die statistiek onder druk komen: De voeding-spanning neemt af (650mV .. 800mV is heel normaal nu), terwijl de ruis op het logische drempel-niveau (threshold) toeneemt. Tot nu toe maken we ons enkel druk om alpha deeltjes die af en toe de chip verstieren, maar of die aanname nog steeds juist is, vraag ik me af. In de auto zie je al het gebruik van redundante processoren die in lock-step lopen om fouten te kunnen detecteren. Ik vraag me af, of we dat niet nu steeds meer gaan zien?
MCA voor Intel. Dus ECC trekt zich door tot de cache en registers, niet enkel communicatie. Als er ergens een bit omvalt, dan krijg je een verkeerde instructie of een verkeerde staat en dat kan dus gerapporteerd worden.

En natuurlijk betere designs, betere fabricatie, andere doping materiaal en shielding om de ruis naar beneden te brengen om de kans op fouten naar beneden te brengen. MCA is uitgelegd in de handleiding, chip design is waarschijnlijk weinig over te vinden, dat is nu eenmaal de geheimen die ze niet gaan opgeven alhoewel je links en rechts (ik herinner STH had een artikel een paar maand geleden) wel iets kunt vinden. We zijn nog lang niet aan de grens van echte quantum fenomenen, de 5 of 10 nanometer dat ze zeggen is puur marketing, de gate pitch is 51nm, dus ver weg van de 1 of 2 nm waar quantum ruis een probleem wordt.
Intels technieken als EMIB en de Foveros-familie worden gebruikt om meerdere chips of chiplets met elkaar te combineren tot één werkend geheel.
De beschrijving is gewoon wat een chiplet-design is, het verschil bij EMIB is dat er géén interposer wordt gebruikt zoals bij TSMC's CoWoS (horizontaal verbinden), terwijl Foveros een interposer gebruikt wordt om de chiplets te stacken (verticaal verbinden).
Waarom wordt er enkel over Intel en TSMC gesproken?
Samsung is toch ook een grote Foundry (en maakt ook grote stappen richting 2nm chips).
Is het omdat Intel een Amerikaans bedrijf is?
Nee, het gaat over Intel omdat Intel iets doet en er wordt naar TSMC gekeken, omdat TSMC de leider is en bovendien de concurrerende processoren van AMD door TSMC worden gemaakt. Uiteraard is Samsung een vooraanstaand chipproducent.

Op dit item kan niet meer gereageerd worden.