Door Tomas Hochstenbach

Redacteur

Intel in een perfecte storm

Zes jaar Skylake en een falend 10nm-proces

27-03-2021 • 06:00

164

Multipage-opmaak

Inleiding

Komende dinsdag introduceert Intel zijn Rocket Lake-processors, oftewel de elfde generatie Core-cpu's voor desktops. Sinds 2015 zat de processorontwerper zes jaar lang vast aan de Skylake-architectuur. Terwijl Intel probeerde zijn problematische 10nm-proces vlot te trekken, zag het concurrent AMD een waanzinnige revival maken met zijn Zen-architectuur, waardoor Intel zijn vanzelfsprekend geworden prestatiekroon op de desktop kwijtraakte. Nu Intel in 2021 éindelijk een nieuwe architectuur naar de desktop kan brengen, kijken we hoe het zo mis kon gaan en hoe Intel dat in de toekomst wil gaan voorkomen.

Ticks en tocks

Voorafgaand aan de chaos die na 2015 uitbrak, hield Intel zich keurig aan een jaarlijkse cadans voor processorintroducties. Dit schema stond bekend als het tick-tockprincipe, waarbij een tick de ingebruikname van een nieuw productieprocedé was en een tock de introductie van een nieuwe architectuur. Elk jaar werd een nieuwe generatie chips op de markt gebracht, die afwisselend een tick of een tock was. In de praktijk werd meer dan eens afgeweken van een strikte tussenruimte van twaalf maanden, maar in grote lijnen stond het tick-tockmodel jarenlang aan de basis van Intels processoraanbod.

Intel tick tock model
In Intels tick-tockmodel bracht elke nieuwe processorgeneratie afwisselend een nieuw procedé (tick) en een nieuwe architectuur (tock).

Hoe Intel vastliep op Skylake

Hoewel ook de ontwikkeling van Intels 14nm-proces niet zonder slag of stoot verliep, leek er bij de introductie van Intels Skylake-processors in 2015 geen vuiltje aan de lucht. De Intel Core i7 6700K en consorten volgden binnen een maand na de Broadwell-serie, al was die voor desktops zo summier dat je gerust van een generatie overslaan kunt spreken. Door de snelle opvolging leek Intel de opgelopen vertraging echter razendsnel te hebben ingelopen. Voor 2016 stond alweer de eerste 10nm-generatie op de planning onder de codenaam Cannon Lake, wat geheel volgens het tick-tockprincipe een die shrink van Skylake zou zijn.

Alleen, dat gebeurde niet; Intel kreeg het 10nm-proces niet op tijd werkend. Op de details gaan we op de volgende pagina dieper in, maar dit is het punt waarop Intels beproefde tick-tockmechanisme zich tegen het bedrijf keerde. De geplande processorgeneraties waren namelijk steeds afhankelijk van de voorgaande generatie. Een nieuwe architectuur maakte gebruik van het procedé dat bij de generatie ervoor was geïntroduceerd en vice versa. Kortom, het uitblijven van een van beide zou de volledige verdere ontwikkeling van Intels processors blokkeren totdat de stap die 'aan de beurt was' kon worden gezet. Zoals gezegd faalde Intels 10nm-procedé op niet eerder vertoonde schaal, waardoor de geoliede machine abrupt stilviel en Intel vanuit technisch perspectief zes jaar lang dezelfde processors moest proberen te verkopen.

Proces: van voorsprong naar achterstand

Toen Skylake op de markt kwam, verkocht Intel al een decennium lang de snelste processors. Tot de miskleun die AMD maakte met zijn Bulldozer-architectuur, was het verschil in efficiëntie van de architectuur niet eens de bepalende factor. Intel lag structureel een of twee procesgeneraties voor op concurrerende chipfabrieken. Nadat AMD zijn eigen fabrieken in 2009 had verkocht, waren dat destijds TSMC, Globalfoundries en Samsung. Een kleiner procedé betekent snellere, zuinigere en goedkopere chips, oftewel bijna gegarandeerd een betere processor.

Daarbij moet je bedenken dat geen enkel onderdeel in een moderne 10nm-processor daadwerkelijk 10 nanometer groot is. Het ene 10nm-proces is daarom niet per definitie even efficiënt en klein als het andere. Alle chipfabrikanten zijn in de loop der tijd creatief omgegaan met hun procesbenamingen, maar Intel was hier doorgaans toch wat strikter in dan de andere partijen.

De verkleining was bij een nieuwe Intel-node vaak groter dan bij de concurrentie, wat er bijvoorbeeld toe leidde dat Intels 10nm-procedé wat specificaties betreft veel meer lijkt op de 7nm-nodes van TSMC en Samsung dan op hun 10nm-nodes. In onderstaande tabel hebben we dat geïllustreerd op basis van drie referentiepitches, de minimale afstand tussen twee onderdelen.

Intel TSMC Samsung
10nm 10nm 7nm 10nm (LPP) 7nm
Gate pitch 54nm 66nm 57nm 64nm 54nm
Metal pitch 36nm 44nm 40nm 44nm 36nm
Fin pitch 34nm 36nm 30nm 42nm 27nm

Waarom Intels 10nm-procedé heeft gefaald

Hoe kan een bedrijf dat jaarlijks meer dan 10 miljard euro uitgeeft aan research and development de plank zo misslaan? Intel doet daar zelf weinig concrete uitspraken over. De consensus is dat bovengenoemde ambitieuze doelstellingen een belangrijke factor zijn geweest in het falen van de 10nm-node, in combinatie met de technologie die vereist was om een stap van dergelijk formaat te zetten.

Intel 10nm hyper scaling
Intel sprak bij een briefing over zijn 10nm-node zelf van 'aggressive scaling'.

Intels 10nm-node maakt bijvoorbeeld geen gebruik van euv, waardoor het bedrijf halsbrekende toeren moet uithalen om structuren te etsen die klein genoeg zijn. De conventionele immersielithografie werkt met een golflengte van 193nm, wat betekent dat elke wafer meer dan eens moet worden belicht om de vereiste precisie te bereiken. Voor de belangrijkste lagen is bij Intels 10nm-proces viervoudige multipatterning nodig. Bij elke extra stap wordt het risico op defecten groter en daarbij neemt de totale productietijd van een wafer toe.

Intel 10nm coagNaast de traditionele verkleining van de pitches past Intel twee trucs toe om zijn agressieve-scalingdoel te bereiken. De eerste is de toevoeging van coag. Hierbij wordt het contact met de gate boven op de transistor gelegd in plaats van op de zijkant. Toen Intel in 2017 nog met enige trots sprak over zijn 10nm-node, noemde de fabrikant een verkleining van tien procent per cel door alleen deze wijziging. Het productieproces dat nodig is voor coag, is echter uiterst complex. Er wordt een uitsparing geëtst, die wordt gevuld met isolerend siliciumnitride en die wordt vervolgens weer deels weg gepolijst, zodat er een laag overblijft die voorkomt dat de gate sluit.

Intel 10nm dummy gateDe tweede truc heeft te maken met de dummygate aan de uiteinden van cellen, bedoeld om logic-cellen van elkaar gescheiden te houden. Tot en met de 14nm-node lagen er bij aangrenzende cellen dus twee dummygates naast elkaar. Bij het 10nm-proces heeft Intel deze constructie vervangen door één gecombineerde dummygate. Ook dit levert ruimtebesparing op.

De eerste 10nm-chip zal nooit volledig werken

Het lijken juist die extra wijzigingen voor nog agressievere scaling te zijn die Intel de das om hebben gedaan. Vooral de implementatie van coag leidde naar verluidt tot lage yields, oftewel een groot aantal defecten. Pas in 2018, twee jaar later dan gepland, bracht Intel de eerste 10nm-processor op de markt, de beruchte Core i3 8121U met codenaam Cannon Lake. Deze dualcore-laptopprocessor is in zeer beperkte oplage gebruikt voor in China verkochte laptops en een Intel NUC. De gpu in deze chip was in al die gevallen uitgeschakeld. Off the record begrepen we van Intel-technici dat de geïntegreerde graphics in Cannon Lake door alle problemen simpelweg niet werkten en dat ook nooit gingen doen. De belangrijkste reden om deze processor op de markt te brengen, zou bestaan uit eerder gedane beloftes aan investeerders.

Eerste massaproductie pas in 2019

Pas in 2019 nam Intel daadwerkelijk 10nm-processors in massaproductie. Daarbij ging het om de Ice Lake-chips voor laptops, met maximaal vier nieuwe Sunny Cove-cores en opvallend veel lagere kloksnelheden dan de voorgaande generatie. Ondanks de ipc-verbeteringen die de nieuwe architectuur met zich meebracht, waren de prestaties daardoor niet veel beter dan de vrijwel gelijktijdig geïntroduceerde Comet Lake-processors. Die werden nog gebakken op 14nm en hadden zowel hogere kloksnelheden als meer cores dan de Ice Lakes. De laatstgenoemde cpu's waren bovendien slechts in beperkte hoeveelheden verkrijgbaar, zo bleek ondubbelzinnig uit de toevoeging 'limited' in een door Tweakers uitgelekte roadmap van Dell.

Intel Ice Lake
Pas in 2019 kwamen de eerste 10nm-cpu's in grotere volumes beschikbaar.

Het duurde tot het laatste kwartaal van 2020 voordat Intel zijn Tiger Lake-cpu's op de markt bracht, op basis van een verder verbeterd 10nm-SuperFin-procedé. De optimalisaties waren voornamelijk gericht op het verlagen van de weerstand en het mogelijk maken van hogere kloksnelheden. Daarvoor heeft Intel zelfs weer een grótere gatepitchmogelijkheid toegevoegd, waarmee een deel van de gewonnen dichtheid kan worden opgeofferd in scenario's waar die een knelpunt vormt. Het resultaat was in elk geval dat de kloksnelheden fors omhoog konden, terwijl voor zowel de cpu- als de gpu-cores nieuwe architecturen in gebruik werden genomen. In onze eerste review van een laptop met Tiger Lake bleken de prestaties inderdaad fors hoger te liggen in vergelijking met Ice en Comet Lake.

Oorspronkelijk was Intel van plan om ook naast Tiger Lake nog een 14nm-serie te positioneren, die meer dan vier cores zou bieden. Volgens de laatste geruchten heeft Intel die serie echter geschrapt ten faveure van een uitbreiding van Tiger Lake. In een post op Medium bevestigde Intel de komst van '8-core products' al, volgens aanvullende geruchten zou deze refresh naast meer cores ook voor het eerst DDR5-ondersteuning met zich meebrengen.

Architectuur: van Lakes naar Coves

Intels succes voorafgaand aan de 10nm-node was gebaseerd op twee bijna vanzelfsprekend geworden zaken: dat Intel het vooruitstrevendste productieproces bezat én dat het een voorsprong had wat de efficiëntie van de microarchitectuur betreft. De stappen op dat laatste vlak werden door de jaren echter steeds kleiner en overschreden zelden de tien procent per tock, per twee jaar dus.

De Architecture Era

Al ruim twee jaar terug kondigde Intel aan dat de focus verschoof van het vertrouwen op het beschikbaar komen van nieuwe procedés naar het verbeteren van de architectuur. Het nieuwe decennium zou de Architecture Era worden, waarbij hoofdarchitect Raja Koduri voorspelde dat 'we in de komende tien jaar meer vooruitgang zullen zien op het vlak van cpu-architecturen dan in de afgelopen vijftig jaar'. Daarmee zou de Architecture Era de Megahertz Era (1980-2000) en de Multi-core Era (2000-2020) opvolgen.

10nm kwam eerst naar laptops

Oorspronkelijk was het plan dat Cannon Lake de 10nm-dieshrink van Skylake zou worden, waarop weer een tock met een nieuwe architectuur zou volgen. Door de 10nm-problematiek liep het anders. Cannon Lake is in feite overgeslagen, waarbij Ice Lake als eerste 10nm-chip direct met een nieuwe architectuur beschikbaar komt. Op de desktop wachten we nog altijd op de eerste 10nm-processors en Intel heeft juist besloten om een nieuwe architectuur te backporten naar 14nm. Als je het zo bekijkt, volgen Intels processors voor laptops en desktops een omgekeerde route.

We laten de gang van zaken op de desktop even tot de volgende pagina. Intel focuste de uitrol van de eerste generaties 10nm-chips namelijk op laptopchips. Laptopprocessors zijn kleiner en zuiniger. Dat betekent dat ze makkelijker te produceren zijn, een groot pluspunt bij een node die met yieldproblemen kampt, en dat de voordelen van de 10nm-node relevanter zijn. De eerste 10nm-serie die in massaproductie werd genomen, was zodoende Ice Lake, maar naast een kleiner proces maakt die generatie ook direct gebruik van een nieuwe architectuur.

Intel voerde daarbij een wijziging door in de naamgeving van de architectuur. Tot en met Skylake heetten de processors hetzelfde als het type core dat erin zat. Vanaf Ice Lake blijven de processorseries aangeduid worden als Lake, maar krijgen de cores die erin zitten een codenaam eindigend op Cove.

Codenaam Cpu-architectuur Max. cores Gpu-architectuur Productieprocedé
2015 Laptop Skylake-U Skylake 2 Gen9 14nm
Desktop Skylake-S Skylake 4 Gen9 14nm
2016 Laptop Kaby Lake-U Skylake 2 Gen9 14nm
Desktop Kaby Lake-S Skylake 4 Gen9 14nm
2017 Laptop Kaby Lake-R Skylake 4 Gen9 14nm
Desktop Coffee Lake-S Skylake 6 Gen9 14nm
2018 Laptop Whiskey Lake-U Skylake 4 Gen9 14nm
Desktop Coffee Lake-R Skylake 8 Gen9 14nm
2019 Laptop Ice Lake-U Sunny Cove 4 Gen11 10nm
Desktop / / / / /
2020 Laptop Tiger Lake-U Willow Cove 4 Gen12/Xe 10nm
Desktop Comet Lake-S Skylake 10 Gen9 14nm
1H 2021 Laptop / / / / /
Desktop Rocket Lake Cypress Cove 8 Gen12/Xe 14nm
2H 2021 Laptop Alder Lake-P Golden Cove
Gracemont
6+8 Gen12.2/Xe 10nm
Desktop Alder Lake-S Golden Cove
Gracemont
8+8 Gen12.2/Xe 10nm

Een overzicht van Intels belangrijkste laptop- en desktopprocessors.
Voor het eerst sinds 2016 zouden de processorgeneraties voor desktops en laptops aan het einde van dit jaar weer gelijklopen.

Sunny Cove

Sunny Cove was de eerste microarchitectuur die dit principe volgde en werd gebruikt in de Ice Lake-chips. Die processors kwamen in 2019 op de markt, wat het tot Intels eerste nieuwe core in vier jaar tijd maakte. De nieuwe architectuur maakte dan ook een relatief grote sprong in ipc, waarvoor de fabrikant een gemiddeld percentage van achttien noemde.

Volgens Intel was een dergelijke grote sprong mogelijk doordat Sunny Cove dieper, breder en slimmer was dan Skylake. Met dat eerste doelde de processorontwerper vooral op het vergroten van de interne buffers en de L1- en L2-caches. Breder slaat op het grotere aantal rekeneenheden dat per core aanwezig is: tien per core tegenover acht bij Skylake. Bovendien is een aantal van die eu's flexibeler inzetbaar, wat er samen met de grotere buffers toe moet leiden dat de rekeneenheden een groter deel van de tijd daadwerkelijk nuttig bezig kunnen zijn, oftewel dat de utilisation hoger ligt. Tot slot moeten een verbeterde branchpredictor en ondersteuning voor nieuwe instructies de core slimmer maken.

Intel Architecture Day: Sunny Cove

Willow Cove

Een verbeterd 10nm-procedé en alweer een nieuwe architectuur stonden een jaar later aan de basis van de nieuwe Tiger Lake-processors. Intel noemt Willow Cove weliswaar een doorontwikkeling op Sunny Cove, maar de paar veranderingen die de cpu-fabrikant heeft doorgevoerd, zijn wel degelijk significant. Bij Sunny Cove verdubbelde Intel de L2-cache al van 256 naar 512kB, maar elke Willow Cove-core heeft maar liefst 1,25MB L2-cache tot zijn beschikking, ruim een verdubbeling deze keer dus. Op het gebied van beveiliging is de toevoeging van control-flow-enhancement een grote stap, een techniek die overigens ook in AMD's Zen 3-core zit.

Het nieuwe 10nm-proces, dat door het leven gaat als 10nm-SuperFin, rekt daarnaast de v/f-curve van het coreontwerp aanzienlijk op. Daardoor kunnen de Willow Cove-cores veel hogere kloksnelheden bereiken, waarmee de achteruitgang die we zagen bij de eerste generatie 10nm-chips, weer grotendeels ingelopen is.

Intel Willow Cove core

Golden Cove

De laatste officiële roadmaps van Intel lopen tot Golden Cove, de basis voor de 'grote core' in Intels plannen om het big.Little-principe toe te passen in x86-processors. Smartphone-socs op basis van Arm maken al lange tijd gebruik van een combinatie van snelle en zuinige cores, maar na een eerder experiment met Lakefield wil Intel deze technologie met Alder Lake voor het eerst naar de laptop- en desktopwereld brengen.

Over Golden Cove zijn nog weinig details bekend, want Intel heeft er nog geen uitgebreide briefings over gegeven. Alles wat we weten, stamt uit een presentatie die het bedrijf in 2018 gaf. Op de toen gepresenteerde roadmap worden hogere singlethreaded prestaties, verbeteringen op het gebied van AI- en netwerkprestaties, en nieuwe beveiligingsfuncties als voornaamste verbeteringen genoemd.

Intel CPU core roadmap
De recentste roadmap voor Intels cpu-architecturen

De verwaarloosde desktop

Het gat tussen Skylake en de eerste nieuwe architectuur bedroeg in laptopland vier jaar, zagen we op de vorige pagina. Op de desktop staat de teller inmiddels al op zes jaar, maar met de op handen zijnde introductie van Rocket Lake moet aan die lange periode eindelijk een einde komen. In de afgelopen zes jaar bracht Intel echter de nodige nieuwe generaties desktopprocessors op de markt, waarbij het noodgedwongen vastzat aan zowel de Skylake-architectuur als het 14nm-proces.

7e generatie Core: Kaby Lake

Kaby Lake

Introductie: januari 2017
Max. aantal cores: 4
Socket: 1151

Bijna anderhalf jaar na de introductie van de Skylake-processors moest Intel zijn tick-tockmodel loslaten. Destijds trachtte Intel het uitstel van 10nm nog beperkt te houden tot één generatie, waardoor het Kaby Lake als een derde schakel in dat principe presenteerde; na een tick en een tock was Kaby Lake een optimization. In de praktijk waren het vooral hoger geklokte versies van de bestaande line-up.

8e generatie: Coffee Lake

Coffee Lake

Introductie: oktober 2017
Max. aantal cores: 6
Socket: 1151v2

Dit keer duurde het slechts negen maanden voordat er weer een nieuwe generatie desktopchips verscheen. Voor het eerst sinds de Core 2 Quad in 2007 voegde Intel bij de Coffee Lake-serie twee cores toe aan zijn processors, zodat topmodel Core i7 8700K uitkwam op zes stuks. Deze ontwikkeling viel moeilijk los te zien van de eerder in 2017 geïntroduceerde Ryzen-processors, die met maximaal acht cores een ware revolutie in multithreaded prestaties ontketenden. Buiten de toevoeging van extra cores kende Coffee Lake geen significante veranderingen.

Intel Coffee Lake

9e generatie: Coffee Lake Refresh

Coffee Lake Refresh

Introductie: oktober 2018
Max. aantal cores: 8
Socket: 1151v2

De negende generatie Core-processors verscheen exact een jaar later, met opnieuw een uitbreiding van het aantal cores. Voor het topmodel met acht cores én hyperthreading werd de Core i9-naamgeving geïntroduceerd, waar de snelste mainstreamprocessor tot dan toe een Core i7-label had gedragen. Ook nu was er naast de extra cores amper nieuws te melden.

10e generatie: Comet Lake (mei 2020)

Comet Lake

Introductie: mei 2020
Max. aantal cores: 10
Socket: 1200

De periode tot de volgende generatie desktop-cpu's duurde weer wat langer. Anderhalf jaar na Coffee Lake Refresh was het tijd voor Comet Lake. Het type vernieuwing zal je na het lezen van bovenstaande alinea's niet meer verrassen; Intel voorzag zijn topmodel opnieuw van twee extra cores. Bovendien schroefde Intel waar mogelijk de kloksnelheid nog iets op. Topmodel Core i9 10900K kan in optimale omstandigheden boosten tot 5,3GHz, dankzij Turbo Boost Max 3.0 en Thermal Velocity Boost.

De prijs van extra cores

Over de vraag of de stap naar zes cores oorspronkelijk in Intels planning stond, valt te discussiëren, maar alle verdere uitbreidingen van het aantal cores stonden dat zeker niet. Doordat zowel de architectuur als het productieproces in steen waren gebeiteld, waren het toevoegen van meer cores en het maximaliseren van de kloksnelheden echter Intels enige opties om de prestaties te verhogen.

Beide opties verhogen per definitie het stroomverbruik van de processor. Dat valt goed te zien in onderstaande grafiek, waarin we onze stroommetingen tijdens een all-core workload van vijf generaties op een rij hebben gezet. Waar de i7 6700K ten opzichte van zijn voorganger juist zuiniger was, zijn de topmodellen sindsdien met elke generatie meer gaan verbruiken. Bij de Core i9 10900K liet Intel alle remmen los, waardoor het load-verbruik opliep tot bijna tweeënhalf keer dat van de i7 6700K.

2021 en de les van het 10nm-debacle

Intels recentste Architecture Day was geheel volgens het nieuwe normaal een online stream, waarbij de mogelijkheden tot het stellen van vragen uiterst beperkt waren. De vorige editie was nog fysiek en eindigde met een open vraaggesprek, waaraan diverse toptechnici van Intel deelnamen: een uitgelezen kans om te vragen wat de belangrijkste les van het 10nm-debacle was.

Het antwoord was glashelder: het niet langer toespitsen van een chipontwerp op één bepaald productieprocedé. Door de hechte combinatie van opeenvolgende ticks en tocks was Intel tijdens de 10nm-rampspoed niet alleen vast komen te zitten aan een verouderd productieproces, maar óók aan een verouderde architectuur. Intel was haast vleugellam toen AMD een enorme stap zette met Zen.

Procesonafhankelijke coreontwerpen en backports

Toekomstige chipontwerpen moeten volgens Intel veel flexibeler worden, zodat nog relatief kort voor de introductie kan worden besloten welk productieproces gebruikt zal worden. In de roadmap van nieuwe nodes zijn daarom expliciete backportmogelijkheden opgenomen, oftewel de optie om een coreontwerp voor een nieuwe node alsnog op een doorontwikkelde versie van de node ervoor te produceren.

Intel node roadmap backports
De mogelijkheid tot backporten is een standaardonderdeel van Intels procesroadmap.

Dat is exact wat we in de komende week gaan zien met Rocket Lake. Onder de codenaam Cypress Cove heeft Intel de voor 10nm ontwikkelde Willow Cove-cores gebackport naar 14nm. Vanzelfsprekend is dat niet bevorderlijk voor de efficiëntie van de architectuur, maar deze backport maakt het wel mogelijk om voor het eerst sinds 2015 een nieuwe architectuur in gebruik te nemen voor desktopprocessors. Begin dit jaar maakte Intel wereldkundig dat Rocket Lake hierdoor een veertien procent hogere ipc zal bieden dan Comet Lake.

Met deze aanpak moet Intel beter om kunnen gaan met nieuwe tegenvallers. Vorig jaar zomer maakte de fabrikant nog bekend dat ook het 7nm-procedé flinke vertraging oploopt, waardoor de eerste producten niet dit jaar, maar pas eind 2022 of begin 2023 op de markt komen. De ingebouwde backportmogelijkheid van 7nm-designs naar de 10++-node, door Intel '10nm Enhanced Superfin' genoemd, kan dus heel goed van pas gaan komen. Naast teruggrijpen op oudere processen sluit Intel zelfs het extern laten produceren van bepaalde chips niet uit, al zouden gpu's daar eerder voor in aanmerking komen dan cpu's.

Alder Lake

Rocket Lake is echter niet het enige wat Intel voor dit jaar in de pijplijn heeft zitten. Nog dit jaar moet er alweer een nieuwe generatie processors verschijnen. Alder Lake komt voor zowel laptops als desktops beschikbaar en brengt niet alleen eindelijk 10nm, maar ook het big.Little-concept naar de x86-architectuur. Daarvoor zullen de 'grote' Golden Cove-cores gecombineerd worden met Atom-afstammeling Gracemont. Deze innovatieve aanpak zal gepaard gaan met een compleet nieuwe socket 1700 en naar verluidt zowel DDR5 als PCIe 5.0 introduceren. Kortom, na jarenlang doormodderen met overjarige techniek krijgen we in één jaar tijd twee serieuze inhaalslagen.

Intel Alder LAke

Nu er in de komende week eindelijk een nieuwe architectuur naar de desktop komt en het 10nm-procedé later dit jaar zal volgen, krijgt Intel weer een eerlijke kans om te laten zien waartoe het in staat is. Die kans zal de processorfabrikant met beide handen moeten aangrijpen, want het bijna vanzelfsprekende procesvoordeel dat Intel jarenlang genoot, is na het 10nm-debacle volledig weg. Tegelijk moet het loskoppelen van architectuur en productieprocedé voorkomen dat Intel ooit nog eens in zo'n benarde positie terechtkomt.

Reacties (164)

164
156
92
13
0
44
Wijzig sortering

Sorteer op:

Weergave:

Ik vond het vrij duidelijk dat deze storm door Intel zelf is veroorzaakt. Sinds Haswell is er zeer weinig veranderd in de hele lineup tot er concurrentie van AMD kwam, elk jaar kwam er een nieuwe generatie met beperkte performance increases maar je moest toch elke twee generaties een nieuw moederbord kopen.

Intel bereidde zich voo om volledig hun monopolie-positie uit te buiten. Hun producten waren geen vooruitgang, daarvoor was de concurrentie met AMD nodig om hun wakker te schudden. Het is vrij duidelijk dat ze na de release van Haswell vooral over zijn gegaan op winstmaximalisatie, wat niet bizar lijkt met de vorige CEO zijn achtergrond.

Intel wist goed genoeg wat ze deden, want ze hebben genoeg bespaard op engineers en capabel personeel voor yes-men en marketing, waardoor ze niet klaar waren voor AMD's succesformule van Zen.

De nederigheid van niet meer de top dog te zijn hebben ze verdiend, nu mogen ze weer ons geld verdienen met goede techniek in plaats van marketing.
Ik vond het vrij duidelijk dat deze storm door Intel zelf is veroorzaakt. Sinds Haswell is er zeer weinig veranderd in de hele lineup tot er concurrentie van AMD kwam, elk jaar kwam er een nieuwe generatie met beperkte performance increases maar je moest toch elke twee generaties een nieuw moederbord kopen.
Dat is eigenlijk alleen waar wanneer je naar de line-up kijkt vanuit een een beperkte (high-end dekstop) bril. Aan de onderkant van de markt is het op desktop enorm hard gegaan. Met coffee lake werd het natuurlijk een ander verhaal. Getriggered door AMD ging het tempo toen omhoog. 10156 voor de 8600K (+61%) en 3717 voor de G5400 (+43%).

i5 K cpu 2500K > 4670K > 6600K
passmark score 4099 > 5495 > 6282 = + 53%
$64 dollar cpu G620 > G3240 > G4400
passmark score 1233 > 1864 > 2608 = + 211% 111%

Zoals te zien zijn de instap cpu's relatief gezien 2x sneller gegroeid.

Verder was Intel met nog wat zaken bezig. Namelijk het in leven houden van hun markt. Voor wie het heeft gemist, in 2010 kwam de iPad uit. In die periode was de consensus dat de pc markt alleen nog maar zou krimpen. De toekomst zat in tablets.

Intel heeft het bijltje er destijds niet bij neer gegooid. Intel is toen een aantal dingen gaan doen om x86 concurrerend te houden tegenover de tablets (lees ipad). De eerste stap was een focus op het verlengen van de accuduur/energie efficiëntie. Niet lang daarna zijn er enorme bedragen gepompt in SSD's om zo de SSD standaard in laptops en desktops te krijgen ((joint venture met Micron/Crucial). Die twee dingen samen zijn vervolgens gecombineerd in het ultrabook concept. Een hippe mobiele dunne laptop die relatief lang met de accu moet kunnen doen. In de eerste 2 jaar kwamen zo'n 20.000 werknemers bij en het R&D budget is in twee jaar gegroeid van circa 5 miljard naar 10 miljard dollar.

Uiteindelijk is de missie geslaagd. Laptops hebben hun relevantie behouden en tegenwoordig zit desktop ook weer behoorlijk in de lift. Pc gaming is nu groter dan ooit te voren. Het jaar dat de iPad op de markt kwam deed Intel ongeveer 43 miljard omzet. Dit hebben ze weten uit te bouwen naar 77 miljard omzet. Toen de doelen behaald zijn is het SSD gebeuren weer afgestoten.

AMD was in die periode eigenlijk helemaal geen factor. AMD is destijds anders omgegaan met dit toekomstbeeld. Die hebben de pessimistische voorspelling geaccepteerd en hebben besloten niet meer mee te doen in high-end desktop. Servers en laptops deden ook niet mee. Het enige traditionele segment waarin AMD actief bleef waren de entry level cpu's (apu's). Dit begon te veranderen toen Raja Koduri in 2013 terug keerde naar AMD en daar de top kon overtuigen dat VR gaming een enorm succes zou worden. Daaruit volgende een vernieuwde focus op desktop met daarbij o.a Polaris en later dus het succesvolle Zen. AMD is gedurende 2017 weer gaan groeien in aantal werknemers.

Voor AMD is de timing geweldig. Intel blijft 10nm maar uitstellen en doordat ze hun 'future tech' vast zit in de refresh van hetgeen jaren geleden op 10nm uit had moeten komen blijft Intel al jaren niet echt grote stappen zetten. Ondertussen groeit de cpu markt zo hard dat AMD kan groeien zonder dat Intel dit in hun cijfers voelt. Een prijsoorlog is hiermee tot nu toe voorkomen.

Het gaat overigens wel spannend worden. Ondertussen zie je de 10 serie op prijs concurreren. AMD doet ondertussen 14% operationele winst (Intel 30%). Een prijsoorlog is nog altijd het laatste dat AMD nu kan gebruiken. Raja Koduri werkt nu overigens voor Intel met 4500 man aan "Intel's future integrated and discrete graphics projects". Wie weet gaat Intel hier wat toekomstig verloren omzet proberen te corrigeren :Y) .

[Reactie gewijzigd door sdk1985 op 23 juli 2024 16:46]

Je verwijst naar Passmark maar dat is al een tijd bekend geen goede vergelijker te zijn vanwege het leunen op AVX, een Intel instructieset die afwezig is bij concurrent AMD, maar ook bij hun onderlinge generaties. Het is dus niet representatief voor real-life toepassingen want de meeste user applicaties gebruikten AVX niet in de tijd dat die CPU's relevant waren.

Gebruik dan eerder de grote database van bijvoorbeeld Anandtech: https://www.anandtech.com/bench/CPU-2020/
Daar kan je je use case opzoeken en zie je dat het verschil in de realiteit niet zo groot is als Passmark doet lijken. Passmark wordt ook regelmatig verdacht van heel erg Intel-favored te zijn waar het zelfs niet realistisch vergelijkt tussen Intel CPU's.
i5 K cpu 2500K > 4670K > 6600K
passmark score 4099 > 5495 > 6282 = + 53%
53% meer performance van Sandy Bridge naar Skylake is niet de realiteit, tenzij specifieke toepassingen die nieuwere versies van AVX of SSE gebruiken.
Ook heeft de i5 2500K heeft 21.3GB/s geheugen bandbreedte, de i5 6600K heeft 34GB/s geheugen bandbreedte. Dat is een verschil van 60% wat een groot deel van de performance kan verklaren bij sommige tests die hier hard op leunen.
$64 dollar cpu G620 > G3240 > G4400
passmark score 1233 > 1864 > 2608 = + 211% +111%
Je bedoelt +111% ipv. +211% hier.
Hier is een nog groter verschil in geheugenbandbreedte te zien, van 17GB/s voor de G620 naar 34GB/s voor de G4400 oftewel 100% verhoging. Qua kloksnelheid gaat het van 2.6 GHz naar 3.3 GHz, wat meer dan 25% betekent als IPC gelijk is. Dat verklaart het verschil in performance ook als de test specifiek gewicht geeft aan deze aanpassingen.
Intel heeft het bijltje er destijds niet bij neer gegooid. Intel is toen een aantal dingen gaan doen om x86 concurrerend te houden tegenover de tablets (lees ipad). De eerste stap was een focus op het verlengen van de accuduur/energie efficiëntie. Niet lang daarna zijn er enorme bedragen gepompt in SSD's om zo de SSD standaard in laptops en desktops te krijgen ((joint venture met Micron/Crucial). Die twee dingen samen zijn vervolgens gecombineerd in het ultrabook concept.
Intel heeft zeker goede initiatieven gelanceerd die voordelig waren voor de consument maar verwar het niet met de nood voor groeien van het bedrijf. Intel had al een groot deel van de CPU desktop en laptop markt, maar zag de introductie van tablets als een bedreiging in de groei. Dit deden ze niet omdat ze geweldig waren, dit deden ze om hun aandeelhouders tevreden te houden. Ze zien nu hetzelfde gebeuren met ARM in mobile, automotive en binnenkort desktop.

Verder heb je veel geschreven over de winst en een stuk over AMD, maar mijn punt was niet of Intel geld verdient maar dat Intel drastisch heeft gesneden in ontwikkeling van desktop en laptop CPU's toen het comfortabel in een monopolie zat. Dit heeft hun de voorsprong gekost op zowel consumer, professional en enterprise x86 computing.
Het laatste decennia zijn veel engineers gaan lopen bij Intel omdat er geen verlangen was om vooruitgang te boeken in techniek, enkel in de financiën. Dit kan je een paar jaar doen maar niet als de bottom line in een markt waar er concurrentie is.
Zie bijvoorbeeld ook: LTT - Why I still love Intel
Ik denk dat je te diep in passmark duikt. Passmark is simpelweg een metric. Het punt was dat tijdens de periode van stagnatie voor 'ons gamers' het aan de onderkant erg hard ging. Dit is iets dat in de praktijk merkbaar was. Vroeger kon je niet veel met een budget cpu. Alles was traag en soepel gamen kon je eigenlijk wel vergeten. Met de G4400 veranderde dat. Ineens was de office ervaring gelijkwaardig aan mijn 2500K. Met de G4560, die kreeg hyperthreading, heb ik zelfs betere minimum fps gemeten in Rainbow Six Siege. Voor mij was het voor het eerst in 29 jaar pc gaming dat een budget cpu zo geschikt was voor gaming. Daar waar upgraden aan de bovenkant van het spectrum letterlijk geen nut had ging het aan de onderkant jaren lang echt hard.
Verder heb je veel geschreven over de winst en een stuk over AMD, maar mijn punt was niet of Intel geld verdient maar dat Intel drastisch heeft gesneden in ontwikkeling van desktop en laptop CPU's toen het comfortabel in een monopolie zat. Dit heeft hun de voorsprong gekost op zowel consumer, professional en enterprise x86 computing.
Intel heeft wat kansen laten liggen maar ze hebben niet in R&D gesneden. Je kunt de R&D uitgaven hier bekijken https://www.macrotrends.n...arch-development-expenses
Ik zei specifiek ook:
...drastisch heeft gesneden in ontwikkeling van desktop en laptop CPU's toen...
Ik ben me bewust dat hun R&D budget over de hele lijn nooit gezakt is, ze hebben genoeg ontwikkeling in andere takken lopen.

Mijn punt is niet dat Intel een slecht/evil bedrijf is, maar dat ze een leiderspositie hadden kunnen houden als ze meer op engineers en minder op financien hadden gefocust. Uiteindelijk is dit niet slecht, nu is er tenminste concurrentie en door Intel's flaters kan AMD wat ademruimte krijgen om zo binnen dit en een paar jaar weer een goede concurrentie te bieden.
En dit is al de tweede keer he, toen met AMD64 moesten ze ook ineens weer gaan innoveren. Je zou denken dat ze hun les toen wel hadden geleerd maar blijkbaar niet.

Het blijkt toch heel lastig om een bedrjjfscultuur te veranderen.
Ten tijde van de AMD64 was Intel bezig met Itanium. En uiteindelijk moest IA-64 de nieuwe architectuur worden. In die zin waren ze veel verder qua inoveren dan verder bouwen op x68 wat AMD deed. Dat het uiteindelijk een mislukking werd doet niets af aan het feit dat ze echt wel aan het innoveren waren.
ik heb de roadmap documentatie nooit gezien voor IA64 maar ik meen me te herinneren dat die nooit bedoeld waren voor de desktop/workstation markt... ???
Ik meen te herinneren dat er op The Register een heel stuk over -wat zij noemden- de Itanic historie geschreven is. Beetje chips-bier-nootjes stijl maar toch
Dat is niet juist, het plan van Intel was uiteindelijk wel degelijk "Itanium everywhere":
At the time, the best computer architects from Hewlett-Packard and Intel got together to create the next-generation big iron architecture, the Itanium family. The thought was it would cascade down to low-end computers because it was believed the 32-bit x86 architecture would run out of gas. You remember we went through the PowerPC alliance against Intel. And x86 kept growing upwards. We beat back PowerPC. We beat back the ACE consortium. We fooled ourselves a little bit because x86 beat back the Itanium challenge.
(Bron.)

Er is nooit een formele roadmap gekomen voor Itanium op de desktop, dat dan weer niet, maar dat komt omdat de gehoopte dominantie van Itanium in de servermarkt al niet materialiseerde. Zonder dat had inzetten op de desktop nog minder zin.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 16:46]

Is het niet in mindere mate bedrijfscultuur en in grotere mate waar monopolie vrijwel altijd toe leid? Zeker met kapitalisme en publiek genoteerde bedrijven.
Ik heb 2 jaar bij Intel gewerkt en het is de vreemdste ervaring die ik ooit heb meegemaakt. De enige feedback die je krijgt over je werk zijn de kwartaalcijfers. Zijn die goed dan heb je je werk goed gedaan. Ik denk dat de sfeer en nu wel totaal anders zal zijn maar de sfeer was er "wij zijn ongenaakbaar". Ik werkte toen samen met de kleine zelfbouwers in de Benelux. Het was echt zinloos werk op de ICC's na. Dat leek nog wel iets of wat zinvol te zijn omdat je toch het gevoel "we geven om jou" kon uitstralen. Al herinner ik me wel dat we iets hadden van "maar je kan toch niet zonder ons". Ik heb echt nooit het gevoel gehad ook maar één CPU verzet te hebben in die twee jaar tijd en elke keer de kwartaalcijfers naderden merkte je de stress alsof iedereen voelde dat ze nu wel ontmaskerd gingen worden maar eens de kwartaalcijfers bekend waren was het applaudisseren voor elkaar. Die zooi verkocht zichzelf of we nu een ICC hielden of niet. Ik weet niet hoe de sfeer is in de VS was maar in de EU had ik echt niet het gevoel dat mensen van elkaar of zichzelf wisten wat ze echt bijdroegen aan het succes van het bedrijf. Toen ik er gestopt ben switchte Apple net naar Intel dus het heeft nog echt lang geduurd voor ze echt tegen de muur zijn gelopen met die arrogantie.
Het verhaal wat je hier schrijft klopt als een bus.
Het lijkt wel of intel achter de feiten aan holt en dat terwijl vroeger amd dat deed.
Amd heeft het deze keer en hoop ook voor de toekomst het heel erg goed voor elkaar.
En ik hoop dat ze idd blijven innoveren en intel eens een poepje laten ruiken.En dat zij ook om de twee jaar iets nieuws hebben.bij intel was de 10 de generatie al pas uit en nu al komen met de 11 de generatie.
En dat moet amd eigenlijk ook doen als ze dat niet al doen.
Ach Intel heeft gewoon een paar verkeerde keuze gemaakt. Waardoor de techniek achter is gebleven. Daarnaast is het bedrijf gewoon een verkoop machine, waarbij innovatie niet voldoende heeft plaats kunnen vinden. Apple heeft met de M1 SOC een hele goede troef in handen, die zowel Intel als AMD het nakijken geeft op het gebied van performance en energie verbruik.
Goed artikel, maar toch een beperkte belichting van de ‘perfect storm’ waar Intel in zit, die is namelijk een stuk groter:

- De synergie die Intel heeft met ontwerp en productie loopt op z’n laatste benen. TSMC laat zien dat je met een enorm servicegerichte productie organisatie enorme schaalvoordelen kan bereiken. TSMC haalt volumes en doet investeringen die Intel eigenlijk niet kan volgen.
- Meer en meer gaat naar de cloud en de grote cloudbouwers integreren allerlei andere onderdelen in een SoC, al naar wat ze willen. De ‘standaard’ CPUs waar Intel het van moet hebben kan het daar gaan afleggen tegen zelf ontworpen chips met IP en productie van TSMC.
- Apples move naar ARM heeft ARM in handen gebracht van heel veel ontwikkelaars, waardoor allerlei software beter gaat werken op ARM en ARM in de cloud ook veel relevanter wordt. Partijen als Amazon bieden ARM compute al een stuk goedkoper aan dan x86 compute.

Het splitsen van Intels ontwerp en productiebedrijven is een goede stap. Maar ze hebben nog een boel werk te verzetten om relevant te blijven :)
Ik heb me in dit artikel inderdaad vooral beperkt tot de technische kant, omdat juist die ook wel relevant is als bagage om de aankomende Rocket Lake-launch goed te kunnen plaatsen. Als je het breder bekijkt, kent Intel een hele hoop bedreigingen. Om even de drie die je noemt te behandelen:

- Intel is altijd al een ander type bedrijf geweest dan de rest van de foundries (TSMC, Samsung, GF), de nadruk lag op productie voor zichzelf. Dat heeft in verschillende situaties voor- en nadelen. Als een nieuw proces goed fout loopt is het uiteraard een nadeel, maar in de huidige periode van schaarste is het juist een voordeel, want Intel kan zijn capaciteit volledig naar eigen inzicht inzetten en waar mogelijk opschalen. AMD heeft als klant van TSMC minder flexibiliteit en zal voor eventuele extra capaciteit moeten opbieden tegen andere geïnteresseerden. Je ziet Intel in de recent aangekondigde plannen beginnen met het ontvlechten van de foundries en eigen cpu's, maar ik zie Intel niet snel TSMC achterna gaan en een pure foundry worden, daarvoor zijn de eigen producten veel te belangrijk. Dan lijkt me een eventuele verkoop/verzelfstandiging van de fabrieken nog een waarschijnlijkere optie.
- Eens, maar voorlopig speelt dit alleen bij de echt grote klanten. Bovendien maakt Intel op dit moment al speciale versies van cpu's naar de wensen van enkele grote partijen, ik verwacht dat Intel dit in de komende jaren verder gaat uitbouwen.
- Zolang ik over hardware schrijf, is de potentie van Arm al onderwerp van gesprek. Als de voorspellingen van toen waren uitgekomen, had inmiddels elke server op Arm-chips gedraaid. Ik denk zeker dat x86 terrein gaat verliezen in diverse categorieën, maar dat gaat vaak langzamer dan je denkt. Overschat de impact van Apple ook niet: het is een gesloten, redelijk op zichzelf staand ecosysteem met een relatief klein en bovendien al jarenlang stabiel marktaandeel (tussen de 8 en 10 procent).

Vergeet bovendien niet dat Intel voor het eerst in 15 jaar weer serieuze concurrentie heeft in z'n eigen markt, op korte en middellange termijn is dat misschien nog wel bedreigender dan bovenstaande zaken.

Aan de andere kant, Intel blijft vooralsnog uitstekende financiële cijfers draaien - ongetwijfeld geholpen door de sterke vraag, maar toch. Een dergelijk groot bedrijf kan aardig wat stootjes hebben en alle partijen die aan de poort kloppen moeten zich eerst nog maar eens gaan bewijzen.
@Tomas Hochstenbach

Het klopt dat 'arm verovert de wereld' eigenlijk al zo oud is ARM zelf..

Maar er is wel precedent en er is ook logica achter deze bewering die, door randvoorwaarden nu veel realistischer zijn geworden dan pak hem beet 5 of zelfs 10 jaar terug.

Ten eerste:
tot voor kort was de rauwe prestatie van ARM's nog nooit eerder en par met x86 chips,
Ten tweede: naar mijn idee zijn er twee specifieke punten uit het 'intel 10nm debacle' juist debet aan de opleving van ARM:
- De zuinigheid van ARM was nog nooit zo duidelijk dan toen intel ineens van 100 naar bijna 250watt verbruik ging.
- Arm heeft relatief eenvoudigere ontwerpen en heeft dus minder last van de schaalverkleiningsproblemen die intel heeft, daardoor kon de clock behoorlijk omhoog.
- AMD liep hoe dan ook al enorm achter, en een groot deel van het success van zen is juist het uitblijven van skylake-opvolgers bij intel, dit biedt AMD de financiële ruimte om zijn huis op orde te krijgen en hopelijk concurerend te blijven ook als intel straks wel zijn 7mn ellende op orde krijgt en weer iets van een ticktock-ritme krijgt.
Dit brengt 'deels' met zich mee dat AMD niet zomaar 1-1 intels plaats in kon nemen om ARM van zich af te houden. de ipc verbeteringen van zen zijn niet beter dan die van bijv Apple silicon, en als je ziet wie er aan hebben meegewerkt dan snap je wellicht ook wel (deels) waarom.

Dat Apple dan een heel erg afgesloten ecosysteem heeft maakt eigenlijk weinig uit, Microsoft heeft al eerder pogingen gedaan met ARM maar is toen gefaald, Apple heeft desondanks laten zien dat het weldegelijk kan, grote partijen als Adobe porten nu naar ARM, hoe groot is de kans dat Microsoft het nóg eens probeert?

Als intel vervolgens roept dat de 202x's het decennium van de Architecturen gaat worden dan vraag ik me toch af van welke dan precies, x86? arm? of iets nieuws, iets dat enkele voordelen van beiden weet te combineren misschien?

ik zie in ieder geval ruimte voor nóg een artikel dat meer in gaat op de houdbaarheid van dit soort zaken, kan ARM de groei (ook vooral in ipc) wel volhouden, zijn er andere architecturen (bijvoorbeeld van startups) die al dan niet in een fictieve toekomst ineens de nieuwe defacto standaard zouden kunnen worden?

[Reactie gewijzigd door i-chat op 23 juli 2024 16:46]

Ik heb me in dit artikel inderdaad vooral beperkt tot de technische kant, omdat juist die ook wel relevant is als bagage om de aankomende Rocket Lake-launch goed te kunnen plaatsen
Helaas heeft u het belangrijkste detail gemist, en dat is vrij simpel:

10nm is altijd ontworpen geweest om met EUV te maken. Recent is dit door zowel Daniel Nenni (die heeft uitgelegd dat Intel het op IEDM gepresenteerd heeft) als Scotten Jones op Semiwiki bevestigd.

36nm MPP was niet haalbaar met het "oude" DUV, alleen met EUV. Intel dacht dat EUV op tijd productie-rijp zou zijn voor 10nm; maar dat hebben ze verkeerd ingeschat.Dus @Phuncz slaat volledig de plank mis met beweringen dat Intel "alleen bezig was" met monopolie uitbuiten: Juist doordat Intel zo hard vooruit wilde ging het fout. DUV heeft een zogenoemde diffractie-limiet; en die is equivalent aan een MPP van 40nm bij DUV.

36nm MPP was onbereikbaar, dus wat gebeurde er: De onderste metaal-laag moest worden opgesplitst in twee lagen. Een zeer onzalig plan. Dus de ontwerpen moesten overnieuw: Er moest een extra laag worden toegevoegd, en extra verbindingen tussen die lagen. En Self Aligned Quadruple Patterning (SAQP). Daardoor zijn er veel meer proces-stappen nodig (met name etsen) en duurt het veel langer om 1 chip te maken (cyclus-tijd), dus met dezelfde fabriek heb je een veel lagere capaciteit. En vervolgens kloppen de thermische berekeningen niet, en om toch de levensduur te halen moet binnen de junction-temperatuur (en dus TDP) de frequentie verlaagd worden; dat gebeurde vervolgens met 1gH met de Intel Ice Lake 106x serie.

Als je EUV vergelijkt met een waterpistool en DUV met een douchekop, en je moet in het zand lijntjes gaan spuiten van iedere keer 3cm breed met een tussenruimte van 3cm, dan lukt dat met het waterpistool waarschijnlijk. Maar met de douchekop op de dunste stand wordt het een enorme rotzooi, die lijnen worden "ruw" en gaan af en toe per ongeluk onderbroken worden of de lijn ernaast raken; het probleem bekend als "Line Edge Roughness". Daniel Nenni en Scotten Jones hebben allebei ook aangegeven, dat de 10nm-lijnen van M0 op electron-microscoop beelden er inderdaad zeer belabberd uit zagen bij Intel.

TSMC was verstandig; die hebben gekozen voor 40nm MPP voor N7 (DUV); precies binnen de diffractie-limiet met SADP.

Dus; Intel had meer productie-stappen nodig en in het begin werd 90% weggegooid omdat vanwege de LER-problemen heel veel chips defecte "belijning" hadden, waarbij "draadjes' die elkaar niet moesten raken elkaar raakten (kortsluiting), of onderbroken waren. En de capaciteit was veel te laag.

Hoe is dat opgelost; Onder andere door niet-publiek de MPP terug te schroeven van 36nm voor Cannon Lake naar 40/44nm voor Ice Lake / Tiger Lake; om zodoende weer terug te kunnen gaan naar SADP.

Zie o.a. dit artikel van Scotten Jones; onder de paragraaf "10nm".

[Reactie gewijzigd door kidde op 23 juli 2024 16:46]

Wat overwegingen:

- RISC vs CISC, CPU's ; RISC laptops (Apple) hebben een langere accuduur dan CISC laptops (Intel en AMD), dit wordt als een "gamechanger" beschouwd.
- Apple engineers rapporteerde oa in 2015 meer HW CPU bugs aan Intel dan Intel zelf
- Intel probeerde de Universiteit van Amsterdam om te kopen zodat de UVA kwetsbaarheden in Intel CPU's niet openbaar zou maken.
- Intel's IME functionalteit is een fundamenteel security en privacy risico's. Sommige VS overheidsdiensten willen alleen Intel CPU's zonder IME (Intel IME => YT)
Het is geen natuurwet dat RISC zuiniger is dan CISC: gooi voldoende geld tegen een CISC-architectuur aan en hij is zuiniger dan een RISC-architectuur waar weinig geld in is gepompt. Apple heeft in de afgelopen tien jaar bergen met geld in hun cores gepompt om de huidige performance per watt te bereiken.

De PowerPC G5 was ook RISC maar die liep net zo hard tegen een plafond aan als de Pentium 4 (waarbij Intel een veel grotere oorlogskas had)
PA Semi's PWRficient was veel zuiniger dan de PPC970 (beter bekend als G5), maar afgezien van enkele leveringen is die nooit in algemeen verkrijgbare systemen terechtgekomen, omdat Apple het bedrijf overnam.

De chipontwerpers werden vervolgens onder andere op Apple Silicon gezet en nu na meer dan een decennium zien we eindelijk weer RISC chips in Macs.

[Reactie gewijzigd door psychicist op 23 juli 2024 16:46]

15 jaar ontwikkeling tussen PPC en M1. PPC konden ze geen mobiele versie maken. Maar de eerste versie van RISC was zo efficiënt dat deze werkte op de reststroom van de meet apparatuur

https://www.youtube.com/watch?v=OuF9weSkS68

En Apple's eerste RISC chip was in 2011. M1 komt niet zomaar uit de lucht komen vallen.
Er kon wel degelijk een mobiele PPC64 core gemaakt worden mits IBM er genoeg geld op had stuk geslagen (middelen die ze niet hadden). Intel's CISC-chips leverden veel betere prestaties en efficiëntie omdat Intel indertijd een gigantische oorlogskas had opgebouwd over de jaren ervoor.
Ik deel jouw meningen, ik pak er een puntje uit, de switch van naar ARM van Apple. Je geeft terecht aan dat Apple al jaren een stabiel marktaandeel heeft van 8-10%. Het percentage webdevelopers dat Apple gebruikt is daar en tegen veel groter.

In mijn vrienden kring van (web)developers merkte ik voor de switch de nodige scepsis. Zo kocht een developer bewust een nieuwe macbook voordat de M1 uitkwam.

Nu de ARM M1 zo goed preseteerd merk ik niks meer van deze scepsis. Juist geluiden om over te stappen bij de komende generatie Apple, en ook om ARM bij AWS te gaan proberen vanwege de lagere kosten.
Het splitsen van Intels ontwerp en productiebedrijven is een goede stap. Maar ze hebben nog een boel werk te verzetten om relevant te blijven :)
Hetgeen ze moeten doen om relevant te blijven voor mij, is een CPU op de markt brengen die kan concurreren met de AMD Ryzen 9 5950X. Die heeft 16 cores, en ze zijn allemaal hetzelfde; geen 8+8 poespas op mijn desktop. Hetgeen ik ik doe met mijn prive-desktop tegenwoordig vereist niet zo zeer snelheid per core, maar zoveel mogelijk cores op dezelfde snelheid.

Ik zie dus liever een Intel i9-12700 met 24 dezelfde cores van 3.5 Ghz, dan een i9-12700 met 16 cores van 5.2 Ghz en 8 cores van 2 GHz. Hell, als het mogelijk of betaalbaar is, zou ik nog eerder een CPU aanschaffen met 64 cores op 2.8 GHz.

Een CPU met 8+8 cores is voor mijn gebruik dus effectief een CPU met maar 8 cores; als Intel binnen afzienbare tijd geen CPU in de line-up heeft die (minstens) 16 cores zoals die van de 5950X biedt, dan ben ik na de overstap op AM5 / DDR pleite naar AMD voor de eerste keer in 20 jaar. (Even aangenomen dat die niet ergens anders iets braks doen.)

[Reactie gewijzigd door Katsunami op 23 juli 2024 16:46]

het ziet er naar uit dat niet alleen intel maar ook amd bigg-little ontwerpen overweegt (ik ben die geruchten al meermaals tegen gekomen),

Wat ik echter niet 'heel goed' snap is wat jouw verhaal/probleem is met zo'n bigglitle aanpak, Als men het immers voor elkaar krijgt om 3-staps chips te maken is er niets aan de hand, bij een 8+8 verwacht je dan dus,
low = 8x 2,0ghz (geen ht),
med = 8x 3,5 (met ht),
high = 8x 1,6ghz + 8x 3,2ghz (ht uit)
of zelfs:
8x 1,x + 16x 1,x (virtuele HT-cores)
* wat je dus een 24vcore systeem oplevert.


het enige 'ontwerp probleem dat je dan krijgt is dat de locica in je chip moet voorspellen op welke (low of high) core een bepaalde workload moet draaien, en hoe je zaken als memory access moet regelen.

Maar aangezien intel en AMD al ervaringen hebben met systemen als turbo-core zou dat in beginsel weinig problemen moeten opleveren.

[Reactie gewijzigd door i-chat op 23 juli 2024 16:46]

Denk je echt dat AMD met z'n Ryzen 9, Threadripper (Pro) en Epyc cpu's een stap terug gaat doen in die high-end hoek?

Ik verwacht eerder een soort Ryzen 9 5950x opvolger met naast de 16 cores nog 2 kleinere, iets langzamere super zuinige cores. Puur om energie te besparen. Dus volle power voor jouw workloads, en zodra je enkel naar je desktop zit te staren , wat zit te programmeren of even een mailtje zit te tikken een minimaal energie verbruik. (compileren, modelleren, renderen, streamen: FLOEPS brute kracht.

(Een van de gehoorde commentaren op AMD: Ze zijn onder load zuiniger dan Intel, maar in idle verstookt AMD weer wat meer dan Intel onder idle).

Ook als je je pc bijna altijd full pull gebruikt: er zijn altijd momenten dat de boel wel redelijk idle is... dan kan één losse zuinige langzame core misschien best wat toevoegen. Toevoegen dus. Niet van 16 sneller cores terug naar 8 langzaam + 8 snel.. Dat is misschien leuk voor in een laptop, maar voor een desktop denk ik dat je liever een 16 core hebt die dan maar flink downclockt in idle, zodat je toch echt brute rekenkracht kunt hebt als je het nodig hebt ( en dan maar wat meer stroom uit t stopcontact trekt).
Denk je echt dat AMD met z'n Ryzen 9, Threadripper (Pro) en Epyc cpu's een stap terug gaat doen in die high-end hoek?

Ik verwacht eerder een soort Ryzen 9 5950x opvolger met naast de 16 cores nog 2 kleinere, iets langzamere super zuinige cores.
Zoiets verwacht ik ook. Dan ga ik ervan uit dat je die cores kunt uitschakelen, als het nodig is.

Het punt is dat ik een aantal workloads draai die op een specifieke manier getest dienen te worden. Dat betekent dus dat indien ik een proces draai met 2 cores en daarna met 4 cores, dat ik er zeker van moet zijn dat de twee bijgeschakelde cores hetzelfde zijn als de eerdere twee, anders kloppen mijn testresultaten natuurlijk niet.

(Hyperthreading heeft hierop geen invloed, zolang ik niet meer cores gebruik dan dat er fysiek in de CPU zitten.)
Ik snap het hele Big.Little principe in desktops niet echt.

Tegenwoordig zijn de CPU's zo dynamisch in verbruik en snelheid dat je het ipc niet nodig hebt.

In laptops snap ik de behoefte aan extreme efficientie nog wel, daar werk je immers ook vaker met minder prestatie behoefte verwacht ik.

Mijn desktop staat niet veel idle te draaien en als die dat wel doet verbruikt mijn R5 3600 hoogstens een paar watt.
Blijkbaar hebben we weer de beste stuurman aan wal gevonden.

De directie moet niet in detail weten hoe de techniek werkt. Dat is hun job niet. Daar heb je net je technische medewerkers voor. Directie moet beslissingen nemen gebasseerd op de adviezen die ze van overal krijgen en gebasseerd op de financiële ruimte die er is.

Je schrijft het toe aan een interne strijd. Ik zie voor die strijd geen enkel bewijs geleverd worden. Dat er foutieve keuzes zijn gemaakt is achteraf altijd eenvoudig aan te wijzen. Maar op het moment die beslissing gemaakt moet worden heb je die kennis en wetenschap nog niet.

Intel heeft jarenlang voorgelopen op TSMC en Samsung, enkel nu komen die 2 in de buurt met hun 7nm van wat Intel doet met wat zij 10nm noemen. Zo ver liggen ze dus allemaal niet uit elkaar. Achteraf gezien had je kunnen zeggen dat Intel had moeten wachten tot EUV er was voor ze de die-shrink naar 10nm konden maken.

x86 zit helemaal niet op een dood spoor en Apple heeft helemaal niets bewezen. 1 van de grootste voordelen die Apple uit de M1 chip weet te halen is dat het een big.little ontwerp is waarbij je dus enorm efficiente cores hebt met relatief weinig rekenkracht voor wanneer het systeem idle is. En laat dat nu net iets zijn wat zowel Intel en AMD op de roadmap hebben staan voor hun x86 processoren.
Nou kijk iNtel is afhankelijk net als IBM en AMD wat hun fab presteren kwa dieshrinks. De architectuur en IPC afkraken bij intel of AMD vind ik onterecht.
INtel heeft AMD om de orengeslagen met Netburst door procedé voorsprong. Op. Gelijkwaardige procedé is concurrente harder.
Buldozer was ten 1ste een procedé probleem dat de klok target niet gehaald werd dus . Bulldozer is AMD 20stage architectuur dat zoals Netburst moest hebben van hoge klokken om de lage IPC te compenseren. Op 32nm werd dan ook later de 5Ghz behaald op 13nm zou dat met nextgen bulldozer ook concurrent kunnen zijn met ook IPC verbeteringen die elke bulldozer gen ook mee kreeg en met op tijd dieshrinks ipv 2:1 FPU naar1:1 FPU .

INtel lijd nu net als AMD toen aan procedé achterstand die bij AMD veel extremer was dat architectuur met 32nm vs 13nm eigenlijk niet meer relevant is. Waar iNtel nog steeds concurreerde, maar niet de kroon heeft maar daarvan niet ver vanaf zit. Door lichte procedé achterstand dat architectuur wel toe doet.
Netburst was p4 daar werd intel juist heel hard om de oren geslagen, het clockte slecht, werd loeiheet en deed bijna alles fout wat er fout kon gaan, daarna met (ik geloof) conroe herpakten ze zich grotendeels en tegen de tijd dat intel met zijn core ix architectuur kwam had AMD inderdaad weer het nakijken.

je zou kunnen zeggen dat intel met netburst, amd met bulldozer en nu weer intel met skylake ongeveer gelijkwaardige problemen hebben moeten overwinnen. het zit hem steeds in de disonantie tussen core-ontwerp, aantallen transistors en uiteindelijk het uitblijven van een nieuw (beter) procedé. al is dat misschien wel een behoorlijke simplificatie...

[Reactie gewijzigd door i-chat op 23 juli 2024 16:46]

Bulldozer was ook gewoon qua architectuur een probleem: de gedeelde FPU tussen integer units (iets wat Sun in het verleden gedaan had met de UltraSPARC T1) vereiste optimalisatie van applicaties, en laten developers (met name die van games) nu net vrij lui zijn en dat pas gaan doen wanneer er genoeg klanten zijn die erom vragen (het kostte Intel ook al jaren om ze überhaupt te laten multithreaden). Vervolgens bleek de single core performance ook niet om naar huis te schrijven te zijn, en dan is de enige oplossing de hoogte in gaan met de kloksnelheden, ten koste van de yields. Ze zullen wellicht ook nog even gedacht hebben dat GloFo snel 22nm kon leveren om nog hoger te kunnen gaan, maar dat bleek tegen te vallen.

[Reactie gewijzigd door field33P op 23 juli 2024 16:46]

Ik vind het een geweldig interessant artikel, hoewel ik de hoofdlijnen al kende door het de ontwikkelingen de afgelopen jaren te volgen. Dit is een plus-artikel waardig wat mij betreft.

Op je verdere onzin met inhuur als slaven en dat x86 op dood spoor zit ga ik maar niet in.
Het verhaal gaat niet over de technische problemen, maar over de keuzes die het bedrijf heeft gemaakt en de problemen die dat heeft veroorzaak.
Intel heeft wel weer oplossingen gevonden om de problemen niet te sterk in de verkopen te laten doorlopen. De schaal vergroting hoort daar niet bij, want het achteraf toekennen van de typenummers en het in/uit schakelen van cores deed men al langer.

Dat jij iets anders verwacht maakt het nog geen waardeloos artikel. Technisch heeft Intel gewoon een fout gemaakt door verouderde machines nog verder te willen verbeteren dan ze al hadden gedaan ipv investeren in een nieuwe generatie machines. Met de oude techniek zijn (in theorie) nog 10 nm chips te maken, maar je zit echt tegen de fysieke grens aan. De zuinigheid heeft dus verkeerd uitgepakt.
Mijn god hoe denk je dat Intel aan 5GHz CPUs komt? Juist schaal vergroting op een gigantische nivo dat je brein niet kunt bevatten. En alle winnaars werden in de K serie met woeker winsten verkocht en de rest in de i5 en i3 en F serie als afdankertjes verkocht. De verschillen in 8 9 10 serie slaap verwekkend

Als je verder kijkt dan de technische barrières en de ambitie van een bepaalde manager die de nieuwe CEO wilde worden bij Intel kosten wat het koste en er bij haalt dat die ook de gene was die over het 10 en 7 nm debakel gaat... Dat deze er alles aan gedaan heeft op projecten te saboteren van zijn concurrenten Jim en Roger ...of miljoenen zijn gestopt in netwerkchips die niemand wilde hebben en dat project is omgezet in een fiasco van een video chip en dat versie 2 pas een echt nieuwe chip is... dat zijn veel betere artikelen dan dit droge saaie stuk ....wat 3/4 van de context mist van hoe dit kon gebeuren
Lezen is kennelijk moeilijk. De schaalvergroting heeft niets met de problemen te maken en is iets wat Intel al veel langer doet. Dat staat dus totaal naast de scope van dit artikel.
Vrijwel een vertaalde bijdrage vanuit de Anandtech site
https://www.anandtech.com...p-performance-in-20242025
Hoe zit het met Spectre and Meltdown lekken in de nieuwe generatie cpu's?
Is dat al en beetje verholpen?
Mijn 6700k heeft toch wel wat moeten inleveren heb ik het idee, zal niet veel zijn maar toch heb ik gevoel dat ze haar snappines is verloren..

https://techcrunch.com/20...x-on-affected-processors/

Ze zijn bezig met 7nm en 10nm overgeslagen, je wil toch steeds kleiner, waarom dan nog op 10nm proberen?

[Reactie gewijzigd door copyer op 23 juli 2024 16:46]

Hier staat wat bij welke CPU is verholpen, dan kan je zien dat Tiger Lake (nieuwer dan Rocket Lake qua architectuur), een stuk meer hardware fixes heeft dan Skylake.
Spectre is vlgs mij niet volledig te verhelpen in hardware (want hoort bij speculatief gedrag van elke moderne CPU), dus dat zal deels in software moeten blijven gebeuren.
Tenminste, AMD heeft voor dezelfde bugs ook software fixes, dus zij kunnen t iig ook niet volledig.
Behalve alleen de SWAPGS bug, daar heeft AMD geen last van begrijp ik, dus dat zou Intel in theorie nog wel in hardware kunnen fixen (is mss gewoon een te recente bug).
Hier zijn benchmarks met/zonder software mitigaties, daarbij zie je dat je door die mitigaties wel iets inlevert, en dat dat bij nieuwere CPUs idd minder is.
Maar, sommige dingen zijn gefixt in microcode, dat is eigenlijk ook software. Daar houdt die benchmark geen rekening mee, dus mss maakt dat het verschil groter?
edits: leesbaarheid etc

[Reactie gewijzigd door N8w8 op 23 juli 2024 16:46]

Uitzetten en testen?
Ze zijn bezig met 7nm en 10nm overgeslagen, je wil toch steeds kleiner, waarom dan nog op 10nm proberen?
Lees het artikel dan, Intels 10nm proces lijkt qua dimensies meer op wat bij TSMC en Samsung 7nm is.
Tijd voor intel om eens eventjes te gaan babbelen met ASML over zo'n euv-machine...
Intel krijgt zijn machines al van ASML, de enige die momenteel echt grootschalig in euv investeerd via ASML is Samsung, maar hun yields zijn er ook zeer slecht op, vooral vergeleken met het kleine beetje euv wat tsmc doet en hun >%95 yields op 7nm finfet
Hoe doet TSMC dan haar 5NM?
Dat is het kleine beetje euv waar ik het over heb, het is zowel euv als finfet, afhankelijk van de wensen van de klant https://www.tsmc.com/engl...ry/technology/logic/l_5nm
Jouw definitie van een klein beetje is een andere dan die van mij
Intel krijgt zijn machines al van ASML, de enige die momenteel echt grootschalig in euv investeerd via ASML is Samsung
TSMC lijkt niet onder te doen aan Samsung qua investeringen in EUV
https://www.anandtech.com...lations-60-wafer-capacity

[Reactie gewijzigd door Icingdeath op 23 juli 2024 16:46]

Intel was een van de grote investeerders in deze techniek dus reken er maar op dat ze ze al hebben ze worden alleen nog niet actief ingezet voor hun huidige nodes. Het volgende node proces lijkt mij niet mogelijk zonder EUV .
Ik ben verre van een CPU expert maar heb het een aantal jaren wel gevolgd. De reden is dat wij op de zaak Lenovo X1 laptops gebruiken. Heerlijke laptops, niks mis mee. Maar het begon ons over de jaren wel op te vallen dat ze nauwelijks sneller werden bij CPU intensievere taken. Wij hebben bijvoorbeeld demosystemen in virtuele omgevingen die wij lokaal soms aanzetten. Of ik nu een 4 jaar oude X1 pak of de allernieuwste die ik nu draai (11th-gen Core i7), het is allemaal even snel.

Sinds eind vorig jaar bestellen we ook uit de T serie met AMD processoren er in. Deze maken wel het verschil dat je zou mogen verwachten. Opstarten van zo'n omgeving gaat 40% sneller en ook in gebruik is het veel meer responsive.

Dus als gewone gebruiker, met af en toe powerbehoefte, kan ik het verhaal hier boven wel plaatsen.
Komt dat door de rauwe snelheid van de CPU, of door de welbekende throttling bij laptops door de beperkte koelingsmogelijkheden?

De totale kracht van CPU's zijn namelijk wel degelijk verbeterd, en soms met aardig grote sprongen (Coffee Lake bijv.).
Als die throttling wel bij Intel processoren maar niet bij de AMD varianten gebeurt in hetzelfde chassis (dus dezelfde koeling), dan is dat dus een zwakheid van de Intel variant. Leuk, potentiële snelheid, maar als deze nooit te halen is, dan is de Intel variant dus uiteindelijk trager.
Zelfde chassis wil helemaal niet zeggen dezelfde koeling. Die koeling kan volledig anders zijn ingericht. Ook de manier van throttling kan gewoon anders zijn ontworpen door Intel en AMD. Je zou dan bijv. ook moeten kijken naar hoe lang kan ik een CPU vol belasten op zijn batterij (als deze nieuw is) en wat is het verschil in batterijcapaciteit tussen de twee modellen (durft ook verschillen ondanks eenzelfde uitziende chassis) om te kunnen gaan analyseren waar de verschillen zitten.
Dat zijn inderdaad technische beperkingen en of constructie keuzes. But at the end of the day zal de gebruiker nog steeds ervaren dat zo'n AMD Lenovo een stuk sneller is.
Trouwens speelt de doorlooptijd voordat er gethrotteld wordt niet een enorme rol bij intensieve tasks aangezien deze relatief snel ingaat, immers intensieve tasks.
Die turbo speeds zijn bijv erg fijn voor zeer kortdurige dingen maar voor virtuele omgevingen die dus langere tijd actief zijn zal het niets uitmaken.
Zo simpel kan je dat niet stellen, het gaat allemaal om load. bij een workload in een virtuele omgeving die zorgt voor een 100% cpu load zul je hele andere performance profielen zien dan in een virtuele omgeving waarbij de belasting meer spikey is. Het is niet zo dat in een virtuele omgeving de turbo per definitie niet uitmaakt.

Ook workloads uitgevoerd in een virtuele omgeving kunnen enorme baat hebben bij turbo's, terwijl andere workloads die direct 'op het ijzer' gedraaid worden dan weer amper baat hebben bij turbo omdat ze voor een hoge continu belasting zorgen.
Ik neem aan dat ze bij lenovo ook niet achterlijk zijn....

Meerdere intel systemen tegenover 1 amd systeem en het amd systeem start 40% sneller op....
Je kunt wel gaan analyseren :
Zijn dan alle intel systemen voorzien van een mindere koeling en accu... ?
Het amd systeem start 40% sneller op ... begint intel dan al te throttelen.... ?

Denk dat je de analyses over kunt slaan en wel al kunt concluderen dat AMD de winst pakt hier...
Klopt, een fabrikant is compleet vrij andere heatpipes, fans of fan curves in te stellen.
Throttling zal altijd gebeuren op een temperatuur of vermogen plafon. In dat opzicht zijn de principele verschillen niet aanwezig. Als een Intel machine wel throttled en een AMD machine niet, dan is dat overduidelijk een zwakte van de Intel machine.
Ik kan dat ook onderschrijven in een sprong van de 6700HQ naar 9750H (daarin wel ander chassis). De 6700HQ bleef relatief stil (wel hoorbaar) onder full-core workloads, temps zo'n 70-80C. Die 9750H piekt bij 1-core loads al naar 95C, en heeft koeling nodig waar je u tegen zegt bij full-core workloads. En dan gebruik ik nog geen eens AVX oid wat over algemeen ook extra stroom slurpt.

Volgens mij heeft een batterij er niets mee te maken, danwel dat het juist vertekend is. Gedrag op batterij, zoals terugklokken van de CPU, kan een feature zijn van de BIOS. Zie bijvoorbeeld de schaling in prestaties en TDP tussen een 4800U en 4800H. Die zijn redelijk disproportioneel; dus op batterij is het logisch om de 4800H terug te klokken (niet elke terugklok is throttling) om meer arbeid te kunnen verrichten. Op zo'n moment kan je juist niet throttling detecteren aangezien de accuduur wordt geoptimaliseerd.
AMD architectuur is zuiniger en daar profiteren TDP beperkte platformen zoals laptops.
Als nu nog betere efficiëntie zou apple M1 platform of software daar ook beschikbaar is of alternatieven.
Mac book pro
De X-serie is dunner/slanker. Misschien kan de Tv-serie beter de warmte afvoeren? Ooit stond er een artikel bij notebookcheck.com over diverse Lenovo modellen, (bijna) zelfde CPU, maar wel verschillen in langdurige belasting. Dat zal vast aan koeling liggen, maar ook Lenovo kan in de Bios verschillende power profielen hebben bij de verschillende modellen.
Daar geloof ik niks van 40% winst, dan lijkt er eerder softwarematig iets niet goed te functioneren.
AMD processors zijn op moment sneller maar niet zo overdreven of je zit mid-range en high-end klasse te vergelijken.
40% is echt niet zo raar om te zien,

ten eerste omdat AMD gewoon laptop chips met 8 (in plaats van 4 bij intel) cores kan leveren, ook zijn AMD chips voorlopig nog een stuk zuiniger en dus zullen ze later pas te maken hebben met throttle,
Bovendien zijn ODM's vaak gewoon enorm lui, en optimaliseren ze koelsystemen vaak nauwelijks (behalve bij de higher-highend systemen waar koeling dan ineens een marketing-factor is).

dat de rauwe optimale performance van intel chips in hun respectievelijke marktsegmenten een stuk beter presteren dan 0,6x AMD moge duidelijk zijn, maar in zijn voorbeeld ging het niet om MTS en IPC maar om performance per Laptop (inclusief hun mankementen en design flaws).
Intel levert ook 8 core laptop chips in het H segement (i9 en i7) en 6 cores in het U segment (i7). In geen van deze segment levert Intel maximaal 4 cores.

Voorbeelden: https://ark.intel.com/con...cache-up-to-5-30-ghz.html en https://ark.intel.com/con...cache-up-to-5-30-ghz.html
https://ark.intel.com/con...cache-up-to-4-90-ghz.html

Dat terzijde is het natuurlijk wel duidelijk dat AMD, wanneer verkrijgbaar (dat blijft helaas een achilleshiel zeker in de zakelijke markt), momenteel vaak de beter presterende cpu is, ook in laptops met hun 5000 serie sku's.
Meer cores betekend niet automatisch meer performance, dat is sterk afhankelijk van de gebruikte software of die alle threads kan aanspreken.

Throttle heeft weinig met zuinige cpu te maken dat ligt aan de fabrikant hoe hij de koeling ontwerpt, enige waar je gelijk in hebt dat je door een zuinige cpu een slanker design kan maken.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 16:46]

De twee hardware factoren van throttlen zijn energieverbruik en TDP, dus is zuinigheid (of het gebrek daaraan) deels te verwijten voor throttlen (50%)
ik denk dat hij vooral het effect van een goeie SSD (NVMe) aan het bekijken is... Of van meer DRAM. Of van de GPU.

Wat zit er van opslag in de X1 en in de T reeks?
Dezelfde vraag met RAM en GPU.
Ben benieuwd of ze hun problemen nu achter zich gaan laten.
Ben stiekem al aan het kijken voor een nieuw systeem en dat leek zeker een zen 3 processor te gaan bevatten totdat al die USB problemen zichtbaar werden.
Nu heb ik gelukkig nog tijd om rustig af te wachten, maar de twijfel is er nu toch weer ingeslopen.
USB problemen rond Zen 3? Dat stukje heb ik gemist..
Wat ik weet waren er ook problemen met een aantal geheugen dims sloten, speelt dat probleem nog steeds?

Ben zelf aan het orienteren voor de 5900x.
USB problemen rond Zen 3? Dat stukje heb ik gemist..
Er waren wat problemen met het uitvallen van USB apparaten als de GPU op PCIe v4 liep. De GPU terugschakelen naar PCIe v3 was een workaround (merk je toch niet op gebied van prestaties), maar inmiddels is er een BIOS udpate die problemen moet oplossen.
Ah fijn dat dat stuk is opgelost.
Hoe zat het met probleem rondom aantal geheugen dims sloten. Dat was vooral een issue rondom Zen 2, is dat stuk inmiddels opgelost?
Voor zover ik weet zijn daar geen problemen mee. De eerste BIOS versies konden niet altijd met alle configuraties XMP snelheden halen, maar dat is allang opgelost. Met 4 modules zal het nog steeds wat lastiger zijn om de beste timings te halen, maar dat is universeel en niet een Zen-specifiek probleem.

Een Zen 3 eigenaardigheid is wel dat je met 4 modules in sommige gevallen iets betere prestaties haalt dan met 2 modules (bij gelijke snelheid / timings).
Het vier modulen, XMP profielen en hoge clocksnelheden is ook niet alleen een AMD ding, afgelopen week ook zo'n case gehad met Intel systeem en blijkt het daar ook gewoon te spelen.
Klopt, al heeft AMD er wel vaker last van dan Intel in mijn ervaring, zeker bij Zen 1 en Zen+, vanaf Zen 2 gaat het beter en zie je minder issues, tenzij je echt de grenzen gaat opzoeken.

@Rannasha Dat is trouwens niet alleen een Zen 3 dingetje, Zen 2 heeft dat ook, net als Intel in bepaalde gevallen. Het hoeven trouwens ook niet altijd 4 modules te zijn. Je kan diezelfde resultaten behalen met 4x een Single Rank module, maar je kan ook 2x een Dual Rank module gebruiken.

Het gaat immers niet specifiek over het verschil tussen 2 of 4 DIMM's, maar over het verschil in performance tussen het gebruik van memory ranks in totaal.

Waarbij wel weer gezegd moet worden dat de performance verschillen vaak niet heel relevant zijn, omdat ze vrijwel altijd alleen zichtbaar in situaties waarbij je een cpu bottleneck forceert, zie ook bijv. dit artikel: https://www.techspot.com/...-5000-memory-performance/

Met bijv. de volgende quotes:
Even in Hitman at 1080p, with an RTX 2070 Super you’re going to be almost entirely GPU bound and if you happen to be gaming at 1440p, well, you’ll be entirely GPU bound, and no matter how much you spend on your memory, or how many modules you have, performance is going to be the same.
As for the debate regarding 2 sticks vs 4 sticks of memory. There's nothing new to report since our own test almost a year back. The performance uplift for Zen 3 is no different to that of Zen 2 or competing Intel processors. The margins will also depend on the quality settings used, and of course, the hardware. If you lower the quality settings in games, you’re going to exaggerate the margins further and that does get you further away from the reality for most gamers.
Klopt, al heeft AMD er wel vaker last van dan Intel in mijn ervaring, zeker bij Zen 1 en Zen+, vanaf Zen 2 gaat het beter en zie je minder issues, tenzij je echt de grenzen gaat opzoeken.

@Rannasha Dat is trouwens niet alleen een Zen 3 dingetje, Zen 2 heeft dat ook, net als Intel in bepaalde gevallen. Het hoeven trouwens ook niet altijd 4 modules te zijn. Je kan diezelfde resultaten behalen met 4x een Single Rank module, maar je kan ook 2x een Dual Rank module gebruiken.

Het gaat immers niet specifiek over het verschil tussen 2 of 4 DIMM's, maar over het verschil in performance tussen het gebruik van memory ranks in totaal.

Waarbij wel weer gezegd moet worden dat de performance verschillen vaak niet heel relevant zijn, omdat ze vrijwel altijd alleen zichtbaar in situaties waarbij je een cpu bottleneck forceert, zie ook bijv. dit artikel: https://www.techspot.com/...-5000-memory-performance/

Met bijv. de volgende quotes:


[...]


[...]
@_Dune_
Wat is dus wijsheid om dit probleem met 4 RAM module banken voor te zijn? Ben aan het kijken voor een upgrade richting 5900x setup. Alleen weet ook niet zo goed welke geheugenmodules ik meot nemen
De USB problemen zijn al opgelost.
Er zijn updates voor uitgebracht, maar ik zie mensen na die update nog steeds problemen hebben.
Gelukkig is het met een firmware update op te lossen - zo lijkt het tenminste, want anders zou het echt zuur zijn.
Bizar om te lezen dat Intel dus eigenlijk al jaren achter liep met productiemogelijkheden.

Waarschijnlijk inhouse optimalisaties op machines, maar als zo'n miljardenbedrijf zo omgaan met je corebusiness (wow), bijzonder.

Ik ben erg benieuwd wat er gebeurt met de Age of Architecture. Misschien zien we single cores weer terugkomen.
Als 10nm intel == 7nm andere foundry’s die tegen valt dan zit je daar blijkbaar aan vast. En dan is het met riemen roeien die je hebt. Blijkbaar kon global foundry ook hun 22nm de 32nm niet vervangen voor high-end piledriver. En dat Samsung ook achterloopt op TSMC is dus ook niet zomaar even opgelost.
Kan zijn dat over 5 a 10 jaar TSMC achterloopt.
benieuwd hoe hun big.Little in de komende jaren zich zal verhouden tot de multicore-gallore van AMD en hoe de software-markt er op gaat reageren, want beiden hebben wel een heel andere insteek, waardoor er software design-keuzes zullen moeten worden gemaakt die een beslissende impact zullen hebben op de performance op beide platformen.
Big little is meer oplossing voor intel voor power efficiëntie.
Ben ook benieuwd hoe dat uitpakt tegen Apple silicon.
Big litte lijkt mij belangrijk voor de laptop markt.
Ik stel mij als beginner de volgende vraag: stel dat Intel er in slaagt om naar 7 of 5 nm te gaan, terwijl de concurrentie blijft haperen op 7 of 5 nm, wint Intel dan ineens heel veel performance tov de concurrentie? Of is het nutteloos om te kijken naar performance per vierkante/kubieke meter?

[Reactie gewijzigd door TheMaxMan op 23 juli 2024 16:46]

om deze vraag te beantwoorden moet je eigenlijk dieper ingaan op de fundamenten van de natuurkunde.

dan staan er een paar begrippen centraal.
• de snelheid waarmee stroom door een materiaal als silicium kan worden geleid,
• De weerstand die die stroom heeft ... en daarmee dus de hoeveelheid stroom die nodig is om zo'n weerstand te overwinnen.
• De warmte die bij zo'n weerstand vrij komt, en de reactie (onder andere uitzetten krimpen maar ook de veranderende mate van geleiding die het materiaal (silicium) door die warmte ondergaat.
• De invloed van magnetische velden die er kunnen ontstaan als verschillende spanningen slechts enkele nanometers van elkaar ontstaan.

als je al die factoren bijeen veegt, dan kun je in ieder geval vaststellen dat, in kleinere chips de signalen korteren afstanden afleggen, met dus minder weerstand, waardoor minder stroom, minder warmte (en magnetisme) waardoor minder interferentie en dus hogere clocksnelheden mogelijk zijn. waarbij er een soort cascade effect optreed*.

fictief voorbeeld: 10% grote chip 20% meer stroom 30% minder prestatie

Disclaimer: om deze reactie een beetje leesbaar te houden gaat het hier en daar wel erg kort door de bocht,

[Reactie gewijzigd door i-chat op 23 juli 2024 16:46]

Op dit item kan niet meer gereageerd worden.