Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel: 10nm is minder productieve chipnode dan 14nm en 22nm

Intel meldt dat zijn huidige 10nm-chipnode niet zo productief wordt als 14nm en 22nm. Met zijn 7nm-chipproductie, die eind 2021 van start moet gaan, hoopt Intel weer aansluiting op zijn concurrenten TSMC en Samsung te krijgen.

Intels financiële topman George Davis erkent dat 10nm 'niet de beste node wordt die Intel ooit gehad heeft'. "Het gaat minder productief dan 14nm en dan 22nm worden, maar we zijn enthousiast over de verbeteringen die we zien en we verwachten de 7nm-periode met een veel beter vooruitzicht wat prestaties betreft te starten, eind 2021."

Davis gaf tijdens een Morgan Stanley-conferentie een toelichting op de huidige staat van Intels chipproductie, schrijft Tom's Hardware. Volgens Davis zit Intel in het 10nm-tijdperk en verbetert de productie. "We beginnen de acceleratie aan de procedékant te zien, om zo op peil te komen in de 7nm-generatie en leiderschap terug te pakken in de 5nm-generatie", zei hij. Intel heeft nog niet bekendgemaakt wanneer het zijn 5nm-productie wil starten.

Het is niet duidelijk wat hij met leiderschap terugpakken bedoelde. TSMC is bezig zijn 5nm-productie op te schalen en de verwachting is dat de massaproductie van 3nm bij dat Taiwanese bedrijf eind 2022 een feit is. Intels 10nm is wat features op nanoschaal betreft wel te vergelijken met TSMC's huidige 7nm-productie, maar onbekend is hoe die vergelijking bij komende nodes uitpakt. Mogelijk had Davis het over een economische vergelijking en verwacht Intel met 5nm weer even rendabel zijn chips te kunnen produceren als concurrenten, wellicht ook omdat de grote chipfabrikanten dan allemaal euv-machines gebruiken. Samsung en TSMC zijn daar al mee begonnen, Intel doet dat bij 7nm.

Intel had grote moeite om zijn 10nm-massaproductie rendabel in gang te zetten. Het bedrijf had zich naar eigen zeggen agressieve doelen gesteld wat de verkleining van chipfeatures bij de overstap van 14nm naar 10nm betreft. Inmiddels zijn de op 10nm geproduceerde Ice Lake-processors uit en is de op 10nm+ gemaakte Tiger Lake-generatie in ontwikkeling, maar het bedrijf brengt dit jaar ook op 14nm gemaakte Comet Lake-processors uit en de opvolgende Rocket Lake-generatie voor desktops zou in 2021 ook nog op een 14nm-procedé gemaakt worden.

Door Olaf van Miltenburg

Nieuwscoördinator

04-03-2020 • 18:01

65 Linkedin

Reacties (65)

Wijzig sortering
We zullen zien hoe ver Intel nog kan gaan met extra prestaties persen uit 14nm voor desktop. Als we de geruchten mogen geloven binnenkort 14nm Comet Lake voor de desktops met de 6core i5's nu ook voorzien van hyperthreading, i7's krijgen weer hun hyperthreading terug en een 10c/20t chip voor de i9's. Ik ben benieuwd of dit genoeg zal zijn om nog AMD bij te kunnen houden tot eind 2021.

[Reactie gewijzigd door Tim2010 op 4 maart 2020 18:24]

Tja, het probleem voor Intel is, dat ze niet alleen de core-count-crown definitief kwijt zijn maar sinds Zen 2 hebben ze ook geen noemenswaardig per-core en ipc voordeel meer hebben. Dan zijn 6/12, 8/16 en 10/20 eigenlijk niet meer genoeg om te concurreren als ze de prijzen niet beslist naar beneden bijstellen. Zeker nu de 3950X rond de €750 zit met zijn 16/32. Daarmee kunnen ze voor de i9 eigenlijk niet meer dan rond de €500 vragen tenzij ze dit jaar een veel grotere ipc gain weten te realiseren dan AMD met Zen 3.

[Reactie gewijzigd door Darkstriker op 4 maart 2020 18:52]

Intel heeft natuurlijk nog een aantal troeven. In de eerste plaats natuurlijk de relatie met de OEM markt. Daar worden volumes geleverd die AMD simpelweg de komende jaren niet kan leveren. Ter vergelijking Intel doet in een jaar meer dan 70 miljard omzet, AMD zit op nog geen 7 miljard. Al zou AMD morgen met een cpu komen die elk product van Intel onzinnig maakt, dan kunnen ze dat volume simpelweg niet leveren.

Voor ons gamers is AMD het gat in een rap tempo aan het dichten. Intel heeft nog het Ghz voordeel, maar nu de 3900X een boost van 4.6 Ghz heeft wordt dat gat ook steeds kleiner, Intel zit op x50 momenteel met een 9900K(S). Vermoedelijk gaat zen4 ook weer 200-300 Mhz harder lopen.

Momenteel is voor gamers vooral een cpu als de 3600(X) een hele zinnige keus en is er weinig reden om voor Intel te kiezen. Ik verwacht persoonlijk nog wel een opleving als straks de i5 10600K uit komt. Dat is weinig anders dan een goedkopere 8700K en het lijkt mij dat die zonder probleem op minimaal 5.0 Ghz all core te clocken is. Daarmee zal hij voor pak hem beet $250 niet alleen de Ryzen 3600 (X) verslaan maar ook de 3700X, 3800X, 3900X en 3950X. Die met een all core overclock niet echt verder dan 4.3 Ghz zijn te pushen. Natuurlijk heb ik het dan alleen over gaming. Als we gamernexus mogen geloven dan is een stock 8700K los van de overclock ook al sneller; https://imgur.com/a/FT0fLrf Is nog even afwachten maar verwacht dat we er binnen de komende 2 tot 8 weken het zeker weten.

[Reactie gewijzigd door sdk1985 op 4 maart 2020 21:06]

Ja, de 10600 zou nog wel eens interessant kunnen worden voor gamers. Maar tegen die tijd hebben we ook bijna de 4600X, die ongetwijfeld ook het een en ander aan verbeteringen zal brengen en de 3600X zit al rond de €170, bij tijd van de 10600 misschien zelfs richting de €150. Dan ist $250, wat toch gauw neerkomt op €250 gewoon veel te duur (de 9600K is nog steeds rond de €250). Tenzij je al in RTX2080 (+) territorium zit kan je dan beter de €100 extra in een snellere GPU investeren (XT of SUPER upgrade) dan in een 10600. Dat zal voor gamers een veel groter verschil maken.
Je ziet AMD momenteel duidelijk aan product differentiatie doen door de hogere Ghz alleen bij de duurdere producten met hogere core counts toe te staan en het tegelijk onmogelijk te maken om dit gat met overclocking te dichten (o.a via binning). Het zit er dus dik in dat AMD de 4600X doelbewust traag moet houden om te voorkomen dat de 4700X, 4800X, enz voor gamers oninteressant zijn. Ik verwacht eerlijk gezegd dat die een boost dus beperkt blijft tot iets van 4.6 Ghz single core en all core zal een stuk lager liggen. De IPC gains moeten dan wel heel groot zijn om het gat met de 10600K te dichten. Zo groot dat ik verwacht dat je bij AMD straks simpelweg een duurder model moet kopen om die gewenste Ghz te behalen. (Waarbij dus het positieve nieuws is dat ik verwacht dat AMD straks Intel in gaming kan bijbenen). Dus die 10600K zou ook na augustus interessant kunnen blijven.

Betreft het goedbedoelde GPU advies. Ik doe dat zelf al jaren naar tevredenheid niet. Ik heb liever een wat zwaardere cpu dan een systeem dat bij aankoop direct in balans is. Reden is niet heel complex. Eerste punt is dat ik niet heel gelukkig wordt van een platform upgrade. Dan moet de hele boel weer op de schop, alles uit de kast, cpu koeler opnieuw, enz. In geval van Intel heb je dan ook een nieuw moederbord nodig en dan loopt het snel in de papieren. In de praktijk doe ik daarom best lang met een cpu. De 8700K heb ik nu sinds november 2017 en in tegenstelling tot de 8600K is die nog altijd sneller dan de Ryzen 3xxx line-up in gaming. Voorlopig kan die blijven zitten. Ondertussen is mijn GPU wel geupgrade van een 1070 naar een 2070 en die zal dit jaar ook weer vervangen worden door Ampere of Big navi (iets met 3440x1440 120 Hz). Ik verwacht niet dat die generatie mijn cpu gaat bottlenecken dus dan zit uiteindelijk goed van 2017 (aankoop cpu) tot 2022 (opvolger ampere).

Grootste gevaar bij een 'budget' cpu met een high-end videokaart is overigens frame drops / micro stutter. Ik begin nu al geluiden te horen van de 2600 (X) kopers waarbij de cpu de boel niet kan bijbenen en mensen achtergrond processen gaan sluiten tijdens gaming. Daar moet dan eigenlijk een 3600(X) in en dat is na +- 1.5 jaar dan wel een relatief duur grapje aangezien de 2600(X) nog maar een euro of 80 waard is. Bij Intel heb je ook kopers van bijvoorbeeld een i5 6500 die nu volledig vast zitten door hun moederbord keuze en tegelijk al gebottlenecked worden bij een GTX 1060.

Dus doe vooral je ding maar pas daar een beetje mee op. Dat even los van het hele AMD vs Intel verhaal ;).

[Reactie gewijzigd door sdk1985 op 5 maart 2020 01:07]

Je ziet AMD momenteel duidelijk aan product differentiatie doen door de hogere Ghz alleen bij de duurdere producten met hogere core counts toe te staan en het tegelijk onmogelijk te maken om dit gat met overclocking te dichten (o.a via binning). Het zit er dus dik in dat AMD de 4600X doelbewust traag moet houden om te voorkomen dat de 4700X, 4800X, enz voor gamers oninteressant zijn. Ik verwacht eerlijk gezegd dat die een boost dus beperkt blijft tot iets van 4.6 Ghz single core en all core zal een stuk lager liggen. De IPC gains moeten dan wel heel groot zijn om het gat met de 10600K te dichten. Zo groot dat ik verwacht dat je bij AMD straks simpelweg een duurder model moet kopen om die gewenste Ghz te behalen. (Waarbij dus het positieve nieuws is dat ik verwacht dat AMD straks Intel in gaming kan bijbenen). Dus die 10600K zou ook na augustus interessant kunnen blijven.
Binning is echt van alle tijden. Ook AMD moet winst maken. Bovendien zijn de Mhz verschillen bij AMD zo klein dat het echt nauwelijks verschil maakt voor gamers. De Ryzen 7/9 zijn dan ook helemaal niet op gamers gericht. En wat binning betreft: gemiddelde i5 gaat niet zo goed overclocken als een i7. Maar uiteindelijk kun je bij beide mazzel hebben. i5 en R5 zijn of werkende i7/R7 waar cores zijn uitgeschakeld (die zullen eigenlijk altijd de slechtere bins zijn) of het zijn i7/R7 waar cores daadwerkelijk niet goed werken en daarom zijn uitgeschakeld (en met zo'n exemplaar heb je kans te overclocken als met een i7/R7). En ja, Intels overclocken beter dan de huidige AMDs, maar dat is voor de meeste mensen hartstikke irrelevant. En dat AMD de 4600X opzettelijk langzaam houdt? Dat zie ik niet gebeuren. Dat zorgt er alleen voor dat ze minder marktaandeel van Intel pakken, niet dat mensen ineens R7/R9 CPUs kopen. Ze moeten eerst uit die underdog-positie kwa marktmacht komen voordat ze van dat soort monopolistische strategieën kunnen toepassen.

En hoezo zou de IPC gains bij AMD hoog moeten zijn? In games is de 9600K hooguit 5% sneller dan de 3600X en in de toekomst gaat dat gat juist slinken omdat de 3600K in multi-core benchmarks gewoon beduidend sneller is. Intel zal misschien 2% IPC (gebaseerd op de vooruitgang de afgelopen 5 jaar) + hooguit 6% extra clock bij krijgen dit jaar terwijl AMD afgelopen jaar rond 30% ipc winst realiseerde rond de 4% betere clocks. Al komt AMD nu terug bij de "magere" 10% tussen Zen/Zen+ en haalt het weer maar rond de 4% in clocks, dan nog zou den 4600X een grotere verbetering zijn tov vorig jaar dan de 10600K.

Begrijp me niet verkeerd, het zou kunnen dat Intel ineens een konijn uit zijn hoed tovert en 10%+ IPC gains realiseert en AMD met Zen 3 ineens net zo hard stagneert als Intel sinds de 14nm overstap, maar afgaande op de laatste paar jaar en wat er tot nu toe bekend is omtrent chipdesigns en naamgeving is dat gewoon niet waarschijnlijk. HT gaat het grote verschil maken voor de concurrentiepositie en toekomstbestendigheid van de i5. Maar of het genoeg gaat zijn om de 4600X op afstand te houden? Ik betwijfel het.
Betreft het goedbedoelde GPU advies. Ik doe dat zelf al jaren naar tevredenheid niet. Ik heb liever een wat zwaardere cpu dan een systeem dat bij aankoop direct in balans is. Reden is niet heel complex. Eerste punt is dat ik niet heel gelukkig wordt van een platform upgrade. Dan moet de hele boel weer op de schop, alles uit de kast, cpu koeler opnieuw, enz. In geval van Intel heb je dan ook een nieuw moederbord nodig en dan loopt het snel in de papieren. In de praktijk doe ik daarom best lang met een cpu. De 8700K heb ik nu sinds november 2017 en in tegenstelling tot de 8600K is die nog altijd sneller dan de Ryzen 3xxx line-up in gaming. Voorlopig kan die blijven zitten. Ondertussen is mijn GPU wel geupgrade van een 1070 naar een 2070 en die zal dit jaar ook weer vervangen worden door Ampere of Big navi (iets met 3440x1440 120 Hz). Ik verwacht niet dat die generatie mijn cpu gaat bottlenecken dus dan zit uiteindelijk goed van 2017 (aankoop cpu) tot 2022 (opvolger ampere).
Jouw voorbeeld is een beetje schreef. De 8700K kost nog eens €100 meer dan de 8600K/9600K. Maar de 3600X zou een 2070 net zo min bottlenecken als een als een 8700K of 9700K. Maar het ging mij ook niet zozeer om balans. Het ging erom dat de i5 zijn meerprijs tov de R5 niet kan rechtvaardigen. Zelfs met een 2080Ti haal je met de i5 nauwelijks meer FPS dan met de R5 en ik zie dat niet gauw in het voordeel van de i5 veranderen, eerder andersom dankzij beter gebruik van veel cores. Je kunt dat geld in een betere GPU investeren maar zelfs als je dat niet wilt, kun je wat bij betreft beter die €100 voor je houden en op een later moment incrementeel de CPU upgraden. AMD gaf bij de introductie van Zen aan dat ten minste tot 2020 de AM4 socket wordt gebruikt. Een 3600X kan dus prima een upgrade krijgen naar een 4600X of 4700X oid.

Maar de hele markt zag er ook nog anders uit in 2017 toen de 8700K uitkwam. De Zen CPUs waren op gaming vlak gewoon nog niet opgewassen tegen de Intels en Intel doet nog veel meer aan Mhz-differentiatie dan AMD, waardoor 8600K/8700K een veel groter gat is (de 8700K heeft bijna 10% meer clock dan de 8600K terwijl een 3800X slechts 2% meer clock heeft dan een 3600X). Anno nu heeft AMD dat gat echter bijna volledig gesloten en de kans is groot dat AMD met de 4600X tov de 10600K zoveel meer IPC heeft dat zelfs de naar verwachting 10% snellere clock de 10600K niet kan redden.

En je geeft nu aan dat je GPUs hebt geupgrade, maar een duurdere GPU heeft ook natuurlijk een hogere verkoopwaarde. En als je in het begin een 1080 had gekocht ipv een 1070, had je de upgrade naar de 2070 kunnen besparen (hij is immers niet sneller dan de 1080) en had je een jaar lang beduidend meer GPU power en veel hogere prestaties in games gehad met je 8600K ipv 8700K. En juist met de OC waar jij het over had kun je het verschil tussen 8600K en 8700K veel kleiner maken. In multicore dingen zal de 8700K uiteraard sneller blijven maar in games zal een 5Ghz 8600K nauwelijks onderdoen voor een 5.1Ghz 8700K. En groter is het verschil gemiddeld echt niet.
Grootste gevaar bij een 'budget' cpu met een high-end videokaart is overigens frame drops / micro stutter. Ik begin nu al geluiden te horen van de 2600 (X) kopers waarbij de cpu de boel niet kan bijbenen en mensen achtergrond processen gaan sluiten tijdens gaming. Daar moet dan eigenlijk een 3600(X) in en dat is na +- 1.5 jaar dan wel een relatief duur grapje aangezien de 2600(X) nog maar een euro of 80 waard is. Bij Intel heb je ook kopers van bijvoorbeeld een i5 6500 die nu volledig vast zitten door hun moederbord keuze en tegelijk al gebottlenecked worden bij een GTX 1060.
Tja en dat, dat ligt eraan dat AMD met de 2600X in games nog niet goed bij Intel was. Zen2 heeft een enorme boost in per-core performance geleverd waardoor de 3600X nauwelijks onderdoet tegen de 9600K terwijl de 2600X beslist langzamer was in games dan de 8600K/9600K waar hij tegen op moest. Het punt is juist dat AMD er met de 3600X ervoor heeft gezorgd dat het gat tussen high-end en mid-range CPUs in gaming veel kleiner werd. Ten tijde van de 2600X had ik ook eerder nog een i5 of i7 gehaald als het mij puur om gaming te doen was. Nu rechtvaardigt de i5 zijn prijspremium voor gamers gewoon niet meer en met de CPUs die dit jaar verschijnen gaat dat hoogstwaarschijnlijk nog minder het geval zijn.
En dat Intel CPUs hun waarde de afgelopen jaren vrij goed hielden ligt er natuurlijk aan dat mensen altijd locked zijn aan hun platform en dat Intel ook nauwelijks winst in IPC wist te realiseren. Een geoverclockte 6600K kan een 8600K met OC prima bijbenen omdat het verschil in OC potentiaal miniem is en vrij weinig games echt profiteren van meer dan 4 cores. Dat laatste is natuurlijk aan het veranderen maar de 6600K is dan ook bijna 5 jaar oud. En met een 6700K zou je nauwelijks beter af zijn dan met die 6600K.

En achtergrondprocessen sluiten op een 6-core met SMT? Dat levert op zijn best een placebo effect op. Uit de 2600X is in games eigenlijk alleen meer prestatie te halen met een OC en daarmee kom je helaas niet ver.
Binning is echt van alle tijden. Ook AMD moet winst maken. Bovendien zijn de Mhz verschillen bij AMD zo klein dat het echt nauwelijks verschil maakt voor gamers. De Ryzen 7/9 zijn dan ook helemaal niet op gamers gericht. En wat binning betreft: gemiddelde i5 gaat niet zo goed overclocken als een i7. Maar uiteindelijk kun je bij beide mazzel hebben. i5 en R5 zijn of werkende i7/R7 waar cores zijn uitgeschakeld (die zullen eigenlijk altijd de slechtere bins zijn) of het zijn i7/R7 waar cores daadwerkelijk niet goed werken en daarom zijn uitgeschakeld (en met zo'n exemplaar heb je kans te overclocken als met een i7/R7). En ja, Intels overclocken beter dan de huidige AMDs, maar dat is voor de meeste mensen hartstikke irrelevant. En dat AMD de 4600X opzettelijk langzaam houdt? Dat zie ik niet gebeuren. Dat zorgt er alleen voor dat ze minder marktaandeel van Intel pakken, niet dat mensen ineens R7/R9 CPUs kopen. Ze moeten eerst uit die underdog-positie kwa marktmacht komen voordat ze van dat soort monopolistische strategieën kunnen toepassen.

En hoezo zou de IPC gains bij AMD hoog moeten zijn? In games is de 9600K hooguit 5% sneller dan de 3600X en in de toekomst gaat dat gat juist slinken omdat de 3600K in multi-core benchmarks gewoon beduidend sneller is. Intel zal misschien 2% IPC (gebaseerd op de vooruitgang de afgelopen 5 jaar) + hooguit 6% extra clock bij krijgen dit jaar terwijl AMD afgelopen jaar rond 30% ipc winst realiseerde rond de 4% betere clocks. Al komt AMD nu terug bij de "magere" 10% tussen Zen/Zen+ en haalt het weer maar rond de 4% in clocks, dan nog zou den 4600X een grotere verbetering zijn tov vorig jaar dan de 10600K.

Begrijp me niet verkeerd, het zou kunnen dat Intel ineens een konijn uit zijn hoed tovert en 10%+ IPC gains realiseert en AMD met Zen 3 ineens net zo hard stagneert als Intel sinds de 14nm overstap, maar afgaande op de laatste paar jaar en wat er tot nu toe bekend is omtrent chipdesigns en naamgeving is dat gewoon niet waarschijnlijk. HT gaat het grote verschil maken voor de concurrentiepositie en toekomstbestendigheid van de i5. Maar of het genoeg gaat zijn om de 4600X op afstand te houden? Ik betwijfel het.
Er is toch geen noodzaak om namens AMD argumenten aan te dragen? Zoals gezegd is een 3600X momenteel als gamer een hele zinnige aankoop. Neemt niet weg dat het technisch makkelijker is om een 6c/12t hoger te clocken dan een model met meer cores. Uit commercieel oogpunt draait AMD de boel om. Logisch want dat doet Intel al jaren, dan verzeker je dat in de benchmarks de boel op de juiste plaats staat. Ook daar is bedrijfseconomisch weinig mis mee. Alleen we weten dat je als 'tweaker' vervolgens hier niet omheen kunt werken. Daar waar je bij Intel een all core boost wel ergens tussen de x48 en x52 kunt plaatsen blijft het bij een 3600(X) beperkt tot iets van 4.3 Ghz.

AMD is nu hartstikke succesvol dus ik verwacht dat AMD met de 4600X exact dezelfde truuk gaat uithalen. De duurdere SKU's krijgen de beste Ghz en elk model eronder moet het met 100 Mhz minder doen. Nu is 7nm niet met 14nm te vergelijken dus ik verwacht geen 5.3 Ghz op 7nm (zou wel mooi zijn) dus vandaar dat ik verwacht dat een 4600X zal boosten tot pak hem beet 4.4 Ghz.

Als die verwachting uit komt dan kom je dus op het scenario dat een 10600K interessanter zou kunnen blijven tenzij de IPC van Ryzen 4 goed genoeg is om het gat van pak hem beet 4.4 Ghz naar 4.8-5.0 Ghz te dichten.
En je geeft nu aan dat je GPUs hebt geupgrade, maar een duurdere GPU heeft ook natuurlijk een hogere verkoopwaarde. En als je in het begin een 1080 had gekocht ipv een 1070, had je de upgrade naar de 2070 kunnen besparen (hij is immers niet sneller dan de 1080) en had je een jaar lang beduidend meer GPU power en veel hogere prestaties in games gehad met je 8600K ipv 8700K. En juist met de OC waar jij het over had kun je het verschil tussen 8600K en 8700K veel kleiner maken. In multicore dingen zal de 8700K uiteraard sneller blijven maar in games zal een 5Ghz 8600K nauwelijks onderdoen voor een 5.1Ghz 8700K. En groter is het verschil gemiddeld echt niet.
Mijn gpu upgrade is erg anekdotisch aangezien ik twee gaming computers heb en de RTX 2070 heb aangeschaft zodat ik mijn GTX 1070 kon doorschuiven. Voor het bedrag dat de 1070 nog waard was (250+) iets kopen dat trager was vond ik ook zonde. Op deze manier had iedereen er wat aan. Anders had ik gewacht tot super of een latere generatie.
En met een 6700K zou je nauwelijks beter af zijn dan met die 6600K.
Daar ben ik het niet mee eens. Er zijn aardig wat games waarbij er een enorm verschil is ontstaan tussen meer en minder dan 6 threads. Kom je o.a. tegen bij ubisoft games (siege, wildlands, ac origin, enz).
Een 3600x boost al tot 4.4ghz, de 4000 series word 300-400mhz sneller is de verwachting en met de door AMD beloofde 15% ipc verbetering zal Intel wel heel consequent boven de 5.4ghz (met een heftige tdp) moeten boosten willen ze het winnen in games. We gaan het zien...

[Reactie gewijzigd door Superstoned op 7 maart 2020 10:31]

Vanaf welke processor generatie heeft Intel eigenlijk hardwarematige bescherming tg Spectre en Meltdown en andere lekken?
De 9900k p0 stepping heeft al een deel.

De release stepping R0 niet.
De enige chip die in in de benchmarks wil zien is de 10900k vanwege de 33% grotere cache. Dat is namelijk de enige echte verandering en ik wil wel zien hoe deze vergelijkt met de 9900k op dezelfde clocksnelheden als de 9900k.
Dit geeft dan mooi de impact van meer en mogelijk snellere cache aan. Want AMD cache is fors sneller als dat van intel
AMD's capa bij TSMC verdubbelt wel in H2.

Met AMD's overgang naar EUV dit jaar vermindert het aantal stappen, kortere cyclustijd per machine, dus ook hogere output, met ca. 15% hogere dichtheid; dus ook daar wordt de output >15% hoger; dus dit gaat nog erg hard stijgen.

Trouwens, Intel levert absoluut 100% totaal geen volumes 10nm. Kijk maar in de PriceWatch bij 10e gen processoren: Van de top 10 van Intel zijn er maar 2 op 10nm; rest is allemaal 14nm.

Intel heeft 300+ modellen CPU's, daarvan zijn er maar ~8 op 10nm: AMD's 7nm volume is veel en veel groter dan het zielige beetje 10nm dat Intel nu levert. Sowieso levert AMD oneindig maal meer desktop-processoren op 7nm dan Intel op 10nm; dat heeft alles te maken met het totale gebrek aan 10nm-volume tegen fatsoenlijke yield dat Intel kan leveren.

[Reactie gewijzigd door kidde op 5 maart 2020 00:05]

Over het gebrek aan 10nm heb ik al een hele post gewijd.

Verder lijkt me dat je bron mijn punt wat betreft onderschrijft. Volgens die bron gaat amd 20% van de wafers kopen. De daadwerkelijke som is complexer (amd heeft lagere ASP en relatief grotere chips) maar laten we dat even vergeten en doen alsof AMD simpelweg 10x meer volume moet gaan leveren om Intel te evenaren. Dan zouden ze 280.000 wafers moeten afnemen; precies 200% van de totale capaciteit van TSMC. Zou TSMC opschalen en dat leveren dan zou AMD 70% van de totale capaciteit afnemen. Hetgeen nogal een risico is voor TSMC (iets met buyer power). Voor dat soort volumes zie ik AMD nog eerder, al dan niet in licentie vorm, zelf een fabs in gebruik nemen. Hoe dan ook niet iets dat binnen 5 jaar mogelijk is en waarschijnlijk ook niet binnen 10 jaar.
Nergens beweer ik dat AMD iets gaat evenaren; ik geef slechts aan dat de capaciteit gaat verdubbelen tot verdrievoudigen; dat is dan nog excl. consoles.
Dat is prima, maar alsnog sluit het mooi aan op de originele stelling. "Al zou AMD morgen met een cpu komen die elk product van Intel onzinnig maakt, dan kunnen ze dat volume simpelweg niet leveren."
Je kunt AMD's Ryzen en de huidige Intel CPU's niet letterlijk in Ghz gelijk nemen. In dat geval wint een Ryzen CPU. Het AMD platform is efficiënter op dit moment.

Het gat wat er ligt is wel weer te groot en in het voordeel van Intel. zoals je al aangaf 4.6 vs 5 Ghz wint intel natuurlijk. Zet je een 4.6ghz intel vs 4.6 Ryzen ( gelijk aantal cores & threads) dan is Ryzen sneller in de meeste benchmarks.
Je kunt AMD's Ryzen en de huidige Intel CPU's niet letterlijk in Ghz gelijk nemen. In dat geval wint een Ryzen CPU. Het AMD platform is efficiënter op dit moment.

Het gat wat er ligt is wel weer te groot en in het voordeel van Intel. zoals je al aangaf 4.6 vs 5 Ghz wint intel natuurlijk. Zet je een 4.6ghz intel vs 4.6 Ryzen ( gelijk aantal cores & threads) dan is Ryzen sneller in de meeste benchmarks.
Die bewering klopt niet. Ik vermoed dat je een aanname fout maakt op basis van cinebench resultaten?

Techpowerup heeft Ryzen 1,2 en 3 tegenover Intel 9 gen gezet en alles op 4 Ghz geclocked en toen een aantal tests gedraaid. Daar kwam naar voren dat Intel in letterlijk elke geteste game sneller was. Dat is verder niet vreemd, gezien de dominantie van Intel is het logisch dat developers op dit moment vooral voor Intel hebben geoptimaliseerd. Echter deze resultaten staan haaks op hetgeen jij hier beweerd.

https://www.techspot.com/...ryzen-3rd-gen-vs-core-i9/ .

Gat is voor de 3950X overigens niet meer zo heel groot dus het is zeker niet ondenkbaar dat Ryzen 4 dit gat dicht. Dan resteert echter nog wel het verschil in Ghz, Intel geeft aan te gaan boosten naar 5.3 Ghz. Dat zie ik op 7nm voorlopig niet gebeuren.

[Reactie gewijzigd door sdk1985 op 6 maart 2020 01:09]

Hoe kom je erbij dat AMD die volumes niet zou kunnen leveren?

Juist met de chiplet technologie kan AMD veel meer leveren omdat ze niet specifieke chips hoeven te bakken maar gewoon chips aan elkaar hoeven te lijmen.

Bovendien is tot nu toe nooit de vraag geweest naar de volumes die Intel levert dus weet je ook helemaal niet of AMD dat wel of niet kan leveren.

AMD laat al jaren zien geen problemen te hebben voldoende te leveren aan alle 3 de console merken tegelijkertijd namelijk Nintendo, Xbox en Playstation + nog de PC markt.

En er is tot nu toe nooit gebleken dat TSMC de vraag niet aan kon.
Hoe kom je erbij dat AMD die volumes niet zou kunnen leveren?

Juist met de chiplet technologie kan AMD veel meer leveren omdat ze niet specifieke chips hoeven te bakken maar gewoon chips aan elkaar hoeven te lijmen.

Bovendien is tot nu toe nooit de vraag geweest naar de volumes die Intel levert dus weet je ook helemaal niet of AMD dat wel of niet kan leveren.

AMD laat al jaren zien geen problemen te hebben voldoende te leveren aan alle 3 de console merken tegelijkertijd namelijk Nintendo, Xbox en Playstation + nog de PC markt.

En er is tot nu toe nooit gebleken dat TSMC de vraag niet aan kon.
Dan heb je niet goed opgelet. Meest recent: TSMC's 7nm capacity is full! The launch of AMD's new product is forced to delay for 2 months. Natuurlijk veel vaker voorgekomen gedurende de laatste jaren. TSMC heeft vorig jaar nog gewaarschuwd dat men tijdig moet bestellen.

Om AMD in volume Intel te laten evenaren zou TSMC hun totale capaciteit meer dan moeten verdubbelen en dan zou AMD circa 70% daarvan afnemen in plaats van de huidige 20%. Dat is geen haalbaar scenario binnen de komende jaren om legio redenen (strategisch, financieel, logistiek).
Nou, puur op volume, amd is fabless. Dus volume laten maken is niet kapitaalintensief.

De relatie intel met de oems is stevig. Voor amd; produkt hebben is 1, ondersteuning kunnen bieden is 2. Tegen '22 verwacht ik, als intel geen concurrerend topprodukt heeft, dat er wel wat geschoven gaat worden. Tegen die tijd kan de ondersteuning vanuit amd aardig gegroeid zijn op dat vlak.
Daar komt nog bij dat Intel in vergelijking tot AMD met Spectre en Meltdown harder getroffen wordt door verlies van prestaties door de mitigaties hiervoor.
Ik denk dat het zal liggen aan hoe goed Zen 3 is, die al dit jaar uitkomt, als de ipc met 10% of meer stijgt, heeft Intel denk ik best een probleem, want dan zijn ze gewoon niet meer competitief, want Intel zal nooit meer dan 5% ipc winst meer kunnen halen van last gen naar een nieuwe gen chips op 14nm.
kijk even naar de Xeon Cascade lake R generatie. Dat geeft een idee van wat de mogelijkheden zijn voor intel:

1) prijs verlagen
2) meer cores en HT geven voor een lagere prijs
3) base ghz en cache verhogen met hogere TDP

maw niks dus en enkel uitstel en afstel. Want ook de R line is een paper launch want de cpu zijn pas beschikbaar binnen 2 maanden.

10nm mass produktie is ook weer enkele maanden achteruit voor Ice Lake Xeon,, beschikbaarheid is ten vroegste oktober.

Desktop 2021 nog maar eens 14nm.

De komende 2j is er dus niks interessant om te kopen van Intel.

[Reactie gewijzigd door d3x op 5 maart 2020 08:27]

5nm? Echt? Dacht dat 7nm zo'n beetje het einde was, toch?
Intel heeft vorig jaar de verwachting uitgesproken dat het in 2029 een 1.4 nm node heeft: https://www.anandtech.com...roadmap-from-2019-to-2029

Het is goed om te realiseren dat deze nodes niet slaan op een fysieke dimensie, maar slechts op een transistor dichtheid: https://en.wikichip.org/wiki/7_nm_lithography_process
Kortom: het zijn grotendeels marketing termen. Het éne 7 nm process is ook het andere niet. Het 10 nm proces van Intel kan aardig meekomen met het 7 nm proces van TSMC.

[Reactie gewijzigd door Sten Vollebregt op 4 maart 2020 18:26]

Volgens mij heeft intel met 10 nm behoorlijk moeite met het halen van dezelfde kloksnelheden als TSMC op 7nm en dit verschil wordt nog groter met TSMC 7nm+(EUV). Qua transistor dichtheid zijn ze wel goed te vergelijken.
Als het geen flop was ja, want hun 10nm proces is gewoon mislukt, daarom zien we ook nauwelijks chips, los van wat laptop chips die op lage frequenties draaien.
Waarom niet gelijk dan maar dat zal wel weer met continuiteit en geld te maken hebben. Dacht dat het te maken had met de hittevorming op een zeer klein oppervlak, dat de hitte steeds moeilijker af te voeren is als je het alsmaar kleiner maakt, dat het daarom niet kleiner kon. Ze zouden dan de hoogte in gaan, dies stacken ipv steeds kleiner maken.
De 14nm heeft niets te maken met het oppervlakte van de chip. Het betreft hier de transistor dichtheid. De chip kan bij wijze van nog steeds 1 meter breed en lang zijn.
Ik heb het toch ook niet over de oppervlakte/omvang van de die, ik heb het over hittevorming op een zeer kleine oppervlakte door alles steeds maar te verkleinen, dat de hitte zich steeds meer op een klein oppervlak concentreert dat het moeilijk maakt om zo'n 'hotspot' nog goed te kunnen koelen en te zorgen dat het niet stuk gaat. Ja dat zijn dan transistors ja maar dat is er niet slecht één, hoe kleiner hoe meer geconcentreerd de 'hotspot is'. Het is maar hoe je het leest natuurlijk, het kleiner maken slaat niet op de dies maar op het kleiner maken in het algemeen en dat ze daardoor, omdat het niet kleiner kan maar wel meer functionaliteit willen toevoegen, dan de hoogte ingaan.

Buiten dat, stel dat ze wel kleiner kunnen gaan, met dezelfde functionaliteit, heeft dat wel degelijk invloed op de omvang de die, dat kan dan ook kleiner. Hoe meer dies er passen op en wafer, hoe gunstiger het is voor de prijs en de winst. Dat is één van de redenen waarom het steeds kleiner moet, kostenreductie, meer doen met minder. Zowel het materiaal dat nodig is (besparen op grondstoffen), de ruimte die het inneemt op de PCB etc. Dat laatste is weer belangrijk voor fabrikanten, als het kleiner kan en belangrijk is dat het kleiner is, dan kiezen ze zo klein als mogelijk is. Vandaar die strijdt om het steeds kleiner te maken want als chipbakker x het niet doet dan doet chipbakker y het wel, dus heel belangrijk voor de chipbakker mee te gaan in de trend en wens én dus de competitie om bestaansrecht te hebben.

Het aantal nm zegt niets over de oppervlakte van de die maar kan wel invloed hebben op de benodigde oppervlakte/omvang van de die. De chip kan dus niet bij wijze van 1m breed en lang zijn omdat het helemaal niet past chipbakkersmodel.
Het klopt dat hun doel van kleiner maken meer chips uit een wafer te halen is. Maar zoals ik zeg je zou bij wijze de ruimte tussen de transistors groter kunnen laten en dan heb je dus geen koeling probleem. Je koelingsoppervlakte blijft immers hetzelfde. Sterker nog jouw oplossing van de hoogte ingaan maakt het koelings probleem toch alleen maar groter? Dan moet je over hetzelfde oppervlakte nog eens meerdere lagen koelen..

[Reactie gewijzigd door ro8in op 5 maart 2020 08:04]

Het kleiner maken van chips is echt heel moeilijk. Niet een kwestie van een machine bestellen en in gebruik nemen.
Uhm... Jawel. Je moet alleen even wachten tot de machine leverbaar is ;)
Ligt er aan welk bedrijf je neemt. Een intel doet z'n eigen development. Maar er zijn ook zat bedrijven die een apparaag bin ASML bestellen en alleen op 'start' drukken.
Zo werkt het voor niemand. Elk bedrijf, inclusief Intel, gebruikt machines van ASML, in elk geval aan de ging end kant, bij 40 en 60nm zijn er nog andere bedrijven die machines maken.

Maar met alleen een machine kom je er niet- zie Samsung vs TSMC, zelfde machines, SAMSUNG loopt achter. Je moet veel verschillende dingen nog steeds zelf doen, van de stoffen om de chips te etsen, de pellicle, de filters, God weet wat nog meer.
Na 3 komt dus ook nog 2 en 1.4, dat wordt een beste uitdaging om dat te halen voor 2030.
Dan zouden we nu al aan het einde zitten, aangezien de nieuwe(re) chips van bijvoorbeeld AMD allemaal 7nm zijn
TSMC is in 2019 al begonnen met 5nm "risk production". Naar verluidt zullen HiSilicon (Huawei) en Apple de eerste afnemers zijn. TSMC schijnt op schema te liggen voor massaproductie op 5nm in Q2 2020:
https://www.gizchina.com/...e-competition-for-supply/
Het 'probleem' van Intel is dat ze nm verkleining al decennia lang gebruiken om geld te verdienen, niet om prestaties te verbeteren. Succesvolle architecturen zoals Sandy Bridge waren allemaal nieuwe architecturen op bestaande nm. Vervolgens kwam er een refresh op basis van een kleinere nm die voor de consument eigenlijk weinig tot geen voordelen met zich mee bracht. Intel kon ondertussen natuurlijk meer product uit een wafer halen.

Dus wat doe je dan wanneer blijkt dat de yields van je nieuwe nm zo laag zijn dat het effectief duurder wordt om te produceren? Dan kies je er natuurlijk voor om dat procedé niet in die vorm te gebruiken, de yields moeten dan eerst omhoog. Dat hoeft nog niet een mega probleem op te leveren, echter die nieuwe architectuur die zit achter de nieuwe nm verstopt. Daar waar AMD met Ryzen (en Radeon) direct een nieuwe architectuur op een nieuwe nm uitrolt is dat niet de aanpak die Intel volgt. Intel verkleint eerst het bestaande product, met wat kleine verbeteringen, en komt dan pas met de upgrades. Die nieuwe architectuur loopt dus ook vertraging op. Intel heeft ondertussen zelf ingezien dat dat niet handig is en aangegeven meer modulair te gaan werken. Maar het kwaad is natuurlijk al geschied.

Intel heeft wat dat betreft erg veel mazzel dat de vraag groter dan ooit is en AMD nu pas op aan het opstomen is. Ondanks deze fout gaat het financieel namelijk beter dan ooit.

Ik vraag mij wat dat betreft oprecht af of we ooit grote volumes op 10nm gaan zien, 2021 is niet extreem ver weg en voor het geld hoeven ze 10nm niet in te zetten. Eerste generatie 10nm zal ook geen oplossing voor zen4 opleveren. Als ze dit jaar vol op 10nm inzetten en pas een jaar later met een nieuwe architectuur komen als antwoord op Zen4 dan zit je al in 2021, het jaar dat 7nm klaar zou moeten zijn. Lijkt mij geld weg gooien om al die fabrieken voor 1-2 jaar op 10nm te gooien.

[Reactie gewijzigd door sdk1985 op 4 maart 2020 18:40]

Lijkt mij geld weg gooien om al die fabrieken voor 1-2 jaar op 10nm te gooien.
De competitie met TSMC 5 nm / 7 nm begrijp ik maar hoe werkt dit? Is de vraag naar Intel's 10 nm verdwenen zodra ze 7 nm goed kunnen produceren? Of worden alle fabrieken gegarandeerd omgebouwd zodra Intel's 7 nm van de grond is? Want je ziet nog wel vraag naar de hogere (minder efficiënte) nm segmenten. Zijn de yields van Intel's 10 nm dan gewoonweg te laag en wordt het project helemaal de halt toegeroepen of gebruiken ze andere fabrieken en gaan ze 10 nm alsnog verbeteren?
Je vergelijkt hier een beetje appels met peren. TSMC produceert voor iedereen die het wil afnemen waaronder Nvidia en AMD.

Intel produceert voor zichzelf en daarmee genereren ze via de eindproducten, zoals cpu's, bijna 72 miljard omzet met bijna 10 miljard winst (EBITDA). Voor Intel is het dus geen doel an sich die willen hun cpu's met zoveel mogelijk winst produceren.

Als 10nm slecht werkt dan werkt dat op meerdere manieren in het nadeel van Intel. In de eerste plaats zit Intel al zeker 1.5 jaar aan hun productiecapaciteit. Hetgeen dat wordt geproduceerd wordt verkocht en de buffers zijn op. Binnen die context een fabriek stil leggen en ombouwen is niet handig.

Als na het ombouwen door lagere yields de totale ouput van die omgebouwde fabriek in units per maand ook nog eens lager is dan heb je een nog groter probleem. Niet alleen zijn je kosten dan toegenomen (per unit), maar je eindklanten krijgen dan nog minder product. Er zijn dan geen winnaars.

Het kan zijn dat Intel 7nm betere yields heeft, goed genoeg om zich kosten efficient met 14nm te meten. In dat geval wordt ombouwen al een stuk zinniger.

Overigens zijn er volgens wiki al 4 fabrieken die 10nm doen en 3 die 7nm doen: https://en.wikipedia.org/...Intel_manufacturing_sites

[Reactie gewijzigd door sdk1985 op 4 maart 2020 20:43]

Dat is toch gewoon de titel van het artikel? 10nm is niet productief, dus Intel zal wel zo snel mogelijk naar 7nm over willen als die betere yields heeft. Dat oudere nodes nog gebruikt blijven worden is voornamelijk omwille van de goede yields.
Mijn hoofdvraag is wat er gaat gebeuren met de fabrieken die 10 nm produceren. Worden die ontmanteld/verbouwd naar 7 nm, of komen er geheel nieuwe voor 7 nm?
Er draaien drie fabs bij Intel op 10nm, dit jaar zijn er 9 verscheidene producten aangekondigd op 10nm. Dus 10nm diversificeert van "alleen laptops (2019)" naar "ook andere dingen (2020)".

Daar zit een 5G-basestation chip bij, een server GPU, toekomstige Xeons (10nm server insvestering: staat in de financiele resultaten van Intel dat die nu "klaar is" ) en nog wat andere meuk.

Te verwachten is dus, dat de fabs die 10nm draaien, wel gevuld blijven met dat soort producten. Ze zullen waarschijnlijk vooral 14nm+++++ gaan ombouwen naar 7nm.

7nm is EUV, is volgens mij een grotere kelder voor nodig (voor de Trumpf-drive laser en de drive-laser van de drive-laser, van meer dan een vrachtwagen-container groot), en de flow voor EUV is anders (korter, minder 'rondcirkel'-stappen) dan bij DUV. Dan maakt het niet uit of je gaat ombouwen van 10nm of 14nm.
Het probleem met de huidige architectuur is juist gans de back comptabiliteit. Je kan minder en minder prestatie eruit halen zonder die back comptabiliteit op een bepaald moment op te offeren.

En de grote reden dat we niet met Risc of Arm of Mips of whatever draaien is jusit omdat er zoveel software vastzit op x86... En Intel heeft hun lesje geleerd in de X86-64 tijdperk toen ze de Itanium processor wouden uitbrengen maar grondig op hun gezicht gingen wanneer AMD gewoon x86 uitbreiden met 64bit support ( om o.a voorbij de 4GB memory limiet te gaan ). En rara wat de grote klanten ( bedrijven ) wouden... Die wilde geen grote revolutie voor de toekomst, die wilde gewoon blijven doordraaien op wat werkte, gewoon met een paar fixen.

En de afgelopen 20 jaar is er eigenlijk weinig veranderd op x86 gebied. We krijgen constant extensies van om bepaalde instructies te versnellen. Een beetje architectuur aanpassingen voor een paar procent links or rechts binnen te halen maar daar stopt het.

De grote vraag is, kunnen we eigenlijk een meer efficiënte CPU verkrijgen? ARM is een slecht voorbeeld want eenmaal dat je die CPU's begint te scalen met frequentie, gaat hun grote voordeel van energie efficiëntie grondig de put in. En tik voor tak lopen ze nog altijd achter op de x86 markt.

In realiteit denk ik dat we eens moeten zien om meer gespecialiseerde CPU modules te maken. Wat de functionaliteit van GPU/CPU beter kan combineren. Modulaire blokken dat je in je systeem kan steken voor specifieke taken beter te versnellen.

Het concept van PCI insteek slots is eigenlijk een beetje voorbij gestreefd als je ziet hoeveel plaats ze innemen en hoe slecht te routing vaak is van de lanes. En laten we niet vergeten hoe slecht de cooling keuzes eigenlijk zijn wegens het design.

En hoe je eigenlijk verschillende zaken in je systeem hebt, dat meer uniform kunnen zijn ( gpu memory vs system memory ).

Ik zie een PC meer in de toekomst als compacte modules, waar je niet constant op pcie lanes moet kijken dat op welk slot zitten, waar je moederbord kaler is en je puur de zaken insteekt dat je nodig hebt. Ipv 20 verschillende moederborden met features minder of meer.

Maar zoiets zal zoals met Itanium moeilijk verteerbaar zijn. Er moet echt een GRONDIG voordeel zijn waar mensen op springen om te kopen. En dat is lastiger te vinden...
Wat ook een hele verbetering zou opleveren , is terug informatici opleiden die kunnen programmeren ipv gewoon wat meer resources gebruiken.
Vroeger had je enkele KB en was het geheugen vol dan moest je iets verzinnen ... maar ja toen had men nog kennis van assembler en programmeerde men dicht tegen de hardware aan.

Ik zal waarschijnlijke wel weer een zeurende oude zak zijn O-)
Ik ben het volledig met je eens. Heeft denk ik niet zoveel met leeftijd te maken, ik ben midden 30 - of dat moet ook al oud zijn.

Ik ben dit berichtje in Chrome aan het tikken, met 7 andere tabs open, een terminal, tiling WM en ben de laatste OS upgrades aan het binnenhalen. Dat alles draadloos, met firewall. CPU zit op 3 procent gebruik en geheugen op 650MB - totaal!

Deze laptop kan veel meer, met 6e generatie quad-core i5 en 16G RAM. Maar waarom dat benutten als het niet nodig is?
Je weet ook dat de GPU tegenwoordig veel meer taken op zich neemt dan vroeger ?
Ook intel GPU,s kunnen prima bepaalde zaken doen ondanks ze niet geweldig zijn om mee te gamen.

[Reactie gewijzigd door mr_evil08 op 4 maart 2020 20:06]

Jep! Zit een eenvoudige Intel HD in. Monitor zowel de load als de temperatuur in een statsbar :)
Precies dit. Dé nr één reden waarom een nieuw OS zoveel trager is, is de inefficiëntie waarmee bestaande code wordt geoptimaliseerd, en dan niet op compiler gebied, maar allerlei overbodige functies durven weg laten.
Veel software kan vele malen efficiënter geschreven worden. Grote probleem.... geen business case van te maken voor de meute
Je kunt het ook omdraaien. Veel software is destijds slecht ontworpen, zodat je nu vastzit aan allerlei legacy die niet goedkoop opgeruimd kan worden.
Genoeg pakketten die durven backwards compatibility gewoon over board te gooien. Kan best hoor
Vroeger had je enkele KB en was het geheugen vol dan moest je iets verzinnen ... maar ja toen had men nog kennis van assembler en programmeerde men dicht tegen de hardware aan.
Ik vraag me af hoe jij denkt Excel te kunnen programmeren in assembler. Met genoeg Indiërs zal het (ooit) theoretisch te doen, maar voor dat pakket heb je toch echt een moderne programmeertaal mogelijk.

Vroegûh had je Supercalc, die draaide op DOS en die stond op twee 360kB 5 1/4" floppen. Vervolgens kwam Microsoft met Excel en dat was meteen een veelvoud van floppen omdat de GUI er veel beter uitzag. Die grafische schil met alle toeters, bellen, vinkje zus, vinkje zo met (een veelvoud van) functionaliteit erachter kost gewoon enorm veel geheugen.
> Die grafische schil met alle toeters, bellen, vinkje zus, vinkje zo met (een veelvoud van) functionaliteit erachter kost gewoon enorm veel geheugen.

Kost je veel minder dan je denk. Download eens MX Linux wat Xfce draait als GUI shell. Ding draaide met nog geen 350MB geheugen gebruik en 80MB ervan was python omdat er een GUI python bluthooth interface draaide in de achtergrond ( dom, echt dom ). En dat is met GPU drivers, wifi, printer enz allemaal actief.

Zelf Excel ( ik draai nog de 2007 versie ) gebruikt relatief weinig geheugen, tot je specialiteit begint te doen.

Het zijn zaken zoals Java gebaseerde programma's, python spullen, .Net toestanden, electron ( VSC ), ... de meeste zaken wat geen AOT gecompileerde programma's zijn en/of volledige browser toestanden.

En Microsoft hun nieuw spullen zoals calculator dat 20MB gebruikt voor ... een calculator!

> Ik vraag me af hoe jij denkt Excel te kunnen programmeren in assembler.

Je moet niet programmeren in Assembler om dicht tot de hardware te zitten. Ik herinner me nog Delphi ( nu FreePascal + Lazarus voor GUI ) waar je programma een fractie van geheugen gebruikt ( en verdoemt snel compileerde )... Als ik dat vergelijk met c# en hun verdoemt trage interpreter. Maar niemand dat nog programmeert in Pascal buiten een kern diehards. De resourcen zijn ook te beperkt geworden.

Ik heb effen een oude programma dat ik gemaakt heb toen ik 15 of 16 was effen opgestart ( origineel gemaakt in Delphi 5 of 6, in 2005 hercompiled ). Een Norton Command clone, met volledige functionaliteit en editor. Ding werkt nog altijd en gebruikt 2.8MB! Dat is het ...25 jaar oude code met mooit GUI, kleuren patroon, custom rendering van de listview enz... Met een paar tweaks zou het gerust even goed uitzien vandaag tussen moderne software. En dat is 2.8MB geheugen gebruik en een executable dat bloated is met 0.89MB ( omdat ik een hoop image voor iconen in de executable zitten heb )!

Hetzelfde in Java of C# draait waarschijnlijk tegen de 70 a 100MB ( als het niet meer is ) en zal een installer hebben van 100MB minimaal. PHPStorm alleen al is 450MB installer. *slik*

Je ziet dat je niet in assembly moet werken maar een nog altijd "moderne" taal kan gebruiken ( Freepascal heeft nu ook classes enz ). Maar is niet gepushed door een groot bedrijf = loopt altijd achter op de OS'en kwa features = bedrijven negeren het.

[Reactie gewijzigd door Wulfklaue op 4 maart 2020 21:31]

Als je grafisch ietsje complexer wil zien, haast compleet in assembler geschreven:
https://www.quora.com/Why-was-Roller-Coaster-Tycoon-written-in-assembly
Nou nou ... laten we effe de voorloper nemen van excel; Lotus 123.
Toch wel gebouwd in Assembler en C.
In realiteit denk ik dat we eens moeten zien om meer gespecialiseerde CPU modules te maken.
Zo ziet Xilinx ("wij van WC-eend") het ook; zij denken dat in de toekomst FPGA's veel meer berekeningen zullen doen dan CPU's. de PCI insteek-slots wordt vervangen door CCIX / CXL: Protocollen bovenop resp. PCIe4 / PCIe5; waardoor je een programmeerbare accelerator hebt, die je via PCIex kan verbinden:

https://www.nextplatform....igh-cpu-in-compute-share/
Intel had nooit de zgn "Tick Tock" strategie moeten laten gaan.
Hun productie methode was daarvoor ook ingericht.

[Reactie gewijzigd door obimk1 op 4 maart 2020 19:45]

eind 2021 moet de 7nm productie van start gaan, dus op zijn vroegst midden tot eind 2022 komt Intel pas met de 7nm chips, yikes.
29 April, dan vertelt TSMC wat hun 3nm plannen zijn ;)

[Reactie gewijzigd door kidde op 5 maart 2020 00:30]

Dan vrees ik voor Intel dat ze binnenkort een probleem hebben in de CPU markt.
Intel z'n technieken schalen dus niet langer naar 7nm en kleiner - dat zal de realiteit zijn. Te veel sprongen in een keer - heeft zo zijn gevolgen. Intel zal net als AMD moeten ophouden met die chips nog zelf te willen bakken - dat wordt te duur.
En met dit nieuws komt een financiele topman.
Op en top Intel zou ik zeggen.
Intel begin ik als een merk te zien waarbij een kwalitatief hoogwaardig product maar een bijzaak is.
Veel geld verdienen met troep en het juiste kletsverhaal dat is de strategie van Intel.
En het werkt.
Want mensen hebben er gewoon geen verstand van en kopen wat ze denken te kennen.
Wat ik niet begrijp van intel is waarom ze bij het falen van 10n niet meteen alle manschappen ingezet hebben om hun architectuur te porten naar tsmc 7nm.

Dan hadden ze nog simpelweg de beste geweest en de kans van slagen is groter dan door klooien met iets dat duidelijk niet werkt voor high end.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True