Door Willem de Moor

Redacteur

De wet van de remmende voorsprong

Waar blijft Intels 10nm-chip?

06-05-2018 • 06:00

112

Multipage-opmaak

Clichés

In weinig sectoren is het cliché 'stilstand is achteruitgang' zo van toepassing als in de technologiesector. Hand in hand daarmee gaat een 'wet' die bijna een eeuw geleden door de Nederlandse historicus Jan Romein is opgepend. Zijn wet van de remmende voorsprong heeft een afgeleide, de wet van de stimulerende achterstand, en beide zijn van toepassing in de chipindustrie.

Chipgigant Intel genoot namelijk vele jaren van een positie als marktleider. Het bedrijf bekleedde vijfentwintig jaar de toppositie in de halfgeleidermarkt, als bedrijf met de grootste omzet. Bovendien had Intel vele jaren een technologische voorsprong, waardoor het in staat was om zuinigere chips te produceren op een kleinere node. Er was nog niet zo lang geleden zelfs sprake van een voorsprong van ongeveer twee jaar.

Was, is het sleutelwoord, want Intel lijkt te worden geplaagd door een remmende voorsprong. In de afgelopen maand kondigde concurrent TSMC, Taiwans grootste halfgeleiderfabrikant, aan dat het klaar is voor de massaproductie van 7nm-chips. Intels andere grote concurrent, Samsung, werd bijna tegelijk 's werelds grootste halfgeleiderfabrikant, vooral omdat de omzet van nandchips en dram opnieuw steeg. Zo verloor Intel in één klap zijn koppositie als grootste halfgeleiderbedrijf wat omzet betreft, en zijn technologische voorsprong; Intel produceert namelijk nog altijd chips op 14nm.

Wat betekent dat voor Intel en wat is de strategie van het bedrijf? Wat kunnen we in de komende maanden verwachten en is Intel nog in staat zich terug te vechten naar een toppositie?

10nm: coming soon

Marktaandeel en nodes

Samsung is volgens marktanalysebureau Gartner, niet de minste als het om dergelijke onderzoeken gaat, in 2017 Intel voorbijgestreefd als chipfabrikant met de grootste omzet. Daarmee komt een eind aan een hegemonie van zo'n vijfentwintig jaar: een kwart eeuw waarin Intel de meeste omzet in de halfgeleidermarkt realiseerde.

Samsung kon vooral profiteren van de prijsdruk die al tijden op geheugen staat. De vraag naar zowel dram als nand, voor werkgeheugen en voor opslag dus, is groter dan het aanbod, een situatie waarvan Samsung als grootste geheugenfabrikant kon profiteren. De halfgeleideromzet steeg over 2017 met zo'n 45 procent vergeleken met het jaar ervoor.

2017 Rank 2016 Rank Fabrikant Omzet 2017 (in miljarden dollars) Marktaandeel 2017 Omzet 2016 Groei 2016-2017
1 2 Samsung Electronics 59,875 14,2% 40,104 49,3%
2 1 Intel 58,725 14,0% 54,091 8,6%
3 4 SK hynix 26,370 6,3% 14,681 79,6%
4 5 Micron Technology 22,895 5,4% 13,381 71,1%
5 3 Qualcomm 16,099 3,8% 15,415 4,4%
6 6 Broadcom 15,405 3,7% 13,233 16,4%
7 7 Texas Instruments 13,506 3,2% 11,899 13,5%
8 8 Toshiba 12,408 3,0% 9,918 25,1%
9 17 Western Digital 9,159 2,2% 4,170 119,6%
10 9 NXP 8,750 2,1% 9,314 -6,1%
    Overig 177,201 42,1% 159,645 11,0%
    Totaal 420,393 100,0% 345,851 21,6%

Bron: Gartner (april 2018)

Het makkelijkst is het natuurlijk om te wijzen op de nog altijd krimpende pc-markt waarmee Intel al jaren worstelt, maar dat is slechts een deel van het verhaal, want Intel rapporteerde over 2017 een recordomzet van 62,8 miljard dollar, waar dat over 2016 59,4 miljard dollar was. De winst liep iets terug, maar dat was terug te voeren op een verandering in het Amerikaanse belastingstelsel. Bovendien liet Intels Client Computing Group, onder meer verantwoordelijk voor desktop- en mobileprocessors, een klein plusje zien.

Van de hoge prijzen op de geheugenmarkt kan Intel echter niet erg profiteren, aangezien maar een procent of 6 van de omzet van de opslagdivisie komt. Desalniettemin boekte die afdeling een omzetstijging van 37 procent, en ook de vrijwel even grote, of liever even kleine, iot-divisie liet een flinke groei van 20 procent zien. Programmeerbare chips, zoals de fpga's die het via Altera verkreeg, zijn goed voor een omzet van krap twee miljard dollar, met 14 procent groei vergeleken met 2016. Is dat genoeg, of heeft Intel te laat en op de verkeerde paarden gewed?

Mislukte uitbreidingen

Zonder meer de bekendste misser van Intel is die van de mobiele telefoon. Al heel vroeg had Intel de kans een grote speler op dat vlak te worden, met de overname van DSP Communications in 1998. Intel ontwikkelde destijds een bedrijfstak die XScale genoemd werd en had op dat moment een licentie om ARM-processors te maken. Enkele jaren en ettelijke miljarden aan investeringen later verkocht Intel de telefoonprocessortak aan Marvell voor een luttele zeshonderd miljoen dollar. Toegegeven, de markt was toen niet wat ie nu is, maar Intels tweede poging in de smartphonewereld was too little, too late en de markt was al grotendeels vergeven met ARM-socs. Intels relatief energiehongerige x86-processors vonden nooit echt aftrek, reden voor Intel om in 2016 zijn nieuwe generaties Broxton- en Sofia-socs te schrappen.

Project Alloy IntelMobiele telefoons zijn big business en Intel heeft die boot gemist, maar dat is niet de enige misstap buiten de geijkte paden van pc, laptop en server. Intel Media, een tak die settopboxes en smart-tv's moest maken, werd in 2013 opgedoekt en recenter, in 2017, stopte Intel met de ontwikkeling van wearables, zoals slimme hoofdtelefoons en horloges.

Nog recenter werd zelfs de complete gadgetafdeling, de zogeheten New Devices Group, gesloten. Die afdeling ontwikkelde onder meer de Vaunt-smartglasses, een bril met head-updisplay. Ook een andere bril, de standalone-vr-bril met codenaam Project Alloy, werd enkele maanden geleden geschrapt.

Een laatste voorbeeld: de laatste paar IDF's, Intels Development Forum, waarop het jaarlijks zijn nieuwste technologie demonstreerde aan ontwikkelaars, journalisten en analisten, stonden bol van de diy-tech, zoals Intels Arduino-kloon, de losse Curie-modules die daarop zitten, en minicomputers als Galileo en Joule. Al die producten worden inmiddels niet meer verkocht en Intel lijkt de 'maker'-markt, die het zo enthousiast omarmde, te hebben verlaten. Overigens worden ook die IDF's niet langer georganiseerd.

Dan komen we bij een van de methodes die Intel kan inzetten om zijn productportfolio uit te breiden: het maken van producten voor derden. In 2013 gaf Intel aan dat het de chipproductie voor andere bedrijven op zich zou nemen. Intel zou ten minste deels net als TSMC of GlobalFoundries een zogeheten foundry worden. Dat zou betekenen dat bedrijven die de miljardeninvesteringen in chipfabrieken of fabs niet kunnen opbrengen, toch gebruik kunnen maken van het nieuwste van het nieuwste op het gebied van halfgeleiderproductietechnologie.

Vooralsnog levert de foundrytak echter bitter weinig omzet. Waar dat aan ligt, is onduidelijk, maar Intel zoekt partners waarvan het bedrijf zelf kan profiteren. Zo zou het aantrekkelijk zijn voor Intel als het socs kon maken voor een bedrijf dat nu bij de concurrent chips laat bouwen. Het mes snijdt dan aan twee kanten. Enerzijds levert het inkomsten voor Intel en zijn de dure fabs beter gevuld, anderzijds snoept het marktaandeel weg bij de concurrent. Denk bijvoorbeeld aan een klant als Apple, dat bij TSMC zijn A12-soc laat maken. Intel zou een dergelijke klant maar wat graag hebben, maar dan moet het voor een bedrijf als Apple wel aantrekkelijk zijn om voor Intel te kiezen. Tot dusver kon Intel bogen op een superieure technologie, maar is dat nog wel zo?

Tick, Tock, Tick, Tick, Tick...

Jarenlang kon je de klok erop gelijk zetten; elk jaar of elke achttien maanden bracht Intel een nieuwe architectuur, of Tock, uit. Die werd gevolgd door een verkleining van de procestechnologie: de Tick. Zo gingen we in 2006 van 65nm-chips met de Core-architectuur naar 45nm-Core-chips, gevolgd door Nehalem op eveneens 45nm, en een verkleining naar Westmere. Op een goed moment in deze cadans, rond 2014, had Intel naar eigen zeggen een technologievoorsprong van maar liefst drieënhalf jaar op zijn concurrenten. Een realistischer beeld zou een voorsprong van twee jaar zijn.

Toen Intel echter bij 22nm was aangekomen, met de Haswell-microarchitectuur, bleek de stap naar 14nm Broadwell-chips lastig. Er moest een Refresh voor de Tick worden ingelast, waardoor de cadans spaak liep. Dat werd nog veel erger toen de Tock van Skylake kwam. In plaats van een Tick naar een 10nm-architectuur volgden diverse optimalisaties van de Skylake-architectuur, met Kaby Lake en Kaby Lake Refresh. Het hele Tick-Tock-idee is inmiddels zelfs losgelaten en het is nog altijd onduidelijk wanneer precies de langverwachte stap naar 10nm zal volgen.

Intel tick tock optimization 4e 14nm

Nu is de ene procestechnologie de andere niet en Intel hanteert net iets andere dimensies om zijn nodes te benoemen. De 14nm-transistors van de huidige Intel-processors hebben dan ook geen enkele dimensie die aan 14nm doet denken, en datzelfde geldt voor de 16nm-node van TSMC en de 14nm-node van Samsung. Sterker nog: Intels 14nm-node is aanzienlijk compacter dan de 16nm- en 14nm-nodes van TSMC en Samsung, en komt eerder overeen met de 10nm-node van TSMC.

Intel-voorsprong

Waar Intel dus nog op 14nm produceert en pas in 2019 naar 10nm overstapt, produceert concurrent TSMC al geruime tijd op 10nm. Dat die equivalent is aan Intels 14nm-node, wordt echter langzaam irrelevant, want TSMC kondigde onlangs aan gereed te zijn voor de massaproductie van 7nm-chips. Ook Samsung produceert al geruime tijd op 10nm en maakt zich op voor 8nm-productie. Daarmee heeft ten minste TSMC Intel ingehaald; de 7nm-node van TSMC is ruwweg equivalent aan Intels 10nm-node. TSMC biedt echter momenteel al massaproductie op zijn CLN7FF-procedé met tientallen ontwerpen en volgend jaar volgt een verbeterde versie: CLN7FF+.

Codenaam   uArch Node Jaar
Haswell (Tock)   Haswell 22nm 2013
Haswell Refresh (Optimization)   Haswell 22nm 2014
Broadwell (Tick)   Haswell 14nm 2014
Skylake (Tock)   Skylake 14nm 2015
Kaby Lake (Optimization)   Skylake 14nm 2017
Kaby Lake R (Optimization, Mobile)   Skylake 14nm 2017
Coffee Lake (Optimization)   Skylake 14nm 2017
Whiskey Lake (Optimization, Mobile)   Skylake 14nm 2018
Cannon Lake (Tick)   Skylake 10nm 2019?
Ice Lake (Tock/Optimization)   Ice Lake 10nm 2020?
Tiger Lake (Optimization)   Ice Lake 10nm 2020?

Intel zit dus voorlopig nog vast op het 14nm-procedé, al is dat wel wat geoptimaliseerd sinds het bedrijf er in 2014 op overstapte. Pas in 2019 zal het, zoals het er nu voorstaat tenminste, overstappen op een 10nm-procedé. Daarmee is het zijn technologische voorsprong, die ooit verscheidene jaren bedroeg, kwijt en loopt de gewezen grootste chipfabrikant nu opeens een jaar achter op TSMC en Samsung. Bovendien is Intel een troef kwijt om klanten naar zijn foundrybusiness te krijgen, want wie leading-edgetechnologie wil, kan inmiddels misschien beter naar TSMC. Ook Samsung biedt momenteel 10nm-chips en bij GlobalFoundries staat de 7nm-node eveneens klaar.

Hoe verder?

Anno 2018 staat Intel er minder rooskleurig voor dan voorheen. Het is echter niet helemaal eerlijk om te rekenen met de nodes die fabrikanten zelf opgeven, want die geven de daadwerkelijke transistorafmetingen al lang niet meer accuraat weer. Zoals we op voorgaande pagina's al aangaven, is Intels 10nm-node min of meer equivalent aan de 7nm-node van diens concurrenten. We zetten de nodes voor dit jaar en de geplande nodes voor volgend jaar even op een rij en zetten er de gecorrigeerde afmetingen bij.

Fabrikant

Huidige node
Standaardnode-equivalent
Geplande node
GloFo 10nm
10,3nm
7nm (eind 2018, begin 2019)
7,8nm (euv)
Intel 14nm (en 10nm?)
12,1nm (en 8,3nm?)
10nm (massaproductie 2019)
8,3nm (193i)
Samsung 14nm en 10nm
14,4nm en 11,2nm
7nm (2H 2018)
8,2nm (euv)
TSMC 16nm, 10nm en 7nm
15,7nm, 10,3nm en 7,9nm
7nm (2018) en 7nm+ (2019)
7,9nm (193i) en 7,9nm? (euv)

In 2019 zou Intel dus weer redelijk concurrerend moeten zijn, maar TSMC en Samsung hebben voor dat jaar 5nm-nodes op de planning staan. Intel zou rond 2020 een 7nm-node introduceren, maar gezien de vertragingen met de 10nm-node is het afwachten of het bedrijf die tijdslijn kan realiseren. Intel heeft aangegeven al 10nm-chips te leveren, maar welke producten dat zijn, is onduidelijk. Een kandidaat zou de processor uit de nieuwste NUC zijn: een i3-8121U, een dualcore die vreemd genoeg zonder gpu zou worden gemaakt.

Een van de grootste problemen om van 14nm-processors naar 10nm-processors over te stappen, zou het probleem van de yields zijn. Intel heeft het 14nm-procedé inmiddels goed op orde, met diverse verbeteringen, onder meer in de verhouding tussen ribhoogte en -breedte van de finfets, wat sinds de introductie inmiddels zeventig procent betere prestaties voor de 14nm-transistors zou opleveren. Een factor die bijdraagt aan de problemen met 10nm-chips waar concurrenten minder last van lijken te hebben, zou de complexiteit van Intels processors kunnen zijn. Een x86-multicoreprocessor zit flink anders in elkaar dan bijvoorbeeld een gpu of soc, en de chips zouden gevoeliger voor fouten kunnen zijn.

Het 10nm-procedé zou lage yields hebben, waardoor te veel chips op een wafer niet goed zouden functioneren. Het lek zou inmiddels boven water zijn, maar niet op tijd om nog dit jaar massaproductie te draaien. Een van de oorzaken zou zijn dat Intel ook voor 10nm nog geen euv inzet, maar afhankelijk is van multipatterning en daarmee gepaard gaande defecten.

KIntel Movidus Stickortom, Intel heeft de boot gemist wat mobiele socs betreft en zijn technologische voorsprong van verscheidene jaren is inmiddels verdampt. Diverse pogingen om het productaanbod te diversificeren zijn grotendeels op niets uitgedraaid. Zo zijn gadgets als vr-brillen nooit succesvol geworden en moest de New Devices-afdeling worden gesloten. De diy-markt ontving Intel ook niet met open armen, vooral omdat de x86-processors nog altijd veel duurder waren dan goedkope Arduino's en andere bordjes met ARM-hardware. Het bedrijf wedt nu op andere paarden, zoals automotive, waarvoor het onder meer neurale netwerken wil maken. Als dat nog niet te laat is, ligt daar nog een miljardenmarkt voor Intel, dat met dat doel onder meer Nervana Systems, Movidius en Mobileye kocht.

Ook de mobiele markt is nog niet helemaal losgelaten, met Intel als grote leverancier voor modems in zowel telefoons als masten. En natuurlijk heeft het bedrijf nog altijd een zeer dominant marktaandeel bij servers, desktops en laptops, maar concurrent AMD zou die heerschappij in de komende jaren weleens kunnen aanvallen.

Lees meer

Reacties (112)

Sorteer op:

Weergave:

Top artikel Willem, ikzelf heb hem in elk geval met veel plezier gelezen kan ik melden.

Nu kwam ik dit artikel/stuk hieronder een tijdje terug tegen op tomshardware, en deze is wellicht nog een goeie aanvuling.
Ik heb de link naar het volledige artikel dan ook hieronder toegevoegd, voor de liefhebbers.

10nm is Intel's last process based on traditional photolithography, and though Krzanich (=Intel's CEO Brian Krzanich) didn’t dive deep into details, he listed the lithography technique as a significant contributor to the low 10nm yields. The company will switch to EUV at 7nm. Currently, Intel's multipatterning process is generating too many yield-reducing defects to produce 10nm cost-effectively. Krzanich says the company has identified the issue and is moving to correct it, but the fixes will take an unspecified amount of time to impact yields significantly. Intel was unwilling to commit to high volume production in the first half of 2019, so it's possible 10nm will be delayed until the second half of the year.

Krzanich’s statement says that while Intel has defined the fixes, it hasn’t actually tested them in high-volume manufacturing. That means the company could turn back to the drawing board soon if the fixes aren’t effective.

Unfortunately, process technologies require extensive incubation periods, so it could take some time before leadership changes have a significant impact on Intel's roadmap. Intel's obviously bringing the pieces together quickly, but its competitors, such as AMD, are executing well on their future architectures. AMD already has working 7nm GPUs in its labs and projects it will sample 7nm EPYC 2 processors this year. Both will be in volume production early next year.

Volledige artikel is hier te lezen/vinden: klik = gepubliceerd op tomshardware April 26, 2018
Het is altijd een grote stap voor zo een bedrijf en dus ook een grote investering.
Maar aangezien intel genoeg centen heeft zal het met dit bedrijf wel meevallen.
Er zullen altijd nieuwere machines aangeschaft moeten worden en die zijn vrij prijzig.
Omdat het allemaal nog kleiner kan heeft zich in de geschiedenis bewezen.
En dan komen we bij het euvel hoeveel kleiner kan het nog op technologisch vlak?Nou de praktijk zal het uitwijzen hoe klein ze alles kunnen maken.tic -toc technologie gebruiken ze niet meer?
Of niet meer relevant omdat ze drie jaar op alles voorliggen?In 2019 pas nog een jaartje intel als er een nieuwe chip en chip voetje komt,zullen er ook nieuwere moederborden moeten komen.Tenminste als ze niet willen voordborduren op oudere technologie.
Leuke revieuw. :)

[Reactie gewijzigd door rjmno1 op 24 juli 2024 09:53]

Het ruime geld is paradoxaal genoeg de handicap van Intel. De wet van de remmende voorsprong is dan ook een gebazel. Wat bedrijven als Intel remt is de luxe van enorme winstmarges op haar cash cows. Stel je bent manager bij Intel en je wordt gevraagd om nieuwe kansrijke markten te openen voor Intel. Dat lijkt leuk, maar bij een bedrijf dat gewend is 30% winstmarge te maken op producten hoef je niet aan te komen met minder. Dat betekent dat je in markten waar op prijs wordt geconcurreerd zoals in mobile je meteen al uit de boot valt want je concurrenten werken met veel kleinere marges.

Daarbij is het zo dat bedrijven die goede winstmarge maken, hun producten vaak luxer en complexer maken, om de klant te verwennen en binden. Het moeten maken van scherp geprijsde kalere producten is dan een cultuuromslag voor zo een bedrijf. Intels Fabs zijn gewoon de beste, maar ook de duurste. Daarom zag Intel zich genoodzaakt om haar Atom mobile chips bij de concurrent te laten produceren. Op die manier bereik je nooit marktleiderschap.

En Intel moet het hebben van marktdominantie om haar ruime marges te bereiken. Daarom krijg je dan ook van die zijsprongen naar nieuwe markten als virtual realitie brillen die leuke marges beloven. Stel dat je die markt kan domineren met je technologie. Helaas komt daar andere technologie en software bij kijken dan waar Intel sterk in is, dus sterven die pogingen.

Eigenlijk zijn bedrijven als Intel ook al lang niet meer gewend aan harde prijscompetitie. Ze beheersen niet alleen hun markten maar ook een groot deel van de keten. Zo weten ze ook superieure producten van concurrenten te breken. Maar dat geldt alleen als ze een thuiswedstrijd mogen spelen. In de uitwedstrijden zijn ze zonder die voordelen opvallend zwak.

Intel staat hierin niet alleen. Het geld voor bijna alle marktleiders die zich met abrupte veranderingen worden geconfronteerd door nieuw opkomende markten die zijdelings concurreren. Veel gaan dan liever ten onder als een bewuste keuze. Voor de aandeelhouders is het maximaal uitbuiten van de cashcow voordeliger dan het bedrijf continueren door scherp te gaan concurreren met lagere marges.

Het beste kunnen zulke bedrijven geheel los staande jonge bedrijven opzetten voor nieuwe markten die wel de strijd kunnen aangaan. Niet alleen geeft dat minder prestige verlies zoals met dit soort artikelen, het heeft ook veel meer kans van slagen als je deze bedrijven volgens de voorwaarden van de concurrentie laat werken. Laat ze ook rustig met verlies of kleine marges werken in de aanloop fase.

Gaat Intel nu naar de afgrond? Zeker niet. Kijk maar naar IBM die zagen zich voor vergelijkbare uitdaging geplaatst en vonden een oplossing door o.a. meer te richten op software. Intel heeft ook eerder een moeilijk periode gekend toen de Japanners opkwamen. Toen zijn ze flink afgeslankt en hebben de organizatie heel plat gemaakt, waarbij elke werknemer een coupon kreeg waarmee hij spreektijd kon verzilveren bij de hoogste baas. Dat leidde tot een veel daadkrachtigere organizatie, die vervolgens de Japanners van de kaart veegde.

Wat ik wel denk dat ook in het nadeel gespeeld heeft van Intel is dat Intel en MS altijd het leeuwendeel van de winstmarge in de bedrijfstak naar zich toe getrokken hebben ten koste van met name de fabrikanten. Met dat in je achterhoofd ga je als fabrikant niet Intel en MS opnieuw een monopolie in mobiele apparaten bezorgen door hun producten te voeren. Je kiest dan liever voor goedkope alternatieven als ARM en Android. Zouden Intel en MS ruimhartiger gedeeld hebben dan zouden fabrikanten mogelijk eerder voor hun hoge marge producten gekozen hebben.

Maar wat voor Intel geldt geldt ook voor AMD. AMD bestaat ook alleen maar dankzij de torenhoge marges van Intel waardoor AMD onder hun prijs kan duiken en toch nog winst kan maken. Maar in de mobiele markt heeft AMD evenmin iets in te brengen. De enige die een serieuze poging heeft gelanceerd is nVidia en door ARM processoren te koppelen aan hele krachtige GPU's die in bepaalde markten wel aftrek vinden.

Wat wel in het voordeel van Intel werkt is dat de prijzen op de PC-markt weer stijgen, met name convertables en ultralight notebooks. Daar kan Intel dan weer leuk geprijsde chips voor ontwikkelen. Niet toevallig want het ultralight gebeuren komt uit de koker van Intel. De hoge marges, het gebrek aan echte concurrentie hebben ook geleid tot een tragere ontwikkeling in de PC-markt dan Mobile waar alleen koplopers iets verdienen en daarom iedereen enorm investeert om maar in de kop mee te kunnen draaien.

Het heeft niet te maken met wet van remmende voorsprong, maar economische principes. De Wet van Moore is eigenlijk al een paar jaar niet meer geldig. Want het gaat er niet om of je elke anderhalf jaar het aantal schakelingen kan verdubbelen, maar of je dat zo economisch kan doen dat daarbij ook nog eens de stuksprijs daalt. Dat is al lang niet meer het geval. Vroeger kon dat omdat weliswaar de investeringen stegen maar doordat je én chips meer schakelingen kon geven én meer chips op een die kwijt kon daalden kosten per eenheid.

De laatste jaren stijgen echter de kosten per eenheid en daarom kun je nu chips geproduceerd op het nieuwste procede alleen goed kwijt in topmodellen die steeds betere prestaties moeten leveren om mensen vervroegd te laten upgraden. We zien de prijzen van topmodellen daarom ook weer stijgen. Degene die daar het meest van profiteert is Apple. iPhones zijn namelijk een dermate statusobject dat ze in de economie wel aangeduid worden als een Giffen good. Van zulke goederen stijgt de vraag als de prijs toeneemt omdat dit de exclusiviteit nog meer verhoogt. Het heeft even geduurd bij Apple voor dat kwartje is gevallen. MS heeft het inmiddels ook door en stuwt de prijzen van zijn Surface convertables verder omhoog. Leuk voor Intel. Een andere toepassing is logischerwijs VR, AR en Automotive, deep learning die grote baat hebben bij nog sterkere chips.

Waar ik denk dat Intel de boot heeft gemist is een goede opvolger creeeren voor de x86 architectuur. De itanium was gericht op Enterprises voor high performance, maar wat ze tijdig hadden moeten ontwikkelen is een alternatief voor ARM. Te laat zijn ze lichtere processoren gaan maken maar nog steeds gebaseerd op x86. Ook Intel lijdt onder de idee dat nieuwe producten compatible moeten zijn met oude ook al worden ze toegepast in verschillende markten. Het streven naar synergie is gemakkelijk een excuus voor mensen in de organizatie om de vertrouwde technologie te blijven oprekken.

Dat bedrijven als Intel de mobiele boom niet op tijd aan zagen komen, komt doordat ze gewend zijn hun eigen markten naar hun hand te zetten. Dat schept een overdreven zelfvertrouwen. Ik denk dat Intel zich nu weer gaat richten op waar ze altijd sterk in geweest zijn, en dat is highperformance chips maken. Als je dat energiezuinig kan doen is daar zeker een grote markt voor met de komst van AI. Dit vereist wel hele nieuwe soorten chips.

[Reactie gewijzigd door Elefant op 24 juli 2024 09:53]

Ik wil even bescheiden opmerken dat ik jouw reactie even interessant of misschien wel interessanter vond dan het artikel zelf!
Toch enkele kanttekeningen bij je reactie:
  • Overstappen op een andere architectuur dan x86 is een zeer serieuze uitdaging. Uit ervaring weet ik dat je zo 10-20 jaar verder bent voordat een nieuwe architectuur genoeg momentum heeft. Denk maar aan de tijd die het gekost heeft om van 16-bit naar 32-bit naar 64-bit te stappen. Zelfs die laatste stap is nog niet volledig gemaakt (Windows 10 is er nog steeds in 32-bit uitvoering)
  • Voor afgebakende markten (zoals mobile devices) is overstap op een ander platform eenvoudiger dan voor een markt die embedded/PCs/laptops/servers omvat. Itanium heeft het niet gered (en daarmee ook HP PA-risc finaal over). Oracle SPARC is min of meer de stekker uitgetrokken. Van PowerPC is het maar de vraag of ze het gaan redden. Hoewel Intel 'duur' is (in jouw terminologie) is Intel altijd veel minder duur geweest dan IBM/HP/Oracle tegenhangers.
De discussie is volledig te koppelen aan 'betere' (in termen van bijv. prijs/prestatie) producten. Er zijn in het verleden best (technologisch) betere producten geweest, die het niet haalden. De markt is dusdanig grillig, dat succes lang niet alleen afhangt van de kwaliteiten van een product. De keuze van het publiek - die uiteindelijk de afnemer is van een product - is soms grillig/onvoorspelbaar.
Leuk artikel en interessante materie.

Maar in alle eerlijkheid, die laatste pagina lijkt er een beetje uitgeperst: ineens wordt er verwezen naar termen zonder enige toelichting, terwijl ik bij Tweakers nu net gewend ben dat jullie zoveel mogelijk proberen artikelen toegankelijk te houden. En dat lukt het hele artikel, alleen op de laatste pagina komen er ineens termen voorbij die helemaal niet toegelicht worden: yields, finfets, euv, multipatterning en daarmee gepaard gaande defecten? Wablief?

Ik wil best even googlen als ik een artikel lees, maar op die laatste pagina wordt de jargon dichtheid ineens wel erg hoog :)

[Reactie gewijzigd door Dasprive op 24 juli 2024 09:53]

Zo uit het hoofd en versimpelt omschreven (wees vrij om aan te vullen / corrigeren):
Yield: is de kwaliteit/opbrengst van je productie. Als je productieproces niet goed onder controle hebt kan het zijn dat je chips defect zijn of niet optimaal functioneren, de opbrengst van die productie zal dan dus lager zijn die van een betere oplevering.
FinFET: schakelend onderdeel in een chip / transitor type. Deze werken ook goed als je ze klein maakt en ze schakelen erg snel.
EUV: Een chip heeft een origineel patroon (als een negatief van een foto) die gebruikt wordt om het patroon van de chip op een wafer (plaat waarop/waarmee de chip geproduceerd worden) te kunnen belichten. Hoe fijner/kleiner je kunt belichten hoe meer detail je kunt krijgen in je chip. In dit geval is dat Extreem UltraViolet, het licht type (golflengte).
Multipatterning: Omdat het lichttype bepaald hoeveel detail je op de chip kan belichten zijn er dingen bedacht om alsnog iets meer detail op een chip te krijgen. Multipatterning is het idee dat je 1 laag op een chip met meerdere patronen achter elkaar kunt belichten om zo meer detail te krijgen. Vandaar de naam.
Hierbij dan de aanvulling versimpeling:

Yield: Percentage werkende chips dat uit een process run komt. Je kan hier subdivisies in aanbrengen echter dan wordt het weer ingewikkeld.

FinFET: https://en.wikipedia.org/wiki/FinFET Met plaatje wordt het een stuk duidelijker. Oh, en als een transistor niet goed werkt dan heb je er niet veel aan, je bedoelt hier sneller in plaats van goed lijkt het me zo

EUV: Golflengte gebied van gebruikte belichtingsmethode

Multipatterning: https://en.wikipedia.org/wiki/Multiple_patterning Dus theoretisch belicht je niet een laag maar meerdere om uiteindelijk tot 1 laag te komen met een hoger patroon dichtheid. Je minimum structuur grote wordt bepaald door de golflengte van het licht dat je gebruikt, wil je kleiner dan kan dat dus alleen door meerdere laagjes te gebruiken.

Edit: typo

[Reactie gewijzigd door Nacht op 24 juli 2024 09:53]

Ik kon er zo geen bron bij vinden maar volgens mij kon je een FinFET kleiner maken dan CMOS, waardoor ze kleiner kan maken en ze op dat formaat ook nog goed werken.
Dat klopt voor de traditionele CMOS en dan in het x,y-vlak in het z-vlak zijn ze hoger:

https://www.design-reuse.com/articles/41330/cmos-soi-finfet-technology-review-paper.html
Nice, bedankt!
(had tweakers niet altijd van die stippellijntjes onder keywords waar dit soort dingen onder konden verschijnen?)
Zeker, maar daar moet de auteur van een artikel wel zorg voor dragen en dat is hier helaas niet gebeurd.
waarschijnlijk omdat tweakers hier reeds ettelijke artikelen heeft aan besteed. maar had niet misstaan om daar even naar te refereren.
Misschien een beetje vakblindheid, dit soort termen komen al jaren voorbij op Tweakers. Maar goed, niet iedereen heeft deze de afgelopen jaren gelezen natuurlijk.
Marketingtechnisch begrijp ik het, maar hoe kun je zo iets absoluuts als de grootte van je componenten op zo'n verschillende wijzen meten dat je afwijkingen krijgt van tot wel 30%?

Meet de ene de (grootte van de) componentjes zelf en meet de andere (Intel) de afstand inclusief de gap tussen de componenten ofzo?
Tja, als ik kijk op https://en.wikipedia.org/wiki/14_nanometer dan is er niks dat 14nm is. In het tabelletje kanje zien dat de breedte van de transoistor'fin' 8nm is bij zowel Intel als Samsung en GF. Maar bij Intel zitten de transistors dichter op elkaar en de afstand tussen de bedrading is ook kleiner. En kleiner is ook hier natuurlijk beter.
De vraag is en blijft of het wel zo handig is om op die route door te gaan en of kleiner daadwerkelijk beter is.

Dichter bij elkaar betekent namelijk ook dat de kans op hitte toeneemt doordat de warmte minder goed wordt afgevoerd. Meer hitte, meer weerstand, hoger verbruik.


Een ander issue is dat de Intel veel legacy heeft, terwijl bij ARM relatief snel grote aanpassingen kan worden gemaakt ivm hoe de chip is opgebouwd. Combineren van langzame en snellere cores vb is minder een issue bij ARM.


En dat er minder ruimte is met het concept van x86 kun je zien aan een ontwikkelingen. De CPU wordt een klein beetje sneller, klein beetje minder verbruik en voor de rest niks schokkend.
De AI die je steeds vaker bij ARM zit is een extra FPGA/ASIC die er aan is geplakt. Zou Intel ook bij standaard-modellen kunnen doen, maar doen ze voorlopig niet. GPU gedeelte is de laatste jaren beter bij Intel, maar stelt nog steeds weinig voor.


En Apple heeft ook redelijk genoeg van de medio-core prestaties van Intel.
nieuws: Gerucht: Apple wil Intel-cpu's in Macs verruilen voor eigen exemplaren
Die gaat weer eigen chips ontwerpen. Of ze die daadwerkelijk gaan gebruiken is nog een tweede, maar het signaal is duidelijk. Een alternatief als bij Intel geen sprongen worden gemaakt.
Ik denk dat we niet moeten vergeten dat x86 naast alle legacy meuk ook gewoon enorm verfijnd en geoptimaliseerd is, er is tientallen jaren gewerkt aan de ideale CPU en dat is ook de reden dat je nu AMD met Ryzen niet echt hard Intel voorbij ziet schieten. Er zitten gewoon grenzen aan de huidige kennis en alle mogelijkheden zijn wel zo'n beetje uitgeprobeerd. We hebben zoals anderen ook aangeven óók een heel aantal CPUs gezien die het helemaal zo best niet deden. Binnen de Core architecturen heeft Intel ook geregeld kleine tweaks en redelijk grote tweaks doorgevoerd met name in wat er wel of niet op de die meegenomen wordt / op het bord moet gebeuren, power delivery, IMC, ze hebben allemaal verschillende plekjes gehad. Met wisselende resultaten.

Er werd jarenlang geroepen dat Intel maar op zijn handen zou zitten en ik heb dat eigenlijk altijd met een korrel zout genomen. Het is ook voor Intel geen goede business om grote prestatiesprongen in CPUs achter te houden en ik denk dat Coffee Lake en de komende CPUs dat ook bewijzen: de sprongen worden niet gemaakt dankzij architecturele wijzigingen, maar door het toevoegen van wat cores en hogere stock/boost clocks. Het knappe van Coffee Lake is dat Intel de core count omhoog duwt met een minimale impact op de kloksnelheden. Ik zie ze dat met de 8-core variant nog niet zo snel presteren. Dat Intel nu van gekkigheid niet weet hoeveel ze moeten aankondigen om toch de aandacht vast te houden spreekt boekdelen. We naderen een stadium waarin zowel de procesverkleiningen als de architecturele aanpassingen op x86 niet meer zoveel opleveren. Core counts kunnen nog wat omhoog, maar we zien ook dat dat vaak ten koste gaat van kloksnelheden. Reken er dus maar op dat de CPU x86 markt verder stagneert en dat men op andere zaken moet gaan verkopen als louter een prestatie winst. Security, bijvoorbeeld... of het behoud van prestatieniveau icm security ;)

[Reactie gewijzigd door Vayra op 24 juli 2024 09:53]

Ik denk dat we niet moeten vergeten dat x86 naast alle legacy meuk ook gewoon enorm verfijnd en geoptimaliseerd is, er is tientallen jaren gewerkt aan de ideale CPU en dat is ook de reden dat je nu AMD met Ryzen niet echt hard Intel voorbij ziet schieten.
Een fundamenteel probleem blijft dat x86 een CISC processor is. Als is de eigenlijke core RISC met microcode, de user programma's kunnen alleen van de CISC instructies gebruik maken. En die zijn ook nog eens mega complex door alle backwards compatibiliteit en uitbreidingen.

Als je naar kleinere nodes gaat is de kans op defecten groter. Als je hele chip dan ook nog eens verschrikkelijk veel nodes nodig heeft om de de CISC processor te implementeren dan heb je een dubbel probleem. En tot nu toe is het Intel goed gelukt, maar misschien dat uiteindelijk toch RISC de weg is om te gaan. AMD is ook x86 en heeft dus dat zelfde probleem op te lossen. Misschien is x86 toch niet meer de processor voor de toekomst en zit in ARM RISC nog genoeg doorontwikkeling om uiteindelijk x86 voorbij te streven. Ze zijn in elk geval heel hard op weg.
Je redenering gaat niet op.

De x86 decoder is al vrij lang van constante grootte - ongeveer een half miljoen transistoren. Aangezien Intel steeds meer transitoren per CPU heeft, is de x86 CISC overhead al jaren dalende.

Aan de andere kant is CISC code compacter dan RISC. Dat effect is niet dramatisch groot - misschien 15%. Maar bedenk dat een core i7 nu 12 MB cache heeft, dat zijn 72 miljoen transistoren. Dan maakt die 15% opeens miljoenen transitoren uit. Weegt dat op tegen de half miljoen per core aan vertaling?

Het praktische antwoord is dat cache relatief energie-zuinig is, en die vertaling niet. Intel's oplossing is dus wel goed voor de snelheid, maar niet voor het verbruik.
Mwa het einde der tijden voor de pc markt is gewoon al heel erg lang geleden voorspeld en de economische indicatoren waren daarvoor ook zeker. Dat in combinatie met de opkomst van tablets zorgden voor een uitdaging. Intel heeft het ultrabook princiepe gepushed om zo de 'pc' relevant te houden. Stilstand was er eigenlijk niet, alleen wel voor de 'gamers' die en quadcore K cpu hadden. Dat zijn hier op tweakers natuurlijk wel de meest gebruikelijke perspectieven. Voor die groep is die stilstand ook zeker waar, ook ik heb sinds 2011 met mijn 2500K gedaan en kom hem pas dit jaar upgraden naar een 8700K. Echter voor de laptops is er divere keren onwijs veel verandert. Ze zijn sneller, stiller, zuiniger en compacter geworden. Tegelijkertijd zie je aan de onderkant van de markt dat er de afgelopen jaren enorme veranderingen zijn gekomen. Een celeron uit 2011 is niet te vergelijken met een celeron uit 2018.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 09:53]

De AI die je steeds vaker bij ARM zit is een extra FPGA/ASIC die er aan is geplakt. Zou Intel ook bij standaard-modellen kunnen doen, maar doen ze voorlopig niet.
Dat zouden ze kunnen doen, maar wat zou het nut zijn? PC's zijn van nature modulair, als je extra power voor AI nodig hebt kun je gewoon een extra FPGA/ASIC/GPGPU aan het systeem toevoegen.
Alleen in de mobiele markt is ruimte een issue en kunnen dit soort oplossingen handig zijn.
medio-core prestaties van Intel.
Midden kernen? Als je dan de Nederlandse taal wil verbasteren met Engelse termen, doe het dan wel goed... het is mediocre. Of gebruik gewoon Nederlands… middelmatig.
Die gaat weer eigen chips ontwerpen.
Weer? Apple heeft voor zijn desktops en laptops nog nooit een eigen CPU ontworpen, alleen voor de mobiele devices, en daar zijn ze nooit mee gestopt.
Waarom extra als het steeds vaker geïntegreerd wordt? Intel heeft al een soort van halve reeks met de xeon phi,
maar ze denken er na om het ook gewoon standaard op een chip te zetten. Alleen zal het waarschijnlijk eerst met xeon beginnen, terwijl je bij ARM het steeds vaker voor consumenten ziet, met bijbehorende voordelen, AR is er een stuk makkelijker mee af te werken.

Medio-core is gebruikelijk Nederlands al kun je middelmatig gebruiken.


Je zou eens moeten kijken naar de powerpc 😉 Apple maakte deel uit van het conglomeraat en daarnaast hebben ze de chips aangepast voor eigen gebruik.
Waarom extra als het steeds vaker geïntegreerd wordt? Intel heeft al een soort van halve reeks met de xeon phi,
Omdat er geen vraag naar is....
Je zou eens moeten kijken naar de powerpc 😉 Apple maakte deel uit van het conglomeraat en daarnaast hebben ze de chips aangepast voor eigen gebruik.
Het was dus geen eigen chip, maar het resultaat van een samenwerking.
Geen vraag? Google zet er zwaar op in ivm met home assistent. MS en Amazon kijken benauwd toe omdat de chip de soc van een smartphone zwaar ontlast.
Daarnaast is een dergelijke chip hartstikke interessant voor AR en dat het zelfs voor VR interessant kan worden. Het ontlast de soc.


En met de CPU, ligt echt aan een interpretatie die je wilt gebruiken.

Met dezelfde insteek kun je ook zeggen dat Qualcomm, Samsung, Huawei, Apple, etc geen eigen chips ontwerpen.

Die gebruiken ook allemaal ARM-licenties als basis. Wie is dan de eigenaar van de uiteindelijke chip die ook is aangepast.
Google zet er zwaar op in ivm met home assistent.
Home assistent en Google? Home Assistent is een open source project wat niks met Google te maken heeft.

Ik neem aan dat je Google Assistant bedoelt, die oa voor Google Home gebruikt heeft. De processing power daarvoor wordt voornamelijk op server-niveau geregeld, waarbij het veel efficiënter is om dedicated ASIC/FPGA/GPGPU's naast een enkele of paar CPU's in een server te proppen.
Daarom richt Google zich ook op de eigen ontwikkeling van TPU's, niet CPU's.
Daarnaast is een dergelijke chip hartstikke interessant voor AR en dat het zelfs voor VR interessant kan worden. Het ontlast de soc.
Volgens mij gaf ik ook aan dat het voornamelijk interessant is voor mobiele devices, en daar vind je soc's voornamelijk.
Nou nee,
ze willen juist cliënt-side genoeg rekenkracht hebben zodat die ook off-line kan werken,
https://www.theverge.com/...ho-ai-chips-smart-speaker


En waarom maak je een verschil met mobiel? Intel is ook al een tijd bezig om alle functies op een chip te zetten, die kun je ook aanmerken als SOC.
Het verschil/desktop wordt juist steeds kleiner, en juist mobiel zie je dat op veel vlakken reuzensprongen worden gemaakt, terwijl je Intel ziet kwakkelen. En dat ze bij apparatuur van servers nog redelijk meekunnen is een momentopname, daar zie je juist ook steeds vaker dat er gpu’s worden bijgeplaatst om de prestaties op te krikken.


Dat je op een desktop met een extra gpu ook leuke dingen kan doen is interessant, maar het gaat juist om de middenmoot waar je een goed fundament wilt hebben. Daar heeft Intel op dit moment geen weerwoord voor om het verschil te maken, laat staan het segment waarbij tablet/mobiel ruim voldoet.


Intel staat op dit moment redelijk stil en stilstand is achteruitgang.
Ja en er komen nu ook XEON's aan met Altera FCPGA's erin geintergreerd zodat je niet aparte insteek kaarten nodig hebt en de communicatie tussen de X86 core's en de FCPGA sneller wordt. Deze chips gaan naar verwachting vooral in de telecom markt gebruikt worden voor 5g zendmasten en core infrastructuur die daarvoor nodig is.
Dat heet vooruitgang vroeger waren CPU niet eens gekoeld die 1 watt oer dingen zoals Z80 waren klok gelimiteerd en niet TDP.
Elke dieshrink kon klok hoger met hogere TDP.
Waar 80486 toch aktief gekoeld moest worden met klein koekertje.

Dozijn dieshrinks verder en klok is niet meer de ceiling maar TDP.
Je kiest grens van 100 of 200 watt TDP en dat is dan compute power bij die klok wat er dan geleverd kan worden.
Dus dat is iets waar je niet onderuit kan komen.

Dus meeste
PC bouwers houden TDP van rond de 100 aan voor mainstream CPU.

Met die oer CPU was OC miniem en moest je voor low budged Celeron gaan die ivm product positie een lage klok had. Nu is spul stuk beter te OC' en maar TDP gaat bij OC'ed HEDT ver over de 300watt

ARM vs X86 zijn architectuur ontwikkeld in tendem met lowpower of highpower procede.

iNtel zou om met ARM te concureren een specifiek mobile architectuur moeten ontwikken. Maar daar bij ook fab die specifieke LP procede toe past . Dat kan ook heel goed met X86.

ARM kan ook Desktopmarkt bestormen door varriant met fat cores te ontwikkelen met optimalisatie voor hogere kloks voor een procede productie voor performance chips met 8 tot 16 van fat cores op veel hogere klokken met TDP over de 100watt.

Itanium zou ook naar desktop kunnen gaan door lichtere chip voor desktop. Maar AMD64 maakte die optie niet haalbaar. Wat ook impuls gaf om Xeon X86-64 vs Opteron toch te pushen . Waardoor IA64 ook verdrongen werd door Xeon.
Verwijderd @SG6 mei 2018 16:26
In de tijd van de 486 zat ik volop in dat spul.
T/m de DX33 zat er zelfs geen koeler op. Ook de AMD DX 40 kon zonder koeler.
De DX2/80 en DX4/100 moesten wel gekoeld worden.

Pas bij de komst van de Pentium werd het standaard om alles te koelen, op de lagere snelheden (60) passief, daarboven meestal actief. Later werd dat op de Pentium II modellen met hun eigen ‘insteekkaart’ soms weer achterwege gelaten.

In diezelfde periode ook eens met een DEC Alpha op 150 MHz mogen spelen; daar zat dan weer een koeler op zo groot dat het wel een cilinderkop van een brommer leek....
De winnaar is niet degene die het snelste loopt, maar degene die zich het snelste aanpast. Intel loopt het snelst. Maar ARM past zich veel sneller aan: je kan echt allerlei specifieke SoCs krijgen met een ARM processor, met de specifieke functies en interfaces die nodig zijn.
Een verwijzing naar tweakers eigen artikel daarover was inderdaad wel handig geweest: reviews: Het nattevingerwerk van nanometers - Met kleinere chips komen kopzorgen
zijn de grote van je componenten belangrijk? of hoeveel je er op 1 vierkante milimeter kwijt kan? is het een geheugen cell die de grote zou moeten aangeven of moeten het logic gates zijn?

al deze waarde zijn anders bij elke fabrikant door bepaalde keuzes die ze gemaakt hebben. en ze kunnen het dus niet eens worden over wat belangrijk is. logische ook want in elke situatie is iets anders belangrijk.
Ook al klinkt het makkelijk, maar constant voorop lopen, is ook niet altijd handig/gewenst.
Ik denk dat ze bij Intel de laatste tijd meer bezig zijn met winst maximaliseren dan technisch jaren voor lopen. De laatste cpu-series zijn redelijk aan het uitmelken, waarbij de concurrentie feitelijk bepaalt wanneer Intel wel bepaalde aanpassingen doorvoert. Zo is Coffee Lake duidelijk een reactie op Ryzen. Het was afgelopen jaar al duidelijk dat Intel die nieuwe strategie was begonnen.
Altijd hard lopen en dan vallen of rustig op de 2e plek doorlopen en de winst pakken...

[Reactie gewijzigd door Playa del C. op 24 juli 2024 09:53]

Intel heeft op een of andere manier x86 en verder lukt het niet zo vaak. Itanium was ook niet zo'n succes. Mobiel niet. Grafische chips niet. DSP niet. WiFi: alleen in hun eigen platform.
Zie jij in het wild nog Intel USB Host controllers?
Het is een succesvolle techniek, dat het niet zoveel oplevert is een tweede.
Vendor ID is eenmalig $5000, verder vrij weinig inkomsten.
En zonder AMD hadden we nu geen 64-bit gehad want Intel vond de markt nog niet rijp genoeg toen. Net zoals multi core. Intel is helaas niet echt innovatief want alle echte innovaties komen bij AMD vandaan.

AMD kwam met geïntegreerde Co-processor voor FPU calculaties.
AMD kwam met meer functionaliteit in CPU met zelfs geïntegreerde GPU.
AMD kwam met multi core. (hyperthreading is geen multi core)
AMD kwam met 64-bit in PC Markt.

En Intel hobbelde er altijd achter aan.
Inderdaad, Intel dacht: x86 laten we sterven, de toekomst is 64 bits, dat is Itanium, en daar hebben wij het monopolie. Verkeerd gedacht dus. En toen AMD succes had, kwam Intel erachteraan.
Intel is groot en machtig, maar de markt gaat eigen wegen.
Itanium was ook technisch een misgreep. Als zwakste (maar lang niet enige zwakke) punt wordt wel genoemd dat er op de compiler vertrouwd moet worden voor parallele uitvoering van code.

Aanvulling: als ze met een goede 64 bit architectuur waren gekomen, dan had je best kans gehad dat ze daar een significant of zelfs groot marktaandeel mee hadden gehaald.

[Reactie gewijzigd door mae-t.net op 24 juli 2024 09:53]

Allemaal mooie technieken. Maar levert het veel geld op? Ik denk het niet. Geld verdienen doe je door de concurrent altijd maar voor te zijn. En ik denk dat het met hardware moeilijk is om nog onderscheidend te zijn.
Op het gebeid van networking is Intel nog aardig aanwezig, niet alleen met WiFi, maar ook met NIC's en chips. En zeker niet beperkt tot hun eigen platform. (categorie: Moederborden)
Mooi stukje voor de zondagochtend, Willem!
Samsung kon vooral profiteren van de prijsdruk die al tijden op geheugen staat. De vraag naar zowel dram als nand
Ik ben benieuwd in hoeverre mogelijke prijsafspraken (nieuws: Advocatenkantoor: Samsung, SK Hynix en Micron maakten prijsafspraken ...) invloed hebben gehad op de opkomst van Samsung als grootste producent.
Een prijs'druk' is inderdaad het verkeerde woord.
Het is ook een vraag en aanbod mechanisme.
natuurlijk kan je als bedrijf, of als één van de weinige bedrijven, zelf het aanbod bepalen en zo de prijs de hoogte in duwen. Zo maak je meer winst/verkochte RAM.

In hoeverre dit illegaal is, weet ik niet.
Denk dat het enkel illegaal is, als Samsung samen afspraken met andere concurrerende bedrijven om gezamenlijk de productie naar beneden te doen, zodat ze allemaal meer winst maken.
Het punt is dat we in die situatie van een klein aantal aanbieders terecht zijn gekomen door jarenlange harde concurrentie, waardoor de prijzen laag waren en veel fabrikanten gestopt zijn. Met het kleine aantal overgebleven bedrijven hoef je niet hard prijsafspraken te maken. Je kunt een nieuwe EUV lijn van ASML niet verstoppen, dus Samsung weet vrij goed wat de concurrentie in petto heeft. Dat heet marktonderzoek, en is volkomen legaal.
Prijs'druk' is dat de prijzen omlaag gaan. Ik denk dat Samsung geprofiteerd heeft van de schaarste op de geheugenmarkt (of van prijsafspraken die gemaakt zijn). Bij prijsdruk profiteren de klanten.
Welke schaarste op de geheugenmarkt, ik ken volop geheugen kopen, nooit in al die maanden problemen gehad van schaarste geheugen.

Nee sorry dat gaat niet op, het is niet het zelfde als wat we hadden met GPU's.
Schaarste wil niet per se zeggen dat het niet te krijgen is... Heb je op school nooit bij economie zo'n vraag aanbod grafiek gezien? Door de hoge prijs is er minder vraag. Zelfbouwers kopen minder, maar ook fabrikanten leveren producten met minder geheugen er in omdat geheugen duur is. En dat geldt dan niet alleen voor PC's, maar ook bijvoorbeeld voor telefoons. Ja telefoons hebben steeds meer geheugen, maar als het geheugen goedkoper was dan zat er waarschijnlijk vooral in budget/midrange toestellen ook meer geheugen. Dit komt wel degelijk ook door schaarste want als er meer aanbod was dan zou de prijs omlaag gaan (anders blijven de producenten met dat extra aanbod ziten).
Dit zou inhouden dat als je een grote fabriek opzet waardoor je goedkoper kan produceren je meteen marktleider zou zijn en alle midrange telefonen van meer geheugen zouden zijn voorzien... Ik denk eerder dat fabriekanten bewust hun producten niet te veel futereproof maken zij zijn juist de gene die bepalen door afname of de prijs zakt of stijgt
Ik denk dat je nogal onderschat hoe makkelijk je 'even' een grote fabriek opzet... De spelers die nu in die markt zitten lijken het wel prima te vinden dat ze meer per chip kunnen vangen dus die gaan dat niet zomaar doen, en als buitenstaander daar tussen komen gaat heel veel geld kosten. En wat bereik je dan? Dan ga je dus weer terug naar het punt dat het helemaal niet zo erg winstgevend was... Geen investeerder die daar in mee gaat.
Verder was dat van die midrange telefoons vooral een manier om te illustreren. Bij telefoons moet je eigenlijk denk ik vooral aan opslag geheugen denken, hoewel het bij ram ook merkbaar is.
De kosten voor produceren wordt hoger als volume groter wrdt maar je levert enorm in op marge. Dus aan aanbod voldoen is stuk minder aantrekkelijjk want produceer je genoeg dan gaat prijs omlaag zo ook de winst marge. Produceer je wereld wijd het dubbele zullen de prijzen ook aanpassen en dan kan de winst zelfs minder zijn al helemaal als de vraag in latere periodes minder wordt. Groot risico en investering de geen rendement opleverd.

Zij weten ook die periodes dat er overschot was en dus hoge volume produceerden maar amper iets verdienen.
Dus naast prijs afspraak , is er ook zoiets als gezamelijk toch maar niet die productie op te schroeven door extra fab erbij te nemen.
Precies, en NOOIT heb ik in reviews en YouTube reviews gelezen dat ze slecht aan geheugen konden komen, juist dat ze met gemak aan geheugen konden komen, maar juist niet aan GPU's.

Nee ben niet eens met wat Finraziel hier zegt.
Tsja, en jouw mening is natuurlijk evenveel waard als Finraziels feiten. :)
Wel als ALLE review sites het zelfde zeggen, en dat er nu een rechtzaak bezig is tegen Samsung, SK Hynix en Micron vanwege de prijsafspraken rond dram.
De verminderde vraag vanuit de consumentenmarkt heeft vooral te maken met de hoge prijs (laag aanbod). De vraag is alleen verschoven naar de high-end/server markt en grote partijen als Apple. Hardwarefabrikanten zoals Kingston, Crucial, Geil, Corsair, etc.moeten daarom lijden. De enthousiast/self-built markt is totaal niet interessant voor chipfabrikanten aangezien deze relatief klein is en weinig marge heeft tov de professionele markt. Deze markt zal linksom- of rechtsom toch geheugenchips moeten hebben, en dat zijn er eigenlijk maar 3 wereldwijd: Samsung, Micron en SK Hynix.

Het lijkt er steeds meer op dat deze prijsafspraken hebben gemaakt.

[Reactie gewijzigd door Pb Pomper op 24 juli 2024 09:53]

Lezen is moeilijk, wat betaal jij ervoor?... Is dat reëel? Tijd zal het leren, maar gelijk heb ik _/-\o_
Haha, ja ja daarom is er nu een rechtzaak bezig is tegen Samsung, SK Hynix en Micron vanwege de prijsafspraken rond dram.
Interessant artikel. Ik mis eigenlijk twee dingen: waarom de verkleining per se nodig is en de achtergrond waarom Intel problemen heeft met het verkleinen. Dit laatste ligt aan de ontwikkeling van EUV machines door ASML als ik het goed heb.
Door het verkleinen worden de chips efficienter, oftewel sneller, kleiner en energiezuiniger.
Let wel het is soms en/en maar soms ook en/of.
Op een bepaald moment kan men niet meer kleiner omdat het effect van quantum tunneling ontstaat. Kort door de bocht: het signaal blijft niet netjes op de baan, maar lekt door de muur/isolatie heen. De isolatie zou niet moeten geleiden (vandaar de naam), maar het signaal gaat er wel (deels) doorheen.

[Reactie gewijzigd door Feanathiel op 24 juli 2024 09:53]

De focus ligt tegenwoordig op verkleining en staat synoniem met beter. Tot op een bepaalde hoogte klopt dat. Met elke verkleining van het procede kun je meer prestaties krijgen tegen een lager verbruik, oftewel een win-win situatie.

Wat Intel ook had en zou moeten doen is een nieuwe architectuur te ontwikkelen die niet direct gelinkt is aan een verkleining. We hebben nu refresh naar refresh. In plaats daarvan hadden ze ook op de huidige 14 nm een volledig nieuwe architectuur kunnen bedenken om de voorsprong vast te houden. Dat gebeurd niet, omdat de druk van AMD tot dusver nog niet hoog genoeg is helaas.

Wel lijkt het erop dat Intel een nieuwe IBM kan worden op termijn: een reus die tegen de vlakte gaat en maar een schaduw is van wat het is geweest. Echter zal dat proces nog jaren gaan duren, mits ze deze koers blijven bevaren.
Intel heeft geprobeerd af te stappen van x86 met Itanium, maar dat is jammerlijk mislukt en ik denk dat ze daarom ook niet meer af durven te stappen van x86 en daarom een soort IBM worden.

De wereld gaat verder maar Intel blijft x86 promoten en fabriceren totdat er geen vraag meer naar is en het bedrijf de deuren moet sluiten.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 09:53]

Wat is er mis met de huidige architectuur?

Ze laten amd op alle vlakken een poepje ruiken dus er is helemaal geen noodzaak voor een nieuwe architectuur.
En daar zijn ze vast alee beziv maar waarom zou je dat naar buiten brengeb als de nood niet hoog is zoals dat bij amd wel was met ryzen.
Als ze dezelfde architectuur kunnen rekken tot 6.5 ghz en aan de top kunnen blijven zullen ze dat doen.
Is dat zo? amd epyc is momenteel de aller snelste
Dat is een compleet niet relevante cpu range voor 98% van de markt.
Intel heeft ook gewoon 28 core xeons maar in veel dingen zullen die waardeloos presteren net als de epyc.
Mooi artikel. Het had nog iets uitgebreider kunnen zijn. Op de laatste pagina spreekt men immers over AMD en het feit dat de aanval vol is ingezet. Ik ken natuurlijk de producten van AMD maar het was leuk geweest om even de link te maken naar concrete producten van AMD. Waar worden die geproduceerd? Op welk nm? Heeft de achterstand van intel op techniek invloed op de inhaalslag van AMD enz

Voor de rest mooi artikel! Ik heb nog aandelen intel maar wellicht toch wat afbouwen ;)
De huidige generatie Ryzen processoren word op 12nm geproduceerd.
Apple A12 SoC is ook 7nm. ben benieuwd of daar nog een concurrent in komt, anders blijft het alleenrecht bij TSMC
Tja als deze gemaakt is door tsmc is dit dut in feite geen 7nm maar eerder 10 of 12 in vergelijking met het intel precede.

7nm is helaas geen 7nm meer. De standaarden zijn behoorlijk opgerekt de laatste jaren en sommige bedonderen de boel als je het mij vraagt.
Vergeet niet dat arm nu draait op windows 10
Maar verreweg de meeste programma's ondet windows niet dus dat zal weinig uitmaken. Windows zonder intel heeft nog minder software dan Linux voor de eindgebruiker.
Volgens mij wel. Zit gewoon een converter tussen. Het is alleen nu nog duur om te kopen.

Op dit item kan niet meer gereageerd worden.