Toekomstige Intel-processors krijgen geen geïntegreerd werkgeheugen

Intel gaat geen werkgeheugen in zijn komende processors integreren. Bij de Lunar Lake-cpu's werd 16GB tot 32GB aan on-package Lpddr5x-geheugenchips toegevoegd, maar omdat dit lagere marges opleverde, blijft het bij een eenmalig experiment.

Het geïntegreerde werkgeheugen bij de Lunar Lake-laptopprocessors was een 'eenmalige' ontwerpkeuze, zegt Intel-ceo Pat Gelsinger tijdens een gesprek met investeerders, zo ontdekte VideoCardz. "Het keert niet terug bij Panther Lake, Nova Lake en diens opvolgers." Hij stelt dat het integreren van het geheugen op de cpu-packages complex is en dat een groot deel van de ontwikkeling uitbesteed moet worden aan externe partners als TSMC. Dat gaat ten koste van de brutomarges en is volgens de ceo 'geen goede manier om een bedrijf te runnen'.

Gelsinger laat weten dat Lunar Lake in eerste instantie bedoeld was als 'nicheproduct', voor gebruikers die laptops met hoge prestaties en een lange accuduur wilden. Door de opkomst van kunstmatige intelligentie en de relatief hoge npu-prestaties van de processors werd het product echter onverwacht vrij gewild. Daardoor zorgen deze cpu's voor een significante hoeveelheid druk op de marges van het hele bedrijf, zegt chief financial officer David Zinsner.

De onboard dualchannelgeheugenchips van Lunar Lake dienen als vervanging van op het moederbord gesoldeerd dram. On-package ram biedt voordelen op het gebied van energie-efficiëntie en prestaties, maar heeft wel als nadeel dat het werkgeheugen na aankoop niet kan worden uitgebreid.

Intel Lunar Lake packaging chiplets tiles

Door Kevin Krikhaar

Redacteur

02-11-2024 • 12:02

115

Lees meer

Reacties (115)

Sorteer op:

Weergave:

Je zou toch beiden kunnen behouden? Uitbreidbaarheid als optionaliteit én on-package DRAM?

Gewoon puur omdat intel het zelf niet kan maken, kiezen ze dus voor een inferieure oplossing.
Dat is het punt dat ze aanhalen. Intel's operating margin (i.e. wat Intel overhoud aan de verkoop van een chip) is ongeveer 30% (in ieder geval voordat ze de recente financiële problemen hebben).

30% is vrij industrie standaard en iets waar Intel actief op mikt.
De Lunar Lakes worden voor een deel uitbesteedt aan TSMC welke wat marge pakken, dus houdt Intel zelf minder over.

Compleet hypothetisch - laten we aannemen dat alle CPUs $100 kosten en Intel:
- 15% overhoudt aan een Lunar Lake CPU
- 31% overhoudt aan een Panther Lake CPU

Stel dat ze prognotiseren dat ze 100x een Lunar Lake en 2000x een Panther Lake verkopen.
Omzet:
Lunar: 100*100 =$10.000, waarvan marge: $1.500.
Panther: 2.000*100 =$200.000, waarvan marge: $62.000
Blended marge is nu (62.000+1.500) / (200.000+10.000) = 30,2%, wat in lijn is met de bedrijfsdoelstellingen.

Zoals de CEO aangeeft: "het product echter onverwacht vrij gewild". Dus stel nu dat ze 10x meer Lunar Lakes verkopen.

Lunar: 1.000*100 =$100.000, waarvan marge: $15.000.
Panther: 2.000*100 =$200.000, waarvan marge: $62.000
Blended marge is nu (62.000+15.000) / (200.000+100.000) = 25,7%, wat niet in lijn is met de bedrijfsdoelstellingen. Als CEO is Pat verantwoordelijk om die bedrijfsdoelstellingen te halen. En als ze niet meer productie van die chip kunnen insourcen, kunnen ze deze verandering niet financieel opvangen. Vandaar dat stoppen de betere keus is voor Intel.

Edit: Dit form field heeft math autocomplete! Echt briljant!

[Reactie gewijzigd door JackBol op 2 november 2024 13:20]

Lunar: 100*100 =$10.000, waarvan marge: $1.500.
Panther: 2.000*100 =$200.000, waarvan marge: $62.000
Blended marge is nu (62.000+1.500) / (200.000+10.000) = 30,2%

Lunar: 1.000*100 =$100.000, waarvan marge: $15.000.
Panther: 2.000*100 =$200.000, waarvan marge: $62.000
Blended marge is nu (62.000+15.000) / (200.000+100.000) = 25,7%
Sorry, ik volg dit niet.
Absolute marge is uiteindelijk toch belangrijker dan marge als percentage.
Je hebt toch liever 77.000 marge dan 63.500, ook al is de 77.000 procentueel lager?
Denk dat het verkopen van chip A ook ervoor zorgt dat chip B minder verkocht wordt. Dat heeft ie niet in z'n berekening meegenomen, maar zou het alleen maar nog 'slechter' maken.
Wat jij beschrijft is absolute winst, maar in tegenstelling tot wat logisch lijkt, is dat zeker niet het belangrijkste. Het is voor een bedrijf zeel belangrijk aan te geven hoeveel inspanning het kost om een bepaalt winst resultaat te behalen. Operational margin is daar een van, welke een CEO altijd wil maximaliseren.
Als je voor een paar euro extra enorm veel moet doen dan denk ik dat dat ook extra risico heeft en de keus zou moeten zijn om dat niet te doen.
Niet in je verslag naar de aandeelhouders....
Dat is niet de betere keus voor intel: het is intel's bewuste keuze om uitsluitend aandeelhouders te helpen. Net nu ze eens een product lanceren dat klanten willen (onverwacht vrij gewild?) en geen verlies oplevert maar een beetje minder winst, schakelen ze weer terug en bepalen dat consumer-focus 'geen goede manier is om een bedrijf te runnen'. Ik denk dat het WEL een goede manier is om een bedrijf te runnen en dat intel's opvatting van 'goodwill' voor verbetering vatbaar is. Helaas staat in de wet dat ze 'in the best inyerest of shareholders' moeten werken en ze hebben nog niet begrepen dat customer goodwill daar uiteindelijk aan bijdraagt.
het is intel's bewuste keuze om uitsluitend aandeelhouders te helpen
100% correct. En al het andere is bijzaak. Intel maakt geen chips voor klanten, ze maken chips om marge te maken. Als ze morgen meer zouden verdienen met het verkoop van bezemstelen zouden ze dat gaan doen. Welkom in de kapitalistische markt.
Tja zo werkt het inderdaad, totdat een andere stakeholder (de klant) zegt ik wil dat spul van jullie niet meer...
Je zou dan toch zeggen dat het die kant al op is gegaan? Financiële problemen omdat de concurrentie intel van alle kanten heeft ingehaald. En nu de beurswaarde is gekelderd wordt krampachtig doorgezocht naar een manier om de aandeelhouders alsnog te pamperen. We zien ook vandaag hoe goed dit werkt: Intel wordt geschrapt uit de Dow Jones index.
Inderdaad, die kant gaat het inderdaad al op, maar dat is dus ook de "kapitalistische markt". Er werd (nogal eenvoudig) gesteld dat in de kapitalistische markt bedrijven zich alleen maar op aandeelhouderswaarde hoeven te richten. Mijns inziens is het altijd een balans tussen diverse stake/aandeelhouders. Daarbij is de klant niet een onbelangrijke... :) Een bedrijf dat jarenlang zo'n alleenheerschappij had is dat wellicht vergeten...
Dit is niet kapitalistisch, maar slecht management. Meer winst leidt tot meer bonus voor het management.

Een verstandig aandeelhouder spreekt hier het management op aan: op lange termijn staat de waarde van zijn aandeel op het spel.
En welkom in 2024 waarin John Maynard Keynes niet meer de scepter zwaait (supply), maar waarin ook grote bedrijven gewoon netjes failliet kunnen gaan als ze troep beginnen te maken en niet innoveren. Ten koste van de aandeelhouders. Dus het zou die aandeelhouders sieren als ze hun begrip van 'goodwill' op dezelfde lijn zouden brengen als klanten (demand).
Klopt, het is kortzichtig: ze hebben een goed product, en moeten maar investeren om het helemaal zelf te kunnen maken en zo hun marge op te krikken.
Focussen op producten die minder gewild zijn, maar meer opleveren is op lange termijn niet houdbaar.

Bedrijven als AMD en Qualcomm gaan ook wel zien dat er een markt bestaat voor SOC chips in laptops, en daar hopelijk wel in investeren.

The only constant is change..
Ik denk dat ze dat wel weten maar waarom altijd zo pakken op een kapitalistisch systeem waar je elke dag de vruchten van plukt. Uw levensstandaard is hoog, er is gezodheidszorg.

Een SOC met zonde ram is 100% aan intel om dat al dan niet te integreren. Het is survival of the fittest binnen de economische spelregels.
Als die dingen zo gewild zijn, kun er toch een hogere prijs voor vragen of zelf de techniek in huis halen?
Maar dan kunnen ze niet meer concurreren met de Snapdragon X Elite en Apple's Mx-en. Doodlopende weg voor Intel...
Waarom zouden ze niet kunnen concurreren? De prijs is dan wel hoger, maar de prestaties/efficiëntie ook.

Bovendien, Apple is geen concurrent (meer) en sowieso duur? Snapdragons zijn leuk, maar voorlopig is (en blijft) x86 dé standaard?
Bovendien, Apple is geen concurrent (meer)
Hoezo Apple is geen concurrent? Ik heb bij vervanging van een oude laptop weldegelijk een nieuwe Wintel én een MacBook overwogen, kan me niet voorstellen dat ik de enige ben geweest.
maar voorlopig is (en blijft) x86 dé standaard?
Totdat ie dat niet meer is. Ik hoef na mijn MacBook echt geen actief gekoelde laptop waarvan de batterij een paar uur mee gaat meer. Dan is de keus Apple of Qualcomm, en die laatste is ieder jaar realistischer.

[Reactie gewijzigd door 84hannes op 2 november 2024 23:08]

All non Air macbooks zijn actief gekoeld? Daarnaast draaien de recente AMD en nu de laatste intel gen mooi lang op batterij.
All non Air macbooks zijn actief gekoeld?
Ze hebben actieve koeling. Die is zelden nodig.
Macbooks tikken geregeld 99c aan en de macbook airs throttlen flink zodra je langer dan 5minuten iets meer intensief doet. Ze hebben het dus wel nodig.
macbook airs throttlen flink zodra je langer dan 5minuten iets meer intensief doet.
Ik geef toe, code compile doe ik op een andere machine, niet op een laptop. Mijn werklaptop klinkt als een stofzuiger, dan kan je beter een desktop met een flinke fan hebben.

Maar ik geloof niet dat een laptop de oplossing voor al je problemen is. Ik ben eenzaam in mijn overtuiging dat een "workstation laptop" een compromis is.
Een laptop is altijd een compromis. Maar ik gebruik bijvoorbeeld een Zephyrus G14 2024 voor on the go. Dus voor gaming, muziek productie, productiviteit, design. Gewoon voor alles en dat doet hij beterdan een Macbook Pro M3 Max welke ik in de la van werk heb liggen. Op batterij na. Want deze gaat ongeveer 8 uur mee op 1 charge. Iets wat ik overigens zelden doen.

Geen laptop komt dan alleen in de buurt van mijn desktop natuurlijk. Daarom beiden.

Een Mac valt alleen voor mij uit principe al af, geen SSD welke ik zelf kan upgraden.
Een Mac valt alleen voor mij uit principe al af, geen SSD welke ik zelf kan upgraden.
Zo heeft iedereen recht op zijn principes. Zelf heb ik een auto waarvan ik de motor niet kan vervangen, en een televisie waarvan ik het geheugen niet kan uitbreiden 😝.

Serieus: als de SSD niet goed is heb je een punt. Op mijn desktop vind ik een SSD behouden en de rest upgraden juist praktisch. Maar eigenlijk doe ik zelden een partiële upgrade: tegen de tijd dat je tegen beperkingen aanloopt is DDR4 vervangen door DDR5, de processor socket is veranderd en SSD wordt niet meer aangesloten via SATA; feitelijk moet je alles of niets vervangen.
Hmmm, zelf heb ik een auto (1994) waarvan ik de motor heb vervangen door een met grotere cylinder inhoud, de ECU heb vervangen en opnieuw geprogrammeerd, de Turbo heb ge-upgrade naar een grotere evenals de injectoren en de downpipe heb vergroot, katalysator eruit (alleen terug bij de keuring) (450Pk i.p.v. 211Pk)
Ook mijn TV (plasma Panasonic uit 2008) had geen geheugen en een oude analoge tuner, nu heeft ie een digitale tuner en geheugen en apps, zelfs HDMI, toch niet gek voor een oude scart tv, helaas geen HD, dat dan weer niet, maar met een Raspberry Pi toch nog leuk ge-upgrade. fingeert ook als kachel in de winter ;P

Dus.......

Serieus mijn laptop ooit gekocht om de upgrade mogelijkheden: 2x M2 slot en een Sata.
Standaard 1x 500GB optane accelerated SSD, 3 jaar geleden een extra 1TB NVME in het 2de M2 slot, en vorig jaar een Sata III 2,5" 2TB 7500rpm HDD voor backup doeleinden, geheugen (2x sodimm) maximaal geupgrade naar 64GB, toch niet gek voor een 5 jaar oude laptop. Helaas was het niet mogelijk de dedicated videokaart te upgraden, maar dit kan altijd nog extern via USB3-C

Kan dit ook met een Apple? koop ik die over een paar jaar. :D
SSD's zijn relateif gevoelig voor slijtage, helemaal als ze klein zijn, Macbooks doordat ze veel heen en weer schrijven voor snellere prestaties zijn hier vrij gevoelig voor. Kijk naar bijvoorbeeld het kanaal van Louis Rossman, er zijn nu relatief veel Apple M1 laptops welke perfect bruikbaar zijn ware het niet dat de SSD kapot is. Je kan er helemaal niets meer hierna. Data recovery centers kunnen vaak de data er ook niet afhalen vanwege de T2 chip. Dan doen ze ook nog iets achter de schermen anders betreft hoe de SSD werkt en dat schijnt dan nog eens dubbel problematisch te zijn.

Dan zijn de upgrade prijzen ook nog eens buitensporig gortig. Bij een Mac Mini m4 zijn de eerst volgende upgrades van ram en SSD net zo hoog als de gehele base Mac Mini zelf.
SSD's zijn relateif gevoelig voor slijtage, helemaal als ze klein zijn,
Daar heb je een goed, praktisch punt. Ik heb ook geen probleem met praktische bezwaren om geen MacBook te nemen.
All non Air macbooks zijn actief gekoeld?
Dat kan best kloppen. Ik heb gewerkt met embedded machines met een intel Core i7 die passief gekoeld werden. Als ik heb gesuggereerd dat intel actief gekoeld moet worden en Apple niet actief gekoeld kan wordt, dan bied ik mijn excuses aan voor de onduidelijkheid.
Het is meer dat alleen Macbooks airs geen fan hebben, dezethrottlen dan ook wel vrij vlotjes. Nogsteeds vlotte machines in hun klasse. Maar het licht nu echt enorm dicht bij elkaar qua performance en batterij duur ongeacht of je Apple Sillicon gebruikt of een AMD based platform.
Het is meer dat alleen Macbooks airs geen fan hebben,
Ik weet zeker dat ze fans hebben, ik weet niet zeker of ik er eentje ben :)
Hoezo Apple is geen concurrent? Ik heb bij vervanging van een oude laptop weldegelijk een nieuwe Wintel én een MacBook overwogen, kan me niet voorstellen dat ik de enige ben geweest.
Intel verkoopt niet aan jou maar aan hardwarefabrikanten die laptops bouwen. de M-socks zijn dus geen rechstreekse concurrent van Intel, omdat ze bij verschillende fabrikanten in verschillende apparaten belanden. Apple zal zijn M-chips nooit aan bvb Lenovo verkopen, en Intel kan ook geen processors aan Apple slijten.

Apple is uiteraard wel een concurrent van Dell/HP/Lenovo/.... en dus onrechtstreeks een concurrent, want als laptopfabrikanten minder laptops verkopen gaan ze minder chips afnemen van Intel. En daar is natuurlijk AMD ook een rechtstreekse concurrent.
Hebben ze de Lunar Lake op de markt gebracht om de mogelijke populariteitsgroei van Snapdragon te remmen? Zo van 'kijk eens wat x86 kan? Blijf voorlopig maar aan boord ...'. Daarmee softwaremakers nog even te laten wachten met hun pakketten over te zetten naar ARM. En nu ze in de financiële problemen zitten zegt de CEO: "beste aandeelhouder, dit was een eenmalig experiment" om ervoor te zorgen dat men vertouwen houdt in de bottom line van Intel... In de tussentijd hebben ze met de Lunar Lake wat tijd gekocht...
dat is het nu net: ze kúnnen het zelf niet, maar hebben de expertise van TSMC daarom nodig. Waarom het niet lukt, dat is letterlijk de vraag van een paar miljard en de reden waarom TSMC zo succesvol is met dezelfde machines.
Het is een beetje moeilijker. Als je Linux draait, natuurlijk een gemakkelijke keuze als je betere prestaties wilt (moest het zoals Apple en nVIDIA doet met HBM, een DDR7-snelheid halen). DDR5 kan extern dus heb ik niet nodig, de prijs/prestatie is het dus niet waard, moesten ze Xeon met 64GB HBM hebben, hier is mijn geld.

Echter de reden dat veel mensen nog Intel draaien is omdat programma’s en Windows erop moeten draaien. Windows kan niet overweg met tiered geheugen zoals macOS of Linux dat kunnen, omdat programma’s meer direct controle hebben over de hardware en geheugen, dus voor Windows zou het relatief waardeloos zijn behalve voor specifieke programma’s zoals SQL Server.

Zoals met andere dingen zoals IA64, RISC, ARM, als je toch al een herbouw moet maken, waarom dan gewoon niet Windows elimineren. Daarmee dat op Itanium was het grotendeels SQL Server, op Windows op ARM is grotendeels voor laptops waar je maar een browser nodig hebt - iets dat je op schaal evengoed dan Linux kunt gebruiken met betere resultaten.

[Reactie gewijzigd door Guru Evi op 3 november 2024 13:47]

Edit: Dit form field heeft math autocomplete! Echt briljant!
Gebruik je toevallig macOS of iOS? Sinds iOS 18 en macOS 15 doet autocorrect ook aan rekenen. Als je dus 12*100= intypt, komt autocorrect met 1.200 op de proppen.
MacOS inderdaad, ik wist niet dat het een OS feature was. Anyway, impressive.
Dus gezien het product met minder marge (Lunar Lake) "onverwacht vrij gewild" is, ging de blended marge omlaag. En daarom hebben ze:

1. Vooraf geen benul gehad wat gewild is.
2. Als oplossing bedacht dat ze het gewilde product afschaffen.

Al denk ik dat de voornaamste reden van Luna Lake's succes, het evenaren de Performance per Watt van de SnapDragons is. Ik vraag me af of hiervoor het geïntegreerd geheugen noodzakelijk was, of dat dit slechts bijzaak was.
Haha nee, iOS 18 heeft dat. :+
Gewoon puur omdat intel het zelf niet kan maken, kiezen ze dus voor een inferieure oplossing.
En wat is daar dan verkeerd aan? Gelsinger geeft aan omdat er ineens onverwacht veel vraag naar is vanwege AI en andere zaken, dat dit een significante hoeveelheid druk op de brutomarges van het hele bedrijf zet.

Dat riekt wat mij betreft naar dat ze dus, doordat ze het extern moeten laten assembleren, onder de lijn maar bar weinig marge overhouden boven de kostprijs en dat dat de hogere marges op andere producten dus mee naar beneden trekt.

Wat mij betreft heel logisch dat je dat als bedrijf niet wilt, zeker als het al niet denderend gaat op financieel vlak, dus....

[Reactie gewijzigd door Pim0377 op 2 november 2024 12:27]

Vanuit marge-perspectief idd logisch, maar vanuit concurrentie/innovatie-perspectief niet.
lijkt mij ook, want wie wil er geen "laptops met hoge prestaties en een lange accuduur"?!
nu zeggen ze eigenlijk, als je dat wil ga je maar naar de concurrentie (maw, voor wie niet per se windows en x86 wil/nodig heeft bv een Mac met M#-chip)
Men wilt niet voor innovatie performance betalen. Maar moeten het wel hebben.
Probleem is intel concurreert direct met AMD die beleid hebben van productie efficiëntie. Chiplets is niet de beste oplossing twee DIE ver van mekaar. Iets wat games niet lekker vinden. 3dv cache tackle dat. Maar het is kost en productie efficient. Apple silicon is exclusive mac. M-SOC concurreert, niet direct. Maar met apple ecosystem en OS en bijbehorende software. Samen als 1 package.
Als je ook massaal voor Feveros en on soc wil betalen 50 tot150€ meer prijs.

Nu maar hopen dat intel laptops en desktop mobo camm2 modules gaan ondersteunen. Hopelijk ook AMD.
16GB of 32GB is hoeveelheid die moderne windows en wat app voldoende vinden.
Ik heb nog nooit alleen geheugen geupgrade ging altijd voor ruim voldoende voor die gen van windows. Tja en als je van software switch dan kijk je ook of je hardware voldoet.
In AMD buldozer piledriver tijd perk had ze het ook heel moeilijk. En beleid was alle eieren op Zen en radeon skeleton crew. Intel zit in zwaar weer. Dus alle prestige en dure r&D projecten vallen om en geruchten van overname.
Ik zie influencers online ook altijd zeiken over prijs. Gezonde marge wordt ook R&D mee betaald en maakt innovatie mogelijk. Naast moet elke onkosten dekken.
Inderdaad, in dat opzicht is het zo van "we weten hoe het moet, maar omdat we er niet genoeg aan verdienen, gaan we het niet doen"
Wie weet, als ze eenmaal hun shit weer op orde hebben en dit soort geintjes wel weer zelf kunnen, dat ze het dan alsnog gaan doen.
Hoe trekt dat andere marges naar beneden? Ik snap het niet? Dat klanten dan andere processoren niet kopen?

Gezien de grote betrouwbaarheidsproblemen bij Intel, kunnen ze wel een 'win' gebruiken. Je zou zeggen dat het andere Intel processoren niet vervangt in de vraag - ook omdat consumenten elders kijken na dat '13th gen' instabiliteits debakel.

Het zou in de toekomst meer verkopen moeten opleveren als het een goed product is.
Misschien een beetje verkeerd verwoord, maar als zij op bv de 14900k een winstmarge van x% hebben, wat met de adviesprijs neerkomt op x aantal euros en ze verwachten er dus een x aantal te verkopen voor dat bedrag, houden ze rekening met een x bedrag aan winstmarge.

Als ze daarnaast deze cpu verkopen, maar omdat ze afhankelijk zijn van een andere partij voor final assembly en ze daardoor maar zeer kleine winstmarge op het product hebben met de adviesprijs, lopen ze dus snel het risico dat dat omslaat naar negatieve winstmarge, als dat product in een keer zo in demand is, dat ze meer productie bij moeten kopen, waar TSMC bijvoorbeeld meer voor vraagt omdat het niet ingecalculeerd was, of andere factoren die effect hebben op de prijzen.

En als die cpu dan dus met verlies verkocht wordt, trekt dat de winstmarge over andere procten an sich misschien niet naar beneden, maar onderaan de streep blijft er dan netto zeker wel minder over.
Het gaat over een laptop chip net heel specifiek design en prijsklasse. Het is trouwens terug mee tov de concurrentie niet meer dan dat...
Maar wat is de reden dat ze de extra kosten niet door willen berekenen?

Als ze populair zijn lijkt het mij logisch om te verwachten dat men ook bereid is meer te betalen, en waar hebben we het over, 10% ofzo? Als ik 200 euro uitgeef aan een processor in een PC van 1000 euro, dan ga ik niet kijken op 20 of zelfs 40 meer als ik daar significant betere prestaties voor krijg.

Ook dat het niet uitbreidbaar is vind ik geen probleem, ik over-spec mijn RAM sowieso altijd. Mijn vier jaar oude build heeft 32 GB, over nog als ik een nieuwe bouw ga ik waarschijnlijk sowieso naar 64.

Maargoed, er zullen bij intel genoeg slimme mensen werken die meer verstand van marketing hebben 8-)
Het gaat hier over laptop chips
Dan verhoog je toch de prijs?
Of is dat te simpel gedacht
Moet je wel de performance hebben
Hoezo? Verhogen van prijzen werkte toch ook met de GPU's?
Volgens mij ziet er een risico in qua strategie. Als dit is wat gebruikers willen en een ander biedt het wel, dan zouden ze marktaandeel kunnen verliezen. Ze hebben op dit moment "geluk" dat er buiten Apple geen concurrentie is op dit vlak. Misschien is de markt ook niet groot genoeg, ook al was het blijkbaar genoeg om de marges van Intel flink te drukken.

Ik moet zeggen dat het verschil tussen mijn privé MacBook en zakelijke Lenovo X1 qua batterijduur echt wel een dingetje is. Als mijn X1 over 3 jaar aan vervanging toe is, dan zou die zomaar door een MacBook vervangen kunnen worden. Behalve als het x86/x64 aanbod flink beter wordt op dit vlak. Een MacBook is natuurlijk voor veel mensen geen optie. Dat is onderdeel van het geluk van Intel (volgens mij).
Ik denk dat dat wel heel lastig gaat worden.
De timings van geheugen dicht bij de core zijn heel anders dan met die "lange" traces naar de memory modules.

Wat ik tamelijk verrassend vind is dat het kennelijk ook een stuk zuiniger is om het geheugen in de processor-behuizing te hebben.
Ik had niet het idee dat 'drivers' om het signaal op te poetsen zoveel gebruikten (of uberhaupt dat geheugen zoveel gebruikt in verhouding)
Hmm tja dat klopt, je zou het DRAM dat op afstand staat als swap-geheugen kunnen gebruiken. Dus gewoon een soort memory-hiërarchie gebruiken zoals dat eigenlijk al overal in de computer (en op elk niveau) gebeurd. Maarja, noem je dat geheugen dat op afstand staat dan nog 'werkgeheugen' of niet, tja...

[Reactie gewijzigd door Polonium op 2 november 2024 12:44]

Dit zit er wel aan te komen en zal vroeger of later wel de norm worden. Voor nu dan nog niet.
Die andere timing is geen enkel probleem.

Op hardware nivo zijn die langere traces naar extern geheugen verbonden met andere geheugencontrollers - het is nu al vrij standaard dat je extern tenminste twee geheugencontrollers hebt. Sommige server-chips hebben er wel twaalf. Er zal dus nooit een geheugencontroller een mix van intern en extern geheugen hebben.

Op OS nivo heeft elk modern OS ondersteuning voor NUMA (Non-Uniform Memory Architecture). Gezien de beperkte verschillen in timing hoeft je NUMA implementatie niet bijzonder goed te zijn.

Op applicatie-nivo komt de meeste data toch uit een cache, en na L3 zie je geen verschil meer.
Ik doelde meer op het idee dat je de interne chips en eventuele externe modules sowieso niet op dezelfde controller moet zetten, of je moet enorm inleveren qua performance.
Dus als je al RAM in de CPU behuizing wilt stoppen, zal dat te maken hebben met specifieke eisen qua timing.

Je ziet nu ook al dat nieuwe mainboards andere DIMM sloten krijgen waarbij de connectoren wat minder als antenne werken en zodoende hogere snelheden toestaan als het slot niet gevuld is.
Ditzelfde zal uiteraard ook meespelen bij "intern" vs. "extern" RAM.
Dat is waar ik op doelde.
Bekijk het ook van de commerciële kant, hoe meer je on-chip zet des te meer garantieclaims je kunt verwachten. Niet alleen meer op de chip zal de prijs verhogen maar ook rekening houdend met meer garantieclaims moet je ook nog meer marge rekenen, je zult jezelf uit de markt gaan prijzen
Omdat Intel het zelf niet kan maken? Intel Xeon Max Sapphire Rapids met 64 GB HBM geheugen. :)

nieuws: Intel introduceert 'tiled' Xeon-processors met tot 60 cores en HBM

Maar ik begrijp je wel, Intel produceert deze cpu niet zelf. Het probleem bij Intel is Intel Foundry, want Intel Foundry had deze cpu eigenlijk moeten bakken, maar dat is niet gelukt omdat Intel Foundry hun 20A node niet klaar kreeg en daarom is heel Lukar Lake omgezet naar TSMC's N3 node.

De volgende cpu Panther Lake zou wel op Intel 18A gebakken moeten worden met powervia.
Ik hoopte ook dat er een optie zou komen waarbij het mogelijk zou zijn om het geïntegreerd werkgeheugen uit te breiden met losse modules. Ik denk dat het misschien lastig is voor bestaande software om met twee sets geheugen te werken die op een verschillende snelheid werken. Hoe wordt er bepaald wat er in het snelle geheugen mag en wat in het langzame? Eigenlijk een beetje hetzelfde probleem als met de verdeling van taken tussen de efficiency en performance cores, dat schijnt af en toe ook mis te gaan.

Verder ben ik wel blij dat je in de toekomst geheugen nog zelf kan uitbreiden, ik kon de gedachte dat ze de uitbreidingsmogelijkheden beperken uitsluitend vanwege financieel gewin en niet vanwege prestatie toch niet helemaal uit m'n hoofd krijgen. Ze hebben jaren geleden door het integreren van graphics in de cpu de moederboarden met onboard videochip ook van de markt geduwd. Inmiddels zijn er weer cpu's te koop zonder geintegreerde gpu, maar de moederborden met onboard video zijn nergens te bekennen. Er zijn nog maar weinig apparaten die zo modulair zijn als een desktop computer.

Tot zover de speculatie. Uiteindelijk is het misschien wel een slechte zaak dat Intel er voor kiest niet verder te gaan met geïntegreerd werkgeheugen. Een bedrijf als Intel moet concurreren op techniek en nu kiezen ze er voor om niet te investeren in iets dat hun product had kunnen verbeteren. Het begin van het einde? Is Intel misschien te log voor de kleiner geworden computermarkt? Is het probleem dat de techniek van processors niet meer zo hard vooruit gaat? Het lijkt er ook op dat prestatie niet meer zo belangrijk is voor de meeste consumenten, je kunt het gros van de dingen gewoon doen op een oude pc. Daar zit je dan met je hele grote R&D afdeling die het niet lukt om producten af te leveren die (veel) beter zijn dan de producten van het veel kleinere AMD.
Ram dichtbij de cpu werkt juist veel beter toch? Apple doet het ook met de M chips en die dingen zijn super snel
Ja, maar er zijn geen laptops met een voor bepaalde use-cases redelijke hoeveelheden geheugen beschikbaar, en er is geen brede I/O op die CPU's, waardoor je niet eenvoudig méér CPU's naast elkaar zet. Daarnaast is het geheugen gedeeld voor meerdere toepassingen, waardoor je voor zaken die én CPU én GPU geheugenintensief behandelen (zoals AI toepassingen of bepaalde data-analyse taken) juist bandbreedte issues krijgt. Daarnaast zit er een fors verschil in GDDR en DDR, waarbij GDDR wel veel bandbreedte heeft maar relatief hoge latency (want dat past bij die workload), en DDR juist andersom.

De ideale oplossing is juist steeds vaker om een computer als een "gesplitst" object te beschouwen; in plaats van hardware te generaliseren en te integreren. Specifieke hardware kán energiezuiniger en efficiënter zijn in de taken waar het voor bedoeld is, een mooi voorbeeld hiervan vindt ik offloaded cryptografische modules, spatial awareness accelleratiors zoals de HPU in een hololens, en tal van taak-specifieke ASIC's.

Qua CPU geheugen en specifiek CPU latency verhalen kun je dan een form factor kiezen die past. Voor de thin and lights die nooit écht werk hoeven te doen kan dat on-die geheugen worden (gaat als je CPU boer bent idd ten koste van je marges tenzij je ook een memory fabb hebt, apple is geen CPU boer maar een design club en moet sowieso alles extern beleggen). Persoonlijk zal ik nooit zoiets kopen, want ik vindt dat de levensduur van mijn hardware belangrijk is en upgradebaarheid én repareerbaarheid is daarbij voor mij belangrijk. Ik erken ook wel dat de (SO)-DIMM form factor electrisch beperkingen heeft (denk aan hoe de clipjes bijvoorbeeld als antenne kunnen functioneren waardoor Asus om de 8GHz barrière te doorbreken op 4-DIMM boards daar de vorm van aanpast), maar dan denk ik alsnog dat solderen niet de oplossing is.

Sterker nog, de gesoldeerde laptops die ik heb gezien hadden allemaal absurd hoge latency op hun geheugen, terwijl je op desktops vaak zelfs op 6GHz CAS latencies van 36 ziet.

Ik ben dan eerder geneigd blij te worden van dingen als: nieuws: Jedec introduceert standaard voor connector CAMM2-geheugen met Lpddr5

En daar hoop ik dan bij dat dit een grote, dominante standaard gaat worden in laptops.

(leuke toevoeging, een uitdaging die ik laatst had: probeer maar eens een laptop te vinden die CUDA kan, tenminste 12GiB VRAM heeft voor CUDA toepassingen, én die ook nog eens 64GB gewoon RAM heeft... ik wou dat een desktop een optie was, laat ik het zo zeggen...)

[Reactie gewijzigd door Umbrah op 2 november 2024 13:00]

Toch niet een hele grote uitdaging om een laptop te vinden met 12GB vram en 64GB geheugen? Oke zijn er niet veel maar er volgens de pricewatch zijn er wel een aantal, RTX 4080 laptop versie heeft 12GB. En dan zijn er nog de laptops die een 4080/4090 hebben waarvan het geheugen uitbreidbaar is.
Die hebben het geheugen dan ook niet op de CPU package zitten.
Dat zei je er niet bij dat dat een vereiste was ;)
Ja, maar ik vermoed dat intel problemen had, biijvoorbeeld extra hitte die de cpu negatief beinvloed.
Het zo plotseling wegnemen moet duiden op een probleem dat ze niet direct kunnen oplossen.
Je zou verwachten dat Intel dit dan in-house gaat doen, en daarmee zowel de technologische voorsprong alsook de marge behoud, aangezien de technologie al lange tijd aan het doorzetten is in embedded en laptop applicaties. Ik had het bijv. bij Atom al veel langer verwacht, die heeft al een shared CPU/GPU memory bus, zou logisch zijn als dat shared on-package RAM zou zijn.

Of is dit wederom een achterstand bij Intel?
Ik denk deels wel, maar een kwestie die ook zal spelen, is dat een fab voor processoren een andere is dan een fab voor geheugen. Gezien Intel geen geheugenfabrikant is, moet er met een geheugenfabrikant samengewerkt worden die speciaal een die voor Intel gaat ontwerpen.
Eigenlijk is het het ideale ontwerp.
Wie gaat er vandaag de dag nog extra geheugen in een laptop steken.
32Gb is ruim voldoende voor de levensduur van de laptop.
16Gb is ruim voldoende voor de fiscale afschrijving en normaal office gebruik.
Maar ze kunnen er te weinig winst op maken.
Wat vreemd is, aangezien de BOM lager is van het gehele platform neem ik aan.
Geen aparte printplaat voor de dimm, geen houdertje, geen routes naar de CPU over het moederbord.
En als bonus vooral voor een APU/iGPU betere prestaties.
Ze zouden het pakket voor minstens zoveel als een CPU plus het geheugen moeten kunnen verkopen.
Zou het dan puur bij de prijs van TSMC liggen?
Zou intel daar meer betalen dan AMD?
640kb is ruim voldoende, deze reacties herhalen zich keer op keer en telkens is het achterhaald na x jaar.
Het ligt eraan in wat voor computer de processor zit. De consument heeft er geen moeite mee, ook de zakelijke niet, anders waren er bijvoorbeeld niet zoveel Microsoft Surface (Pro) met slechts 4GB verkocht. In de nieuwere zit (veel) meer en de laatste generatie heeft verwisselbaar geheugen.
Dat komt omdat Windows er niet mee om kan gaan. Jaar in jaar uit wordt er steeds meer troep toegevoegd en draait het slechter.

Ik herinner me nog dat mijn pc (2015) met windows 10 in 7 seconden op kon starten. Nu bijna 10 jaar later en met dezelfde hardware duurt het 30 seconden. De hardware is niet veranderd...

Linux daarintegen doet het wel altijd goed (dat ter zijde).

Dus het werkgeheugen is wel genoeg, zolang het OS in de loop van tijd niet meer meuk krijgt (en eigenlijk webbrowsers ook).

Ik denk wel dat we nu op een punt zitten dat voor gewoon gebruik (excl. zware spellen), 8-16GB altijd genoeg zal zijn (maar goed, het is een kat en muis spel met een OS die voortdurend zwaarder wordt)
Ligt niet aan Windows, we willen steeds meer functionaliteit.

Zie bijvoorbeeld mobieltjes deze worden ook langzamer met de jaren zowel Android als iOS terwijl de roots Linux is.

Jouw Linux desktop is niet interessant voor hackers bijvoorbeeld vanwege het marktaandeel en veranderd weinig.

Draai anders Windows 98 maar, super snel maar je kan niks meer daarmee van deze tijd.

[Reactie gewijzigd door mr_evil08 op 3 november 2024 10:20]

Daar heb je wel gelijk in. Ik ben er wel van overtuigd dat we een punt bereikt zijn waarbij meer bloatware niks toevoegd voor de gemiddelde gebruiker.
Ik ben erg voor, voor functionaliteit uitbreiding van bijv. explorer (iets dat Dolphin op Linux en iets als Total commander al jaren beter doet dan wat Windows 11 heeft), maar om nou AI toe te voegen..

Vooral in het bedrijfsleven in geforceerde AI meuk een killer. In het bedrijfsleven heb je te maken met NDA documenten. Open je die in Adobe Reader zonder AI uit te schakelen, word je NDA document ergens op een Amerikaanse server gepleurd en geanalyseerd. Iets wat je NIET wilt.
Daar moest ik natuurlijk ook aan denken toen ik het schreef.
Maar ik heb het niet over altijd, ik heb het over de komende 3 tot 5 jaar.
Ik stop sinds DDR4 standaard 16Gb in kantoorcomputers.
Sindsdien nooit meer geheugen te kort gekomen in de praktijk.
Sterker nog de werkplekken met 8Gb gaan vaak ook nog goed. Al moeten ze er uit bij de switch naar Win 11 volgend jaar.
32Gb is ruim voldoende voor de levensduur van de laptop.
Dat zeg je nu wel, maar kan je in de toekomst kijken? de AI ontwikkelingen maken dat minder waarschijnlijk. Een laptop gaat zo'n 6-7 jaar mee en dat is een erg lange tijd.

Wel is het zo dat daar juist geheugensnelheid belangrijk is, en die is vaak beter met geheugen dat op de CPU gemonteerd is. Dat is echt niet per se noodzakelijk: Een bredere geheugenbus kan ook gewoon extern gedaan worden (zie wat een GPU doet). Een hogere latency is wel lastiger met externe modules. Maar dat is niet zo heel belangrijk voor AI.

[Reactie gewijzigd door Llopigat op 3 november 2024 09:17]

Ik kan niet in de toekomst kijken, maar heb wel 20 jaar ervaring met kantoor computers.
Geheugen is de laatste 10 jaar zo goedkoop dat je gerust het vierdubbele van het huidige minimum kan installeren.
Het gaat mij om de bulk van de gebruikers. Niet om die 5% extreme gebruikers.
Zelfs de meeste architecten hebben nu aan 32Gb genoeg (ook al hebben ze minstens 64Gb in hun werkplek).
Laptops worden binnen 5 jaar wel vervangen. 7 of 8 jaar zou ik mijn vingers inderdaad niet aan durven branden.
Waarim zou het geheugen niet uitgebreid kunnen worden vraag ik mij af. Een los (leeg) uitbreidingsslot is niet mogelijk?
Denk dat dat allemaal we los loopt. Ik heb nog een 10 jaar oude gamingdesktop staan met een i5 4690 erin. Destijds voor 16GB intern gegaan, wat toen denk ik net zoveel is als 32GB nu (lees: riant voor de meeste toepassingen). En met 16GB kom je nog steeds prima uit volgens mij? Tenminste ik game tegenwoordig op de PS5, maar er zijn volgens mij geen PC games die meer dan 16GB als minimum hebben? Met 32GB kan je echt wel flink wat jaren vooruit tenzij je tot de 5% power users behoort.
De omvang van videogeheugen is trouwens wel flink toegenomen in 10 jaar, ik had nog een 4GB GTX970 (of eigenlijk 3,5GB, die laatste 512MB was traag oid).

[Reactie gewijzigd door Evanesco op 3 november 2024 12:27]

32Gb is ruim voldoende voor de levensduur van de laptop
Die statement zou ik niet durven maken. RAM word namelijk niet meer gebruikt zoals vroeger enkel voor apps.
IGPU's gebruiken ook die ram nu (shared)
Nvidia graphische kaarten gebruiken trouwens ook de ram als hun intern geheugen bijna vol zit (wat snel gebeurd gezien ze maar 8GB gemiddeld hebben.
NPU's gebruiken ook die ram (shared)
AI zijn modellen van meerdere gigabytes groot die ook allemaal in de ram moeten, terwijl apps relatief gezien weinig ram nodig hadden.

Ik vermoed dat er iets ontdekt is dat negatieve effect heeft op hun cpu cores (misschien warmte), iets dat ze niet kunnen oplossen. Maar ze mogen de reden niet publiekelijk maken anders gaan hun huidige stock lunar lakes de deur niet uitgeraken en gaat hun financieele put nog groter worden. Deze assumptie zal snel duidelijk worden als de eerste stress testen voor lunar lake naar buiten gaan komen, waarop een performance drop zichtbaar zal zijn bij langere durende stress testen.

Ik ga allesinds van lunar lake wegblijven.

[Reactie gewijzigd door sebastienbo op 4 november 2024 12:30]

Da's mooi, dan is er toch nog kans voor een nieuwe Intel Framework laptop in de toekomst :P
Bedrijven nemen dit soort beslissingen op economische basis logisch. Maar anderzijds vond ik het wel iets dat verder uitwerken verdient. De voordelen zijn evident
'nicheproduct', voor gebruikers die laptops met hoge prestaties en een lange accuduur wilden
Dus eigenlijk iedereen. Wat voor een interessante definitie van "niche" heeft deze man.
Je kunt van alles zeggen over de beslissing, maar de uitspraak dat ''laptops met hoge prestaties en een lange accuduur" een niche product zijn, vind ik toch echt een vergissing. Voor Apple was dat de reden om van x86 af te stappen en voor Microsoft om samen te werken met Qualcomm.
Dat lijkt mij wel. Als je flops wil ga je geen laptop kopen die 3 uur voluit kan draaien. Natuurlijk is dat niche. Naast HP, Dell en Lenovo workstations en gebruikelijke laptops voor klantoorwerk op locatie stelt die markt echt niks voor.
Zo niche is het niet. Het probleem is dat laptop bouwers kost wat kost hun laptops licht willen houden. En batterijen wegen nu spijtig genoeg veel.
Laptops die veel wegen verkoopt niet goed.
Als je laptops opendoet dan zie je altijd hoe weinig plaats en dun die batterijen tegenwoordig zijn, als ze van 3mm dikte naar 6mm dikte zouden gaan, dan zou je plotseling een verdubbeling van batterij hebben, ten koste van 3mm dikkere chassis, wat de mensen ook niet willen.
Ze willen dun, licht, maar klagen dan over de slechte batterij prestaties.

Nochtans is 3mm extra niet het einde van de wereld als dat je laptop duur van 6 uur naar 12 uur kan brengen.

[Reactie gewijzigd door sebastienbo op 4 november 2024 12:36]

Buiten dan dat Intel het niet zelf kan produceren is dan ook een nadeel dat het geheugen niet meer naderhand uitgebreid kan worden. Alleen, wat is het verschil met laptops waarbij het geheugen op het moederboard gesoldeerd zit, ergens geen want ook dat geheugen kan je niet uitbreiden.
Het zal mij benieuwen: Intel heeft laten zien dat het kan en ze heeft laten zien dat er wel degelijk vraag naar is, zelfs meer dan dat ze verwacht hadden. Welke chip leverancier duikt in dit gat? Hoe snel krijgt intel spijt? Voor de klanten is er immers best veel winst/voordeel aan deze opzet.

En voor zij die zich afvragen of het wel nodig is om geheugen dicht bij of zelfs in de cpu te hebben en of daar nog wat extra's voor nodig is: De meeste cpu-s bevatten cache geheugen, soms zelfs in 3 verschillende versies/varianten (Level 1, 2 en 3). Daarbij valt het mij op dat de huidige cpu-s al meer L3 geheugen hebben dan mijn eerste computers grand-total hadden. Misschien kan met genoeg intern geheugen het L3 cache komen te vervallen.

Op dit item kan niet meer gereageerd worden.