Micron ontwikkelt 3D XPoint-geheugen niet verder en wil fabriek verkopen

Micron stopt per direct met de verdere ontwikkeling van 3D XPoint-geheugen. Intel gebruikt dat geheugen voor zijn Optane-producten, maar verder zijn er vrijwel geen klanten. Micron wil zijn 3D XPoint-fabriek verkopen.

Micron is al in gesprek met partijen over de verkoop van zijn fabriek in Utah, waar het 3D XPoint-geheugen wordt gemaakt. Het bedrijf wil eind dit jaar een verkoopovereenkomst gesloten hebben. Met welke partijen Micron spreekt, is niet bekend.

Volgens Micron is er onvoldoende interesse voor 3D XPoint-geheugen om verdere investeringen te rechtvaardigen. De fabrikant zegt dat er hoge investeringen nodig zijn om het geheugentype verder te ontwikkelen en aan te passen aan de wensen van klanten.

De expertise die is opgedaan bij de ontwikkeling van 3D XPoint, is volgens Micron in te zetten voor nieuwe geheugentypes die voor opslag bedoeld zijn. Micron gaat meer geld investeren in de ontwikkeling van geheugenproducten die de Compute Express Link-interconnect gebruikten.

Micron ontwikkelde 3D XPoint in samenwerking met Intel, maar in 2018 stopten de partijen die samenwerking. Micron nam daarna de fabriek in Utah over, waar het geheugen wordt gemaakt. Intel gebruikt het 3D XPoint-geheugen voor zijn Optane-producten en is daarmee de belangrijkste afnemer.

In januari maakte Intel bekend te stoppen met Optane-ssd's voor consumenten-pc's. De fabrikant maakt nog wel Optane-producten voor consumentenlaptops en voor de enterprisemarkt. Intel lijkt daarmee de meest voor de hand liggende overnamekandidaat van de fabriek. Micron merkt echter ook op dat de productiefaciliteit omgebouwd kan worden voor andere chips.

De ontwikkeling van 3D XPoint begon in 2015. Micron en Intel presenteerden het destijds als geheugen dat de snelheid van werkgeheugen combineert met de opslagcapaciteit van flashgeheugen. Het is daardoor ook duurder dan nandgeheugen. Bij ssd's zoals de Intel Optane H10, wordt nandgeheugen gecombineerd met een kleine hoeveelheid 3D XPoint-geheugen als cache. Intel maakt ook dimms met 3D XPoint-geheugen; die moeten juist een hogere capaciteit bieden tegen een lagere prijs dan dimms met dram.

Intel Optane P5800X
Intel Optane-ssd met 3D XPoint-geheugen voor de enterprisemarkt

Door Julian Huijbregts

Nieuwsredacteur

17-03-2021 • 07:59

42

Reacties (42)

42
42
38
6
0
0
Wijzig sortering
Het probleem is een beetje dat zelfs PCI-E te traag is voor Ootane. Optane kan veel sneller en lagere latency's halen dan PCI-E kan faciliteren. Het is erg duur en en doordat het niet kan laten zien wat het echt kan is de prijs prestatie verhouding niet goed genoeg voor consumenten drives en hebben consumenten te weinig interesse.

Het zou echt zonde zijn als dit niet door ontwikkeld wordt maar wel begrijpelijk gezien de beperkte inzetbaarheid.

Edit:
In deze podcast aflevering van mores law is dead - broken silicon wordt Optane besproken was erg interessant. Heb een link naar het stukje over optane opgezocht:
https://youtu.be/mCxHcvtpfAk?t=3834

[Reactie gewijzigd door Astennu op 26 juli 2024 01:22]

Klopt, ik vermoed dat we ook pas echte verschillen gaan zien wanneer we op pci-e 5.0 zitten of wanneer er ooit een upgrade gaan zien in het aantal lanes voor een m.2 slot.
Dat deze bijvoorbeeld 8 lanes krijgt ipv 4, en daardoor de parallelle prestaties toenemen. Ja je kan ook full-size pci-e modellen pakken met 8 of 16 lanes. Maar juist een m.2 factor is cruciaal om een product te laten slagen omdat het gros van de markt hiervoor zal kiezen.
PCI-E 5.0 heeft alleen meer bandbreedte. Optane kan veel lagere latency's aan. Er zal een nieuwe interface moeten komen om alles te benutten. En dat is lastig omdat nvme nu zo mainstream is. Dan ga je dat niet zo maar toegevoegd krijgen. Zeker niet in de consumenten markt waar geld een grote rol speelt. Door de hoge kosten zal het een nicheproduct blijven. En doordat het weinig verkocht wordt wordt het ook niet heel actief doorontwikkeld en dus goedkoper.

Hopelijk wordt het in de toekomst wel weer opgepakt want dan kan je echt hele snelle SSD's krijgen. De huidige SSD's die we gezien hebben zijn pas een voorproefje van wat er mogelijk is.
Tjah PCI-e is vooral gefocussed op bandbreedte en niet latency inderdaad. (Relatief gezien)

Veel (powersaving) foefjes e.d. om zoveel mogelijk data met zo min mogelijk overhead er door heen te loodsen.

Met een beetje (modded) BIOS kan je hier wel wat aan sleutelen maar dat is voor de meesten toch echt een stap te ver en geen garantie voor succes.

Ook vooral geen latency sensitive apparatuur aan een pcie chipset lane hangen :P

[Reactie gewijzigd door Marctraider op 26 juli 2024 01:22]

Ik dacht dat optane NVDIMM modules waren die je in je DDR sloten prikt.
Is het bekend waarom het type geheugen niet aanslaat. Specs zijn wel oke maar volgens mij niet wat ooit beoogd werd. Ik heb nog geen servers met Xpoint DIMM's gezien.
Intel heeft veel teveel beloofd - en niet waargemaakt*.

-Het was redelijk duur, dus als je grote beloften doet is het misschien voor 90% van de markt interessant. Maar als de beloften maar voor 1/10 worden waargemaakt, is het misschien maar voor 7% van de markt interessant
-De levensduur was mogelijk korter dan de levensduur van een server.
-Vaak werd beloofd dat XPoin op een "komende server-processor generatie" zou werken, maar die server-generatie was dan weer vertraagd (Intel 10nm cluster-koeievlaai).
-Intel wilde geen technische vragen beantwoorden; dus dat was verdacht.

Zie o.a. dit artikel, en deze

* Ed - De hiervoor eind-verantwoordelijke manager is in 2018 ook de laan uitgestuurd.

Micron heeft nooit hard lopen "pushen" zoals Intel; maar klanten die Micron's oplossing met Intels gebakken lucht associeerden hebben denk ik vrij snel afgehaakt.

Vervolgens is Intel vanwege de genoemde 10nm-koeievlaai zich onder bonen-teller Bob Swan gaan richten op aandeelhouders-waarde. Als onderdeel daarvan is Intel's NVRAM-divisie verkocht aan SK-Hynix; dus Intel stapt gefaseerd uit de NVRAM-divisie. Dat biedt natuurlijk ook weinig vertrouwen in dat ze nog in Optane gaan investeren.

Pat Gelsinger is nu aan het roer gekomen bij Intel; en ziet dat Bob Swan per jaar $20 miljard uitkeerde aan aandeelhouders. En technisch achterloopt op de concurrentie van de fabs van TSMC en Samsung. Dus het zou wel eens kunnen; dat meneer Gelsinger de "niet-kernactiviteiten" nog verder gaat afstoten.

Zodoende is het voor Micron duidelijk dat de klanten zich belazerd voelen met het Intel marketing-materiaal voor dit type geheugen; en dat het risico bestaat dat Intel er in de toekomst niet meer in gaat investeren. Net zoals Intel destijds stopte met Itanium, en HP "de sjaak" was. Dus Micron doet wat verstandig is, en probeert nog zoveel mogelijk te krijgen voor de fabriek.

Verder zit Micron vanaf het begin bij de CCIX-alliantie, hetgeen een "Cache Coherent Interface" moet gaan opgeleverd heeft; dus dat CPU's, GPU's, FPGA's etc. via hetzelfde protocol geheugen moet kunnen aanspreken. Micron geeft nu aan, dat ze daar de toekomst in zien: Alleen CCIX (van ARM / AMD) is inmiddels vervangen omdat Intel een hele sloot klanten zover heeft gekregen om Intel's concurrerende protocol (CXL) te steunen.

Wat @Astennu aangeeft: PCIE is mogelijk te langzaam voor komende soorten geheugen; en bijv. CCIX had al een mode om met 25GB/s (dus sneller dan het maximum van PCIe-4) te kunnen communiceren.

[Reactie gewijzigd door kidde op 26 juli 2024 01:22]

't is een niche. klinkt heel mooi ssd en ram combineren. Maar als het dan een stuk duurder is den 'gewoon' RAM of storage zijn het aantal scenarios waar dit dé oplossing is, klein.
Dat gecombineerd met andere evoluties zowel op storage als geheugen, waar andere partijen ook niet stilzitten.
@Magic 'tis snniet omdat de factor DIMM is, dat het ook ram is ;) Xpoint moe(s)t daar niet in het midden zitten, en heeft (dus) ook DIMM form factor implementaties

[Reactie gewijzigd door the_stickie op 26 juli 2024 01:22]

Dat prijsverschil valt reuze mee. Het is niet specifiek een niche, er zijn simpelweg te weinig mensen zich bewust hoe het goed ingezet kan worden/hoe het kostenplaatje zich echt verhoudt. Onbekend maakt onbemind.

Met Optane Persistent Memory modules kun je in memory mode veel meer geheugen in een server plaatsen voor een lagere prijs dan met DRAM (veelal duizenden euro's minder per server), in de meeste gevallen zonder dat je performance er onder te leiden heeft. Voor memory mode hoef je ook niets aan je applicatie aan te passen. Dat zal niet zo snel in SMB terugkomen omdat het zich beter leent voor 768GB+ RAM per server.

Met Optane NVMe kun je veel lagere latencies bieden onder veel hogere belasting. Dat is met name van belang voor transactionele systemen. Ja dan is die SSD relatief duur t.o.v. NAND flash, maar als de productie kritische systemen daardoor beter draaien/alle medewerkers van de organisatie hun werk net een fractie sneller kunnen doen is het niets t.o.v. de impact op de totale organisatie.

Eerlijk is eerlijk. Optane PMEM heb ik ook nog niet heel vaak gezien in Nederland. Ik ken wel tientallen organisaties die in grote oplages Optane NVMe gebruiken.

En... Intel had zichzelf kunnen helpen door al eerder Optane NVMe op PCI-e 4.0 uit te brengen. Op een AMD platform had het dan waarshijnlijk al meer impact kunnen maken.

[Reactie gewijzigd door Rctworld op 26 juli 2024 01:22]

servers met dusdanig geheugen of storage combinaties waar het interessant is, zijn echt een niche. Een niche die ook door al allerlei andere oplossingen bediend wordt overigens.
Denk dat je je daar in vergist. Qua aantal klanten die het nodig hebben misschien wel, maar als je kijkt wat grote banken, overheidsorganisaties, multi nationals en hyperscalers in aantallen servers neerzetten dan kan dat zo maar 50%+ van de markt zijn.

Of Optane NVMe voor desktop/laptops heel veel nut heeft is wel de vraag. NVMe Gen 3 vs Gen 4 merk je in de meeste use cases ook weinig van. PMEM zou wel wat meer verschil kunnen merken, maar daar zijn de OS-en niet echt op afgestemd en RAM is op zich zelf al niet heel duur in de hoeveelheden die meeste gebruikers vereisen.
Ook die banken en overheidsorganisaties hebben hooguit een paar van die machines staan, mn voor databaseapplicaties waar de combinatie heel snel en heel veel zeer gewenst is. Maar zoals gezegd is optane daan slechts een optie. Veel van die grote organisaties hebben bijvoorbeeld juist ook al een leuke SAN infra op SSD.
Je hebt wel gelijk dat onbekend onbemind is. Ik denk dat de niche te klein is en Optane nooit de kritieke massa heeft bereikt om toekomstige ontwikkelingen te granderen. Dan is zo'n technologie gewoon ten dode opgeschreven omdat die ingehaald wordt door andere. RAM wordt goedkoper (op langere termijn tenminste }:O ) en SSD's sneller. voor Optane is binnenkort geen plaats meer, en dat zien Intel en micron ook. De ratten vluchten het schip!
"voor Optane is binnenkort geen plaats meer, en dat zien Intel en micron ook. De ratten vluchten het schip!" -> Dat is sterk de vraag. Dit bericht gaat over Micron en mogelijkerwijs is dit enkel het gevolg van Intel die de productie voor de nieuwe generatie Optane zelf doet/ergens anders belegt. Intel heeft juist net nieuwe generaties uitgebracht :)
Wordt dit uberhaubt gebruikt als RAM geheugen? Volgens mij is het gewoon een concurrent voor Flash-SSD's.

Er was ooit wel de "belofte" dat ram geheugen niet meer nodig zou zijn, wanneer je opslag/swapdisk net zo snel is als RAM.
ja en nee,
Het is Ram geheugen als in dat je het net als geheugen kunt benaderen zonder IO bus.
Dus echt direct benaderbaar via de adresbus van de CPU.
Maar je moet het niet net als DDR geheugen gaan bekrassen.

stel je voor, je hebt een database van 50 a 100 TB, en bij booten van je server staat de database meteen in het geheugen. niet meer elke page van de DB via IO hoeven inladen in het ram, maar gewoon direct beschikbaar
Dank voor het verduidelijken :)
Pendel je dan words zoals ram of blocks zoals storage ?
Optane is Write-in-place, je schrijft dus net als bij RAM, en hoeft ook geen grootte blokken met cellen te wissen voor gebruik.
Het is gewoon erg duur.
Misschien ligt het aan mij maar misschien is het prettig voor mensen om wat meer achtergrondinformatie informatie toe te voegen over wat 3D XPoint geheugen inhoud, want ik ken het niet.

Ja ik snap dat ik het kan Googlen maar soms wel prettig om die informatie bij een artikel erbij te krijgen.
Is een speciale vorm van geheugen met prestaties tussen DDR en een normale SSD in.
Qua aansturing is het eerder te vergelijken met DDR dan met een normale SSD. Hierdoor krijg je prestaties die de karakteristieken hebben van DDR namelijk vol continue toegang tot alle verschillende geheugen blokken tegen dezelfde snelheid terwijl de data wel opgeslagen wordt dit levert reactie en toegangs tijden op toe die geen 1 ander opslag product haalt. Hierdoor blinken 3D XPoint SSD's in zeer snelle en daarnaast ook nog stabiele prestaties terwijl je bij normale SSD op een gegeven moment een duidelijk afname van de prestaties ziet ofwel als de SSD volzit of als de cache controller het niet meer bijhoudt.

Toen de eerste 3D Xpoint ssd's uitkwamen werden meteen bijna alle SSD records met enorme stappen verbroken en nog steeds zijn er een aantal records die zelfs voor de allernieuwste PCIE 4.0 SSD's niet te halen zijn. Sterker nog de nieuwe generatie 3D Xpoint zal de vorige generatie weer ruim verslagen waardoor de achterstand van de rest van de markt toeneemt ipv afneemt. Het is alleen bizar duur daardoor is het op de consumenten markt nooit doorgebroken.

Voor de duidelijkhied voor een 280 Optane SSD betaalde je toen het nog verkrijgbaar was voor consumenten rond de 400 euro terwijl op dat moment een 256Gb Samsung Pro voor 100 euro te koop was.

[Reactie gewijzigd door CrazyBernie op 26 juli 2024 01:22]

Deze techniek heeft er bij Microsoft voor gezorgd dat ze nu al met de Windows ontwikkeling rekening houden met het moment dat opslag en geheugen niet meer los van elkaar staan. RAM zal (hopelijk in de nabije toekomst) een ding uit het verleden worden.

Zal een -kleine- revolutie betekenen in computerland als we op dat punt komen. We gaan dan in principe terug naar de snelheid van cardridges.
Cardridges is gewoon opslag, dat staat los van of er wel of niet ook ram wordt gebruikt?

Cardridges waren zo snel (in verhouding) omdat het niet mechanisch is. Met de SSD zijn we al (terug) op dat punt :)
Ging me om de snelheidsvergelijking. Nu duurt het opstarten van software en games een tijdje, want het systeem is data vanaf de opslag in het geheugen aan het laden.

Cardridges werken anders dan 'normale opslag' zoals een disc, disk of ssd. Data hoeft namelijk niet van opslag naar geheugen geplaatst te worden. Als de N64 processor(s) een texture of andere data nodig heeft, leest het gewoon direct de opslag op de cardridge uit, zonder die texture eerst naar het interne geheugen te moeten verplaatsen.

Heeft niets te maken met mechanisch vs solid state oid. SSD's werken intern anders dan een HDD, maar hoe een SSD gebruikt wordt in een systeem is niet anders dan een HDD. Een processor benaderd -vooralsnog- nooit direct data op de opslag, het zal deze altijd eerst het geheugen inladen voor het er berekeningen/bewerkingen op los kan laten. Deze stap kan weg zodra opslag de snelheid en latency haalt van DDR4/5.

Een OS moet hier wel mee om kunnen gaan, want (bv) Windows is sinds het begin gebouwd om het opslag <> geheugen idee.
Ik snap je punt, echter enkel hele oude systemen lazen data direct van cardridges. Ik heb een Philips VideoPac G7000 staan en dat is een voorbeeld daarvan.

Modernere systemen zoals de Sega, Snes, N64 gebruiken echter wel RAM (en sommige ook gescheiden RAM/VRAM), alhoewel direct data inlezen vanaf de cardridges niet ongebruikelijk was (zeker bij de N64 niet), maar dan moesten de textures/samples daarop wel uncompressed opgeslagen zijn.

Edit: Meer on-topic kan ik er inderdaad niet op wachten dat het hele systeem vanuit solid state 'start' aka instant-on op het vullen van cache na. Ik verwacht echter dat dat voor VRAM nog niet het geval zal zijn voorlopig. :P

[Reactie gewijzigd door Noxious op 26 juli 2024 01:22]

Bedankt voor de toelichting, ik wist niet dat de N64 op deze manier met het geheugen op de cardrigdes omging. Geldt dat dan voor 'alle' systemen met cardrigdes?
Doen ze al een tijdje toch? RAMdisk enzo bestond ookal in Windows.

[Reactie gewijzigd door fapkonijntje op 26 juli 2024 01:22]

Niet helemaal, daar word intern geheugen als een virtuele harddisk gebruikt, dat is weer net iets anders dan dat een os de opslag als ram benaderd.
Niet helemaal, daar word intern geheugen als een virtuele harddisk gebruikt, dat is weer net iets anders dan dat een os de opslag als ram benaderd.
Als aanvulling, de inhoudt van een RAMdisk verdwijnt bij het spanningsloos maken van de computer. Dat gebeurd bij de inhoudt 3D Xpoint opslag/geheugen niet. Uiteraard biedt een RAMdisk nu wel dus al snellere (tijdelijke) opslag, wat af en toe wenselijk is voor batch verwerking.

[Reactie gewijzigd door thomasv op 26 juli 2024 01:22]

Ramdisk => ram als disk gebruiken. Leuk als je er bergen van hebt , ik heb 192 gb ram in mn pc en dan kan het leuk zijn harddisk intensieve zaken effe vanaf een RAMdisk te draaien.

Swapfile => harddrive / ssd als RAM gebruiken , als je geheugen te klein is en je O.S. of Programma te weinig RAM tot zijn beschikking heeft , kan het een deel van het RAM comprimeren , als dat ook niet meer werkt kan er gebruik worden gemaakt van een Swapfile waar tijdelijk geheugen geparkeerd wordt....
Vroeger heel herkenbaar aan het koffiezet geluid van de P.C. prrrrr prrrr prrrp rprrr rrrrrr.....ratel ratel...

Ram = heel snel , weinig opslag en best duur
Optane = snel , redelijke opslag , duur
SSD = vlot , veel opslag voor een goede prijs
HD = traag , heel veel opslag voor een lage prijs.

In bepaalde fileservers word ram als cache gebruikt om vervolgens een ssd te vullen die als cache dient voor de harddisk array ......
Zou dus heel wenselijk zijn om bepaalde stappen samen te voegen.
Is het wel zo handig om alles weg te schrijven naar een harde schijf? Die gaan toch achteruit als je er veel op schrijft
Ik heb nog een alinea toegevoegd met een korte omschrijving :)
"ls geheugen dat de snelheid van werkgeheugen combineert met de opslagcapaciteit van flashgeheugen" -> Volgens mij is de essentie meer dat het snelheid van geheugen combineert met de "persistence" van flash geheugen (als je de stekker eruit trekt blijft alle data behouden). Het is niet voor niets Persistent Memory technologie.

Ik denk/dacht overigens dat de uitdaging voor Micron erin zit dat Intel na het verbreken van de samenwerking een eigen variant van 3D Xpoint doorontwikkeld heeft voor bijvoorbeeld de P5800X en die waarschijnlijk niet persé hoeft te laten produceren bij Micron. Ik kan er niet heel veel over terugvinden, maar het lijkt er zeker niet op dat Intel aan het wegbewegen is van Optane, het is eerder dat ze geen afhankelijkheid meer hebben van Micron.
Ik zou het interessant vinden als iemand de technologie verder zou ontwikkelen. Zeg bijvoorbeeld een Apple, een soort marktdisrupter die zich via deze technologie buiten bereik van de directe concurrentie komt te staan. Een soort M1 verhaal. De reactie is dan dat andere fabrikanten catching-up gaan doen, wat dan zorgt voor een versnelling van de ontwikkelingen.
Met deze disruptive techniek zou het concept opslag volgens mij toch flink verbeterd kunnen worden. Het is dan ook balen dat het gewoonweg niet van de grond afkomt.

edit: punt verduidelijkt.

[Reactie gewijzigd door South_Styler op 26 juli 2024 01:22]

Volgens mij is Intel er nog steeds druk mee bezig. Ze hebben net nieuwe datacenter lijnen geïntroduceerd op basis van 2e generatie 3D Xpoint/Optane. Het is alleen lastig om in je eentje (zonder concurrent) een markt op te bouwen als je de enige bent die er over praat.

Dat ze de enige zijn is overigens wel knap, de meeste vergelijkbare technologieën hebben de eindstreep niet gehaald/waren niet commercieel inzetbaar vanwege kostenplaatje. Zoek voor de gein eens op de HP Memristor en Samsung Phase Change Memory. 3D Xpoint is op zich goud qua engineering/techniek alleen ze verdienen er nog geen gouden bergen mee.

Geen idee wat Apple er mee te maken heeft. De M1 is briljant stukje engineering, maar als Apple niet zelf de hele laptop zou produceren met de Rosetta laag om x86 code te draaien dan zou het ook de vraag zijn of de adoptie zo snel zou gaan. Intel moet hier een nieuw deelcomponent pushen, maar als de hardware en software leveranciers er niet echt in mee gaan omdat de eindgebruikers er niet om vragen dan is dat wel een wat ander verhaal.
Geen idee wat Apple er mee te maken heeft. De M1 is briljant stukje engineering, maar als Apple niet zelf de hele laptop zou produceren met de Rosetta laag om x86 code te draaien dan zou het ook de vraag zijn of de adoptie zo snel zou gaan. Intel moet hier een nieuw deelcomponent pushen, maar als de hardware en software leveranciers er niet echt in mee gaan omdat de eindgebruikers er niet om vragen dan is dat wel een wat ander verhaal.
Apple doet hardware en software en zou dus niet hetzelfde probleem hebben als Intel nu heeft (hard- en software leveranciers hoeven er niet in mee te gaan).
Ik zie de M1 ook als een "deelcomponent", waarbij ik meteen wil aangeven dat dit van mij een aanname is en mogelijk ook niet klopt. Een deel van je quote heb ik dikgedrukt omdat dit precies de reden is waarvoor ik specifiek Apple noemde. Apple doet zowel de hard- en software en zou dus, net als bij de M1, dit traject kunnen trekken. Dat de eindgebruikers hier niet om vragen zal voor een deel komen doordat men niet de mogelijkheden vol kan inschatten - het is immers nog erg nieuw. Hetzelfde gold voor de M1, waarbij denk ik, maar weinig mensen de volledige mogelijkheden kon inschatten - vraag me af of dat nu al veranderd is. Het kan zijn dat mijn vergelijking met de M1 helemaal mank gaat, dan hoor ik dat natuurlijk graag.

Ik ben wel blij dat Intel het doorontwikkeld en het is absoluut knap. Die gouden bergen mogen ze van mij verdienen.
[...]


Apple doet hardware en software en zou dus niet hetzelfde probleem hebben als Intel nu heeft (hard- en software leveranciers hoeven er niet in mee te gaan).
Ik zie de M1 ook als een "deelcomponent", waarbij ik meteen wil aangeven dat dit van mij een aanname is en mogelijk ook niet klopt. Een deel van je quote heb ik dikgedrukt omdat dit precies de reden is waarvoor ik specifiek Apple noemde. Apple doet zowel de hard- en software en zou dus, net als bij de M1, dit traject kunnen trekken. Dat de eindgebruikers hier niet om vragen zal voor een deel komen doordat men niet de mogelijkheden vol kan inschatten - het is immers nog erg nieuw. Hetzelfde gold voor de M1, waarbij denk ik, maar weinig mensen de volledige mogelijkheden kon inschatten - vraag me af of dat nu al veranderd is. Het kan zijn dat mijn vergelijking met de M1 helemaal mank gaat, dan hoor ik dat natuurlijk graag.

Ik ben wel blij dat Intel het doorontwikkeld en het is absoluut knap. Die gouden bergen mogen ze van mij verdienen.
Denk dat de M1 nog steeds iets is voor tweakers. Het helpt wel veel voor de acceptatie door "normale gebruikers" dat ze CPU architectuur kunnen wisselen zonder er erg in te hebben. Maar de vraag is natuurlijk of Apple er echt veel meer door gaat verkopen, Apple kan zeggen dat ze er miljoenen van verkopen maar als ze dat daarvoor ook al deden dan is het waarschijnlijk vooral een succes voor de winstmarge van Apple. Dus de tijd moet uitwijzen of de M1 ook echt iets is waar de consument op aanslaat. Misschien over de as van accuduur.

Denk dat de succesnummers van Apple veel meer te maken hebben met tastbaar maken van innovaties. Met name op het gebied van touchscreens en dergelijke. Dat bestond al lang alleen werkte niet fijn. Daar was de software integratie cruciaal omdat daarmee ineens iedereen zag wat voor voordelen er waren.

Intel heeft uiteraard ook wel soortgelijke efforts waarbij Optane door de OEM's meegenomen wordt in laptops en storage oplossingen: http://vbrainstorm.com/hp...e-skips-over-nvme-drives/ , het is ook onderdeel van veel vSAN ReadyNodes als cachelaag https://www.vmware.com/re.../pdf/vi_vsan_rn_guide.pdf .

Maar denk dat de uitdaging blijft dat een gemiddelde consument/bedrijf geen idee heeft wat Optane is en waarom ze dat zouden verkiezen boven SAS/NVMe SSD's of normaal DRAM.

Overigens ligt de nadruk in dit bericht er ook op dat het niet succesvol is en dat Micron er daarom vanaf wil, alleen ik twijfel of dat enkel Micron's perspectief is of ook Intel's perspectief. Micron heeft het zelf niet of nauwelijks gepromoot en als Intel nu de nieuwe generatie Optane ergens anders zou produceren dan heeft vooral Micron probleem. Intel heeft onlangs de hele NAND divisie afgesplitst maar Optane behouden. Waarom zouden ze dat doen als er geen muziek in zit?

[Reactie gewijzigd door Rctworld op 26 juli 2024 01:22]

Dank je wel voor je inhoudelijke antwoord :).
Ik weet eigenlijk 100% zeker dat de M1 iets is voor tweakers waar de "normale gebruikers" inderdaad aanslaan op "het is sneller" of "batterij gaat langer mee" argumenten. Beide zijn natuurlijk heel valide. Ik denk dat je volledig gelijk hebt met Apple betreffende de succesnummers. Dankzij de linkjes die je aangeeft kun je inderdaad zien dat het al meer wordt toegepast dan ik op basis van het artikel kon onderscheiden.

De uitdaging blijft inderdaad hetzelfde, ik vraag me ook echt af of Intel het wel heel goed kan communiceren. Zelf worstel ik daar ook nog wel een beetje mee over hoe je dit zou moeten uitleggen - laat staan aan een gemiddelde consument of bedrijf.

Je hebt helemaal gelijk, ik weet niet in hoeverre het perspectief van Micron overeenkomt met Intel. Het feit dat ze Optane wel hebben behouden is bemoedigend, dat zeker. Ik denk dat het een van hun "bets" is, wat ik persoonlijk zeker zou snappen. Op dit moment zijn zij de enige die dit soort geheugen hebben, dat is niet alleen een unique selling point, dat zou zomaar een groot voordeel kunnen zijn in de toekomst - mits die uitdaging over de communicatie wordt verholpen.

Het zijn in ieder geval interessante tijden!
Vraag mij ook af heb wel eens problemen gehad met ram modules die defect/corrupt raakte.
Als deze defect is net als bovenstaande hoe zit het dan met opslag wordt deze dan ook corrupt weggeschreven?

Had er nog nooit van gehoord, en het lijkt mij ook niet gemakkelijk toe te passen als moederboard fabrikant.
Hoe geef je in de UEFI/BIOS aan dat het RAM geheugen ook gelijk de disk is?
Of als je het ram geheugen upgraded mag je gelijk je data overzetten.

Nee dank je laat mij maar 2 losse componenten behouden :Y)
RAM welk defect gaat in de lifetime van een pc is echt een uitzondering. Defecte reepjes als zijnde DOA, dat komt wel eens voor ja.

Ik zou me dáár dus geen zorgen over maken.
Op ons server park zie ik toch echt wel een significante failure rate.
Ik gok dat we een stuk of 20K DIMM modules hebben en dan komt het toch bijna wekelijks voor dat een module stuk gaat. (b.v. onacceptabele hoeveelheid terugkeerende ECC errors / een module die ineens niet meer gedetecteerd wordt / uncorrectable errors)

Bij consumenten PCs merk je het niet door gebrek aan error correctie en crashed wellicht een Applicatie zonder dat je door hebt dat dit door een DIMM komt.
Servers staan over het algemeen ook 24/7 aan dus de uren die die ram modules draaien ten opzichten van consumenten PC's is natuurlijk een stuk hoger. Maar inderdaad kapotte DIMM's zijn lastig te detecteren op consumenten PC's al gaan ze ook een stuk minder vaak stuk.

[Reactie gewijzigd door TunefulDJ_Mike op 26 juli 2024 01:22]

Op dit item kan niet meer gereageerd worden.