Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Submitter: Jerrythafast

Intel toonde zijn eerste resultaten van een ssd gebouwd met de onlangs aangekondigde 3D XPoint-technologie op het Intel Developer Forum 2015. Intel noemt de technologie 'Optane' en zegt dat de getoonde ssd vijf tot acht keer zo snel is als de DC P3700, Intels snelste ssd tot nu toe.

De technologie werd kort geleden voor het eerst aangekondigd en werd ontwikkeld in samenwerking met Micron. Het nieuwe type geheugen moet de snelheid van werkgeheugen combineren met de opslagcapaciteit van flashgeheugen. Volgens het bedrijf zal het geheugen in de toekomst 1000 keer zo snel als nand kunnen zijn, 1000 keer zo lang mee kunnen gaan en een tien keer zo grote dichtheid kunnen bereiken als dram, waarmee het veel goedkoper moet worden. Intel wil de eerste producten met het 3D XPoint-geheugen onder de merknaam 'Intel Optane Technology' in 2016 op de markt brengen, schrijft Tom's Hardware.

Het bedrijf ging niet diep in op de werking van het geheugen. Wel presenteerde Intel graag de prestaties op het podium tegenover de snelste ssd die het bedrijf nu heeft, de DC P3700 nvme pci-e ssd voor datacentra. Intel maakte gebruik van IOMeter als benchmarktool. Bij een queue depth van 1, vertoonde de Optane-ssd een prestatieverbetering van 7,23 keer ten opzichte van de nand-ssd. 76.600 iops tegen 10.600 iops. Bij een qd van 8 was de prestatieverbetering lager, maar ook significant: 5,09 keer sneller. Deed de P3700 het daar met 78.900 iops, de Optane haalde 401.400 iops.

De toekomstige ssd's zullen in de bekende formfactors komen, zoals m2, sata-express en pci-express, maar ook in de dimm-formfactor. Dat laatste kan volgens Intel de grootste 'bottleneck' weghalen, namelijk het snelle geheugen met lage capaciteit dat vlakbij de cpu zit dat moet samenwerken met het langzame geheugen met hoge capaciteit verderop het moederbord. Tijdens de presentatie op het IDF ging Intel verder in op de dimm-formfactor. De dimms zullen beschikbaar komen als systeemgeheugen voor Xeon-systemen.

De chipgigant ziet een grote toekomst voor de technologie in gebieden als rich media, immersive gaming en big-dataverwerking. Met Micron als partner in het ontwikkeltraject, is de kans groot dat er binnenkort ook 'schijven' van Crucial en Micron met de technologie zullen verschijnen.

intel 3d xpoint geheugenintel 3d xpoint geheugenintel 3d xpoint geheugenintel 3d xpoint geheugen

Moderatie-faq Wijzig weergave

Reacties (88)

Persoonlijk vraag ik me toch langzamerhand af wanneer we de extra snelheid nu echt kunnen gebruiken. Voor de zware thuisgebruiker zijn de meeste SSD's al meer dan snel genoeg, wil je nog verder dan verwijder je de sata bottleneck door een pci-e ssd aan te sluiten.
Het zit niet echt in de megabytes per seconde, maar wel in de IOPS. Als je OS boot, bijvoorbeeld moet je harde schijf van allerlei plekken kleine beetjes data hebben. Dan merk je een hogere IOPS heel duidelijk. Maar het zal me een zorg zijn of ik nou een 200 MB of 800 MB per seconde kan lezen/schrijven...
Als ik op het moment thuis m'n pc opstart (koud) en mn beeldscherm uit stand-by komt. Dan is mijn pc bij het inlogscherm van Windows voordat m'n beeldscherm beeld heeft. Dat is zelfs nog met de sata-600 bottleneck.

Dus vandaar dat ik zeg, heeft het nog wel nut? Sneller kan inderdaad altijd, bied het nog praktisch voordeel.
Het gaat hier niet om bandbreedte maar om de latency

Kunt het vergelijken met 2 snelwegen een van 100km lang en een van 1km lang. Allebei gaan er bijv 60 autos per seconden over. Alleen zal het bij de ene 100x langer duren voordat die aankomt. De bandbreedte is echter gelijk. De latency niet. Je kunt je voorstellen dat latency met bepaalde (heel veel voorkomende) workloads heel belangrijk is.
Bijna goed.

Beide snelwegen zijn 100 km lang, maar bij de ene mag je 1000 km/h en bij de andere 1 km/h.
Beide snelwegen zijn evenlang, bij beiden mag je evenhard, maar de een zit vol met bochten. Dus bij de een kan je niet altijd even hard
Het laden van een nieuw level in BF4? Dat duurt nog best een tijdje op mijn huidige SSDtje. :)
Laad een beetje engine tegenwoordig niet zoveel mogelijk, als er zich genoeg geheugen aandient?
En booten is het enige wat je doet op een ssd? Videobewerken. En downloaden/uitpakken is toch lekker als het op een nog snellere ssd kan. Tevens zijn er ook server ssd,s die de extra snelheid ook kunnen gebruiken. Je wil niet weer jaren op een trage ssd bottleneck zitten. Gewoon lekker door ontwikkelen. Wil later echt niet 8k film rips met de snelheid kopiŽren.
Even een ISO kopiŽren van GTA 5 met 2GB/s gaat ook even wat makkelijker 2 minuten voor je weg gaat. Gisteren toevallig een Iso van windows 10 gekopieerd van een interne Msata SSD naar een externe versie ervan over USB 3.0. Dat gaat ap met 350MB/s. Dergelijke snelheden haal ik intern erg makkelijk (1800MB+/s) en met meerdere grote DNA files (Tekstbestanden van 20GB) is dat dus een verademing. Het duur nu nog maar ~10 seconden in plaats van 400 (hdd ~ 50Mb/s). Dat is een behoorlijk verschil als je met tientallen van die bestanden moet werken en af en toe 12.000.000 genen mag blasten.
Als jouw (en ook mijn) beeldscherm sneller beeld heeft zou het wel eens prettig kunnen zijn.
Opstarttijd van een monitor dus eerst naar kijken :)
Dat is zelfs nog met de sata-600 bottleneck.
De snelste SSD's van het moment verzadigen nog lang niet de SATA bus als in random read/writes (IOPS) rekent. En laat dat nu het ding zijn wat een pc doet als die opstart. Dus een verbetering in het aantal IOPS zal zeker de opstarten ten goede komen, de SATA bus is daar nog lang niet verzadigd.
Het zit niet echt in de megabytes per seconde, maar wel in de IOPS. Als je OS boot, bijvoorbeeld moet je harde schijf van allerlei plekken kleine beetjes data hebben. Dan merk je een hogere IOPS heel duidelijk.
Het gaat niet puur om een hoge IOPS, maar voornamelijk om de IOPS met een DQ1 of QD2, daar die het meest belangrijk zijn voor snelle toegang tot kleine files.

Zelf draai al een paar jaar een RAMdisk, ben een day1 gebruiker van SSDs, maar dit is de eerste type opslag dat voor de desktop, een echte goede reden is om van SATA over te stappen op NVMe, en zal waarschijnlijk een echt merkbaar verschil zal geven, net als met de overstap van HDDs naar SSDs.
Dit zal waarschijnlijk in eerste instantie op de zakelijke markt gericht zijn, maar dat wil niet zeggen dat je er als gewone gebruiker niets mee kunt.

In de zakelijke wereld is er een duidelijke Killer Application voor dit soort technologie, en dat is intent logging op grote copy-on-write (CoW) filesystems. In het Nederlands: Grote filesystems (b.v. ZFS, maar er zijn ook hardware oplossingen van fabrikanten) garanderen consistentie door nooit in-place over data heen te schrijven, maar door een verandering altijd op een op dat moment lege plek te schrijven, en vervolgens de meta data (helemaal tot de root) op dezelfde manier te updaten. Daardoor lees je na een crash (tijdens, zeg, transactie X) altijd danwel een consistente toestand zonder ook maar iets van X te zien, of een consistente toestand met 100% van transactie X.

Het probleem is dat dat langzaam is: elke random write vertaalt zich in ~10 random writes naar je schijven. Om daar mee om te gaan maken systemen als ZFS batches van een heel aantal transacties, en schrijven die dan met CoW als transactie naar de storage. Dat werkt prima met veel toepassingen, maar als je bijvoorbeeld een database runt dan is dat niet acceptabel: Je wilt dat als je een mutatie query doet, en je "ok" tegen je client zegt, dat je mutatie dan ook permanent op je storage staat. Je applicatie (je database server in dit geval) vraagt in dat geval om synchrone writes, en die laten zich niet batchen. Maar, zoals gezegd, dat is langzaam, omdat elke IOP van je database wel 10 IOPs op je storage worden.

De oplossing is een intent log. De truuc is in feite om van synchrone writes naar je filesystem een synchrone write naar je log i.c.m. een asynchrone (en batched) CoW write naar je spinning disks te maken. De manier waarop dat werkt is dat je de transactie op een snel medium ploft (meestal tegenwoordig een SSD), en hem pas met CoW op je schijven zet zodra je batch hebt (of voldoende tijd verstreken is). Als je niet crasht, lees je in feite nooit van je intent log. Als je wel bent gecrasht, dat lees je je intent log, en schrijf je de transacties die daar nog stonden naar je spinning disks. Zo heb je het beste van twee werelden.

Zo'n intent log levert de beste prestaties wanneer de latency laag is, en het aantal IOPS hoog. Daar zie ik voor deze technologie een grote toekomst.

Edit: Het gaat daarbij vooral om IOPS en latency bij een Queue Depth van 1, en als ik die QD1 IOPS op de slides zie, dan gaat dat _erg_ veel beter dan bij huidige SSDs.

[Reactie gewijzigd door nhbergboer op 19 augustus 2015 11:37]

De Intent log/$LogFile/Journal van een filesystem is wel nooit echt groot, Ik denk dat de killer applicatie hier eerder is als write cache( L2ARC) voor enorm grote datastromen.
Juist ja, natuurlijk ook databases :D. Ik ben ook benieuwd wat er zal gebeuren met de caching layers die nu in gebruik zijn als je een 100-1000-10000x, ... aan IOPS hebt ivg met traditionele storage.
Dan nemen die verkeerde beslissingen.
De afweging is bijvoorbeeld: opnieuw dingen berekenen of het van disc lezen ?
Dan is het antwoord al snel: opnieuw berekenen.
En als een disc 1000 keer sneller is dan is dat duidelijk niet de beste keuze meer.
Ja dat denk ik dus ook (misschien niet heel duidelijk in de post). Wanneer we high IOP storage hebben zullen veel caching layers waarschijnlijk verdwijnen.
Bottlenecks werden tot nu toe altijd weggenomen door introductie van nieuwe of verbeterde standaarden het enige nare voor eind gebruikers was dat het jaren duurde voordat het betaalbaar was.

Echter zit Intel nu achter iets en die zetten al tijdje de standaard voor hun cpu's en mainboard chipsets. Met andere woorden Intel heeft een groot belang dat er een standaard komt waar ze dit nieuwe product volledig kunnen benutten. Dus ga er maar vanuit dat volgend jaar de eerste moederbord en te koop zijn met een interface of upgrade van bestaande interface die deze volledige potentie van deze schijven kan benutten.

Dit is de grootste innovatie in jaren en zal op den duur sommige IT sectoren (hosting) en nieuwe innovatie (virtual reality) mogelijk maken.

Het enige nadeel is dat bedrijven en mensen nu hun geplande investeren gaan uitstellen. Immers waarom dit jaar in een pc of moederbord investeren en ssd terwijl volgend jaar dat mogelijk goedkoper kan zijn of iets veel beters te koop is.

Ik kan niet wachten.
95% van de mensen die een computer koopt weet niet eens wat voor onderdelen er in hun PC zitten en al helemaal niet wat voor nieuwe technologie er in de toekomst uit zal komen.

En ga er maar vanuit dat deze nieuwe technologie in het begin heel duur zal zijn en het eerst voor servers en workstations uit zal komen.
Doorlooptijd van decennia zoals vroeger is vaak niet meer.

Binnen een paar jaar is het betaalbaar.

Bovendien de prijzen tussen server en workstation motherboards en huis-tuin-keuken bordje is vaak niet meer dan honderd. Sommige gamers board zijn al duurder.

b.v. USB-C zal over een paar jaar ook standaard op alles zitten.
Doorlooptijd van decennia zoals vroeger is vaak niet meer.
Binnen een paar jaar is het betaalbaar.
Ja, dat zien we vooral aan de huidige ssd's, ze zijn al jaren op de markt maar ze zijn nog altijd niet betaalbaar.

Mooie technologie verder van Intel/Micron. Ik kan niet wachten tot het op de markt komt. Sneller is altijd beter. Vooral de 7x hogere iops bij QD1 is een interessante verbetering al mogen mijn programma's ook nog altijd sneller geÔnstalleerd worden (sequential write).
Het is inderdaad wel vreemd dat ze over de write IOPS niet iets expliciet tonen (een gemixte bench 70/30 dat wel).
Omdat Writes niet interessant zijn. Hoe vaak schrijf je daadwerkelijk iets naar je disk? Grote systemen hebben voldoende werkgeheugen om daar optimaal gebruik van te kunnen maken. Die gaan niet swappen naar iets traags als een SSD (in verhouding met de 15+GB/s die je met ram hebt). Het schrijven is vaak maar eens in de zoveel tijd of het is geen data waar snelheid belangrijk is (Logfiles bv). Dan maakt Random Write niet zo uit. Random Read verhogen is iets waar altijd een grote vraag naar blijft.
Ssd niet betaalbaar?

De prijsdaling ban SSD waarbij je onder de 200 euro voor 500GB betaalde ging 5 jaar sneller dan met IDE harddisk destijds.

Verder vind de term betaalbaar zeer betrekkelijk. Als je het als puur opslag apparaat ziet dan kun je stellen dat het opzichte van oude harddisk duurder is. Maar hoeveel mensen zullen momenteel SSD in een backup server stoppen?
Het wordt natuurlijk echt interessant als SSD opslag net zo snel is als RAM geheugen. Het zou een fundamentele verandering kunnen betekenen in hoe software werkt.

Waarom nog tijdens het opstarten allerlei data in het RAM laden als je het net zo goed pas van de schijf kunt halen wanneer je het echt nodig hebt?
Of waarom bepaalde bewerkingen in RAM uitvoeren om ze na afloop terug naar de schijf te moeten schrijven als je het net zo goed direct op de schijf zou kunnen bewerken?

We zullen waarschijnlijk altijd wel RAM nodig blijven hebben voor bepaalde dingen maar ik verwacht dat er op een aantal vlakken toch wel echt dingen kunnen gaan veranderen.
Snap waar je op doelt maar dat is louter hypothetisch. Wanneer je die gedachte door zou trekken zou dat betekenen dat je geheugen even snel zou dienen te zijn als de verwerking in je CPU. Gaat hem niet worden. Om die snelheidsverschillen te overwinnen zijn de diverse buffergeheugens aangebracht. En die zullen niet verdwijnen.
mmm louter hypothetisch gezien.

door een bios herschrijving kun je de interne cache van de processor gebruiken als intern geheugen. (dit doet de bios normaal om op te starten in de pre boot, oppassen is wel processor/systeem specifiek, niet iedere multi core processor heeft 1 block cache geheugen soms zijn het er meerdere.)
die zou wel eens groot genoeg kunnen zijn om daar een programmaatje in te zetten die heel het intern geheugen gebruikt als cache voor de ssd (en er blijft waarschijnlijk nog genoeg processor cache over ook.).
en dan zou je de ssd via de cache(processorcache of geheugen als cache) als geheugen kunnen aanspreken.

het lijkt mij toch niet totaal onmogenlijk, maar er zijn wel heel wat stappen te overwinnen om het ook te doen, en of het effectief is, geen idee.
waarschijnlijk zijn er wel technische grenzen, maar totaal onmogenlijk, nee denk het niet.
wie gaat het eens proberen }>
Vroeger dachten ze dat 640KB RAM meer dan genoeg zou zijn, tegenwoordig is 8GB heel normaal. ;)

Games, films, foto's en andere data nemen steeds ruimte in beslag, o.a. door toenemende resoluties, color depth etc. En andere zaken die misschien niet direct te voorzien zijn.

Als je gebruik maakt van die data wil je wel dat dit een beetje snel ingeladen of weggeschreven kan worden zonder dat je telkens een laadscherm te zien krijgt. Daarom is het het alleen maar goed dat bottlenecks steeds verlegd worden. Vooruitgang is goed en geeft nieuwe mogelijkheden ook al zijn die niet altijd direct zichtbaar.
Er zal vanzelf een moment komen dat meer snelheid inderdaad nodig is. Momenteel is het echter nog niet zo. De snelheid gaat eigenlijk veel verder als dat de rest gaat.

Zelf denk ik dat het beter is de focus te legen op energiezuinigheid en het fabriceren met goedkopere en betere materialen met behoud van kwaliteit. Dat is namelijk een punt waar nog heel veel te winnen valt.

Die extra warmte welke mijn PC genereert in de zomer is namelijk niet welkom :+

[Reactie gewijzigd door pietjuhhh1990 op 19 augustus 2015 10:59]

Waarom bepaal jij dat dit niet nodig is? Vooor de huis-tuin-en-keuken gebruiker wellicht niet per se. Maar voor power users, wetenschappers, muziekanten, film makers etc...kan er niet genoeg snelheid zijn. Hoe lager de latency en des te hoger de rekenkracht, des te beter!

Dit i.c.m. een zo laag mogelijke energie/warmte is een goede ontwikkeling!
Ik heb het idee dat dit Xpoint geheugen alleen maar voordelen bied maar dat moet daarom wel een nadeel hebben.

Het kan dus zo zijn dat het geheugen niet zuinig is kwa stroomverbruik.
En waar is dat idee op gebaseerd?
Het kan heus wel in alle opzichten beter zijn.
Als dat zo is, dan vragen ze er vast meer geld voor, maar zo werkt de markt nou eenmaal.
Maar goed, dat alles moet allemaal nog blijken.
Omdat het simpelweg sneller is?

Dus zullen er veel meer bewerkingen op uitgevoerd worden en dat kost nou eenmaal energie.

En er is altijd een nadeel, je hebt nooit alleen maar voordelen.
Als ie sneller is, wil niet betekenen dat ie vanzelf ook meer bewerkingen doet.
Stel, voor een bepaalde taak (programmaatje opstarten) moet ie 1000 IOPS doen. Dan is ie wel sneller daarmee klaar, maar het zijn nog steeds evenveel IOPS.
Dus ja zou goed kunnen dat ie tijdens die taak meer verbruikt (watt), maar hij is sneller klaar.
Dus is de totaal benodigde energie (joule) voor die bepaalde taak, niet per definitie meer. Dat moet nog blijken of dat meer of minder is, we weten daar niks van.
Bovendien, als die taak langer duurt, verbruikt de rest van het systeem (CPU, scherm, etc.) langer en dus meer energie bij het wachten op de SSD.
Vroeger dachten ze dat 640KB RAM meer dan genoeg zou zijn.
Er is echt helemaal niemand in de IT (of andere technische sector) geweest die dit heeft verkondigd. Ik snap niet dat mensen hier steeds mee komen.
Dat stukje was dan ook niet geheel serieus bedoeld. 8)7

Overigens blijft het een welles nietes verhaal en is het zeer lastig te bewijzen wie Ī35 jaar terug nu precies wat gezegd heeft. Ook de aangevoerde link bewijst niets. Het meest waarschijnlijke scenario is dat het een keer door de media of reclamemensen is bedacht. Als er door iemand Łberhaupt al iets over is gezegd zal het waarschijnlijk iets geweest zijn van zoveel is genoeg voor iedereen in de komende x aantal jaar.
Er is meer dan thuisgebruikers, wat denk je van virtualisatie of databases? Als de storage gedeeld wordt dan is het wel degelijk nuttig.
Verder zijn de huidige NVME drives niet echt een grote verbetering voor consumenten omdat pas bij grote queuedepth er verbeteringen zijn, dit geheugen heeft echter geen queuedepth nodig voor prestatie verbetering.

[Reactie gewijzigd door |sWORDs| op 19 augustus 2015 18:13]

Opstarten is wat iedereen meteen roept, maar kijk voor de grap ook eens naar een download... Als je download naar een HDD (wat toch erg veel mensen nog doen) dan zie je vaak veel threads tegelijk data ophalen om de downloads zo snel mogelijk te maken. IOPS zijn ook hier van groot belang want zelfs als je een 1000Mbps connectie hebt, als je met 16 threads tegelijk download omdat veel servers niet al te veel bandwidht per connectie toestaan zie je nu nog vaak een bottleneck omdat je disk simpel weg de data niet snel genoeg weg kan schrijven en de buffers dus vol lopen wat het geheel vertraagt.

Met de komst van UHD zul je ook zien dat data volumes bij consumenten weer flink gaan stijgen. Een beetje UHD camera is nu nog net even te duur om aan te schaffen voor veel consumenten, die veel al nog maar relatief kort geleden een HD camera hebben aangeschaft. Maar met een paar jaar pompt de gemiddelde camera 60fps met 10bit kleur diepte voor een 4k scherm en 8k zal daar niet ver achter zitten.
Met dat soort data stromen maakt ook de doorvoer snelheid een groot verschil voor veel gebruikers. Nu nog niet maar tegen die tijd zullen we simpel weg niet eens merken dat we een 8k film met 10bit kleur diepte in 3D formaat zonder compressie hebben opgenomen omdat onze data opslag de enorme hoeveelheid data die daar voor nodig is zonder blikken of blozen kan verplaatsen. Waar dat nu toch echt in de meeste consumenten computers een probleem zal zijn.
Het is nodig, maar niet om de redenen die je zou denken. Het gaat niet op throughput, maar om IOPS.

Eerste dat je je moet realiseren is dat op spinnende disks je ongeveer 250 iops haalt. Inmiddels hebben we meer dan 20 jaar ervaring met die dingen.

Solid state daarentegen hebben "ineens" 1000x zoveel iops. Dat maakt andere datastructuren op disk mogelijk, die voorheen niet mogelijk waren. Om een heel praktisch voorbeeld te geven: Hash tables waren voorheen gewoon echt niet mogelijk op disk vanwege de IOPS, tegenwoordig zijn daar wel mogelijkheden. Nieuwe mogelijkheden betekent nieuwe toepassingen die vroeger niet mogelijk waren. Op dit moment loopt de software gewoon achter.

Hoe belangrijk zijn IOPS hiervoor? Nou, heel belangrijk. Als je leest door de software algoritmes op de Wikipedia zal het je opvallen dat ze vrijwel allemaal random access nodig hebben. Wij software developers smullen van random access, sequentiele access is gewoon iets waar we noodgedwongen omheen moesten werken.

Kortom: Pandora's box is open en het is nu open season.

Mijn verwachting is dat over een paar jaar je software gewoon niet meer performt op spinning disks. Let wel, we hebben het hier over een factor 1000, niet over een factor 2; "traag" krijgt op spinning disks "een hele nieuwe betekenis". That said, eerlijk is eerlijk: voor nu werken je Office en je Windows nog gewoon prima zoals het is -- en als dat alles is wat je overdag doet, heb je het simpelweg niet nodig.
Wie weet komen we ooit nog op het punt dat je geen RAM meer nodig hebt. De reden dat we RAM hebben is omdat onze opslag te sloom zijn om direct mee te werken.
Als RAM als tussenstap verdwijnt zal je geen laadtijd meer hebben, alle informatie gaat van je opslag direct naar je CPU, in plaats van eerst het inladen van je opslag naar RAM. 3D Xpoint zet weer een mooie stap naar die droom situatie.
Dat is onwaarschijnlijk. Vergeet niet dat we nu een hele stapel van storage-lagen hebben: L1 cache tot L3 cache, main memory, SSD, HDD, cloud. Steeds groter, steeds langzamer. De eerste 4 lagen zijn RAM. Cache is zelfs SRAM, in plaats van DRAM, omdat dat nog snelelr is.

Dit nieuwe geheugen valt in het grote gat tussen main memory en de huidige SSD. Dat betekent concreet dat je minder DRAM nodig hebt - je kunt af en toe wachten op een IOPS. De reden voor 8GB of meer RAM is dat de huidige SSDs te traag zijn.
Ik heb het ook niet over dat dit de vervanging is.
En ik spreek ook niet voor niets over een droom situatie.
De kans is klein dat er opslag komt die zelfs zo snel is dat het eerste niveau van RAM de L1 cashe zelfs over kan nemen. Maar met de komst van 3D Xpoint die een grote sprong richting RAM snelheid neemt begin je toch af te vragen of die droom ooit verwekelijkt zal worden.
Als ze RAM inbouwen in de CPU kan dat sneller zijn dan Xpoint geheugen.
Sneller RAM maakt het laad proces vanaf je opslag niet sneller.
Tijdens het laden breng je data van je langzame opslag naar je vele malen snellere RAM, zodat deze na het laden sneller beschikbaar zijn voor de CPU. Bij het laad proces is de snelheid van je opslag de bottleneck, niet de RAM. Als opslag de zelfde RAM snelheden zal halen dan kan je je opslag net zo goed zelf als RAM laten gebruiken, dan heb je het hele laad proces namelijk niet meer nodig. Probleem met laden is ook dat je de beperkte ruimte van de RAM niet te veel wilt benutten dus moet er nu een voorspelling gedaan worden welke data geladen moet worden. Je kan situaties hebben dat er te veel geladen wordt en de RAM onnodig veel vol wordt gegooid, of juist te weinig en je zal langzaam reagerende applicaties hebben. Als opslag tegelijk je RAM is hoef je daar ook niet druk om te maken.

Snelle RAM is mooi, maar ik hoop dat in de toekomst RAM niet meer nodig is.
Er zullen altijd scenarios zijn waarbij RAM nodig is.

Voor data die bijvoorbeeld vaak benaderd wordt.

Op de CPU heb je ondanks alle DDR3 technologien en Quad Channel geheugen nog steeds cache, dat komt omdat de data dichtbij de CPU gewoonweg sneller is.
En daar begrijp jij ook mij verkeerd, want ik heb het over een droomsituatie waar een opslag techniek ooit de zelfde snelheid heeft. Plaats je die droom opslag dichterbij de CPU dan heb je ook die snelheidswinst. Wanneer opslag en RAM de zelfde snelheid zouden hebben dan is het enige verschil dat opslag de gegevens vast houdt bij afsluiten. (Denk ook aan een computer volledig afsluiten en je computer weer in exact de zelfde staat weer kunnen opstarten in extreem korte tijd omdat letterlijk al het geheugen behouden is.) Dat de kans klein is dat die droom werkelijkheid wordt tot daar aan toe. Maar ik heb het niet voor niets over een droom situatie.
Wel apart dat ze aangeven '1000x faster' en andere grote marketingnummers, en dat ze uiteindelijk 'maar' 5x zo snel zijn. Bedoelen ze dan 1000x sneller dan een USB stick uit 1999?
Volgens het artikel:
Volgens het bedrijf zal het geheugen in de toekomst 1000 keer zo snel als nand kunnen zijn, 1000 keer zo lang mee kunnen gaan en een tien keer zo grote dichtheid kunnen bereiken dan dram, waarmee het veel goedkoper moet worden.
Ik lees het alsof ze dat ooit kunnen halen, maar nu moeten we het doen met een verbetering van ongeveer 7x de snelheid van NAND.
"Volgens het bedrijf zal het geheugen in de toekomst 1000 keer zo "
ze halen dus nu 5 a 8 keer zo snel, maar denken deze technologie nog veel meer te kunnen opschalen.

Het bijzondere van dit artikel is eigenlijk dat het praat over het samenvoegen van geheugen en opslag in 1 type. Een soort "permanente ramdisk" dus.
Als je goed kijkt is dit een vroeg prototype. Ze zijn nog lang niet klaar met uitontwikkelen. Het feit dat ze met een vroeg prototype al zover komen zegt al heel wat.
zou best kunnen. als het maar NAND gebruikt, want dat staat er wel
Misschien ligt de bottleneck bij de interface of geheugencontroller en niet bij het geheugen zelf. Dat is precies de reden waarom ze het ook op DIMM formaat uitbrengen.
Dus waar eerst SATA de bottleneck is zal nu PCIe de volgende bottleneck worden? Serieuze stappen die gezet worden.
SATA is nog lang niet de botteneck. Voor sequentiŽle reads en writes misschien wel maar dat boeit niemand omdat het bijna nooit in real-life voorkomt. Wat je echt een gevoel van snelheid geeft is de sneheid van de random reads en writes en die snelheden liggen nog ver onder de SATA limiet.
SATA of PCI express mag dan ook nooit een bottleneck worden.

Als SATA of een andere interface een bottleneck zou zijn zelfs voor sequentiele doorvoer dan betekent het dat ze niet snel genoeg een nieuwe standaard hebben uitgebracht.

Het gaat erom dat ze de bandbreedte altijd ruimschoots leveren en de snelheid van SSD's voor blijven zodat er nooit een bottleneck optreedt.
En dat doen ze dus niet. Sata 6 is twee jaar terug al verzadigd door SSD's wat betreft sequentieel speeds. Waarom denk je dat fabrikanten als Apple overstappen op PCIe based flash storage? De sequentiŽle doorvoer is gewoon te langzaam en juist bij die doelgroep is dat nog steeds enorm belangrijk.
Ja maar SSD's worden nu ook niet zo gebouwd dat ze meer dan de SATA600 standaard leveren.

Er wordt nu de write speeds verhoogd en dat haalt de SATA600 standaard nog lang niet.
Eh helemaal wel? Ik zit nu met 1 die 1800+MB/s kan leveren. Hoezo niet meer dan S600?

Mijn writes zijn 1500+ sequentieel. Ook ver boven de max van Sata600.
Dat is toch navenant aan nieuwe technologie?
Eerst is A snel en B langzaam; later verschijnt B+ en dat is sneller dan A.
Ik meen ergens gelezen te hebben dat de snelheden op het nivo van RAM geheugen zitten. Dat zou betekenen dat we naar 1 geheugen toe kunnen, werk en opslag geheugen wordt 1. En dus hoef je niet meer te laden bij het aanzetten van de computer, want hij heeft alles nog in het geheugen staan. Instant-on dus. Mooie tijden in het verschiet.
Inderdaad het vervagen tussen ram en opslag is erg interessant. Bestanden hoeven niet meer in het geheugen geladen te worden maar zijn dat per definitie al. Hiervoor zou de architectuur van een PC fundamenteel gewijzigd moeten worden.

Dit is een van de weinige echte revoluties die nog in het verschiet ligt. Processoren zullen incrementele steeds langzamer sneller worden, maar zullen niet meer voor een verschil zorgen zoals in de afgelopen decennia.
Ik vraag me af of ze dan niet een nog snellere vorm van RAM kunnen maken?

RAM dat op de CPU zit en nog sneller toegankelijk is als buffer.
Nice, leuk deze soort nieuwtjes, niet alleen worden ze sneller, maar gaat ook langer mee.
Dat SSDs niet lang genoeg mee gaan is een fabeltje. De huidige technologie gaat al ruim lang genoeg mee om er nooit over na te denken. Er is een tijdje terug een onderzoek gedaan naar hoeveel data je kunt schrijven voordat een SSD echt problemen gaat geven: http://techreport.com/rev...eriment-theyre-all-dead/4

Er is een hele kleine set schijven gebruikt (1 per merk/type), maar het geeft wel een leuk beeld. Op schijven van ongeveer 250GB viel de eerste pas uit na 700TB geschreven data. Zoveel data gaat een consument nooit schrijven, zelfs niet met behulp van drukke pagefiles.
Het was niet mijn bedoeling in deze opzichte te praten, voor een normale consument is vrijwel elke SSD genoeg. Echter heeft server en media applicaties, wordt veel aan schrijven gewerkt. Je kan je wel voorstellen als je voor een langen tijd video gaat renderen, erg veel schrijf acties, en de ongecomprimeerde video is ook erg groot. Dit is een nadeel, als je dit kan verlengen is het altijd welkom en verbeterd gelijk ook de betrouwbaarheid van de ssd's en extra ruimte voor een snelle schijf is altijd goed.

In opzichte kan een normale SSD 500 Mb/s aan, als dit continue op volle toeren wordt geschreven, dan binnen de kortste keren is het uiteindelijk afgelopen, dit is toch een risico wat een SSD heeft tegenover een HDD, als we deze beperking kunnen doorbreken, dan kunnen we in tijd de harde schijf vervangen, vanzelfsprekend als de prijzen lager worden natuurlijk.
Dat is precies mijn punt: ook met 500Mb/s maakt het niets uit, je komt er gewoon niet. Ook niet met video renderen of met andere data-intensieve acties. Het is praktisch onmogelijk om een scenario te bedenken waarin een SSD echt aan zijn einde komt.

Een simpel rekenvoorbeeld: 500Mb/s = 5,4TB in 24 uur. Zelfs als je het voor elkaar zou krijgen om dat vol te houden, zou je 130 dagen nodig hebben om de SSD die in het onderzoek als eerste uit viel kapot te maken. De schijven die het het langs volhielden zouden dit ongeveer een jaar volhouden.

Er is op deze manier geen tijd over om de data weer terug te lezen (dus je had het net zo goed niet op kunnen slaan) en alle data is op een SSD van 250GB al 2800x overschreven. Dit is een absoluut worst-case scenario, maar in de praktijk schrijf je de data natuurlijk niet voor niets weg. Als consument kun je niet hele dagen schrijven (je moet immers ook een keer slapen en werken) en wil je nadat de schijf vol is over het algemeen toch eerst wat anders doen. Met een server kom je dichterbij, maar die schrijven ook alleen als er een goede reden voor is.

Het is dus alleen in heel uitzonderlijke gevallen van belang dat een SSD/HD heel veel schrijfacties kan verwerken, in alle andere gevallen zijn de huidige SSDs al ver voorbij de minimale eisen. Er is geen enkele reden meer om SSDs nog langer mee te laten gaan.
http://techreport.com/rev...xperiment-theyre-all-dead

Ook door professional gebruik zul je moeite moeten doen om een doorsnee ssd voor einde garantie van 3 haar kapot te krijgen.
Wel opvallend dat ze in de eerste slide "FASTER" en "ENDURANCE" met NAND vergelijken waar ze bij "DENSER" vergelijken met DRAM.

Ik vermoed dat het niet zo mooi toont als je ⇓ /10 voor "DENSITY" (~prijs) moet opgeven. Voor consumenten zal het schoentje daar nog een tijdje knellen...

[Reactie gewijzigd door koenpp op 19 augustus 2015 10:34]

Het blijft marketing hŤ. Maar dit zijn wel mooie stappen die gezet worden.
Voor datacentra lijkt het mij dat het stroomverbruik ook niet weinig mee telt. Daar lees ik vooralsnog niets over.
Dat was ook waar ik aan dacht, al die mooie verhalen moeten wel een nadeel hebben.

Namelijk het stroomverbruik, die zal dan wel niet mals zijn.
Voordat dit betaalbaar wordt, ben jij waarschijnlijk al toe aan je volgende schijf :-)
Ik snap de overwegend kritische commentaren boven niet: het gaat niet direct om een nog snellere SSD (dat is eerder een eerste demonstratie) deze techniek heeft het potentiaal een fors deel van de PC architectuur overhoop te gooien!
Nu: Cache op de CPU - RAM - een of andere bus - harde schijven.
Dan: Cache op de CPU - RAM & Optane.
Fantaseer nog even verder en het RAM gaat er ook nog uit en komt het Optane in de CPU??

Goed... zelfs als het werkt, zowel technisch als economisch gaat allemaal nog even duren (de SSD heeft de hard schijf uiteindelijk ook nog steeds niet volledig vervangen) maar het potentieel is er.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True