Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel introduceert eerste ssd's met Optane-geheugen voor desktops

Intel heeft zijn eerste ssd's op basis van zijn Optane-, of 3D Xpoint-geheugen voor desktop-pc's en workstations uitgebracht. De Optane SSD 900P is een nvme-ssd die op de markt komt met 280GB en 480GB opslagcapaciteit.

De Optane 900P is een high-end-ssd die met name bedoeld is voor toepassingen waar veel van het opslag gevergd wordt, zoals bij 3d-rendering, simulaties en het laden van games. Intel benadrukt de voordelen van zijn Optane-geheugen wat betreft lage latency, willekeurig lezen en schrijven op lage queue depth en de write endurance.

De sequentiële lees- en schrijfsnelheden van de Optane 900P zijn vergelijkbaar met die van andere high-end-ssd's op basis van nandgeheugen en het verbruik van de ssd maakt dat deze nog niet in te zetten zijn voor laptops, schrijft AnandTech, dat een review van de 900P publiceert.

De site komt tot de conclusie dat alleen bij nichetoepassingen de schijf genoeg belast wordt om de voordelen op te laten wegen tegen de, in verhouding tot nand-ssd's, hoge prijs. Als voorbeeld noemt de site het gebruik van een scratchdisc door workstations die met grote datasets werken.

Het zijn niet de eerste Optane-producten die Intel aankondigt. Begin dit jaar verscheen al de Optane DC P4800X, met onder andere een write endurance van dertig in plaats van de tien schrijfcycli per dag van de 900P. Voor desktops verschenen in maart al Optane-geheugenmodules van 16GB en 32GB, die als cachegeheugen dienen en zo zowel het ram als de hdd of ssd kunnen ondersteunen om de prestaties van een systeem te verbeteren.

Intel heeft hoge verwachtingen van Optane, dat de voordelen van dram, zoals lage latency, combineert met de opslagcapaciteit van flash. Het geheugen is gebaseerd op het phase change-principe, waarbij bits worden opgeslagen door fysieke veranderingen in een medium. De chips hebben een Cross Point Array Structure en geheugencellen in structuur kunnen direct aangesproken worden.

Intel Optane SSD 900P-specificaties
Capaciteit 280GB 480GB
Controller Intel SLL3D
Geheugen Intel 128Gb 3D XPoint
Interface Pci-e 3.0 x4
Formfactor half height, half length-insteekkaart of
2,5" 15mm U2
half height, half length-insteekkaart
Sequentieel lezen 2500MB/s
Sequentieel schrijven 2000MB/s
Willekeurig lezen iops 550k
Willekeurig schrijven iops 500k
Verbruik 8W lezen
13W schrijven
14W burst
5W idle
Uithoudingsvermogen (schrijven) 10 schrijfcycli per dag
Garantie 5 jaar
Adviesprijs $389 ($1,39/GB) $599 ($1,25/GB)

Door

Nieuwscoördinator

79 Linkedin Google+

Reacties (79)

Wijzig sortering
De Optane 900P is een high-end-ssd die met name bedoeld is voor toepassingen waar veel van het opslag gevergd wordt, zoals bij 3d-rendering, simulaties en het laden van games.
De huidige NVMe SSD's zijn al te snel voor games, dat je het verschil met een gewone SSD niet merkt. Wat maakt deze NVMe SSD dan anders en wel geschikt voor games? :?

De goede NVMe SSD's zijn al gauw een ¤50,- duurder dan de snelle normale SSD's... Flink verschil, vind ik, voor die ¤50,- koop ik dan liever een grotere normale SSD. ;) Ik weet dat er ook goedkopere NVMe SSD's zijn, maar dan is het verschil in performance 0 tov een vergelijkbare normale SSD. ;)

[Reactie gewijzigd door CH4OS op 30 oktober 2017 12:53]

Ik denk dat de basis van Optane zich eigenlijk kan vinden in het hele concept "computer". Hoe de combo L1/L2/L3/RAM/Storage-cache/Storage nu werkt is dat het probleem is dat we eigenlijk veel te weinig L1/L2/RAM kunnen hebben om het kosten-effectief te maken. Daarom is er RAM, en Storage. Een computerprogramma werkt altijd op deze manier, grofweg:

* Staat hetgeen wat ik nodig heb in L1? Zonee: ga naar L2. Zoja: execute.
* Staat hetgeen wat ik nodig heb in L2? Zonee: ga naar L3. Zoja: copy naar L1, en execute
* etc...

Komt nog eens bij ook dat cache & RAM niet kunnen opslaan (immers: geen persist op power loss), dus de hele keten write-to-storage is helemaal nodig.

Optane is eigenlijk een vorm van storage, die tegelijk eigenlijk ook RAM is. Zeg maar RAM wat z'n inhoud kan vasthouden als er een power loss is geweest.

De praktijk van élk compute systeem is dat het feitelijk meer dan de helft van z'n tijd bezig is om gegevens tussen al die storage tiers aan het kopiëren, en om "cache miss" instructies te verwerken...

De heilige graal van compute wordt vaak gezien als het 1:1 kunnen trekken van die storage tiers, én het rekenvermogen. Een GPU zit nog wat meer stappen verwijderd van de CPU, en heeft per shader maar érg weinig geheugen (als dat een cache-miss heeft die helemaal naar de storage moet, stort je hele GPU berekening in elkaar, vandaar dat niet elk soort berekening ook goed is op GPU's...).

Optane is wat mij betreft een soort tussenstap hierin. In vergelijking met RAM, al was het maar om de cache-miss, is elke SSD feitelijk ook traag... Een CPU die compute en storage als synoniem voor elkaar heeft... dat zou een doorbraak zijn. Geen cache miss, puur rekenkracht, en geen acties als: "loading from storage to memory".

Feitelijk zou er dan geen verschil meer zijn tussen uit en aan, en zelfs het concept: "boot" zou niet aanwezig meer zijn... er is niet zoiets als "uit" dan...
Optane staat in vergelijking met NAND, idd dichter bij DRAM (eigenschappen).
Maar in absolute zin staat het nog steeds mijlenver daar vanaf:
10 DWPD ipv oneindig, 2GB/s ipv 200GB/s, 100000ns* ipv 20ns latency (ruwe schattingen).
Zolang DRAM zo enorm veel sneller is, zullen ze dat nog wel even blijven gebruiken voor het werkgeheugen. Zo revolutionair is het dus nou ook weer niet, enkele workloads daargelaten (gezien de tests).
Al is het natuurlijk wel weer een stap vooruit tov NAND. Vooral de DWPD, en dat de controller minder acrobatische truukjes hoeft uit te halen (ivm de grote NAND pages/erase blocks die kleine writes aan moeten kunnen), al heeft Optane nog steeds wear leveling nodig.
* edit: hmm, ik lees elders dat dit geheugen 10x de latency van DRAM zou hebben, mss is dat zonder PCIe en controller overhead (als DIMM)?

[Reactie gewijzigd door N8w8 op 31 oktober 2017 15:47]

Inderdaad, maar het is gewoon geen van het ene op andere moment ding: het is een intermediaire technologie. De plaats hiervan is op de Rogers' innovatiecurve dan ook erg makkelijk te plaatsen, en daar is Intel natuurlijk op op ingespeeld. Een kleine niche, die van dit vroege product wat baat kan hebben, en daar het kapitaal voor over heeft.

De eindsituatie zoals ik hem hierboven omschreef is dan ook waar dit een beweging naar toe is, en dat is gelijk de charme van dit soort tech. Je latency schatting is erg goed, en dan is dram in verhouding nóg traag tot wat er aan cache op L1 niveau zit. Maar naar mate we steeds verder naar dat niveau migreren (tot we een CPU kopen met gewoon 1TB NV-L1 cache), en de cycles ook toenemen, is dit precies dat: een stapje op een lange weg.
Nope, 1 TB L1-cache gaat niet gebeuren. De simpele reden daarvoor is dat cache een hierarchie is, waarbij je een fundamentele trade-off hebt tussen grootte en snelheid. Als jij een snelle 1TB L1 cache kan maken, dan kan iemand anders een snellere hierarchie maken van 1 MB L1, 1 GB L2 en 1 TB L3.

Sterker nog, je ziet eigenlijk dat het snelste geheugen van een Commodore 64 precies 64 kB groot is, en het snelste L1 geheugen van Kaby Lake is exact net zo groot (32+32 kB). Het lijkt er sterk op dat dat de ideale grootte/snelheid trade-off is voor de eerste laag van de hierarchie.

Overigens zie ik om die reden werl gebeuren dat Optane gaat leiden tot kleiner RAM. De reden dat we nu zoveel RAM nodig hebben is omdat het gat tussen RAM en SSD zo groot is. Zelfs met een SSD blijf je grote file caches in RAM nodig hebben.
[...]
Sterker nog, je ziet eigenlijk dat het snelste geheugen van een Commodore 64 precies 64 kB groot is, en het snelste L1 geheugen van Kaby Lake is exact net zo groot (32+32 kB). Het lijkt er sterk op dat dat de ideale grootte/snelheid trade-off is voor de eerste laag van de hiërarchie.
[...]
De geheugen-grootte van de C64 (en de MSX uit die tijd) was met name 64k, omdat dat het bereik is van een 16-bit adresbus.
De Commodore ken ik niet zo goed qua architectuur, maar bij de MSX was het wel mogelijk om meer te adresseren, maar dan moest je wel allerlei truuks uithalen om een byte te schrijven op een bepaald adres zodat een andere pagina beschikbaar kwam.

Wat precies de reden is van de cache-grootte van de Kaby Lake, weet ik niet.
Zo uit het hoofd, heeft 'ie een cache-line van 64 byte.
Met 32k cache zou je dan op 9 bits adreslijn van die cache zitten.
Geen idee waarom 9 a 10 bits kennelijk als optimaal gezien wordt, gelet op prijs/prestatie.
Je hebt gelijk, alleen wijst de praktijk nog anders uit voor Intel's Optane geheugen. Het is nu in de praktijk niets anders dan een NAND schijf met een paar voordelen op nicheworkloads. Een NVMe SSD zou je ook in kunnen zetten als geheugen maar daar is het nu ook veel te traag voor en heeft het net zoals de Optane te weinig write/read cycli.

Dat het een veelbelovende techniek is voor de toekomst daar ben ik het met je eens, maar ze moeten het nog wel gaan waarmaken en is je post op dit moment nog toekomstmuziek. Kijkende naar het product wat ze nu leveren vind ik het nog niet interessant om het te kopen, dan ga ik liever voor een NVMe SSD omdat die toch wat goedkoper zijn.
Optane is wel een stuk sneller dan SSD's, als je kijkt naar random access.
Echter ze lijken niet zo interessant als je naar de ruwe max. sustained transfer rate kijkt.
Die is van NVMe SSD's vaak een stuk hoger (en je kunt je afvragen voor hoe lang achtereen ivm. warmteontwikkeling).
Die Optane opslag is wel heel interessant voor database opslag.
En inderdaad, er moet nog meer aandacht besteed worden aan de software om dit soort nieuwe lagen goed toe te kunnen passen.
Vroeger was het ook zo. Zie verhaal van uncle bob on the future of programming. Leuk stuk geschiedenis beschrijving https://youtu.be/ecIWPzGEbFc. De rest is ook de moeite om naar te kijken. Vooral het eind...
Dit soort ontwikkelingen zijn niet alleen voor de huidige game-markt maar ook voor de toekomstige games. Game ontwikkelaars krijgen steeds meer snelheid uit CPU, geheugen en HDD waardoor ontwikkelaars beter aan de wens van gamers tegemoet kunnen komen, namelijk nog zwaardere en toffere games. ;)
NVMe zegt niet zoveel over de snelheid van opslag/geheugen, maar definieert alleen specificaties van de interface. Trage controller of trage storage-chips is ook op NVMe langzaam. De bandbreedte van SATA is theoretisch max 600MBps vs 4GBps NVMe (op PCIe x4 G3). De achterliggende controller en geheugenmodules bepalen in hoeverre max bus/interface snelheid benaderd wordt.

Intel geeft erg weinig details over Optane, maar volgens mij is het PCRAM (zoals artikel ook aangeeft), wat in de basis anders dan NAND-storage. Het zou zinloos zijn dat op SATA te zetten, vandaar dat het op NVMe interface draait.

EDIT: Tweakers zuster HWI heeft NVMe vs SATA praktijk resultaten: https://nl.hardware.info/...ktijk-benchmarkresultaten

[Reactie gewijzigd door shufflez op 30 oktober 2017 13:08]

Je zou de vergelijking niet moeten maken tussen SATA & NVMe, maar AHCI & NVMe. PCIe based SSDs zijn er heel lang, maar gebruikten in het begin nog het oude AHCI (wat traditioneel bij SATA wordt gebruikt). Daarbij zul je zien dat NVMe (ontwikkeld voor SSDs en paralel verwerken) efficienter is dan AHCI (ontwikkeld voor rotational disks).
Je hebt helemaal gelijk. SATA kon natuurlijk ook nog gewoon nog IDE, helemaal vergeten.
Dan is het SATA vs PCIe (de bus) en AHCI vs NVMe (interface), toch?

Bijzonder dat mijn reactie -1 gemod wordt ipv zoals @Owentje opbouwende reactie (dank daarvoor!).
Zeker geen -1 waard... Snap ik ook niet. Maar idd! Om het makkelijk te houden: SATA vs PCIe & AHCI vs NVMe.
Welke SSD zou jij aanraden dan?
In de pricewatch zijn genoeg normale SSD's te vinden, voor een goede prijs. :) Zelf adviseer ik vooral Samsung EVO SSD's of Crucial MX SSD's. :)
Beetje duur voor de opslag die je krijgt. Maarja, nieuw spul dus "nieuw" prijskaartje.
Nieuw spul met nieuwe voordelen. Zo is scheelt het zomaar een factor 8 met random reads en bijna een factor 7 als het gaat om random writes. Das best wel significant en voor sommige toepassingen waarschijnlijk het geld wel waard. En ja, het is duur, maar SSD's waren ooit ook zo duur (in prijs/GB)
In real life is de performance echt te gek. Heb sinds een maand de datacenter versie in mijn dev doos. Daar heb ik een Samsung pro 960 vervangen door optane en het verschil is echt bizar groot bij bepaalde toepassingen. Zoals grote visual studio projecten en test met elastic search.
Starten programma's ook veel sneller op? En kleine softwareprojecten, bouwen die ook veel sneller? Of is het verschil alleen merkbaar bij grote projecten?
Echt alleen bij grote projecten. Kleine projecten heeft het echt nauwelijk's nut.
Bij Tomshardware is er een uitgebreide test met benchmarks http://www.tomshardware.c...-900p-3d-xpoint,5292.html

Lijkt een aardig snel ding te zijn. Bij een mixed workload is het verschil groot ten opzichte van andere SSD's
Niet dat je er snel aan komt, maar maakt Intel nou gewoon je drive onklaar als er een bepaalde write threshold bereikt is?
Intel stated the drives will move into a read-only state once the endurance expires.
Ik begrijp daaruit dat je drive dus altijd na een bepaald aantal TB's onklaar gemaakt wordt, ook al werkt hij nog goed. Best raar toch?
Bij professionele ssd's wordt de drive onbruikbaar gemaakt indien deze fouten vertoont, dus opeens is alles leeg. Dit is heel normaal.
Maar als professionele gebruiker heb je dit natuurlijk in raid lopen, en een back-up geregeld.

[Reactie gewijzigd door jan99999 op 30 oktober 2017 13:06]

Je begrijpt mijn reactie denk ik niet. Ten eerst is de data niet weg, maar read-only. Dus er is niks weg, maar je kan ook niks meer bijschrijven. Ten tweede legde ik uit dat de drive altijd op een bepaalde threshold read-only wordt, dus OOK als hij niet stuk is. Dat vond ik raar.

Uiteraard heb je back-ups etc. En juist om die reden is het idioot om maar uit veiligheid de drive onklaar te maken, zeker als hij zo nog een jaar mee kan bijvoorbeeld.
Je voorkomt met dit systeem wel dataverlies. Als je weet hoeveel data je dagelijks naar de schijf schrijft kun je ook vrij precies uitrekenen wat de verwachte economische levensduur gaat zijn, lijkt me zeker bij bedrijven geen probleem.
Je hebt de data altijd op minimaal 2 plekken, maar liever 3. Dus als je met het schrijven naar deze schijf data kunt verliezen, ben je eigenlijk al verkeerd bezig. :)

edit: Toevoeging: Je gaat als bedrijf echt je data niet toe vertrouwen aan de verwachte economische levensduur natuurlijk. En ook deze schijven kunnen na 1GB geschreven te hebben stuk gaan natuurlijk. Dus ik zie niet in waarom Intel dit zou moeten opdringen, behalve snellere ( eventueel onnodige ) vervanging dan. :P

[Reactie gewijzigd door dehardstyler op 30 oktober 2017 13:23]

Je voorkomt met dit systeem wel dataverlies.
Maar het is afhankelijk van de omgeving of dat wel op het device afgedwongen, misschien heb je risico op dataverlies wel op andere manieren uitgesloten. Ik ben het met @dehardstyler eens: raar. Dit zou een keuze van de klant horen te zijn. Wellicht faalt Optane op een bijzondere manier.

[Reactie gewijzigd door TheekAzzaBreek op 30 oktober 2017 15:12]

.... dus opeens is alles leeg. Dit is heel normaal.
Leeg ? Ik lees het als 'read only' , dus data nog te lezen maar niet meer te overschrijven.
Wat is het nou ?
Read-only uiteraard. Een random tweaker die iets overduidelijk doms roept, zonder bronvermelding - wat denk je zelf?
wat denk je zelf?
Wat ik denk maakt niet uit, ik wilde jan99999 er nog eens over na laten denken.

Kennelijk is zijn antwoord toch +1 waard :(
Optane moet net zoals SSD en andere devices met een eindige levensduur wear-levelling doen, waarvoor extra sectoren worden gebruikt die niet direct benaderbaar zijn. Als er teveel van die verzameling sneuvelen werkt wear-levelling niet goed meer, en kun je inderdaad redelijkerwijs zeggen dat de "endurance has expired".
Klopt, maar Samsung ( voorbeeldje ) maakt mijn SSD ook niet onklaar en ik weet net zo goed dat ik back-ups moet maken. Waarom moet Intel dan mijn Optane SSD onklaar maken? Misschien heb ik wel een "cherry picked" Optane SSD in handen, die zo nog 1 jaar mee gaat of bij minimaal gebruik nog 2 jaar. Ik vind het maar een rare gang van zaken dat ze de SSD onklaar maken en het klinkt zelfs een beetje als "planned obsolescence" als je het mij vraagt.
Is niet alleen voor Optane SSD's zo, ook bestaande Intel SSD's doen dat.

De logica is vrij simpel: elke fysieke sector heeft een maximum aantal writes. Als die bereitk zijn, vertrouwt Intel die sector niet meer en wordt die uit roulatie genomen in plaats van te hopen dat die nog langer meegaat. Dat is een redelijke trade-off: beter een read-only schijf dan een defecte schijf met data-verlies. Maar het gevolg is dus dat na een voorspelbaar aantal writes de overprovisioned sectoren op zijn. Er zijn simpelweg niet meer genoeg betrouwbare sectoren om 480 GB aan data te bewaren.

Is dat planned obsolescence? Ja, eigenlijk altijd. MLC, en TLC al helemaal, zijn eerder op dan SLC Flash.
Dat snap ik wel, maar ik heb liever gewoon een defecte schijf! Je investeert toch al gigantisch in back-up on en off-site, en zal dat ook zeker blijven doen. Intel geeft je geen data garantie, dus daar ga je zelf voor. Als die schijf daardoor dan langer mee kan, is dat beter in de kosten denk ik zo.
Anandtech heeft ook een review
Ik was benieuwd wat deze Intel SSD qua snelheid doet ten opzicht van een Samsung EVO. Op papier is deze SSD 'iets' sneller dan een Samsung 960 EVO.

Lezen (sequentieel)
SAMSUNG 3.200MB/s
INTEL 2.500MB/s

Schrijven (sequentieel)
SAMSUNG 1.500MB/s
INTEL 2.000MB/s

Lezen (random 4K)
SAMSUNG 330.000 IOPS
INTEL 550.000 IOPS

Schrijven (random 4K)
SAMSUNG 300.000 IOPS
INTEL 500.000 IOPS

Bovenstaande gegevens is natuurlijk geen goede vergelijking maar een indicatie. ;)
Bron: pricewatch: Samsung 960 EVO 250GB
Het is maar wat je "iets" noemt..... met 2/3e meer IOPS is dat toch heel behoorlijk te noemen.
Het is maar wat je "iets" noemt..... met 2/3e meer IOPS is dat toch heel behoorlijk te noemen.
Iets staat tussen aanhalingstekens dat mag je lezen met een knipoog. ;)
Het gaat vooral om het verschil wanneer je tegelijk leest en schrijft op dezelfde disk dus bijvoorbeeld bij het indexeren van redelijk datasets en tegelijk checks uitvoeren op die sets bij iedere insert dan blaast het echt alles uit het water.
De toepassing is mij niet helemaal duidelijk.

Vervangt dit je (NVMe) ssd of vervangt dit het geheugen?
Kan je hier windows op instaleren en/of hoef je geen Ram meer te kopen.
Of gebruik je het gewoon naast je (NVMe) SSD en naast je RAM?
Toepassing > https://ark.intel.com/#@EnthusiastSSDs
Dus dat, een NVMe SSD voor de enthousiasteling , hoewel je zelf bepaalt hoe je je gear gebruikt.

Dus ja je kan er windows op installeren (indien supported) en je moet nog steeds RAM kopen.
Maar een RAM-drive met daarop Windows geďnstalleerd.... ;) (das leuk totdat je PC herstart natuurlijk)
Er zijn 3 toepassingen.
persistant Ram extensie zal ten eerste voor Xeon platform waar je Optane Dimm module erin prikt.
Dan heb je het als SSD nvme tegenhanger.
Maar je hebt ook cache SSD versies.
Het zal met nieuwere generaties ook sneller worden.

Voor consumenten heb je dus twee toepassingen kleine cache SSD.
Of nvme SSD tegenhanger met flinke prijs maar betere write prestaties en lagere write weardown.

Kan zijn paar generaties verder het ook als ram vervanger toegepast kan worden. Of in embedded toepassingen.
Een goede inhoudelijke review die ook ingaat op het wezenlijke verschil tussen deze nieuwe XPoint SSD en andere NVMe drives: https://www.pcper.com/rev...SD-Review-Lots-3D-XPoint/

Vooral opmerkelijk is dat omdat xpoint zich meer gedraagt als RAM, maakt het voor de performance niks uit hoe vol de SSD is terwijl dit bij andere SSDs wel het geval is. Tevens heeft deze SSD een enorm veel langere levensduur qua TB written.
Dat valt in de praktijk nog maar te bezien jongeman, die langere levensduur.

[Reactie gewijzigd door Marctraider op 30 oktober 2017 13:52]

Dat valt in de praktijk nog maar te bezien jongeman, die langere levensduur.
Maar ze moeten de claims wel waarmaken en als de fabrikant opgeeft dat deze opslag voor veel meer schrijfoperaties geschikt is dan traditionele SSD's, dan moet je daar maar vanuit kunnen gaan.
De garantie (dus gegarandeerde writes voor falen, vanuit fabrikant) is veel langer / meer writes dan concurrenten. Dat is dus niet bezien, dat is gegarandeerd.. Anders zouden ze het niet aanbieden. Intel heeft jaren gewerkt aan xpoint en deze uitspraken of garanties geven ze niet zomaar.

P. S. Jongeman :?
Er zijn zat bedrijven levens lang garantie op iets geven. Op bijvoorbeeld geheugen modules. Of Ssds Maar dat wil niet zeggen dat het niet stuk gaat. Zeker nieuwe technieken moet je altijd maar huiverig voor zijn. In het begin waren ssds ook niet heel betrouwbaar. ... Sandfoce. Intel Samsung hebben allemaal flinke steken laten in de begin jaren. Die technologie Was ook getest en jaren aan gewerkt.
Uithoudingsvermogen (schrijven) 10 schrijfcycli per dag
Aanvullend;
Uithoudingvermogen (endurance) zegt natuurlijk niks zonder dat daar een tijdsspan bij vermeld is, normaliter is dat de garantietermijn in deze 5 jaar voor de 900p serie, maar de vendor kan ook een andere termijn aanhouden.

Voor de 280GB drive komt de Endurance Rating (Lifetime Writes) dan uit op (10 (dwpd) * 280GB * ~365 * 5 = ) 5.11PB.
Precies volgens specs
Als ik het goed begrepen heb van Star Citizen's CitizenCon heeft Intel de Optane SSD's tijdens dat event ook gelauncht en zijn ze ontwikkelt o.a. in samenwerking met CIG en zouden ze bij Star Citizen ook zichtbaar betere performance leveren t.o.v. andere SSD's.

Daarbovenop krijg je bij aankoop van zo'n Optane 900P ook een Sabre Raven schip in Star Citizen erbij.

[Reactie gewijzigd door Gelunox op 30 oktober 2017 13:41]

Ik vermoed dat het grootste gedeelte wel marketing is, en het voor de ontwikkeling meer oplevert (qua compiling etc.) dan het daadwerkelijk spelen. Als ik 'm daar had gewonnen had het wel leuk geweest, maar alsnog moet je minsten Kaby-Lake draaien om er wat aan te hebben (als boot drive?). Denk dan ook niet dat het een nuttige aanschaf is, gezien je daarmee ook het merk bepaald voor je volgende CPU upgrade.
SSD zijn goed in read io.
Maar writes zijn belastend voor de levensduur en ook performance.
Vroeger had je daarvoor de SLC SSD maar waren ook duur.

Voor compileren waar juist veel kleine files gelezen wordt en ook meerdere files weg geschreven lijkt mij scratch of werk SSD met goede write performance en levensduur wel handig.
Magische FPS increase en stuttering decrease???

Van het eerste is gewoon magie, het laatste is dan gewoon slecht programmeren.
Knap aan de prijs "als dat al niet gezegd is"
Wel mooi form gegeven dat mat zwart geborstelde, dat dan weer wel
Is dit heel bijzonder? De M.2 SSD's van Samsung zijn kleiner (want M.2), een kleine 1000MB/s sneller, en een heel stuk goedkoper.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*