Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties

Intel demonstreerde tijdens het Developer Platform een mogelijke opvolger voor de huidige solid state-technologie. Het bedrijf werkt aan NVM Express-ssd's met een pci-express-interface die grotere doorvoersnelheden moet garanderen.

De NVM Express-ssd's zouden een pci-express-x8- of -x2-interface moeten krijgen en flink sneller dan huidige solid state drives moeten worden. Nvm staat voor de gebruikte opslagtechniek, non-volatile memory. Een prototype dat Intel liet zien, beschikte over een x8-interface en haalde 1GB/s doorvoersnelheid. Dat was voldoende om maar liefst driehonderd filmstreams in sd-kwaliteit tegelijk te kunnen leveren.

Om snellere doorvoersnelheden mogelijk te maken, moet worden afgestapt van de huidige constructie waarmee ssd's worden aangestuurd, zo betoogde Intel. Het nand-geheugen wordt aangestuurd door een controller, die verbonden wordt met een ahci-brug van sata naar pci-express om tenslotte bij de chipset uit te komen. Het overstappen naar nvme als logische interface zou te prefereren zijn, maar als tussenstap zou de integratie van ahci-brug in de ssd mogelijk zijn. Dat gebeurt via de sata-express-interface, waar de sata-organisatie aan werkt en die bovendien backwards compatible met sata-interfaces is.

Op termijn zou een volledige overstap naar nvme echter noodzakelijk zijn: de techniek heeft geen controller met firmware aan boord die een beperkende factor is: alles wordt in hardware gedaan. Dat zou bovendien minder cpu-belasting moeten vergen, waardoor energiewinst behaald zou kunnen worden. De nvme-standaard wordt door een consortium van ongeveer tachtig bedrijven gesteund en een eerste Linux-driver is beschikbaar; aan een Windows 7-driver wordt nog gewerkt.

De voorgestelde evolutie van ssd naar nvme
Moderatie-faq Wijzig weergave

Reacties (74)

Dit is (Buiten het geheugen om) toch ook de techniet die b.v. Fusion IO gebruikt. Zij halen ook zeer hoge doorvoorsnelheden en een hoog aantal IO's per seconde.
FusionIO doet 135.000 IO's en 750MB/s op hun top modellen.

Ook zijn er een aantal Storage partijen bezig met vergelijkbare technologie:
EMC, Project Lightning / NetApp Mercury project.
Hierbij verplaatsen ze IO's van het storage systeem naar de cache controller in de server.

[Reactie gewijzigd door erwinb op 17 september 2011 09:13]

Nog veel meer zelfs... Het topmodel doet 6GB/sec en bijna 1,2 miljoen IO's / sec. Ze gebruiken een soort DMA architectuur waarbij ze direct via de PCI express van het geheugen naar de chips gaan. Iedere chip heeft een eigen pad waardoor inderdaad het trechter effect van een controller geelimineerd wordt. FusioIO is wel duidelijk high-end/voor de servermarkt, de goedkoopste kaarten kosten al een paar duizend euro. En dat zelfs terwijl ze MLC chips gebruiken. Door hun techniek en extra chips zeggen ze dat SLC niet nodig is om een lange levensduur te halen.

Als ze aan een Windows 7 driver werken zal de Intel variant ook wel voor consumenten worden :)
Goed dat Intel hier mee bezig is. Op dit moment wordt nog alles over een smallere bus gepompt met veel overhead in de controllers.

Rechtstreeks naar de chipset een lijntje trekken om bottlenecks weg te halen scheelt een hoop controllers (en daarmee natuurlijk energie, wel een beetje groen denken natuurlijk ;) ).

[Reactie gewijzigd door DaManiac op 17 september 2011 09:05]

Hoe lang zal het nog duren voordat we flash geheugen rechtstreeks aan de CPU kunnen koppelen.

Zodra wear leveling niet meer nodig is zal dat een vogelvlucht nemen.
Wear leveling is helemaal geen slechte zaak. Het klinkt soms alsof het een zwaktebod is van de techniek, maar aan de andere kant betaal je anders voor kwaliteit die je nooit gaat gebruiken. Want stel dat elke cel 100.000x is te beschrijven dan is je hele SSD afgeschreven zodra een cel dat aantal haalt. Of je verplaatst dan die cel naar een ' reserve' cel, maar dat kan betekenen dat een programma dat veel naar 1 lokatie schrijft (swap/cache) binnen korte tijd je SSD aan het slopen is. Met wearleveling heb je pas een probleem als ALLE cellen vaak zijn beschreven en de cellen die aan het eind zijn niet meer kunnen worden opgevangen door de overcapaciteit.

Vergeet ook niet dat veel van de snelheden die een computer haalt aggregated/verzamel snelheden zijn. Een geheugencel in een DDR3 module haalt misschien 400Mhz, terwjil je met een veel hogere snelheid afwisselend uit meerdere cellen kunt lezen. Deze 'basale' snelheden zijn niet zo makkelijk op te voeren. Het is veel eenvoudiger om via een truc (wearleveling/interleaving/multichannel/multicore/hyperthreading/...) de beschikbare capaciteit maximaal te benutten dan stug vast te houden aan een 1 dimensionale oplossing die niet verder schaalt of uiterst kostbaar is. Kijk anders even naar de P4 aan het eind van z'n loopbaan om te zien wat er gebeurd als de oplossing niet meer schaalt/werkt.
Wear leveling is helemaal geen slechte zaak.
Ik denk dat jij het punt van E_E_F mist. Hij zegt niet dat wear leveling slecht is, maar als die cellen geen limiet meer hebben in het aantal schrijfacties en wear leveling dus niet meer noodzakelijk is, is er een stuk minder intelligentie nodig in de aansturing van het spul.
Waarom zou je dat willen? Een controller kost nu al minder dan 10% van de SSD. Daarnaast is 1 flashkanaal veel te weinig, dan heb je minimaal 8 kanalen nodig, dus zit je toch weer met multiplexen oid. en voor je het weet heb je er weer een controller tussen zitten....

Er zijn eigenlijk maar 2 dingen spannend:
1. Standaardbus/aansluiting. We hebben sata als budget en pci-e als high-end.
2. Bootable, kan zowel via sata als pci-e

Voor de rest maakt de architectuur eigenlijk niks uit. Zolang de perfomance hoog is en de prijs laag. En aangezien >90% van de prijs flash is, is de besparing minimaal.

Opvallend vind ik trouwens de opmerking dat Intel het heeft over dedicated hardware ipv met een firmware. Zelfs hun CPU's werken met microcode, wat lijkt op firmware en de CPU belasting van een hdd is ook minimaal. Dat nvm de toekomst is, dat kan goed, maar de route die Intel kiest hoeft zeker niet de beste te zijn. Ben benieuwd of de concurrentie een betere/snellere/goedkopere oplossing gaat vinden.
Volgens mij mis je het punt een beetje. Wear leveling is nodig omdat anders de flash chips te snel aan hun maximaal aantal schrijfacties raken. Als er geen maximaal aantal schrijfacties is omdat de techniek zover is doorontwikkeld, is wear leveling in ieder geval niet meer nodig om de levensduur te verlengen. Als je SSD-geheugen als cache-geheugen wilt gebruiken is het wel fijn als er geen maximaal aantal beschrijvingen mogelijk is.
Het punt van TheGostInc is dat je beter goedkoop slijtagegevoelig flashgeheugen kunt gebruiken in combinatie met een controller die wear-levelling doet dan een geheugentype dat veel duurder is. De realiteit is dat de levensduur van flashgeheugens alleen maar minder wordt bij verdergaande verkleining van het productieprocédé. Hoe minder materiaal er is om geheugencel te isoleren, des te eerder hij lek zal worden. Wear-levelling en technieken om de write-amplification factor te verlagen worden niet minder belangrijk.

Het door jou gewenste betaalbare en slijtagevrije non-volatiele geheugen bestaat momenteel gewoon niet en gaat er pas komen als technieken zoals MRAM doorbreken.
Omdat er zonder die wear leveling weer een vertragende laag weg is :)
Een vertragende laag? de huidige controllers doen pas aan wear leveling als de SSD geen lees- of schrijf-opdrachten krijgt, en zal dus geen vertragende werking hebben.

Ook als wear leveling in de toekomst niet meer nodig is, dan zal je nog iets van een controller moeten hebben om het flash geheugen in meerdere kanelen aan te kunnen sturen, te TRIMen, en de vrije ruimte te defragmenteren ( dit laatste zorgt ervoor dat random writes op een SSD even snel zijn als sequential writes). Zo'n controller kan je natuurlijk bundelen met het flash-geheugen (zoals nu gebeurd met SSDs), integreren in de chipset, of integreren in de CPU.

Dit allemaal neemt natuurlijk niet weg dat het fijn zou zijn als het maximale aantal schrijfacties zo ver wordt opgehoogd dat dit geen praktische beperking meer is, maar ik denk dat we deze mijlpaal juist eerder kunnen bereiken door gebruik te blijven maken van wear leveling.

@mad_max234:
Bij een conventionele schijf zal dat zeker merkbaar tijd kosten i.v.m. het verplaatsen van de kop. In het geval van de SSD betekent dat dat de page (4 kB) die de SSD aan het overzetten is weggeschreven wordt, en klaar is kees!

Dit zal in theorie misschien een licht verschil in reactietijd geven als de SSD na een periode van rust weer aangesproken wordt, maar de vraag is of zo'n klein verschil in die situatie wel merkbaar is...

Overigens kan dit scenario nog steeds optreden als je wear leveling afschaft, bijvoorbeeld door het TRIMen of het defragmenteren van vrije ruimte. (allebei dingen die je niet achterwege wilt laten als je iets om de prestaties van je opslagmedium geeft)

[Reactie gewijzigd door n-i-x op 18 september 2011 05:28]

Dat is niet waar, als de ssd bezig is met wear leveling in ruststand en moet plots iets lezen dan zal dat ongetwijfeld wat extra tijd kosten om van wear leveling naar gewone mode te gaan.

[Reactie gewijzigd door mad_max234 op 18 september 2011 05:05]

@n-i-x
Ben je niet in de war met trim/ garbage collection? Wear levelling moet volgens mij echt in real time bij het schrijven worden gedaan. Hoe wil je het anders ook doen? Data van de ene plek verplaatsen naar een andere plek die minder wear heeft? Dat betekent dat dezelfde data twee keer geschreven wordt, wat alleen maar meer wear oplevert, niet minder.
@Bonez0r
Volgens mij ben ik niet in de war, al heeft de garbage collection er wel iets mee te maken.

De 'garbage collector' zorgt ervoor dat de vrije ruimte op de SSD redelijk gedefragmenteer is, zodat alle writes (ook random) intern als sequentiele writes behandeld kunnen worden. Dit zorgt ervoor dat een SSD met genoeg vrije ruimte met random writes dezelfde snelheid haalt als met sequential writes. Deze aanpak betekent ook dat de wear leveling niet meer tijdens het schrijven toegepast zal worden, aangezien van tevoren al vaststaat welke reeks aaneengesloten blokken beschreven zal worden.

De wear leveling veroorzaakt inderdaad wat extra writes, en daarmee wat extra wear. Hoeveel extra wear er veroorzaakt wordt, dat wordt de 'wear leveling efficiency' genoemd. Die ligt gelukkig een heel stuk lager dan 2(dubbele wear) (eerder tussen de 1(geen extra wear) en de 1.1), aangezien het niet nodig is om na elke write opnieuw de wear te levelen.

Zoek voor de aardigheid eens op de term 'wear leveling efficiency' Op Het grote SSD topic ~ Deel 9 wordt een efficiency van 1.04 genoemd voor een Intel X25-m.
Juist. Dat bedoel ik.
Pci-express is toch juist de rechtstreekse koppeling aande CPU?
gaat volgens mij nog altijd via de chipset.
Ook in de nieuwste sandy bridges en bulldozerts? Dacht namelijk ook dat de PCI-E controllers bij de CPU geintegreerd werden de laatste generaties.
Als er geen firmware is en alles wordt door de hardware gedaan, heb je dan niet juist het probleem dat eventuele bugs niet meer op te lossen zijn? Nu zie je bij SSD's toch regelmatig nog wel een vervelende bug en dan is het wel fijn dat het op te lossen is met een firmware update.
Denk dat je in het huidige geval kan stellen dat die bugs dus in de firmware zitten maar aangezien in dit type geen firmware zit kunnen er ook geen bugs in zitten en moet je evt problemen in de chipset van je mobo zoeken. (wat het overigens wel wat lastiger kan maken om te fixen)
Of je logica nou hard-wired maakt of in firmware, je kans op bugs wordt er heus niet kleiner door.
Je kan ook hardware bugs hebben, interferentie tussen componenten bijvoorbeeld. Wie herinnert zich de Pentium Floating Point bug nog?

Maar, als er wel firmware inzit kan je wellicht dat soort hardware bugs omzeilen door er een software oplossing voor te bedenken. Het is tenslotte veel makkelijker (en goedkoper!) om een firmware patch door te voeren dan om een paar miljoen moederboarden te vervangen omdat er een hardware bug zit in een chipje :)

[Reactie gewijzigd door 4np op 17 september 2011 13:11]

De bugs verplaatsen dan naar de driver. De driver zal waarschijnlijk complexer zijn en dus meer bugs kunnen bevatten. Neemt niet weg dat als je iets hardwired en een fout maakt dit dus niet meer kunt oplossen.
Hebben jullie wel eens gekeken hoe hard de SSD prijzen dalen. :? Er word veel geklaagd dat de prijzen naar beneden moeten, maar dit gebeurd allang. Kijk maar eens naar de prijsgrafiek van de Vertex 2 hieronder.

http://tweakers.net/price...-ii-25-inch-ssd-60gb.html

Ik heb vorig jaar een Intel postville 80GB gekocht voor 200 euro en deze kost nu minder dan de helft. Verder vind ik een SSD in elke pc een must. Het verschil in snelheid is gigantisch.
Inderdaad
Hier in de pc's de hdd aan het uitfaseren.

De pc's die niet buiten het netwerk gaan, hoeven geen "opslag" te hebben.
1 voor 1 gaan ze over op 80 / 120gb ssd's
De opslag staat in het eigen netwerk, en de data die "naar buiten" moet of kan staat daarvoor beschikbaar
Scheelt enorm in dubbele opslag, buiten de wekelijkse backups op een usbhdd
Idd. Ja, het is duurder, maar SSD is behoorlijk gekelderd. Nu is die Vertex niet echt een SSD die mijn voorkeur zou zijn, maar ook een Crucial M4 is heel betaalbaar, voor 85 eur heb je een 60Gb exemplaar... (155 voor 128Gb)

Een hdd is een stuk goedkoper per Gb, maar een SSD gebruik je toch niet voor het opslaan van je MKVtjes en dan is 60 of 120Gb meer als voldoende.

Een jaartje geleden zat je nog op 200+ eur voor 60Gb oid
Voor in een laptop is een SSD echt nog onhandig wat mij betreft. Ik gebruik vrijwel altijd mijn laptop en heb wel veel opslagruimte nodig (> 500GB), dan is een SSD gewoon niet te doen.
Veel laptops kunnen ook in de optical bay een hdd kwijt. Als ik zie hoe vaak ik een optical drive gebruik kan ik die prima missen. Die enkele keer pak ik wel een externe drive.
ja voor een sata 600 betaal je nog steeds 80 euro per 60 gig sorry maar dat is echt veel te duur aangezien ik minimaal 1500 gig nodig heb voor mijn muziek games fotobewerking en windows.

dat is 2000 euro voor 1500gig waar een hdd maar 75 euro kost voor 2000gb.

ik koop liever een nieuwe pc.
of 2

[Reactie gewijzigd door computerjunky op 17 september 2011 15:43]

Je zal wel een laptop hebben zeker? Anders zou ik echt niet weten waarom je al je muziek op een ssd zou willen zetten. Voor laptops waar maar één opslag apparaat in kan is het inderdaad nog redelijk duur als je veel data hebt, maarja, dan wacht je nog een paar jaartjes, de prijzen zijn echt wel aan het kelderen.

Of je neemt genoegen met een iets oudere generatie die alsnog 250MB/s doorvoer heeft en een stuk goedkoper is.

[Reactie gewijzigd door Bonez0r op 18 september 2011 15:28]

Dit product doet me denken aan de Gigabyte Ramdrive;

Jammer dat dat product EOL is, met PCI-e en DDR3 had het zo'n beetje alle concurrentie van tafel kunnen vegen.
Dit product doet mij meer denken aan de OCZ Revodrive. Die is nu ongeveer een jaar op de markt en wordt zelfs in raid varianten aangeboden. Uiteraard prijzig, maar de specs (en de reviews) liegen er niet om.

Het verschil is wel dat de Revodrive nog altijd SSD is, niet NVM zoals Intel hier aankondigt. Als je echter naar de prijzen van SSD's kijkt t.o.v. reguliere harddrives nu, lijkt het mij sterk dat Intel snel de SSD's gaat uitfaseren en overgaat naar NVM.

Eerlijk gezegd denk ik meer dat de boodschap een lading heeft van 'we hebben nog steeds vooruitgang, we zijn nog steeds vernieuwend bezig'. Zodra SSD zijn beste tijd gehad heeft, zou het best eens kunnen zijn dat NVM ook alweer achterhaald is.

Van NVM loopt het water me nog niet in de mond.... van de revodrive wel :)

[Reactie gewijzigd door EnigmA-X op 17 september 2011 11:36]

Ik heb met mijn revodrive 2 toch zeer regelmatig dat ik windows kan repairen omdat er bestanden corrupt zijn

Dit terwijl ik normaal afsluit. heb t idee dat het iets te snel gaat.
Ze zijn snel, maar je hebt er ook onderhoud aan.
Deze techniek lijkt juist in de verste verte niet op een revodrive.
De Revo drive is een sata array controller op de pci-e bus, welke weer een sata drive aanstuurt om het flash geheugen aan te sturen. niks meer, niks minder.

Zoals hierboven ook al eens gezegt, het lijkt juist heel erg op de FusionIO kaarten.
Dat zijn kaarten welke van pci-e via een controller rechtstreeks het flash aanstuurt. Dit scheelt dus twee stappen, en hierdoor kunnen de latencies nog verder naar beneden dan dat met een standaard sata ssdtje kan.
Bij FusionIO kaarten zijn de controllers op basis van een FPGA, zodat je zowel de voordelen van dedicated hardware hebt, en toch patches kunt doorvoeren.

jekkie, lijkt wel een reklame add zo :-(
Mooie ontwikkeling kan prima door het chipset worden afgehandeld, nadat de geheugencontroller er uit is gehaald kan dit er wel bij. ;)
Als er geen firmware opzit .. kan er dus ook geen bug in de firmware zitten ;)

Was reactie op Cybje hieronder...

[Reactie gewijzigd door DaPi op 17 september 2011 09:19]

Ik weet niet wat de betrouwbaarheid is tov conventionele disken maar voor servers zie ik deze techniek dan wel graag in een hot-swap bay terecht komen.
Downtime voor zowel het vervangen van een disk als het toevoegen van extra capaciteit is anders een behoorlijk nadeel.
Waar heb ik dat eerder gezien...


Vroeger, toen we nog de ISA-bus gebruikte, hadden we een losse harde-schijf controller in onze PC zitten. Dat was een insteekkaart op de ISA-bus. Na een tijdje was die controller echter niet meer snel genoeg en het lukte niet om nog meer data door het kabeltje te persen. Toen heeft men besloten om de controller maar _op_ de HD te plaatsen en de ISA-bus wat te verlengen. Dat kreeg de naam Integrated Device Electronics en tot op de dag van vandaag hebben we het over IDE-schijven.

Nu halen we precies hetzelfde truukje dus nog een keer :)
Dus nu is SATA niet meer de beperkende factor, maar is dat PCIe geworden... Vroeg of laat worden er dus SSD's geproduceerd die ook de PCIe-bandbreedte kunnen volduwen. Echt he, dus niet met Intel's opstelling waar sequentiele transfer rate gedemo'd wordt. Er komen vanzelf SSD's die 1GB/s random kunnen pompen.

PCIe 2.0 heeft een bandbreedte van 1GB/s per lane, dus *nu* zit Intel al aan de max. Meer lanes gebruiken betekent dat je een geschikt moederbord moet hebben, of je moet een 16x-slot over hebben. Of anders 3.0, wat ook maar iets van de helft sneller zou worden, dacht ik.

[Reactie gewijzigd door _Thanatos_ op 17 september 2011 15:23]

niet veel anders dan een revodrive dus op het geheuge type na maar het idee bestaat al 4 jaar+

helaas zal er een oplossing moeten komen om meer pci-e poorten beschikbaar ge maken aangezien de duurste borden er al maar 4 hebben waarvan met sommige videokaarten er maar 2/3 gebruikt kunnen worden.
verder zal er toch echt ee oplossing moeten komen voor het uitschakelen van de ssd voordat de pc word uitgeschakeld zodat er geen dataverlies is zo als nu vaak het geval is.
in mijn geval word mijn pc uitgescdhakeld voordat de data goed is opgeslagen waardoor ik steeds dataverlies heb en als oplossing moet ik nu mijn schijfen na 5 mijn uitschakelen zodat bij uitschakelen eerst de schijven opstarten en dan de pc uitschakeld waardoor de ssd nog alles veilig kan wegschijven en die 3 seconden. wat naturlijk geen nette optie is.

voor de connectie kan mischien aan een neiuwe stekker gewerkt worden wat in fijte dezelfde pin connectie heefd als een pci-e poort maar dan kleiner en op een betere locatie waardoor de andere poorten bestaan blijven en brijkbaar blijven.
maar dan moeten we ook weer een nieuwe chipset hebbenom meer lanes te creeren.

verder vraag ik me af of mensen wat hebben aan een nog stellere ssd zolang een hdd nog altijd in de pc zit omdat grote ssd's honderd keer zo duur is per gig als een hdd.
mensen zullen intern kopieren dus nog altijd naar een hdd doen wat de pc traag houd.
ikzelf game zelfs van een hdd omdat games 8 a 16 gig zijn sommige groter en je anders iedere keer de game moet verwijderen en een nieuwe moet instaleren omdat je ssd maar 120 gig is dus in verhouding is de tijd om te instaleren in verhouding met langere laadtijden dan een makkelijke keuze .

[Reactie gewijzigd door computerjunky op 17 september 2011 15:45]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True