Door Willem de Moor

Redacteur

De evolutie van ssd's

Van vacuümbuis tot opslag op nanoschaal

13-03-2016 • 06:00

119

Multipage-opmaak

Inleiding: groter en goedkoper

Voor een beetje tweaker is het al jaren geen geheim, maar voor steeds meer gebruikers wordt het langzaam duidelijk: de beste upgrade voor je pc is een ssd. De snelheidswinst die ssd's bieden, maakt dat je desktop of laptop in het dagelijks gebruik veel rapper en responsiever aanvoelt. Niet meer wachten op het 'opspinnen', geen geluid van draaiende onderdelen, lagere gevoeligheid voor stoten en vallen: het zijn maar wat voordelen van een solid state drive boven een harde schijf.

Ssd pcb

Zo'n makkelijke keus was het echter niet altijd. In de begindagen van solid state drives voor consumenten, dus zogeheten drop-in replacements met sata-interface en 2,5"- of 3,5"-formfactor, waren de prijzen exorbitant hoog en de prestaties veelal niet bijzonder veel beter. Als voorbeeld nemen we de modellen uit de eerste ssd-review die Tweakers publiceerde: ssd-drives van Mtron en Memoright, die tegen de twintig euro per gigabyte kostten. Afgezien van de toegangstijden, die ook toen al een enorme verbetering ten opzichte van die van harde schijven boden, waren de prestaties niet eens zo geweldig. De sequentiële snelheden waren maar iets beter en in traces presteerden de drives twee tot vijf keer zo goed als harde schijven.

Inmiddels zijn ssd's zo'n tachtig keer zo goedkoop geworden en zijn de capaciteiten van 16GB tot 64GB gegroeid naar 120GB tot 2TB. De toegangstijden zijn nog steeds orden van grootte korter dan die van harde schijven en ook de sequentiële snelheden zijn inmiddels, mede dankzij nieuwe interfaces als pci-e, tientallen keren hoger dan die van hdd's. Ssd's zijn echter nog jong; waar harde schijven al minstens dertig jaar gemeengoed zijn, zijn ssd's dat nog geen tien jaar. Toch zijn ze al decennia lang in ontwikkeling, maar pas de laatste tien jaar zijn ze geschikt voor consumenten.

We kijken in dit achtergrondverhaal kort naar de geschiedenis van geheugen in het algemeen en ssd's in het bijzonder. We gaan in op de techniek die ten grondslag ligt aan nandgeheugen en hoe een ssd werkt, en ten slotte blikken we vooruit op de nabije toekomst.

Van vacuümbuis tot nand

Data is op veel verschillende manieren op te slaan en in de loop der jaren zijn diverse technieken ontwikkeld en weer ter ziele gegaan. We zullen niet alle geheugens de revue laten passeren, maar halen een korte selectie aan.

Een van de oudste vormen van geheugen is de vacuümbuis. Dergelijke buizen staan natuurlijk bekend als de voorloper van transistors, maar speciale vormen werden voor opslag gebruikt.

crt-geheugenDe eerste vorm van ram is waarschijnlijk een crt, of cathode ray tube. Jawel, eenzelfde buis als in twintigste-eeuwse tv's en monitors zat, werd net na de Tweede Wereldoorlog gebruikt als digitale opslag. Deze Williams-Kilburnbuis maakte gebruik van de kortstondige, residuele lading die op de fosforlaag van een crt achterblijft. Die lading werd gemeten met een metalen plaat voor de buis en zo konden bits opgeslagen worden. Echt betrouwbaar werkte dat niet en de techniek was geen lang leven beschoren.

Een vacuümbuis die wat betrouwbaarder moest werken dan de Williams-Kilburnbuis was de Selectronbuis. Die was niet alleen handzamer, maar ook lastiger te bouwen en duur. Er is dan ook uiteindelijk slechts één computer met dergelijke buizen uitgerust. Beide buistechnieken moesten steeds ververst worden, omdat de lading geleidelijk verdween. In die zin zou je het dus kunnen vergelijken met dram.

RingkerngeheugenDe buizentechnieken werden begin jaren vijftig opgevolgd door ringkerngeheugen, of magnetic-core memory. Hierbij werd data opgeslagen in kleine ringen die gemagnetiseerd konden worden door stroom te sturen door draden die rond de ringen werden gewonden. De polarisatie van het magneetveld gaf een 1 of 0 aan. Dat lijkt misschien een beetje op de techniek van harde schijven en het geheugen had geen spanning nodig om data vast te houden, maar ringkerngeheugen was tegelijk een vorm van ram, aangezien de data bij het uitlezen verloren ging. Ringkerngeheugen was een van de belangrijkste vormen van geheugen tussen 1955 en 1975.

Om bij nand uit te komen, moeten we een uitstapje naar ram maken. Random-access memory werd in de jaren zestig ontwikkeld als snellere versie van shift-registers; die konden alleen sequentieel uitgelezen worden. Als opvolger van ringkerngeheugen kon ram, een transistortechniek met bipolaire transistors en flipflop-schakelingen, in willekeurige volgorde uitgelezen worden. Dat was nog een prijzige techniek, omdat per bit vier tot zes transistors nodig zijn. Dit type ram, ook wel statisch ram of sram genoemd, vinden we bijvoorbeeld nog terug als caches in processors. Het is het snelste, maar ook duurste type geheugen.

Dram-modulesEen goedkoper ram is dram; de bits worden opgeslagen in de elektrische lading van een condensator en een enkele transistor doet dienst als schakelaar om de condensator te vullen of leeg te laten lopen. Lading in condensators opslaan heeft als nadeel dat de lading weglekt en dus ververst moet worden. Dit 'dynamische proces' leidt tot de naam dram, of dynamic ram: veel goedkoper om te maken en prima voor werkgeheugen.

Waar in dram de bits in condensators worden opgeslagen, is dat bij rom niet nodig. Een transistor en een geleidend contact - of het ontbreken daarvan - maakt een 1 of een 0. Dat contact wordt tijdens het lithografische proces al gemaakt, dus veranderen kan niet. Het geheugen is alleen leesbaar en niet schrijfbaar, ofwel rom. Bij prom, of programmable rom, zijn de metalen contacten weg te smelten. Zo kun je het één keer programmeren.

Eprom-chipBij erasable prom, of eprom, werden voor het eerst transistors met een floating gate gebruikt. Die floating gate nam de taak van het metalen contact over en kon dus elektronisch beïnvloed worden. Het legen van de lading in de gate moest met uv-licht gebeuren door een karakteristiek venstertje in de chips en kon alleen voor de hele chip gedaan worden. Met de komst van eeprom kon het wissen met een elektrisch signaal plaatsvinden. Daar was een extra transistor voor nodig, wat het geheugen weer duurder maakte. Het grote voordeel is dat niet de hele chip gewist hoeft te worden, maar slechts een groep bytes.

We komen langzaamaan bij solid-state-opslag, want de volgende stap is het maken van flash-geheugen. Waar bij eeprom voor elke bit een extra transistor nodig was om de data te wissen, maakt flashgeheugen gebruik van een enkele 'wistransistor' om de hele chip te wissen. De kosten waren daardoor niet hoger dan die van eprom, maar je had wel het voordeel dat je data elektronisch kon wissen, in een 'flash'. Deze techniek werd in 1984 door Toshiba ontwikkeld en verfijnd om niet de hele chip, maar slechts delen te wissen. De data werd opgeslagen in de floating gates van transistors, die als norcellen waren gebouwd.

Ssd behuizing + pcbIn nandgeheugen ten slotte worden nand-gates gebruikt, maar (opnieuw) Toshiba bedacht een manier om de kosten verder te drukken. Door niet elke geheugencel individueel via een bit- en word-line aan te spreken, maar de word-lines door de verschillende cellen of bits te laten lopen, kon flink op de signaallijnen bespaard worden. De transistors staan dus in serie en per streng wordt een adreslijn gedeeld en hebben de cellen alleen individuele bitlijnen. Nandgeheugen wordt voor ssd's gebruikt en op de volgende pagina's bekijken we hoe nand werkt en welke verschillende typen nand er zijn.

Lezen en schrijven

Nand-gateElke afzonderlijke nor- en nandgeheugencel bestaat uit een transistor met niet één, maar twee gates: een control gate en een floating gate. Een dergelijke floating gate transistor, of fgt in het kort, slaat afzonderlijke bits op als lading in de floating gate. Door elektronen in de floating gate op te slaan, krijgt deze een negatieve lading, ofwel een logische 0. Om de geheugencel te wissen worden de elektronen uit de floating gate gestuurd, waardoor een logische 1 ontstaat.

Nandgeheugen is een doorontwikkeling van norflash, met minder source- en bit-lines. De fgt's in een streng van gedeelde bit-lines worden samen een page genoemd en alle pages die een sourceline delen, worden een block genoemd. Lezen gaat per page en wissen gaat per block.

Dat levert wat uitdagingen voor lezen en schrijven op, omdat er meer ruis ontstaat. Bovendien is het geen echt random access-device meer, omdat niet elke bit afzonderlijk via een word- en bit-line kan worden aangesproken. In plaats daarvan wordt een volledige bit-line, met daaraan een hele string word-lines of afzonderlijke bits, uitgelezen. Alle word-lines van een page, zoals een dergelijke string genoemd wordt, worden actief geschakeld, behalve de te lezen word-line ofwel bit. Afhankelijk van de lading in de floating gate schakelt die fgt wel of juist niet en wordt op de bit-line een 0 of 1 gelezen. Omdat de te lezen bit ver van de bit-line kan liggen, treedt ruis bij het uitlezen op, wat kan resulteren in een verkeerd gelezen bit. Om dit tegen te gaan is ecc-technologie nodig.

Nand-layout

Deze bouw van nand maakt dat nandflash erg goedkoop te maken is, ondanks de noodzaak voor ecc-technologie. Er zijn minder transistors nodig dan bij norflash door het weglaten van veel source- en bit-lines en elke bit heeft maar één fgt nodig. Dat maakt nand echter niet langer een random device, omdat bits niet meer afzonderlijk uitgelezen kunnen worden. Seriële data kan daarentegen wel snel uitgelezen worden. Een ander probleem is de slijtage, door de manier waarop data geschreven en gelezen wordt.

Quantumeffecten voor schrijven

Er zijn een paar redenen waarom nandcellen slijten door program- en erase-cycli, kortweg p/e-cycli. De manier waarop nand beschreven wordt, is Fowler-Nordheim Tunneling, waarbij een hoog spanningsverschil tussen de source en drain enerzijds en de gate anderzijds wordt aangebracht, waardoor elektronen door het diëlektrum tunnelen en de floating gate negatief, of 0 maken. Om de cellen te wissen wordt opnieuw FN-tunneling gebruikt maar dan met een omgekeerd potentiaalverschil over de elektrodes. De spanningen voor schrijven en wissen zijn in de orde van grootte van 15-20V, wat direct verklaart waarom die acties tot schade leiden. Denk maar eens aan een processor die overgeklokt wordt; een spanningsverhoging van 1,3 naar 1,5V is al behoorlijk risicovol voor de transistors. Nandtransistors zijn weliswaar gemaakt voor die hoge spanningen, maar het leidt nog steeds tot schade.

Floating gate-spanningenDoor de hoge spanningen en stromen heeft het halfgeleidermateriaal te lijden. Elektronen kunnen dan in het diëlektrum tussen het channel en de floating gate blijven steken en zo de geheugencel negatief houden. De elektronen kunnen dus niet langer uit de floating gate worden getunneld en de bit blijft een 0.

Slc, mlc en tlc

In solid state drives wordt dus nand gebruikt om data in de vorm van bits op te slaan, zoals we op de vorige pagina zagen. Dit levert aanzienlijke kostenbesparingen op ten opzichte van andere non-volatiele opslagmethodes als norflash, omdat minder transistors per geheugencel nodig zijn. Voor massaopslag is meer altijd beter, dus fabrikanten zoeken naar meer manieren om de opslagcapaciteit te vergroten.

We kijken eerst naar de snelste, maar ook duurste vorm van nandgeheugen voor opslag: het slc-geheugen. Slc staat voor single level cell, ofwel een enkel niveau per cel. Dit type nand was het eerst ontwikkeld en elke bit heeft een geheugencel nodig, wat mede de oorzaak voor de hoge prijzen van vroege ssd's was. Tegenwoordig wordt slc-geheugen nog steeds gebruikt, onder meer voor ssd's die in servers worden ingezet.

Slc, mlc en tlc

De s in slc is afkomstig van single en in slc-nand wordt dan ook een enkele bit per geheugencel opgeslagen. De eerder genoemde 0 en 1, die door veel of weinig elektronen in de floating gate te transporteren gerealiseerd worden, worden één-op-één vertaald in data. Daarom is slc lekker snel te lezen; er hoeft alleen gekeken te worden of de lading in de fgt hoog of laag is. Ook schrijven en wissen hebben niet enorm veel precisie nodig door het vrij makkelijk te detecteren ladingsverschil. Mede daarom heeft slc-geheugen een lange levensduur; de lekkende elektronen die tussen floating gate en channel terechtkomen, hebben niet zo snel invloed op de leesbaarheid van de bits.

Hoewel de bitdichtheid van nandflash al hoog is, bijna 1 bit per fgt, willen zowel fabrikanten als consumenten natuurlijk meer capaciteit voor lagere prijzen. Met mlc-geheugen wordt dit gerealiseerd. In plaats van 1 bit per fgt worden er twee opgeslagen. Dit maakt mlc wat trager met lezen en schrijven; de ladingsverschillen in de floating gates moeten een stuk preciezer worden. Zo worden veel elektronen, zeg 100 tot 75 procent van de capaciteit, in de gate als 00 gelezen. Als de gate voor 75 tot 50 procent 'gevuld' is, lezen we de waarde 01 uit, voor 50 tot 25 procent 10 en voor 25 tot 0 procent lezen we de twee bits als 11.

Door dit trucje verdubbelen fabrikanten dus in een keer de capaciteit van hun nand. De keerzijde is dat zowel lezen als schrijven zorgvuldiger, dus langzamer, moet plaatsvinden en de eerder genoemde ruis, en daarmee de noodzaak voor goede foutcorrectie, wordt groter. Een goede controller en dito ecc-techniek kunnen die nadelen goeddeels het hoofd bieden, reden voor bijna alle fabrikanten om slc-drives te laten vallen en mlc-drives voor consumenten te maken.

Spanningen in nand

Eenzelfde truc als met mlc gedaan werd, kun je nog een keer doen, zodat je niet twee, maar drie bits per transistor kunt opslaan. Zo krijg je dus 000, 001, 010, 011, 011, 100, 101, 110 en 111 als bitwaardes. De ladingsverschillen in het resulterende tlc-geheugen zijn nog kleiner, maar als voordeel sla je weer twee keer meer data op in je flash. Ook nu geldt dat de kans op leesfouten groot is en de foutcorrectie nog harder aan de bak moet. Lezen en wissen duren dan ook zo'n drie keer zo lang als bij slc en schrijven gaat zelfs bijna vijf keer zo langzaam.

Waar slc-nand al problemen had met beperkte p/e-cycli door lekkende floating gates, kun je je voorstellen dat dat met mlc en helemaal met tlc nog erger is. De hoeveelheid elektronen die het verschil tussen opeenvolgende waardes maken, is dan steeds kleiner en een beetje lekkage kan tot gevolg hebben dat een andere waarde wordt uitgelezen dan opgeslagen werd. De levensduur van mlc- en nog sterker van tlc-nand wordt dus steeds korter.

Schaalproblemen

We zijn inmiddels dus van norflash overgegaan op nandflash met een hogere dichtheid per chip. Om nog meer bits op te slaan zijn we van slc- via mlc- naar tlc-nand gegaan, zodat we in elke transistor niet één, maar twee of drie bits kunnen opslaan. Om nog meer bits op een gegeven silicium oppervlak te kunnen opslaan, hebben fabrikanten nog een bekend trucje achter de hand: scaling.

Scaling wil niet meer zeggen dan simpelweg kleinere componenten op een chip maken, zodat er meer transistors per vierkante millimeter op passen en er dus meer bits opgeslagen kunnen worden. In processors wordt flink geschaald en fabrikanten hebben van 90nm en groter naar 65, 45, 32, 22 en inmiddels 14nm geschaald. Dat brengt voor processors voordelen als lager energieverbruik met zich mee, maar zogeheten lekstromen worden juist groter. Dat betekent dat lading in transistors kan lekken en de transistors zo ongewenst schakelen.

Elektronen in de floating gate

Bij nandchips werkt scaling tot op zekere hoogte ook, maar sinds ongeveer 15 tot 19nm werkt dat niet zo goed meer. Nog erger dan bij transistors voor rekentaken, levert kleinere lithografie lekken op bij fgt's. Een bit houdt zijn waarde minder goed vast doordat er minder lading kan worden opgeslagen in de steeds kleiner wordende floating-gate-structuren. Ter illustratie: bij een transistorgrootte van ongeveer 30nm, de vorige generatie dus, bestaat een bit uit nog maar zo'n honderd elektronen. Afhankelijk van de nandtechniek blijft er nog maar een handjevol elektronen over om de bitwaarde vast te leggen; bij mlc-nand op 16nm zijn er slechts enkele tientallen elektronen per 'logic level' beschikbaar.

Bovendien heeft het lekken van elektronen door kwantumtunneling sneller een verandering van de waarde van de opgeslagen bits tot gevolg, zeker bij mlc- en tlc-nand. Daarnaast is er minder en dunner materiaal tussen de control gate en floating gate beschikbaar, waardoor het isolerende vermogen kleiner wordt en defecten door hoge spanningen bij wissen en programmeren relatief grotere gevolgen hebben. Kortom, kleinere transistors geven meer datadichtheid, maar het schalen is zeer lastig.

3d to the rescue

Een slimme oplossing voor het scalingprobleem is 3d-nand. Stel dat een enkele nandcel 60 bij 60nm meet; een streng van 64bit neemt dan een chipoppervlak van 480x480nm in beslag. Als je de lithografie naar 30x30nm per cel halveert, neemt diezelfde streng nog maar 240x240nm in beslag, een besparing van vier maal. Dat kun je echter niet blijven doen, maar wat wel kan, is de hoogte in. De nandstreng met 64 transistors wordt dan 'gebogen' tot een U-vorm, met 32 transistors aan beide poten. Dezelfde 64 transistors nemen dan nog maar 60x120nm in beslag op de chip, een enorme besparing die met lithografische scaling nooit gehaald kan worden. Zo kun je dus veel hogere dichtheden op je nandchip realiseren, zonder de nadelen van het gebruik van kleinere transistors.

3d-nand structuur

Dat is precies wat nandfabrikanten gedaan hebben, maar het verschilt per fabrikant hoe ze dat precies implementeren. Samsung gebruikt een techniek die het Tanos, kort voor Tantalum-Alumina-Nitride-Oxide-Silicon, noemt. Voor de consument heeft het bedrijf dat eerst 3d-v-nand en later simpelweg v-nand genoemd. Het bedrijf maakt gebruik van charge-trap-technologie, waarbij siliciumnitride gebruikt wordt als charge trap voor de elektronen. Die vervangt de floating gate van gedoteerd polysilicium in plenair nand. Samsung maakt daarbij gebruik van een high-k-diëlektrum tussen de charge trap gate en de control gate, waarbij die laatste van tantalum wordt gemaakt.

Onder meer Toshiba/Sandisk maakt een iets simpelere 3d-variant, die niet van high-k-materialen en tantalum gebruikmaakt, maar van gedoteerd polysilicium. Dat maakt de constructie iets eenvoudiger, maar maakt nog steeds gebruik van siliciumnitride voor charge traps als floating gate. Deze techniek wordt gevat onder de noemer BiCS, kort voor Bit Cost Scaling, waarbij het schaalvoordeel uit het aantal lagen en niet uit een kleiner lithografieprocedé wordt gehaald. Intel/Micron maakt gebruik van een andere techniek, die niet met charge traps, maar met floating gates werkt. Dat zou de jarenlange ervaring met die techniek benutten, terwijl concurrenten met hun charge trap 3d-nand een nieuwere, onbekendere techniek moeten leren beheersen.

Toshiba BiCS

Een lastig probleem bij de constructie van 3d-nand is de fabricage van de gaten door de lagen transistors. Een gat heeft een bepaalde aspectratio en dus een beperkte diepte. Hoe meer lagen een 3d-chip heeft, hoe groter het gat bovenin moet zijn; momenteel is een verhouding van ongeveer 60:1 de limiet. Door echter de lagen in verschillende stappen te bouwen, met voor elke stap een eigen stap voor het etsen van het gat, zouden fabrikanten lagen kunnen blijven stapelen en daarmee dus steeds hogere dichtheden van nand kunnen realiseren. Een andere lastige stap is het etsen van de structuren om de word-lines aan te sluiten. Daarvoor worden getrapte terrassen gemaakt die steeds op de word-line stoppen, waarop dan via's worden aangesloten. Ook deze stap wordt over het algemeen in verschillende ets-etappes uitgevoerd.

Productie Samsung 3d-nand

Het gebruik van charge traps in plaats van floating gates heeft een aantal voordelen, buiten scaling en dus goedkopere en grotere ssd's. De productie van charge traps is eenvoudiger, omdat ze niet 'gepatternd' hoeven te worden, maar in één lithografische stap in een chip gemaakt kunnen worden. Bovendien lekken ze niet zo makkelijk elektronen. Ook de spanning om ze te beschrijven is lager dan bij floating gates, wat de levensduur ten goede komt, nog los van de voordelen die een groter procedé biedt. Bovendien zou 3d-nand zowel zuiniger als sneller dan plenair nand zijn bij p/e-acties.

Nand dies in packageVerwar 3d-nand niet met gestapelde dies. Fabrikanten stapelen al jaren meer dan één die, plakjes silicium dus, op elkaar in een package. Een dergelijke package is de 'chip' die je op het printplaatje gesoldeerd ziet. Bij gestapelde dies worden de afzonderlijke siliciumchips via extreem dunne draadjes buitenlangs met elkaar en de bga-connector onderop verbonden. Er is een tussenvorm waarbij through silicon via's of tsv's gebruikt worden om een deel van de verbindingen te verzorgen. Bij 3d-nand gaan de transistors al in het silicium de hoogte in en bovendien kunnen afzonderlijke dies gestapeld worden binnen een package.

Aansturing

Het is inmiddels wel duidelijk dat een nandchip uitlezen niet zo eenvoudig is en een controller om dat netjes te regelen is dan ook een cruciaal onderdeel. Natuurlijk zitten er op de nandchip zelf ook al diverse onderdelen om een en ander in het gareel te houden. Zo zijn er niet alleen de fgt's, maar ook transistors om source- word- en bit-lines te selecteren. Ook zijn delen gereserveerd voor de opslag van ecc-data en reserve voor als er cellen stukgaan.

De bits zijn georganiseerd in pages, waarbij elke page een klein percentage overcapaciteit heeft, dat voor ecc-data en als reserve dient. Voor de adressering is een deel van het nand als register ingericht en een groep pages is weer samengebracht in een block. Lezen gebeurt op pageniveau, terwijl schrijven op het veel grovere blockniveau gebeurt. De blocks zijn weer in planes samengebracht en een die, of chip, bevat een of meer planes. In een package zijn verschillende dies of chips opeengestapeld en die communiceren weer met de controller.

Nand: die-layout

Het uitlezen en beschrijven van nandflash gebeurt vrij grofkorrelig per page, maar wissen vindt op veel grotere schaal plaats. Om te wissen worden vele pages tegelijk, op blockniveau, gewist. Dat wil je dus zoveel mogelijk beperken, wegens de schade die de hoge benodigde spanningen voor het tunnelen teweegbrengen. Daar komt de controller om de hoek kijken; die moet zo intelligent mogelijk het aantal schrijf- en wisoperaties beperken.

Wanneer je data wil wijzigen, moet dat op pageniveau gebeuren, maar dan zou het hele block waar die page inzit gewist moeten worden en moet de gewijzigde data geschreven worden. Wissen wordt beperkt door data op pageniveau te markeren als oude, of invalid, data. De gewijzigde page wordt naar een lege page gekopieerd en de oude page wordt nog even niet gewist. Zo probeert de controller alle pages die gewijzigd worden in een block eerst naar een lege page te schrijven en pas dan het block te wissen.

Wear levelling en garbage collection

De controller moet ervoor zorgen dat alle blocks ongeveer even vaak gewist worden, een proces dat wear leveling genoemd wordt. Er moeten dus lijsten bijgehouden worden van blocks en hoe vaak ze gewist zijn. Soms betekent dit dat data die weinig verandert actief, zonder dat het echt nodig is, naar een andere page in een ander block verplaatst moet worden.

Wear leveling

Ook oude, invalid pages in een block moeten bijgehouden worden en de controller moet bijhouden welke pages goede en welke invalid data bevatten. Via een proces dat garbage collection genoemd wordt, moeten invalid pages verzameld worden, tot er genoeg in een block bij elkaar zitten om een erase cycle te verantwoorden. Soms houdt dat in dat valide data in een page naar een ander block gekopieerd moet worden. Bovendien is overprovisioning nodig zodat er voldoende lege ruimte is om complete blocks leeg te kunnen maken om ze te kunnen wissen.

Garbage collection

Die twee huishoudelijke taken om het nand te beheren, van data die naar andere blocks wordt verplaatst door het wear-levelling-algoritme en data die door het garbage-collection-algoritme wordt verplaatst, leiden tot extra schrijfacties. Dat proces staat bekend als write amplification, en een goede balans tussen write amplification, wear levelling en garbage collection is cruciaal voor zowel de levensduur als de prestaties van een ssd. Leuk detail: zelfs als je alleen data van een ssd leest, zal de controller schrijfacties moeten verrichten. Een fenomeen dat read disturb genoemd wordt, waarbij het lezen van bits verstoringen in het elektrische veld van naburige bits teweegbrengt, kan na een aantal keer de betrouwbaarheid van de opgeslagen data verminderen. Om die te garanderen moet data na een bepaald aantal keer naar lege pages worden gekopieerd.

Om al die huishoudelijke taken te volbrengen is het niet verwonderlijk dat de controller zo'n grote rol speelt in de prestaties en levensduur van een ssd. Niet alleen de hardware van die controller, zoals het aantal ARM-cores en hun kloksnelheid, en het aantal kanalen, maar ook de firmware is van groot belang. Het zijn immers de block-mapping-, wear-levelling-, en garbage-collectionalgoritmes die de uiteindelijke prestaties dicteren.

Interfaces en formfactors

We hebben gezien hoe nand opgebouwd is, en hoe het wordt aangestuurd op transistor- en controllerniveau. Maar hoe zit het nu met de verschillende formfactors of de producten die je daadwerkelijk in je pc of laptop stopt?

In eerste instantie waren ssd's eigenlijk alleen maar solid-statevarianten van harde schijven, voor zover je pc dat kon zien. De formfactor was daar ook naar; op een enkele 3,5"-variant na waren de meeste ssd's gevat in een 2,5"-behuizing, zoals we die van laptopschijven kennen. En net als een harde schijf werden ze aangesloten op een serial ata-bus, waarbij de vroege ssd's via een sata-300-poort, goed voor snelheden tot 300MB/s, werden aangesloten. In 2009 kwam sata-600, ook bekend als 'sata revisie 3.0', met een bandbreedte van 6Gbit/s beschikbaar en lange tijd was dat de standaardinterface voor ssd's.

Msata-driveLaptops werden echter steeds compacter en vooral platter, waardoor er voor een 9,5mm of zelfs 7mm hoge 2,5"-drive geen ruimte meer was. Fabrikanten weken daarom uit naar een compacter formaat: de msata-interface, of mini-sataconnector. Ssd's werden ontdaan van hun 2,5"-behuizing en kale printplaten werden in de msata-slots gestoken. Die slots leken op een pci-e mini-card-interface, maar dan met sata-interface. Echt succesvol was deze aansluiting niet, deels doordat hetzelfde slot, maar elektrisch anders aangesloten, gebruikt werd voor mininetwerkkaarten.

Hoewel msata van een fysieke mini-pci-express-aansluiting gebruikmaakt, biedt de sata-600-interface natuurlijk maar beperkte bandbreedte. En juist dat werd in de laatste jaren steeds meer een bottleneck voor de prestaties van ssd's; bijna alle solid state drives halen wel sequentiële overdrachtssnelheden van zo'n 550MB/s, sneller kan niet. De bandbreedte van een pci-express-interface zou uitkomst bieden. Per pci-e 2.0-lane is er immers 500MB/s aan bandbreedte beschikbaar en voor pci-e 3.0 is dat zelfs bijna het dubbele.

M.2-pcie-nvme-ssdOm van die bandbreedte gebruik te maken werd de m2-standaard ontwikkeld: nog compacter dan msata, maar met een potentiële bandbreedte van zes en een half keer die van sata-interfaces. Er was echter één probleem; controllers konden alleen nog met sata-interfaces overweg, dus kregen we een overgangsperiode waarin m2-ssd's nog steeds via sata werden aangesloten. Dat geeft nogal wat verwarring; je kunt dus een m2-slot op je moederbord hebben en een ssd kopen die er niet op werkt. Verschillen in keying, of uitsparingen in de connector, moeten onderscheid maken tussen een sata- en een pci-e-interface.

Er zijn ook adapters verkrijgbaar die een m2-slot geschikt maken voor zogeheten u2-kabels; je kunt dan een 2,5"-ssd via pci-e aansluiten. Daarmee vervangt u2 de sata-express-standaard, die nooit van de grond is gekomen. Een van de beperkingen van die standaard is de bandbreedte; via sata express zijn slechts twee pci-e-lanes beschikbaar, terwijl dat via m2 en u2 vier lanes zijn.

Maar we zijn er nog niet. Alle bovenstaande ssd's moeten natuurlijk niet alleen fysiek aangesloten worden via een sata-, msata- of m2-interface, maar ook nog via een protocol aangestuurd worden. Alle sata- en msata-ssd's werden via het ahci-protocol aangestuurd, net als harde schijven. Ssd's kunnen echter ook efficiënter worden aangestuurd met het nvme-protocol. Dat werd speciaal ontwikkeld voor ssd's en maakt gebruik van hun sterke punten, zoals parallellisme en lage toegangstijden.

Ssd van sata naar nvme

Net als bij de overgang van (m)sata naar m2 en pci-express-lanes waren ook de controllers nog niet geschikt voor nvme. Deze non-volatile memory host controller interface specification werkt alleen met ssd's die via pci-express worden aangesloten. In de loop van 2015 zijn de eerste drives voor consumenten met voor nvme geschikte controllers op de markt verschenen en in de komende tijd zullen er meer volgen.

Zo zijn we eigenlijk pas onlangs aangekomen bij een manier om ssd's efficiënt en snel genoeg op onze pc's aan te sluiten om ze optimaal te kunnen benutten. Van ahci over sata, via ahci over pci-express naar nvme over pci-express: een verbetering van minstens tien keer de bandbreedte.

Voorbij 3d-nand en nvme

Als we naar de evolutie van harde schijven kijken, ligt er voor de komende tijd nog een flinke ontwikkeling van ssd's in het verschiet. In de relatief korte tijd dat ssd's voor de gewone consument bereikbaar zijn, hebben we een snelle ontwikkeling gezien, niet alleen wat prestaties betreft, maar vooral wat hun prijs en capaciteit betreft.

Ook de controllers zijn sterk verbeterd. Waar oudere ssd's vooral geplaagd werden door prestatiedegradatie door suboptimale wear levelling en garbage collection, zijn sata-ssd's inmiddels van leeg tot compleet vol even snel. Ook de snelheden van sata-ssd's zijn redelijk gesatureerd; elke ssd die je koopt, loopt tegen de limiet van de sata-600-interface aan. Dat neemt niet weg dat sommige fabrikanten trucs toepassen om de snelheid kortstondig te verbeteren. Sommige sturen het mlc-nand aan als slc-nand en dat is, zoals we gezien hebben, rapper dan mlc-nand. Als die cache vol is, dalen de prestaties echter.

De interface en het protocol om de ssd's aan te sturen zijn beide ook in de loop der tijd verbeterd. We gingen van relatief trage sata-300- en later sata-600-interfaces naar pci-express in de vorm van een volwaardig slot of een kleiner m2-slot. Het protocol bleef lange tijd gelijk aan dat van harde schijven, namelijk ahci, maar daarin is onlangs verandering gekomen met de eerste nvme-drives die via nvmhci worden aangestuurd. Daarmee is de bandbreedte verveelvoudigd en de manier van aansturen geoptimaliseerd voor nand.

Doorsnede 3d-nand met charge trapsIn de toekomst zal 3d-nand voor opslag de norm worden. De scaling van 2d-nand heeft met 15nm zo'n beetje de limiet bereikt, terwijl we met 3d-nand zelfs zonder een kleiner procedé steeds verder de hoogte in kunnen om grotere bitdichtheden te realiseren. Tel daar nog enkele stapjes procedéverkleiningen bij en ssd's met capaciteiten van vele terabytes liggen aan de horizon. Niet voor niets zijn ssd's gegroeid van enkele tientallen gigabytes naar 1 of 2 terabyte en fabrikanten hebben al veel grotere ssd's, groter ook dan met harde schijven mogelijk is, aangekondigd.

Dat neemt niet weg dat de zoektocht naar het ideale geheugen, dat tegelijk niet-volatiel is, willekeurig te lezen en beschrijven is, weinig energie behoeft en zeer snel is, verdergaat. Welke techniek dat moet worden, phase change-memory, magnetic ram, ferroelectric ram, resistive ram of een andere techniek die in ontwikkeling is: we weten het nog niet. Een kandidaat waarvan nog dit jaar producten moeten verschijnen is Intels 3d XPoint-geheugen, een soort phase-change-geheugen, dat zonder transistors werkt. De techniek moet aanvankelijk als laag tussen ram en ssd gebruikt gaan worden.

Reacties (119)

Sorteer op:

Weergave:

Ik mis toch wel een wat diepgaandere blik op 3D Xpoint omdat dat eigenlijk een soort "toekomstige" geheugen is dat binnenkort commercieel beschikbaar is.

Ik denk zelfs dat in tegenstelling tot wat er aan het einde van dit artikel geschreven wordt 3D Xpoint mits het dit jaar beschikbaar komt snel opgepakt zal worden en snel een massaproduct wordt.

Het biedt namelijk veel voordelen ten opzichte van SSD's en ik vind het zelfs een technologie die zelfs klinkt als too good to be true.

3D Xpoint heeft namelijk heel veel voordelen.

- Het kan doordat het geen transistors gebruikt veel goedkoper geproduceerd worden afgezien van de ontwikkelingskosten die Intel in het begin zal willen terugverdienen.

- Het is veel sneller dan SSD's.

- 3D Xpoint gebruikt lagere voltages dan SSD's waardoor het stroomverbruik ook lager wordt.

- 3D Xpoint kan op bit level geschreven en gewist worden waardoor ingewikkelde controllers niet langer nodig zijn wat dus kan zorgen voor lagere kosten en lager stroomverbruik.

- 3D Xpoint kan op kleinere productieprocedes geproduceerd worden in de toekomst.

- 3D Xpoint kan als vervanger van RAM dienen met mindere prestaties maar maakt het wel mogelijk om compactere en goedkopere budget systemen te bouwen die RAM en opslag in 1 techniek zetten.

- 3D Xpoint kan 1000x zoveel schrijfacties aan als NAND waardoor het een zeer lange levensduur heeft in tegenstelling tot NAND.

[Reactie gewijzigd door Dark_man op 23 juli 2024 10:38]

3D Xpoint omdat dat eigenlijk een soort "toekomstige" geheugen is dat binnenkort commercieel beschikbaar is.
Guy Blalock op 14 januari in EETimes: "It could take 12-18 months to get XPoint into mass production"
In de chipwereld is dat anders slechts de tijd die tussen 2 opeenvolgende generaties producten zit, ofwel niet eens zo extreem lang ;)
Nee, maar het is niet 'dit jaar nog op de markt', als Guy Blalock gelijk krijgt.
Zou mooi zijn om dit te combineren met systeempjes zoals Raspberry's, RAM en opslag ineen.
Niet meteen een Raspberry, maar:
"A version of XPoint in DIMMs will enable up to 6 TBytes main memory in a two-socket Xeon server at about half the cost of DRAM, Diane Bryant, general manager of Intel’s data center group, said in September, suggesting the servers will ship in 2017." :9~
EE Times
ACM Software Architect @ColdRain13 maart 2016 17:45
Dat is overigens 'slechts' een verviervoudiging van de huidige capaciteit. Nu zit het bij dual-xeon's op 1.5TB (met 24x 64GB).
Wat niet zegt dat het verder geen interessant product kan zijn, meer 'bang for buck' kan natuurlijk nooit kwaad op dit gebied :)
Zinloos, een Raspberry kan zulke snelle devices niet zinnig aansturen.
Ik mis toch wel een wat diepgaandere blik op 3D Xpoint omdat dat eigenlijk een soort "toekomstige" geheugen is dat binnenkort commercieel beschikbaar is.
Voor zover ik heb begrepen heeft Intel nog niet willen vertellen hoe Crosspoint precies werkt; dat maakt het lastig om er dieper op in te gaan, we weten het gewoon niet.
Tweakers.net is toch wel zo groot dat ze daar even een kijkje hadden mogen nemen :Y)
Wat voor zin heeft het om iets te besrpeken dat enkel in theorie bestaat? Er bestaat nog geen enkel werkend product en dat zogezegd een jaar voor massaproduktie? Zo kan iedereen wel claims maken.
In het lab van Intel werkt het allemaal wel! ;) Er zit nu eenmaal een tijd tussen ontwikkelen en op de markt brengen.
"Een kandidaat waarvan nog dit jaar producten moeten verschijnen is Intels 3d XPoint-geheugen, een soort phase-change-geheugen, dat zonder transistors werkt. De techniek moet aanvankelijk als laag tussen ram en ssd gebruikt gaan worden."

Als ik dit zo lees, denk ik aan cache geheugen. Het zit immers tussen het RAM en de SSD in.
MAAR, als 3d xpoint zoveel sneller is, waarom zou je dan nog met ssd's werken?!

Ik lees verderop via sommige links dat Intel 3dxpoint in nvme ssd's wil gaan gebruiken. Apple zou de eerste kunnen zijn in hun MAC's.

Kijk dat is een mooie ontwikkeling waardoor lezen en schrijven nog een stuk sneller wordt.
Kom maar op met Windows compatible 3d xpoint ssd's. Kan die mooi in een nieuw te bouwen pc! :P ;) :)

[Reactie gewijzigd door Tourmaline op 23 juli 2024 10:38]

kosten, 3d XPoint gaat in eerste instantie natuurlijk veel duurder zijn dan SSD's. Maar op termijn, we gaan het zien...
en ik vind het zelfs een technologie die zelfs klinkt als too good to be true.
Oftewel een heel goed idee om eerst te zien, en dan te geloven. Het is nou niet bepaald de eerste die zoiets claimt. Sommige bestaan ook, zoals bijvoorbeeld TI microcontrollers die tegenwoordig (soms) FRAM aan boord hebben. Maar dat had ook veel grotere beloftes dan het ooit is geworden. Net als alle andere non-volatile RAMs.
3D XPoint zal uiteindelijk 1000x zoveel schrijfacties aan kunnen als NAND volgens Intel (en zelfs dat zwakken ze nog af, klinkt meer als marketing: Results have been estimated or simulated using internal analysis or architecture simulation or modeling, and provided to you for informational purposes.).
Wat ik vreemd vond is dat het prototype van XPoint vergeleken werd met een P3700 (NVMe) op queue depths waar de P3700 niet uitblinkt (1 en 8, terwijl 128 ongeveer de sweet spot is), voor consumenten de ideale drive, maar het is geen consumer product en zal dat de eerste jaren ook nog niet zijn.
Nou zal er op hogere queue depths ook nog wel aanzienlijke winst zijn, maar waarschijnlijk een stuk minder, op QD1 was het 7x en op QD8 5x sneller, helaas is er geen derde waarde waarmee het te extrapoleren is en een P3700 is ook 2-5x sneller van QD8 naar QD128.

[Reactie gewijzigd door |sWORDs| op 23 juli 2024 10:38]

Eens. Eerst zien benchmarken, dan geloven.

Overigens goed stuk van Tweakers wmb!
@tweakers, leerzaam artikel, thnx voor alle moeite en t delen met ons tweakertjes...
@dark_man, hele lijst met voordelen, maar wat zijn de nadelen? (die moeten er toch ook zijn)
Ik denk dat het eerste grafiekje, van de prijsontwikkeling, beter leesbaar zou zijn als de verticale as logaritmisch zou zijn.
Wij zijn tweakers, dus een logaritmische grafiek snappen we wel toch?
Mee eens, en om dan nog een verbeterpuntje aan te geven: de tweede grafiek (capaciteitontwikkeling) vertoont duidelijke artefacten. Bij een stijging in de maximale capaciteit duikelt ie eerst kort naar beneden. Vast omdat het interpolatiealgoritme een mooie vloeiende curve wil maken, maar het is niet correct.

Edit: interessant om te zien dat de meeste tweakers het fout weergeven van data 'irrelevant' vinden

[Reactie gewijzigd door rjm05 op 23 juli 2024 10:38]

Heb er vanochtend een thread aan gewijd in 'Geachte redactie'. Je bent niet de enige die het op was gevallen. Het differentieerbaar (en dus continu) weergeven van discontinue data (vrij vertaald: waarom trek je een vloeiende lijn door losse punten?) is op zijn minst discutabel.
Met als gevolg rare stukjes grafiek waarbij er ineens een piek is (bijvoorbeeld tussen Q3 2013 en Q4 2013) terwijl de gegevens constant blijven.

Los daarvan een interessant artikel. Het is slechts een kleine dingetje, maar wel een in het oog springende.
Goed bezig :)

Edit: ongewenst? Je kan niet eens iemand complimenteren? Irrelevant of off-topic lijkt me op z'n plaats

[Reactie gewijzigd door rjm05 op 23 juli 2024 10:38]

Inderdaad. Dat in de afgelopen 3 jaar de prijs van ssd's is gehalveerd is nu totaal niet duidelijk uit de grafiek. Het lijkt net alsof er geen beweging meer in de markt zit, maar dit is onjuist.
Ik zou juist graag ook een relatieve prijsontwikkeling t.o.v. HDD's willen zien, die worden ook langzaam goedkoper per GB, leuk om te zien of de SSD die prijs gaat evenaren of zelfs in zal halen.
Mooi stuk dit, al een tijd niet meer zon groot stuk gelezen op Tweakers. Als jullie elke week zulke stukken schrijven zou ik zelfs mijn add-blocker uitzetten. :*)

De SSD is echt een game-changer. Sinds ik er één heb kan ik niet meer zonder en alles met HDD voelt log en oud. Zelfs al heeft iemand laptop met i7 of i5 als er geen SSD inzit is het een langzaam apparaat.

Oudere machines kun je zelfs weer bruikbaar maken door er een SSD in te knallen. Zo heb ik al talloze oude laptops geupgrade met een goedkope SSD. Hierbij gebruikte ik dvd caddy's zodat men ook nog de HDD kon blijven gebruiken voor de grove opslag.

Daarbij vraag ik me altijd af waarom laptop fabrikanten de SSD niet meer omarmen. Zo heeft bijna elke laptop tegenwoordig nog steeds een DVD speler maar geen SSD. Als je de SSD er als optie bij doet is dat vaak enorm duur. Het is zelf goedkoper om naast je nieuwe laptop een losse SSD te kopen met DVD caddy en die er zelf in te monteren.
Mooi stuk dit, al een tijd niet meer zon groot stuk gelezen op Tweakers. Als jullie elke week zulke stukken schrijven zou ik zelfs mijn add-blocker uitzetten. :*)
Als jij* geen adblocker had, dan zouden we meer van dit soort stukken kunnen publiceren. Een redacteur wil ook graag wat op zijn rekening gestort krijgen aan het einde van de maand.

*=en vele anderen
Ah kip en ei verhaal, begin maar eerst met meer van dit soort verhalen. Complimenten trouwens voor deze uiteenzetting Willem
Tweakers via blendle, dat kan ook. :)
Ik ben absoluut meer geneigd goede artikelen via Blendle te lezen dan een "tig" abbonementen te moeten nemen op alle individuele websites. Nu is een abbo (nog) niet nodig alle artikelen op tweakers te kunnen lezen maar mochten jullie ooit over een betaalmuur denken dan vind ik Blendle wel heel fijn.

Jullie collega's van de VK hebben dat sinds kort mooi opgelost met een blendle linkje onder het artikel. Hoef je niet eens naar de blendle site.
Even voor de duidelijkheid eieren waren er al millennia voor dat er kippen waren. Dino's legden al eieren. :+
Zeker en vast geen kip/ei verhaal imho. Men geeft zelf toe te genieten van het werk van een ander zonder te voldoen aan de wens van de uitgever om er ook reclame bij te zetten om de kosten te dekken.
Een wens of verzoek uitspreken is hooguit een verdienmodel, geen betaalmodel (subtiel maar belangrijk verschil).

Ik heb de blocker uitstaan, maar er zitten aan advertenties voldoende nadelen dat ik snap dat sommige mensen de wens (ja ook dat is een wens) uitspreken dat het de moeite waard gemaakt wordt voor ze.

Aangezien het een verdienmodel is en geen betaalmodel, kun je als uitgever hooguit proberen het die mensen wat meer naar de zin te maken of te accepteren dat er een percentage is dat niet braaf meespeelt.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 10:38]

Ik heb ook een Ad-blocker aan staan, maar Tweakers staat bij mij op de white-list. De advertenties op Tweakers zijn niet heel erg opdringerig, en dat is voor mij een van de belangrijkste criteria om een Ad-blocker aan of uit te zetten.
Dit is zeker waar. Sinds ik 4 jaar geleden begonnen ben met een SSD in mijn laptop, ter opoffering van mijn CD-rom drive middels een caddy, wil ik niets anders meer. Het apparaat voelt 10x sneller aan. Als mensen geen intensieve taken uitvoeren die veel eisen van de cpu dan raadt ik eerder een minder snelle cpu aan in combinatie met een SSD dan bijvoorbeeld een I7 met HDD. De ervaring is gewoon enorm veel beter. De afgelopen 4 jaar zijn de prijzen van een SSD significant gedaald waardoor je zelfs zou kunnen overwegen gewoon je HDD te vervangen en volledig over te gaan op de SSD. Geen gedoe meer met een caddy of opoffering van je CD-rom drive.
Zijn er nog zo veel laptops met DVD speler dan? Daar moet je toch naar zoeken tegenwoordig?
Volgens mij zegt hij ook duidelijk oudere.
Heb ook 2 jaar geleden mijn dell voorzien van een vaste ssd en de hdd naar de dvd caddy. Werkt perfect.
De DVD speler gaat er langzaam uit maar er zijn zeer zeker nog veel modellen die een DVD speler hebben. Ik kijk hierbij vooral naar HP, Lenovo, ASUS en MSI.

Voor de grap heb ik even in de pricewatch gekeken en daar haal ik het volgende uit:
  • 2.423 - Alle laptops in de PW op dit moment
  • 1.144 - Laptops met optische drive
  • 1.279 - Laptops zonder optische drive
Zoals je ziet is het op dit moment fifty fifty. De getallen zijn trouwens niet helemaal accuraat want ik kan met de PW niet nauwkeurig genoeg filteren. Het aantal met optische drive ligt waarschijnlijk zelfs nog veel hoger.
Echt totaal nikszeggend dit helaas. Je wilt weten hoeveel laptops er verkocht worden zonder dvd-drive. Vaak zijn er 2 versie van een laptop: met en zonder dvd-drive. Zo kom je altijd op 50/50 uit ;) Als vervolgens die met significant minder verkocht wordt als de versie met...
Mijn punt is juist dat er nog steeds veel laptops met optische drive op de markt zijn. Of die ook gekocht worden is irrelevant.

Ik snap jouw punt volledig en ben het met je eens. Daarom vermeld ik ook dat met de PW niet gefilterd kan worden zoals het zou moeten voor dit soort getallen.

Er zijn ook inderdaad modellen met 2 versies. Daardoor wordt het misschien ook wel 50/50. Ik zou trouwens expres een versie kopen met optische drive zodat ik die eruit kan slopen en er een caddy in kan zetten.
Als je had gekeken naar de originele post, dan staat daarin:

Hoeveel laptops er nog beschikbaar zijn met DVD drive.

En daarop wordt precies antwoord gegeven.
Zijn er nog zo veel laptops met DVD speler dan?

De exacte tekst. Met de beste wil in de wereld haal ik hier niks uit over sales cijfers. Dit is puur een vraag over aanbod. En die beantwoordde de poster waar jij commentaar op hebt helemaal juist.

Overduidelijk is gewoon jouw eigen interpretatie.
Ach man, hij probeert een antwoord te geven en voor ons buitenstaander blijft het ook interessant om lezen, dus niet de schoolmeester uithangen aub.
Sorry hoor, maar degene waar ik op reageer begrijpt wél wat ik bedoel, en beaamt dat. Dat Jeroenneman het vervolgens het niet snapt en daarom een citaat verbuigt...
Het duurdere segment kent vaak wel een DVD speler
Je kunt ook een losse usb dvd-speler eraan hangen. Zo duur zijn die niet meer. Ik maak ook nog veel gebruik van cd- en dvd spelers en heb een paar op voorraad. ;)
Pas nog een ssd ingebouwd, naast de hdd. Er waren gewoon twee aansluitngen aanwezig. Er was dus geen hdd caddy nodig. Let je daar ook op ?
Niet moeilijk doen wanneer het makkelijk kan natuurlijk, maar besef wel dat laptops bijna nooit 2x 2.5'' bays hebben. Meestal gaat dat dus niet, al zie je juist op nieuwere systemen met hdd weer regelmatig een vrij M2 slot.
Ik heb een Acer laptop met 2x2,5" bays :)

Dus zo zeldzaam zijn ze niet want die laptop heeft maar 650 euro gekost: )
Maar je hebt wel een stuk gelijk, bij 17 inch toestellen zal je sneller 2x 2,5" bays vinden ;)(zelf heb ik ook 17.3 inch ;)

Ja ik weet dat het Acer is, maar dit beestje is toch al 3 jaar en 2 maanden oud(exact)

[Reactie gewijzigd door Verwijderd op 23 juli 2024 10:38]

Helemaal niets mis met Acer. Vroeger ook alleen maar goede ervaring ervaring mee gehad. Laptop die dagelijks werd gebruikt en zo een 6 jaar mee ging.
Want een dvdspeler/brander eruit slopen en een caddy erin is simpeler?
Natuurlijk hebben niet alle laptops 2 aansluitingen, lijkt me alleen wel handig om te kijken of dat ook zo is.
Nee natuurlijk niet, je begrijpt me dan ook verkeerd. Ik doel er dus op dat wanneer een laptop 2 bays of een bay en m2 slot heeft je die gewoon moet gebruiken (de makkelijke manier dus). Maar omdat m2 sloten niet voorkomen bij oudere laptops en laptops met 2 bays niet extreem veel voorkomen heb je altijd de manier met de caddy nog natuurlijk.

Moeilijker, absoluut, maar dvd drives komen nou eenmaal (ook in kleinere laptops) vaker voor dan een dubbele 2.5''.
Oke. Je zette mij idd op het verkeerde been. Beide is nml. in mijn ogen niet zo makkelijk. vaak moet je de laptop aardig openschroeven.

Kon uit je eerste verhaal niet opmaken of je daar uberhaupt naar kijkt, vandaar mijn opmerking. Heb er eigenlijk nog steeds geen antwoord op.
Even een vraagje aan de kenners.

Hoe lang kan een SSD meegaan?

Groet,
Sander
Dat hangt mede af van de hoeveelheid schrijfacties, nieuws: Laatste ssd geeft de geest na 2,4PB aan writes in staminatest geeft een indicatie. Zoals in de conclusie staat hoef je hier als consument je hier waarschijnlijk niet druk over te maken.

[Reactie gewijzigd door Rafe op 23 juli 2024 10:38]

Zoveel schrijven de meeste mensen doorgaans niet naar een SSD, leuk dat dat kan maar er zijn nog wel meer aandachtspunten.
Zo verliest de flash na zoveel tijd, de data. Dat kan als de flash nieuw is wel 1-10 jaar duren, maar als ie meer beschreven is, wordt dat korter. Hij moet regelmatig aan staan zodat de controller voordat dat gebeurt kan herschrijven.
Dus, kans dat als je 2PB ernaar schrijft hij het nog prima doet. En dat als je m dan een uurtje uit zet, hij de data kwijt is! (ik verzin maar wat waardes, maar zo werkt dat wel ongeveer).
Zie voor uitleg oa hier.
edit: en hier
edit: en bij stroomuitval kan je ook data kwijtraken, veel meer dan bij hdd's, bron.

[Reactie gewijzigd door N8w8 op 23 juli 2024 10:38]

Ligt geheel aan de gebruiker.

Voor huis tuin en keuken gebruik kan het 20 of zelfs 30 jaar meegaan (theoretisch).

Voor de enthousiast gebruiker gaat het misschien 10 jaar mee wat eigenlijk ook best lang is.

Maar daarnaast maakt het ook uit of de gebruiker naast zijn SSD een harddisk gebruikt want dat kan de levensduur van de SSD oprekken.
Uit de gegevens van Google met miljoenen SSD's over de periode van 6 jaar: More than 20% of flash drives develop uncorrectable errors in a four year period, 30-80% develop bad blocks and 2-7% of them develop bad chips.
Ik meen dat ik 5 jaar farantie had op mijn intel ssd's.

In praktijk ligt het aan het aantal schrijfacties.Ik ben geen kenner, maar volgens van wat ik weet is het zo dat je moet zorgen dat je schijf niet te vol zit. Mijn systeemschijf is altijd voor meer dan de helft vrij. Zodoende dat het systeem uit zoveel mogelijk verschillende cellen kan kiezen om naar toe te schijven. (ipv altijd het temp gebeuren naar een beperkte groep vrije cellen te schrijven)

Volgens de info die ik uit de intel toolbox verkrijg, zijn mijn schiven, na 4 jaren gebruik, nog voor 100 percent operationeel. M.a.w. qua schrijfacties zal zo een SSD 10+ jaren meegaan. (niet rekening houdend met andere mogelijke defecten)

Voor een niet systeem schijf ben ik hier iets flexibeler in. Omdat hier in mindere mate sprake is van temp writes..

Het kan ook zijn dat moderne firmware hier rekening mee houdt, door af en toe, bij onderhoud, data van cellen over te zetten naar andere cellen. Maar hier zou ik niet op vertrouwen. Fabrikanten verkopen ook weer graag nieuw spul.
Dank je wel voor je reactie.
groet,
Sander
Mag je door deze ontwikkeling(en) verwachten dat het verschil tussen werkgeheugen en opslaggeheugen gaat verdwijnen ?
Alles hangt er wellicht van af of de memristor snel genoeg klein gemaakt kan worden - dan zou dat inderdaad kunnen verdwijnen - wellicht zal dat toch nog een paar jaar duren, en eerst opduiken in de specialistische hardware zoals ruimtevaart - voor het in't algemeen zal doorbreken.
In ruimtevaart gebruikt men doorgaans oude / betrouwbare / bewezen hard- en software.
Maar ik verwacht dat het onderscheid tussen werk- en opslaggeheugen verdwijnt. Vrij snel zelfs. 10 jaar ofzo.
Dat onderscheid is al een tijdje geleidelijk aan het verdwijnen, zie bijvoorbeeld Windows' ReadyBoost.
Merk je nog veel verschil in games, als je een ssd gebruikt met snelheden van bv 2.500/1.200MB/s tegenover een normale ssd?
Neem aan dat de vraag naar mij is, maar kep geen pro, die hebben die snelheden vlgns mij, de evo is gewoon via sata, maar win 7 start snel op, games ook wel. Het voelt lekker aan. En was rond de 170 e(500gb).

[Reactie gewijzigd door polord1 op 23 juli 2024 10:38]

Nee, omdat games niet snel (en veel) hoeven te lezen en schrijven naar de schijf.
Mooi artikel, waarvoor dank ! En ondertussen zijn er al SSD's van 3840GB beschikbaar voor enterprise storage systemen (alleen jammer dat de prijs van die SSD's gewoon de pannen uit het dak rijst :-( ) Dat SSD in een of andere vorm (laat ons het memory based storage noemen) een blijver is, dat staat buiten kijf volgens mij,SAS drives zullen eruit gaan, SATA zal blijven bestaan voor archief en cold data.Ik ben in elk geval benieuwd wat de volgende evolutie zal zijn binnen de wereld van storage drives, en hoe lang het zal duren voor het zich zal manifesteren op de consumer markt.(Ik verwacht wel iets met nano tubes of zo)
Ook 15,38TB
Samsung heeft al een 4TB 850 EVO & PRO aangekondigd. Die zullen binnenkort leverbaar zijn en ongeveer 1300 euro in de btw gaan kosten. Helaas nog altijd gelimiteerd door SATA, maar wel een interessant product voor degene die geen gelimiteerd budget hebben.
Toevallig had ik het gisteren over wear leveling: http://gathering.tweakers...message/46158095#46158095

En ik vraag me af of wear leveling ook wordt toegepast als een SSD in twee partities is verdeeld. Wordt de wear leveling dan ook over beide partities tegelijk toegepast of zal dit per partities verschillen en worden er geen blocks uitgewisseld tussen de twee partities.
Iemand die hier een antwoord op heeft?
Afhankelijk van de implementatie. Maar normaal zal dat beide partities doen.

Partities zijn een splitsing op data niveau. Bij een HDD zijn data en fysieke locatie hetzelfde. Bij een SSD is de data locatie en de fysieke locatie niet gekoppeld. Daarmee zal dus de wear leveling ongeacht van je partities overal plaatsvinden.

Waar je wel rekening mee moet houden is dat data die nooit verandert niet altijd mee wordt genomen in de wear leveling. Dus als je heel veel 'statische' informatie hebt en de rest is heel dynamisch, dan kan het algoritme in de problemen komen. Maar dan ben je wel extreem bezig. Zelfs een windows partitie is door updates nog vrij 'actief'.
Ja precies en mede daardoor zie ik persoonlijk ook geen enkel voordeel van een SSD met partities behalve bij een partitie voor een ander OS.
Van vroeg uit wilden we nog wel een computer met 1 harddisk in twee partities opdelen, C -Windows van 100-150GB en dan D -Data met de rest. Maar ik zie dat voordeel eigenlijk absoluut niet meer opwegen tegen de nadelen en al helemaal niet als er een SSD wordt gebruikt.
Welke nadelen heeft dat partitioneren dan?
Ik vind het alleen maar overzichtelijk om niet mijn data tussen het OS en de applicaties te zetten. En het is eenvoudiger te backuppen.
De meeste SSDs zullen statische data wel degelijk meenemen in hun wear leveling. Kan ook bijna niet anders. De kans dat in een page alleen maar statische data staat is al zeer klein en de verliezen zorgen ervoor dat de data op termijn uit zichzelf corrupt geraakt. Enige oplossing die de SSD daarvoor heeft is de data regelmatig verplaatsen en dan word wear leveling wel degelijk toegepast

Heb je het artikel wel gelezen want staat er netjes in.
De meeste recente SSDs
Het is erg jammer dat het hele verhaal nogal vanuit het 'nu' is geschreven. Vooral de discussies op GoT waren geniaal over 'write amplification' en 'trim' en allerlei andere ellende. Waarbij sommige GoT-ers letterlijk met gevaar voor eigen data de ene na de andere (beta) firmware probeerden. Via RAID en allerlei andere constructies maar proberen de 'nadelen' te omzeilen.

Over de controllers & bijbehorende firmware ontwikkeling kun je een even lang artikel schrijven. Persoonlijk denk ik dat die ontwikkeling eigenlijk bijna interessanter was, want de 'basis flash chip' is maar een beetje laf, pas met 16 kanalen en een dikke processor krijg je de mooie resultaten van vandaag de dag!

Vandaar dat ik niet ga roepen dat elke SSD dan ook al die functies in de firmware heeft zitten. Ik heb er genoeg langs zien komen die het NIET hadden! Met in-depth artikelen waarin weer een 'probleem' werd gevonden.

[Reactie gewijzigd door TheGhostInc op 23 juli 2024 10:38]

en de gigabyte iram mischien wel de eerste doorslaggevende SSD ooit
sinds die tijd is het eigenlijk allemaal begonnen
je kon er net windows XP op zetten xd
Wat ik nog mis in het artikel qua toekomstige storage is de 5D Data Storage by Ultra Fast Laser Writing in Glass. Bron: nieuws: Duurzame dataopslag in nanostructuren van kwarts
Wordt dat nog gezien als een doorontwikkeling van de SSD?
Kun je net als in Stargate SG-1 je data kristal vervangen in je meterkast. ;)
Dat kwarts is read only memory en daarmee geen vervanger voor een SSD.

Op dit item kan niet meer gereageerd worden.