Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties

Sandisk zegt een techniek te hebben ontwikkeld die de snelheid en levensduur van solid state disks fors laat toenemen. Het bedrijft voorspelt honderd maal snellere lees- en schrijfsnelheden.

Sandisk pssdDe geheugenfabrikant ontwikkelde een nieuw bestandssysteem voor ssd's dat het Extreme Flash File System of Extremeffs noemt. De doorbraak die de beloofde honderdvoudige verbetering in random schrijfsnelheden mogelijk moet maken, is het loskoppelen van de logische locatie en de fysieke locatie van data in het flashgeheugen. Het algoritme dat Sandisk ontwikkelde, bepaalt de makkelijkste en efficiŽntste locatie om data op te slaan. De geheugenkanalen van nand-geheugen kunnen met Extremeffs onafhankelijk van elkaar functioneren, zodat verschillende lees-, schrijf- en onderhoudsoperaties tegelijk kunnen plaatsvinden.

Ook zou het nieuwe bestandssysteem intelligent zijn: Extremeffs moet gebruikerspatronen gaan herkennen. Het kan gegevens dan beter toegankelijk wegschrijven, terwijl het tegelijk rekening houdt met de fysieke locatie van de data, zodat geheugen evenwichtig gebruikt wordt om de levensduur te maximaliseren. Extremeffs zou door het loslaten van de blokstructuur veel beter geschikt zijn om random lees- en schrijfacties te versnellen. De huidige ssd's met in blokken aanspreekbaar nandgeheugen zijn weliswaar vlot in sequentieel lezen en schrijven, maar de randomsnelheden vallen tegen, terwijl besturingssystemen zich juist veelvuldig van zulke willekeurige lees- en schrijfoperaties bedienen. Het hoofd van de ssd-tak van Sandisk, Rich Haye, gaf aan dat het nieuwe bestandssysteem in de loop van 2009 in Sandisk-producten wordt toegepast.

Naast de al eerder door Sandisk voorgestelde standaard om de verwachte levensduur van een ssd te berekenen, een techniek die het Long-term Data Endurance of LDE noemt, heeft het bedrijf nu ook het begrip 'vrpm' oftewel virtuele omwentelingen per minuut geïntroduceerd. Met dit kengetal zegt Sandisk dat ssd's beter met traditionele harde schijven kunnen worden vergeleken. Met het vrpm-cijfer wordt aangegeven hoe snel een harde schijf zou moeten draaien om dezelfde performance als een ssd te halen. De term zal vooral voor marketingdoeleinden interessant zijn. Haye denkt dat de Sandisk-ssd's volgend jaar ongeveer vier maal sneller dan harde schijven zullen zijn, zodat er sprake zou zijn van schijven met bijna 30.000vrpm.

Moderatie-faq Wijzig weergave

Reacties (72)

Als dit echt waar is en sandisk heeft echt een manier gevonden om efficient en zonder al de veel slijtage random read/write acties op een SSD te versnellen dan zou dat best wel eens kunnen betekkenen dat we zeer binnen kort de eerste consumenten SSD's gaan zien die echt de vloer aan vegen met de standaard harde schijf, opslag volume is nog steeds een struikel blok maar dat zal niet lang meer duren denk ik.
De gewone harde schijf lijkt toch echt wel zo'n beetje tegen het maximum van haar kunnen aan te zitten als het om opslag per vierkante inch gaat en SSD's kunnen nu al meer data per vierkante inch kwijt, alleen is een TB SSD op dit moment gewoon niet betaalbaar te maken.
Over een jaar of twee zou het best wel eens kunnen zijn dat de meeste standaard consumenten PC's met een SSD geleverd worden. En dat zou toch een keer tijd worden op dit moment is de HDD toch echt de meest beperkende factor in veel PC's... omdat bewezen te zien koop maar eens een raid kaart met wat cache geheugen (128MB of zo) en meet het verschil tussen een standaard raid zonder cache en een raid met cache, je weet niet wat je ziet.
Met dit kengetal zegt Sandisk dat ssd's beter met traditionele harde schijven kunnen worden vergeleken.
Puur een marketingterm dus, aangezien de rotatiesnelheid van een schijf totaal geen indicatie hoeft te geven van de echte schijfsnelheid. Het aantal platters, leeskoppen enzovoort speelt daarin ook mee.
Het is voor me idd net zo iets als de snelheid van internet aangeven in het aantal 14k4 modems, of nog beter, het piekvermogen van luidsprekers :)
grappig, want:
de rotatiesnelheid van een schijf zegt WEL iets over de snelheid, daar een verschil van 5400rpm -> 7200rpm een snelheidswinst van 25% geeft.... het aantal koppen en platters enzovoorts maakt natuurlijk ook uit, maar er worden altijd veronderstellingen gemaakt, en dat moet ook!
net als modem snelheden: 14k4 modems hebben een bepaalde max snelheid, als je die * 100 doet, dan heb je mogelijks 100x meer snelheid. wat jij zegt is dat 10Mbit, 100Mbit en 1Gbit netwerken allemaal "niks uitmaken"... het geeft wel een INDICATIE van snelheid, en DAT is net de bedoeling.

het is dus geen slecht idee dat ze een "vergelijkbaar punt" zoeken met de draaiende schijven, en die vrpm is daarvoor uitermate geschikt lijkt mij... (de meeste schijven verschillen niet in 5x meer koppen en platters, hoor... in de vrpm specs zal ook wel staan hoeveel platters en heads virtueel geteld worden)
Hogere snelheid verminderd natuurlijk de zoektijd. Na de kop bewegen moet tenslotte nog gewacht worden tot de gezochtte sector voorbij rolt. Gemiddeld bij random dient dat 1/2 rotatie te zijn, oftewel (7200/60)/2 = 60 s-1, oftewel 16,7 ms (+ gemiddelde verplaatsingstijd kop).

(edit) voor 15k word dat natuurlijk 8 ms.(/edit)

[Reactie gewijzigd door Toontje_78 op 6 november 2008 11:17]

max rotational delay is (60s/rpm), average is nog eens delen door 2.
oftewel:
7200rpm average 4.12ms
10000rpm average 3ms
15000rpm average 2ms
Je hebt gelijk, een rekenfout van mijn kant. Factor 4.

7200 rpm = 120 rps, dan 1/240 s om op te zoeken = idd de 4 ms die je geeft.
Nee, de rotatiesnelheid zegt niets over de snelheid in megabytes per seconden. Mijn gloedjenieuwe 5400 schijf is echt vele malen sneller dan mijn eerste 7200 rpm.

een 28k8 modem is exact 2 keer zo snel als een 14k4, een 100mbit netwerk is exact 10x zo snel als een 10mbit, maar er is geen zinnig woord te zeggen over hoe snel een 7200rpm schijf is. Ja, je weet hoe snel de schijf rondjes draait, maar daar is niemand in geÔnteresseerd. Als ik op een 50km/u weg rijd, interesseert het oom agent ook niets hoeveel toeren mijn motor maakt.
Ik heb een 4GB geheugenstickje gekocht vorige week, en op de achterkant van de verpakking werd de capaciteit weergegeven in, jawel, Floppy's. (1.44MB). Ik had dus een geheugenstick gekocht met dezelfde capaciteit als 1400 floppy's ofzo.

Echt te triest. Dat soort vergelijkingen brengen je nergens.

[Reactie gewijzigd door Pixeltje op 6 november 2008 10:51]

De WD (velici)raptor schrijven van 10.000 en 15.000 rpm zijn anders wel een stuk sneller dan de snelste 7200 rpm schrijven. Een hogere rpm zorgt namelijk voor een snellere seek tijd en zorgt ervoor dat random access dus verbeterd.

Wij geven bij DVD/CD players/writers toch ook de snelheden aan in 16x/8x/4x?

En wou jij daarnaast nou gaan beweren dat een systeembeheerder niet aan marketing hoeft te doen? Voor elke aanschaf moeten wij een toelichting geven waarom de aanschaf ervan gerechtvaardigd is. Een manager zal niet zo snel de impact van een seek tijd verbetering van 25ms naar 8ms begrijpen. De meeste managers snappen wel omdat de raptors op een hogere snelheid draaien ze ook in data doorvoer sneller zijn.

De vrpm zal het voor veel systeembeheerders eenvoudiger maken om SSD disks binnen de bedrijfs omgeving te introduceren. Een database op een SSD disk is nu al vele malen sneller dan op een raid10 raptor array. Kun je nagaan hoeveel beter je database troughput wordt als de seek tijd flink omlaag gaat..
En toch durf ik te wedden dat de eerste 10.000 (jaren oud inmiddels) wordt weggeblazen door mijn nieuwe 5400rpm schijfje.

Bij een cd/dvd is de snelheid gespecificeert in kilobit per seconde, 1x staat voor 150(CD) of 900(DVD) kbit per seconde. de rest zijn veelvouden daarvan. Het zegt niets over de snelheid waarmee het schijfje draait. In de praktijk is er wel een relatie omdat de data-dichtheid fixed is, maar dat is bij harddisks niet het geval. En cd-drives met 4 koppen en cachende drives bestaan niet meer, anders hadden de de vergelijking lastiger gemaakt.

En als je manager het niet snapt, dan moet je het hem correct uitleggen, of zeggen "vertrouw mij maar, deze is gewoon geschikter", maar geen onzin op gaan hangen in de trand van Western Digital is sneller dan Seagate want hij is digitaal en de W komt na de S in het alfabet. Dat is nl wel wat jij doet, je wijst 2 weinigzeggende getalletjes aan en zegt "kijk, a is groter dan b".
Volgens mij kan het geen kwaad als jij een persoonlijke vaardigheidscursus gaat volgen.

Nee, wanneer jij je manager wil overtuigen met "vertrouw mij maar", dan begrijp ik ook de toon van jouw posts. Niet dat jij overigens geheel gelijk hebt.

Natuurlijk heb je gelijk dat rotatiesnelheid slechts een van de factoren is, maar om nou te schrijven "Nee, de rotatiesnelheid zegt niets over de snelheid in megabytes per seconden.", dan sla je de plank toch ook mis.

En ook bij een CD of DVD zegt die speedrating ook niet alles. Dat is alleen de theoretische maximumsnelheid en zegt niets over hoe snel bijvoorbeeld de laser kan bewegen, hoeveel cache er is, foutgevoeligheid, etc.

Wat Sandisk probeert is dat je op een makkelijke manier een "gevoel" voor de snelheid krijgt. Een beetje zoals AMD en Cyrix dat deden met hun 686 processoren. Die ontkoppelden ook de kloksnelheid en de productklassificatie, omdat op dezelfde kloksnelheid ze beter presteerden dan de Intel.

Maar ook daar zie je dat kloksnelheid niet de enige factor is, maar het maakte het voor de consument wel makkelijker om dingen te vergelijken.
Is leuk en mooi, maar Windows zal het nog steeds behandelen als een schijf met platters en sectoren etc. en bij de eigenschappen van C: zal ook nog steeds NTFS staan.

Dit "bestandssysteem" is naar mijn mening de zoveelste toevoeging aan een emulatielaag die vroeg of laat toch overbodig gaat worden.
Een beetje kort door de bocht, afhankelijjk of het zich als laag tussen FS en block device nestelt of het FS vervangt verscheelt de implementatie.

Indien het zich tussen FS en fysieke apparaat bevind, zal het wel op het device geimplementeerd zijn in firmware en dus zich gedragen als elk ander block device. De minst invasieve oplossing voor de software, en geen aanpassen van bios of wwat dan ook nodig.

In principe beter is het indien het echte FS vervangen word, dat zou een controller op de SSD schelen en dus enerieverbruik minimaliseren. Alleen zal bij installeren van het OS aan moeten worden gegeven of een apparaat SSD of regulier block device is, voor de mensen die de techniek minder bijhouden wat hoog gegrepen.
tja, maar optimaliseren wil nog niets zeggen over een bestandsysteem voor ssd's

lijkt mij meer dat we straks met een gepimpte windows kernel en aangepast ntfs zitten

[Reactie gewijzigd door donotwant op 6 november 2008 10:36]

Gelukkig zijn er ook operating systems waar je wel makkelijk verschillende bestandssystemen door elkaar kan gebruiken...
Zoals... windows :) kan perfect overweg als er maar de juiste drivers zijn, ik geloof alleen dat de windows installatie zelf percee op ntfs moet. Maar misschien werkt het wel als je de schijf niet formatteerd maar het bestandssysteem ongemoeid laat na het gebruiken van de 'raid' floppy tijdens setup.
Pfff, wat vind jij "perfect overweg"?

Waar andere OS'en al jarenlang een mooi plug-in systeem hadden voor FS'en, heb ik dat mij Windows tot nu toe niet gezien.

Op mijn Amiga kon ik begin jaren negentig (misschien zelfs al eind 80) gewoon een nieuw FS in DEVS zetten en klaar was Klara. Native (als in booten van) moest weliswaar via de bootblock, maar al het andere was zo simpel als wat.
Waarom vind je NTFS zo slecht dan? Ik heb nog nooit gehoord dat NTFS het niet bij kon houden qua snelheid... En Inefficient is het volgens mij ook niet.
Ook nog eens veilig... Het fragmenteert een beetje, maar verder.

IIG hulde voor SanDisk als ze dit waar kunnen maken!
honderd maal sneller...

momenteel iets van 120 mb/sec schrijven en lezen vaak nog iets sneller.

dus in de toekomst schrijven met 100*120= 12000 mb/sec?

dat is wel ernstig snel, haalt het interne geheugen dat uberhaupt?
GDDR5 gaat maximaal op 24GB per seconden ( http://news.softpedia.com...6Gbps-Highway-72624.shtml )

Maar dat is videogeheugen, gewoon DDR3-1600 (snelste van nu) kan volgens deze website tot +- 12GB/s ( http://hubpages.com/hub/D...3_Navigating_The_RAM_Maze ) Dat zou betekenen dat in een jaar SSD's net zo snel zijn als, op dat moment, low-end RAM.

Dat zou echt een vreselijk goede ontwikkeling zijn aangezien de HDD altijd al een grote bottleneck is in computers.

Edit

Het is nu blijkbaar of DD3-1600 of PC3-16000 of DDR-2000 in benaming, maar het idee blijft het zelfde.

[Reactie gewijzigd door roy-t op 6 november 2008 13:22]

Vergeet niet dat je die DDR3-1600 in Dual Channel kan zetten wat goed is voor een theoretische verdubbeling van die 12GB/s naar 24GB/s.
Waarbij we met de komst van Core i7 zelfs Triple Channel opstellingen zullen gaan zien, waardoor het theoretisch nog breder wordt.

Over die snelheden en de reactie boven mij:
DDR3-PC1600 is volgens mij de hoogste officiŽle specificatie (JEDEC). DDR3-PC2000 is vanuit de officiŽle specs gezien eigenlijk gewoon een overclock, maar dan wel een die door zo'n geheugenfabrikantfabrikant wordt gegarandeerd.
De SSD kun je ook in dual channel zetten, namelijk RAID 0 ..
edit: toon aangepast.

Tsja, slaap lekker? Ik heb gewoon de eerste website met relevante informatie opgezocht en die hier gepost. DDR3-1600 is volgens die website en volgens meerdere webshops (alternate.nl bijvoorbeeld) de juiste benaming en het snelste 'normale type'.

Om het helemaal exact te hebben is de benaming DDR3 - 1600 (PC3 - 12800) zover ik kan vinden.

DDR3-2000 is geen JEDEC standaard zoals Ultraman hieronder aangeeft..

(verder snap ik niet helemaal wat 4 smileys en de opmerking slaap lekker opslaat, ik probeer alleen Xpointman's vraag te beantwoorden met relevante informatie. Zo kan iedereen zien hoe vreselijk snel SSD's mogelijk gaan worden in vergelijking met huidige hardware (het +-15% snelheidsverschil (in echte prestaties) van DDR3-2000 over 1600 is in dat geval dan ook niet van belang.

[Reactie gewijzigd door roy-t op 6 november 2008 13:27]

Ga eens na hoe snel standaard PC-RAM is (zeker als je het in tripple channel zet), of misschien nog erger, wat er op videokaarten wordt gezet. Hoewel RAM anders werkt, is het ook solid state geheugen. Ja, er is enorm veel potentie voor SSD's.
ram is volatile state en niet solid state: stroom eraf = data weg
ram is volatile state
Die term bestaat niet, ik denk dat je gewoon "volatile" bedoelt.
en niet solid state: stroom eraf = data weg
Solid state betekent iets heel anders, namelijk dat er geen gebruik wordt gemaakt van bewegende componenten, maar alleen van elektronisch gestuurde elektronenstromen. Solid state:
Solid-state electronic components, devices, and systems are based entirely on the semiconductor, such as transistors, microprocessor chips, and the bubble memory. In solid-state components, there is no use of the electrical properties of a vacuum and no mechanical action, no moving parts
En ook van de Solid state wikipedia disambiguation page:
Solid-state drive, data storage device components that uses memory chips, such as SDRAMs, to store data
(empasis mine)

Dus RAM is zeker wel solid state geheugen, net als flash. Dat het volatile is doet daar niets aan af.
Nee, volgens mij bedoelt men de random read/write acties. Die liggen gemiddel op 25 en niet op +100 mb/sec. Dus vele kleine bestandjes. Correct me if i'm wrong.

[Reactie gewijzigd door zeadope op 6 november 2008 10:33]

Dan nog, neem 20 MB x 100 = 2 GB/sec , dat is toch wel hťťl rap. Kan me dit haast niet voorstellen.
Het bestandssysteem van SanDisk zal niet de doorvoersnelheid in ideale omstandigheden met sequentiŽle I/O op lege delen van de ssd versnellen. Een flash disk zonder enige vorm van optimalisatie verliest veel performance op gedeeltelijke wijziging van data in een blok. Gegevens kunnen weliswaar per page van bijv. 4KB beschreven worden, maar als de bits afwijken van de standaardwaarde (bijv. 1) moet het hele blok waarin de te wijzigen pages zich bevinden eerst leeggemaakt worden. Alle bits worden in dit geval dan op 1 gezet. Dit zou kunnen betekenen dat je voor het wijzigen van 8KB data in een blok van 512KB het hele blok moet inlezen, erasen en weer beschrijven. Dit terwijl slechts een klein gedeelte van de inhoud wordt gewijzigd. Een enorme overhead (en onnodige slijtage) is het gevolg.

Een methode van optimalisatie is om het blok waarin de data zich bevindt ongemoeid te laten en te markeren welke pages niet meer geldig zijn. De gewijzigde gegevens worden elders opgeslagen in reeds lege pages die wel direct geprogrammeerd kunnen worden.

[Reactie gewijzigd door Femme op 6 november 2008 14:08]

De ze technologie heeft natuurlijk ook een nadeel; de schrijfsnelhied neemt weer (net zoals bij fragmenterende harde schijven) gradueel af naarmate meer blokken "halfvol" worden weggeschreven. Op den duur zijn er waarschijnlijk zelfs geen vrije blokken meer, en is een soort defragmentatie nodig.

Ik ben overigens benieuw wat dit nieuwe filesystem teweeg brengt. Uiteindelijk is niet alleen de performance van belang. Ik neem aan dat bijvoorbeeld security features zoals van ntfs niet bruikbaar zijn, wat toch wel een noodzaak is voor een degelijke adaptatie in het windows wereldje...
Het is meer een consequentie dan een nadeel want als je het niet doet zal de performance sowieso nogal wisselend en vaak erg slecht zijn. Het opruimen en reorganiseren van gedeeltelijk gebruikte blokken is iets dat de ssd kan oplossen op momenten dat hij niet gebruikt wordt. Een enorm voordeel hierbij ten opzichte van harde schijven is dat solid state disks heel veel acties tegelijkertijd kunnen uitvoeren en een minimale toegangstijd hebben. Dit in tegenstelling tot een harde schijf die maar van ťťn positie kan lezen of ernaar kan schrijven. Dit zorgt er samen met de hoge toegangstijd voor de enorme vertraging die ontstaat als een harde schijf veel gelijktijdige I/O's voor zijn kiezen krijgt.
Losstaand van de throughput in MB/s kun je performance ook uitdrukken in het aantal IOPS. Als ik dit lees, neem aan dat het mogelijk aantal R/W operaties per seconde 100x groter is dan nu mogelijk op ganbare SSDs, aangezien zoals in de tekst staat, de verschillende operaties niet op elkaar hoeven te wachten.
Vandaar dat de vergelijking met rpm ook genoemd wordt. rpm geeft een lagere toegangstijd ==> meer mogelijke R/W operaties per seconde

[Reactie gewijzigd door DwarV op 6 november 2008 16:22]

ik maak me (in jouw berekening) eigenlijk meer zorgen over de manier waarop het van de SSD naar het moederbord moet komen dan :S

speciale pci express controller? want onboard sata lijkt me hier te traag voor.
dit klinkt veel belovend. Vaak is de realiteit wat teleurstellender omdat het vaak over theoretische verwachtingen gaat. Gezien het feit dat ik eind 2009 een nieuwe laptop ga kopen wacht ik vol spanning af :)
Damn, dat is echt vlug zeg. Zou dit de integratie van optimized SSD beheer zijn in Windows 7?

Laat ze maar vlug komen in 2009, heb alleen schrik van de prijs die zal ook niet goedkoop zijn.
Hoe zit t dan met stroom verbruik, is dat veranderd ?
Dit is toch een van de grote voordelen bij ssd's vandaag de dag.
Dat is juist 1 van de kleinere voordelen. Tenminste, wanneer je een 2.5 inch HDD vergelijkt met 2.5 inch SSD maakt het weinig uit. Mijn laptop gaat niet veel langer mee op de accu met SSD.
Het grootste voordeel is access time. Er hoeft geen kop naar de juiste plaats verplaatst te worden en dan hoeft er ook niet (gemiddeld) een half rondje gewacht te worden voordat de data op de juiste plaats is...

Stroomverbruik van de huidige generatie HDD's is al vrij laag, maar ze ontwikkelen nog wel veel meer warmte dan SSD's...
Ik ben benieuwd op welke manier dit bestandssysteem beschikbaar gemaakt gaat worden, en of het ook voor niet-windows operating systems beschikbaar komt. Als ik zo snel in het bronartikeltje kijk, dan wordt alleen Vista genoemd. Dit soort dingen lijkt me juist prima uit te proberen in *nix, omdat daar toch al verschillende bestandssystemen door elkaar gebruikt worden en veel mensen het leuk vinden om ermee te experimenteren.
De enige manier om een bestandsysteem echt te laten slagen op alle systemen is door het een open standaard te maken. Op dit moment is de uniformiteit nog ver te zoeken bij ssd's en hebben ze allemaal hun eigen trucjes en extra laagjes om bepaalde processen te versnellen...
Het lijkt mij dat het hier over een intern file systeem op de drive zelf gaat, en dat hierboven op nog fat/fat32/ntfs/( iemand een aanvulling van linux ? ) gaat komen.

Dit is dus geen vervanging van ntfs ofzo, maar een laag dieper, en compleet alleen intern op de schijf beschikbaar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True