Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties

SandForce heeft testfirmware voor zijn SF-1200-controller gemaakt, die de beschikbare ruimte op een ssd-schijf vergroot. De prestaties van de controller zouden ondanks een kleiner geworden reserveruimte vrijwel gelijk blijven.

Technologiesite AnandTech ontving van geheugenfabrikant OCZ een aangepaste versie van de Agility 2. De firmware was zodanig aangepast dat nog maar 13 procent van het aanwezige flashgeheugen als reserveruimte werd bestemd, in plaats van de voor de SandForce-1200-controller gebruikelijke 28 procent. Dit resulteert voor een Agility 2 met 64GB flashgeheugen in 55,9GB beschikbare ruimte in plaats van 46,6GB. Bij een schijf met 512GB flashgeheugen gaat de beschikbare ruimte zelfs omhoog van 372,5GB naar 447GB.

De aanwezige reserveruimte wordt onder andere gebruikt om slijtage van het flashgeheugen tegen te gaan en om sneller beschrijfbare blocks te kunnen vinden. Bovendien wordt het door de SandForce-controller gebruikt om hashes en redundante data, die nodig zijn voor zijn compressie-technologie, op te slaan.

Om de invloed die de firmware op verwerkingssnelheden heeft te kunnen testen, vulde AnandTech de schijf twee keer met random-data, zodat zeker was dat zowel de normale als de reserveruimte volledig werd gebruikt. Er werden benchmarks uitgevoerd om de verschillen tussen de oude en nieuwe firmwarevariant te meten. Deze verschillen bleken erg gering te zijn. De invloed op de betrouwbaarheid, vooral die op de lange termijn, is echter onbekend en lastig te testen. Het is nog afwachten of en wanneer ssd-fabrikanten de nieuwe firmware gaan inzetten en vrijgeven voor hun producten.

Moderatie-faq Wijzig weergave

Reacties (52)

Wist niet dat er op een SSD zoveel ruimte werd weggesnoept voor reserveruimte...
Dat is dan weer lekker. Koop je een 512 gb SSD krijg je er maar 372... is meer als een kwart van de schijf eigenlijk weggegooid.
Daarom vind ik 13% een acceptabel percentage. 28% is m.i. echt veel ruimte, zeker aangezien de prijs per gigabyte van de huidige SSD's zo hoog liggen.
Ja, maar aan de andere kant koop je een SSD niet voor de opslag... Je gaat voor:
-prestaties
-laag stroom verbruik
-stilte / schokbestigheid

En daarnaast wordt het redelik goed gecomminuceerd dat deze schijfen duidelijk kleiner zijn. Ze verkopen 50, 100, 200GB etc.

Als je kijkt naar hoe zo'n schijf werkt, dan is het voor de hand liggend dat meer ongebruikte ruimte meer snelheid / levensuren betekend. En in dat opzicht is alles boven de 50% gebruik met gelijke performance al in orde. Als ik mijn 60GB Vertex (1) die nu 59,6GB is (-7%), 46,0GB kon maken (-28%) om Sandforce snelheden te halen, zou ik dat blij doen. Ik heb namelijk maar ~42,5GB nodig op deze drive.

Maar alsnog erg prettig dat ze dergelijke updates aanbieden. Gratis ruimte is ookal soms onnodig, altijd welkom.
"60GB Vertex (1) die nu 59,6GB is (-7%)"
0,4 verschil op 60GB is 0,7% ;)
Dit is enkel gebruikelijk bij SSD's die over een SandForce controller beschikken, zoals in het artikel staat.

Deze ruimte is gereserveerd voor extra snelheidswinst te halen en een langere levensduur, als dat geen voordeel is?
Levensduur is denk ik bij SSDs voor de meeste mensen irrelevant. De prijzen van die schijven dalen zo hard dat je beter af bent met een schijf die je na een jaar of drie vervangt dan met een schijf die 10 jaar mee kan gaan. Snelheidswinst kan wel zinvol zijn aangezien dat precies de belangrijkste reden van aanschaf van een SSD is
ik geloof dat het afgelopen half jaar mijn intel SSd niet meer in prijs gezakt is hoor. Die flinke daling is een keer gestopt toen de chips niet meer makkelijk goedkoper konden.
Geld ook voor ander SSD's, makkelijk te zien aan de hand van de grafiekjes in de pricewatch deze dalen voor geen meter. Het is rechte lijn die maanden lang aanhoud.
De schijf met 64GB flashgeheugen wordt dan ook verkocht als 50GB-schijf. Niks aan de hand dus.

SandForce reserveert trouwens meer dan andere controllers. Daar ligt het meestal op zo'n 7% volgens AnandTech.
Wat dacht je van de Freecom XS hard drive van 1,5 TB. Ik heb maar 1,37 TB tot mijn beschikking. Ik vind dat dit soort verschillen tussen de aangegeven opslagcapaciteit en daadwerkelijk beschikbaar zijnde capaciteit duidelijk aangegeven moet worden bij alle opslag media.
Dat is even nutteloos als hetzelfde doen bij platter harde schijven.

bvb. mijn platter hd van 250gb levert mij effectief maar 232gb opslagruimte.
De overige gbs zijn echter niet 'niet in gebruik', alleen deze zijn in beslag genomen voor registers en de format data.

de SCHIJF zelf heeft dus wel 250gb opslag ruimte.. het aantal gbs echter dat JIJ als eindgebruiker ter beschikking hebt voor files ed. is gelimiteerd omdat er wat fixed ruimte nodig is om te zorgen dat de schijf naar behoren functioneert.

Deze vergelijking valt terug te trekken naar SSD's waarbij je zou kunnen stellen dat die 13% schijfruimte wèl gebruikt wordt, maar alleen niet door jòu.
Dat is onzin wat je nu zegt.

Bij een gewone harde schijf wordt er door de fabrikant 1GB aangegeven als 1000MB, windows echter rekent 1GB als 1024MB.

Die 24MB gaat dus niet verloren naar registers of reserve ruimte of iets dergelijks maar wordt gewoon gebruikt.

Dat anno 2010 mensen dat op een website als Tweakers niet begrijpen verbaast mij eerlijk gezegd.
sterker nog, van de overschakeling van byte naar kilobyte mis je steeds die 24, van kilobyte naar megabyte nog een keer, dan weer van megabyte naar gigabyte en dan nog eens van gigabyte naar terabyte, het wordt gewoon exponentieel minder en minder dan je denkt.
Jouw 250GB schijf levert je 232GB aan ruimte op door het verschil tussen de telmethodes die ze gebruiken voor de bytes. Het is OS telt meetal met 1024=1KB waarbij harde schijf fabrikanten meestal 1000=1KB gebruiken. Daarnaast heb je nog verschillende bestandssystemen die ook een bepaalde hoeveelheid reserveren. Ext reserveert volgens mij standaard iets van 5%, NTFS niet veel meer dan een paar honderd MB. Dus dat ben je wel echt kwijt. Uiteindelijk heeft het niets te maken met hoeveel blokken je harde schijf reserveert voor eventuele kapotte sectoren.
Nee, zoals aap hierboven aangeeft zit het verschil in het rekenen met 1024, wat in de computer wereled gedaan wordt, en 1000 wat gewoon het decimaal stelsel is.

Decimaalstelsel: K = 1000
Compueterwereld: K = 1024 Byte

Simple gezegd. :)

[Reactie gewijzigd door _Dune_ op 4 mei 2010 14:50]

Het is zelfs nog erger. In de computerwereld is de k in kB (kilobyte) meestal 1024, maar de k van kb (kilobit) is meestal 1000, hoe verwarrend willen ze het maken?

offtopic:
Het is k van kilo en niet K van Kelvin.

[Reactie gewijzigd door Goderic op 4 mei 2010 16:48]

Het is overigens wel kb en niet kB, want b = bit en B = Byte (=8 bits)
We praten ook over 16 bits (da's weer Hexa-Decimaal)

Het is 'verwarrend' gemaakt door de fabrikanten van harde schijven.
1 kb = 1024 b is logisch (binair stelsel, 1 - 2 - 4 - 8 - 16 - 32 - 64 - 128 - 256 - etc.)

Met intern geheugen is het namelijk wel zo dat 1 kilobit = 1024 bits

Voor de harde schijven wilden ze het gewoon 'makkelijker' maken.
Of misschien kun je het gemaktzucht noemen, wie zal het zeggen..
Het is overigens wel kb en niet kB, want b = bit en B = Byte (=8 bits)
We praten ook over 16 bits (da's weer Hexa-Decimaal)
Dat staat er toch ook? :) kB = kilobyte en kb = kilobit.
Het is 'verwarrend' gemaakt door de fabrikanten van harde schijven.
1 kb = 1024 b is logisch (binair stelsel, 1 - 2 - 4 - 8 - 16 - 32 - 64 - 128 - 256 - etc.)
Het is net omgekeerd, de enige die zich mooi aan de standaarden houden zijn de hadeschijf fabrikanten.
Dat 1024 dicht bij 1000 ligt betekent niet dat je er zomaar een k voor kan zetten, kilo staat niet voor niets voor 1000.

En zoals ik zei wordt 1000=1024 niet eens consequent toegepast, bij kilobit staat de kilo wel voor 1000 en niet voor 1024.
Toch vind ik het irritant dat een groot deel van de computerwereld zich niet aan de standaard houdt. Er is namelijk een standaard om de verwarring te voorkomen en er zijn een aantal programma's die zich er aan houden, namelijk een kleine i ertussen:

Decimaalstelsel: kB = 1000 Byte
Computerwereld: KiB = 1024 Byte (kibibyte)

Zie http://en.wikipedia.org/wiki/Kibi-#IEC_standard_prefixes

(edit KB naar kB KiB blijkt wel te kloppen)

[Reactie gewijzigd door dapyroo op 4 mei 2010 16:55]

Er stond bij mij op de verpakking (samsung) duidelijk:

1GB = 1 000 000 000 bytes

Dan weet je dus van te voren waar je aan toebent :)
Dat is gewoon het verschil tussen 1024^4 en 1000^4
Voor gegevens opslag heb ik liever betrouwbaarheid dan een beetje meer ruimte. Kheb al eens een harde schijf crash meegemaakt en je wordt niet blij van de kosten bij de specialist.
Hardware geeft je nooit een garantie. Alles kan spontaan kapot gaan, alles kan in de fik vliegen en alles kan gestolen worden en iedereen maakt stomme fouten.

Als het om privé-gebruik gaat heb je voor 300 euro één interne 1.5TB schijf en twee externe exemplaren voor de backups. Zet één backupschijf naast je pc en werk hem regelmatig bij en zet één backup elders (bijv. bij je ouders) neer en verwissel de backupschijven regelmatig. Vervang de schijven sowieso na een jaartje of twee en volgens mij heb je dan veruit de meeste risico's uitgesloten (behalve dat de kans op datadiefstal door fysieke inbraak verdubbeld wordt, maar daar zijn ook oplossingen voor). In een bedrijfsomgeving zijn er veel meer opties.

Kortom, als je zuinig bent op je data moet je daar wat moeite voor overhebben, hoe dan ook.
mooie oplossing idd, maar ik zou het niet nodig vinden om alles om de 2 jaar te vervangen, harddeschijven gaan makkelijk 5+ jaar mee, en als je het 3 keer staan hebt is de kans dat ze alle 3 in dezelfde week kapot gaan nihil. Daarbij komt kijken dat, als je niet smijt met die externe hdd's, ze bijna nooit draaien, dus niet slijten. Belangrijk punt dat vele vergeten is idd backup igv diefstal, dieven nemen je laptop en je backupschijf die er naast lag makkelijk mee, en dan ben je het allemaal kwijt.

[Reactie gewijzigd door flamingworm op 4 mei 2010 19:26]

Dan zou ik sowieso niet aan een ssd beginnen. De techniek is nogal nieuw, vooral de controllers. Dat Sandforce heeft iets neergezet wat op papier erg leuk lijkt te werken. Hoe het in de praktijk gaat is iets wat nu langzamerhand naar boven komt drijven omdat de drives nu mondjesmaat worden verkocht. Doordat die Sandforce controller compleet nieuw is en totaal anders werkt dan de rest van de markt en er verder geen ervaringen mee zijn is het dan ook niet handig om zo'n drive te kopen. Er zijn veel te veel vragen waarop men het antwoord nog niet heeft dat daardoor de betrouwbaarheid te wensen over laat. Dat zegt uiteindelijk niks over de controller en de ssd zelf want die kunnen in de praktijk misschien wel uiterst betrouwbaar blijken. De tijd zal het leren.

Als je een specialist moet inschakelen nadat je schijf is gecrasht moet je niet boos worden om wat die specialist kost maar om het feit dat jij zo dom bent geweest om niet te zorgen voor een goede backup. Alles kan stuk en dan is een goede backup hebben wel erg fijn.
...komt die dan:


backups.
Nice

Alles SSD +1

Mijn 60 GB schijf is trouwens 59, nog iets groot dus ik zal een 74? GB schijf hebben die als 60 verkocht wordt (netjes van OCZ - en andere - dat was bij HDDs niet het geval)

edit: Lange termijn is natuurlijk wel iets waar ze op moeten scoren, anders heeft het natuurlijk geen drol zin :D

[Reactie gewijzigd door ArminvB op 4 mei 2010 13:53]

ik weet niet of dit wel zo'n goede ontwikkeling is, nu krijg je dat de fabrikanten zich gaan richten op snel en goedkoop scoren, zonder genoeg te letten op de kwaliteit.

Wat houdt dit in voor de levensduur van de schijf? Gaat die niet dramatisch achteruit als er minder ruimte is voor foutcorrectie etc.?
Ik denk niet dat fabrikanten willen dat over 1 jaar elke ssd moet vervangen worden omdat ze dan al stuk gaan. Volgens mij denken zij daar wel over na. Want anders draaien ze zichzelf de nek om.
Inderdaad.

Het bovenstaande artikel moet je dan ook zò lezen:

"OCZ is erachter gekomen dat hun SSD's met de huidige 28% reserveruimte nog veel te lang mee gaan gemiddeld wanneer de garantie vervallen is.

Zij hebben uitgerekend dat statistisch gezien op de lange termijn zij het meeste geld maken als ze de reserveruimte verkleinen naar 13%. Dit resulteert in een mooi normaalcurve waarin de meeste verkochte SSD's mooi binnen een jaar na garantievervalling kapot gaan en dusdanig vervangen moeten worden tegen retail price."

OCZ is een bedrijf, om ze te begrijpen moet je denken als een bedrijf wat winst moet maken. ;)
Beetje een paranoïde denkwijze. Als bedrijf zijnde kun je ook een andere denkwijze hanteren. Die Sandforce controller is iets wat nog niemand voorheen heeft gebruikt, er zijn geen ervaringen mee. Wat je nu ziet is dat men mondjesmaat wat ervaring begint te krijgen. Kennelijk is er ooit eens op basis van wat berekeningen gebleken dat er rond de 28% van de ssd vrijgehouden moet worden. Nu men meer real life ervaring heeft is gebleken dat dit eigenlijk veel te veel is en wordt het teruggeschroefd naar 13%. Aangezien het hier nog om een beta gaat kan het echter alle kanten op gaan: ze kunnen het zo laten, ze kunnen meer/minder bezuinigen of ze kunnen alles weer terugdraaien naar zoals het was (dus die 28% weer aanhouden). Die beta is niets meer dan een test release om te kijken of wat men in de gedachte had en zelf heeft getest ook werkt bij een groter publiek.

Overigens is het terugschroeven naar 13% wel mooi te verkopen naar klanten toe: ze houden meer diskspace over. Dat alleen al kan al voor veel mensen een reden zijn om voor zo'n Sandforce ssd te gaan ipv iets anders. Bij ssd speelt de hoeveelheid diskspace namelijk een zeer belangrijke rol aangezien hedendaagse ssd's achterlopen op de diskspace die 2,5" laptopschijfjes bieden die vervolgens weer achterlopen op de desktopschijven. Je kunt op deze wijze meer mensen je producten laten kopen.

OCZ is trouwens meer een bedrijf voor de hobbyist, kijk maar eens naar hun assortiment. Dat betekent echter ook dat je je als zodanig moet profileren en dat doe je weer door van de nieuwste snufjes, zoals de Sandforce en Indilinx Barefoot controller, gebruik te maken in je producten. Een nieuwe firmware die meer diskspace op kan leveren hoort dan ook bij zoiets.

Ik denk dat bovenstaande een stuk realistischer is dan jouw vrij paranoïde "ieder bedrijf moet en zal ten koste van alles en iedereen geld binnenslepen". Dat laatste is namelijk niet haalbaar omdat je heel snel door de mand valt en niemand nog klant bij je wil zijn. Het is ook onjuist om te denken dat een bedrijf winst moet maken, in de meeste gevallen is het helemaal niet wenselijk dat je winst maakt omdat je dan uiteindelijk door allerlei dingen als belasting verlies draait. Daarnaast zijn er ook gewoon mensen die graag leuke dingen doen en als ze daar geld mee verdienen is dat leuk meegenomen.
Je hebt helemaal gelijk.

Mijn 'beredenering' is vrij paranoïde en waarschijnlijk niet waar, het is echter wèl een worst-case mogelijk scenario.

Ikzelf vind het fijn om deze extremen op zijn minst te bedenken en te analyseren, zie het zeg maar als een condoom (en/of geweer, als je toevallig AVP gezien hebt en dat grappig vond):

I'd rather carry one and not need it than not having one when I do need it.
Hoe lang zit er dan garantie op die dingen? Op mijn Sandisk geheugenkaarten zit levenslang garantie op materiaal (uiteraard niet op gevolgschade wanneer ik daar m'n enige bedrijfsbackup opzet, daar begint geen enkele fabrikant aan).
@Ayporos

Die denkwijze zou enkel kunnen kloppen moest OCZ een monopoly op SSD hebben.
Nu is de kans veel groter dat consumenten gewoon naar bv Intel overgaan als ze merken dat de OCZ sneller kapot gaan.
Dit soort controllers ondersteunen gewoon trim, je kan er gewoon zelf voor zorgen dat je de ssd gewoon niet helemaal vult. Dit komt dan ook in princiepe op hetzelfde neer.
Dit is toch juist heel goed te testen?
Je schrijft continu je hele schijf vol met random patronen.
Dat wil zeggen 100% volschrijven.
Dat doe je net zolang totdat je fouten tegen gaat komen.
Je weet dan in ieder geval hoe vaak je zoiets kunt beschrijven; en natuurlijk, afhankelijk van je gebruik duurt dat een faktor x langer.
Hoe lang zal het duren voor er fouten gaan komen? Ik denk als je constant aan het schrijven bent, dat dat wel een jaar kan duren. Daarom is het lastig te testen als je de ssd maar even in bruikleen krijgt van de fabrikant :) Maar wellicht dat Anand ons wel gaat verassen en stiekem al enige tijd ssd's aan het martelen is :D
Stel de schijf is 500MB en we kunnen met 100MB/sec schrijven.
Dat duurt uuuhh 5 seconden.
We kunnen dus 60/5 = 12 keer per minuut volschrijven.
Dus 720 per uur, dus 17.280 per dag!
Dan zit je al aardig op de limiet van een schijf.
Als hij dit dan vervolgens 5 dagen zonder fouten vol kan houden, dan ben ik niet zo bang meer!
true, wat iedereen die hierop reageert niet inziet is dat je natuurlijk niet moet gaan testen met een schijf van 1 miljoen miljard terabytes maar gwn met een kleiner exemplaar de tests doet. Minder chips, chips worden dus nog vaker beschreven -> sneller falen -> resultaten interpreteren en extrapoleren.

Dan heb je een goede benadering en een goedkope testmethode.
Dus als je een SSD van 250GB hebt en je schrijft tegen 100MB/s, duurt het ongeveer 40 minuten om alles vol te schrijven. Dat kan je in een dag 40 keer volschrijven. Om dan dezelfde test te doen als met jouw voorbeeld ben je iets minder dan 6 jaar bezig ;)
denk niet dat je nog veel schijven van 500MB gaat tegenkomen. Een ouderwets cd'tje is al 700MB

Schijfje van 500GB klinkt mij al iets logischer.
500MB? Die vind je alleen nog maar in het museum. Maak daar maar het 1000 voudige van.
Ik wist dat ik ergens iets over het hoofd had gezien.
Nou ja...
vermenigvuldig alles dan maar met duizend.
Dus met 1000 dagen weten we het :+ 8)7
De prijzen zullen dan ook stijgen of zie ik het verkeerd?
Dat hangt er vanaf wat de fabrikanten gaan doen. In principe krijgen ze geen extra kosten te verwerken, dus zouden consumenten tegen dezelfde prijs meer GB's kunnen krijgen. Maar fabrikanten kunnen ook kiezen voor deze firmware meer geld te vragen. Hangt van de concurrentie af waarschijnlijk.
Compressie en mogelijke bad blocks zijn een slechte combinatie. Het lijkt mij op de lange termijn dan ook geen oplossing IMHO.
Ik gok dat hier ook geen compressie maar data-deduplication wordt bedoeld.
Goed bezig. SSD's zijn nog niet echt goedkoop te noemen. En dan heb je er eindelijk een en sta je nog een aantal gig af aan reserve ruimte. Wel hopen dat het op de lange termijn meevalt met betrouwbaarheid.
Hmm.. dit doet me dan toch wel weer twijfelen om dadelijk een SSDtje te kopen, als ze redelijk snel 'slijten'..
Is dat wel zo? In de tijd dat er nog NOR flashgeheugen gebruikt werd sleten die dingen nogal, maar ik heb de laatste jaren nooit meer gehoord over versleten flashgeheugen. heb het zelf ook nooit meegemaakt.
Stel: de producenten van ssd willen dit systeem:
  • registers,
  • cache,
  • RAM,
  • hdd,
  • backup hdd
omvormen tot:
  • registers,
  • cache,
  • RAM,
  • ssd,
  • backup non-ss hdd
Anders gezegd: ssd dient als snelle werk-hdd en als ze stuk gaat koop je toch gewoon een nieuwe en haal je alles van je backup; een tragere niet-solid-state hdd die tientalle jaren meegaat (misschien zelfs in 'de cloud' i.p.v. bij je thuis/je eigen bedrijf?)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True