Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 102 reacties

Fixstars komt met een 2,5"-ssd die over een opslagcapaciteit van 13 terabyte beschikt. Een prijs is niet bekendgemaakt, maar de makers hinten op ongeveer 13.000 dollar. Het is niet de grootste ssd, die eer gaat naar Samsung, dat in 2015 een 16TB-ssd toonde.

Fixstars 13TBDe sata600-ssd haalt sequentiële schrijf- en leessnelheden van 580 en 520MB/s. Veel meer details over zaken als random read en de opbouw van de ssd geeft Fixstars niet. Wel zegt de Japanse fabrikant dat de SSD-13000M gebruikmaakt van 15nm mlc-geheugen. Ook komt er een 10TB-variant van de ssd.

Fixstars maakt geen adviesprijs bekend en zegt tegenover Computerworld dat de prijs enigszins kan fluctueren. Geïnteresseerden zouden moeten rekenen op ongeveer 1 dollar per gigabyte, ofwel 13.000 dollar. Fixstars zegt de ssd te willen verkopen aan datacenters, maar ook consumenten die het geld er voor over hebben, kunnen de ssd aanschaffen.

In 2015 introduceerde Fixstars al een ssd met opslagcapaciteit van 6TB. Destijds was dat 's werelds grootste ssd. Op dit moment is Samsungs PM1633a, die de Zuid-Koreaanse fabrikant in augustus 2015 toonde, de ssd met de meeste opslagcapaciteit. Ook Samsung mikt met zijn enorme ssd op datacenters. Het is niet bekend of Samsung de 16TB-ssd ook daadwerkelijk heeft uitgebracht.

Moderatie-faq Wijzig weergave

Reacties (102)

De prijzen beginnen aardig uiteend te lopen; grotere SSD's liggen ondertussen op $1/GB terwijl de gemiddelde consument voor ongeveer $0.30/GB een mooie SSD kan aanschaffen. Het valt me wel op dat het in dit geval een beetje zinloos is om 13TB op een SATA-600 kabeltje te prikken.

Voor consumenten die wel graag een grote SSD willen hebben maar niet al te veel willen besteden; Mushkin verwacht in Q2 2016 een 4TB SSD uit te brengen (eigenlijk 2x 2TB in RAID0) voor minder dan $500, zoals aangekondigd op de CES.
Liever 13x1TB bijwijzen van spreken.
Dat kan niet altijd (denk aan laptops), maar het is inderdaad wel veel beter (zowel sneller als veiliger, want de kans dat 13 SSD's tegelijk crashen is 0), en ook goedkoper.
Niet 0, maar wel klein.

Maar vraag me wel ten zeerste af wat de toepasbaarheid is.
Als je een snelle data drager wilt waar je veel op kwijt kunt dan is dit een uitstekende keuze als het prijs kaartje je aan staat voor de gestelde toepassing.

Maar alles maar daisy chainen in RAID0 lijkt me voor veel toepassingen geen oplossing.
Kans op uitval is enorm.

In RAID1 heb je wel die redudantie en waarschijnlijk wat snelheidswinst, maar dat ben je nog steeds beperkt in opslag ruimte.

RAID5 of 6 zou dan nog een optie zijn. Maar ben benieuwd of er controllers zijn die snel genoeg zijn om daar iets mee te doen.
Vergeet niet dat controllers op zowel de SSD als op moederbord tegenwoordig al hun max aan tikken in benchmarks. Als je dan nog RAID5 redudantie moet gaan beheren haal je die snelheden waarschijnlijk niet meer.
RAID5 of 6 zou dan nog een optie zijn. Maar ben benieuwd of er controllers zijn die snel genoeg zijn om daar iets mee te doen.
Als je een hardware controller gebruikt, dan is er een kans dat je geen TRIM ondersteuning hebt. Dit verkort de levensduur van de SSD's bij veel schrijfacties.
Vergeet niet dat controllers op zowel de SSD als op moederbord tegenwoordig al hun max aan tikken in benchmarks. Als je dan nog RAID5 redudantie moet gaan beheren haal je die snelheden waarschijnlijk niet meer.
RAID5 is niets anders dan lezen en schrijven naar disken/SSD's, en kan je ook in software implementeren. Een extra stap is dat de CPU voor de verspreiding van de data parity bits moet berekenen, maar dat hoeft niet de bottle neck te zijn.

SSD's kunnen juist een voordeel hebben in RAID5: random read access, normaals de doodsteek bij disken in RAID5, is supervlot!
De "doodsteek" van raid 5 is geen random read, maar random write onder andere door het berekenen van de parity.

Overgens is een raid 5 array me SSD's in de meeste gevallen prima snel, 40-70K iop/s is voor de meeste toepassingen prima, dat je dan wat verlies hebt maakt niet uit.
Ik gebruik het vaak en ik heb er nog nooit issues mee gehad, ik configureer dan wel altijd de snelste interne raid controllers in zo'n machine maar dan werkt het ook gewoon prima.

Dat je SSD's eerder "op" zijn door raid 5 gebruik maakt ook niet uit want je hebt onderhoud en krijgt gewoon nieuwe zolang je ze maar niet elke keer in een paar maanden op brand.

Als je het met SSD's niet meer red moet je naar flash systemen kijken, die doen in 1U 1,2 miljoen IOP/s
De doodsteek bij elke parity based raid is een write aktie kleiner dan de stripe, aangezien de parity berekend wordt over een stripe moet dan eerst de overige data van de stripe gelezen worden voor de parity berekend kan worden en worden weggeschreven.

Overigens denk ik dat er wel degelijk toepassing is voor dergelijke SSD's alleen misschien niet zo los verkocht. De meeste raid controllers zijn gewoonweg niet snel genoeg om 16 SSD's aan te sturen maar ook dan nog wil je geen single systeem waariin de SSD's zitten. Ik denk dus meer aan SAN toepassingen die zeer veel snelle storage kunnen leveren. De trend is nu eenmaal meer en meer data en we willen er ook steeds snellere toegang toe hebben, dus het zit in de lijn der verwachting dat dit de toekomst is. Gezien de uniekheid is de prijs nu echter nog heel erg hoog.

[Reactie gewijzigd door mxcreep op 15 januari 2016 09:26]

Er staat bij verkoop vooral aan datacenters.

Een hdd kost een fractie van de prijs en zelfs in raid is die voor veel toepassingen snel genoeg.
Een ssd is ideaal in een datacenter voor data die snel beschikbaar moet zijn, een grote database bijv. Echter is een ata poort dan gewoon te langzaam en moet je met pci poort werken die vele malen sneller is.

Ik zien dus een hele kleine markt voor een 13tb ssd drive, zeker tegen deze prijzen.
Daarom ook juist deze prijzen; de markt is te klein voor grootschalige productie :+
snelheidswinst op raid 1 ten opzichte van raid 0 ? wat voor raid systemen werk je ooit mee raid 0 is juist snelheidswinst, raid 1 is mirror en bied 0 snelheidswinst
RAID 1 biedt wel degelijk snellere reads. Al is dat wel afhankelijk van de implementatie. De data is beschikbaar op beide schijven, je kunt dus reads verdelen over schijven. Verschillende controllers en software implementaties doen dat dan ook.
Schrijven moet naar beide schijven tegelijk, dus daar haal je inderdaad geen winst.
Dit soort ssd's kun je ander prima als L2ARC cache gebruiken in ZFS met hardeschijven in je RAIDZ2 opstelling. O-)
Vervolgens virtualiseer je alle servers die je erop zou willen draaien en je hebt een lekker snel beestje. De ssd zal ook niet snel opbranden want L2ARC is een read cache niet een write cache.

Prijs technisch net iets boven het budget voor mijn nieuwe NAS. :+
De kans dat één van de 13 SSD's crasht is 13 keer zo groot. Verder gebruik je de 13 schijven niet redundant maar in een schema zoals RAID 5 zodat je +- 12GB (1 deel van de schijven is voor de pariteit) ter beschikking hebt i.p.v. 1 GB. Er hoeven maar twee SSDs tegelijk te crashen om alle data onbruikbaar te maken.
1. De kans dat een SSD crasht is relatief klein.
2. De kans dat 1 van de 13 SSD's crasht is technisch gezien niet 13 keer zo groot het is gewoon een evengrote kans.
3. echter de kans dat er 2 tegelijk crashen is daarnaast kleiner laat staan dat als je 2 schema's hebt om enigzins redundant te werk te gaan 2 schijven die precies hetzelfde zijn crashen nog kleiner is.
4. De kans dat er meerdere tegelijk crashen word steeds kleiner naarmate je meer schijven op neemt in je doem scenario.
Eh, dit hangt echt heel erg af van de oorzaak. Poederblusser, brand, hitte, water, zwavelzuur, radio activiteit, hoog frequente spanningspieken, hoge blindstroom, ...

Er zijn heel veel oorzaken te bedenken waarbij de kans op failure van minimaal 1 schrijf gelijk is aan de failure van minimaal 13 schijven tegelijk (op de zelfde locatie).

Schijven uit dezelfde productie batch samen geven ook een grotere technische failure correlatie dan twee uit verschillende productie straten of momenten samen.

Failover verspreiden over meerdere locaties kan verstandig zijn.

[Reactie gewijzigd door djwice op 14 januari 2016 22:23]

Klopt, zo zijn bijvoorbeeld gasblusinstallaties veelal fataal voor normale harddisks, door het plotseling optredende drukverschil.

Een voormalig klant heeft dat ooit gehad, waarbij de blusinstallatie afging en vervolgens zo'n 75% van alle disks in de serverruimte vervangen moesten worden. Gelukkig was er een goede off-site backup. Nadien bleek dat dit nadeel van gasblusinstallaties eigenlijk al bekend is, maar door de installateurs van dergelijke installaties wordt verzwegen.
In het artikel hadden ze het over datacenters, ik refereer daar denk ik niet expliciet genoeg naar. :z
Jammer genoeg is de 13 TB schijf 15 mm hoog, dus die zal in de meeste laptops niet passen. Het 6 TB model is 9,5 mm hoog, dus die past meestal wel.

Bron
Ik heb redelijk wat fantasie, maar wat je met 13TB in een laptop zou moeten?

EDIT:
  • 4k video kijken of bewerken op een maximaal 17" schermpje? Daar is imho toch echt een 55" scherm en desktop bij nodig.
  • Opslag van 260 dual layer Bluray's: dat is niet meer om te kijken, dat is archief cq. backup.
  • Het scheelt een losse NAS: correct, maar de klant die 13k uitgeeft aan een schijf maakt zich daar geen zorgen over :-)

[Reactie gewijzigd door jeroen_loeffen op 14 januari 2016 13:03]

Een kopie van je 260 dual layer Blu ray's? dat is 1456 uur aan MPEG-2 encodering op 20 Mbit/s.

Of 2765 dvd kopie's, op dvd kwaliteit is dat 10510 uur of 437 dagen aan video plezier!

Ohja edit, je moet je even bedenken dat we ook steeds nieuwere technologie krijgen. 4k en 8k resolutie..

Bijvoorbeeld;
Spider-Man 2002 2160p WEBRip FLAC 5.1 x264 - 71.46 GiB
The Bridge on the River Kwai 1957 2160p WEBRip FLAC 5.1 x264 - 99.61 GiB
Bloodline S01 2160p WEBRip DD5.1 x264 - 181.89 GiB

Moet je je voorstellen dat dit nog WEBrip's zijn en ze ge-encodeerd zijn maar als een film gemiddeld 75GiB gaat zijn en een serie seizoen 175GiB dan komen we uit op 173 films of 74 serie seizoenen in 4k..

Zo gek is dit nog niet hoor..

[Reactie gewijzigd door MvZeeland op 14 januari 2016 10:16]

Mja mja voor 4 en 8K zullen we wel h265 gebruiken ipv h264.
mja mja voor h265 is 5x tot 10x zoveel kracht nodig om te encoderen tegenover h264.. Dus voorlopig zullen we 4k releases nog wel gaan krijgen op h264.

edit; typo

[Reactie gewijzigd door MvZeeland op 14 januari 2016 11:05]

Wat is de decoderingskost ? Het encoderen mag wat langer duren sinds je het maar 1 of 2 keer moet doen.
Dat klopt maar soms lijkt het tussen release groepen wel een soort strijd om wie het snelste de release ergens van doet. En als 265 5 tot 10x langer duurt dan 264 dan vermoedt ik dat we nog een hoop 264 gaan zien..
Je moet wel 4k gebruiken waar het nut heeft.
Spiderman 2002 ... die techniek is zo oud dat 4k eigenlijk geen nut heeft en ik denk dat de source van the Bridge on the River Kwai al helemaal onzin is om op 4k te kijken.
Het gaat me niet zo zeer om de kwaliteit maar meer om aan te duiden met wat voor bitrate we te maken hebben.

Bloodline:
Bitrate 32100 kbps
Profile High@L5.1
Resolution 3840x2160 (16:9)
Framerate 23.976 frames/s
Ref. Frames 5
Audio English AC-3 5.1 @ 640kbps

En houd in gedachten dat dit WEBrips zijn, deze hebben dus al een encodering door Netflix/Amazon gehad! Als je dit RAW pakt;
4096 x 2304 x 24 x 12 / 8 / 1024 / 1024 = 324MB/s

[Reactie gewijzigd door MvZeeland op 14 januari 2016 11:18]

Toch zul je op een laptop schermpje van 15" weinig plezier beleven van je 4K kwaliteit. Daarvoor zul je grotere schermen mee moeten nemen.

Maar wellicht handig als draagbare video bibliotheek om bij vrienden op de bank met een 100" 4K scherm thuis een filmpje te pikken... :+
Hetzelfde als in een desktop.
Scheelt een losse NAS :+
Over een paar jaar is dat denk ik niet zo vreemd meer hoor. Deze opmerking komt altijd naar boven als er een nieuwe capaciteit gerepresenteerd is. Zelfde als mensen die zich 10 jaar geleden afvroegen wat je met 1TB zou moeten... Alles wordt alleen maar groter. Denk aan 4K video's. Buiten het feit dat steeds meer media streaming is betekent niet dat er lokaal helemaal niks meer opgeslagen zal worden. Binnen een paar jaar kan elke gemiddelde videocamera gewoon in 4K schieten waar nu Full HD normaal is.
Dus tegen de tijd dat zulke SSD's betaalbaar zijn, zijn ze de normaalste zaak van de wereld.
Voor bijna alles waar.
Toch plaatste ik gisteren bij die EVGA voedingen zelf die opmerking.
http://tweakers.net/nieuw...8124176;8124313#r_8124176

1600W voedingen; dat is hetzelfde als jezelf afvragen of een Hummer nou wel zo'n goed idee is voor stadsverkeer...
HDDs zitten nu rond een limiet van 10TB in 3,5"-formfactor. Fabrikanten laten zien dat met SSD meer mogelijk is.

Op dit moment nog prijzig, maar de capaciteit van SSDs groeit sneller dan van HDDs en de prijs zakt ook sneller.

Voor de server markt worden SSDs aantrekkelijker, zowel qua capaciteit als qua prijs.
Voor de server markt worden SSDs aantrekkelijker, zowel qua capaciteit als qua prijs.
Ik vraag me echter af hoe het zit met levensduur.
Belangrijk is in hoeverre de SSD's zelf deze failures kunnen voorspellen en controller tijdig kunnen waarschuwen. SCSI/SAS disks doen dat ook, zodat je de disk al kan vervangen voordat deze helemaal uitvalt.

SSD's hebben net als HDD's reserveblokken. Als deze gaan oplopen moet je in een enterprise situatie gaan vervangen. Sommige situaties wil men dat zelfs vóór zijn, maar dat is gelijk aan het preventief vervangen van HDD's.
Daar ga ik eigenlijk wel vanuit in een Enterprise omgeving.

Maar waar ik ook op doel is de TCO, als ze significant minder lang meegaan zijn ze uiteindelijk een stuk duurder dan HDDs.
Maar je hebt ze ook minder lang nodig omdat ze sneller is. Waar een read met had bijv. 5 seconden zou duren duurt het met een ssd bijv. nog maar 1 seconde.

Ze gaan dus niet langer mee maar je kan er wel in minder tijd meer mee doen :)
Dat dacht ik dus ook; niet alleen is SSD sneller en zuiniger, binnenkort ook groter. Daarmee met recht de opvolger van HDD.
Als ze op datacenters mikken lijkt het me waarschijnlijk dat er ook een versie met een SAS interface gaat komen.. Zoveel verscil zit er niet in de electronika.
Het valt me wel op dat het in dit geval een beetje zinloos is om 13TB op een SATA-600 kabeltje te prikken.
Nee dat is het niet aangezien de sequentiële snelheden niet boven de SATA3 spec liggen. Bovendien zijn real life scenario's waarbij sequentiële snelheden belangrijk zijn zeer zeldzaam en zijn de random read/write snelheden veel belangrijker. En die liggen ver onder de SATA3 spec.
Kan niet wachten tot dat 4TB+ betaalbaar wordt. Vooral in gebruik van NAS systemen. Minder stroom verbruik, minder ruimte (fysiek), sneller en geruisloos :)
Sneller voor een NAS? dan vraag ik me af wat voor een netwerk je gaat aanleggen. gigabit satureer je zo met een gewone nas met ouderwetse schijven
Momenteel misschien niet. Maar we moeten vooruit kijken he :) . Zal wellicht nog wel even duren voordat 10GBit bij de consument ligt, maar tegen die tijd zullen de hdd's wellicht ook vervangen zijn door ssd's.

Daarnaast heb ik 2 gbit lan kabels in me server. 1 direct naar het thuis netwerk via glasvezel (directe verbinding) en de andere in het bedrijfsnetwerk. Dat kunnen de HDD's lastig bijhouden, niet dat het nodig is maar toch ;)
het is net als met sneller internet. het is allemaal leuk en aardig dat het kan. uiteindelijk zijn er een hoop andere zaken die de boel vertragen. Zoals HDD/SSD. Zolang dus in de interface niets verandert maakt het dus weinig verschil.

En zelfs als het is aangepast, dan nog vraag ik me af of je als HTK gebruiker ooit het verschil gaat merken. Op het moment is 1gbit netwerk al ruimschoots voldoende.

[Reactie gewijzigd door Lednov op 14 januari 2016 12:29]

10gb ethernet dan he 😉

Kan er ook wel vanaf als je dit SSD's in je nas zet.
Als dit gemeengoed gaat worden is er een grote kans dat de hdd vaatwel gezegt word en we op tape en solid state verder gaan

Probelemen diennu met datadichtheid spelen bij hdds zijn bij ssds voorlopig nog niet aan de orde

[Reactie gewijzigd door aadje93 op 14 januari 2016 09:32]

Magnetische opslag zal uiteindelijk gaan verdwijnen denk ik. De optische media wordt tegenwoordig steeds groter. 100GB discs zijn voor particulieren al enige tijd te koop en ook BD's met lange levensduur zijn verkrijgbaar. De techniek om naar 1TB discs te gaan zal ongetwijfeld al bestaan. Ik heb het dan over WORM media.
Reguliere backups zullen uiteindelijk door SSD's worden overgenomen.

[Reactie gewijzigd door Fairy op 14 januari 2016 10:27]

Niet voor langdurige opslag. Een SSD is daar niet helemaal geschikt voor. HDD's en Tapes gaan in het meest gunstige geval bijna 70 jaar mee (alhoewel 30-40 realistischer is). En een SSD moet je verplicht aan het stroom houden omdat de cellen in relatief korte tijd hun data verliezen als dit niet ververst wordt. (na 2 maanden kon dit al gebeuren als ik het me goed herinner)
Debunked:
Wear is one of the risk factors for SSD data loss at high temperatures, but because it’s nearly impossible for an average user to wear out an SSD, the danger is very small, Cox and Smith said. Even a worn-out SSD would still go a year without data loss, according to the original presentation, and that’s while being stored at 87 degrees Fahreneit (ongeveer 30 graden C) the entire time.
Dus als je hem op 30 graden laat liggen, zonder stroom, kan je met een (oude) SSD nog goed aan je data na een jaar.

bron: Hiezoooooo - PCworld
Het zal op de nieuwe generaties SSD's allicht een stuk langer zijn dan 2 maanden, maar daar heb ik nog geen resultaten van gezien(zal ook nog wel even duren). Maar vooralsnog wordt de data in de cellen over tijd corrupt, 1 van de negatieve aspecen van een SSD. Een HDD heeft daar theoretisch 70 jaar voor nodig. Wil je bij een SSD zekerheid hebben dien je het aangesloten te laten.
Maar ÉÉN jaar ? Dat is toch helemaal niks!
Ik wil over 5 of 10 jaar nog bij mijn backup kunnen.
Wat ik zeg is reguliere backups. Die worden over een bepaalde periode opnieuw beschreven. Meestal zijn dit backups die een maand worden vastgehouden op een SAN/NAS en zijn dus ook online. De langdurige opslag zou richting optische media kunnen gaan. Deze nemen veel minder ruimte in beslag vergeleken met tapes, zelfs met de huidige datadichtheid. In de toekomst zal optische media nog groter worden naarmate lasers worden uitgevonden met nog fijnere precisie.
Waarom? Een HDD (de data zelf) is veel beter beschermed tegen de omgeving of eventuele elementen en ook reguliere backups worden nog wel eens gearchiveerd. Optisch is ook geen al te serieus alternatief, dan moet je de CD/DVD/BD zelf gaan drukken, aangezien de levensduur van een gebrande optische disc in het meest gunstige geval slechts enkele jaren is.

We hebben het over een backup, de snelheid hiervan is niet zo heel erg van belang. Die dingen draai je buiten kantoortijden.

Als SSD's eventueel HDD's zouden gaan vervangen voor backups zijn we al zo veel verder dat de kans vrij groot is dat de SSD vervanger al in gebruik is of om de hoek staat. Ondertussen gaan MS, Google en andere grote techreuzen lekker verder met het backuppen naar antieke tape drives.

[Reactie gewijzigd door batjes op 14 januari 2016 14:27]

Ken je de M-Disc al? Die zijn gebouwd voor permanente opslag a 1000 jaar.

Die zijn met een normale brander te beschrijven en bestaan in DVD en BD variant tot 100GB op dit moment en zijn voor archivering juist ideaal.

Harde schijven zijn helemaal geen media om te archiveren, het is een apparaat, ten tweede is de magnetische laag niet eeuwig houdbaar.

Ik heb in het verleden wel eens een aantal hele oude harddisks proberen te lezen (MFM 20 en 30MB Atari ST schijfkabinetten). De data was (anno 2005) praktisch niet meer leesbaar. Daarnaast is ook de hardware na zoveel jaren moeilijk te verkrijgen.

Een optische disc is over vele generaties nog te lezen, omdat het geen hardware aan gekoppeld zit (die kapot kan gaan). Als men uitleest met een laser met de juiste golflengte en het bijbehorende protocol (zoals redbook-UDF-ISO9660 bij CD en varianten) is de data geoon weer terug te halen. Daarnaast zullen BD spelers over vele generaties nog altijd bestaan, al is het maar in het museum. Bij een harddisk zit je vast aan die ene printplaat en motor die er aan vastzit. Zo'n motor is na 20 opslag vaak niet meer voor of achteruit te krijgen en vervangen is niet mogelijk zonder de platters te verwijderen.

[Reactie gewijzigd door Fairy op 14 januari 2016 14:41]

De M-disc kende ik inderdaad nog niet :) Ik ging van normale discs uit en die gaan niet al te lang mee. Maar voor de HDD, daarom zette ik de data zelf ook tussen haakjes. De levensduur van het magnetisme op de plates in de HDD (tapes/casette's) e.d. is theoretisch zo'n 70 jaar(zolang bestaat het nog niet), waarna het ook met speciale apparatuur niet meer uit te lezen is, of de techniek eromheen net zo lang meegaat is dan een tweede. Maar die 30-40 jaar is wat realistischer en moet dat in goede omstandigheden wel overleven.

M-disc is voor langdurige backups een goed alternatief op de HDD, regulier zal de HDD of Tape denk ik nog voor de komende tijd de beste oplossing blijven.
Nou ik zou ook geen 10 jaar een hdd in kast gooien als ik jou was met de huidige dichtheid. Dan heb je echt wel corruptie van data.
Data dichtheid regeld de HDD, je OS/applicatie/game e.d. hebben hier niets mee van doen. OS verteld disk > schrijf data (hier of daar) weg, HDD regelt de rest zelf.

Als je de aansluiting nog hebt -eventueel via USB-, kun je HDD's uit het vorige millenium zonder problemen nog aansluiten (en gebruiken) op de allerlaatste PC.
Data dichtheid regeld de HDD? Platter dichtheid wordt geregeerd door de techniek en niet specifiek de HDD. Eerder niet dan wel het is makkelijker een kleine platter te gebruiken dan een firmware te schrijven die een deel niet gebruikt. Hoe hoger de dichtheid van een platter hoe kleiner de magnetische lading kan zijn om de bit in zijn stand te houden. En nee ik heb het woord applicatie/OS/game niet eens genoemd en een HDD regelt niet spontaan out of the blue een nieuwe charge van de bit.

Na verloop van tijd verliezen ook bits in HDD's hun magnetische kracht oa door thermische werking en komen ze vanzelf in ongeladen vorm te staan. Tuurlijk zitten er technieken in om het tegen te gaan maar als ze lang genoeg niet gebruikt zijn ga je wel degelijk bits missen en ja bij moderne schijven gebeurd dit eerder dan op de oude schijven die hebben een stuk grotere oppervlakte om de lading vast te houden. Lagere dichtheid en het missen van bv PMR.

Dus nee lange termijn storage van HDD's lijkt leuk maar ik zou het niet aanbevelen.

[Reactie gewijzigd door Hakker op 14 januari 2016 16:00]

De smeerolie in de motor verouderd als een schijf stil staat. Je kunt er echt niet vanuit gaan dat een schijf die 10 of 20 jaar heeft stilgelegen nog op wil starten.

En waar Hakker op doelt is waarschijnlijk dat de data dichtheid van de HDD's zo groot aan het worden is dat de bit's die op de hdd opgeslagen staan zo klein aan het worden zijn dat de magnetische velden na verloop van tijd wegvallen.

[Reactie gewijzigd door NBK op 14 januari 2016 16:01]

En minder gezeur mbt defecten dan de hedendaagse grote harddisks. Tegenwoordig begint toch echt wel duidelijk te worden dat die hele kleine bitjes op harddisks het lastiger maken om standaard schijven betrouwbaar te houden.
op gewone hdd's heb ik smart errors gehad en de schijf op tijd kunnen vervangen (met een enkel bestand wat corrupt was), met ssd heb ik maar 1x een probleem gehad, in een klap 64GB kwijt. Ik gebruik SSD dus nog steeds alleen om op te starten, maar er gaat GEEN data op die ik niet kwijt wil raken...
Daarom moet je een backup hebben. Je moet niet wachten op smart errors...
Daar heb je backups voor toch? ;)
Voor hetzelfde geld had de controller op je HD ook de geest kunnen geven. Was je 4 TB aan data kwijt in 1 slag. Het is ook een beetje raar. Het lijkt dat juist omdat oppervlakteproblemen bij harde schijven zo legio zijn, ze makkelijk vervangbaar zijn.
Alle failures aan HDDs die ik heb meegemaakt, zijn controller failures geweest. Mits je je HDD goed behandeld, kom je mijns insziens dus weinig oppervlakteproblemen tegen.
Vreemd ik heb al "heel veel" schijven gerecovered en het waren bij mij bijna altijd oppervlakteproblemen (Reallocated Sectors Count, Offline Uncorrectable, ...).
De reallocated sector count heeft in mijn ervaring eigenlijk alleen invloed op de snelheid en de integriteit van de data. Het compleet ontoegankelijk worden van de disk, wat bij mij het meest voorkomt, is een issue wat daar mijns insziens los van staat.
Het zijn 2 verschillende issues maar ik classificeer beide toch als "HDD failures". De integriteit van mijn data komt zowiezo op de eerste plaats.
zelf ben ik ook nog niet dol op SSD's om dezelfde reden.
Ik gebruik nu zelf al een poosje crucial BX100 SSD's als boot/applicatie schijf en tot dusver daar nog altijd geen issues mee gehad. Wel maakt mn PC netjes backups naar een "server" die gewoon op traditionele disks draait. en op mn echte "desktop PC" heb ik nog een flinke RAID 0 array voor foto/video werk tot de grote SSD's betaalbaarder worden. Maar ook daar geld weer dat de inhoud wel nog op een extra machine staat voor het geval die array er een keertje uit knalt. (want dat gaat een keer gebeuren. sommige van die disks zijn intussen ongeveer 10 jaar oud, maar zolang het goed werkt zie ik tot nu toe nog geen reden om ze te vervangen.)
Probleem voor zulke grote opslagmediums is dat er minder vraag naar is van de gemiddelde consument: die heeft na jaren nog steeds genoeg aan 1TB. Deels daarom blijf je volgens mij zo een prijsverschil zien, ook bij HDDs, wanneer je naar 3-4 TB of meer gaat.
Ik ben wel benieuwd welke consument 13TB aan opslag echt nodig heeft.. En er dan ook nog eens zoveel geld voor over heeft 8)7

edit: ik doel ook voornamelijk op 13TB aan ssd-opslag, 13TB aan 'normale' opslag heb je tegenwoordig 'zo' vol

[Reactie gewijzigd door FunkyBro op 14 januari 2016 09:50]

Als je veel met video werkt (helemaal als het 4k materiaal met weinig compressie is) wil je als consument al je video ook wel op een SSD hebben hoor. Gamers zullen het ook wel fijn vinden om al hun games gewoon op een SSD te kunnen gooien. Mensen met interesse in een 13TB SSD zijn er zeker wel, mensen met interesse in een 13TB SSD tegen $1 per GB.... wat minder.
Maar die prijs gaat wel dalen de komende tijd, en wie weet is het tegen de tijd dat er een opvolger uitkomt een mooie consumenten SSD.
Je hebt gelijk, ik heb er al een kleine nuance bij geplaatst. Tuurlijk, ik heb ook het liefst al m'n bestanden op een ssd staan en niet alleen het OS of veel gebruikte bestanden, zelfs de kleinste snelheidswinst is fijn. Maar ik denk dat er bar weinig consumenten zijn die het voor die prijs willen..
ik hem momenteel totaal 12TB totaal
1tb=laptop
2x1TB= extern
2+3+4TB=9TB in mijn pc

dus totaal 12TB

hiervan heb ik er ongeveer al 7TB gebruikt.

waarvan 400GB voor mijn VM's zijn (duplicate data)
Misschien een kleine nuance op mijn vraag: welke consument heeft 13TB aan ssd-opslag echt nodig.. Ik kan me goed voorstellen dat je tegenwoordig met van alles en nog wat aan bestanden 13TB vol kan krijgen.. alleen al met de toegenomen bestandsgrootte van films en series in 4K.

Voor VM's is een ssd natuurlijk zeker een meerwaarde, maar zoals je al aangeeft; daarmee kom je natuurlijk nooit aan 13TB. Nu is een ssd in veel gevallen heel fijn om te hebben, maar is zoveel aan ssd-opslag nodig.. en voor die prijs.. :?
nee, het is niet nodig, maar zo zijn computers over het algemeen niet nodig.
ik snap je punt maar er is geen reden om niet door te gaan met de technologie.
de opslag zou wel handig zijn maar de prijs is het minpunt.

als de prijs lager dan 1000 euro was, zou het wel betaalbaar zijn
13K euro is nog veel te veel
normale 13 TB heb je zo vol maar SSD opslag niet? waarom zou SSD opslag opeens anders zijn dan "normale" opslag?
Nee zo bedoel ik het niet. 13TB aan opslag in z'n algemeen heb je zo vol.. Dus 13TB aan ssd-opslag ook. Ik doel op het feit dat je het zo vol hebt, maar het aan ssd-snelheid niet nodig hebt daar je ook prima al die bestanden, tegen veel lagere kosten, op een normale hdd kwijt kan.
Mijn gok is dat dit gewoon een showproduct is. Bedrijf komt in het nieuws etc. Grote kans dat het nieteens zoveel kost om te ontwikkelen en dat ze er weinig van verkopen is dan geen probleem. Mensen die het kopen hebben het of écht nodig of ze hebben gewoon geld teveel en kopen altijd het beste wat er te koop is zonder na te denken over wat ze nodig hebben.
SSD's beginnen nu toch echt de conventionele HDD schijven te eclipsen. Natuurlijk zijn dit soort schijven meer paradepaardjes dan echt functionele productieschijven (alhoewel ze natuurlijk wel gewoon werken)

Het is knap om te zien dat bedrijven zo snel erin zijn geslaagd om SSD's zo ver te ontwikkelen.
Voor de consument is het natuurlijk interessanter om de consumentenlijnen in de gaten te houden.
In 2005 ??
Het linkje verwijst naar een tweakers-bericht uit mei 2015!!

16:13 : inmiddels is de text door de redactie aangepast.

[Reactie gewijzigd door masterJM637 op 14 januari 2016 16:14]

De Samsung 850 evo 1tb kost op het moment van schrijven +/- 324 euro.
13 x 324 euro kom ik rond de 4212 euro uit.
Zie: pricewatch: Samsung 850 EVO 1TB

Nu snap ik dat er wat research aan voorafgaat.. dat al dat geheugen ook in een enkele 2,5" behuizing gepropt moet worden en er iets aan de controller gewijzigd moet worden. Maar euh.. dat verschil tussen 13k en 4k is euh.. best hoog. Iemand hier een verklaring voor (serieus benieuwd naar.. heb het gevoel dat ik iets over het hoofd zie)
Ik denk dat de materiaalkosten veel lager zullen zijn dan ¤ 324. Fabrikanten zijn tenslotte geen liefdadigheidsinstellingen.
Wat bedoel je precies? De prijs van 324 euro haal ik als consumentenprijs uit de pricewatch ..
Ja, maar het kost de fabrikant geen ¤324 om de drive te maken en te versturen. Er zitten flinke marges op. Bij alles wat je koopt moet je er van uit gaan dat de adviesprijs minstens 2x zo hoog is als de productie- en transportkosten.

Als je ziet dat een winkel 50% of zelfs 70% korting kan bieden en zelfs dan nog winst maakt, weet je dus ook dat je sowieso 50-70% te veel betaalt voor het product in kwestie. De gouden tijden van ongebreidelde winsten voor retailers ligt ver achter ons. Het is vandaag de dag moeilijk om daarna nog een fatsoenlijke boterham te verdienen.
Dan blijft mijn punt toch juist staan? Dat ik die exorbitant hoge prijs niet kan verklaren voor een 13TB SSD of ?
Was het maar alleen materiaal :+ we vergeten even rnd, marketing, firmware ontwikkeling, controller, testen, ontwerpen, certificering etc?
Nieuwer type geheugen?

15nm mlc-geheugen
http://www.anandtech.com/...128gbit-mlc-nand-die-size

[Reactie gewijzigd door Antarloka op 14 januari 2016 10:29]

Ooit was een PC met een floppy van 360Kb meer dan genoeg voor de meeste mensen.....

Laat staan wat we daarvoor hadden!
Voor de goede orde: MSX is hoodzakelijk als een homecomputer in de markt gezet, niet als een personal computer.

Ik heb ook nog een ZX-81 met 1 Kb, en niet te vergeten een calculator met nog minder geheugen.
Dat was toen ook niet genoeg. Of had jij destijds alles op één floppy staan? Ik had bakken vol...
Als ze mikken op datacenters dan zouden ze een SAS verdie uit moeten brengen ipv een SATA versie.
In zowat elke server waarin ik ooit gekeken heb was de SAS aansluiting namelijk de primaire aansluit methode.
Sata kan ook op sas kaarten 😉
Ik snap dat ze eenzelfde soort connector delen maar toch is er een verschil zoals beschreven in dit artikell
Er zijn uiteraard verschillen, maar tis wel backwards compatible.
SSD's zijn niet geschikt voor permanente backup. Na verloop van tijd kan er gegevensverlies optreden, zeker als de drive lange tijd zonder stroom komt te staan. Voor consumenten zijn dit soort drives helemaal niet interessant.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True