Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 160 reacties

Seagate komt begin volgend kwartaal met een nieuwe harde schijf met een opslagcapaciteit van 6TB. De schijf zal bestaan uit zes platters van elk een terabyte, waar de concurrerende 6TB-drive van Western Digitals Hitachi uit zeven platters bestaat.

SeagateSeagate brengt al hdd's met 1TB-platters uit en bij de komende hdd voor het hogere segment, plaatst de fabrikant voor het eerst zes van die platters in een enkele behuizing. Details gaf Seagate nog niet bij de bespreking van de kwartaalcijfers over zijn 6TB-schijf.

Wel deed het concern meer aankondigingen. Seagate gaat bijvoorbeeld voor meerdere drives die de komende maanden uitkomen gebruikmaken van zijn smr-technologie. Met deze techniek is de opslagdichtheid te vergroten door gebruik te maken van enigszins overlappende datagebieden. Met smr komt de mogelijkheid binnen handbereik om de datadichtheid met 25 procent te laten toenemen, wat in praktijk resulteert in een toename 1TB naar 1,25TB per platter.

Daarnaast blijft de fabrikant naar eigen zeggen investeren in zijn hamr-technologie. Die techniek, die kleinere magnetische domeintjes en dus hogere opslagcapaciteiten mogelijk maakt, wil Seagate dit jaar gebruiken voor drives met hoge capaciteit, maar concrete aankondigingen deed Seagate nog niet. Wel verwacht de hdd-fabrikant dat de gemiddelde opslagcapaciteit per geleverde drive dit jaar de 1TB gaat overschrijden.

Western Digital was Seagate overigens voor met de introductie van 6TB. De He6-drives van WD's HGST zijn met helium gevuld om de warmteontwikkeling door luchtweerstand in de behuizing te verminderen.

Moderatie-faq Wijzig weergave

Reacties (160)

Waar ik nou benieuwd naar ben: Waar is het einde in de groei van HDDs ? En wanneer is het kantelpunt dat het goedkoper word om SSD's te gebruiken.
Waar ik nou benieuwd naar ben: Waar is het einde in de groei van HDDs ? En wanneer is het kantelpunt dat het goedkoper word om SSD's te gebruiken.
Waarom moet er een kantelpunt zijn? SSD en HDD hebben een totaal ander toepassingsgebied. HDD dient zuiver voor opslag en SSD meer voor snelle IO operaties. De 2 gaan gewoon blijven naast mekaar bestaan, ze zijn geen concurrenten van mekaar.
Dat is dus de vraag. Als SSD's groot genoeg zijn om in alle lokale opslag te voorzien, en magnetische opslag alleen in de cloud worden toegepast, dan is het nog maar de vraag of de HDD form factor van magnetische opslag blijft bestaan.

Ik kan me goed voorstellen dat er een technologische fusie komt van tape libraries en harde schijven: massale juke boxes met duizenden platters en tientallen leesstations.
Jij gaat je toekomstige collectie 4k-films op SSD zetten? De meesten niet, de snelheid van een harde schijf is ook volkomen adequaat voor die toepassing. Sterker: De snelheid van een harde schijf is adequaat voor heel veel toepassingen, sequentieel lezen/schrijven komt veel voor.

Dat iedereen op een bepaald moment zijn besturingsysteem op SSD zal zetten lijkt me evident. Echter, het zal volledig van de toepassingen afhangen waar de computer voor gebruikt wordt of een harde schijf wel of geen meerwaarde heeft. Daarom zal een schijf zeker niet enkel voor de cloud bestemd zijn.
Ben ik niet met je eens. Op een gegeven moment zullen SSD's zowel sneller als groter worden. Een SSD van 1TB is op moment van schrijven ¤ 479,99. Een SSD van 2TB zal niet lang op zich laten wachten. En de SSD van 3TB? En 4TB?

Geef het drie jaar, misschien ietsjes meer en kijk dan nog eens. Misschien verklaar je me wel voor gek als ik dan een HDD van 8TB koop terwijl er SSD's van 4TB beschikbaar zijn.
De denkfout die je maakt is dat de wet van Moore op harde schijven ten einde is, en op SSD's nog onbeperkt van toepassing is. Beiden zijn onwaar. Hardeschijffabrikanten hebben momenteel een grens bereikt. Daarom groet de dichtheid voorlopig even niet. Dus SSD's naderen schijven.

SSD-fabrikanten kunnen echter niet gerust slapen. Een kleiner productieproces, de motor achter de gehele computerevolutie, heeft voor SSD's alleen een heel nadelig effect: De levensduur daalt. SSD-fabrikanten kunnen daarom niet ongestraft overstappen op kleinere procedés.
[...]

Waarom moet er een kantelpunt zijn? SSD en HDD hebben een totaal ander toepassingsgebied. HDD dient zuiver voor opslag en SSD meer voor snelle IO operaties. De 2 gaan gewoon blijven naast mekaar bestaan, ze zijn geen concurrenten van mekaar.
Natuurlijk hoeft geen kantelpunt te zijn... maar die is er wel! ;)
De opslagcapaciteit van HDD's groeit (procentueel) nauwelijks (we zitten al een jaar of 5 op 2 a 4GB als max in een 3.5" enclosure); die van SSD's groeit hard.
De prijzen van HDD's gaan (per GB) niet zo snel meer naar beneden, die van SSD een stuk sneller.
De HDD's worden nauwelijks of niet sneller meer, de laatste jaren. De SSD's wel.

(Dus) is er wel degelijk een kantelpunt en ze zullen zeker niet naast elkaar blijven bestaan. De HDD zal over een jaar of zeven net zo ouderwets aanvoelen als een floppy drive nu.

Dit jaar nog zullen de 500TB 1U apparaten op de markt verschijnen. Misschien al 1PB in 1U, dit jaar. Natuurlijk zijn die nu nog rete-duur, maar de prijzen (op middellange termijn) gaan bij SSD dus (procentueel gezien, en per GB) harder naar beneden dan bij HDD.

[Reactie gewijzigd door kimborntobewild op 31 januari 2014 17:37]

Het punt waarop het goedkoper wordt om een SSD te gebruiken, dan HDD, als consument is lastig in te schatten. Je bent namelijk afhankelijk van meerdere factoren.

Ten eerste, de beschikbare prijs / GB welk je betaalt. Deze is voor SSD's t/m vorig jaar gedaald, maar die daling heeft een stop laten zien. Waardoor de gedachte dat in 2013 de prijs / GB geëvenaard zou gaan worden, niet is uitgekomen. En het lijkt erop dat dit in 2014 ook niet het geval zal gaan worden momenteel.

Een tweede issue is schijfcapaciteit. SSD's van 6 TB blijven nog even uit ons bereik, zeker als gemiddelde consument. Dus zul je om dezelfde capaciteit te behalen, meerdere schijven moeten inzetten. En meerdere schijven gaat weer gepaard met een toename in energieverbruik, toename in benodigd aantal cases om dat aantal schijven te huisvesten, etc.

De vraag wanneer het voor ons als consument goedkoper is een SSD te gebruiken, is echter ook misschien niet langer de meest relevante vraag. We gaan namelijk steeds meer toe richting cloud computing, streaming diensten, on demand library's, etc. Offline opslag wordt steeds minder vaak een vereiste. Het vullen van een 6 TB schijf wordt dan ook niet een vanzelfsprekend iets. Terwijl de snelheid welk een 512GB SSD'tje je biedt de overhand krijgt tegenover de beperkte opslagruimte.

Binnen enkele jaren denk ik dat de HDD voor de gemiddelde consument dan ook grotendeels uit beeld verdwenen zal zijn. Enkel een klein aandeel welk bluray discs of rips opslaat, of zich bijv. veel met video editing bezig houdt als hobby, zal buiten professioneel gebruik om nog gebaat zijn bij dit soort schijven. Buiten dat om, heeft het weinig praktisch nut.

Het voortbestaan van de HDD zal dan ook met name afhankelijk zijn van de vraag door bedrijven, data centers, etc.

[Reactie gewijzigd door psychodude op 31 januari 2014 13:29]

De groei van afgelopen 7 jaar is er nu wel een beetje uit:
2007 - 1TB schijf
2008 - 1.5TB schijf
2009 - 2TB schijf
2010 - 3TB schijf
2011 - 4TB schijf
2013 - 6TB schijf

Ter illustratie, eind 2013 kocht ik een 4TB HDD voor ~¤150 en een 1TB SSD voor ~¤500, Begin 2008 kocht ik een 16GB SSD voor ~¤290, een 500GB HDD koste toen ~¤100. Met andere woorden, is de prijs per TB in de afgelopen 5 jaar voor een HDD ~5x zo goedkoop geworden, terwijl dit voor een SSD ~36x zo goedkoop is geworden...

Het duurt dus nog wel even voordat de SSD goedkoper is per TB dan de HDD (5-10 jaar), maar de kans is groot dat de HDD al veel eerder 'obsolete' is, er zitten een groot aantal nadelen aan een HDD, waaronder hoger stroomverbruik, mechanische onderdelen, geluidsproductie, schokgevoelig, formaat, snelheid, etc. En dat de capaciteit van de HDD/SSD de consument zover vooruitstreeft dat deze geen/weinig baad heeft bij een grotere HDD en genoegen neemt met een kleinere snellere) SSD voor hetzelfde geld.

Programma's nemen niet het meeste ruimte in beslag, dat is data, voor consumenten in veel gevallen films/series. Een 1080p film heeft 2.25x zoveel pixels als een 720p film, echter is het bestand vaak slechts 60% groter. De 2160p wat nu geïntroduceerd wordt met uhd TVs/monitoren heeft 4x zoveel pixels, maar is slechts ~3x zo groot als bestand. Tel daar bij op de nieuwe compressie technieken (hevc, 2x zo goede compressie als h264). In 2005 kregen we de eerste 1080p TVs, in 2013 de eerste 2160p (of 4k) TVs, voordat dit algemeen geaccepteerd is zoals 1080p zitten we ook in 2020+... 2160p hevc bestanden zijn dan waarschijnlijk slechts 2.5x zo groot als de huidige 720p h264 bestanden, maar schijven zijn dan al rustig 4x-5x zo groot als nu...
Na het lezen van: nieuws: Onderzoek: harde schijven van Hitachi zijn het betrouwbaarst - zet ik mijn vraagtekens bij aanschaf van Seagate schijf
Je moet niet teveel aantrekken van dat onderzoek. Het is eigenlijk meer een rapportage dan een onderzoek en de omgeving waar de schijven in draaide is een redelijk specifieke omgeving.

Je moet even zoeken naar plaatjes van de backblaze pod en hier zie je al snel in op wat voor manier de schijven vast zitten. In normale systemen zitten schijven of vast geschroefd of vast geklemd, echter in de backblaze pod's van het betreffende bedrijf backblaze is dit niet het geval en zitten alle schijven gewoon los in de behuizing waar ze nog redelijk in kunnen trillen.
Daarnaast zitten er 48 disks in 1 server/chassis zonder enige demping van de trillingen.

Wat eigenlijk hier uit de rapportage komt is dat seagates sneller stuk gaan bij dergelijke trillingen.

Nu heeft backblaze in nieuwere versie van de pod's wel wat upgrades gedaan om het trillen tegen te gaan, maar ze zitten nogsteeds niet zo goed vast als in een gemiddelde PC of Server.

Hier een blogpost over hun pod 3.0 :
http://blog.backblaze.com...brations-storage-pod-3-0/

Verder komt uit onderzoek van het franse hardware.fr naar boven dat in normale omstandigheden juist de seagates de minste rma's hebben en daaruit zou je kunnen opmaken dat ze dus de minste uitval hebben :
http://www.hardware.fr/articles/911-6/disques-durs.html

[Reactie gewijzigd door nightwing op 31 januari 2014 13:01]

Mijn ervaringen zijn dat seagate schijven het eerder begeven dan enkele andere merken.
Ik heb hier nog Quantums draaien van een jaar of 6/7 oud (7*24 in bedrijf) zonder issues, waarbij seagates het meestal net iets meer dan een jaar uithouden. meestal gaan ze een paar weken NA de garantie kapot.
Alleen maar mijn ervaringen, YMMV
En bij mij gingen al m'n 4 en 6GB Quantums juist stuk en heb ik nooit meer Quantums gekocht. Persoonlijke ervaringen zeggen vrijwel helemaal niets over de kwaliteit van een merk.

De laatste jaren heb ik geen harddisk crashes meer gehad. Momenteel draait er een 250GB SSD en een 4TB WD in mijn mediacenter/server en daar kan ik voorlopig nog wel even mee uit de voeten. Mijn persoonlijke video/foto/programming collectie is nu zo'n 0,5TB dus die kan ik daar nog makkelijk op backuppen. In m'n desktop zit een 2x1TB samsung die al 4 jaar in raid draaien zonder problemen.

Het gaat niet zo snel meer met de HD vergeleken met meer dan 10 jaar terug toen HDD's elk jaar verdubbelden in opslag capaciteit, Ook is de noodzaak voor meer opslag voor thuisgebruik aardig afgenomen. Ik denk dat ik over een jaar of vier gewoon 4TB SSD kan kopen voor de prijs van 250GB nu en daar dus op over zal stappen.
hier een uitleg over waarom dat onderzoek niks zeggend is voor huidige HDD's van welke fabrikant ook, en zeker niet voor de consumenten markt.

http://www.enterprisestor...not-to-do-research-1.html

de geteste seagates waren bijvoorbeeld allemaal veel ouder als de schijven van de andere fabrikanten. de oudste al 8 jaar. in een 24/7 omgeving is dat HEEL oud voor een consumenten schijf.
Het ontwerp is 8 jaar oud. De gemiddelde seagate 1.5TB schijf in het onderzoek was 3.8 jaar oud. De 1 TB Western Digital schijven waren gemiddeld een paar maanden ouder, en hadden desondanks een véél lagere failure rate.

En als we naar de 2 schijven kijken met dezelfde ontwerpleeftijd (2010-12-14), dan zien we dat de Hitachi's een annual failure rate hebben van 0.9 en Seagate van 120%.

De feiten zijn keihard: Seagate schijven zijn grosso modo onbetrouwbaar.
je spring opnieuw te vroeg naar conclussies.

dit MODEL seagate schfijf was onbetrouwbaar. sterker nog dit model heeft een door seagate erkend probleem.
Dat was een barracuda .11 he die daar getest waren, deze huide zijn .14 en daarvan zijn zowel thaise als chineese modellen. De thaise schijven zijn concurrent aan wd en hitachi jammer dat die niet getest zijn.
De resultaten van dat onderzoek komen overeen met mijn gemiddelde ervaringen met diverse modellen gedurende 10 jaar. Ik denk dat je gerust mag stellen dat die rang als trend niet zo snel te doorbreken is (ongeacht wat individuele schijven of series doen dus).

Wel is het zo dat de merken vrij dicht bijelkaar liggen, dus je kan redelijk veilig de gok nemen en een Seagate kopen.

[Reactie gewijzigd door mae-t.net op 2 februari 2014 15:19]

Je hebt idd altijd wel de kans dat het stuk gaat. Hoewel er soms ook echt series zijn die sneller stuk gaan dan andere. WD had ooit eens een ECO green serie lijn, die op een gegeven moment er allemaal mee stopte na ongeveer 2 jaar. Seagate had met de Barracuda .11 serie zoals ik net al vernoemde hetzelfde.
Voor de rest gaat het ook om wat interne kwaliteit. Degene die in china geproduceerd worden zit mindere kwaliteit qua onderdelen in, deze zijn ook luidruchtiger, langzamer en gaan eerder kapot. Dus ik laat altijd checken waar ze gemaakt zijn, china zou ik niet doen. Ook chinese condensator zijn kwalitatief minder dan andere. Degene uit Japan (of Taiwan) zijn kwalitatief betrouwbaar bijvoorbeeld.
Dat stuk gaan is nou juist de reden waarom ik dus geen schijven hoger dan 1TB (2,5", en 2TB voor 3,5") koop... Ik ben al eerder een schijf met TV programma's kwijtgeraakt en dan is 500GB al heel veel...

Dat er 6TB schijven komen vind ik best natuurlijk, maar ja, gaat het stuk dan kan je zomaar even 6TB aan gegevens kwijt zijn. Hoe groter de schijf, hoe groter de kans dat je hem lang in je PC hebt zitten en langer gebruikt (omdat 't niet zo scnel vol zit of als je te maken krijgt met malware en je je gegevens kwijtraakt). Voor thuisgebruik zie ik het niet zo zitten tenzij je er RAID mee gebruikt natuurlijk, maar dan zit je weer met een flink prijskaartje... Ik verdeel mijn data dan toch liever over twee schijven van 3TB dan één van 6 (drie van 2TB eigenlijk).
Jaah, daar zit wat in.Als je data belangrijk voor je is kan je dat wellicht beter doen. Of alleen je belangrijkste data back-uppen.
Persoonlijk verbruik ik erg veel DATA. Heb nu 3x3TB erin zitten en 1x1TB. 3 daarvan zijn de Seagate barracuda schijven (Taiwan) en de samsung spinpoint f3. Als ik het kwijtraak is het jammer. Maar er staan geen foto's e.d. op die ik wil bewaren.
Alleen op een gegeven moment raken mijn sloten vol. Dus aldoor 1tb is dan voor mij geen optie, ik hoop dat de 3TB schijven toch een lange levensduur hebben. Het aantal keren herschrijven van DATA is met zijn grote hoeveelheid ook kleiner, alleen het is dus ook een stuk gecompliceerder om de data op te slaan. Hoe dan ook heb ik wel vertrouwen in Seagate heb tot nu toe geen negatieve reviews gevonden over de versie van de schijven.
Over het algemeen gesteld kan je inderdaad met recht zeggen dat er uit China meer troep komt, maar dat hangt ook heel erg van het bedrijf of de specifieke fabriek af. Grote bedrijven of spelers die meer dan een eendagsvlieg willen zijn, houden er over het algemeen een betere controle (grondstoffen, toeleveranciers, fabricage, eindproduct) op na en op die manier komt er ook zonder meer uitstekend spul uit China. Je moet als fabrikant dan wel erg op je keten letten, dus eventueel kostenvoordeel valt mogelijk tegen. Daarbij een steekje laten vallen is zomaar gebeurd.

In het specifieke geval van Seagate durf ik geen uitspraken te doen omdat ik op dit moment alleen een paar niet-Chinese enterpriseschijven van ze onder beheer heb dus geen statistisch bruikbare informatie, maar het kan natuurlijk best dat de ene fabriek beter werk levert dan de andere en dat het op dit moment de Chinese series zijn die ervoor zorgen dat Seagate geen betere positie in de statistieken weet te halen.

[Reactie gewijzigd door mae-t.net op 2 februari 2014 15:28]

Jammer dat geen van de HDD-fabrikanten meer iets doet aan de ontwikkelingen van 1,8" schijven.. Met de huidige technologie zou het toch wel mogelijk moeten zijn om min. 750GB op zo'n schijf gepropt te krijgen. Voordelen: kleiner, zuiniger en lichter dan een 2,5" schijf. Vooral nu met de ultrabooks (en eigenlijk ook wel externe hdd's) lijkt dit een geschikte formfactor. Enige reden die ik bedenken kan is dat de kosten te hoog zijn en de productie ervan te inefficient om er 'winst' op te kunnen maken. :')
tja, daar heeft men mini PCI-e voor... daarmee kun je op een SSD'tje toch nog aardig wat opslag kwijt
Ze zijn dan wel zuiniger dan een 2.5" schijf, maar in vergelijking met SSD's verbruiken ze nog steeds enorm veel stroom. Aldus zijn ze minder wenselijk in mobiele apparaten i.v.m. acuuduur.

Wat betreft de opslagcapaciteit zijn er ook al SSD's van 1 TB te koop.

Ook op snelheid verliezen ze het van de SSD's.

Dus enige concurrentiepunt is dan nog de prijs. En dat is geen sterk argument om een apart product voor te ontwikkelen. Je komt dan nl altijd in de spiraal terecht dat het steeds goedkoper moet om ook nog maar iets er aan te verdienen.
Ja, als je een Chinese hebt zoals ik ben je de lul. Ik heb mn Seagate schijf al moeten vervangen en de tweede is al niet veel beter en is ook in China gemaakt. Voor mij geen Seagate meer.
Zonde is dat, heb er vaak over gehoord. Voor iedereen die een Seagate HDD besteld, laat even bi de winkel checken waar het gemaakt is.
Ook is 2e hands hier nog wel goede handel in! Op tweakers gaan hier vaak nagenoeg nieuwe harde schijven van 3TB langs in vraag&aanbod, ik heb daar alles vandaan. Voor erg weinig geld en Taiwanese versies allemaal.
Hier een kast vol kapotte Seagate schijven. Alle bedrijfssystemen die geleverd werden met een Seagate hebben al een nieuwe schijf gekregen. En dan te denken dat Seagate vroeger mijn merk was... Tja, Hitachi stond eerst ook niet goed bekend. De Hitachi Deskstars werden niet voor niets Deathstars genoemd.
Dat vind ik toch niet helemaal terecht. De "deathstars" waren van IBM (2001). Hitachi heeft pas in 2003 de HD divisie van IBM overgekocht. Hoewel ze de naam Deskstar bleven gebruiken en mensen hun defecte disks "deathstar" beleven noemen is het snds de overname van Hitachi alleen maar bergop gegaan met de betrouwbaarheid. Ze hadden gewoon toen beter meteen een andere naam gekozen.
Grappig hoe hier een IBm Deskstar tot 2011 gedraaid heeft tot hij overbodig was :)
Zelf geldt voor Seagate .9
Tja een "hoge" uitval is nog altijd maar een paar percent :)

Daarnaast gaan veel harde schijven uiteindelijk stuk omdat ze gewoon te warm lopen en niet degelijk gekoeld zijn. Als dit gebeurt bij "bedrijfssystemen" zal dat eerder aan de slechte of niet-bestaande airflow liggen. Veel van die systemen worden dan ook nog is ergens in een kast gepropt. Gevolg: schijf oververhit. Misschien beter een tientje meer besteden aan je "systeem" in plaats van Seagate de schuld te geven :P
Bij ons op kantoor zijn het allemaal Macbook Pro's en iMac's waar de Seagate schijven kapot gingen. De systemen met een Hitachi of Fujitsu schijf werken nog steeds. Thuis heb ik een Seagate 10 serie schijf die nog prima werkt. Het varieert inderdaad gewoon per serie, maar toch zou ik nu een WD kopen ipv. Seagate.
De deskstar eerste batches hadden dat probleem alleen maar als ik het goed heb...
Niet zozeer de eerste batches want de naam Deskstar bestond al langer, maar schijven die rond 2000 werden gefabriceerd uit de 75GXP en 60GXP series als ik me goed herinner.
Ik denk dat ieder merk wel z'n slechte series heeft gehad, voor seagate is dat ongetwijfeld de 11 serie geweest.
Ik heb alle merken nu wel geprobeerd en al mijn Western Digital schijven werken nog, dat waren overigens voornamelijk (toen ik ze kocht) middenklassers.

Ik heb echter ook exemplaren hier van seagate die bewerkt zijn met een hamer om zodoende de data te vernietigen. Bovenste plaat weer uitgedeukt en de schijf deed het weer prima.
Zeg het maar, ik vind het heel moeilijk om echt een oordeel te geven over kwaliteit. Wat me wel opviel is dat ik de hoogste uitval heb onder de topmodellen.

Dus mooi dat er straks 6TB in de winkel ligt, maar dan ga ik liever voor een 4TB. Daar zijn de bugs dan wel verschenen als ze er zijn.
Als je het mij vraagt een onzin review , want in bijna elk ander revieuw zijn Hitachi schijven het minst betrouwbaar met de hoogste uitvalswaarde.

Maar ach, de verdeling is momenteel:

Westerndigital is eigenaar van Hitachi.
Seagate is eigenaar van Maxtor en Samsung.

Dus welke schijf je ook koopt, je hebt een WD of een Seagate in huis....
Wat een onzin!
Als je een Rolls-Royce koopt heb je toch ook geen VW gekocht??
Dat vind ik een vergelijking van niks. Waarintegen je wel kunt zeggen dat of je nu een Peugeot , Citroën of Renault koopt je gewoon franse prullebak op wielen hebt binnengehaald.
De Rolls Royce is misschien niet helemaal de goede vergelijking, aangezien deze ook vaak voor andere vergelijkingen wordt gebruikt. Echter geeft Vinny aan dat als je een bv een maxtor koopt deze hetzelfde zou zijn als een Seagate. Dat klopt net zo veel als dat je een auto koopt waarvan het merk een onderdeel is van een ander automerk.
Hoe groter de Seagate schijf hoe betrouwbaarder;)
Heb ik inderdaad ook. Jammer genoeg kan ik juist aan seagate schijven het makkelijkste komen.
Als je op ssd ook continue kan schrijven (donwloaden van films bv) en de prijzen richting HDD gaat en hogere capaciteit leverbaar is, dan is de kantelpunt bereikt denk ik.
Onzin natuurlijk; pas als je definieert hoeveel data er per dag op een bepaald block wordt weggeschreven/gewijzigd, kan je pas eventuele berekeningen gaan doen op semi-statistische gegevens wanneer dat block van een SSD komt te overlijden.

/edit: kleine aanvulling; voor zover ik me kan herinneren is er pas kan op block-defects na grofweg 300.000 write cycles.

[Reactie gewijzigd door MAX3400 op 31 januari 2014 13:00]

Dank, ik kan je geen + puntjes geven maar hoop dat iemand anders dat even doet.
Although the 840 Series is clearly in worse shape than the competition, these results need to be put into context. 500TB works out to 140GB of writes per day for 10 years. That's an insane amount even for power users, and it far exceeds the endurance specifications of our candidates
Precies ondersteunend aan mijn eerdere opmerking dus; elke dag een aantal films downloaden & recyclen (zoals Mandrake466 dat voorstelt) zorgt dus amper voor enige impact op het continue schrijven.

Zowel HDD's als SSD's zouden in theorie tientallen jaren mee moeten kunnen; in de praktijk zie je toch dat mensen na een jaar of 3 tot 5 al gaan vervangen. Extreme (fabricage-) defecten daargelaten, is dus alleen de prijs tussen HDD en SSD het enige kantelpunt.
Zelfs TLC geheugen houdt het 25 jaar uit bij het schrijven van 30GB per dag op een SSD van 250GB .
http://nl.hardware.info/reviews/4177/hardwareinfo-test-levensduur-samsung-ssd-840-250gb-tlc-ssd-eind-update-20-6-2013
Okee, en als je dan 300GB per dag schrijft dan is het in 2,5 jaar klaar?
Realistisch als je veel van de newsserver pompt: schrijven van temp files, rar files, uitpakken.
die laatste 2 gaan gewoon nooit gebeuren (transistors kunnen we nog maar zo vaak verkleinen) en de eerste daar heb je als consument nu al geen last van. daar hoef je je echt geen zorgen om te maken. het meest write intensive wat je op je ssd doet is je swap-file en daar schijf je nooit genoeg in om zelfs binnen 10 jaar je SSD kapot te krijgen.

SSD's zorgen er zelf voor dat ze stukken data waar vaak naar geschreven wordt steeds verplaatsen naar een andere cell waardoor 1 cel (bijna) nooit veel eerder kapot zal gaan als een ander.

[Reactie gewijzigd door Countess op 31 januari 2014 13:20]

Is lastig in te schatten. Maar de "normale" schijven blijven nog wel een paar jaar goedkoper. De producenten verwachten in 2016 rond de 12TB te zitten per schijf volgens mij. Daar komt bij dat ze ook met nieuwe technieken bezig zijn om meer data kwijt te kunnen. SSDs blijven nog wel een tijdje duurder.
Ik denk dat er niet echt een bepaald 'eindpunt' is. De gemiddelde SATA schijf met een 6Gbps mogelijkheid haalt bij lange na nog niet eens de 3Gbps. Althans, voor zover ik weet zijn er weinig schijven die dit halen*. De technologie zou wellicht daar nog eens iets voor mogen ontwikkelen dat de HDD's sneller mogen worden.

*correct me if I'm wrong.
Ik zie niet in waarom er een eindpunt zou zijn? HDD's zijn gewoon veel geschikter voor data (opslag) centers door hun veel betere prijs/GB en bovendien kunnen harde schijven waarschijnlijk veel vaker worden overschreven dan goedkoop Triple Layer Cell SSD spul, dat is gewoon veels te onbetrouwbaar voor datacenters.
Het einde van de harde schijf voor consumenten komt wel steeds verder in zicht natuurlijk, maar ik denk niet dat harde schijven met de kennis van nu kunnen worden vervangen door SSD's.
Hangt er ook maar van af wat voor diensten je levert. Google, facebook, microsoft. Alle grote cloud bedrijven gebruiken de "flash as memory" benadering van Fusion-io
Dit brengt het aantal controllers tussen CPU en data naar beneden en dus ook je single-point-of-failures. Door dat de CPU rechstreeks via de PCI express je flash als geheugen kan aanspreken haal je een gigantische aantal input output operaties die ook nog eens vrij constant zijn .. zonder pieken en dalen. 10 miljoen io en meer is niet eens meer specials met Fusion-IO SSD's op PCI express.
Je hebt dus ook geen raid controllers meer nodig ... alle word in software door het OS gedaan. (OS moet dus wel hun bestandssysteem ondersteunen, dus geen microsoft ... alleen BSD en linux denk ik)

Enfin, zelfs als is flash geheugen nog altijd veel duurder dan harde schijven ... voor de grootste bedrijven in de wereld is flash gebruiken als opslag in plaats van de traditionele harde schijven dus al goedkoper als je alle costs benefits afweegt. Dit is natuurlijk een mooie motivatie voor meer inovatie in die sector, iets waar de gewone consument de vruchten van plukt ... tenzij alles dan al in de cloud zit en iedereen gewoon een stomme terminal heeft met een retesnelle internet verbinding. Maar als Tweakers ben ik daar naar tuurlijk falicant tegen ... wil zelf de controle hebben over mijn data. :P
Op een gegeven kom je op het niveau van een enkel atoom uit. Waarbij 1 bit, 1 atoom is. Wanneer dat bereikt wordt? Geen idee. Maar wanneer het gebeurt dan zullen de harde schijven niet meer in grootte kunnen groeien en tegelijkertijd hetzelfde formaat blijven.

Met een snelle search kwam ik dit tegen van IBM: http://www.ibm.com/smarterplanet/us/en/smarter_computing/article/atomic_scale_memory.html
Zo te zien komen we al aardig dicht in de buurt van een max.
zowel atomen als spin states van elektronen zijn veel te instabiel om bruikbaar te zijn voor dagelijks gebruik, laat staan voor massa-opslag
Een gemiddeldde 700MB CD heeft ook al tientallen MB's die corrupt zijn geraakt.

Door middel van fout verbeterende code (ECC) en dergelijke zijn CD's toch bruikbaar.
Quantum mechanica. ipv 1/0 dat we ook 2/3 kunnen schrijven.

En een atoom bestaat ook weer uit kleine deeltjes. Wie weet. Neutronen, electronen, of doe gek en wellicht kunnen we later nog quarks en dergelijke gaan lezen.

3D layering net als ze ooit met HVD wilden doen.
Of Dark Matter disks :+
Of doe gek, gewoon een portable wormhole in dat ding waardoor de opslag oneindig kan worden.

[Reactie gewijzigd door bbr op 31 januari 2014 18:32]

1 bit 1 atoom? idee is leuk maar hoe bepaal je de waarde van 0 of 1 dan?
Ik refereerde naar een vooruitgang op precies dezelfde manier zoals men het nu doet: door het magnetisch veld van een groep atomen uit te lezen. Het is dan ook precies het punt dat ik wilde maken dat dit verdraaid lastig is om te doen op zo'n schaal.

Ongetwijfeld zal er wel weer een slimme gozer (of gozerin) er iets op bedenken maar je zult toch rekening moeten houden met de wetten van de natuur.

En het idee dat bbr hierboven aandraagt heeft ook te kampen met deze zelfde natuurwetten. Quarks en andere sub-atomaire deeltjes zijn niet bruikbaar voor (semi) permanente opslag: die dingen bestaan gewoon niet in een jarenlange staat van stabiele toestand.

De fysieke limieten van harde schijven zijn al lang bekend. Ik denk dat de toekomst zal liggen in veel dikkere schijven in een, al dan niet persoonlijke , cloud waarvan je vervolgens de data naar je toehaalt die nodig is en dit tijdelijk lokaal opslaat. Op die manier kunnen we met draagbare apparaten werken en toch toegang hebben tot grote dataopslag.
Snap waar je heen wilt, maar je eerste regel zeg je toch echt " Op een gegeven kom je op het niveau van een enkel atoom uit. Waarbij 1 bit, 1 atoom is" en dat gaat met de huidig bekende wetten der natuur inderdaad erg moeilijk worden.

Waar ik verder in mee wil gaan, is dat we steeds inventiever/creatiever worden in het bedenken van manieren om data op te slaan.
Maar om nou, zoals bar hierboven, door te slaan vind ik te ver gaan.
Who knows wat we straks bedenken? helemaal waar, maar zover zijn we nog lang niet, een behoorlijke dosis realisme is voor mij wel cruciaal in een goed gesprek.

Ik weet niet wat de toekomst brengt, maar dat hele cloud verhaal..... ik ben er (nog)niet van overtuigd dat het de toekomst is....... wat nou als er een oorlog uitbreekt en een vijand maakt een datawarehouse "buit" of dropt er gewoon een bom op? De wereldvrede is nou niet zo stabiel dat iemand mij de garantie kan geven dat dit een onrealistisch scenario is.

Ik hoop op een oplossing, zoals bv. jouw IBM verhaal(en wie weet in de toekomst dat wormhole verhaal van bbr ;) ), icm extreme compressietechnieken zodat je je data gewoon bij je kunt dragen en niet hoeft te vertrouwen op een "kwetsbaar" netwerk infrastructuur gecombineerd met een "kwetsbare" centrale opslag.
Mjah, maar er is ook maar zover dat je kan verkleinen. Men vind wel steeds nieuwe manieren om meer data op de schijven te krijgen, maar je merkt dat er nu al enkele jaren een afvlakking op zit. Nu dat fabrikanten nieuwe technologieën hebben zal je weer even een groeispurt krijgen om dan weer stil te vallen. Maar op een moment zal het toch echt gedaan zijn.
Maar als je echt niet meer verder kunt, kan je de formfactor veranderen: maak een HDD behuizing 2x zo dik en je kunt weer een tijdje vooruit.
Ja, leuk terug naar vroeger waarbij je harddisk 30 KG woog.

http://www.globalnerdy.co...09/06/16_megabytes_yo.jpg
Neen toch laatst iets gelezen te hebben waardoor de capaciteit met het tienvoudige toenam op hetzelfde oppervlak.
Net als de wet van Moore is er ook één voor HDD:
http://en.wikipedia.org/w...ve_capacity_over_time.svg

Het kantelpunt of break even point is lastig in te schatten, omdat een SSD andere voordelen heeft tov een HDD. Het ligt er dan ook aan wat jouw voorkeuren zijn.
puur gb/$ gekeken komt dat kantel punt er nooit.

hdd's verdubbelen elke 2 jaar, ssd's elke 18 maanden, maar ssd's hebben een behoorlijke afchterstand en het einde van de steeds kleinere productie processesn komt in zicht, waar er bij HDD's nog veel ruimte is voor verbetering.

een bit op een HDD zal altijd kleiner en eenvoudiger zijn, en daarom goedkoper.
Volgens mij is dat er nu al. Het enige verschil dat nu nog ter sprake komt is of je pure snelheid of opslagcapaciteit nodig hebt. Uiteraard is de prijs per Mb of Gb nog ver van elkaar om het op elkaar weg te strepen.
SSD blijft voorlopig relatief duur voor wat je krijgt in GB's, ik zou zelf nu voor een SSHD gaan want die hebben eigenschappen van SSD en HD samen, en is goedkoper ook nog!
Zolang er HDD's bestaan, zullen SSD's duurder zijn. Al was het maar omdat de fabrikanten ermee weg kunnen komen.
Waar ik nou benieuwd naar ben: Waar is het einde in de groei van HDDs ? En wanneer is het kantelpunt dat het goedkoper word om SSD's te gebruiken.
Dat is nu ongeveer gepasseerd. In praktisch alle toepassingen waarbij prijs/GB niet bovenaan de wensenlijst staat wint de SSD en dat zie je ook in de markt. Behalve voor bulk storage heeft de HDD zijn langste tijd gehad.

En al die mensen die blijven hameren op prijs... Voor ¤0,76 heb je al een Blueray, dat is goedkoper dan de goedkoopste HDD per GB .... dus blijkbaar is prijs niet het enige dat telt.
Dat kantelpunt is er al voor de werkpaardsystemen: minder wachttijd = meer productiviteit = economischer. Wat betreft de datacentrums zou dat kantelpunt ook niet veraf meer moeten zijn (binnen 5 jaar), daar SSD's energiezuiniger zijn en minder warmte produceren dan HD's.
uit "slechte" ervaringen te hebben met Seagate wat betreft de betrouwbaarheid.
Zie ik het zelfde probleem een beetje terug komen met deze nieuwe schijf..

WD/Hitachi werken er aan de temperatuur naar beneden te drukken..
Seagate daar in tegen zie ik dat nog niet naar voren komen??
De slechte ervaring is dus ook meer omdat de schijven "te" warm worden, en met 24/7 draaien binnen 1 jaar defect zijn, zullen vast wel goede tussen zitten.

Maar heb hier 4x 4tb seagate schijven in m'n nas, dieh eb ik goedkoop kunnen regelen..
Of ik die nu zo gebruik in een desktop pc, of in me nas (zonder koeling) zitten die schijven IDLE op 67 graden ... terwijl andere merken, 90% van de andere merken maar max de 45 graden liggen.. beetje vreemd??

Werk zelf bij een laptop reperatie bedrijf... maar van de defecte schijven die komen, zijn allemaal seagate..

Dus mijn conclussie is, wederom jammer dat ze niets tegen het probleem doen, want je kan ze er over emailen/bellen kwa temperatuur, maar die temperaturen vinden ze dood normaal :), terwijl dat voor een harde schijf de nek om draaid,
Hopelijk slaat het nieuwe "feature" een beetje aan, de hamr technologie :)

Verder naar het beetje kritiek te leveren, wel fijn dat er steeds grotere schijven komen op de markt :) want ook een nas server wil vol raken haha
Het lijkt er op dat de rek er wel grotendeels uit is bij traditionele HDD's. Ze zullen toch wat anders moeten bedenken om grotere schijven te ontwikkelen met capaciteiten richting de 25 en 50 TB.

Ik heb namelijk het gevoel dat de grootte van gegevens sneller groeit dan de capaciteit van harde schijven. Voor een fatsoenlijke HD-film ben je toch al makkelijk 50 - 100 GB kwijt. Een verzameling opbouwen zal dan niet zo makkelijk zijn aangezien je schijf binnen de kortste keren vol zit.

Zeker met de komst van 4K content zal de vraag naar grotere schijven gaan toenemen.
Voor een fatsoenlijke HD-film ben je toch al makkelijk 50 - 100 GB kwijt. Een verzameling opbouwen zal dan niet zo makkelijk zijn aangezien je schijf binnen de kortste keren vol zit.
Dat is serieus overdreven he.
Om te beginnen, is de maximale capaciteit van een Blu Ray op dit moment zo'n 46,6GiB. Dus hoe jij aan 100GB komt, is mij een raadsel.
Mijn NAS staat vol Blu Ray ISO's. Elke ISO is een originele rip van het schijfje waar verder niets mee gebeurd is, dus geen overbodige audiotracks eruit gehaald, geen extra's eruit gehaald...
Voor 231 schijfjes ligt het gemiddelde op 37,94GiB per schijfje. Verder is het mijn ervaring, dat als je de m2ts files uit de ISO haalt en enkel de beste audiotrack overhoudt en alle extra's weg gooit, je bijna nooit boven de 20GiB uitkomt.
Nu ben ik het wel me je eens dat de vraag naar grotere schijven alleen maar zal toenemen, maar je cijfermateriaal is wel een factor 5 te hoog.

[Reactie gewijzigd door Waking_The_Dead op 31 januari 2014 13:53]

50-100GB? Pffft. 8)7

Heb zelf een 2,5 uur 1080p HD film voor YouTube gemaakt. Iets onder 10GB. Kwaliteit is prima, elke hogere bitrate valt niets meer van te zien. Deze film heb ik overigens op een gloednieuwe smart-TV van mijn opa (jawel, er zijn opa's die meegaan met de tijd!) afgespeeld... Nou, het zag er prima uit. Geen pixelachtig beeld te bekennen, en dan was de YouTube conversie er al overheen!

Ikzelf maak films met een bitrate van 10mbit. Misschien dat je tot 20mbit nog verschil ziet... Daarboven is alles voor het blote oog op een afstand van 50cm van de TV te verwaarlozen. Laat staan als je op de bank zit. Een goede compressie kan je een hoop ruimte (of in mijn geval: Uploadtijd :P) besparen.

Als ik dat even omreken dan is een film van zo'n 2,5 uur = 2,5 x 3600 = 9000 seconden met een bitrate van 20mbit. 1mbit = 1/8 MB, dus 0,125MB. Een bitrate van 20mbit is dus ruwweg 2,5MB per seconde (verschilt nogal per compressiesoort hoeveel mbit je nodig hebt, maar laten we uitgaan van 20mbit).

9000 x 2,5 = 22500MB, dus 22,5GB. Meer heb je echt niet nodig...

Nou snap ik dat men voor YouTube een lagere bitrate kan / mag gebruiken, maar als ik de boel hier lokaal afspeel op mijn 1080p scherm (en wie heeft dat dezer dagen nou nog niet) dan ziet het er echt prima uit. En ik ben wat dat betreft een behoorlijk pietje precies...

[Reactie gewijzigd door KoploperMau op 31 januari 2014 21:21]

Hoeveel mensen bewaren nog grote hoeveelheden HD films lokaal? Het is allemaal on-demand streaming tegenwoordig.

[Reactie gewijzigd door Dreamvoid op 31 januari 2014 12:43]

Netflix werkt goed maar er scheelt nogal wat aan het aanbod en ook het beeld is nog altijd niet je-van-het.
Streaming wordt toch wel lastig om en HD beeld en HD Master geluid binnen te krijgen.
Mijn internetlijn zou dat wel moeten trekken, maar dan haalt die het toch wel maximaal binnen.
En het verschil tussen een bluray (zoals bij Lord of the Rings) en de stream ervan is toch wel zeer goed te zien (en te horen)
'on-demand' is niet zo on-demand als je zou denken of willen. Je bent geheel overgeleverd aan de grollen van de streamingdienst die vaak of de hoofdprijs rekent, op dat moment niet meer de serie/film in licentie heeft of niet meer vanaf aflevering #1. HD is niet zo HD als je zou denken, weergave is niet altijd even vloeiend, etc. En in een hoop gevallen is er geen officiële distributie in deze regio (denk aan bv. anime en buitenlandse films die dmv. fansubs kijkbaar worden voor de rest van de wereld).
Voor een fatsoenlijke HD-film ben je toch al makkelijk 50 - 100 GB kwijt. Een verzameling opbouwen zal dan niet zo makkelijk zijn aangezien je schijf binnen de kortste keren vol zit.
Denk ook niet dat het de toekomst is om zelf een collectie op te gaan bouwen. Beetje jammer om je NAS te gaan vullen met films die je af en toe een keer kijkt.
Fatsoenlijke HD-film zeg jij moet ruwweg 75GB aan data kosten?
Ze zijn er zeker hoor, maar ik vind dat niet gemiddeld voor een "fatsoenlijke" hd film.

Ben het wel met je eens dat content harder groeit qua formaat dan de hdd's groeien.
Ik denk dat het laatste wel meevalt. De Blu-ray spec is nog steeds actueel en met de HEVC h265 kan 4K video opgenomen worden met ongeveer dezelfde bitrates als een gewone blu-ray disc.

Mensen die echt verzamelen hebben het geld er voor over om 100 euro aan een 3TB disk uit te geven waar ze (uitgaande van 2600GB effectieve opslagruimte) meer dan 100 films op BD25 formaat kunnen opslaan. Dat is een euro per film.

Als je niet per sé de originele BD wilt hebben maar bijvoorbeeld kiest om te transcoden naar MKV dan kun je op 9GB prima een BD film uit als je de overige vreemde talen en audiokanalen verwijderd en de bitrate iets laat zakken. Vaak met praktisch dezelfde beeldkwaliteit als het origineel.

Als je straks naar h265 kunt transcoden kun je misschien wel HD video op een single sided DVD kwijt met accepabele kwaliteit in FullHD.

Zelf ben ik ook vrij data hongerig, maar dat is meer opdat ik veel fotografeer in RAW en al mijn CD's in FLAC heb opgeslagen. Ik heb een nas met 4x 3TB waarvan 2x 3TB een backup is van de andere en nog een aparte server (offsite) heb staan met een grote RAID5 array, ook als backup.

Ben tenslotte zuinig op mijn foto's en ben ondanks mijn voorzorgsmaatregelen al een keer door schade en schande wijs geworden (corrupte disk gebackupt naar de backup opslag, alles naar de knoppen.)

Vandaar 2 backups :)

[Reactie gewijzigd door Fairy op 31 januari 2014 13:08]

Vandaar 2 backups :)
Op hoeveel locaties? ;)
2 locaties.!

Daar heb ik inderdaad wel aan gedacht :P

[Reactie gewijzigd door Fairy op 31 januari 2014 12:59]

hoe groter het beeld, hoe kleiner het videobestand (in verhouding). Hoe meer pixels, hoe meer pixel kleuren die zich herhalen. 4k zou gerust naar minder dan 20 GB per film gecomprimeerd kunnen worden zonder dat je er echt wat van ziet
Hoezo is volgens jou de rek eruit?

2007: 1TB (nieuws: Samsung levert eerste 1TB-hardeschijven)
2009: 2TB (nieuws: Western Digital presenteert 7200rpm-hdd van 2TB)
2010: 3TB (nieuws: Western Digital introduceert 3TB-schijven)
2012: 4TB (nieuws: Western Digital introduceert 4TB-drives)
2014: 6TB

In 2011 hadden we natuurlijk de overstromingen in Thailand waardoor de ontwikkeling vrijwel volledig stil werd gelegd. Pas in begin 2013 was de HDD-productie weer op gang. Volgens mij kun je dus best stellen dat er elk jaar één TB bij komt. En als je uitgaat van de 4K specificaties, ofwel 100GB Blu-ray discs, dan passen er op één 6TB harde schijf exact 61 4K-films.
Nou nou, op zeven jaar tijd van 1TB naar 6TB (aannemend dat het nog wat wordt dit jaar met die 6TB schijven)... Een factor zes, dat is behoorlijk kansloos hoor.

Als ik even kijk naar de periode 1993-2000, dan gingen we van ~100MB naar ~10GB schijven, factor 100. En 2000-2007 is dus ook een factor 100. Dus je kan best wel stellen dat de rek er uit is.
Verschillende reden ervoor:

* Minder Concurrentie ... Zijn nog maar 3 grote bedrijven over, van de dozijn of meer vroeger.

* De focus word verlegt naar SSD's, dat wel snel groeien en prijzen zien dalen.

* Het valt op dat men meer & meer, de dichtheid op de HD platen, niet meer zoveel kan uitbreiden... Perfect voorbeeld is die 6TB, gewoon 6 * 1TB zijn ( we gaan terug in de tijd van veel disks in een HD ).

Komt er op neer, dat HD's de richting van de Tape-drives aan het uitgaan zijn. Goed voor solide massa storage, maar niet iets waar men nog Miljarden R&D wilt instoppen. De Capaciteit van Tape-drives is niet zwaar meer gestegen he ...
Hangt er van af wat je fatsoenlijk noemt. BluRay rips van 7 - 14 GB zien er verre van slecht uit. En 4K gaat waarschijnlijk gebruik maken van andere encoding waarbij ze de bitrate op hetzelfde niveau proberen te houden als wat nu als gangbaar wordt gezien.
50 - 100 GB voor een fatsoenlijke HD film? Quatsch.
Je zegt het wellicht te dramatisch, maar je heb helemaal gelijk! Hoeveel mensen zijn er nu die al die films/series gedecomprimeerd bewaren? Bitter weinig.

Ik doe al niet zo moeilijk tussen 720p en 1080p. Ik heb precies een ongecomprimeerd 1080p film (Dune -1984) op de schijven staan en dat is ook alleen maar als voorbeeld dat er bitter weinig verschil is tussen ongecomprimeerd en een goede compressie.

Een 720p, 45min rond de 1GB is imho perfect te kijken. 1080p, 45min rond de 1,6GB is imho een grote luxe. 1080p, 45min blueray rips van 3,5GB+ vind ik dan weer een beetje overkill. Een 1080p film van anderhalf uur op 9GB vond ik over het algemeen te veel.
Bluray is max 50GB?
Op 2 lagen, en er wordt nog vrij weinig met meer dan 2 lagen gedaan. Maar volgens mij kan het wel.
Ideaal voor een home office backup systeem lijkt me. Als werk en opslag gebruik ik respectievelijk ssd's en raid systemen.

Semi-off-topic: weet iemand eigenlijk hoe moeilijk of makkelijk het is om data van een ssd te recupereren? Bij platter disks zijn er tal van mogelijkheden om de schijven opnieuw te lezen in technische labo's zolang er nog bits op de schijven staat, als de motor of schrijf/leeskoppen falen. Als een ssd faalt, is er dan nog mogelijkheid tot recuperatie? Dat vind ik alsnog een enorm belangrijk argument om nog voor platter disks te kiezen voor opslag systemen.
Het vervangen van de "controller" bij een SSD lijkt me ook wel mogelijk in een lab. Maar waarom niet gewoon een backup maken of RAID gebruiken om zo een failed disk op te vangen? Data recovery moet je eigenlijk niet willen.
Data recovery van een SSD is een serieuze optie: elke SSD is toch al een RAID array van binnen. Bovendien is de failure mode van flash zelf behoorlijk veilig: cellen worden read-only. Echte ongelukken ontstaan eigenlijk alleen als de controller het begeeft, of eventueel de interconnects.

Ik heb daarom JEDEC al de suggestie gedaan dat ze de recovery faciliteit van SSDs zouden kunnen standaardiseren (het helpt als je daar mensen kent ;) )
Moeten er trouwens geen SMART versie of attributen komen voor SSD's ?
Of gaan ze nutteloze attributen (voor SSDs - spin-up time, load cycle count)
hergebruiken ?
Waarom vind je dat belangrijk? Je moet deugdelijke backups in plaats hebben. Datarecovery is ook bij platter disks ver van een garantie, afgezien van het prijskaartje wat ook behoorlijk rap een veelvoud kost van een extra schijf voor backups, of twee, of drie. Je moet behoorlijk wanhopig zijn wil je dat gaan doen.

[Reactie gewijzigd door Alpha Bootis op 1 februari 2014 23:10]

Ah sweet dat is een mooie grote stap. Ik vraag me af hoe lang ze voor kunnen blijven op de SSD's.
SSD's van 1TB zijn ook betaalbaar. Nog steeds veel duurder dan HDD's maar het gat wordt steeds kleiner.

Die 6TB's vind ik wel interessant voor mijn nas. Dan hoef ik niet te gaan zoeken naar meer dan 4 bay's.
Niet vergeten dat de NAS het ook moet ondersteunen wat nog niet het geval is bij vele NAS-systemen!

1 Tera SSD's kosten nog zoveel als een volledige computer, je kan het al halen, maar kosten-baten.. Wat zet je op een SSD nu? Het OS, aantal heel zware programma's en eventueel voor sommige misschien de zwaarste games die ze na het uitspelen/beu spelen direct uninstallen voor de volgende erop te zwieren. Heb nu een 256Gig SSD zitten en ben daar zeer tevreden over in combinatie met 1Tera HD en een NAS met 4 Tera. In de toekomst misschien een 2de NAS..
Een beetje goed nas zoals een Qnap of Synoloy heeft hier geen enkel probleem mee. Alleen die goedkopere modellen hebben wel eens issues dat 2TB max is maar ik draai nu al 3TB.

En over die SSD ruimte. Ik vind 256GB een beetje krap. Het lukt nog wel maar ik moet regelmatig dingen weg gooien. En als je eenmaal full SSD draait wil je eigenlijk ook geen HDD meer.

Voor opslag van muziek en films enz heb ik mijn nas van 9TB. Maar alle applicaties draai ik liever vanaf de SSD. Ja een 1TB SSD kost nog iets van 550 euro. Maar goed een laptop van 550 euro is voor mij geen optie. Dat is me te traag. Ik snap dat dit voor de meeste mensen meer dan voldoende is. Maar we zitten hier op tweakers.
Daarnaast koste 1TB SSD's voorheen 3K dus als je het op die manier bekijkt maakt de SSD grote stappen. Over een jaar of 5 is het denk ik wel betaalbaar. Het gat tussen HDD's en SSD's wordt op dit moment steeds kleiner. Straks verwijden de HDD's wellicht helemaal.

[Reactie gewijzigd door Astennu op 31 januari 2014 13:41]

Ben ik volkomen met akkoord, al gok ik dat dit geen 5j meer zal duren. Maar op deze moment is voor de main-stream gebruikers en zelfs de meeste tweakers de 1Tb SSD's nog veel te duur. Het kan allemaal wel en je kan het al betalen, maar 500Eur, dat is al de helft van een goed game-systeem, 1/3 van een heel goed game-systeem en dan heb je nog geen CPU, moederbord, ram, case én vooral nog geen GPU. Ik steek regelmatig computers in elkaar en het is iets dat ik absoluut nog niet aanraad. 128Gig, 256Gig en al een aantal keer 512, ja, maar 1 Tera ga ik toch nog even met wachten hoor...
klopt maar er zijn altijd mensen die ze wel kopen. Toen 256 en 512 net uit waren waren er ook nog genoeg mensen die er wel +- 500 euro voor uit gaven. Toen de SSD's net uit waren ook 600 euro voor 32gb.

Maar de meeste mensen wachten op lagere prijzen.
maar 500Eur, dat is al de helft van een goed game-systeem
Niet mee eens! Hoeveel kost een goede videokaart? De R9 290 kost ook ~¤400 en die koop je alleen om mee te gamen, een goede 1TB SSD kost ~¤500 en daar heb je ook een hoop baad bij buiten je gamen. Daar komt bij dat die ¤500 SSD waarschijnlijk een stuk langer mee gaat dan de videokaart...

Ik heb vorig jaar een Samsung EVO 840 1TB aangeschaft ter vervanging van mijn 160GB Intel SSD van 3.5 jaar geleden. 160GB was gewoon net te klein voor mijn doen, die 160GB SSD is nu zijn leven gaan voortzetten in een secondaire computer in huis en ik verwacht dat die TB SSD gewoon nog 5 jaar in mijn PC blijft (wellicht niet de volledige 5 jaar als OS schijf)...
Een beetje goed nas zoals een Qnap of Synoloy heeft hier geen enkel probleem mee. Alleen die goedkopere modellen hebben wel eens issues dat 2TB max is maar ik draai nu al 3TB.
Daar is QNAP het niet mee eens, die hebben een lijst met disks die ondersteund zijn en disks die ze sterk afraden.
True. Maar dat betekend niet altijd dat het niet werkt. Het is dan alleen niet supported als je problemen krijgt :P
Of dat zij nog bezig zijn met valideren. Maar er zullen ook vast wel weer 6TB disk's komen die gericht zijn op NAS gebruik. BV de WD Red serie.
De nas hoeft verder niets speciaals te ondersteunen, het kantelpunt zit bij 2TB. Als je 3TB aankan dan ook 4, 5 en 6.

Behalve als ze het moedwillig blokkeren, dat kan natuurlijk wel. Wat ze natuurlijk nog niet zijn is getest met deze groottes. Je zal ze dan ook niet in de compatibiliteitslijst vinden tot nadat ze uit zijn.
Dit is wel iets te kort door de bocht. Er zijn genoeg NAS systemen die maximal een volume van 16TB aan kunnen. Dus met een 4 bay NAS en 6TB disks ga je echt problemen krijgen.
Das onzin... De reden dat er nu van ondersteuning van max 16tb wordt gesproken is omdat er geen grotere schijven beschikbaar zijn.
Toch niet helemaal. Ik heb een pricewatch: HP Proliant Microserver N36L en daar passen maximaal 3TB-schijven in. 4TB+ wordt niet ondersteund door de Southbridge...
De 6TB schijven zijn alleen interessant als ze betaalbaar worden.

De Hitachi Ultrastar He6 op Amazon kost bijvoorbeeld nog 800 Dollar (600 Euro). Dat is redelijk aan de prijs.
True. In het begin is alles duur. Later worden ze wel goedkoper.
Maar inderdaad. Aan de andere kant kost een Nas met 6 / 8 bay's ook aardig wat meer.
En ik vervang mijn disks altijd preventief na 2 max 3 jaar.

Dus dan kan het goedkoper zijn om toch voor grotere disk's te gaan ipv een nieuwe NAS kopen. Maar 600 euro is nog wel heel erg duur :P
Pfft. Dat dacht ik ook toen ik een NAS wilde bouwen. Inmiddels zitten er 3 4TB schijven in, want die waren toch wel goedkoop geworden. Al het nieuws is duur - na een jaartje komt de prijs vanzelf omlaag.
Zou maar oppassen met dat type schijven in je NAS: de error rate van consumenten harde schijven is 10e-14, met een gewone RAID zou je dus wel eens in de problemen kunnen geraken (bitrot of silent disk corruption). Dus de kans dat je RAID met een gefaalde disk niet meer heropgebouwd kan worden door een leesfout wordt steeds groter, ook gaat de tijd voor die heropbouw zodanig groot zijn dat de kans dat een tweede disk faalt niet onaanzienlijk is.

Met deze grootte van schijven lijkt het me veiliger om naar bestandssystemen te gaan die checksums hebben (BTRFS, ZEFS, ReFS)
Met deze grootte van schijven lijkt het me veiliger om naar bestandssystemen te gaan die checksums hebben (BTRFS, ZEFS, ReFS)
Of gewoon simpelweg geen RAID meer gebruiken en bitrot accepteren.

Seriously; mijn NAS bevat vooral video bestanden op basis van een compressie methode die veelal met keyframes werkt. Als daar een bit, of zelfs tientallen bits, omvallen dan zie je dat terugkomen als kleine artefacten. Daar merkt je dus in de praktijk helemaal niets van. RAID is daar dus meer een gevaar dan een voordeel (behalve wellicht RAID1).

Daarnaast is het allemaal non-critische data. Voor de thuis gebruiker is het gebruik van 1TB+ voor critische data zinloos tenzij je al je muziek als WAV en al je fotos als RAW wilt opslaan maar dan moet je je afvragen of je nog over "thuisgebruik" kunt spreken.
Bitrot kan natuurlijk ook in file system metadata zitten, met een beetje pech verlies je dan de toegang tot complete delen van je file system of raakt deze steeds meer corrupt bij file system operaties.

Beste maatregel bij dit soort grote schijven is gewoon meer redundantie gebruiken i.c.m. bitrotbeveiliging, zoals ZFS/RAID-Z2.

[Reactie gewijzigd door Sfynx op 31 januari 2014 13:51]

Bitrot kan natuurlijk ook in file system metadata zitten, met een beetje pech verlies je dan de toegang tot complete delen van je file system of raakt deze steeds meer corrupt bij file system operaties.
File systemen hebben over het algemeen al behoorlijk brute beveiligingen tegen dit soort problemen ingebouwd zitten. Weliswaar is dit in "klassieke" systemen een stuk minder dan in modernere systemen maar NTFS en EXT3 zijn zonder meer geschikt voor dit soort volumes aan data (FAT zou ik niet meer gebruiken ;))

Ja, ZFS, BTRFS en wat diens meer zei hebben hier betere beveiligingen tegen maar de kans dat dit bij een NTFS of EXT3 systeem fout gaat is al minuscuul klein. De kans dat het mechaniek van de schijf het begeeft is waarschijnlijk groter.
Het is ook vooral angstpraat die door ZFS-fans de wereld in geholpen wordt. Moderne RAID-kaarten doen volautomatisch periodieke controles op de achtergrond, de kans dat er bits omvallen tussen de laatste controle en een crashende schijf is niet zo groot. Dan hebben we nog RAID6 opdat er maar liefst twee schijven de geest mogen geven.

Moderne schijven nemen ook al preventieve maatregelen (LDCP-codering van de data, http://nl.wikipedia.org/wiki/Low-density_parity-check_code) en stukken op de schijf waar die LDCP-code regelmatig problemen geeft worden al preventief geheralloceerd.

Ja, het is mooi dat ZFS en BTRFS extra beveiligingen hebben, maar het is niet dat je in angstzweet voor bitrot moet zitten.
Jammer genoeg zijn de meeste gebruikers (ikzelf inclusief) niet zo rationeel over hun data als jij. Ik vermoed dat de meeste mensen toch wel zenuwachtig worden van het idee dat hun "kostbare" data mogelijk corrupt geraakt.
Of een Raid setup gebruiken zoals FlexRaid ... Wat technische overeen komt met Par bestanden hun werking.

Disk 1, Disk 2, Disk 3, ... Allemaal als losse disks met hun eigen Fat.

Disk X ( of meer ) worden dan je "Par"... Verlies je Disk 1 of Disk 2 ( of beide ), afhankelijk van je reserve, dan kan de boel her aangemaakt worden.

Voordeel:

Alle disks zijn onafhankelijk van elkaar, met hun eigen fat. Risico op een catastrofale fout in de fat, is veel minder dan bij "traditionele" RAID. Heb het al eens meegemaakt, dat een fat eraan ging in een RAID ...

Power management kan iedere disk nog altijd in slaapstand zetten. Spaart je Energie kosten uit. En ze draaien dan niet nutteloos ( in tegenstellend met RAID, waarbij voor 1 bestand te accessen, gans je gvd raid opstart ).

En je hebt dezelfde bescherming. Mits je je FlexRaid natuurlijk update na x aantal dagen of veranderingen.

Enige nadeel ... is dat Windows soms alle je disks uit slaapstand haalt, voor ongrijpbare redenen ( geen activiteit, gewoon space check of andere domme zaken ).

En in praktijk met bitrot enz ... veel data dat we hebben is vaak toch "vervangbare" data. Films enz ... makkelijk te vinden. Echte belangrijke data, die hoor je sowieso dubbel te backuppen. De regel is: Zijn de bestanden belangrijk, persoonlijk, of waar veel werk in kruipt => dubbel backup ( liefst buiten je PC ). Al de rest ... is handig, maar minder belangrijk. Niet alsof je die data in 10 jaar nog wilt hebben... data verbeterd constant ... mpeg2 -> divx -> xvid -> h264 ( 720p/1080p/3d), volgende stap h265 ( 4K ).

Zijn veel mensen met ganse bibliotheken van DVD's, dat ze niet eens meer gebruiken ( spreek uit ervaring... 1000 DVD collectie ). Is een beetje zoals de mensen dat vroeger VHS of Betamax collecties hadden...
Die 6TB's vind ik wel interessant voor mijn nas. Dan hoef ik niet te gaan zoeken naar meer dan 4 bay's.
Dan zal je waarschijnlijk een nieuwe BIOS nodig hebben. Maar zonder raid zou je dan 24 TB ter beschikking hebben... Ik kan me nog heugen dat ik apetrots was op mijn 1 GB schijf!
Ach, de jeugd... :p
Waar is de tijd dat mensen in de winkel tegen me zeiden: Een harddisk van 80Mb meneer? Dat krijgt u de eerstvolgende tijd niet vol hoor!

Iets meer ontopic: nu begin ik weer te twijfelen of ik niet beter kan wachten met m'n huidige nas'je te upgraden...
Nou ik was trots op mijn eerste 20 MB schijf!!
Ken je deze nog? Hier had ik twee units van staan.
http://www.brutman.com/Be.../Bernoulli_Box_A220H.html
Dan te bedenken dat onze eerste computer nog niet eens een gigabyte aan geheugen had.

Ben wel benieuwd wanneer de honger naar meer opslag bereikt is. Met 4k tv is de visuele grens wel bereikt dus ooit zal meer gewoon niet meer nodig zijn maar puur extra..
Ik betwijfel dat het bij 4k zal stoppen.
Vergeet niet dat ook blurays gewoon heel veel compressie hebben. Volgens de calculator hieronder zou een uncompressed film van 1 uur(4K resolutie) 1,7TB zijn...
Er is voorlopig nog heel veel drang naar meer opslagcapaciteit.

Calculator:
http://web.forret.com/too...2&title=Digital+Cinema+4K

[Reactie gewijzigd door sbmuc op 31 januari 2014 12:51]

Tja, als je het daarmee vergelijkt. Mijn eerste PC had een harde schijf van 20 MB. En dat vonden we toen al heel wat vergeleken met de schamele 1,4 MB ruimte op diskettes (weet de huidige jeugdige koper nog wat een diskette is). Om nog maar re zwijgen over de floppy's daarvoor van 360 kB. Als je er over nadenkt is het eigenlijk verbazend hoe gewoon we de ontwikkeling in de laatste 20 jaar zijn gaan vinden. Ik bedoel verbazend dat we nergens meer verbaasd over zijn.
Looser... ;)
Mijn eerste 8086 kreeg zowaar een 40MB hdd. Was een koopje, kostte toen nog geen 4 gulden per MB. En met DoubleDisk liep dat toch wel lekker op naar bijna 80MB, na DOS en Win3.11 hield ik zo'n 60MB over voor Yathzee e.d. :D
Veel reacties hier over hoe groot de vooruitgang wel niet is... Hebben die mensen het stukje wel gelezen? Ik vind dat er helemaal geen technische vooruitgang is. Deze schijf is het uitmelken van de prestatie van 1TB op 1 platter. Deze schijf bestaat uit 6 x een 1TB platter. Dat is geen vooruitgang mensen! Dat is uitmelken van bestaande technieken.

Het wordt pas echt interessant als er schijven van 6TB komen die uit 2 of hooguit 3 platters bestaan.
ik heb laatst een bericht gelezen over japanse expirimenten met 8K, dat zal voor een bioscoopscherm nog steeds interessante content zijn.
Denk dat de honger niet snel over is. Overigens ligt de opvolger van 4k al klaar. En op grotere schermen is het verschil echt wel waar te nemen.
Uiteraard is het waar te nemen, van dichtbij. Het probleem is dat je het verschil tussen 4K en 8K niet ziet op een normale afstand van de TV, waarbij je beide kanten van het scherm nog goed kunt zien.
Hou rekening, TV schermen worden ook groter... Tot op een 5 jaar geleden, was een 42" LCD iets dat je 1500¤ koste ( ken de prijs nog goed ). Nu voor die zelfde 1500¤ koop je een 60", dat 1/3 stroom verbruikt, met genoeg decoders enz erin...

Verschil is, dat bij die 60", "oude" media zoals DVD's er nog slechter uitziet... Hoe groter de TV's worden, de content moet ook mee gaan. Nu ja, is niet dat we ineens 200" TV's gaan hebben om 8K te rechtvaardigen ;)
tsja, ik geloof niet zo in limieten. Er zullen vast technieken komen die nog meer bandbreedte vragen. Zodra opslag geen beperkende factor meer is, maakt dat natuurlijk ook weer de weg vrij voor nieuwe (dataverslindende) technieken.

[Reactie gewijzigd door Phony op 31 januari 2014 13:34]

Dat is nog niet zo lang geleden dan. ;)

Mijn eerste pc had een harde schijf van 50 MB. Dat was heel veel in die tijd!
De SSD van nu kost ongeveer net zoveel als de grootste HDD 10 jaar geleden.

Ik denk dat als we 5 jaar wachten dat bijna alles SSD is. Dit vanwege het feit dat het goedkoper is geworden om te maken.

Leuk dat Seagate komt met een 6 Tb drive maar de kans dat de rebuild dan faalt omdat die tijdens een build een fout tegenkomt op zo'n grote schijf wordt alleen maar groter.
Eerst de levensduur van een SSD ff flink verhogen, die is mij nu nog te laag in verhouding tot de hdd's
Valt wel mee hoor. Ik nog steeds een 80 Gb SSD van Intel in de omloop. En die doet het nog prima D2D use.

Dus dat kan het nou niet echt zijn. Ook zijn grote fabrikanten afgestapt van SLC naar MLC. Wil dus wel iets zeggen, ook sommige systemen bij ons zijn voorzien van SSD schijven.

En het werkt echt super. We moeten alleen nog even kijken hoe lang ze overleven op Enterprise niveau. Maar er zit 5 jaar garantie op. Dus in ieder geval zijn we 5 jaar voorzien van werkende SSD's.
Je kan niet op basis van een klein aantal schijven zeggen dat de levensduur van een SSD niet heel veel slechter is dan van een HDD. Daar moet je duizenden schijven voor testen, dan krijg je een beter beeld.
klopt, maarja 5 jaar is erg lang en de datahonger groeit alleen maar...
Ongelofelijk wat een datacapaciteit. M'n eerste PC van mijn werk was een compaq x386 met maar liefst een 42Mb harde schijf. "Die krijg je nooit vol" was toen het gezegde. En inderdaad, die heb ik nooit vol gekregen want die was al vervangen voor het zover was.
Die 42 mb harde schijf heb ik nog. Je weet immer maar nooit :)
zo'n ding heb ik ook nog gehad hahahaha
je moet er alleen niet bij nadenken wat dat ding per mb gekost heeft, als je dat omrekend naar de hier besproken 6 Tb......pffffff
Die van mij was 80, en na installatie van blood was hij vol haha
Wat ik heel jammer vind is dat er geen 'ouderwetsche' Quantum Bigfoot achtige schijven meer gemaakt worden. Dit zou voor backuptoepassingen ideaal zijn.

Lage omwentelingssnelheid, mega grote platters.
Trager, maar heel acceptabel en dus voor backuptoepassingen ideaal en zeer grote capaciteit.

Ik mis ze :P

Veel mensen hebben enorm veel data maar die wordt maar zelden gelezen, muziek, films, etc etc. Heb je geen snelle accesstime voor nodig, maar vaak wel veel opslag.

[Reactie gewijzigd door Fairy op 31 januari 2014 13:05]

Ik mis de quantum bigfoot ook, als kiespijn ;)
Wat een keleredingen waren dat, veel uitval, traag, onbetrouwbaar, nee, laat maar zitten die revival... :D
Wat ik meer bedoel is dat als we met de huidige stand van techniek (want bigfoot was destijd 2 tot 10GB ofzo, destijds VEEL!) een bigfoot schijf maken met grote platters, wat zou dit doen voor de opslagcapaciteit? Misschien met de huidige stand van techniek (4TB schijf) zou je een bigfoot kunnen maken met misschien wel 8 of 10 TB.

Daarmee zie ik hele leuke toepassingen voor NAS systemen met gecombineerde 'snelle' opslag met 'trage' opslag op een zijspoor waardoor je een soort hybride systemen krijgt.

Je zou 't nog gekker kunnen maken. Een NAS met een SSD voor vaakgebruikte data. 3,5" schijven voor normale data en een bigfoot voor het archiveren en backuppen.
Ik begrijp wat je bedoelt en Ik vind het een mooi idee :)
Altijd die nostalgie bij dit soort artikelen. Even terzijde waarom maken ze geen 3.5 " 8 TB SSD ofzo, gewoon om te tonen dat het kan. Ben ik juist in het veronderstellen dat het aanbodprobleem van SSD's is dat ze dezelfde componenten en processes delen als Chips en Ram ?
RAM is toch echt wat anders. een andere chip met een andere opbouw.

SSD's zijn gewoon veredelde USB sticks. dat flash geheugen wat ze gebruiken zie je overal en wordt daarom ook bijna tegen kostprijs verkocht.

de prijs van een SSD schaalt daarom bijna lineair met de capaciteit. een 8TB SSD zou daarom nu minimaal 2600 euro kosten, en waarschijnlijk eerder bijna 4000.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True