Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Toshiba introduceert 10TB-hdd voor enterprisetoepassingen

Door , 50 reacties

Toshiba heeft de MG06-serie enterprise-hdd's aangekondigd, waarvan het model met de grootste opslagcapaciteit 10TB biedt. Het gaat niet om een met helium gevulde harde schijf, zoals steeds vaker het geval is bij harde schijven met veel platters.

Drives in de MG06-serie doen hun werk op 7200rpm en bevatten een sata600-interface. De doorvoersnelheid van het 10TB-model is 237MiB/s. Daarnaast bestaat de MG06-serie uit 6TB- en 8TB-modellen, met een doorvoersnelheid van 230MiB/s.

De mean time to failure bedraagt 2,5 miljoen uur, waar de opgegeven mttf van de voorgaande MG05-serie op 2 miljoen uur lag. Bovendien is de grootte van de buffer ten opzichte van de voorganger verdubbeld naar 256MiB. Uit de bij de aankondiging gevoegde afbeelding valt op te maken dat de 10TB-hdd over zeven platters beschikt.

Onlangs maakte Toshiba bekend wel met zijn eerste met helium gevulde harde schijf op de markt te komen. Die schijf zou een opslagcapaciteit van 14TB bieden. Helium heeft een lagere dichtheid dan lucht en levert zo minder wrijving op, waardoor fabrikanten meer platters in de schijven kunnen stoppen.

Door Olaf van Miltenburg

Nieuwsco÷rdinator

28-09-2017 • 15:08

50 Linkedin Google+

Reacties (50)

Wijzig sortering
2,5 miljoen uur / 24 = 104166 dagen = 285 jaar

Dan kunnen de kinderen van je kinderen van je kinderen van je kinderen er ook nog hun hele leven gebruik van maken :D
Nee, dat is het grootste misverstand dat er bestaat. De MTBF zegt niets over hoe lang de schijf mee gaat.

Wat de MTBF zegt, is dat als je zodra de garantie verloopt de schijf direct weg zou gooien en vervangen door een nieuw identiek exemplaar, dat je dan pas na gemiddeld 285 jaar een defecte schijf kunt verwachten.
Die definitie heb ik nooit eerder gehoord. Heb je daar een bron voor?
Jawel, hij komt van nota bene Toshiba zelf, toen ze eens op ze zaak waren hebben ze dat in een mooie presentatie.

Let op noot nummer 6 aan het eind van het gegevensblad van deze schijf:

https://toshiba.semicon-s...Axxx-Product_Overview.pdf

Komt min of meer op hetzelfde neer als wat ze in de presentatie zeiden.
Om eerlijk te zijn heb ik me ook weleens afgevraagd wat dit getal nu betekent, interessant dat je het noemt. Ik zie het in je link niet staan om eerlijk te zijn, maar vind het wel een interessante uitleg, ik zie dit citaat:

"[6] MTTF (Mean Time to Failure) is not a guarantee or estimate of product life; it is a statistical value related to mean failure rates for a large number of products which may not accurately reflect actual operation. Actual operating life of the product may be different from the MTTF"

Maar er zal inderdaad een zekere definitie achter zitten die niet is dat zo een schijf gemiddeld 285 jaar mee gaat. Je verhaal klinkt op zich logisch, als je een groot aantal exemplaren aanzet voor een beperkte periode (zeg een jaar), en je de gedraaide uren deelt door het aantal defecten kan dat best wel op 2.500.000 uur per uitvaller uitkomen afhankelijk van hoe je meet. Dan moeten ze er dan wel even bij vermelden hoe lang de meetperiode is, anders is een waarde voor de MTTF geven nog niets waard. Ik ben ook pessimistisch over hoeveel je terug krijgt als je er 1000 koopt en de MTTF opeens de helft blijkt te zijn.
Het is 2,5 miljoen uur.. Maar dan met de gespecificeerde workload. Die workload is 550TB aan ops (r/w) per jaar. Je kan dus beter stellen dat hij 156.750TB aan data aan kan. Om de MTBF van 2,5 miljoen uur te halen mag je dus per dag maar maximaal 0.15 keer per dag de schijf lezen/schrijven (dwpd).

Bovendien hebben ze dit getal bedacht door 1000 schijven een maand lang te laten draaien en aan de hand van de uitval berekenen ze dan hoe lang een schijf mee zou kunnen. Slijtage word daarin dus niet meegenomen

Als je de schijf 1 keer volschrijft en daarna nonstop met 237MB/s leest dan is hij al na 21 jaar stuk. En dat zonder stroom onderbrekingen, een goede airflow, en op een juiste temperatuur.

Daarnaast is dat de mtbf voor het mechanische gedeelte, volgens mij vallen de meeste schijven uit met software/pcb problemen.
Slijtage word daarin dus niet meegenomen
Mechanisch is het wel over met een schijf na iets van 6 tot 9 jaar. 100.000 uur is het getal wat men altijd aanhoudt, maar dat gaat dan vaak over het maximum, niet het gemiddelde. Ik heb een hoop schijven die nu zes jaar oud zijn, en daar is inmiddels wel een derde van vervangen.
Daarnaast is dat de mtbf voor het mechanische gedeelte, volgens mij vallen de meeste schijven uit met software/pcb problemen.
Fouten en slijtage van de magnetische laag is de voornaamste reden voor RAID-controllers om disks uit de array te flikkeren: timeouts, leesfouten en ECC-meldingen op specifieke sectoren. Mechanische problemen met de koppenarm en de leeselektronica die er aan hangt is nummer twee. Dat geeft meer en al snel teveel leesfouten op alle sectoren op een disk. Compeet falen van elektronica is nummer drie op mijn lijstje.

Overigens valt me wel op dat de AFR de laatste jaren fors gedaald is.
Gelukkig, gezien de huidige snelheid waarmee datadichtheid toeneemt, gaan de meeste (enterprise) schijven echt geen 6-9 jaar mee.. het is gewoon rendabeler om op een gegeven moment schijven te vervangen met hogere capaciteit schijven (spaart rack/serverspace uit en stroomkosten).
En dan nog kan die van jouw na 5 uur stuk zijn.
Klopt, hij kan het echter ook 3 miljoen uur doen :*)

Al vraag ik me in de praktijk af of zo'n motortje echt bijna 300jaar kan draaien. Dan zijn de lagers toch helemaal verrot.

[Reactie gewijzigd door jongetje op 28 september 2017 15:29]

Zo werkt dat niet. Het zegt meer iets dat ze met veel schijven een test van x uur hebben gedaan en er y uitval was.
Dan hebben je kleinkinderen vintage porn. ;)
"Huh? Vond opa DAT mooi? *gniffel*" :P
De 10TB uitvoering is voorzien van 7 platters als ik het goed geteld heb.
En vraag me inmiddels dan ook wel een keer af, hoeveel meer ze er nog meer in kwijt kunnen op ten duur.
En de opslag capaciteit nog verder kunnen rekken dus zeg maar.
Iemand hier enig idee over misschien.
Zo ja, dan hoor ik dat graag.
Men schat de bovengrens voor de huidige technieken op ongeveer 20 - 25 TB in een 3.5" behuizing.
Hopelijk komt de HAMR, TDMR (Two-Dimensional Magnetic Recording), BPMR (Bit-Patterned Media Recording), HDMR (Heated Dot Magnetic Recording) en MAMR (Microwave-Assisted Magnetic Recording) techniek nog op tijd, voordat de hdd's ingehaald zijn door flash en dan zou je ongeveer kunnen gaan tot 100 - 150 TB in een 3.5" huisje.
Zie ook hier: https://blog.architecting...eres-my-100tb-hard-drive/

Maar het is allemaal al te lang nog in R&D en persoonlijk verwacht ik eigenlijk niet meer dat dat nog economisch haalbaar zal zijn.
En is er een specifieke reden dat ze deze niet met Helium vullen zoals hun 14TB editie? Is het (veel) duurder in productie of zijn er nog andere nadelen aan verbonden?
Helium is een edelgas wat niet in overvloed aanwezig is in de natuur. Het is ook nog eens niet/amper synthetisch na te maken. Dus hoe minder we er van gebruiken hoe beter. Zo zijn er genoeg initiatieven die de ballon heliumtankjes willen verbieden.
De kosten van helium zijn het probleem niet, de hoeveelheid helium in de schijf is nihil, dus je praat over centenwerk. Wat een heliumschijf werkelijk duurder maakt is de behuizing. Helium is een gas dat zich erg lastig laat opsluiten, waardoor hermetisch afsluiten een nieuwe betekenis krijgt. De speciale behuizing zorgt ervoor dat heliumschijven duurder zijn.
Geen idee of het een oplossing is, maar het lijkt mij eenvoudiger om een hdd behuizing vacuum te trekken. Dan heb je ook de luchtweerstand niet. Maargoed er zal wel een goede reden zijn waarom helium beter werkt.
Zo ver ik heb begrepen lekt er nu minder dan 1% helium in 1.5 jaar omdat het drukverschil maar 1 bar is. Ga je naar een vacuum dan wordt het drukverschil veel groter en lekt er veel sneller lucht terug naar de behuizing. Verder moet je bij een vacuum ook een andere manier verzinnen om je hitte naar de behuizing af te voeren.
Door de draaiing van de schijven ontstaat er een soort film van lucht (of helium) dat als smeermiddel werkt tussen de kop en de schijf. Zou je een schijf vacuum trekken dan is deze film weg, ligt de kop dus echt tegen de schijf aan.

Dat zou je kunnen oplossen door steviger armen te gebruiken en heel nauwkeurig uitlijnen, maar gewoon een gas als smeermiddel gebruiken is toch wat eenvoudiger.

Daarnaast is het tot stand brengen en in stand houden van een vacuum nou ook niet direct heel handig, en ga je waarschijnlijk problemen met de koeling krijgen die je weer op andere wijze moet oplossen.
M.a.w.: vacuum schijven: in theorie wellicht mogelijk, niet heel praktisch.
Je hebt wel iets nodig tussen de platter en de kop om de kop te kunnen laten zweven.
Een heel dun laagje lucht (of helium) tussen platter en lees/schrijf kop zorgt er voor dat beide elkaar niet raken en dat maakt de boel een stuk meer bestand tegen schokken.
Als je een harde schijf op vacuum zet, heb je een nog stevigere behuizing nodig en een grotere want er moet ook iets van een (absorptie) pomp in zitten om het op vacuum te houden. Daarbij werken absorptie pompen vooral goed op UHV (ultra hoog vacuum ~1E-12 bar) omdat ze anders te snel verzadigen.

Als je een redelijk vacuum hebt, zeg 1 mbar, dan staat er een druk op de buitenkant van 1 kg/cm2. Dat is grof geschat 300 kilo......
Fracties van centen. Een kuub cost 3 dollar cent bij 1 atmos. En met een kuub kan je heeeeeeel veel diskjes vullen. Elke keer als er weer over helium gevulde disks gesproken word komt de schaarste weer langs maar dat is werkelijk geen issue. Niet in dit geval.

Overigens zal Helium nooit opraken, alleen duurder worden. er zijn ruime voorraden maar die zijn alleen met de huidige prijzen niet te winnen. Net als elke andere grondstof.
Kunnen ze de schijf dan niet beter luchtledig zuigen? In de wetenschap dat luchtmeleculen makkelijker buiten te houden zijn dan helium binnen te houden?

Edit: ik dacht blijkbaar niet aleen zon:)

Koeling en schokken zijn idd goede kanshebbers.

[Reactie gewijzigd door Coolstart op 28 september 2017 20:53]

Er staan weer een paar grote vulkanen op uitbarsen, kunnen ze het helium percetage in de atmosfeer weer aanvullen.
Het is wel opmerkelijk dat het ze lukt om 10TB te realiseren zonder Helium. Zowel HGST als Seagate houden het bij 6TB voor luchtgevulde schijven.
Ik gebruik al een paar jaar de 8 TB schijven van Seagate. Deze gebruiker SMR en geen helium.
Klopt, ik had moeten zeggen dat HGST en Seagate het bij 6TB houden voor PMR-schijven. Ik kan nergens bevestiging vinden of deze Toshiba-schijf PMR of SMR is, maar alles lijkt erop dat het een PMR-schijf is. Daarmee zou Toshiba dan een knappe prestatie neergezet hebben.
En bewegen al die 14 koppen tegelijk?
Idee, waarom is er geen mechanisme die er voor zorgt dat alleen de juiste kop beweegt. Iets met een ToC op de eerste sector.
Omdat deze 14 koppen samen werken zoals een raid 0. Hierdoor zal de doorvoersnelheid veertienvoudigen.
Is dat wel zo? Voor zover ik weet hebben harde schijven van het zelfde type met verschillende opslagcapaciteit (en dus ook variŰrende hoeveelheid platters) allemaal dezelfde doorvoersnelheid
Er is een verschil. Meer platters & koppen = meer bits per seconde. Platters hebben ook aan de rand meer bits per seconde dan aan de binnenkant. Dat betekent ook dat grotere platters dus sneller kunnen zijn dan kleinere platters (2.5" vs. 3.5").
Dat betekent ook dat grotere platters dus sneller kunnen zijn dan kleinere platters (2.5" vs. 3.5").
Dit klopt bij gelijkblijvend toerental.
Door de fysieke eigenschappen van een schijf is het eenvoudiger om het toerental op te hogen bij een (fysiek) kleine schijf dan bij een grote.Dat dat vaak niet het geval is, is omdat fysiek kleine schijven traditioneel vaak voor mobiele toepassingen zijn, waar energieverbruik weer een ding is.
Omdat deze 14 koppen samen werken zoals een raid 0. Hierdoor zal de doorvoersnelheid veertienvoudigen.
Dat is niet correct. Zouden de koppen als raid 0 werken dan zou je een veelvoud van de hier genoemde snelheid van 230 MB/s krijgen. Immers die snelheden haalden we jaren geleden al met single platter disks.

De snelheid hangt vooral af van de draaisnelheid in combinatie met de datadichtheid. Beiden hebben een gunstig effect op de snelheid. Als ik me niet vergis zijn we naar de 200+ MB/s gegaan toen we 1 TB per platter kregen en zaten we daarvoor op iets van 150 MB/s.

[Reactie gewijzigd door sdk1985 op 28 september 2017 16:53]

En je kunt de boel nooit gegarandeerd zo goed positioneren met alle 14 koppen tegelijk.
Niet elke kop beweegt exact gelijk mee, want zo oneindig stijf kun je de kam met koppen niet maken.
Dus je zult per leeskop moeten bepalen of de kam verschoven moet worden of niet.
Dat wordt dan een flinke hdd als je voor iedere kop afzonderlijk een stappenmotor moet inbouwen. :)
Al wordt-ie 3 keer zo dik. Als-ie daan ook 10 keer zo snel van wordt... bring it on. De vraag is vooral hoeveel duruder de schijf daar van wordt.
Er zijn schijven geweest met twee separate armen. Nooit een succes geworden, zelfs niet in het pre-SSD tijdperk.
Als je snel wilt kun je beter een SSD kopen. In datacenters telt de ruimte die je storage in beslag neemt ook mee. De dichtheid van 10TB in een LFF behuizing is juist het sterke punt van deze schijf. Als je hem 3x zo dik maakt kun je in diezelfde ruimte 3x 4TB schijven in RAID 0 zetten, dan heb je ook prestatiewinst en het kost een stuk minder.
Kost helemaal niet een stuk minder. Raid kaarten en expander cables zijn duur. De kosten per schijfaansluiting maken vaak een groter deel uit van het totaalplaatje dan de kosten per schijf. 3x zovel aansluitingen is 3x hogere kosten.
Een schijf met tien servo’s is ook niet goedkoop en daar ging de vergelijking over.
Allicht goedkoper dan een extra raidkaart.

Servo motortje kost een paar cent. Goede raid kaart honderden euros.
De vraag is of het daar dan ook echt merkbaar veel sneller van wordt. Slimme algoritmen zorgen er sowieso al voor dat de data tamelijk tactisch wordt weggeschreven.

Een ander puntje is dat je ineens 10x zoveel mechanische componenten hebt die het kunnen begeven.
Daarbij komen dan nog de kosten van de componenten. Het is namelijk niet alleen maar 10x een stappenmotortje; het is ook 10x de hele aansturing.
Daarnaast heb je ineens vele koppen die graag de wetten van Newton voor je demonstreren. ;)

Op zich trouwens leuk dat je het best vindt dat dat ding 3x zo dik wordt maar probeer 'm dan nog maar eens in een blade server te stoppen. Je zit dus met het probleem dat je geen standaard form factor meer hebt en je het product dus niet kwijt kan aan een enorm deel van de markt.

En zo zijn er nog wel wat bezwaren aan te dragen. Het is allemaal niet altijd zo eenvoudig of zinnig als het, in eerste instantie, lijkt. :)
good point.. in meervoud :-)
Ik denk omdat het vrij lastig wordt om het mechanisme om 7 armen onafhankelijk te bewegen, zo compact (zonder verlies in betrouwbaarheid) te maken dat er 7 stuks van in een behuizing passen. Nog afgezien van de optimalisatie in de aansturing ervan. Het zou de kosten van een harddisk ook verveelvoudigen, en ik vraag me af hoeveel sneller je disk ervan wordt.

Het zou gezien de hoge prijs een niche-product worden, en ik denk niet dat er veel mensen bereid zouden zijn om de hogere prijs te betalen. Zou je 100 euro voor een disk betalen, of 300 euro voor dezelfde capaciteit maar misschien 1,5x sneller? Ik zou eerder 2x 75 euro betalen voor twee kleinere disks en die in raid-0 zetten, als het sneller moet.

Zeker niet nu er ook sdd's als alternatief zijn, als je hogere performance wilt.

Wel goeie vraag.

Edit: over exoten gesproken: de Conner Chinook, met twee sets lees-/schrijfkoppen. Maar dit idee sloeg ook niet echt aan, eventueel door de hoge prijs.

[Reactie gewijzigd door RefriedNoodle op 29 september 2017 08:18]

Daarnaast is een hybride oplossing vaak al een stuk beter. Maar dan wel met een fatsoenlijke hoeveelheid nand. Iets van 100GB+ ofzo. Goede algoritmiek die ook naar extenties kijkt is dan echter wel belangrijk.
Ah daar kan ik mijn kattenplaatjes collectie mooi op kwijt, wat nou enterprise toepassingen.
De HDD-technologie hiervan is nog steeds dezelfde als bij de 2 en 4 TB mainstream disks. Misschien opgerekt met het shingles-trucje van Seagate, maar het destijds baandoorbrekende GMR-effect blijft nog steeds de grondslag van de magnetische dichtheid. Zonder dat effect kon je maximaal maar 4 GB per disk maken of zo. GNR heeft de capaciteit op slag verduizendvoudigd en is daarmee de basis van het grote internet en de hires media. De industrie melkt de huidige technologie alleen maar uit door nog meer platters in de disk te proppen en de 'groei' vast te houden, maar HAMR-disks met een nieuwe methode voor magnetische opslag zijn het nog steeds niet. Wel knap staaltje van fijnmechanisch ontwerpen, maar daardoor lijken het me mechanisch ook een heel kwetsbare disks.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*