Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 129 reacties
Submitter: aardvark

WD is gestart met de levering van de HGST Ha10-drives met 10TB opslag. De op enterprisetoepassingen gerichte schijven zijn gevuld met helium in plaats van met lucht. Hierdoor hebben de platters en koppen minder last van wrijving.

HGST logoDe eerste schijven gevuld met helium levert HGST sinds november 2013. Dat was eerst een 6TB variant en later een 8TB. HGST, onderdeel van Western Digital, levert deze tweede generatie met helium gevulde schijven onder de naam Ultrastar Archive Ha10 SMR-hdd.

Het is de eerste schijf van het bedrijf die gebruik maakt van SMR, ofwel shingled magnetic recording. SMR is een manier van data opslaan op magnetische tracks die elkaar enigszins overlappen, waardoor de data-dichtheid groter is. Een schrijfkop van een magnetische schijf maakt minder smalle tracks dan een leeskop kan lezen, waardoor er een kleine overlapping van de aanliggende tracks kan zijn. Het nadeel is wel dat de prestaties door SMR iets naar beneden gaan, maar voor het doel waarvoor de schijven gemaakt worden, is dat waarschijnlijk geen probleem.

De belangrijkste markt waar HGST zich op richt met de schijven, zijn vooral bedrijven die grote hoeveelheden data moeten archiveren, waar volgens het bedrijf toch vooral sequentieel data wordt opgeslagen en uitgelezen in plaats van random. De 3,5"-drive roteert met 7200rpm, beschikt over zeven platters, een 6Gbit/s-sas-interface en 256MB cache

HGST levert via Github een opensource-sdk om de ontwikkeling van applicaties en implementatie met de nieuwe smr-commandoset voor Linux te vergemakkelijken. Prijzen zijn op aanvraag.

Moderatie-faq Wijzig weergave

Reacties (129)

Bij nieuwsberichten over HDD's met dergelijke hoge opslagcapaciteiten, komen in mijn achterhoofd de berichten tevoorschijn over de risico's die dergelijke capaciteiten meebrengen voor RAID5/6-arrays. Dan denk ik aan o.a. dit artikel (uit 2007) en dit artikel (uit 2012). Beiden al iets oudere artikels, maar zeker nog relevant lijkt me.

Nu moet ik toegeven dat ik zelf niet enorm thuis ben in de RAID-wereld, maar ik dacht dat RAID5/6 frequent werd toegepast, vooral bij NAS-apparaten en KMO's. Ik weet ook niet hoe het ondertussen zit met andere systemen zoals ZFS (dat natuurlijk meer doet/is dan data redudancy, maar dat zit er ook wel in verwerkt), maar mogelijk kan iemand mij hier aanvullen?

[Reactie gewijzigd door Aertsvijand op 10 juni 2015 11:24]

Bit Error Rate
Die artikelen, die inderdaad in de kern juist zijn, adresseren het probleem van uncorrectable Bit-Error-Rate; uBER. Dit is een specificatie die hardeschijffabrikanten opgeven en is een indicatie hoeveel onleesbare sectoren de schijf genereert. Let wel, het gaat hier niet om beschadigde sectoren waar fysiek wat mis mee is. Nee, het gaat hier om onleesbare sectoren enkel en alleen vanwege het feit dat er onvoldoende errorcorrectie aanwezig is.

Een opslagapparaat heeft veelal een ruwe BER dus vr de toepassing van errorcorrectie. Al lange tijd zijn hardeschijven het punt gepasseerd waarbij de data foutloos uitgelezen kan worden zonder errorcorrectie. Errorcorrectie is dus noodzakelijk om foutloos te kunnen teruglezen wat je eerder hebt opgeslagen. De ruwe BER die onaanvaardbaar hoog is, wordt door de errorcorrectie naar acceptabele niveau's gebracht.

Maar wat is 'acceptabel'? Vroeger toen hardeschijven 500 megabyte waren, was een onleesbare sector door gebrek aan errorcorrectie nog extreem zeldzaam. Vrijwel alle onleesbare sectoren kwamen door fysieke beschadiging. Tegenwoordig met schijven van 1TB+ is dat compleet anders; vrijwel alle onleesbare sectoren zijn te wijten aan onvoldoende errorcorrectie en fysieke beschadiging is vrij zeldzaam.

De reden dat moderne schijven naar verhouding mr onleesbare sectoren zijn gaan produceren, is omdat de uBER-specificatie gelijk is gebleven. En als de capaciteit/datadichtheid toeneemt maar de uBER gelijk blijft, dan betekent dus netto minder bescherming en dus meer onleesbare sectoren. En dat is de reden dat het artikel een datum zet bij zijn verwachtingen. Na het jaar 2009 is de datadichtheid van hardeschijven zo groot, dat onleesbare sectoren een groot probleem worden voor RAID5 arrays. En dat is ook zo.

Goed, onleesbare sectoren, hoe erg is dat?
Nu we weten waarom onleesbare sectoren een steeds groter probleem wordt, kijken we naar de gevolgen hiervan. Alles hangt namelijk af welke software - dus welk filesystem - je gebruikt op de hardware. Gebruik je ouderwets RAID, dan heb je een groot probleem en kan zelfs RAID6 onvoldoende zijn om te beschermen tegen onleesbare sectoren - dus aangenomen dat de schijven zelf 100% in orde zijn kan RAID5 en RAID6 dus al onvoldoende bescherming bieden.

Wat er kan gebeuren bij ouderwets RAID is dat er enkele schijven uit de RAID array worden gegooid en daarbij raakt de array degraded en daarna failed. Recovery is nog wel mogelijk, maar dit is een groot probleem waar met name consumenten mee te maken hebben. Dit omdat zij geen dure enterprise hardeschijven kopen die 10 tot 100 keer minder onleesbare sectoren produceren. Kortom, de consumenten zijn als eerste 'de sjaak'.

Ook zonder gebruik van RAID ben je niet veilig, want ouderwetse filesystems zoals NTFS en Ext4 bieden totaal geen bescherming aan je bestanden. Zelfs detecteren dat er schade is, ontbreekt in feite. Welk kan je met chkdsk of fsck het filesystem repareren zodat het weer klopt; maar als daarbij de data die je had opgeslagen vervormd/corrupt/onvolledig wordt, is dat jouw probleem.

De oplossing..
... is zo simpel - nieuwe software! Nieuwe intelligende software die het pikt dat een opslagapparaat wel eens een sector niet kan lezen. Dan is het hele probleem van uBER opgelost!

Microsoft had dit in een ver veleden al willen doen; met DriveExtender 2.0 die in Windows Home Server zou moeten komen. Het project werd gecancelled door incompatibiliteit en design issues. Maar duidelijk is dat Microsoft zich al langer drukt maakt om zijn ouderwetse NTFS filesystem die eigenlijk niet meer geschikt is voor grote 1TB+ schijven.

Microsoft is wel met ReFS bezig; resilient filesystem. Dit is de minst ontwikkelde en minst geavanceerde 3e generatie filesystem, maar valt wel onder de noemer next-gen storage.

Apple had in het verleden ZFS geadopteerd; versie 9 dacht ik. Maar waarschijnlijk door de overname van Sun door Oracle heeft Apple deze functionaliteit weer verwijderd. Apple wilde geen risico lopen in juridische problemen met zwaargewicht Oracle, wat een extreem gemeen en 'Amerikaans' bedrijf is.

Draai je een open source OS, dan ben je het beste voorzien. Je kunt Btrfs (butter-fs) op Linux draaien. Maar het beste en meest geavanceerd en meest volwassen is natuurlijk ZFS. ZFS is d manier om je data op te slaan in dit tijdperk waarbij al het andere van een ander tijdperk is of nog niet volwassen. ZFS is een modern 3 generatie filesystem n volwassen en dat maakt het uniek. In feite is ZFS de enige veilige manier om data op te slaan - op dit moment.

ZFS
ZFS maakt gebruik van checksums om de integriteit van de data te bewaken. Nooit meer silent corruption dus. Ook heeft het een eigen RAID-laag die zwakheden van RAID5 en RAID6 adresseert. Zo is de bekende 'RAID5 write hole' verholpen met RAID-Z en wordt een dynamische stripesize ingezet om trage read-modify-write procedures geheel te voorkomen. Dit komt ook de atomicity ten goede.

Kort gezegd, ZFS is wat je wilt hebben. Maar omdat je waarschijnlijk Mac of Windows op de desktop gebruikt, is een ZFS NAS de meest praktische oplossing. Wel je eigen Windows/Mac-desktop, maar wel je data op ZFS opslaan via een netwerkshare.


Meer informatie over ZFS: Het grote ZFS topic
Meer informatie over ZFS NAS zelfbouw: Het grote DIY RAID NAS topic deel 3
Uitmuntende post als gewoonlijk.
In feite is ZFS de enige veilige manier om data op te slaan - op dit moment.
Alleen hier ben ik het niet helemaal mee eens, BtrFS is voor non-raid opslag tegenwoordig net zo veilig als ZFS, wel heeft ZFS een langere bewezen betrouwbaarheidsgeschiedenis, en verscheidende Linux distributies zijn begonnen het als de vervanger van ext4 te gaan gebruiken.

Alleen de raid5/6 implicatie van BtrFS is nog niet op het niveau van ZFS, hoewel daar ook best flinke voortgang mee wordt geboekt.

En BtrFS heeft een hele grote stap voor op ZFS, en dat is OCE, iets dat vooral voor thuisservers en NASsen zeer intressant is, daar men minder geld hoef te investeren in een keer, maar HDDs kan toevoegen indien men meer opslag nodig heeft, het is alleen nog wachten totdat ook BtrFS raid5/6 ook als betrouwbaar worden bestempeld.

Deze schijf is trouwens niet de eerste die met SMR formattering is uitgevoerd, de Seagate Archive, was de eerste die het ondersteunde, en uitgaande van de andere HGTS Helium schrijven, zullen deze ook flink duur zijn in verhouding met gewone schijven.

Btw, MS zou er goed aan doen om gewoon ReFS te laten vallen en ook het BtrFS file systeem te adopteren als vervanger van NTSF, want vele die een thuis of zakelijke server nodig hebben, stappen nu over op Linux puur van wegen de ondersteuning van betere en betrouwbare file systemen, en ik hoor nergens dat ReFS wordt gezien als een goed alternatief voor ZFS of zelfs het in ontwikkeling zijn de BtrFS.

[Reactie gewijzigd door player-x op 10 juni 2015 13:02]

Het punt van CiPHER blijft staan. ZFS (op FreeBSD) IS het enigste bestandsysteem waartoe je je bestanden veilig kunt toevertrouwen. Ik zie nog regelmatig horrorstories over BTRFS en zelf laatst ook problemen gehad door een kernelupgrade.
Wat uit je reactie misschien niet zo goed naar voor komt, maar wat in het eerste artikel dat Aertsvijand aanhaalt wel staat, is dat die uBER een probleem is bij rebuilden van een degraded RAID array.

Stel dat je een RAID-5 array van 3 x 10TB drives hebt en 1 van de drives faalt. Dan moet je 20TB aan data lezen om de RAID array te rebuilden.
Met een typische uBER spec van 1UBE per 10^14bit (1bit per 12.5Terrabyte), heb je quasi-gegarandeerd 1 of meer errors geintroduceerd tijdens _recovery_ van je RAID array.

Dus de eigenlijke oplossing is dat fabrikanten betere uBER garanderen door gebruik van betere algoritmes (bvb: BCH) of dat we in de laag erboven betere error detectie en correctie gaan toepassen.

Volgens mij moet het een combinatie zijn van beide. Vendors moeten de verhouding uBER/diskgrootte enigzins aanvaardbaar houden, terwijl we in S/W toch ook werk moeten maken van betere data bescherming in de volledige chain (van applicaties tot op fysieke storage).
Hoewel ik zeker niet zeg dat uBER probleem geen echt probleem is, heb ik er persoonlijk nog steeds geen last van gehad in mijn +60TB NTSF R5 array, en dat, terwijl ik verschijdende OCE's heb uitgevoerd.

Maar uiteraard een sample van een R5 array is uiteraard niet veel zeggend, maar 21 HDDs is ook weer niet een absurd kleine sample.

Neemt niet weg dat hoewel alle echt belangrijke data drie of voor sommige data zelfs viervoudig is ge backuped, ik ook geen prettig gevoel heb bij het gebruik van 60TB aan data op een NTFS array.

En ik ga daarom een tweede ZFS server bouwen, waar ik alle data tijdelijk op kan zetten, en dan de huidige array over ga zetten naar ZFS, en de data daar weer terug op ga zetten.
Sorrie, maar hoe weet je dat je data correct is? Als er 1 disk kapot gaat in je array wordt je data opnieuw opgebouwd, als dan foutieve data wordt ingelezen (of brakke raid kaart/geheugen/etc) is dit met ntfs niet na te gaan (uitgaande van een simpele raid5 zonder externe checksums).

En dat is het probleem van silent data corruption, je weet niet dat het fout gaat. Ik had bijv. een restore gedaan van een mssql database (vanaf een raid5 emc san) en kwam er bij de daadwerkelijke restore pas achter dat de data stuk was. Gelukkig was het gecompressed zodat ik bij de restore al door had dat het mis zat, als het uncompressed was was ik er pas achtergekomen als de eerste queries werden uitgevoerd.

Vaak komt het niet voor, maar je moet wel een goed mechanisme hebben om je data te kunnen valideren. Check dit research maar van cern, het komt vaker voor dan je lief is : http://storagemojo.com/20...data-corruption-research/
Hulde voor deze uitgebreide post! _/-\o_
Veel van de info die je hier geeft komt wel wel bekend voor (al is er ook veel nieuwe info bij), maar zelf had ik het sowieso nooit op zo'n heldere manier kunnen formuleren, waarvoor dank!
Deze schijven kun je in theorie best voor RAID inzetten, maar dan moet je RAID controller wel de SMR commando-set ondersteunen.

RAID 5 op N disks maakt een pariteitssector aan voor elke N-1 sectoren die je wegschrijft. Deze harde schijven werken het beste als je duizenden sectoren achter elkaar wegschrijft. Dan is het geen probleem als er ook honderden pariteitssectoren tussen zitten.

[Reactie gewijzigd door MSalters op 10 juni 2015 12:04]

@MSalters
Deze schijven kun je in theorie best voor RAID inzetten, maar dan moet je RAID controller wel de SMT commando-set ondersteunen.
Ik ken SMT enkel met referentie aan multi-CPU/multi-core; niet in combinatie met storage tech. Waar staat het voor? (Een paar snelle zoekopdrachten geven nog geen idee).

@Aertsvijand
Bij nieuwsberichten over HDD's met dergelijke hoge opslagcapaciteiten, komen in mijn achterhoofd de berichten tevoorschijn over de risico's die dergelijke capaciteiten meebrengen voor RAID5/6-arrays. Dan denk ik aan o.a. dit artikel (uit 2007) en dit artikel (uit 2012). Beiden al iets oudere artikels, maar zeker nog relevant lijkt me.
Volgens mij ook. Het gaat er om dat de capaciteit van de opslagmedia meerdere keren door het plafond gegaan is, maar de gemiddelde uitval (nagenoeg) gelijk gebleven is.

In het geval van uitval in een RAID-array met grote schijven, betekend dat vrijwel zeker dat bij het herbouwen van de array, de andere schijven ook een failure de verduren krijgen. Het is daardoor niet mogelijk de array opnieuw op te bouwen, zodoende "end of RAID". Met RAID6 is er meer speling dan met RAID5, omdat er extra parity is, en als er bij herbouwen van de array nog een schijf uitvalt, blijft het mogelijk de array opnieuw op te bouwen.
Deze schijven kun je in theorie best voor RAID inzetten, maar dan moet je RAID controller wel de SMT commando-set ondersteunen.
SMT ?
Met hogere capaciteiten duurt het langer om je array te rebuilden. Het gevaar zit hem erin dat tijdens het rebuilden er nog een schijf uitvalt. RAID5 kan tegen uitval van een enkele schijf en is tijdens rebuilden dus volledig onbeschermd. RAID6 kan uitval van 2 schijven aan. En met ZFS heb je nog RAIDZ3, dan kan je al 3 kapotte schijven opvangen.

De vraag is natuurlijk hoeveel schijfruimte je kwijt bent aan parity en hotspares. Als je 8 schijven hebt + 2 parity (RAID6) + 2 hotspares dan heb je maar 8 van de 12 schijven om data op te zetten, een overhead van 33%. Hoe meer schijven in een array hoe lager de overhead.

Ik maak me geen zorgen over grote schijven in een array maar als je maar weinig schijven hebt ben je meer kwijt aan overhead dan als je dezelfde capaciteit wilt realiseren met kleinere schijven.
Heb nu ruim twee jr lang 6 WD Blues (640GB per stuk) draaien en 2x een rebuild moeten doen, waar 1 disk wat storing gaf (zerofill loste dat in beide gevallen op). Draait al ruim een jaar probleemloos.

Zolang de array niet te groot word, is het leed en het risico te overzien.
Ik heb eerder problemen met kleine arrays dan grote. En dan bedoel ik niet perse technische problemen.Als ik 30 schijven in een enclosure steek en ik gebruik er 4 als parity en hotspares, dan klaagt er niemand. Stak ik 4 schijven in RAID5 in een synology dan kwam mijn klant vragen waarom zijn array zo klein was.
We hebben het hier dacht ik puur over de technische kant.
Ik kan perfect begrijpen dat de dichtheid van helium lager is dan lucht en dat het stabieler is dan gewoon lucht maar welk voordeel heeft helium ten opzichte van een HDD in vacum?

Heeft het te maken dat de schijf niet goed gekoeld kan worden als er intern een vacum is?
http://en.wikipedia.org/wiki/Flying_height

Vacum werkt niet omdat dan de kop over de platter schraapt.....
Extra uitleg van het principe kan je hier vinden Wikipedia: Ground effect (aerodynamics)

Edit, een 0 waardering?
Blijkbaar weten maar weinig hier wat ground effect is, en wat het te maken heeft met het verkomen dat de lees/schrijf-kop de plaat raakt.

[Reactie gewijzigd door player-x op 10 juni 2015 23:27]

Vacuum of deels vacuum is lastiger te realiseren en dan krijg je te maken met onderdruk in de schijf zelf ik ben geen natuurkundige maar lijkt me dat dit geen jaren stand kan houden.
De koppen "drijven" op de lucht, of in dit geval helium. In vacuum heb je een gegarandeerde HDD crash. Dat heeft niets te maken met de moeilijkheid van het realiseren van vacuum. (Al is een perfect vacuum (vrijwel) onmogelijk)
Verder is de warmte moeilijker af te voeren.
Maar je hebt ook geen wrijving tussen de lucht en de schijf, dus ook minder warmte ?
Maar je zou wrijving hebben tussen de kop en de schijf. Die meer warmte genereert. Maar goed, dat maakt niet uit want je schijf is dan toch al voor de vuilbak.
Daar wel maar ik denk dat de meeste warmteontwikkeling in de as van de schijf zit, en dat kan dan niet meer via de schijf -> lucht worden afgevoerd. De warmteontwikkeling raakt dan onevenwichtig verdeeld.
in een volledige vacuum zou de kop toch niet kunnen bewegen, of denk ik dan te simpel?
Je denkt te simpel. In vacuum kunnen dingen prima bewegen.
Of te ingewikkeld. In een perfect vacuum is er geen wrijving, dus beweging gaat juist prima, vele malen soepeler dan in "the real world". En er is natuurlijk wel gewoon zwaartekracht, dus iets kan wel gewoon "vallen" in een vacuum, alleen dan wat harder, omdat er geen wrijving is.
Dat ligt er aan hoe je dat bekijkt. In Vacuum is er op sommig plekken ook oneindig hoge wrijving. je kan namelijk niet een zomaar een glijlager toepassen. Deze hebben namelijk lucht nodig als smeermiddel(of een ander gas).
In zekere zin hebben harddisks dan ook een "gaslager" nodig. D.w.z. de koppen blijven op de juiste hoogte vanwege de wrijving met lucht of helium.

[Reactie gewijzigd door Aham brahmasmi op 10 juni 2015 12:04]

Maar hoe dan.. Bij beweging verplaats je toch lucht? Hoe kan je lucht verplaatsen die er niet is?
Gewoon nieuwsgierig :)
Je verplaatst inderdaad lucht bij beweging, maar dit is geen benodigdheid. Je kunt prima bewegen in vacum, als er geen lucht aanwezig is. Kijk bijvoorbeeld naar de maanlanding, er is geen (of in elk geval veel minder) 'lucht' aanwezig op de maan, maar toch is beweging mogelijk.
Prijzen zijn op aanvraag.
Dat. _/-\o_
ExtremeTech verteld het volgende over de harde schijf prijs. In ieder geval, ongeveer de richting van de prijs :P

Price-wise, we sadly don’t have much to go on. The air-filled Ultrastar 7K6000 should start popping up online today, priced at around $400. The original helium-filled 6TB Ultrastar He6 seems to now be down to around $500. There’s no price on the 8TB Ultrastar He8, but I’m sure it’ll be upwards of $1,000 when it starts shipping in commercial quantities. Your guess is as good as mine on HGST’s 10TB drive, but it won’t be cheap (and thus I have no idea how the company can claim to have the lowest cost-per-gigabyte).

Als dat al meer dan 1000 dollar is, dan zal de 10TB ook wel ongeveer meer dan 1200 Dollar kosten.

Link: http://www.extremetech.co...filled-shingled-recording
Wat bereft dat laatste 'lowest cost per gigabyte' heeft natuurlijk alles te maken met Total cost of ownership. Als je door deze schijven te gebruiken maar 1 rack nodig hebt ipv 2, met het bijbehorende stroomgebruik, koeling, servers waarin ze zitten, etc, dan scheelt dat aanzienlijk. Maar wel in specifieke gevallen dus.
pricewatch: HGST Ultrastar He8 SATA 6Gbps (0F23267), 8TB
Ik gok dat ie dus onder de 1000/$1000,- zal zitten aangezien de 8TB versie 625,- is
[...]


Dat. _/-\o_
Da's nou vervelend voor de verkoop, want als je het moet vragen kan je het niet betalen..
wat is het punt van helium als de rotatie snelheid het zelfde is gebleven?
ik dacht dat dat juist bedoeling achter het helium gebeuren is een hogere rotatie snelheid
Minder wrijving = minder slijtage in de kogellagers. De prestaties zullen er in dit specifiek geval niet beter van worden, maar mogelijk kan er wel een langere levensduur (MTBF) gegarandeerd worden.
Zou dat ook een lager stroomverbruik betekenen door de lagere wrijving?
Minder wrijving heeft natuurlijk ook lager stroomverbruik tot gevolg, er is immers minder verlies. Belangrijker nog, het zal de schijf minder warm maken ook, wat ook nog eens gunstig is voor de levensduur en betrouwbaarheid van een schijf. Uit mijn hoofd zijn He-schijven op mijn werk wel zo'n 10 graden koeler dan andere.
Ah, ben jij dat met die piepstem aan desk 8? ;)
Ook minder vibratie op de disk verbeterd zijn levensduur aanzienlijk ;)
harde schijven gebruiken al +10 jaar geen kogellagers meer
fluid bearing biedt minder wrijving en is duurzamer
meer platters te stapelen zonder hoger stroomverbruik.
7 platters op 7200 toeren in normale lucht hebben veel meer wrijving.
maar zouden ze het eventueel ook sneller kunnen laten draaien door helium?
12000 rpm 1 of 2 TB schijf en dus ook snellere lees/schrijf acties

[Reactie gewijzigd door firest0rm op 10 juni 2015 10:23]

Harde schijven konden al op 15.000 RPM draaien in lucht. Die schijven zijn volledig verdwenen sinds SSD's betaalbaar zijn. Je ziet bij deze SMR schijven precies de omgekeerde richting: ze worden langzamer, doordat ze overlappende tracks schrijven. Dat gaat goed zolang je de tracks in volgorde schrijft: track 2 overlapt track 1, en track 3 overlapt track 2. Maar als je daarna track 1 herschrijft, dan wordt track 2 links en rechts overlapped - niet goed, en dus moet de schijf dan ook track 2 herschrijven.

Dit geeft dus meer capaciteit, wat een bestaand voordeel van HDD's boven SDD's verder uitbouwt.
En als je track 2 herschrijft moet je track 3 herschrijven enz. Dit lijkt me een onwaarschijnlijk scenario.
Klopt. Dit is geen probleem voor gespecialiseerde toepassingen, zoals backup en videobewaking.

Overigens kun je de impact van deze rewrites beperken door elke tiende track niet te laten overlappen.
Dat vergt weer andere eigenschappen van de platters en lagers, wat weer de prijs opdrijft. En het stroomverbruik gaat significant omhoog. En het lawaai ook. En ik vermoed meer kans op fouten/defecten, iets wat je ook niet wilt als je je op archief doeleinden richt.
Het punt (zoals HGST dat brengt) is minder stroomverbruik, en dat wordt gerealiseerd doordat met helium de weerstand lager is. Het scheelt volgens HGST 23% (qua stroomverbruik).
ja dat snap ik maar er zijn ook schijven zoals de Velociraptor waarbij de rotatie snelheid een stuk hoger ligt het doel van die schijven is dus ook anders dan deze HGST schijfjes

vandaar dat ik dacht dat we wellicht hogere RPM schijfjes konden verwachten met betere levens duur etc.

[Reactie gewijzigd door firest0rm op 10 juni 2015 11:02]

Denk dat de schijven met een hoger rpm niet echt een markt meer hebben.
Dat waren schijven die gebruikt werden door gamers en in servers waar snelle opslag nodig was.
Gooedkoopste 1TB ssd in de pricewatch is 145 en gaat altijd sneller zijn dan een draaiende schijf, hoe hoog de rpm ook is.

Zoals ik het zie streven de fabrikanten naar zo groot mogelijke archiefschijven waar snelheid niet zo belangrijk is en zo snel mogelijke ssd's voor cache, OS, ...
Onze servers hebben gewoon 15k SAS schijven in Raid 5. SSD's zijn nog niet echt betrouwbaar genoeg, zeker niet voor langdurige opslag.

Dus er is nog een heel grote enterprise markt die ze kunnen bedienen waar betrouwbaardheid boven performance gaat.
Onze servers hebben gewoon 15k SAS schijven in Raid 5. SSD's zijn nog niet echt betrouwbaar genoeg, zeker niet voor langdurige opslag.
Genoeg eMLC SSD's die een stuk betrouwbaarder zijn dan je 15k SAS schijven.
En voor echt langdurige opslag (cold storage) blijft tape heer en meester.

Ik denk dat een groot stuk van het wantrouwen van SSD's in de Enterprise markt komt uit een "noodzakelijk" conservatieve houding en het feit dat velen nu 3.5" SAN's hebben. Die je volgens de fabrikant enkel kan vullen met een handvol "compatibele" SAS harde schijven.
Gooedkoopste 1TB ssd in de pricewatch is 145 en gaat altijd sneller zijn dan een draaiende schijf, hoe hoog de rpm ook is.
Dan mag je me wel eens een linkje geven want de goedkoopste die ik vind is deze: pricewatch: Crucial BX100 1TB.
had gewoon even gekeken want de ssd's die ik heb zijn max 128GB
hier is de link: pricewatch: Origin Storage
1 TB ssd voor 145? Dan mag je mij wel eens zeggen welke ssd dat is. Dat is wel zeer goedkoop.
Als je het snapt, waarom vraag je het dan in de eerste plaats?
ik geef alleen aan dat ik je verhaal begrijp en geef mijn gedachtegang aan...
Hoe lang zou de helium vulling intact blijven?
Je kunt je autobanden met stikstof laten vullen, stikstofatomen zijn groter dan zuurstofmoleculen waardoor het minder snel door het rubber van de band heengaat, dus zal langer hard blijven.
(Is wel flauwekul om extra voor te betalen overigens, buitenlucht bestaat voor 80% uit stikstof en 20% uit zuurstof, dus als je je banden af en toe bijvult heb je na een paar keer al een puur stikstofmengsel (zuurstof verdwijnt immers langzaam).)

De keren dat ik een HDD opensloopte (die magneten zijn leuk, sterk joh!) zat er een seal rondom het deksel en een soort membraampje om drukverschillen op te vangen. Ik neem aan dat het helium via die wegen langzaam zal lekken en dus de prestaties van de schijf in theorie langzaam verslechteren?

[Reactie gewijzigd door ThinkPad op 10 juni 2015 10:28]

Dat stuk van de harde schijf is dus anders dan bij een normale schijf. Het helium is helemaal afgesloten, en omdat er geen zuurstof nodig is is er geen membraan nodig. En bovendien is er geen rubber waardoor het kan weglekken.

Dus ik denk dat het wel mee zal vallen.
De hoeveelheid helium wordt inderdaad via de SMART-info van de HDD bijgehouden, zodat je het dus kan zien als er daadwerkelijk helium weglekt.
The amount of Helium in a drive is not published, but it is tracked as SMART attribute 22, with both the raw and normalized values starting at 100. During our period of observation, the value of these attributes did not change.
De keren dat ik een HDD opensloopte (die magneten zijn leuk, sterk joh!) zat er een seal rondom het deksel en een soort membraampje om drukverschillen op te vangen. Ik neem aan dat het helium via die wegen langzaam zal lekken en dus de prestaties van de schijf in theorie langzaam verslechteren?
Als de druk in de drive ongeveer hetzelfde is als buiten zal er maar extreem weinig weglekken ( beter gezegt, vermengen). Niet een factor van belang dus.
Ik vraag me dan af hoe deze schijven functioneren in gebieden op grote hoogte ? bvb in landen als Bollivia of Peru. Daar kan je makkelijk grote steden op +2500m vinden.

edit ; blijkbaar nog beter als gewone schijven.

Environmental robustness – Use them virtually anywhere, including ambient air, free cooling data centers. Many air-filled drives use a breather filter leading to reliability problems when used in environments with high levels of carbon or dust, or in high altitudes. This problem does not exist with HelioSeal drives as they’re hermetically sealed.

https://www.hgst.com/de/p...tone-in-Field-Reliability

[Reactie gewijzigd door Soulshaker op 10 juni 2015 12:12]

Die vulling moet wel intact blijven.

Als de helium weglekt is de schijf stuk. De dichtheid van de helium bepaald de vlieghoogte van de leeskop. Als een helium schijf met lucht gaat draaien klopt er niets meer van die hoogte. Aangezien lucht dichter is verwacht ik dat de kop dan hoger gaat staan. Bovendien zal de platter motor de wrijving van gewone lucht ook niet aankunnen over zoveel platters waardoor hij nooit meer zijn werksnelheid kan behalen.

Een membraan hebben deze schijven ook niet meer. Deze zijn gewoon volledig geseald.
Hoe lang zou de helium vulling intact blijven?
Je kunt je autobanden met stikstof laten vullen, maar stikstofatomen zijn kleiner dan zuurstofmoleculen waardoor het door het rubber van de band heengaat, dus je band zal sneller zacht worden dan met alleen zuurstofvulling.
De stikstof is juist dichter dan lucht, daardoor blijven je banden veel langer op spanning.
Kwam er net ook achter ja, heb m'n bericht aangepast. Is een heliumatoom groter dan een zuurstofatoom? (natuurkunde/scheikunde is te lang geleden haha). Dan valt het probleem wel mee denk ik.

[Reactie gewijzigd door ThinkPad op 10 juni 2015 10:21]

Nee, Helium is kleiner. He heeft atoomnummer 2, O nummer 8. Het zuurstofatoom is dus groter dan een heliumatoom. Maar dat wil niet zeggen dat een O2 molecuul ook groter is dan een He2. De eerste heeft een dubbele binding, en dat heeft wellicht invloed op de maat. Dat weet ik allemaal ook niet meer zo precies :P
Helium is een edelgas en deze reageren niet of nauwelijks, zie ook: http://nl.m.wikipedia.org/wiki/Edelgasverbinding
In ieder geval bestaat He2 dan ook niet, het is en blijft He. Het heeft wel 2 protonen, het staat immers nummer 2 in het periodiek systeem.
Oh ja, je hebt gelijk. Zoals ik al zei: het is even geleden...
Hoger atoomnummer betekent niet gelijk groter atoom over het algemeen heb je wel gelijk hoor, maar het ligt wel iets ingewikkelder. De grootte heeft voornamelijk te maken met de elektronen(configuratie). De electronen bevinden zich in bepaalde schillen rond het atoom. En hoe hoger het atoomnummer hoe meer electronen het atoom heeft, en dus ook over het algemeen meer schillen, maar het heeft ook weer te maken met de lading.
Hier meer: http://nl.wikipedia.org/wiki/Atoomstraal
Zoals in de grafiek te zien is hebben de alkalimetalen een relatief veel grotere atoomstraal t.o.v. van elementen met soortgelijke atoomnummers. Dit komt door hun ladingen :)
Klopt, maar Helium heeft alleen een 1s schil - en dat is de kleinst mogelijke schil.
Mijn post was meer om aan te geven dat hoger atoomnummer =/= groter atoom, maar je hebt gelijk :)
Kwam er net ook achter ja, heb m'n bericht aangepast. Is een heliumatoom groter dan een zuurstofatoom? (natuurkunde/scheikunde is te lang geleden haha). Dan valt het probleem wel mee denk ik.
Nee, helium is een stuk kleiner. Daardoor zul je helium sneller verliezen dan lucht.
De lucht om ons heen, en dus in de compressor bestaat al voor 80% uit stikstof, Stikstof is inderdaad wat "dikker" dan zuurstof (20% van de lucht) Derhalve lekken er dus meer zuurstofatomen weg uit de band dan dat er stikstofatomen weglekken. Daardoor zal bij iedere navulling van de band het stikstofgehalte van de lucht in de band stijgen.
-
Tegen betaling kun je je banden ook laten vullen met 100% stikstof, maar in de "lege" band zit al 1 atmosfeer lucht. Deze bestaat voor 20% uit zuurstof. Breng je de band vervolgens met stikstof op druk tot 2,4 atm. dan krijg je dus 1 deel lucht en 1,4 delen stikstof, en dus is de band na vulling alsnog voor 20/220 deel = 1/11 = 9% gevuld met zuurstof. Ze zuigen je banden immers niet eerst leeg. (bovenstaande is iets simplistisch gesteld, want naarmate de druk toeneemt zal de band iets uitzetten en neemt het volume toe en daalt het zuurstofgehalte nog iets verder, ook ga ik uit van tubeless banden, welke tegenwoordig standaard zijn. Bij het gebruik van een binnenband is bovenstaande niet van toepassing en kan [sup]in theorie[/sup] daadwerkelijk 100% vulling worden behaald)

De "winst" is dus dat je iets minder zuurstof in je band hebt. Leuk gebrachte geldklopperij dus.
OFFTOPIC Ja dat banden verhaal is wel beetje overtrokken want lucht bestaat ongeveer 80% uit stikstof en volgens mij scheelt dat bijna niks met autobanden. Of dit ook met harde schijven is de vraag. Het gaat daar om een veel preciezer afmeting.

Edit: Het gaat in de schijven om helium dat gas heeft natuurlijk hele andere eigenschappen

[Reactie gewijzigd door stijn12 op 10 juni 2015 14:36]

en ik neem aan dat er per design rekening mee gehouden is
Voor stikstof in een band geld het zelfde als in de HD, minder interne vrijving , koelere band, stabielere band.
Ik stelde me exact dezelfde vraag, zeker omdat helium verschrikkelijk vluchtig is en heel klein is qua atoomgrootte. Een oplaasbare ballon verliest na een tijd ook zijn helium, ben benieuwd hoe ze dat opgelost hebben..
Helium is een bijzonder schaars gas. In de atmosfeer is het een verwaarloosbaar aandeel. Het is namelijk zo licht dat het letterlijk weglekt naar de ruimte. Het helium dat wij gebruiken is een bijproduct van gaswinning.

Helium wordt om deze reden steeds duurder. Het is ook vanwege de schaarsheid niet slim om er ballonnen mee te vullen. Met name de wetenschap heeft hier last van. Ergens bekruipt mij het gevoel dat het deels marketing betreft. Luchtgevulde drives hebben hun nut allang bewezen. Als helium zo goed zou zijn dan was dat jaren geleden al ingezet zou je denken. Het zou mij niet verbazen dat ze hiermee het bestaansrecht van harde schijven willen verlengen in een tijd waarin chips de rol voor opslag langzaam maar zeker overnemen.
"Bijzonder" schaars is overdreven. 't is geen Xenon ofzo. Helium komt vrij bij een groot aantal nucleaire reacties, en wordt dus constant geproduceerd. Alle Xenon op aarde komt uit supernova's, en is min of meer toevallig op aarde terecht gekomen.

Je marketing-redenering klopt verder ook net. Waarom is Helium niet eerder gebruikt? Omdat we nog niet eerder 6 TB+ schijven hadden, waar het een toegevoegde waarde heeft. Het is niet zo dat Helium magisch een 1 TB schijf in een 2 TB schijf verandert, maar het verhoogt sowieso de kosten. Je gaat Helium dus pas gebruiken als lucht een beperking wordt.
De productie van helium in centrales is verwaarloosbaar. Het merendeel komt uit aardgas.

Die 6 TB schijven gebruiken meerdere platters. Dat argument had dus 10 jaar geleden net zo valide geweest en heeft niets met het huidige opslagmaximum te maken.

Genoeg wetenschappers maken zich zorgen om de heliumvoorraad. En dat xenon nog schaarser is, neemt niet weg dat de heliumvoorraad een nijpend probleem wordt.

[Reactie gewijzigd door 2fish op 10 juni 2015 12:23]

Hoe dacht je dat Helium in aardgas terecht komt? Radioactief verval in de bodem, en het Helium mengt met het andere ondergrondse gas : methaan oftewel aardgas.
Ja maar het is dan wel een soort "fossiele" grondstof. Waar we binnenkort door zullen zijn. Dit radioactief verval gaat namelijk niet vooruit :D

[Reactie gewijzigd door goarilla op 10 juni 2015 14:36]

En hoe lang dacht jij dat dat aardgas met helium al onder de grond zit? Dat proces kunnen wij als mensen helaas niet even nabootsen, zeker niet op deze schaal. De voorraden zijn eindig, net als die van aardgas. Binnen enkele decennia is de gasbel onder Nederland bijvoorbeeld weg.
Nog een goede reden om stevig door te werken aan kernfusie en aan space mining dus. Dan hebben we weer genoeg.
Huidige kernfusie, die overigens nog verre van rendabel is, is op lithium gebaseerd en niet op (met name) waterstof zoals in sterren. Er wordt dus geen helium geproduceerd.

Space mining? Waar? Op de maan? Daar ga je weinig gas vinden vrees ik. ;)
Niet zo bescheiden, als je wat verder gaat zijn er genoeg gas planeten :)
Helium wordt gebruikt in zeppelins, en daar is dus genoeg voor. Enig idee hoeveel harddisks er in een doorsnee zeppelin passen?
Nederland verkoopt een groot deel van zijn gasvoorraden want daar is meer dan genoeg van. Dat zou een net zo kortzichtige conclusie zijn.
ik denk niet dat het puur marketing is, de laatste jaren is er maar weinig evolutie meer in de HDD industrie: de rek is er uit
grotere schijven worden dus steeds moeilijker om te maken en moeten ze elk trucje uit de kast halen om verbetering te verkrijgen, maar tegelijk zijn de zeer grote drives de enige reden dat HDD's nog bestaan
veel mensen komen immers gemakkelijk toe met 256 of 512GB en dergelijke SSD's beginnen best betaalbaar te worden (net nog een laptop uitgerust met 512GB SSD)
grote drives zijn dus enkel van belang voor enkele uitzonderingen (tweakers?) en bedrijven, hierdoor gaat de prijs omhoog waardoor SSD's weer interessanter worden
Ik denk niet dat de rek er al uit is. Natuurlijk zijn er steeds meer trucjes nodig. De platters en koppen zijn sinds de begintijd nog maar weinig veranderd. Daar zijn vast nog wel wat grapjes mee uit te halen, zodat je de platters bijvoorbeeld dichter op elkaar kunt zetten.

Zeker in de SAS schijven is nog een slag te maken, maar dat is vooral een kwestie van betrouwbaarheid.
Misschien helpt een linkje je betoog. Jammer dat de industrie dit niet zo ziet.
http://www.scientias.nl/w...na-door-haar-helium-heen/
Ontopic:
Helium heeft ook andere warmtecapaciteit en de -geleiding dan lucht, zou dit nog van invloed zijn op de werking van de drive?

Offtopic:
Ballonnen moet je gewoon vullen met waterstofgas. Ja, dat is brandbaar, owowow.
Als je een vlammetje bij zo'n ballonnetje houdt, dan zegt ie "poef", en heb je een kortdurende vlam.
Niet doen dus, althans, niet binnen vlak bij de nylon vitrages. Je moet ook geen vlammetje bij spuitbussen haarlak, toiletspray en zo houden, da's nog gevaarlijker.
Helium heeft meer voordelen dan alleen de dichtheid.
Gewone lucht kan door wrijving een elektrische lading aannemen (ionisatie). Dat heeft weer een effect op het magnetisme. Het effect is maar klein, maar wanneer de dichtheid van de schijven steeds groter wordt gaat het op een gegeven moment wel een rol spelen.
Helium kan geen lading opnemen.

Kennelijk begint de schrijfdichtheid de kritische grens te naderen waarbij de ionisatie van lucht een rol kan gaan spelen.
Wat zou zo een harde schijf kosten?

Edit: heb even gegoogeld, maar ik zie het niet direct staan.

[Reactie gewijzigd door xandie op 10 juni 2015 10:05]

de He6 (6TB versie) gaat waarschijnlijk $800 kosten: Linkje
Misschien een heel stom iets, maar was dit niet al bekend? :$ Hier nog wat meer info over de harde schijf en de data sheet van de 10TB HDD met Helium:
HGST Data Sheet: http://www.hgst.com/tech/...Ha10-Ultrastar-HDD-DS.pdf
Nieuwsartikel: http://www.extremetech.co...filled-shingled-recording

Besides, zeker een mooi schijfje zeg pfoe! (Y)
Informatie was inderdaad al langer bekend, maar nu worden de schijven ook daadwerkelijk geleverd. Daar heb ik in het bericht op ExtremeTech zo even snel niets over kunnen vinden. Volgens mij was dat alleen nog de aankondiging en worden ze nu daadwerkelijk geleverd :Y.

Al met al een zr mooie schijf! Ben zelf echter beng dat hij richting de $1,500 zal gaan kosten.. Goedkoop wordt ie in ieder geval zeer zeker weten niet ;).
Vraag me af waarom je voor dat SMR een nieuwe commandoset nodig hebt? Het klinkt als iets wat je helemaal in de firmware kan oplossen?
Heel vroeger had je 512-byte sectors en tegenwoordig is dit al opgeschaald naar 4096 bytes (4K). Meer daarover in http://en.wikipedia.org/wiki/Advanced_Format en de essentie is dat de harddisk altijd het ganse blok wegschrijft ook al is er maar 1 bit veranderd.

Met SMR wordt het verhaal nog complexer omdat sectors elkaar overlappen. Om daar de maximale performance uit te halen, heb je deze nieuwe instructies nodig maar ook de hard disk zelf dient ze te ondersteunen.

HGST had daarover nog deze presentatie over gemaakt:
SMR Impact on Linux Storage Subsystem
libzbc
• Allows Linux applications access to ZBC host-managed disks
- Access to disk zone information and read/write operations in zones through direct
SCSI command execution (SG_IO)
- ZAC drives will be supported by libzbc as well
Enkel op deze manier wordt de performance van een SMR hard disk voorspelbaar omdat de writes op een controleerde en geoptimaliseerde manier worden afgehandeld.

[Reactie gewijzigd door Ravefiend op 10 juni 2015 13:10]

Aha! Merci, die presentatie verheldert een hoop.

> Rewriting a given track will damage one or more subsequent tracks.

Wat een ellende, als je daaromheen moet gaan dansen. Dus voorlopig is dit nog niet een disk waar je je database op wil plaatsen :)
Als je systeembeheerder ineens met een hoge stem begint te praten weet je dat er een HDD kapot is of lekt :P

Ik ben benieuwd hoe snel het nu allemaal zal gaan met HDD groottes, Seagate met z`n 8TB, HGST met z`n 10TB. Wie volgt en hoe groot is de volgende. Voor het archieveren i.i.g. heel mooi en hopenlijk zoals de Seagate variant ook nog eens betaalbaar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True