Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Western Digital introduceert 12TB-hdd voor zakelijke markt

Western Digital heeft een 12TB-versie van de HGST He12 Helium HDD geïntroduceerd. Het is het eerste model van dit formaat. Het bedrijf geeft verder aan te werken aan een 14TB-variant en heeft enkele ssd's voor de zakelijke markt geïntroduceerd.

Western Digital brengt de drives uit onder de HGST-merknaam. De Ultrastar He12 is voorzien van acht platters en kan geleverd worden met 12Gb/s-sas- of sata600-interface. Om de hoge datadichtheid te bewerkstelligen, is de harde schijf gevuld met helium, dat een veel lagere dichtheid heeft dan lucht, waardoor dunnere schijven mogelijk zijn. HGST geeft de schijf een mtbf-rating van 2,5 miljoen uren en vijf jaar garantie. Het bedrijf heeft aangegeven dat het binnenkort met een 14TB-variant van de schijf komt, die wat hardware betreft hetzelfde is, maar gebruikmaakt van smr-techniek, waarbij de magnetische banen elkaar enigszins overlappen.

De twee ssd's die het bedrijf heeft geïntroduceerd, zijn de Ultrastar SN200 en SS200. De SN200 is een nvme-ssd komt in 2,5"- en pci-e-versies met capaciteiten tussen de 800GB en 8TB. WD belooft random-read-prestaties tot 1.200.000 iops en schrijfprestaties tot 200.000 iops.

De SS200 komt in varianten van 400GB tot 8TB. WD beweert dat de schijf leessnelheden van 1800MB/s en schrijfsnelheden van 1000MB/s kan behalen. Opvallend is dat HGST bij deze ssd gebruikmaakt van een 2,5"-formaat en een sasinterface die maximaal 12Gbit/s aankan. Dit limiteert de maximale theoretische doorvoersnelheid op 1500MB/s, minder dan de 1800MB/s die WD belooft. De random-read-prestaties van de ssd zijn 250.000 iops en schrijfprestaties zijn maximaal 86.000 iops.

WD geeft aan dat de harde schijf en ssd's op dit moment bij enkele gebruikers getest worden. De ssd's komen in het eerste kwartaal van 2017 beschikbaar en de 12TB-hdd ergens in de eerste helft van 2017. Het 14TB-model moet halverwege 2017 te koop zijn. WD heeft geen prijzen bekendgemaakt.

Door

Nieuwsposter

98 Linkedin Google+

Submitter: dmantione

Reacties (98)

Wijzig sortering
Kan iemand mij uitleggen wat dergelijke grote schijven zakelijk interessant maakt boven een simpele array van kleinere schijven die geen kunstgrepen als helium nodig hebben? Lijkt mij namelijk dat dat goedkoper en praktischer is. Of is fysiek ruimtegebrek echt een issue?

Klinkt voor mij namelijk niet als technologie waarvan redelijkerwijs te verwachten valt dat dit op redelijke termijn qua kosten concurrerend gaat zijn. Of zie ik dat verkeerd, en zijn over een aantal jaar alle grote schijven met lage kosten per GB 8-platter helium-gevulde apparaten?
Voor de zakelijke markt zijn er meer overwegingen dan de kosten van een harde schijf of de schijf per gigabyte. Natuurlijk is dat ook een factor, maar verder heb je ook stroom, rackspace, netwerk etc.

Prijzenlijst:
2u server, 3000 euro * 21 ~= 63.000
Netwerk per rack: 15000 euro
Overige kosten per rack: 2000 euro
Prijs per rack: 80.000 euro
12TB schijf: 600 euro (0.050/gb)
4TB schijf: 100 euro (0.025/gb)

In deze 2u server kun je 8 schijven kwijt, 21 per rack. Dus 168 schijven per rack. Nu krijg jij de opdracht: Regel 10PB opslag voor mij. Dan is de rekensom vrij simpel:

12 TB schijven = 833 schijven, met 168 per rack = 5 racks ~= 400k euro
4TB schijven = 2500 schijven, met 168 per rack = 15 racks ~= 1200k euro

Van de 12TB (600 euro) heb je er 833 =~ 500k euro + racks = 900k euro
Van de 4TB (100 euro) heb je er 2500 nodig ~= 250k euro + racks = 1450k euro

Dus tenzij je je baas kan overtuigen van het nut om 550.000 euro meer uit te geven, en per rack dan ook nog eens elke maand stroom, koeling en ruimte meer moet betalen dan lijkt het mij handiger om naar de 12TB schijven te gaan.
Ik zou eerder die nieuwe 60 of 100 TB SSD's nemen, kost je veel minder ruimte en stroom verbruik.
Het probleem met die SSD's is dat de kosten van die disks nog een heel stuk hoger liggen dan de prijzen van een roterende disk. Als ik nu in de pricewatch kijk is de grootste (4TB) ssd die nu te koop is 33 cent per gigabyte. Dan heb je 2500 ssd's nodig van ~1200 per stuk, en dat gaat je dus dik 3 miljoen kosten.

Maar laten we zeggen dat die 100TB ssd's leverbaar worden, dan zouden ze pas goedkoper worden dan deze hardeschijven als je er 100 (want 10PB) voor ~1 miljoen kan kopen, dus 10.000 euro per stuk, of 10 cent per gigabyte (2x zo duur als waar ik vanuit ga voor deze 12TB schijven). De huidige datacenter ssd's zitten echter eerder op een prijs die 3-4x zo hoog ligt (en ik kan het weten, toevallig net 36 datacenter ssd's gekocht voor Tweakers ;))

[Reactie gewijzigd door Kees op 7 december 2016 20:19]

Klopt, eerst wachten op de massa-productie van die dingen. Hopelijk worden ze dan veel aantrekkelijker qua prijs. :)
Het probleem met de huidige SSD's is dat ze gewoon te warm worden als je teveel chips op elkaar plakt. Dus ook met 100TB ssd's denk ik dat het voorlopig nog niet in een 3,5" laat staan 2,5" formfactor gaat passen zonder extra koeling.
De wens is de vader van jouw gedachte. De verwachting is dat de harde schijf tot minimaal 2025 concurerend blijft in prijs per terabyte. Veel hangt af van de Wet van Moore en in welke mate die gaat haperen. Als het afgelopen is met Moore, zullen SSD's niet winnen.
Kun je wat bronvermeldingen geven voor je 'overige kosten'?

Als we enkel en alleen op zoek zijn naar 'prop zoveel mogelijk schijven in een rack' dan zijn er veel betere oplossingen dan een 2u server waar 8 HDD's (hotswap) in kunnen.
Als we kijken naar een database server dan verandert het kostenplaatje ook (HDD's backend, SSD's voor high-volume entries en véél RAM).
Je netwerkkosten verbazen mij ook een beetje, gaat dat uit van optische interconnects of gewoon UTP? Is daar een switch meegerekend en/of loadbalancer?
Vergeet ook niet de kosten van een eventuele UPS, die dingen nemen ook ruimte in en zijn zeker niet goedkoop...

Al met al is het configureren van een rack of meerdere racks enorm maatwerk waar je mijns inziens niet zomaar globaal een prijskaartje aan kunt hangen. Ik snap dat dit de strekking van je post voorbij gaat maar het lijkt mij nuttiger om gewoon de feiten te presenteren die we wél hebben:

3x zo veel opslag (per schijf) voor dezelfde ruimte en 'ruwweg' hetzelfde stroomverbruik+hitte maar 2x zo duur (per schijf, uitgaande van jou 0,05 vs 0,025). Dit komt dus uit op een globale netto besparing van 33% op alle overige kosten en ruimte in vergelijking met 4TB schijven en is in theorie dus altijd meer wenselijk. 33% minder servers nodig, 33% minder ruimte, 33% minder bekabeling en switches, 33% minder UPS/loadbalance capaciteit en 33% minder stroomverbruik en hitte generatie.
Als je op petabyte of exabyte schaal opslaat dan is hogere dichtheid absoluut relevant. Als je overstapt van 12.000 8TB naar 12.000 12TB schijven kun je met dezelfde ruimte, stroomvoorziening en koeling ineens 50% (48.000 TB) meer data kwijt.
Inderdaad.
Een 90-bay Supermicro kast kost ruwweg 10'000 euro. Daarbij komt nog wat kosten voor de nodes om het te kunnen gebruiken a ruwweg 10'000 euro.
Dat zijn gewoon vaste kosten per fixed aantal schijven.
Dus als je meer data kwijt kunt per schijf, nemen de overhead kosten af per GB aan opslag.
Dus dan kun je 12 TB * 90 = 1080 TB (1 PB) kwijt per kastje.
Dan heb je nog wat overhead aan erasure-code (redundantie), maar ruwweg 3/4 PB per rackmount kastje is dus goed haalbaar.

Punt is wel dat deze SMT-techniek niet zomaar voor elke toepassing ideaal is, omdat je veel meer overhead hebt bij het schrijven van dergelijke harde schijven.
Punt is wel dat deze SMT-techniek niet zomaar voor elke toepassing ideaal is, omdat je veel meer overhead hebt bij het schrijven van dergelijke harde schijven.
Perfect voor bijzonder grote datawarehousing/virtuele grootboeken die altijd direct beschikbaar moeten zijn (weinig schrijfacties, veel leesacties).
En minder perfect voor toepassingen waarbij relatief kleine blokjes data frequent veranderen.
En "klein" kun je relatief nemen, als je bijvoorbeeld 100 van die schijven in een cluster (Ceph bijvoorbeeld) hebt, verdeel je de nieuwe data over kleine blokken die verspreid over het hele cluster opgeslagen worden.
Daarbij verander je dus relatief vaak de inhoud van een blok data en dan is SMT heel vervelend bij het schrijven. Je hebt dan wel een daemon per disk, dus de overall impact op de performance van het cluster kan wel meevallen, maar het zal wel veel eerder een bottleneck vormen op de haalbare performance van je hele cluster.
In dat geval zijn grotere disken, en daarmee dus totaal minder disken zowieso vervelender, omdat meer spindles ook meer snelheid betekent. Maar met die zaken hou je bij het ontwepren van een dergelijk platform natuurlijk rekening.
Volgens mij hebben we het niet helemaal over hetzelfde.
Ik heb het er over dat je met SMT meerdere tracks over elkaar hebt liggen, wat impact heeft op de schrijfsnelheid.
Bij SMT heb je bijvoorbeeld 3 tracks achter elkaar waarbij track 1 deels over track 2 ligt en track 2 over track3.
Dus als je achter elkaar schrijft, is er niets aan de hand, want je schrijft track 1 en dus verander je data in track 2. Daarna schrijf je track 2 en verander je track3 dus ook en dan schrijf je track 3.

Ga je nu echter data overschrijven die toevalligerwijs in track 1 zit, dat moet je dus track 1, 2, en 3 lezen, de nieuwe data voor track 1 in het geheugen (van de drive) aanpassen en track 1, 2 en 3 schrijven.
Dus 6x zoveel lees/schrijf acties als bij een traditionele schijf. (N.B. niet 6x zoveel tijd nodig)

Bij typische erasure-encoded clusters (zoals Ceph, maar ook andere cluster-systemen) heb je dus een redelijk grote kans dat je zo nu en dan een klein blokje data moet bijwerken wat in een track zit die over 1 of meer andere tracks ligt.
Dus dat heeft wel degelijk impact op de schrijfsnelheid en dat kan ook prima voorkomen bij grote files. Maar door het gedrag van dit soort systemen heb je er veel meer last van dan wanneer je zo'n grote file achter elkaar zou opslaan.

Punt is namelijk dat Ceph en dergelijke de data opdelen in een hoop kleine blokjes en die zoveel mogelijk over verschillende drives gaat verdelen. Daarnaast hebben object-stores vaak geen mogelijkheid om data te veranderen, dus moet het opnieuw geschreven worden en de oude versie weggehaald worden. Hierdoor krijg je dus heel vaak schrijf-acties met kleine stukjes data.

En laat dit soort schijven nu juist interessant lijken voor grote data-opslagsystemen, die typisch gebruik maken van Ceph + S3 achtige oplossingen.
Dus vooral voor archieven die vrijwel alleen gevuld worden, met een goed voorspelbare schrijfsnelheid zijn ze prima geschikt. Voor dergelijke systemen waarbij files vaak veranderen, of verwijderd worden (een soort van cache voor bepaald aantal maanden), is het wel degelijk een belangrijk ontwerp-punt voor dergelijke systemen.
Het is SMR, niet SMT.

Daarbij heeft Ceph voor zover ik weet optimalisaties om data niet te moeten herschrijven per klein blokje, maar in grotere hoeveelheden.

WD maakt trouwens vergelijkbare producten die dit ook doen.
Het is SMR, niet SMT.
Ik dacht al dat er iets niet klopte, maar volgens mij had ik het in het artikel nog nagekeken... Er staat (nu?) inderdaad SMR.
* TD-er is toe aan koffie...
Daarbij heeft Ceph voor zover ik weet optimalisaties om data niet te moeten herschrijven per klein blokje, maar in grotere hoeveelheden.
Zelfs als je het in grotere hoeveelheden schrijft, is er nog geen garantie dat het in opeenvolgende tracks komt, toch?
Dan moet je je cluster wel heel erg specifiek tunen op de specs van je schijven en ik vraag me af of je dat wel kunt doen. Van die SMR-schijven is er namelijk ook al variatie in firmware-versies die ander gedrag laten zien, of zelfs stukken van de schijf niet in SMR beschikbaar stellen als soort van hybride oplossing.
WD maakt trouwens vergelijkbare producten die dit ook doen.
Vergelijkbaar met Active Archive van HGST bedoel je? Of doel je op Seagate die ook SMR schijven heeft?
Een en ander hangt natuurlijk ook samen met je filesystem, maar als je die er even van tussenuit neemt mappen die oplossingen rechtstreeks op de SMR zones.

Hier staat trouwens een interessante presentatie over SMR en hoe je't kunt gebruiken op Linux:
https://events.linuxfound.../SMR-LinuxConUSA-2014.pdf

Ik had het op Active Archive, ja - wat trouwens een van oorsprong Belgisch product is en er ook nog altijd grotendeels ontwikkeld wordt.
Kan iemand mij uitleggen wat dergelijke grote schijven zakelijk interessant maakt boven een simpele array van kleinere schijven die geen kunstgrepen als helium nodig hebben? Lijkt mij namelijk dat dat goedkoper en praktischer is. Of is fysiek ruimtegebrek echt een issue?
Het fysieke aspect is een deel van het probleem. Ja, grondoppervlak kost geld en datacenters nemen ruimte in. Maar dat is natuurlijk maar een deel van het punt. Als je schijven met hogere capaciteit gebruikt hoef je er voor dezelfde opslag minder te gebruiken. Dat is waar de echte voordelen zitten:
- 1 grote schijf verbruikt minder stroom dan 4 kleine.
- Bij gebruik van grotere schijven heb je minder aansluitingen nodig -> minder backbone-aansluitingen = minder servers. Minder servers leidt tot minder extra benodigde hardware, dus minder investeringen en, wederom, minder stroomverbruik.
- Minder apparatuur vereist minder koeling, wat logistiek scheelt en weer goedkoper is qua verbruik.

Als je op deze manier je serverpark met de helft kan verkleinen, zijn je schijven weliswaar duurder, maar je totale infrastructuurkosten lager. Plus je bespaart iedere maand weer op die elektriciteitsrekening, wat voor echt grote datacenters echt gaat aantikken.

[Reactie gewijzigd door Twam op 7 december 2016 14:37]

Het is eigenlijk gewoon heel normaal. Neem server rack van 10 jaar geleden en neem een rack nu.

Met dezelfde hoeveelheid ruimte, stroomverbruik heb je nu een snelheid en capaciteit die (natte vingerwerk) 5x groter is dan 10 jaar geleden.

Deels heb je snellere hardware nodig door complexere software en grotere behoefte aan data opslag. Deels is het gewoon besparing.

Over 10 jaar zal er nog meer data opgeslagen kunnen worden in 1 rack en zal cpu's nog sneller zijn. Door de gestegen vraag naar opslag kan men in hetzelfde datacenter dus ook gewoon meegroeien met de vraag zonder meteen een nieuwe te moeten bouwen.
Er is blijkbaar use-case om de maximum grootte van schijven te kopen, anders zouden ze niet gemaakt worden. Wellicht dat zo'n dure grote schijf normale schijven goedkoper laat lijken.

"12TB is hoe duur!? Ow, we nemen wel de 8TB, die is veel goedkoper! Verstandige keuze van mij!"

[Reactie gewijzigd door Gamebuster op 7 december 2016 14:17]

Een belissing om voor grote, duurdere schijven te gaan heeft vaak te maken met de kosten van de apparatuur om ze in te zetten. Voor jouw PC heb je altijd nog wel een plekje in je kast en een SATA-poortje op het moederbord vrij, zo niet, voor 2 tientjes heb je een AHCI-kaartje met extra poorten. Dan is de hogere prijs per TB het niet waard.

Als je echter een enterprise-opslagsysteem hebt, waar je alleen voor het apparaat zonder schijven al 8000 euro neertelt, dan verandert de berekening en wil je grotere schijven om de ideale prijs per TB te halen.

Verder speelt toekomstdenken een rol. Momenteel heb je de beste prijs per TB bij 4TB-schijven. Als je echter van plan bent om nu iets te kopen en dat ieder jaar uit te breiden, dan kan het zinniger zijn om in grotere schijven te investeren, zodat je je systeem uniform kunt houden. Je betaalt dan nu iets meer per TB, maar over de gehele tijd gezien is het wel een logische investering.
Hmm klinkt een stuk logischer dan mijn theorie :)
Stroomverbruik, hoeveelheid ruimte (fysiek). 10 x 12 TB neemt toch minder ruimte in als 30 x 4 TB qua oppervlakte :)

[Reactie gewijzigd door bonus op 7 december 2016 14:16]

Kunstgrepen als Helium (en de prijs daarvan) gaan boven ons uit, maar als je weet dat we hier een toestel krijgen die tot 12TB per 48u kan genereren, dan snap je al wel dan arrays met 4TB al lang niet meer voldoen. Ik vermoed dat in de toekomst SSD's zijn, ze zijn kleiner en sneller maw het zijn de laatste trucken in de doos om de datadichtheidswedstrijd in 3,5/2,5 inch formaat te winnen voor spinners. Zelfs met helium en andere edelgassen zijn HDD's een stuk goedkoper dan dergelijk grote SSD's.
Afgezien van wellicht de NAS markt worden deze schijven niet in een paar stuks per host gebruikt. Je ziet ze juist terug in storage bricks van honderden TB waar zo min mogelijk bricks telt ivm de hoge kosten voor server hardware. Dan liever wat duurdere grotere schijven gebruiken dan een hele extra brick in je setup.
waarschijnlijk meerdere redenen:

- één schijf van 12TB neemt minder ruimte in beslag dan twee van 6TB met het daarbij komend voordeel dat je dus ook maar de helft van de energie verbruikt.

- Plaat je twee schijven van 12 TB i.p.v. de twee 6 TB schijven dan zullen deze door de helium vulling nog steeds minder energie verbruiken door de lagere dichtheid van helium t.o.v. zuurstof. Uiteraard heb je dan ook het dubbele aan opslagcapaciteit :)

[Reactie gewijzigd door kendiko op 7 december 2016 14:37]

Mijn ervaring met het introduceren van nieuwe systemen dat er altijd een gebrek aan ruimte in data centers lijkt te zijn. Dus alles wat kleiner kan is meegenomen.
Zijn gewoon nog veel te duur om aan particulieren te slijten.
En een array van deze disks is groter dan een array van kleinere disks.
Je zult maar de ruimte nodig hebben, dan is het toch voor bedrijven een optie om gewoon 10van deze beesten in een array te hangen. Leuke rebuild times waarschijnlijk.
Om nog even over na te denken: Ik ben zelf net weer eens een schijfje van 2TB kwijtgeraakt, dat betekent 2TB aan data weg die lastig vervangbaar is. Als particulier hoef ik dergelijk grote schijven niet voor backups. Voor een thuissysteem ook niet, anders moet ik er drie nemen in RAID, dan moet het wel de moeite waard zijn, en die ruimte heb ik toch niet echt nodig (videobewerking doe ik al lang niet meer).
Ik heb een 8Tb archive HDD in mijn systeem en gebruik die als cold-storage.
Dat wil zeggen hij zit wel in mijn systeem maar ik heb een schakelaar waarmee ik hem fysiek in en uit kan schakelen.

Deze is niet zo duur maar wel traag om te schrijven, dat vind ik niet erg voor deze toepassing.
Ik heb zelf een Zalman GS1000 waarbij 6 HDDs ingeklikt kunnen worden. k heb die van mij ook altijd uit staan tenzij ik ze ga gebruiken.

Ik heb zelf geen 8TB aan data zo liggen, maar wel op externe schijfjes. Als ik één schijfje kwijt ben, is dat een ramp... Als ik dus 8TB, ofwel 4 tot 8 schijfjes kwijt zou zijn is dat een megaramp :| Ik zou dus, teruggaand naar mijn vorige opmerking, drie van deze schijven in RAID moeten nemen om veilig te zijn. Dan liever kleinere schijven voor mijn soort opslag/backup. Tevens houd ik ervan om het OS op een snelle opstartschijf (SSD) te zetten en de rest op een tragere andere schijf, en niet één schijf met zowel boot alsook meerdere partities.

Deze schijven zouden in mijn optie dus alleen interessant zijn voor foto/videobewerking of professioneel gebruik, en ik verwacht niet dat er andere toepassingen gaan komen die zoveel data bij particulieren genereert.
Pas op:
Zeker NIET interessant voor foto video bewerking omdat schrijven extreem langzaam is op deze archive schijven.
Ik werk in media broadcasting, vorige maand een 16 Petabyte groot GlusterFS geplaatst, dat is nummer 4 dit jaar. Hoe groter de schijven hoe beter, want ook deze is met 5 maanden vol.
Al eens gekeken naar HGST haar Active Archive System? 4.7PB in 1 42U rack schaalbaar tot 35PB, een hogere opslag dichtheid vind je nergens voor deze prijs. Ben bereikbaar per DM :+

https://www.hgst.com/products/systems
Let wel dat die 4.7 PB nog zonder redundantie is.
Met 18/5 (getallen van dat Active Archive systeem ;) ) zit je dan op ruwweg 3.4 PB.

Maar inderdaad heel erg mooie systemen.
Al betwijfel ik je claim over de opslagdichtheid per euro, maar ik laat mij graag overtuigen (mag ook via DM :) )
Harde schijven lopen tegen natuurkundige grenzen aan om de capciteit te doen toenemen. De grens van luchtgevulde schijven met PMR-techniek lijkt 6TB te zijn. Helium is in beginsel geen dure techniek het voornaamste dat nodig is, is een zeer hermetische behuizing voor de schijf, want helium is lastig gevangen te houden. Omdat HGST een patent bezit op deze verpakking, zijn de schijven momenteel duurder: De concurrentie kan dit niet.

Ik denk daarom dat je het inderdaad verkeerd ziet: Heliumtechniek heeft zeker potentie voor betaalbare schijven. Omdat SSD's de markt voor kleine capaciteiten doet verdampen, zijn grote, heliumgevulde schijven de toekomst.
Naast plaats- en energiebesparing denk ik ook dat kans op faling verkleint. Een extreem voorbeeld: neem een nas met 2 schijven van 8TB en een nas met 8 schijven van 2TB. Veel grotere kans dat bij die laatste een schijf vroegtijdig de geest geeft...
Long term archiving en backup.

Als je nu een 3U storage cabinet hebt dan kun je daar zo'n 16 3.5" schijven in kwijt. daar kun je met 2TB disken dus 32TB aan rawe storage in kwijt. Wil je 320TB aan ruimte dan heb je dus 10x een 3u storagebak nodig en 160 disks.

met 12TB in diezelfde 3U enclosure kun je met 27 schijven uit de weg en heb je nog maar 2x een enclosure nodig. Kun je nagaan wat dat aan uitgaven spaart en hoeveel je kan besparen op stroom kosten.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Dat betekend dus ook dat je hardeschijf een houdbaarheidsdatum krijgt.
Als het goed is gebeurt dat niet. Maar dan nog, ken jij een mechanische HDD welke altijd blijft werken? De fabrikant geeft gewoon een MTBF op en een beetje datacentrum houdt daar rekening mee. Of het defect door weglekkend helium komt, of door mechanische slijtage, of nog iets anders doet er dan niet toe. Ikzelf wil HDD's liever om de 5 jaar vervangen in mij gewone PC, het zijn gewoon bewegende onderdelen welke slijtage kennen.

Het is mij bekend wat MTBF is, echter bedoel ik het slechts als voorbeeld om aan te tonen dat die dingen gewoon kapot gaan. Indien het helium weglekt, zou dat invloed kunnen hebben op de MTBF, aangezien de drive misschien sneller kapot kan gaan hierdoor. Als het weglekken van helium pas na bijvoorbeeld 100 jaar een issue zou worden, dan natuurlijk niet, echter wil ik enkel duidelijk maken dat HDD's eigenlijk al sinds jaar en dag de houdbaarheidsdatum hebben waar kevinwalter het over heeft. Hopelijk is dat nu duidelijk

[Reactie gewijzigd door PhatFish op 7 december 2016 15:22]

MTBF zegt niets over levensduur, dat is een hardnekkig misverstand. De MTBF geeft de uitval die je binnen de garantieperiode kan verwachten. Als een fabrikant zijn schijven zo maakt dat ze 1 dag na het verlopen van de garantie stuk gaan, dan heeft dat geen invloed op de MTBF.
MTBF is de gemiddelde storingsvrij interval tussen twee failures. In dit geval 2,5 miljoen uur, wat een absurd hoog getal is. Het zegt niets over wanneer de schijf voor het eerst gaat falen en dus ook niets over de garantieperiode.
Toch wel: Als je de schijf afloop van de garantie direct door een nieuwe zou vervangen, dan zou je eens in de 2,5 miljoen draaiuren een defecte schijf hebben. MTBF betekent geenszins dat een individuele schijf gemiddeld 2,5 miljoen uur mee gaat.
2,5 miljoen draaiuren is 285 jaar. Doe mij zo'n disk:-) Maar wat je zegt klopt niet. De garantieduur is gewoon een periode waarvan de leverancier vrijwel zeker weet dat er niets fout gaat en zeg helemaal niets over de MTBF of de echte levensduur. MTBF zegt dat na het eerste falen, het gemiddeld xxx uur duurt voor het weer gebeurt. Ik snap je conlusie dan ook niet.
De MTBF is een statistische berekening: Een verhouding tussen het aantal draaiuren en daadwerkelijk aantal defecte schijven. De relatie tussen garantietermijn en MTBF is dat de fabrikant schijven die buiten de garantietermijn defect raken niet meetelt als een defecte schijf en dat soort defecten dus niet meegenomen worden in de MTBF-berekening.
Ik denk dat dat probleem grotendeels te ondervangen is door geen drukverschil te laten ontstaan. Met andere woorden: de druk in het helium-compartiment moet ook 1 atmosfeer zijn.
Dat maakt niets uit. Het gaat hier om partiele drukken. Als de druk in de schijf 1 atmosfeer helium is, dan buigt het deksel niet door. Dat is mechanica. Maar natuurkundig gebeurt er wat anders op atomaire schaal. De natuur streeft altijd naar een evenwicht. Praktisch gezien is de heliumdruk buiten de schijf 0 atmosfeer. En de stikstof en zuurstof druk in de schijf zijn 0 atmosfeer in de schijf.
Het voelt misschien tegennatuurlijk, maar uiteindelijk zal als het systeem niet perfect is alle helium er uit lekken en vervangen worden door lucht
Vergelijk het maar met twee dozen. In de ene doos zitten 100 rode knikkers en in de andere doos zitten 100 blauwe knikkers. Als er tussen de dozen een verbinding ontstaat die groter is dan een knikker en je gaat ze schudden zitten na enige tijd in iedere doos 50/50 rood/blauw

[Reactie gewijzigd door Ortep op 7 december 2016 14:34]

Net als met de semipermeabele membranen van cellen, die willen aan beide kanten dezelfde concentratie van de opgeloste stoffen(doorgaans zouten) hebben. Als de opgeloste stoffen niet door het membraan kunnen, maar het oplosmiddel (water) wel, dan gaat het water naar de kant met de hoogste concentratie opgeloste stof.

Je moet er dus voor zorgen dan de schijf zo goed als het kan lucht- en helium-dicht is. Een gelijke druk helpt dan om de helium binnen te houden (en de stof buiten), maar het is geen garantie.
Helaas is er niet overal 1 atmosfeer op de wereld. De luchtdruk van een data center aan zee verschilt namelijk van een datacenter in bijvoorbeeld Cusco (3400m) , of bij de Mauna Kea Observatories in Hawaii (4200m).
lekken?

dingen zijn volgens mij luchtdicht, normale disken sowieso al anders komt er stof in en dat wil je niet.
Normale harde schijven zijn niet luchtdicht, ze hebben een klein gaatje met een filter om de luchtdruk binnenin hetzelfde te houden als buiten (anders zou het deksel bol of hol gaan staan)
Luchtdicht misschien, helium dicht niet. Helium gaat zo ongeveer overal doorheen omdat de moleculen enorm klein zijn. Ook het gegoten lichtmetalen frame van de harddisk kan het weglekken niet tegenhouden. NASA heeft bv. hier een groot probleem mee doordat zuurstof en waterstof weglekken uit hun tanks waardoor ze andere brandstoffen moeten gebruiken voor raketmotoren die na lange tijd nog moeten kunnen ontsteken.
Zoalds een beroemde Schot ooit (vele malen) zei; You can't change the rules of physics.
Maar je mag aannemen dat het helium minstens 5 jaar in de harddisk aanwezig blijft gezien de garantieperiode van 5 jaar.
Overigens staat er in de pdf niet wat ervoor zorgt dat de helium niet weglekt..
Meer een verkooppraatje.
Jawel dat staat er in grote letters in: de helioseal.
En laat HGST nu "toevallig" een dochterbedrijf van WD zijn :)
Luchtdicht betekend dat er ergens iets van een rubber zit. Rubbers drogen na verloop van tijd uit waardoor de boel niet meer luchtdicht is.

Ik ben benieuwd hoe ze dat aanpakken :P
na 5 jaar vervang je hem :)
Hoezo? Als de seal niet breekt gebeurt er niets, en blijft de schijf werken. En als je iets sloopt is het kapot natuurlijk.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Een houdbaarheidsdatum heef hij toch wel. Maar wat komt er in de plaats van helium als die weglekt, volgens jou ? Vacuum ?

-
Waarom zijn die dingen per se zakelijk ?
O, dan ben ik ook zakelijk. :)

Het staat er altijd zo makkelijk, alsof je als particulier die dingen niet zou kunnen of mogen hebben.
Elke schijf (ook SSD) heeft een houdbaarheidsdatum.
Het is alleen niet de bedoeling dat het weglekken van Helium de bepalende factor is.
Dat zou moeten komen door slijtage van de draaiende delen of van de transistoren.
Niks gaat eeuwig mee.

Reken maar dat in zo'n enorm datacenter er steeds iemand rond loopt die defecte schijven (en de rest) vervangt.
Het is geen gekke gedachte, maar wel een verkeerde. Heliumgevulde schijven gaan namelijk langer mee dan luchtgevulde schijven.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Dat betekend dus ook dat je hardeschijf een houdbaarheidsdatum krijgt.
Als de helium weglekt dan zal de interne telemetrie van de schijf dit detecteren.
huh dit is toch een aankondiging...bij een daadwerkelijke introductie horen toch de adviesverkoopprijzen!?????
Adviesverkoopprijzen zijn afhankelijk van de wisselkoers, ook staan er meestal geen adviesverkoopprijzen voor dit soort producten aangezien ze geheel afhankelijk zijn van de afname hoeveelheid. Iemand die 10.000 van deze schijven koopt krijgt een andere prijs dan iemand die er 10 koopt. Het is geen product dat met een retail prijs bij de mediamarkt komt te liggen.
ze kunnen ook gewoon de advies dollarprijs geven....en die SSD's zijn toch niet voor de zakelijke markt? en bijna alle schijven kan je ook gewoon als consument bestellen..en dan heb je natuurlijk geen staffelkortingen! stuksprijs daar gaat het om!
Het is niet op de consumentenmarkt gericht dus dan zijn dat handje vol consumenten die server grade producten voor eigen gebruik willen hebben niet belangrijk. Ook zullen ze de prijs pas rond de introductie bekend maken want waarom zou je nu al je concurrentie volledig informeren over een product dat pas over een half jaar op de markt komt? Als je als inkoper een prijs weet en een concurrent komt met een goedkoper product voor jouw product op de markt komt verlies je de deal zonder dat je er invloed op uit kan oeffenen. Als de inkoper nog geen prijs weet maar wel weet dat het product gaat komen dan houd hij/zij de optie open of doet navraag over de prijs. Prijzen op b2b hardware liggen anders dan prijzen op consumenten producten. Maargoed wat zoals met de meeste mooie dingen het geval is, als je moet vragen wat het kost, dan kan je het waarschijnlijk toch niet betalen. :p
de artikelkop geeft INTRODUCTIE aan...en niet aankondiging! ;-)
Sure, maar ze zijn voorlopig nog niet beschikbaar.
De prijs van zakelijke producten hangt van zo veel dingen af. Daar zijn vaak geen vaste prijzen voor. Het is maar net wat de klant met de leverancier heeft afgesproken qua discounts e.d. Veel bedrijven hebben bijvoorbeeld als standaard 30%...40% korting ongeacht of ze 1 of meerdere producten kopen.
Gaat hard nog eens 2TB erbij steaks naar 12GB en 14TB ik ben benieuwd hoeveel ze gaan kosten
Is helium zowiezo beter als lucht qua levensduur?
Dat ligt er aan, zo lang de helium er in blijft heeft het misschien nut maar ideaal zou een vacuum zijn, dan heb je namelijk minder weerstand maar zowel een vacuum als een helium schijf kan lek raken in tegenstelling tot een normale schijf. Als de marges zo nauw komen dat een lek voor problemen zou zorgen dan moet je er wel heel zeker van zijn dat er tijdens de levensduur van de schijf geen lek kan ontstaan. In theorie is een normale schijf dan dus betrouwbaarder.
Voor zover ik weet zweven de koppen boven de platters op een laagje lucht/helium/etc
Bij een vacuum zouden ze over de platters schuren wat de MTBF zwaar beinvloed (lees onbruikbaar)
Met een vacuüm zou de techniek van de huidige harddisken helemaal niet meer werken!!
De kop zweeft juist net boven de platter op een dun laagje luch/helium. Van daar ook dat je een normale harddisk niet mag gebruiken boven een bepaalde hoogte ivm de verminderde luchtdruk
Het artikel geeft aan dat de dichtheid aanzienlijk lager is.

Ik vermoed dat de platters minder turbulentie of andere dwarskrachten te verduren krijgt bij deze lagere dichtheid (minder massa lucht om zulke krachten uit te oefenen), waardoor de dikte (die natuurlijk samenhangt met hoe goed de platter krachten loodrecht op het draaivlak kan verduren) gereduceerd kan worden.
Ik vermoed dat de platters minder turbulentie of andere dwarskrachten te verduren krijgt bij deze lagere dichtheid
Daarentegen staat er ook dat er dunnere schijven mogelijk zijn. Als daarmee bedoeld wordt dat er dunnere platters mogelijk zijn, zullen die wel weer meer risico lopen op bewegen / 'fladderen'.
Voordelen Helium:
- platters met grotere densiteit (Helium zorgt voor minder turbulentie zodat lees/schrijf acties op nauwkeuriger kunnen plaatsvinden
- meer platters
- meer schrijf/leeskoppen
- minder stroomverbruik (spin up van de schijven kost minder moeite met helium)
- minder warmte
Niet voor ons.... :X
Ok, dus niet so wie so', 'zowiezo', 'zo-wie-zo', 'sowiezo', 'zowieso', 'sowiso', 'zowizo', 'soïso', 'zoïzo', 'soieso', 'zoiezo', 'zo en zo', 'zo bij zo', 'sobieso' en 'zobiezo?

Maar kan wel beetje omlache toch :+
Haha, inderdaad! En ik kon het niet laten het aan te stippen :) Cheers!
Leuk zo'n grote disk, maar wat over de IOPS ? heeft hooguit nut voor archivering? Hoe lang duurt het voor je 12 TB data hebt overgezet? Zo'n SSD cache is een lapmiddel, wanneer die vol is keldert je IOPS

IOPS gaat een grote uitdaging worden, huidige storage oplossingen gaan tegen hun limieten aanlopen, Ik denk dat hyperconverged infrastructures de toekomst wordt

[Reactie gewijzigd door pandit op 7 december 2016 14:55]

Het is meer dan archivering. Het gaat vaak om gegevens die je wel altijd beschikbaar wilt hebben, maar niet frequent geraadpleegd worden. Denk bijvoorbeeld aan Youtube: Veel filmpjes worden zelden opgevraagd, maar als ze opgevraagd worden, moeten ze wel binnen enkele seconden afgespeeld kunnen worden. Iops zullen ze bij Youtube niet wakker van ligger, alle video wordt sequentieel afgespeeld. Dit soort systemen komen veel voor, Youtube is een mooi voorbeeld omdat iedereen kent.
Het is interessant om te weten dat de 12TB schijf over 8 platters zal beschikken en volgens de PMR techniek zal werken. De 14TB heeft eveneens 8 platters maar werkt volgens de SMR techniek. SMR schijven zijn in bepaalde use cases echt niet aan te raden.
De SS200 komt in varianten van 400GB tot 8TB. WD beweert dat de schijf leessnelheden van 1800MB/s en schrijfsnelheden van 1000MB/s kan behalen. Opvallend is dat WD bij deze ssd gebruikmaakt van een 2,5"-formaat en een sasinterface die maximaal 12Gbit/s aankan. Dit limiteert de maximale theoretische doorvoersnelheid op 1500MB/s, minder dan de 1800MB/s die WD belooft.
DIt stukje uit het artikel klopt niet. Een SAS-schijf heeft twee poorten en dus ook twee keer 12 gigabps om met de buitenwereld te praten. De maximale theoretische doorvoersnelheid van een SAS-SSD ligt dan ook op 3000 MB/s. Het is niet gezegd dat beide poorten ook aangesloten worden, dat is toepassingsafhankelijk, maar daar waar SAS-SSD's ingezet worden is dat vaak wel het geval. Een opgegeven pieksnelheid van 1800 MB/s is dus plausibel.
Mooi, nu moeten ze natuurlijk nog even de prijs bekend maken. En graag een 2.5" model... ;)
Helaas nog steeds geen disks met HAMR (Heat-assisted magnetic recording, https://en.wikipedia.org/...sisted_magnetic_recording).
Ik hoop dat dit de laatste disks zijn waarmee het GMR-effect (https://nl.wikipedia.org/wiki/GMR-effect) uitgemolken wordt. Acht platters maar liefst; 16 heads, wat een noodsprong.
In 2015 werd verwacht dat in 2017 de eerste commerciële HAMR-disks verkrijgbaar zouden zijn. Waar blijven die?
In 2015 werd verwacht dat in 2017 de eerste commerciële HAMR-disks verkrijgbaar zouden zijn. Waar blijven die?
Misschien omdat het nu nog 2016 is? Je moet nog ruim een jaar wachten voor je kan zeggen dat die voorspelling niet klopt. En over een periode van 2 jaar gerekend zou ik ook niet verbaasd zijn als het bv 3 maanden uitloopt en eind maart 2018 wordt

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*