Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Western Digital introduceert 12TB-hdd voor zakelijke markt

Western Digital heeft een 12TB-versie van de HGST He12 Helium HDD ge´ntroduceerd. Het is het eerste model van dit formaat. Het bedrijf geeft verder aan te werken aan een 14TB-variant en heeft enkele ssd's voor de zakelijke markt ge´ntroduceerd.

Western Digital brengt de drives uit onder de HGST-merknaam. De Ultrastar He12 is voorzien van acht platters en kan geleverd worden met 12Gb/s-sas- of sata600-interface. Om de hoge datadichtheid te bewerkstelligen, is de harde schijf gevuld met helium, dat een veel lagere dichtheid heeft dan lucht, waardoor dunnere schijven mogelijk zijn. HGST geeft de schijf een mtbf-rating van 2,5 miljoen uren en vijf jaar garantie. Het bedrijf heeft aangegeven dat het binnenkort met een 14TB-variant van de schijf komt, die wat hardware betreft hetzelfde is, maar gebruikmaakt van smr-techniek, waarbij de magnetische banen elkaar enigszins overlappen.

De twee ssd's die het bedrijf heeft geïntroduceerd, zijn de Ultrastar SN200 en SS200. De SN200 is een nvme-ssd komt in 2,5"- en pci-e-versies met capaciteiten tussen de 800GB en 8TB. WD belooft random-read-prestaties tot 1.200.000 iops en schrijfprestaties tot 200.000 iops.

De SS200 komt in varianten van 400GB tot 8TB. WD beweert dat de schijf leessnelheden van 1800MB/s en schrijfsnelheden van 1000MB/s kan behalen. Opvallend is dat HGST bij deze ssd gebruikmaakt van een 2,5"-formaat en een sasinterface die maximaal 12Gbit/s aankan. Dit limiteert de maximale theoretische doorvoersnelheid op 1500MB/s, minder dan de 1800MB/s die WD belooft. De random-read-prestaties van de ssd zijn 250.000 iops en schrijfprestaties zijn maximaal 86.000 iops.

WD geeft aan dat de harde schijf en ssd's op dit moment bij enkele gebruikers getest worden. De ssd's komen in het eerste kwartaal van 2017 beschikbaar en de 12TB-hdd ergens in de eerste helft van 2017. Het 14TB-model moet halverwege 2017 te koop zijn. WD heeft geen prijzen bekendgemaakt.

Door Emile Witteman

Nieuwsposter

07-12-2016 • 14:04

98 Linkedin Google+

Submitter: dmantione

Reacties (98)

Wijzig sortering
Kan iemand mij uitleggen wat dergelijke grote schijven zakelijk interessant maakt boven een simpele array van kleinere schijven die geen kunstgrepen als helium nodig hebben? Lijkt mij namelijk dat dat goedkoper en praktischer is. Of is fysiek ruimtegebrek echt een issue?

Klinkt voor mij namelijk niet als technologie waarvan redelijkerwijs te verwachten valt dat dit op redelijke termijn qua kosten concurrerend gaat zijn. Of zie ik dat verkeerd, en zijn over een aantal jaar alle grote schijven met lage kosten per GB 8-platter helium-gevulde apparaten?
Voor de zakelijke markt zijn er meer overwegingen dan de kosten van een harde schijf of de schijf per gigabyte. Natuurlijk is dat ook een factor, maar verder heb je ook stroom, rackspace, netwerk etc.

Prijzenlijst:
2u server, 3000 euro * 21 ~= 63.000
Netwerk per rack: 15000 euro
Overige kosten per rack: 2000 euro
Prijs per rack: 80.000 euro
12TB schijf: 600 euro (0.050/gb)
4TB schijf: 100 euro (0.025/gb)

In deze 2u server kun je 8 schijven kwijt, 21 per rack. Dus 168 schijven per rack. Nu krijg jij de opdracht: Regel 10PB opslag voor mij. Dan is de rekensom vrij simpel:

12 TB schijven = 833 schijven, met 168 per rack = 5 racks ~= 400k euro
4TB schijven = 2500 schijven, met 168 per rack = 15 racks ~= 1200k euro

Van de 12TB (600 euro) heb je er 833 =~ 500k euro + racks = 900k euro
Van de 4TB (100 euro) heb je er 2500 nodig ~= 250k euro + racks = 1450k euro

Dus tenzij je je baas kan overtuigen van het nut om 550.000 euro meer uit te geven, en per rack dan ook nog eens elke maand stroom, koeling en ruimte meer moet betalen dan lijkt het mij handiger om naar de 12TB schijven te gaan.
Ik zou eerder die nieuwe 60 of 100 TB SSD's nemen, kost je veel minder ruimte en stroom verbruik.
Het probleem met die SSD's is dat de kosten van die disks nog een heel stuk hoger liggen dan de prijzen van een roterende disk. Als ik nu in de pricewatch kijk is de grootste (4TB) ssd die nu te koop is 33 cent per gigabyte. Dan heb je 2500 ssd's nodig van ~1200 per stuk, en dat gaat je dus dik 3 miljoen kosten.

Maar laten we zeggen dat die 100TB ssd's leverbaar worden, dan zouden ze pas goedkoper worden dan deze hardeschijven als je er 100 (want 10PB) voor ~1 miljoen kan kopen, dus 10.000 euro per stuk, of 10 cent per gigabyte (2x zo duur als waar ik vanuit ga voor deze 12TB schijven). De huidige datacenter ssd's zitten echter eerder op een prijs die 3-4x zo hoog ligt (en ik kan het weten, toevallig net 36 datacenter ssd's gekocht voor Tweakers ;))

[Reactie gewijzigd door Kees op 7 december 2016 20:19]

Kun je wat bronvermeldingen geven voor je 'overige kosten'?

Als we enkel en alleen op zoek zijn naar 'prop zoveel mogelijk schijven in een rack' dan zijn er veel betere oplossingen dan een 2u server waar 8 HDD's (hotswap) in kunnen.
Als we kijken naar een database server dan verandert het kostenplaatje ook (HDD's backend, SSD's voor high-volume entries en vÚÚl RAM).
Je netwerkkosten verbazen mij ook een beetje, gaat dat uit van optische interconnects of gewoon UTP? Is daar een switch meegerekend en/of loadbalancer?
Vergeet ook niet de kosten van een eventuele UPS, die dingen nemen ook ruimte in en zijn zeker niet goedkoop...

Al met al is het configureren van een rack of meerdere racks enorm maatwerk waar je mijns inziens niet zomaar globaal een prijskaartje aan kunt hangen. Ik snap dat dit de strekking van je post voorbij gaat maar het lijkt mij nuttiger om gewoon de feiten te presenteren die we wÚl hebben:

3x zo veel opslag (per schijf) voor dezelfde ruimte en 'ruwweg' hetzelfde stroomverbruik+hitte maar 2x zo duur (per schijf, uitgaande van jou 0,05 vs 0,025). Dit komt dus uit op een globale netto besparing van 33% op alle overige kosten en ruimte in vergelijking met 4TB schijven en is in theorie dus altijd meer wenselijk. 33% minder servers nodig, 33% minder ruimte, 33% minder bekabeling en switches, 33% minder UPS/loadbalance capaciteit en 33% minder stroomverbruik en hitte generatie.
Als je op petabyte of exabyte schaal opslaat dan is hogere dichtheid absoluut relevant. Als je overstapt van 12.000 8TB naar 12.000 12TB schijven kun je met dezelfde ruimte, stroomvoorziening en koeling ineens 50% (48.000 TB) meer data kwijt.
Inderdaad.
Een 90-bay Supermicro kast kost ruwweg 10'000 euro. Daarbij komt nog wat kosten voor de nodes om het te kunnen gebruiken a ruwweg 10'000 euro.
Dat zijn gewoon vaste kosten per fixed aantal schijven.
Dus als je meer data kwijt kunt per schijf, nemen de overhead kosten af per GB aan opslag.
Dus dan kun je 12 TB * 90 = 1080 TB (1 PB) kwijt per kastje.
Dan heb je nog wat overhead aan erasure-code (redundantie), maar ruwweg 3/4 PB per rackmount kastje is dus goed haalbaar.

Punt is wel dat deze SMT-techniek niet zomaar voor elke toepassing ideaal is, omdat je veel meer overhead hebt bij het schrijven van dergelijke harde schijven.
Punt is wel dat deze SMT-techniek niet zomaar voor elke toepassing ideaal is, omdat je veel meer overhead hebt bij het schrijven van dergelijke harde schijven.
Perfect voor bijzonder grote datawarehousing/virtuele grootboeken die altijd direct beschikbaar moeten zijn (weinig schrijfacties, veel leesacties).
En minder perfect voor toepassingen waarbij relatief kleine blokjes data frequent veranderen.
En "klein" kun je relatief nemen, als je bijvoorbeeld 100 van die schijven in een cluster (Ceph bijvoorbeeld) hebt, verdeel je de nieuwe data over kleine blokken die verspreid over het hele cluster opgeslagen worden.
Daarbij verander je dus relatief vaak de inhoud van een blok data en dan is SMT heel vervelend bij het schrijven. Je hebt dan wel een daemon per disk, dus de overall impact op de performance van het cluster kan wel meevallen, maar het zal wel veel eerder een bottleneck vormen op de haalbare performance van je hele cluster.
In dat geval zijn grotere disken, en daarmee dus totaal minder disken zowieso vervelender, omdat meer spindles ook meer snelheid betekent. Maar met die zaken hou je bij het ontwepren van een dergelijk platform natuurlijk rekening.
Volgens mij hebben we het niet helemaal over hetzelfde.
Ik heb het er over dat je met SMT meerdere tracks over elkaar hebt liggen, wat impact heeft op de schrijfsnelheid.
Bij SMT heb je bijvoorbeeld 3 tracks achter elkaar waarbij track 1 deels over track 2 ligt en track 2 over track3.
Dus als je achter elkaar schrijft, is er niets aan de hand, want je schrijft track 1 en dus verander je data in track 2. Daarna schrijf je track 2 en verander je track3 dus ook en dan schrijf je track 3.

Ga je nu echter data overschrijven die toevalligerwijs in track 1 zit, dat moet je dus track 1, 2, en 3 lezen, de nieuwe data voor track 1 in het geheugen (van de drive) aanpassen en track 1, 2 en 3 schrijven.
Dus 6x zoveel lees/schrijf acties als bij een traditionele schijf. (N.B. niet 6x zoveel tijd nodig)

Bij typische erasure-encoded clusters (zoals Ceph, maar ook andere cluster-systemen) heb je dus een redelijk grote kans dat je zo nu en dan een klein blokje data moet bijwerken wat in een track zit die over 1 of meer andere tracks ligt.
Dus dat heeft wel degelijk impact op de schrijfsnelheid en dat kan ook prima voorkomen bij grote files. Maar door het gedrag van dit soort systemen heb je er veel meer last van dan wanneer je zo'n grote file achter elkaar zou opslaan.

Punt is namelijk dat Ceph en dergelijke de data opdelen in een hoop kleine blokjes en die zoveel mogelijk over verschillende drives gaat verdelen. Daarnaast hebben object-stores vaak geen mogelijkheid om data te veranderen, dus moet het opnieuw geschreven worden en de oude versie weggehaald worden. Hierdoor krijg je dus heel vaak schrijf-acties met kleine stukjes data.

En laat dit soort schijven nu juist interessant lijken voor grote data-opslagsystemen, die typisch gebruik maken van Ceph + S3 achtige oplossingen.
Dus vooral voor archieven die vrijwel alleen gevuld worden, met een goed voorspelbare schrijfsnelheid zijn ze prima geschikt. Voor dergelijke systemen waarbij files vaak veranderen, of verwijderd worden (een soort van cache voor bepaald aantal maanden), is het wel degelijk een belangrijk ontwerp-punt voor dergelijke systemen.
Kan iemand mij uitleggen wat dergelijke grote schijven zakelijk interessant maakt boven een simpele array van kleinere schijven die geen kunstgrepen als helium nodig hebben? Lijkt mij namelijk dat dat goedkoper en praktischer is. Of is fysiek ruimtegebrek echt een issue?
Het fysieke aspect is een deel van het probleem. Ja, grondoppervlak kost geld en datacenters nemen ruimte in. Maar dat is natuurlijk maar een deel van het punt. Als je schijven met hogere capaciteit gebruikt hoef je er voor dezelfde opslag minder te gebruiken. Dat is waar de echte voordelen zitten:
- 1 grote schijf verbruikt minder stroom dan 4 kleine.
- Bij gebruik van grotere schijven heb je minder aansluitingen nodig -> minder backbone-aansluitingen = minder servers. Minder servers leidt tot minder extra benodigde hardware, dus minder investeringen en, wederom, minder stroomverbruik.
- Minder apparatuur vereist minder koeling, wat logistiek scheelt en weer goedkoper is qua verbruik.

Als je op deze manier je serverpark met de helft kan verkleinen, zijn je schijven weliswaar duurder, maar je totale infrastructuurkosten lager. Plus je bespaart iedere maand weer op die elektriciteitsrekening, wat voor echt grote datacenters echt gaat aantikken.

[Reactie gewijzigd door Twam op 7 december 2016 14:37]

Het is eigenlijk gewoon heel normaal. Neem server rack van 10 jaar geleden en neem een rack nu.

Met dezelfde hoeveelheid ruimte, stroomverbruik heb je nu een snelheid en capaciteit die (natte vingerwerk) 5x groter is dan 10 jaar geleden.

Deels heb je snellere hardware nodig door complexere software en grotere behoefte aan data opslag. Deels is het gewoon besparing.

Over 10 jaar zal er nog meer data opgeslagen kunnen worden in 1 rack en zal cpu's nog sneller zijn. Door de gestegen vraag naar opslag kan men in hetzelfde datacenter dus ook gewoon meegroeien met de vraag zonder meteen een nieuwe te moeten bouwen.
Een belissing om voor grote, duurdere schijven te gaan heeft vaak te maken met de kosten van de apparatuur om ze in te zetten. Voor jouw PC heb je altijd nog wel een plekje in je kast en een SATA-poortje op het moederbord vrij, zo niet, voor 2 tientjes heb je een AHCI-kaartje met extra poorten. Dan is de hogere prijs per TB het niet waard.

Als je echter een enterprise-opslagsysteem hebt, waar je alleen voor het apparaat zonder schijven al 8000 euro neertelt, dan verandert de berekening en wil je grotere schijven om de ideale prijs per TB te halen.

Verder speelt toekomstdenken een rol. Momenteel heb je de beste prijs per TB bij 4TB-schijven. Als je echter van plan bent om nu iets te kopen en dat ieder jaar uit te breiden, dan kan het zinniger zijn om in grotere schijven te investeren, zodat je je systeem uniform kunt houden. Je betaalt dan nu iets meer per TB, maar over de gehele tijd gezien is het wel een logische investering.
Stroomverbruik, hoeveelheid ruimte (fysiek). 10 x 12 TB neemt toch minder ruimte in als 30 x 4 TB qua oppervlakte :)

[Reactie gewijzigd door bonus op 7 december 2016 14:16]

Kunstgrepen als Helium (en de prijs daarvan) gaan boven ons uit, maar als je weet dat we hier een toestel krijgen die tot 12TB per 48u kan genereren, dan snap je al wel dan arrays met 4TB al lang niet meer voldoen. Ik vermoed dat in de toekomst SSD's zijn, ze zijn kleiner en sneller maw het zijn de laatste trucken in de doos om de datadichtheidswedstrijd in 3,5/2,5 inch formaat te winnen voor spinners. Zelfs met helium en andere edelgassen zijn HDD's een stuk goedkoper dan dergelijk grote SSD's.
Afgezien van wellicht de NAS markt worden deze schijven niet in een paar stuks per host gebruikt. Je ziet ze juist terug in storage bricks van honderden TB waar zo min mogelijk bricks telt ivm de hoge kosten voor server hardware. Dan liever wat duurdere grotere schijven gebruiken dan een hele extra brick in je setup.
waarschijnlijk meerdere redenen:

- ÚÚn schijf van 12TB neemt minder ruimte in beslag dan twee van 6TB met het daarbij komend voordeel dat je dus ook maar de helft van de energie verbruikt.

- Plaat je twee schijven van 12 TB i.p.v. de twee 6 TB schijven dan zullen deze door de helium vulling nog steeds minder energie verbruiken door de lagere dichtheid van helium t.o.v. zuurstof. Uiteraard heb je dan ook het dubbele aan opslagcapaciteit :)

[Reactie gewijzigd door kendiko op 7 december 2016 14:37]

Mijn ervaring met het introduceren van nieuwe systemen dat er altijd een gebrek aan ruimte in data centers lijkt te zijn. Dus alles wat kleiner kan is meegenomen.
Zijn gewoon nog veel te duur om aan particulieren te slijten.
En een array van deze disks is groter dan een array van kleinere disks.
Je zult maar de ruimte nodig hebben, dan is het toch voor bedrijven een optie om gewoon 10van deze beesten in een array te hangen. Leuke rebuild times waarschijnlijk.
Ik werk in media broadcasting, vorige maand een 16 Petabyte groot GlusterFS geplaatst, dat is nummer 4 dit jaar. Hoe groter de schijven hoe beter, want ook deze is met 5 maanden vol.
Long term archiving en backup.

Als je nu een 3U storage cabinet hebt dan kun je daar zo'n 16 3.5" schijven in kwijt. daar kun je met 2TB disken dus 32TB aan rawe storage in kwijt. Wil je 320TB aan ruimte dan heb je dus 10x een 3u storagebak nodig en 160 disks.

met 12TB in diezelfde 3U enclosure kun je met 27 schijven uit de weg en heb je nog maar 2x een enclosure nodig. Kun je nagaan wat dat aan uitgaven spaart en hoeveel je kan besparen op stroom kosten.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Dat betekend dus ook dat je hardeschijf een houdbaarheidsdatum krijgt.
Als het goed is gebeurt dat niet. Maar dan nog, ken jij een mechanische HDD welke altijd blijft werken? De fabrikant geeft gewoon een MTBF op en een beetje datacentrum houdt daar rekening mee. Of het defect door weglekkend helium komt, of door mechanische slijtage, of nog iets anders doet er dan niet toe. Ikzelf wil HDD's liever om de 5 jaar vervangen in mij gewone PC, het zijn gewoon bewegende onderdelen welke slijtage kennen.

Het is mij bekend wat MTBF is, echter bedoel ik het slechts als voorbeeld om aan te tonen dat die dingen gewoon kapot gaan. Indien het helium weglekt, zou dat invloed kunnen hebben op de MTBF, aangezien de drive misschien sneller kapot kan gaan hierdoor. Als het weglekken van helium pas na bijvoorbeeld 100 jaar een issue zou worden, dan natuurlijk niet, echter wil ik enkel duidelijk maken dat HDD's eigenlijk al sinds jaar en dag de houdbaarheidsdatum hebben waar kevinwalter het over heeft. Hopelijk is dat nu duidelijk

[Reactie gewijzigd door PhatFish op 7 december 2016 15:22]

MTBF zegt niets over levensduur, dat is een hardnekkig misverstand. De MTBF geeft de uitval die je binnen de garantieperiode kan verwachten. Als een fabrikant zijn schijven zo maakt dat ze 1 dag na het verlopen van de garantie stuk gaan, dan heeft dat geen invloed op de MTBF.
Ik denk dat dat probleem grotendeels te ondervangen is door geen drukverschil te laten ontstaan. Met andere woorden: de druk in het helium-compartiment moet ook 1 atmosfeer zijn.
Dat maakt niets uit. Het gaat hier om partiele drukken. Als de druk in de schijf 1 atmosfeer helium is, dan buigt het deksel niet door. Dat is mechanica. Maar natuurkundig gebeurt er wat anders op atomaire schaal. De natuur streeft altijd naar een evenwicht. Praktisch gezien is de heliumdruk buiten de schijf 0 atmosfeer. En de stikstof en zuurstof druk in de schijf zijn 0 atmosfeer in de schijf.
Het voelt misschien tegennatuurlijk, maar uiteindelijk zal als het systeem niet perfect is alle helium er uit lekken en vervangen worden door lucht
Vergelijk het maar met twee dozen. In de ene doos zitten 100 rode knikkers en in de andere doos zitten 100 blauwe knikkers. Als er tussen de dozen een verbinding ontstaat die groter is dan een knikker en je gaat ze schudden zitten na enige tijd in iedere doos 50/50 rood/blauw

[Reactie gewijzigd door Ortep op 7 december 2016 14:34]

lekken?

dingen zijn volgens mij luchtdicht, normale disken sowieso al anders komt er stof in en dat wil je niet.
Normale harde schijven zijn niet luchtdicht, ze hebben een klein gaatje met een filter om de luchtdruk binnenin hetzelfde te houden als buiten (anders zou het deksel bol of hol gaan staan)
Zoalds een beroemde Schot ooit (vele malen) zei; You can't change the rules of physics.
Maar je mag aannemen dat het helium minstens 5 jaar in de harddisk aanwezig blijft gezien de garantieperiode van 5 jaar.
Overigens staat er in de pdf niet wat ervoor zorgt dat de helium niet weglekt..
Meer een verkooppraatje.
Hoezo? Als de seal niet breekt gebeurt er niets, en blijft de schijf werken. En als je iets sloopt is het kapot natuurlijk.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Een houdbaarheidsdatum heef hij toch wel. Maar wat komt er in de plaats van helium als die weglekt, volgens jou ? Vacuum ?

-
Waarom zijn die dingen per se zakelijk ?
Elke schijf (ook SSD) heeft een houdbaarheidsdatum.
Het is alleen niet de bedoeling dat het weglekken van Helium de bepalende factor is.
Dat zou moeten komen door slijtage van de draaiende delen of van de transistoren.
Niks gaat eeuwig mee.

Reken maar dat in zo'n enorm datacenter er steeds iemand rond loopt die defecte schijven (en de rest) vervangt.
Het is geen gekke gedachte, maar wel een verkeerde. Heliumgevulde schijven gaan namelijk langer mee dan luchtgevulde schijven.
Maar, wat gebeurt er als die helium weglekt? Werkt de schijf dan nog wel?
Dat betekend dus ook dat je hardeschijf een houdbaarheidsdatum krijgt.
Als de helium weglekt dan zal de interne telemetrie van de schijf dit detecteren.
huh dit is toch een aankondiging...bij een daadwerkelijke introductie horen toch de adviesverkoopprijzen!?????
Adviesverkoopprijzen zijn afhankelijk van de wisselkoers, ook staan er meestal geen adviesverkoopprijzen voor dit soort producten aangezien ze geheel afhankelijk zijn van de afname hoeveelheid. Iemand die 10.000 van deze schijven koopt krijgt een andere prijs dan iemand die er 10 koopt. Het is geen product dat met een retail prijs bij de mediamarkt komt te liggen.
ze kunnen ook gewoon de advies dollarprijs geven....en die SSD's zijn toch niet voor de zakelijke markt? en bijna alle schijven kan je ook gewoon als consument bestellen..en dan heb je natuurlijk geen staffelkortingen! stuksprijs daar gaat het om!
Gaat hard nog eens 2TB erbij steaks naar 12GB en 14TB ik ben benieuwd hoeveel ze gaan kosten
Is helium zowiezo beter als lucht qua levensduur?
Dat ligt er aan, zo lang de helium er in blijft heeft het misschien nut maar ideaal zou een vacuum zijn, dan heb je namelijk minder weerstand maar zowel een vacuum als een helium schijf kan lek raken in tegenstelling tot een normale schijf. Als de marges zo nauw komen dat een lek voor problemen zou zorgen dan moet je er wel heel zeker van zijn dat er tijdens de levensduur van de schijf geen lek kan ontstaan. In theorie is een normale schijf dan dus betrouwbaarder.
Voor zover ik weet zweven de koppen boven de platters op een laagje lucht/helium/etc
Bij een vacuum zouden ze over de platters schuren wat de MTBF zwaar beinvloed (lees onbruikbaar)
Met een vacuŘm zou de techniek van de huidige harddisken helemaal niet meer werken!!
De kop zweeft juist net boven de platter op een dun laagje luch/helium. Van daar ook dat je een normale harddisk niet mag gebruiken boven een bepaalde hoogte ivm de verminderde luchtdruk
Het artikel geeft aan dat de dichtheid aanzienlijk lager is.

Ik vermoed dat de platters minder turbulentie of andere dwarskrachten te verduren krijgt bij deze lagere dichtheid (minder massa lucht om zulke krachten uit te oefenen), waardoor de dikte (die natuurlijk samenhangt met hoe goed de platter krachten loodrecht op het draaivlak kan verduren) gereduceerd kan worden.
Voordelen Helium:
- platters met grotere densiteit (Helium zorgt voor minder turbulentie zodat lees/schrijf acties op nauwkeuriger kunnen plaatsvinden
- meer platters
- meer schrijf/leeskoppen
- minder stroomverbruik (spin up van de schijven kost minder moeite met helium)
- minder warmte

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True