Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Seagate: hamr ligt op schema voor hdd-release in eerste helft dit jaar

Volgens Seagate ligt de ontwikkeling van zijn hamr-technologie voor harde schijven op schema en kan de eerste hamr-hdd in de eerste helft van dit jaar op de markt komen. Seagate werkt al jaren aan de techniek.

De ceo van Seagate, Dave Mosley, meldde dat de productie opgevoerd gaat worden nadat partners de eerste producten valideren. Volgens Seagate voldoen de onderdelen van de hamr-hdd's aan de vereisten die datacenters stellen en media en schrijfkoppen kunnen tot 4PB per kop afhandelen. Dat schrijft AnandTech.

In een eerder blog benadrukte Seagate al de langetermijnprestaties van de hamr-lees- en schrijfkoppen, die de eisen van klanten met een factor twintig zouden overstijgen. Toen zei het bedrijf ook dat de opslagdichtheid 2,381 terabit per vierkante inch is en de opslagdichtheid van hamr die van reguliere hdd-technieken overstijgt.

Seagate werkt al vele jaren aan hamr, wat staat voor heat-assisted magnetic recording. Hierbij worden de magnetische gebieden waar data wordt opgeslagen onder verhitting van een laser gedemagnetiseerd en weer gemagnetiseerd. Daardoor kan data makkelijker geplaatst worden. De techniek moet voor hogere datadichtheid zorgen. Het eerste product is een 3,5"-hdd in de Exos-lijn voor de enterprisemarkt, met in totaal 16 TB aan opslag, maar de volgende generatie gaat tot 24TB.

Later dit jaar moeten ook de eerste 14TB-hdd's met twee actuatoren verschijnen. Deze bieden sequentiële leessnelheden van 500MB/s.

Door Olaf van Miltenburg

Nieuwscoördinator

08-02-2019 • 21:35

106 Linkedin Google+

Reacties (106)

Wijzig sortering
Bijzonder om te zien dat rotating disk technologie zich nog steeds verder weet te ontwikkelen, zelfs met de hete adem van chip technologie in hun nek.

Toch, als consument weet ik eigenlijk niet wat ik zou moeten met 14tb op 1 enkele schijfunit. Ik probeer daar een use case voor de verzinnen, maar kom niet verder ‘time machine’ achtige backup oplossingen waar je door je data kan lopen over de dimensie ‘tijd’.
Als consument moet je dit niet willen. Het is een nachtmerrie om op dit formaat raid te rebuilden. Je bent dan ook gelijk veel sata kwijt. In het datacenter gooien we het in een grote software defined storage pool (met storage over het netwerk, zoal ceph en glusterfs) waarbij de objecten van een grote defecte schijf op honderden andere schijven staan. Dat maakt recovery haalbaarder en stukken sneller. Belangrijker nog: het verlies van één grote harde schijf heeft een minimale impact. Vooral met archied data of grote bestanden kan dit interessant zijn.

Edit: verduidelijking software defined storage over het netwerk.

[Reactie gewijzigd door servicedb op 10 februari 2019 08:47]

Met de NAS'en, zelfgebouwde routers, en VM servers die steeds meer mensen thuis hebben draaien zitten consumenten nu ook weer niet heel ver van de DC wereld af.
De DC wereld is tegenwoordig (waar ze niet 20 jaar achter lopen) vrij ver van de thuis-setups af. RAID is not done en pooling is ook niet meer van nu.

Waar je vroeger cool was in het DC met een hypervisor over meerdere machines, een SAN die RAID doet en een setje VMs (1000 machines! wow!!1!1oneone) is dat tegenwoordig zowel onnodig als dom; de kans dat je met een klein intern teampje on-site de risico's en de kosten in verhouding tot cloud, leased of managed DC services is dermate klein dat het eigenlijk nergens meer gestart wordt. Wat je vooral nog hebt is migraties en legacy setups waar de bedrijven zo snel mogelijk van af willen.

Een DC dat niet slechts een bewaardoos is voor de paar rack units die het handige neefje van de bedrijfsleider 'regelt' heeft vaak SDS, SDN en computing op basis van parallelle taken en niet zo zeer van enkele machines. Dat gaat vaak over setups waarbij je minimaal 11 servers nodig hebt om een niet-fault-tolerante setup te initialiseren. En dan kan je er nog geen eens taken op draaien :p

Deze schijven zijn meer voor storage abstractie, waarbij je bijv. je SDS gebruikt om geografische synchrone object storage te verzorgen.

[Reactie gewijzigd door johnkeates op 10 februari 2019 15:59]

Dat is wat jij er van maakt. Er zijn vele MKB'ers die nog geen eigen cloud draaien en die ook niet klant zijn bij AWS of Azure.
Er zijn ook mensen die in een hutje op de hei wonen en een internet hebben. Zo kan ik het ook. Er zijn altijd wel edge cases te bedenken, en legacy kan je ook vast wel overal vinden.

De MKB'ers die jij aanhaalt hadden trouwens nooit een eigen datacenter en draaien er vaak ook zelf niet in bij een hosted versie, dus eigenlijk gaat dat hele verhaal voor MKB niet op.
Maar hebben ze software defined storage? Het is niet onmogelijk, maar het risico voor data verlies tijdens het rebuilden wordt steeds groter. Neem aan dat de consument niet verschillende batches perse neemtnof verschillende draaitijden.
Hoeveel mensen hebben een ZFS NAS thuis staan? ZFS raakt steeds meer ingeburgerd. Als je Ceph of Gluster bedoelt, ja dat is wel zeldzaam.
Ik moet inderdaad wat specifieker zijn. Ik bedoel software defined storage over het netwerk (ceph, gluster, etc.). Zodra de storage lokaal blijft dan heb je nog altijd dezelfde rebuild problemen.
Mm dat betwijfel ik ten zeerste. In onze bubbel lijkt het misschien zo dat iedereen vm’s draait en een Nas heeft staan maar het lijkt mij niet realistisch om te denken dat dit bij consumenten ook echt zo is.
Je moet niet vergeten dat steeds meer mensen domotica hebben draaien, en dat ze, bewust of niet, wel die richting op aan het gaan zijn. Hoewel je dan niet gelijk denkt aan een DC, zit je er conceptueel niet zo ver meer van af als je dat op gaat tuigen. De mensen die daar zelf mee aan de slag gaan zijn lang niet allemaal nerds, maar meer van het type geïnteresseerde DHZ'er zeg maar.
Zoals Donstil al zei, je moet niet teveel in een bubbel leven. De meeste mensen hebben zelfs nog hetzelfde password overal want:"dat gezeur met overal een ander password".
Ik laat me ook lekker vertellen door anderen wat ik wel of niet moet doen. NOT.

Conceptueel is het verschil lang niet zo groot als het nu wordt gemaakt door sommigen hier. Daarin zijn grotere en snellere harde schijven door nieuwe technieken ook welkom denk ik. Ik kan mij dus totaal niet vinden in wat jij hier nu zegt.
Lees ik een andere parent comment dan jij?
Rebuilden doe je gelukkig ook niet dagelijks. Heb mijn 6jr oude RAIDsetup met zes hdd's welgeteld 2x hoeven te rebuilden in al die jaren.
Dat hoeft ook niet. Punt is dat als je rebuild en de andere harde schijf begeeft het dan heb je niks meer. Een snelle rebuild kan dat potentieel voorkomen.
Oke. Gelukkig zie ik niet gauw consumenten 3 of meer van deze 14TB disk kopen :+
Als dat betrouwbaar zou kunnen zou ik dat zonder meer doen. Liever 4x14TB met mogelijkheid tot uitbreiding in de toekomst dan een volle 8-bay NAS met 8TB schijven.
Heb het over doorsnee consumenten, niet over luitjes die zich een 8-bay 8TB NAS kunnen veroorloven }:O
Ik heb het juist liefst andersom. Hoewel ik nog nimmer meer dan een 4bay nas voor privé heb gehad, dat is wmb de sweet spot. 2bay is een beetje zonde van de disks en 8bay is me te duur en te groot (fysiek,in de kast).

Maar ook met een 4bay heb ik liefst 4 bays allemaal vol. Vanwege de eerder genoemde rebuild-tijd. Gelukkig privé niet gehad, maar toch al regelmatig zien gebeuren: Tweede disk gaat kapot tijdens het rebuilden van de NAS. Ook niet zo gek als je bedenkt dat de eerste set disks meestal tegelijk gekocht is en vaak van hetzelfde type. Heb zelf om die reden 4 verschillende disks gekocht voor thuis.

Heb laatst een 4TB disk moeten vervangen en de rebuild tijd was al geen pretje. Moet er niet aan denken dan het allemaal 14TB zou zijn.

Puur qua storage komt het wel op natuurlijk. Gewoon een Copy on Write filesysteem erop en tis zo vol :-)
Dit soort schijven moet je ook gewoon in Mirror mode gebruiken, dat scheelt enorm in de resilver impact.
Alsnog. Feit blijft dat rebuilding de nodige tijd kost waarin je vergroot risico op data verlies loopt. Bij software defined storage is de impact veel kleiner (afhankelijk van hoe je het uitvoert).
Als rebuilden zo lang duurt en schadelijk is voor de schijf, is het dan als gewone consument niet handiger om met bijvoorbeeld 2 schijven JBOD te doen en dan handmatig of met software/scripts de bestanden te kopieren op beide schijven? Bijvoorbeeld met Microsoft's SyncToy?
Dat zou je kunnen doen maar het is in zijn geheel afhankelijk van de situatie. Daarbij komt dat je nog steeds dezelfde risico’s hebt en dat kopieeren niet persé sneller is dan een rebuild. Als het enkel grote bestanden betreft dan is het prima. Maar heb je veel kleine bestanden, dan zijn kopieer acties daardoor al vele malen trager.

Overigens kan het wel schelen als Seagate twee koppen heeft en als de RAID controller deze snelheden aan kan. Dan zou de rebuild tijd aanzienlijk kunnen worden ingekort. Echter heb je dan wel een goede RAID controller nodig. Goedkope zijn vaak niet bijzonder snel.
Het zou op zijn allerminst misschien kunnen zorgen dat 4TB schijven dalijk geen fluit meer kosten.
Inderdaad, en dat mag ook wel, de prijzen zijn al jaren vrijwel gestagneerd,
Wellicht een beetje subjectief? Als ik naar de meest populaire schijf in de pricewatch kijk, de WD Red 4TB is die de afgelopen jaren van bijna 200 euro in '15 gezakt naar inmiddels 130 euro een kleine vier jaar later. Je hebt al een 4TB schijf voor minder dan honderd euro tegenwoordig, waar je een paar jaar geleden nog makkelijk 150 euro neertelde.

Ze zijn niet zo hard gedaald als SSDs natuurlijk, maar een derde goedkoper in een jaar of drie, vier is toch wel aardig. Vooral als je naar bijvoorbeeld videokaarten kijkt, een GTX1070 die drie jaar geleden op vijfhonderd euro zat kost nu.... nog steeds vijfhonderd euro 8)7
Wellicht een beetje. Voor de overstromingen van 2012 heb ik een aantal 2TB schijven gekocht voor ergens tussen 50-60 euro. Zie bijvoorbeeld ook de prijsverloop grafiek hier. Het gevoel dat de prijzen gestagneerd zijn begrijp ik dan ook wel (hoewel het een beetje appels en peren zijn natuurlijk).

[Reactie gewijzigd door Id3ntityX op 9 februari 2019 10:58]

In het verleden halveerden de prijzen elke 2 jaar oid. Vier jaar later nog steeds 130 euro voor 4TB is dus wel erg bagger. Sinds die overstromingen in 2012 dalen de prijzen van HDDs erg traag, Lijkt wel kartel vorming.
Bij hard schijven ging het zelfs een tijdje lang met een factor 2 per jaar, een paar jaren lang. Vergeleken daarmee is het nu gevoelsmatig natuurlijk gestagneerd.
Maar die 200 euro was de introductieprijs. Je ziet daar ook dat hij na een aantal maanden al op 150 euro hing... En nu nog steeds 130 euro kost, 5 jaar later.

Dat is niet te vergelijken met het prijsverloop van HDD's voor die tijd (en inderdaad de overstromingen in Thailand die de prijzen enorm omhoog hebben gedreven toen). Toen gingen ze normaal omlaag net zoals SSD's en andere electronica.

Ik vermoed dat het gewoon prijsafspraken zijn, net zoals met geheugen gebeurt.
De btw is ondertussen ook omhoog gegaan, dat helpt dus ook al niet. Verder zal het mij niets verbazen, als de lonen en kosten omhoog gegaan zijn ondertussen. Chinezen werken veelal echt niet meer voor de laagste prijs.

Nu zal ik niet zeggen dat er geen afspraken zijn maar dat alles maar meteen op een prijsniveau van 4jr geleden moet zitten is een beetje overtrokken.
De RTX2060 is met €379 net zo snel als een GTX1070 dus als fps of gflops gigabytes waren dan is er wel degelijk een evolutie.
Als consument zou het opslaan van mijn filmcollectie een prima bijvoorbeeld zijn. :)

Maar eerlijk gezegd vind ik het voor DC doeleinden nog veel interessanter, voor backupmachines kan je eigenlijk nooit genoeg opslag hebben. Wat wel een enorm nadeel is: de resilver/rebuild tijden van hoge capaciteitsschijven neemt harder toe, aangezien de prestaties van HDD's niet noemenswaardig verbeteren. Met deze groottes zou ik al niet onder RaidZ3 willen gaan zitten eigenlijk. ;(
Dat verhaal over resilvertijden is inderdaad wel een goed punt. Volgens het artikel zouden de schrijfsnelheden gelijk moeten zijn aan de leessnelheden wanneer HAMR wordt gecombineerd met MAT2, hopelijk is die 480MB/s die je dan zou moeten kunnen halen genoeg om het een beetje binnen de perken te houden.

[Reactie gewijzigd door ocf81 op 8 februari 2019 22:13]

Raid is zo 2018 , :)

het is 2019 veel software kan allways on met applicative HA sollutions die geen backup of RAID nodig hebben.
Ik heb dan ook geen RAID genoemd. ;)

Maar voor ieder gedistribueerd bestandssysteem zal altijd opgaan dat een dode schijf herbouwd zal moeten worden, je bent altijd een deel van je data kwijt. Of dat nu een kopie tbv redunantie, parity of losse bestanden zijn.

Ennuh, geen backup is natuurlijk onzin: problemen op hardwareniveau zijn niet je enige tegenstanders in de IT. Je hebt ook nog last van gebruikers. :+
Voor sommige toepassingen is backup gewoon niet nodig. In het tijdperk van CI/CD kan het redeployen van een computer of applicatie wel eens goedkoper zijn dan veel geld uitgeven aan backupstorage. Dat vereist natuurlijk wel dat dynamische data wel op een plek staat waar backups van gemaakt worden, zoals bijvoorbeeld in een database.
Dat je de backup kleiner maakt doet er toch niet toe? Backup van je data blijft hoe dan ook nodig.

[Reactie gewijzigd door [Yellow] op 9 februari 2019 10:23]

Voor sommige toepassingen is backup gewoon niet nodig. In het tijdperk van CI/CD kan het redeployen van een computer of applicatie wel eens goedkoper zijn dan veel geld uitgeven aan backupstorage.
En die code dan? Geen backup voor nodig? :)
🔥, water, blusinstalaties of crypto lock, verloren keys, virus of gebruiker actie kunnen impact hebben op de beschikbaarheid van je code. Gelukkig hebben dev vaak nog een lokale check-out, maar dat geldt soms niet voor wat oudere code...

[Reactie gewijzigd door djwice op 9 februari 2019 11:40]

Tuurlijk wel. Maar niet meer een backup van elke byte op een server.
Oh, dat doen we al een paar jaar niet meer alles serverless, dus code is key :*)
Jullie hebben geen version control systeem met je source op een server of cloudserver die gebackupped wordt dan?
Inderdaad source op aws s3 en bij een request start er in 5 tot maximaal 25ms een server die de code op pakt en uitvoert, daarna wordt de server gewist en uitgezet. Is het resultaat publiek, dan wordt het gecached op een cdn zodat de volgende een resposetijd van 1ms heeft.

Zulke servers kosten zo ongeveer €0,0000004 tot € 0,0000008 per nieuw uniek request.

[Reactie gewijzigd door djwice op 9 februari 2019 22:48]

Ik heb dan ook geen RAID genoemd. ;)

Maar voor ieder gedistribueerd bestandssysteem zal altijd opgaan dat een dode schijf herbouwd zal moeten worden, je bent altijd een deel van je data kwijt. Of dat nu een kopie tbv redunantie, parity of losse bestanden zijn.

Ennuh, geen backup is natuurlijk onzin: problemen op hardwareniveau zijn niet je enige tegenstanders in de IT. Je hebt ook nog last van gebruikers. :+
Scheelt wel heel erg op welke manier dat gebeurd. Sequential resilvering is al een stuk sneller. Oplossingen als snapraid gaan daar overheen en schrijven met de maximale snelheid van de doelschijf je data weer terug. Je kunt dan als het mee zit binnen 12 uur je data weer op een nieuwe lege schijf hebben staan.
Ik heb dan ook geen RAID genoemd. ;)
Welles. Je noemde RaidZ3.. :)
Niet dat je het hebt, maar je noemde het wel.!
Het is ook geen consumenten schijf maar voor enterprise oplossingen
Dat zei men ook bij 2, 4, 8 TB ...
Wacht maar tot telefoontjes ook 8K 10 bit hdr kunnen filmen.
Met de 486 DX 100 met 850 MB harde schijf dacht ik destijds ook dat je die nooit vol ging krijgen. Nu hoef ik slechts 42 foto's te schieten met m'n dslr en hij zou vol zitten.
Het eerste product is een 3,5"-hdd in de Exos-lijn voor de enterprisemarkt
Dus niet bedoeld voor consumenten, er zal ook wel een prijskaartje tegenover staan.
Mwah als je echt op den duur 4k films wilt gaan opslaan dan gaat het wel hard :-) het zal voor de doorsnee consument op dit moment nog niet zo interessant zijn maar zeker voor mensen die met raw beeldmateriaal werken enz zie ik het wel zitten.

Daarbij is deze schijf in de eerste plaats voor DC’s ontwikkeld die echt veel data opslaan.

Dat rotating disks zich nog ontwikkelen is niet zo gek, buiten prijs per Gb zijn rotating disks volgens mij minder kwetsbaar over tijd met name met veel write en rewrite acties. NAND Flash in SSD’s is na X schrijfacties gewoon op, kapot, versleten. Natuurlijk worden die chips ook steeds beter maar een rotating disks zijn gewoon nog betrouwbaarder op lange termijn, mits je ze niet hard laat stuiteren ;-)
Die toepassing heb ik al zonder problemen, data opslag van (4K) film materiaal.
Mijn 4Tb schijf begint al vol te raken.
Je complete game collectie er op zetten. En dan een SSD met software als PrimoCache gebruiken als Read cache.
Met je 4K of 8K homevideos heb je hem zo gevuld als je bv opgroeiende kinderen hebt en alles wilt vastleggen(of hele mooie bedpartners); maak je je daar maar niet ongerust over. 16TB lijkt enorm veel, dat idee heb ik altijd als ik een nieuw systeem met de allergrootste HDD bouw, maar het valt achteraf altijd tegen. Gelukkig kunnen er meer bij.

[Reactie gewijzigd door ABD op 9 februari 2019 11:47]

ik denk ook tevens dat sommige bedrijven misschien van deze techniek gretig gebruik maken denk aan een data server of een webserver.Voor thuis is ie inderdaad te groot maar je hebt mensen die een nas hebben en daar met deze hd nodig hebben voor hun data op te slaan.Ik vind persoonlijk deze hd ook veel te groot.Misschien kan deze hd ook gebruikt worden voor bedrijven voor een backup te maken.Tevens vind ik die snelheid best hoog voor een magneet schijf.Maar dat komt natuurlijk door die vernieuwde techniek, de schrijf en lees snelheden zijn aardig hoog. :)

[Reactie gewijzigd door rjmno1 op 9 februari 2019 13:36]

Ik denk dat een paar goedkopere 14GB schijven zeer welkom zouden zijn in mijn NAS. (Ja, meervoud!)
Lijkt me ook, dude. 14GB is echt niet veel namelijk O-)
Nee, dat is wat ik nu al aan effectieve capaciteit in mijn storage node heb zitten. (16TB mirrored met een 4TB hot-spare)
wat heb je daar dan allemaal op opgeslagen,

Ik kom zelf niet veel verder dan 50 GB aan fotos , mijn eigen game PC heeft maar 500 GB aan ssd en that's it.

ben jaren geleden al gestopt met NAS en dat bevalt prima. die 50 GB is wat ik echt nodig heb en dat staat op OneDrive dus hoef ook geen backup te hebben. 3 pc`s met de zelfde OneDrive dus heb 4 kopien.
500GB is wel erg weinig met veel games.

[Reactie gewijzigd door Timmo70 op 9 februari 2019 00:18]

Films, muziek en alle documenten staan daarop. Maar ook een aantal images voor VMs (200-500GB per stuk) die ik dan op mijn compute nodes daadwerkelijk uitvoer. Dat vreet ook wel ruimte. Ik gebruik nu zo'n 8TB, maar met ZFS kan je nooit de volle 100% gebruiken omdat ie dan in de paniek schiet en heel traag wordt.
Eindspeldatabases van bijvoorbeeld schaken zijn nogal fors, "onmiddellijk" weten dat een positie mat in X is met beperkt aantal stukken op het bord. Perfecte spel van zowel wit als zwart.Die heb je ook weer nodig om een eindspel met (nog) meer stukken uit te rekenen.

Men is begonnen met 8-stukken (incl. 2x koning) schatting is dat het 1 PB kost.
https://en.wikipedia.org/wiki/Endgame_tablebase
Wat dacht je van video editing? Ik film veel in 4k en dat vreet harde schijven voor ontbijt kan ik je melden. Vooral als je dan ook nog gaat bewerken en verschillende versies bewaart van clips.

Ik heb onlangs in mijn nas alle 3tb schijven vervangen naar 6tb's en een 2x 12tb backup's waarvan 1 online en 1 offline. Ik kan dus prima begrijpen waarom iemand een 14tb schijf zou kopen, ook als consument ook al is dat een kleine markt. Ik juich het alleen maar toe.
Toch, als consument weet ik eigenlijk niet wat ik zou moeten met 14tb op 1 enkele schijfunit. Ik probeer daar een use case voor de verzinnen, maar kom niet verder ‘time machine’ achtige backup oplossingen waar je door je data kan lopen over de dimensie ‘tijd’.
Geinig om elke keer te horen wanneer er een flinke stap forwards gezet wordt in opslag of snelheid dat 'men' er de noodzaak niet van inziet. Dat werd al gezegd met de eerste harde schijf van 10MB.

Hoe denk je straks je hologrammen op te slaan van af je iPhone XX? :P
Genoeg use cases voor echte data hoarders.
Cool! Zou deze techniek ook invloed hebben op de RPM van de schijven en dus ook de latency/access time kunnen beïnvloeden?
Nee, de sequentiële doorvoersnelheid gaat wel omhoog. Er wordt evenwel wel gewerkt aan die kwestie, Seagate komt daarvoor met schijven met twee koppenarmen:

https://blog.seagate.com/...performance-breakthrough/

Dat verdubbelt onmiddelijk het aantal iops en is daarmee een zeer welkome verbetering.
dat kan volgensmij niet wat je nu zegt.

als de RPM zelfde blijft en de doorvoer hoger dan kan de access time niet het zelfde blijven. Door de toename in densiteit neemt ook de access time af er hoeft immers minder afstand afgelegt te worden om een bit in te laden. Access times zakken ook nog steeds voor 7200RPM
De waarde in de specificaties betreft de gemiddelde toegangstijd. Je moet gemiddeld een halve rotatie wachten totdat de gegevens die je wilt hebben onder de kop door komen. Die tijd is onafhankelijk van de dichtheid op een spoor.
Je vergeet ncq. Per rotatie nu meer data klaar kan zetten er zitten immer meer bits per rotatie onder de kop.

Zelfs random read heb je meer kans dat je niet een hele of halve rotatie hoeft te maken.

Totaal aantal bits / bits in een royatie = kans dat je in de zelfde rotatie de bit kunt lezen. Ncq verhoogt dat percentage nog eens door vooruit te kijken en dus nu nog meer bits ter beschikking heeft in de zelfde rotatie
Nou ja en nee. Je hebt volkomen gelijk dat NCQ in praktijk helpt om de toegangstijden op die manier te verlagen. Maar ik vergeet het niet.

Een hardeschijf van 7200 toeren maakt 7200/60 = 120 omwentelingen per seconde. Dat betekent dat één omwenteling 1s/120 = 8,33 ms duurt. Maar we wachten gemiddeld een halve omwenteling, dus 8,33/2 = 4,17 ms.

Laten we nu eens het gegevensblad van een harde schijf erbij pakken:

https://www.hgst.com/site...ces/Ultrastar-He10-DS.pdf

... en kijk eens welk getalletje bij "average latency" vermeld staat.
NCQ verlaagt de gemiddelde latency door reads en writes te bufferen en in andere volgorde te zetten zodat ze misschien te combineren zijn. Voor de minimale latency maakt dat geen verschil, is eerder nadelig.
Vergelijk het met een snelkoerier die iets van A naat B brengt of met PostNL die alles verzamelt, sorteert, in busjes drukt en met vaste route bezorgt. De eerste heeft lage latency maar is niet efficiënt voor grote hoeveelheden, de tweede duurt wat langer maar levert veel meer pakketjes af.
Op papier ja, maar als een sector op de andere helft van een platter zit dan duurt dat nog steeds even lang. Het zal dan dus ook niet echt veel uitmaken, tenzij de read/write head sneller beweegt.
Heeft er zeker mee te maken, vroeger had je server schijven die op 10.000 toeren draaide.
Ik weet niet of deze schijven nog verkrijgbaar zijn.Maakte best een lawaai maar waren best snel.
Je hebt nu ook wel 15k server schijven. (Bijvoorbeeld de Seagate Cheetah)
Ze zijn nog verkrijgbaar, maar worden niet meer doorontwikkeld. Vanwege de hoge middelpuntvliegende kracht is het niet mogelijk dergelijke schijven een grote diameter te geven en een hoge capaciteit te bereiken. Het is juist de capaciteit die de harde schijf nog concurrerend houdt t.o.v. SSD's. Kortom, de 10000-toerenschijven leggen het vanwege hun geringe capaciteit af tegen SSD's.

De snelheid van harde schijven moet op andere manieren verhoogd worden, zoals nu gebeurt door een tweede arm met koppen toe te voegen.
Is 2 actuatoren niet 2x meer kans dat dit component faalt?
Niet noodzakelijk, per actuator word de belasting dan ook gehalveerd bij dezelfde hoeveelheid data .
HAMR klinkt als minidisc techniek: Another advantage to MiniDiscs is that they are easily recordable. The process involves a laser head heating up the recording spot at the temperature of 180oC (400oF), while the recording head uses positive and negative magnetic signals to write audio data patterns. As the disc moves away, the magnetic recording head records new spots while the already recorded spots cool down retaining the magnetic signals. All these complicated processes require no physical contact between the laser/recording heads and the disc itself. This is why Sony claims its MiniDisc can be recorded up to one million times before failure.
Hopelijk komt WD ook met een consumer MAMR disk die beter zou zijn dan HAMR wat data retention betreft.
Nou nog in bigfoot formaat... access tijd zal om te huilen zijn , maar er gaat heel veel op....
Je bedoelt de Bigfoot, waar de motor het vaak van begaf? Meh.
Quantum Bigfoot ja... ding deed t hier prima overigens... maar " iets verrassend nieuws" in die trend zou leuk zijn... abit bp6.... zucht...
Geen Helium gevulde grote schijven meer!
Waarom denk je dat? Volgens het artikel zijn dit gewoon helium-gevulde disks. Gezien het aantal platters en de hoge datadichtheid ligt dat ook voor de hand.
Mea culpa. Ik had het artikel niet gelezen.

Ik dacht het vanwege de hoge temperaturen, waarmee gewerkt wordt.
Vloeibare helium en hoge temperatuur gaat niet lekker samen.
Vloeibare helium?
Dat zit natuurlijk zowiezo niet in die schijven hè. Die helium is gewoon op kamertemperatuur (of schijftemperatuur)
Gasvormig dus, in plaats van de gewone lucht die normaal in de schijf zit..
Vloeibare helium
Doe mij zo'n airco :D
Ik zou gewoon niet reageren als ik niet waarover ik het heb.
als ik niet waarover ik het heb.
Bedoel jij soms: als ik niet weet waarover ik het heb.

Zou toch niet zulke fouten maken als ik commentaar op een ander heb. :O
Gelukkig weet jij wel alles goed te doen. _/-\o_
Jammer alleen dat Seagate een slechte naam heeft op hard disk gebied. Had liever gezien dat Western Digital met zoiets uitkwam.
Elke HDD fabrikant heeft/had rotte drives/batches.

Ik heb twee seagates gehad die 7 jaar werkte, en daarna vervangen (maar nooit kapot gegaan)

En een WD gekocht die half DOA was.
Mwa, Seagate heeft wel heel veel batches waar iets mis mee is. Kijk naar de cijfers van backblaze bijvoorbeeld. Persoonlijk kies ik voor de ultrastars van HGST (al is dit ook WD tegenwoordig)
Half doa kan natuurlijk niet. :D }>

[Reactie gewijzigd door skdevil op 9 februari 2019 09:24]

Wel waar :-P als alleen het mobo in dat ding stuk is dan is het soort van half DOA :+
Ik zat vroeger op red's van WD, daarvan was tussen de 25 en 50% DOA. Totdat ik ben overgestapt naar WD Gold, en nooit meer problemen gehad.
Ah anecdata. Waardeloos natuurlijk.
western digital en seagate komen van de zelfde assemblage lijn, maar zijn toch 2 verschillende merken.
In de jaren 1980 had de firma Burroughs (later Unisys) een voor die tijd waanzinnig snelle schijf: de 5N.
Die had stationaire koppen: dus voor elke track 1 kop. Calibreren kostte wel flink wat tijd, maar de performance was werkelijk ongekend.
Vraag mij af of zoiets anno nu nog mogelijk zou zijn. En wat de doorvoer dan zou worden.
Dank voor je opmerking, altijd leuk even in de geschiedenis te duiken!

Ze hadden dat soort schijven zelfs al veel eerder (1962: formaatje keukenblok):
http://s3data.computerhis...nedisk.1962.102646217.pdf
Gaaf! Dat wist ik dus niet!
Dank je voor de reactie en de link _/-\o_


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True