Western Digital wil harde schijven tot 8 keer sneller maken met extra koppen

Western Digital werkt aan High Bandwidth Drive-hdd's. Die moeten tot 8x sneller worden dan huidige harde schijven, bijvoorbeeld dankzij het gebruik van extra lees- en schrijfkoppen. Het bedrijf toonde ook de eerste 40TB-hdd en stippelde de koers naar de 100TB uit.

Western Digital deelde zijn plannen tijdens zijn Innovation Day in New York. Met zijn High Bandwidth Drives wil de fabrikant voornamelijk de datacentermarkt bedienen. De schijven bevatten lees- en schrijfkoppen voor iedere platter, die tegelijkertijd te werk kunnen gaan op meerdere sporen.

De hdd's kunnen hierdoor relatief snel lezen en schrijven. Het moet ssd-achtige snelheden mogelijk maken, maar dan relatief goedkoop en met hogere opslagcapaciteiten, aldus de fabrikant.

In eerste instantie bieden de HBD-schijven snelheden die tot twee keer hoger zijn dan bij gewone hdd's. Ze zouden dan lees- en schrijfsnelheden van ruim 500MB/s leveren. Deze eerste schijven worden volgens de fabrikant al gebruikt door een klein aantal klanten.

2GB/s tegen 2030

Western Digital blijft echter doorwerken aan de HBD-schijven: op de roadmap staan ook toekomstige versies met nóg hogere snelheden. Tegen 2030 moeten HBD-drives tot acht keer meer bandbreedte leveren dan een doorsnee harde schijf. Dat zou dan neerkomen op lees- en schrijfsnelheden van ruim 2000MB/s. Dergelijke snelheden waren tot op heden voorbehouden aan ssd's.

Op termijn krijgen die drives ook een nieuwe techniek genaamd Dual Pivot aan boord. Het gaat om een extra setje actuators, die de lees- en schrijfkoppen op de juiste plaats zetten. Volgens WD zorgt die aanpak voor hogere snelheden én een hogere opslagcapaciteit.

Western Digital High Performance DriveWestern Digital High Performance DriveWestern Digital High Performance Drive

De route naar 100TB

Los daarvan kondigde Western Digital aan dat de allereerste 40TB-hdd momenteel in productie is. Ze worden momenteel getest door grote hyperscaleklanten en massaproductie begint in de tweede helft van dit jaar.

De fabrikant zegt dat de opslagcapaciteit de komende jaren blijft toenemen. Zijn epmr-hdd's moeten op termijn maximaal 60TB aan opslagruimte kunnen bieden. De hamr-hdd's van Western Digital hebben tegen 2029 maximaal 100TB, aldus het bedrijf.

Western Digital-hdd-roadmap 2026

Door Daan van Monsjou

Nieuwsredacteur

04-02-2026 • 15:10

54

Lees meer

Reacties (54)

Sorteer op:

Weergave:

Makkelijker gezegd dan gedaan, maar dit idee heb ik ooit at random nog geroepen toen ik mijn eerste defecte schijf uit interesse uit elkaar haalde... Waarom maar 1 "arm" per laag, meer armen meer tegelijk toch? En die eerste defecte schijf is minstens 25 jaar geleden uit elkaar gegaan...
En die werd overgenomen door Seagate in 1996.
Ik meen dat iemand het eens had gedaan. Maxtor misschien?? Met twee armen tegenover elkaar, ik meen met 5,25".
Maar uiteindelijk wordt de random access niet zo veel sneller, en de prijs per GB stijgt behoorlijk, en de betrouwbaarheid gaat omlaag. https://www.stellarinfo.com/article/.dual-actuator-hdds.php laat me wel vermoeden dat het tegenwoordig gebruikt wordt.
dual-actuator-hdds laat me wel vermoeden dat het tegenwoordig gebruikt wordt.
Er is een fundamenteel verschil tussen dat, en wat WD hier wil gaan doen.

De HDD in de door jou gegeven link gaat over 2 sets armen op een draaipunt, op eigenlijk twee verschillende schrijven, wat neerkomt op twee HDD's in een behuizing.

Wat WD hier gaat doen is 2 leeskoppen op een plaat, waar bv arm 1 de even data leest en arm 2 de oneven, en zo de data 2x zo snel kan lezen, of bij een grotere queue depth verschillende data lezen.

En door mogelijk de aparte armen ook nog eens op te delen, zoals in jouw voorbeeld, zou er nog een lagere toegangstijd gehaald worden, afhankelijk van de data en firmware optimalisatie, kan dat gezien worden als 4 aparte losse schrijven, of 4 in R0, wat de firmware denkt wat de beste strategie opdat moment is.

Of arm 1 de eerste 50% van de schijf, en arm 2 de tweede 50%, en zo dus veel snellere toegangstijd tot de data geven, door kortere noodzakelijke arm bewegingen te maken.
Dat deed ik vroeger ook met HDD's, door HDD's te formatteren in twee secties, 30% voor games, en de rest voor bulk data als films/series/muziek.
Arm bewegingen (seek time) ja... wachten tot de platter weer rondgedraaid is (rotational latency) nee. Je zou koppen op 0 en 180 graden kunnen plaatsen voor een halvering.
aaaaahhh op die fiets. Ja dat klinkt naar een makkelijke winst. Maar goed, er zal vast iets mee zijn waarom het niet makkelijk is.
Het bedenken en dan daadwerken ontwikkelen en toepassen zijn twee zeer verschillende dingen
Dat zeg ik toch? Makkelijker gezegd dan gedaan :-)

Maar het idee had ik (en ongetwijfeld velen met mij) al decennia hahaha
Had je moeten patenteren toen ;).
Dan was het patent 5 jaar geleden verlopen. ;)
Wel met een technische werkende uitwerking ervan :)
Vibraties?

Meer bewegende onderdelen in een HDD betekent ook meer vibraties. En vibraties zijn (heel) slecht voor electronische apparatuur. Zeker als de vibraties door meerdere van deze HDDs zich gaan amplificeren.

Kans daarop is niet groot, maar als het gebeurt, dan is het heel snel een heel serieus probleem.
Wat je eigenlijk wilt, is de dataschijf zoals die nu is, met dan met de mogelijkheid alle sporen tegelijkertijd te lezen. Even simplistisch; zeg dat er 100 sporen zijn dan wil je dus 100 lees- (en schrijf-)koppen. Maar, dat is natuurlijk onmogelijk op deze schaal.

Wat wél mogelijk zou kunnen zijn, is de dataschijf houden zoals die nu is, met daar dan half overlappend een andere "geperforeerde schijf" (waarbij er voor elk spoor één gat is, in een soort swirl) overheen. De dataschijf moet dan een stuk langzamer draaien (zeg één rotatie per seconde) terwijl de geperforeerde schijf zo hard draait dat bij één rotate van de dataschijf, elke bit een keer door de geperforeerde schijf "zichtbaar" is geweest. Als de leeskop dan niet meer een klein naaldje is zoals nu, maar over de volledige breedte van de schijf kan lezen, dan kan je elke seconde alle data van je hele schijf uitlezen.

Zie ook mijn snelle schets. De gele schijf is de dataschijf, de groene schijf de geperforeerde. De blauwe lijn is de schrijfkop. Doordat er op elk moment maar één perforatie onder de schrijfkop ligt, zou het de onderliggende bit uit kunnen lezen.

De snelheid zou wel veel hoger moeten liggen dan de 7200 rpm die nu wordt gebruikt, of de schrijfkop zou opgedeeld moeten worden in kortere stukken zodat er meer perforaties in de disk kunnen.

Dus; wel leuk, (waarschijnlijk) niet fysiek mogelijk.
Nog meer dat kapot kan gaan.
Nog meer dat kapot kan gaan.
Is dat echt zo'n probleem nog? Ik moet regelmatig schrijven vervangen, maar dat is omdat ze al een kleine +100 Petabyte hebben weggeschreven in 5 jaar tijd. Dat vind ik toch behoorlijk acceptabel voor schrijven van tegenwoordig. Wel is het dat koeling een stukje lastiger is geworden want nieuwe schrijven worden echt een stuk warmer heb ik het idee.

Ik heb het overigens niet over de goedkope schrijven, maar meer NAS en Datacenter schrijven. Aparte serie die ook doorgaans duurder is.
Ja nog steeds zo en dat zal altijd wel zo blijven.
Kapotte schrijf / lees kop kan fysieke beschadigingen aanbrengen op je platter.
Dan is dat deel dus niet meer beschrijfbaar / leesbaar en kan je het weer RMA'en of vervangen.

Afgelopen zomer nog 5x 22 TB schijven gehaald voor 430 euro.
100TB aankopen en ook nog volschrijven is een week taak.
Stel je voor dat je dat "vol" schrijft en binnen no-time moet vervangen.

[Reactie gewijzigd door crzyhiphopazn op 4 februari 2026 16:22]

rens-br Forum Admin IN & Moderator Mobile @crzyhiphopazn4 februari 2026 17:11
Neem aan dat het 430 euro per stuk was en niet voor alle 5?
Op zich, als er meerdere koppen dezelfde platter gebruiken, zouden ze voor elkaar kunnen inspringen als een van de koppen fouten begint te vertonen op die platter. Dit zou dus de duurzaamheid van een flink harddisk kunnen verbeteren, in plaats van faalkans te vergroten.
Volgens mij werkt het net iets anders op de seagate dual actuators: de buitenkant van de platter zit onder kop 1, de 2e kop op de binnenkant. Je moet het ding iig bij sas aanspreken als 2 losse drives en de sata versie moet je in 2 partities splitsen (en dan raid0 gebruiken als je de volledige snelheid van 2 koppen wil).
je hebt uiteraard gelijk, maar dit soort schijven bestaan nog steeds en worden verder ontwikkeld omdat de prijs/opslag momenteel niet te evenaren is door SSD. Voor cold storage van data is dit bijvoorbeeld ideaal, kost weinig, je kan er enorm veel data in opslaan en de snelheid blijft toenemen de komende jaren.
Nog meer dat kapot kan gaan.
Wij hebben best wat petabytes aan spinning staan, als backup storage. Het is doorgaans niet iets zuiver mechanisch wat een schijf rijp voor vervanging maakt. Je moet zo'n shelf niet laten stuiteren terwijl het draait, maar dat komt in praktijk niet voor in een datacenter.
Kan niet wachten. Als ik ooit tijd en geld heb ga ik mijn unraid server upgraden naar 10-20 van deze 100TB schijven. Krijg ik prima vol
Ik zie meer in de snelheid dan de capaciteit. Een 8TB of 12TB HDD die 2.4GB/s (8x150MB) kan doen is leuk voor backup.
Met 2GB per sec word de 10Gbits poort de limiterende factor :)
Welk protocol zal er dan gebruikt worden om de schijf met de rest van de computer te verbinden? Wordt dat SAS5 of een PCI-e aansluiting?
De 500MB/s smaak die ze benoemen zal nog wel binnen SATA3 passen. 2GB/s wordt idd lastiger. PCIe is wat dat betreft al breed geadopteerd onder ook de consumentenmarkt. Ik denk dat je bij datacenters nog wel wegkomt met SAS.
Ik dacht altijd dat een pcie x16 slot max iets van 60-70GBs aan kon … zit je dus aan 30 SAS4 drives max per controller per slot …dan ben je misschien snel maar heb je weer geen capaciteit Of je moet extra controllers installeren maar zo heb je ook steeds meer onderdelen die voor problemen kunnen zorgen.

Wij gebruiken ook nog mechanische drives uit pure noodzaak omdat het alternatief gewoon veel en verls te duur is , maar je zou verwachten dat ze toch meer onderzoek zouden stoppen in het goedkoper stapelen van flash geheugen ipv snellere mechanische drives
PCIe 7 gaat zelfs tot 242GBps voor een x16 slot, en de planning voor Gen8 is 484GBps. Aan die kant hoef je je écht geen zorgen te maken om een tekort aan bandwidth.
Deze hardeschijf doet me een beetje denken aan de 72x cd-romspeler van Kenwood. Die snelheid werd behaald door de laser op te splitsen in 7 beams, zodat er met 7 eenheden tegelijk gelezen kon worden. Maargoed, dat is lang geleden.

Ik vind het wel een leuk idee, maar ik weet niet of ze hier mee op tijd zijn. De snelle cd-rom speler van Kenwood is ook geen succes geworden, de techniek is daarna ook niet meer toegepast bij DVD-spelers. DVD-spelers hoefden natuurlijk wel minder hard rond te draaien om dezelfde snelheid te behalen, omdat de data dichter opelkaar stond. Ik herinner me dat bij cd's de rotatiesnelheid echt wel een (mechanische) beperking was.
Ik herinner me dat bij cd's de rotatiesnelheid echt wel een (mechanische) beperking was.
Dat herinner ik me ook. Ik dacht dat vanaf 80x het schijfje instabiel wordt in het draaien. Mythbusters ging in een aflevering nog een heel stuk verder. Mij staat bij dat bij 150x de CD door centrifugaalkrachten uit elkaar spat. De getallen komen echt uit de krochten van mijn geheugen, kans dat het juist is schat ik maximaal 60%.
ja, inderdaad! Daar dacht ik ook net aan. Heb er nog 1 liggen :)
was wel veel stiller dan die herrie cd-rom spelers. Verder ook een hoop nadelen ja.
leuk dat ze weer sneller worden en meer opslag krijgen. Maar ik zit meer te wachten op betaalbare 10tb + schijven. HDD's lijken niet meer goedkoper te worden.
HDD's lijken niet meer goedkoper te worden.
Ze zijn de afgelopen maanden heel hard aan het stijgen zelfs. Het is niet heel ongebruikelijk meer om ze 40% of 50% duurder tegen te komen nu vergeleken een paar maanden geleden.
Dubbel zo snelle schijven had Seagate al (Exos). Wij hebben ze gebruikt, maar waren niet praktisch aangezien het eigenlijk 2 schijven waren en je moest ze in RAID zetten. Wij gebruiken alleen nog maar NVMe voor al onze opslag in al onze data centers voor opslag in eenvoudige servers, maar ook al onze Ceph clusters. Hardeschijven waren interessant voor capaciteit, maar ze zijn zo traag en lastig met cluster rebuilds in hoge capaciteiten. Met NVMe is alles zo veel stabieler.

Deze schijven zullen wel NVMe protocol gaan gebruiken en mogelijk interessant voor cold storage.
Standaard HDD is 5400 toeren. Western Digital heeft al lange tijd de 10000 toeren schijven gehad. Dat mag ook doorgaan als 2x zo snel al.
Ze bedoelen dubbel zo snel tov normale HDDs. Die zitten richting 200MB/s. De Seagate schijven (we hadden die 3-4 jaar geleden al) zitten op 500 MB/s en nu deze van WD ook.
Pardon? Standaard is 7200 RPM toch? Langzaam is 5400 toeren, snel (datacenter sas hdd's) is dan 1000 of 1500 rpm.
Conner, wat later is opgekocht door Seagte, had in 1991 al een harddisk met meerdere koppen. Het is al een oud idee wat telkens weer terugkomt.
Dit is een mooi ontwikkeling! Goed nieuws dat het allemaal nog sneller op wordt maar momenteel vind ik het al snel genoeg. Vorige jaar heb ik een nieuwe harde schijf genomen een Toshiba MG10 een 22TB intern 3,5 met een aanbieding voor €419. Ik ben benieuwd wat dan 40TB gaat kosten waarschijnlijk boven de €600+

Mooi ontwikkelingen over 3 jaar dus al op 100TB zal niet betaalbaar zijn verwacht ik

[Reactie gewijzigd door Van der Berg op 4 februari 2026 15:34]

WD spreekt van 'SSD snelheden', maar dat is dan vooral qua bandbreedte, en niet qua latency en IO/s.

De bewegende arm beweegt voor alle lagen tesamen. Op een HDD met 10 'platen' kun je met 1 beweging van de arm, met 20 leeskoppen, 20 sporen met data uitlezen.

In eerste instantie gaat WD het bij 1 arm houden, maar wel het aantal leeskoppen verdubbelen (40 in plaats van 20). Dan gaat het uitlezen sneller, maar de latency (bewegen van de arm, wachten tot de data onder de kop passeert) verbetert niet.

Als ze twee armen plaatsen en 8-dubbele leeskoppen, gaat de latency maar met een factor 2 naar beneden.

Om te kunnen reageren moet je ingelogd zijn