Western Digital wil harde schijven tot 8 keer sneller maken met extra koppen

Western Digital werkt aan High Bandwidth Drive-hdd's. Die moeten tot 8x sneller worden dan huidige harde schijven, bijvoorbeeld dankzij het gebruik van extra lees- en schrijfkoppen. Het bedrijf toonde ook de eerste 40TB-hdd en stippelde de koers naar de 100TB uit.

Western Digital deelde zijn plannen tijdens zijn Innovation Day in New York. Met zijn High Bandwidth Drives wil de fabrikant voornamelijk de datacentermarkt bedienen. De schijven bevatten lees- en schrijfkoppen voor iedere platter, die tegelijkertijd te werk kunnen gaan op meerdere sporen.

De hdd's kunnen hierdoor relatief snel lezen en schrijven. Het moet ssd-achtige snelheden mogelijk maken, maar dan relatief goedkoop en met hogere opslagcapaciteiten, aldus de fabrikant.

In eerste instantie bieden de HBD-schijven snelheden die tot twee keer hoger zijn dan bij gewone hdd's. Ze zouden dan lees- en schrijfsnelheden van ruim 500MB/s leveren. Deze eerste schijven worden volgens de fabrikant al gebruikt door een klein aantal klanten.

2GB/s tegen 2030

Western Digital blijft echter doorwerken aan de HBD-schijven: op de roadmap staan ook toekomstige versies met nóg hogere snelheden. Tegen 2030 moeten HBD-drives tot acht keer meer bandbreedte leveren dan een doorsnee harde schijf. Dat zou dan neerkomen op lees- en schrijfsnelheden van ruim 2000MB/s. Dergelijke snelheden waren tot op heden voorbehouden aan ssd's.

Op termijn krijgen die drives ook een nieuwe techniek genaamd Dual Pivot aan boord. Het gaat om een extra setje actuators, die de lees- en schrijfkoppen op de juiste plaats zetten. Volgens WD zorgt die aanpak voor hogere snelheden én een hogere opslagcapaciteit.

Western Digital High Performance DriveWestern Digital High Performance DriveWestern Digital High Performance Drive

De route naar 100TB

Los daarvan kondigde Western Digital aan dat de allereerste 40TB-hdd momenteel in productie is. Ze worden momenteel getest door grote hyperscaleklanten en massaproductie begint in de tweede helft van dit jaar.

De fabrikant zegt dat de opslagcapaciteit de komende jaren blijft toenemen. Zijn epmr-hdd's moeten op termijn maximaal 60TB aan opslagruimte kunnen bieden. De hamr-hdd's van Western Digital hebben tegen 2029 maximaal 100TB, aldus het bedrijf.

Western Digital-hdd-roadmap 2026

Door Daan van Monsjou

Nieuwsredacteur

04-02-2026 • 15:10

127

Lees meer

Reacties (127)

Sorteer op:

Weergave:

Van de WD blog post die ik gevonden heb: https://blog.westerndigital.com/performance-optimized-hdd-4x-throughput-hbdt-dual-pivot/
The market has largely already begun segmenting applications and workloads to specific storage hardware devices based upon the needs of small vs large block accesses. SSDs are prioritized where small random IOPS performance is needed. HDDs support the workloads where access is based on large block random and/or sequential access workloads. As a result, prioritizing throughput per terabyte makes the most sense for performance-optimized HDDs.
Na dat de vorige truckages zoals meerdere zijn genoemd:
Triple stage actuator (TSA) technology, however, offers more bandwidth and precision in track following, opening the door to accurately position heads over multiple tracks at once.
Dat zijn dus 3 actuators per arm, hier is een video die het uitlegt. Dit betekend ook snellere zoektijden overigens omdat de exacte plaatsing van de head sneller kan gaan.

En de volgende alinea:
HBDT offers the opportunity to read or write multiple “paired” tracks simultaneously. Throughput will scale with the number of active heads. At Innovation Day, WD demonstrated a live HDD accessing two simultaneous tracks, and we believe the technology will eventually be able to access at least eight simultaneous tracks.
Dat zijn dus meerdere koppen per arm, die dan natuurlijk erg precies geplaatst moeten worden om elkaar niet te overlappen.

Verder is er dan nog Dual Pivot, waarbij we spreken over een extra arm aan de andere kant die bijvoorbeeld alleen de boven-of onderkant leest. Hierdoor worden de armen lichter en precieser terwijl de zoeksnelheid ook wat af kan nemen.
Makkelijker gezegd dan gedaan, maar dit idee heb ik ooit at random nog geroepen toen ik mijn eerste defecte schijf uit interesse uit elkaar haalde... Waarom maar 1 "arm" per laag, meer armen meer tegelijk toch? En die eerste defecte schijf is minstens 25 jaar geleden uit elkaar gegaan...
Ik meen dat iemand het eens had gedaan. Maxtor misschien?? Met twee armen tegenover elkaar, ik meen met 5,25".
Maar uiteindelijk wordt de random access niet zo veel sneller, en de prijs per GB stijgt behoorlijk, en de betrouwbaarheid gaat omlaag. https://www.stellarinfo.com/article/.dual-actuator-hdds.php laat me wel vermoeden dat het tegenwoordig gebruikt wordt.
dual-actuator-hdds laat me wel vermoeden dat het tegenwoordig gebruikt wordt.
Er is een fundamenteel verschil tussen dat, en wat WD hier wil gaan doen.

De HDD in de door jou gegeven link gaat over 2 sets armen op een draaipunt, op eigenlijk twee verschillende schrijven, wat neerkomt op twee HDD's in een behuizing, maar naar buiten als een.

Wat WD hier gaat doen is 2 leeskoppen op een plaat, waar bv arm 1 de even *track* data leest en arm 2 de oneven, en zo de data 2x zo snel kan lezen, of bij een grotere queue depth verschillende data lezen.

En door mogelijk de aparte armen ook nog eens op te delen, zoals in jouw voorbeeld, zou er nog een lagere toegangstijd gehaald worden, afhankelijk van de data en firmware optimalisatie, kan dat gezien worden als 4 aparte losse schrijven, of 4 in R0, *maar naar buitwereld als een HDD*, wat de firmware denkt wat de beste strategie opdat moment is.

Of arm 1 de eerste 50% van de schijf, en arm 2 de tweede 50%, en zo dus veel snellere toegangstijd tot de data geven, door kortere noodzakelijke arm bewegingen te maken.
Dat deed ik vroeger ook, om HDD's te short stroken, door HDD's te formatteren in twee secties, 30% voor games/programma's, en de rest voor bulk data als films/series/muziek.
Edit: *verduidelijkinge*

[Reactie gewijzigd door player-x op 5 februari 2026 06:47]

aaaaahhh op die fiets. Ja dat klinkt naar een makkelijke winst. Maar goed, er zal vast iets mee zijn waarom het niet makkelijk is.
Ja, als het makkelijk was geweest, hadden ze het al 30j gelden gedaan.
Want ik vroeg me zelf ook al jaren af waarom ze geen 2 armen gebruikte, en kan me niet voorstellen dat er niet iemand bij WD hetzelfde heeft gedacht. 8-)
Arm bewegingen (seek time) ja... wachten tot de platter weer rondgedraaid is (rotational latency) nee. Je zou koppen op 0 en 180 graden kunnen plaatsen voor een halvering.
[...]

Wat WD hier gaat doen is 2 leeskoppen op een plaat, waar bv arm 1 de even data leest en arm 2 de oneven, ...
Ik moest het twee keer lezen, dacht in eerste instantie dat je bedoelde dat de ene arm de nullen leest en de andere arm de enen. :+
Je moet je voorstellen dat een platter uit meerdere lagen bestaat wat ze nu willen doen is per laag een leeskop[ hardware matig te maken en daardoor de accets tijd van de harde schijf vergroten.Die harde schijven zullen idd duudrder worden maar dan heb je wel iets.bovendien vind ik de huidige schijven van 4 tb en hoger veel te traag en daarom hebben ze een extra lees en schrijfkop geinstalleers zodat de overal snelheid van de schijf omhoog gaat.bovendien een goed concepet maar of het helpt dat weet ik niet, ik neem aan van wel.
Je moet je voorstellen dat een platter uit meerdere lagen bestaat
Eh, nee, een platter is een laag. Een HDD kan 1 of meer platters hebben, die elk een leeskop hebben. WD wil dus op elke platter 2 (of meer?) leeskoppen plaatsen.
juist dat bedoelde ik meerdere platters hebben een moderne harde schijf vroeger hadden ze maar eentje daardoor waren die schijven ook zo klein.
HDD's hebben sinds jaar en dag meerdere platters. Zelfs de oudste meuk die ik 20 jaar geleden ooit heb opengeschroefd had er meer dan 1. Schijven met slechts 1 platter waren relatief zeldzaam. De 3.5" form factor is ook al decennialang gewoon een standaard - of er nou 1 of 4 platters in zaten, alle HDD's in dat formaat zijn (grofweg) even groot geweest.
HDD formaat 5,25" => de Quantum Bigfoot, in 1996! Quantum werd overgenomen door Maxtor in 2000.
Zijn nog op ebay te vinden, vrij speciaal vind ik dat.
https://www.seagate.com/staticfiles/maxtor/en_us/documentation/data_sheets/bigfoot_datasheet.pdf

[Reactie gewijzigd door as400 op 4 februari 2026 20:37]

Ja en die was er in verschillende diktes, alleen nèt niet zo dat er 2 op elkaar paste in een 5,25" slot en dat je het dan ook nog gekoeld kreeg en je kast niet uit elkaar trilde. De TS serie uiteindelijk was echt dik en zwaar, maar als je echt de meeste opslag wilde, dan nam je die. Er was niks anders op de markt met zoveel storage (12GB en daarna zelfs 19GB) voor de relatief lage prijs.
En die werd overgenomen door Seagate in 1996.
Eerder al.
Toen mainframe drives nog de maat van een wasmachine hadden werd dat al gedaan. Met heel andere snelheden en opslagcapaciteit, uiteraard.
Dat niet alleen maar hoe zit het met de interne snelheid waar sata mee om gaat misschien moeten ze die harde schijven wel aan de m2 aansluiting aansluiten om de interne snelheid te halen die het moederbord aankan. ik weet nu nog niet waar sata nu zit met de snelheden maar die zullen door deze toekomstige harde schijven al snel een bottleneck worden.of bestaat sata 1200 ook al?
Dit is voor datacenters, waar Serial Attached SCSI gemeengoed is.
SAS3 uit 2012 doet 12Gbps (ongeveer 1.2 GB/sec).
Ja maar die schijven zijn een stuk duurder en vooral bedoelt voor idd servers heb je als huis tuin en keuken machine die thuis staat niet nodig.

[Reactie gewijzigd door rjmno1 op 4 februari 2026 21:19]

Well, heb je als huis tuin en keuken machine die thuis staat dan wel 40 tot 100TB aan opslag nodig? ;)
En wil je dat wel, SAS3 kaartje is niet zo duur hoor. Voor 50e heb je er al een.
ik heb het niet over die sas schijven ik heb het over die scisi schijven die een hap duurder zijn.
Maar SAS is Serial Attached SCSI. Dit is de seriële variant van SCSI en dus SCSI. Welke andere SCSI schijven bedoel je dan?
Goh waar is de tijd... Adaptec SCSI controller (heb de UW ,U2W en Ultra160 gehad) en 10.000 rpm screemers... ik werd blij vanbinnen als ik de bende hoorde opspinnen :D
En ook veel minder belasting op de CPU dan IDE drives. Bijna nooit buffer underruns bij het branden van cd's op men Plextor.
Je maakt een grapje toch, met je sneller dan SAS? En voor Enterprise inderdaad, maar ook wel MKB (we leverden dit ook gewoon in NT4 Servers on-prem toen we nog guldens hadden... )
Ultra 3 is een SCSI standaard uit 1999 die maximaal 160 (of 320 voor UW320) Megabyte per seconde doet, dit was een parallelle vorm van SCSI.
Doordat signalen in de parallelle vormen van SCSI en ATA niet sneller gemaakt konden worden (en te veel ruimte in nam) zijn de SAS en SATA varianten bedacht met differential signalling.

Waar jij naar kijkt is spul van bijna 30 jaar oud.
sas is idd al snel genoeg ik wist niet dat die zo goedkoop zijn.

Maar ultra wide scsi is bijna niet te betalen want daar moet ook nog een losse controller bij waar de aansluitingen op zitten.

[Reactie gewijzigd door rjmno1 op 5 februari 2026 01:43]

Ja dat was toen heel duur. De linkjes die je nu doorstuurt is natuurlijk allemaal refurbished of hele oude stock, en zeker niet duur. Maarja, 9GB harddisk... wie wil dat nog :)
die apdaptec kaartjes controllers zijn vandaag de dag ook nog best duur en ja ook voor sas.


https://www.acesdirect.nl/adaptec/#q=&search=product&restrictBy=categorylevelthreetitle=Adaptec&maxResults=30&startIndex=1

kijk hier maar eens naar.
Ja daar zit 4 GB DDR op, weet je wat dat kóst momenteel!! :+
-

[Reactie gewijzigd door Vampyre op 6 februari 2026 13:42]

Nee dat klopt ik weet ook niet of de huidige prijzen ook zo duur zijn.Die controllers van adaptec waren toendertijd hartstikke duur.Maar ik weet ook niet of die harde schijven nu nog gemaakt worden misschien is alles sas geworden en dus goedekoper.
Het bedenken en dan daadwerken ontwikkelen en toepassen zijn twee zeer verschillende dingen
Dat zeg ik toch? Makkelijker gezegd dan gedaan :-)

Maar het idee had ik (en ongetwijfeld velen met mij) al decennia hahaha
Had je moeten patenteren toen ;).
Dan was het patent 5 jaar geleden verlopen. ;)
Wel met een technische werkende uitwerking ervan :)
Vibraties?

Meer bewegende onderdelen in een HDD betekent ook meer vibraties. En vibraties zijn (heel) slecht voor electronische apparatuur. Zeker als de vibraties door meerdere van deze HDDs zich gaan amplificeren.

Kans daarop is niet groot, maar als het gebeurt, dan is het heel snel een heel serieus probleem.
Wat je eigenlijk wilt, is de dataschijf zoals die nu is, met dan met de mogelijkheid alle sporen tegelijkertijd te lezen. Even simplistisch; zeg dat er 100 sporen zijn dan wil je dus 100 lees- (en schrijf-)koppen. Maar, dat is natuurlijk onmogelijk op deze schaal.

Wat wél mogelijk zou kunnen zijn, is de dataschijf houden zoals die nu is, met daar dan half overlappend een andere "geperforeerde schijf" (waarbij er voor elk spoor één gat is, in een soort swirl) overheen. De dataschijf moet dan een stuk langzamer draaien (zeg één rotatie per seconde) terwijl de geperforeerde schijf zo hard draait dat bij één rotate van de dataschijf, elke bit een keer door de geperforeerde schijf "zichtbaar" is geweest. Als de leeskop dan niet meer een klein naaldje is zoals nu, maar over de volledige breedte van de schijf kan lezen, dan kan je elke seconde alle data van je hele schijf uitlezen.

Zie ook mijn snelle schets. De gele schijf is de dataschijf, de groene schijf de geperforeerde. De blauwe lijn is de schrijfkop. Doordat er op elk moment maar één perforatie onder de schrijfkop ligt, zou het de onderliggende bit uit kunnen lezen.

De snelheid zou wel veel hoger moeten liggen dan de 7200 rpm die nu wordt gebruikt, of de schrijfkop zou opgedeeld moeten worden in kortere stukken zodat er meer perforaties in de disk kunnen.

Dus; wel leuk, (waarschijnlijk) niet fysiek mogelijk.
Inderdaad fysiek niet mogelijk, om een waslijst aan redenen. De belangrijkste is wel dat de kop op nanometers boven de platter zweeft. Dat laat geen ruimte voor jouw gatenkaas.
Waarom kan alleen de kop lezen en niet de hele arm? Dan zou die arm ook niet meer hoeven te bewegen en wordt seektime alleen nog beïnvloed door rpm.
En ook alle data dubbel wegschrijven. Dan kan het lezen ook 2x zo snel.
Even wat spinsels die ik ook min 25 geleden had.
:o

Makkelijker gezegd dan gedaan inderdaad.
Rotatiekoppel en trillingen zijn twee van de problemen, houd maar eens een schijf in je hand als ie opstart en de kop heen en weer gaat, je kunt het voelen, die kleine stepper motors zijn venijnig.

Dit kan in electronica gecompenseerd worden natuurlijk omdat je altijd weet waar het ene hoofd zich bevindt en hoe snel ie naar de andere kant moet gaan. Met twee hoofden wordt dit een extra stuk rekenwerk omdat ze beide tegelijk naar binnen of naar buiten moeten gaan.

Zo ook de trillingen hebben vandaag al een effect, als je geen goede dempers hebt in een goedkope RAID kast of gewoon rondspringt naast het rack krijgt het hele systeem meetbare vertragingen. Met twee koppen introduceer je dus 2x meer kracht dat over en weer slaat.

8x sneller gaat ook wel een marketingsprookje zijn, in ideale omstandigheden, als de hoofden weinig moeten bewegen en sequentieel lezen, kun je in principe 2x sneller lezen, ik zie niet waar ze 8x halen zonder al de koppen onafhankelijk te bewegen.
Rotatiekoppel en trillingen zijn twee van de problemen, houd maar eens een schijf in je hand als ie opstart en de kop heen en weer gaat, je kunt het voelen, die kleine stepper motors zijn venijnig.
Of laat een schijf van een kastje vallen waarnaar je een backup druk aan het kopieren bent. Hij tolde nog even. Ik niet blij, maar wel leuk om te zien dat er blijkbaar veel gebeurt in een schijf. En wonder boven wonder heeft die schijf het nog jaren gedaan, maar echt vertrouwen deed ik hem niet meer.
Nog meer dat kapot kan gaan.
Nog meer dat kapot kan gaan.
Is dat echt zo'n probleem nog? Ik moet regelmatig schrijven vervangen, maar dat is omdat ze al een kleine +100 Petabyte hebben weggeschreven in 5 jaar tijd. Dat vind ik toch behoorlijk acceptabel voor schrijven van tegenwoordig. Wel is het dat koeling een stukje lastiger is geworden want nieuwe schrijven worden echt een stuk warmer heb ik het idee.

Ik heb het overigens niet over de goedkope schrijven, maar meer NAS en Datacenter schrijven. Aparte serie die ook doorgaans duurder is.
Ja nog steeds zo en dat zal altijd wel zo blijven.
Kapotte schrijf / lees kop kan fysieke beschadigingen aanbrengen op je platter.
Dan is dat deel dus niet meer beschrijfbaar / leesbaar en kan je het weer RMA'en of vervangen.

Afgelopen zomer nog 5x 22 TB schijven gehaald voor 430 euro.
100TB aankopen en ook nog volschrijven is een week taak.
Stel je voor dat je dat "vol" schrijft en binnen no-time moet vervangen.

[Reactie gewijzigd door crzyhiphopazn op 4 februari 2026 16:22]

rens-br Forum Admin IN & Moderator Mobile @crzyhiphopazn4 februari 2026 17:11
Neem aan dat het 430 euro per stuk was en niet voor alle 5?
haha ja ik ben Per stuk vergeten erbij te vermelden.
100TB voor een week klopt ongeveer wel. Heb thuis een ZFS RAIDZ2 pool van 8x18TB WD schijven op SAS3 dat voor 65-70% vol zit. Als er eentje stuk is duurt de rebuild ongeveer 16 uur en dat is dan sequentieel verzilveren gok ik. Toen ik overstapte van 12 naar 18 TB duurde het ong. een week voor alles langzaam was resilvered.

Het is wel zo, merk ik, dat SAS3 betere (of minder slechte) IOPS produceert dan SATA. Zal het eens moeten meten, maar voelt alsof de SAS controllers toch meer werk voor elkaar krijgen met dezelfde schijf.

[Reactie gewijzigd door drmacfaulty op 4 februari 2026 20:26]

ik was in 2022 ook begonnen met 1 WD Ultrastar 22TB aan 430€, met de gedachte dat zoals altijd de prijzen naar beneden tuimelen als nieuwe modellen uitkomen... niet dus. Begin vorig jaar toch nog 2 gescoord aan 400€, en nu alles pokkeduur geworden zoals bijna alle hardware
Op zich, als er meerdere koppen dezelfde platter gebruiken, zouden ze voor elkaar kunnen inspringen als een van de koppen fouten begint te vertonen op die platter. Dit zou dus de duurzaamheid van een flink harddisk kunnen verbeteren, in plaats van faalkans te vergroten.
Volgens mij werkt het net iets anders op de seagate dual actuators: de buitenkant van de platter zit onder kop 1, de 2e kop op de binnenkant. Je moet het ding iig bij sas aanspreken als 2 losse drives en de sata versie moet je in 2 partities splitsen (en dan raid0 gebruiken als je de volledige snelheid van 2 koppen wil).
je hebt uiteraard gelijk, maar dit soort schijven bestaan nog steeds en worden verder ontwikkeld omdat de prijs/opslag momenteel niet te evenaren is door SSD. Voor cold storage van data is dit bijvoorbeeld ideaal, kost weinig, je kan er enorm veel data in opslaan en de snelheid blijft toenemen de komende jaren.
Nog meer dat kapot kan gaan.
Wij hebben best wat petabytes aan spinning staan, als backup storage. Het is doorgaans niet iets zuiver mechanisch wat een schijf rijp voor vervanging maakt. Je moet zo'n shelf niet laten stuiteren terwijl het draait, maar dat komt in praktijk niet voor in een datacenter.
Maar misschien minder snel kapot gaan ? het vele handen maken licht werk ?

ipv in je eentje duizenden zakken cement in 40 jaar werken verplaatsen, je dit nu met z'n achten doet en allemaal 10 jaar langer mee gaat ?
Als de prijs fors onder die van SSD's blijft, dan is dit wel levensvatbaar. Op dit moment zijn harde schijven behoorlijk goedkoper (en trager/hogere latency) dan SSD's maar SSD's hebben per oppervlakte een hogere dichtheid (1PB in 1U lukt wel, maar met de huidige 30GB 3.5" HDD's niet). Maar tegen een prijs dus (en mogelijk: betere levensduur).

Wel even afwachten wanneer het op de markt komt (Seagate en HAMR duurde na de eerste aankonding ook best lang) en welke prjis er aan hangt, maar het plaatje suggereert wel dat de HDD nog lang niet 'dood' is. Een (Z)RAID setup van deze schijven zal voor de meeste mensen (al dan niet met een SSD als cache) voldoende performance opleveren.
Als je performance nodig hebt ga je niet voor een RAID met draaiende roest, maar voor een storage unit die backups ergens kwijt moet is het natuurlijk wel interessant. Je zit hoe dan ook redelijk in de datacenter hoek dan waar SSDs ook 'interessant' geprijsd zijn.
Het grote voordeel van deze extra snelheid is dat de recovery tijd flink omlaag kan. Met de huidige 20+Tb schijven kost een 'resilvering' (dus full rewrite) rond de 2 weken(!).
Als je (heel) veel data opslaat, is een HDD (die ik overigens nog nooit heb zien roesten 8)7) significant goedkoper. De consumentenmarkt gaat niet verder dan 8TB SSD's.Daarboven is het sowieso server markt met bijbehorende prijzen.

Een 30.72TB SSD van bijv Kioxia gaat over de 5k. Dat is minimaal 6x duurder dan een 30TB Seagate HDD (rond de 800 euro, wat al een fors hogere prijs is dan een paar maanden geleden). Dus 'interessant' mag dan inderdaad wel tussen enkele aanhalingstekens.
Nee dit is voor data centers en misschien voor NAS systemen. Maar voor een boot drive gebruik je gewoon die SSD. Dan wil je zelfs niet dat je HDD wordt gebruikt bij files of blokken die toevallig niet op de SSD staan, want de random access tijd en alleen al de spinup tijd en idle power blijft veel te hoog.
Ik heb in mijn reactie niets over boot schijven gezegd. Wat je zegt klopt, maar heeft volgens mij geen relatie met wat ik schrijf. Het is evident dat dit soort schijven voor massa-opslag zijn. Dat kan een hobbyist zijn met een enorme verzameling data, maar ook NAS of in een server voor opslag. Ik kan me niet herinneren dat ik een boot schijf van > 8TB tegen kwam, dus dan is zeker 100TB irrelevant als boot schijf.
Ik schreef dit omdat je duidelijk de HDD tegen de SSD afzette. Dat de HDD hogere capaciteit biedt tov SSD is natuurlijk niets nieuws. En je sluit af met "Een (Z)RAID setup van deze schijven zal voor de meeste mensen (al dan niet met een SSD als cache) voldoende performance opleveren." Dan vraag ik me echt af over welke use case je het precies hebt. Ik vermoed nu dat je het alleen over NAS had, maar dat staat dan weer nergens in je bericht.

Anyway, ik denk dat we het eigenlijk wel eens zijn, maar dat je overzicht niet duidelijk genoeg aangegeven was, waardoor mijn reactie dan weer op de verkeerde aanname berustte. Oh well, let's agree to agree :)
Ik had het over een True NAS setup. Dacht dat dat wel duidelijk was, omdat deze schijf groottes uit het artikel (bijna) nooit in een andere setup voorkomen. Lijkt me, maar ik kan het mis hebben.
Welk protocol zal er dan gebruikt worden om de schijf met de rest van de computer te verbinden? Wordt dat SAS5 of een PCI-e aansluiting?
De 500MB/s smaak die ze benoemen zal nog wel binnen SATA3 passen. 2GB/s wordt idd lastiger. PCIe is wat dat betreft al breed geadopteerd onder ook de consumentenmarkt. Ik denk dat je bij datacenters nog wel wegkomt met SAS.
Ik dacht altijd dat een pcie x16 slot max iets van 60-70GBs aan kon … zit je dus aan 30 SAS4 drives max per controller per slot …dan ben je misschien snel maar heb je weer geen capaciteit Of je moet extra controllers installeren maar zo heb je ook steeds meer onderdelen die voor problemen kunnen zorgen.

Wij gebruiken ook nog mechanische drives uit pure noodzaak omdat het alternatief gewoon veel en verls te duur is , maar je zou verwachten dat ze toch meer onderzoek zouden stoppen in het goedkoper stapelen van flash geheugen ipv snellere mechanische drives
PCIe 7 gaat zelfs tot 242GBps voor een x16 slot, en de planning voor Gen8 is 484GBps. Aan die kant hoef je je écht geen zorgen te maken om een tekort aan bandwidth.
Ha, problemen/uitdagingen zoals vroegâh! Een extra geluidskaart, PCI of VLB controller, SCSI kaart voor je cd-lezer/brander, eventueel een kaart met parallelle poort of TV capture, naast je 2d kaart had je nog een 3d kaart (PCI), een firewire kaart voor je camera... man je hele moederbord zat vol met insteekkaarten en die moesten allemaal een eigen IRQ hebben. Je kreeg soms wel 3 bios logo's te zien voor je ging booten :)

[Reactie gewijzigd door Soeski op 5 februari 2026 11:44]

U.2 bestaat ook nog.

De aansluiting ben ik wel eens tegen gekomen maar de schijven zelf nog nooit in het wild waargenomen.
U.2 is een mogelijke standaard voor de fysieke verbinding. De fysieke verbinding kan allerlei protocollen faciliteren. Dan kan de fysieke verbinding nog steeds een belemmering zijn, maar dat hoeft niet per se. De snelheid wordt vooral bepaald door het gehanteerde protocol. Vandaar dat ik eerst wil weten wel protocol er dan gebruikt gaat worden.
Ik begrijp niet waar je heen wilt met je betoog.

In je eerder vraag heb je het over protocol en verbinden. Vervolgens geef je 2 voorbeelden van een aansluiting.
Daar gaat het al een beetje fout want je verbind niet met een protocol. Verbinden is fysiek, protocol is de communicatie(taal).

Ik geef een ander voorbeeld van een aansluiting. Over die aansluiting loopt doorgaans het NVME protocol, bewezen snel genoeg voor de geadverteerde snelheden.

Antwoorden ga je hier sowieso niet kunnen krijgen, tenzij de WD developers hier zitten. We kunnen hooguit samen met jou speculeren.
Deze hardeschijf doet me een beetje denken aan de 72x cd-romspeler van Kenwood. Die snelheid werd behaald door de laser op te splitsen in 7 beams, zodat er met 7 eenheden tegelijk gelezen kon worden. Maargoed, dat is lang geleden.

Ik vind het wel een leuk idee, maar ik weet niet of ze hier mee op tijd zijn. De snelle cd-rom speler van Kenwood is ook geen succes geworden, de techniek is daarna ook niet meer toegepast bij DVD-spelers. DVD-spelers hoefden natuurlijk wel minder hard rond te draaien om dezelfde snelheid te behalen, omdat de data dichter opelkaar stond. Ik herinner me dat bij cd's de rotatiesnelheid echt wel een (mechanische) beperking was.
Ik herinner me dat bij cd's de rotatiesnelheid echt wel een (mechanische) beperking was.
Dat herinner ik me ook. Ik dacht dat vanaf 80x het schijfje instabiel wordt in het draaien. Mythbusters ging in een aflevering nog een heel stuk verder. Mij staat bij dat bij 150x de CD door centrifugaalkrachten uit elkaar spat. De getallen komen echt uit de krochten van mijn geheugen, kans dat het juist is schat ik maximaal 60%.
Ja, dat uitelkaar spatten dat was ook waar ik aan dacht. Het kon ook gebeuren dat cd's uitelkaar knalden bij het openen van de la als de cd's niet goed afgeremd werden. Maar dat was iets dat niet veel voorkwam, ik

Er was nog iets. De oudere cd-rom drives waren CLV (constant linear velocity), latere drives waren CAV (constant angular velocity). Bij de oudere CD-drives was de laser e.d. de beperking voor de leessnelheid. Het toerental moest dus omlaag als data verder naar buiten gelezen moet worden. Later was de motor (en de fysieke sterkte van de disc) een beperking, dus de rotatiesnelheid bleef hetzelfde en naar buiten toe werd er sneller gelezen.

//edit
ik had de termen CAV en CLV omgedraaid.

[Reactie gewijzigd door necessaryevil op 4 februari 2026 19:02]

ja, inderdaad! Daar dacht ik ook net aan. Heb er nog 1 liggen :)
was wel veel stiller dan die herrie cd-rom spelers. Verder ook een hoop nadelen ja.
Kan niet wachten. Als ik ooit tijd en geld heb ga ik mijn unraid server upgraden naar 10-20 van deze 100TB schijven. Krijg ik prima vol
Ik zie meer in de snelheid dan de capaciteit. Een 8TB of 12TB HDD die 1.2GB/s (8x150MB) kan doen is leuk voor backup.

[Reactie gewijzigd door kujinshi op 5 februari 2026 08:10]

Met 2GB per sec word de 10Gbits poort de limiterende factor :)
Dubbel zo snelle schijven had Seagate al (Exos). Wij hebben ze gebruikt, maar waren niet praktisch aangezien het eigenlijk 2 schijven waren en je moest ze in RAID zetten. Wij gebruiken alleen nog maar NVMe voor al onze opslag in al onze data centers voor opslag in eenvoudige servers, maar ook al onze Ceph clusters. Hardeschijven waren interessant voor capaciteit, maar ze zijn zo traag en lastig met cluster rebuilds in hoge capaciteiten. Met NVMe is alles zo veel stabieler.

Deze schijven zullen wel NVMe protocol gaan gebruiken en mogelijk interessant voor cold storage.
Standaard HDD is 5400 toeren. Western Digital heeft al lange tijd de 10000 toeren schijven gehad. Dat mag ook doorgaan als 2x zo snel al.
Pardon? Standaard is 7200 RPM toch? Langzaam is 5400 toeren, snel (datacenter sas hdd's) is dan 1000 of 1500 rpm.
7200 toeren komt nog best weinig voor. Al bestaat het al wel heel lang. Veruit de meeste schijven die te koop staan zijn 5400 toeren. Heel soms zie je 5600 toeren, maar dat zijn ook maar een paar soorten schijven.
Er zijn wel meer HDD's die 5400 rpm doen in de pricewatch dan ik dacht. Maar, als ik filter op de snelheid daar, dan zie ik 189 drives van <6000 RPM, maar 1200+ drives die 7200 RPM doen. Maakt verder niet uit, maar zou weinig komt 7200 dus niet voor ;)
Ze bedoelen dubbel zo snel tov normale HDDs. Die zitten richting 200MB/s. De Seagate schijven (we hadden die 3-4 jaar geleden al) zitten op 500 MB/s en nu deze van WD ook.
zitten op 500 MB/s
Wow, dan zitten HDDs al op de snelheid van de eerdere generaties SSDs.
leuk dat ze weer sneller worden en meer opslag krijgen. Maar ik zit meer te wachten op betaalbare 10tb + schijven. HDD's lijken niet meer goedkoper te worden.
HDD's lijken niet meer goedkoper te worden.
Ze zijn de afgelopen maanden heel hard aan het stijgen zelfs. Het is niet heel ongebruikelijk meer om ze 40% of 50% duurder tegen te komen nu vergeleken een paar maanden geleden.
Conner, wat later is opgekocht door Seagte, had in 1991 al een harddisk met meerdere koppen. Het is al een oud idee wat telkens weer terugkomt.

Om te kunnen reageren moet je ingelogd zijn