Western Digital onthult eerste 22TB cmr- en 26TB UltraSMR-hdd's

Western Digital onthult verschillende nieuwe Ultrastar-hdd's met capaciteiten van 22 en 26 terabyte. De harde schijven worden deze zomer in eerste instantie aan een select aantal klanten geleverd. Er zijn nog geen prijzen of een daadwerkelijke releasedatum bekendgemaakt.

De Ultrastar DC HC570 en DC HC670 hebben een opslagcapaciteit van respectievelijk 22 en 26 terabyte en zijn bedoeld voor cloudtoepassingen. Beide harde schijven gebruiken WD's OptiNAND en maken gebruik van shingled magnetic recording-technologie om data te schrijven.

Voor het 26TB-topmodel gebruikt Western Digitale een eigen variant van de smr-technologie, die UltraSMR wordt genoemd. Deze schrijftechnologie zou in combinatie met het al datadichtheid-verhogende OptiNAND een 18 procent hogere opslagdichtheid per platter mogelijk maken. Hierdoor heeft de DC HC670 een capaciteit van 2,6TB per platter. Het is voor het eerst dat WD de UltraSMR-technologie gebruikt. Er is vooralsnog geen andere fabrikant die een 26TB-harde schijf heeft aangekondigd.

Western Digital 22 en 26 TB harde schijven

Daarnaast kondigt WD aan dat de bestaande Ultrastar Data60- en Data102-jbod's vanaf deze zomer uitgerust worden met 22TB-hdd's op basis van conventional magnetic recording-technologie. Vooralsnog maken de opslagsystemen gebruik van 20TB-harde schijven op basis van smr-technologie. Cmr heeft in theorie betere willekeurige lees- en schrijfsnelheden als voordeel ten opzichte van smr, al geeft Western Digital vooralsnog geen exacte specificaties prijs.

Tot slot gaat WD vanaf deze zomer 22TB-varianten van de Purple Pro, Red Pro en Gold verkopen. Die series harde schijven zijn respectievelijk bedoeld voor bewakingstoepassingen, nas-systemen en bedrijven. Daarvan zijn vooralsnog alleen modellen van maximaal 20TB beschikbaar. De WD Purple Pro is zelfs slechts in maximaal 18TB beschikbaar.

Western Digital 22 en 26 TB harde schijven

Door Yannick Spinner

Redacteur

09-05-2022 • 18:06

87

Reacties (87)

87
87
43
1
0
16
Wijzig sortering
Ik kwam net nog bij het opruimen bonnetjes tegen van 4,2 GB drive (ƒ599) 1997.
Dat waren nog eens prijzen per gigabyte ;)
Ik heb zulke bedragen nog betaald voor 20Mb...
Anoniem: 63072 @RobIII9 mei 2022 20:53
Wij hadden een 20MB harddisk met een RLL controler waardoor er meer op kon ... wel 30MB!

In een Olivetti met een 8MHz 8086 ipv de 4.77MHz 8088 die in de IBM PCs zaten indertijd. Dat was te snel voor sommige spelletjes!

En dat hele systeem was toen al iets van ƒ 9.000,- zonder harddisk! Die harddisk kwam iets later. Mijn vader had een PC nodig voor zijn werk en kreeg dat vergoed anders hadden we dat nooit gehad.
In een Olivetti met een 8MHz 8086 ipv de 4.77MHz 8088 die in de IBM PCs zaten indertijd. Dat was te snel voor sommige spelletjes!
Klinkt bekend, de M24? Daar heb ik ook mijn eerste stappen in programmeren mee gezet. In GW-Basic. Good times.
Zou kunnen, ik was 9 en dat was voornamelijk voor spelletjes.

Mijn eerste programmeer ervaring was Amiga basic eind jaren 80.
Ik heb zulke bedragen nog betaald voor stenen tabletten.
Anoniem: 562971 @fapkonijntje10 mei 2022 12:15
Ik beitelde mijn enen en nullen in de rotswand.
60 MB voor bijna ƒ1600 (1989)
Wel een MFM disk. (Megafile-60 voor de Atari-ST)
Ooit rond 1990 een defecte 4MB disk vervangen voor een 12MB full-height 5 1/4" MFM disk, onder CP/M op een Z-80 Grundy business systeem. Kostte 900 gulden. De disk moest in twee partities opgedeeld worden want CP/M kan maar 8MB per disk aan.
Bedoel je niet 1980? Toen werd CP/M op Z80 nog veelvuldig ingezet. Een decennium later was CP/M outdated en HDs al meerdere 100MBs groot. Kleiner dan 20MB heb ik 5 1/2" HDs nooit gezien...
1980! Je hebt gelijk! Dank voor de correctie van mijn geheugen :)
De HD's waren wel 4 en 12 MB. Ik heb nog een BIOS/BDOS aan moeten passen omdat er maar een enkel byte gebruikt werd om de actieve cylinder in bij te houden.

[Reactie gewijzigd door scsirob op 25 juli 2024 06:36]

Ha! Weegt niet op tegen mijn WD 5.25" Bigfoot IDE 2.1GB, ook uit 1997 - ik geloof dat ie een kleine ƒ499 kostte. Gelukkig werkte ik bij Sun en kreeg ik regelmatig SCSI schijven toegeworpen en ging dus snel over :-)
Ha! Weegt niet op tegen mijn WD 5.25" Bigfoot IDE 2.1GB, ook uit 1997 -
Dat was Quantum. Niet WD ;)
Had ik nog in raid-5 draaien met een Promise IDE-raid controller (Met Netware 4.x support, Yay!)
Jaaaa, dat is waar ! Ben al oud hè :-)
https://www.reddit.com/r/...rive_in_the_80s_you_will/
Ik betaalde Fl. 17,50 voor een lege enkelzijdige 5 1/4¨ floppy in 1980.
De floppy drive voor bij de Apple II+ was Fl. 1700,00.

[Reactie gewijzigd door Mayumi op 25 juli 2024 06:36]

Doosje 3,5" 3M HD floppy's bij RAF. ƒ144,-
Opslag is spotgoedkoop geworden.
Zelfs toen was apple al overpriced :p
Voor Apple II was toen al veel voor de hobbyist goedkoop beschikbaar. Alle informatie, inclusief schema's stonden in de handboeken. Ik heb mijn eigen APPLE kloon gemaakt met TTL ic's, deze heb ik nog steeds. Floppy drive was een standaard TEAC 5 1/4" 40 track dual-sided drive. Kon je nog meer opslaan ook (Apple was 35-track single-sided). Maar hard drive dat was toen (1978-80) nog onhaalbaar, dat lukte mij pas een paar jaar later met zelfbouw kloon IBM PC met 40MB HD. Daar kon je toen nog best wel veel op kwijt, maar onvergelijkbaar met deze 22TB drives...
Was te jong om die bedragen zelf neer te leggen, maar we hadden in ons huishouden van die oude 3900rpm schijven van 220 en 468MB. Rechtstreeks uit een 386 en 486DX. Dat nostalgische bootgeluid is eigenlijk een van de sterkste kenmerken uit dat tijdperk voor mij.
Ik mis nog steeds het geluid van een zoekende floppydrive bij het opstarten van een PC.
ta ta da. ta ta da.....
*piep*
;)

[Reactie gewijzigd door LooneyTunes op 25 juli 2024 06:36]

26TB al in 2022! Dat had ik niet verwacht, dacht dat dat pas in 2023 zou zijn! Wat lekker veel zeg. Wel jammer dat er van SMR gebruik moet worden gemaakt. Ach ja.
Seagate heeft bv. ook al 22TB HDDs (staan niet in pricewatch) en afhankelijk van het schijf type wordt er wel of niet gebruik gemaakt van SMR. Ze hebben daar een heel net overzichtje van gemaakt:
https://www.seagate.com/n...hard-drives/cmr-smr-list/
Dat ziet er erg overzichtelijk uit, alleen jammer dat hun Exos series hier niet op staan :/
Wil je dat weten voor (werk) servers of voor een (thuis) NAS? Want dan kan je beter de Iron Wolf (Pro) serie pakken, afhankelijk van de hoeveelheid schijven die je gaat gebruiken. Ik ben zelf over de decennia van IBM naar WD naar HGST naar Seagate (Iron Wolf Pro) over gestapt voor mijn RAID (5/6) storage...

Je kan het beste de product sheets voor de betreffende EXOS serie er op naslaan, want er lijken er nogal wat te zijn. Een aantal daarvan hebben toch SMR ipv. CMR in gebruik...
Exos is datacenter dus die zijn volgens mij alleen cmr.
Dat ligt aan de specifieke serie, ik lees zo hier en daar dat bepaalde Exos series juist wel weer gebruik maken van SMR ipv. CMR.
Leuk dat Seagate ze ook heeft, zelf plug ik die dingen niet meer in, ook de Exos niet.

Als je de keuze hebt uit hgst's of hgst rebranded WD's iig ;)
Toshiba schijven zijn anders ook prima.
Ik ben juist van WD weggegaan omdat ik de kwaliteit van de disks bijzonder brak vond. Heel lang tevreden geweest met HGST, maar in 2018 waren de HGST schijven die ik gebruikte niet meer leverbaar. Terug naar WD en hopen dat de 'rebranded' HGST schijven wel goed waren vond ik een veel te groot risico, ik weet niet wanneer WD UltraStar schijven beschikbaar werden in NL. In 2018 kwam ik onverwacht op Seagate Iron Wolf (Pro) terecht en heb na bijna 4 jaar gebruik in mijn NAS daar geen issues mee (zelfde trouwens voor de HGST schijven die ernaast draaien)...

Een Seagate Baracuda komt er bij mij ook absoluut niet in! ;-)
Ook hier heeft ASML zijn vinger in de pap, zoek maar eens naar TFH ( Thin Film Head) , tot 1,5 jaar geleden werden de PAS5500 TFH voor de koppen gebruikt nu zijn ze overgestapt op speciale XT machines XT:1460 TFH
dus weer vele kleiner koppen met veel meer nauwkeurigheid.
Je zou toch verwachten dat de prijzen van de laagste tiers HDD’s qua opslagvolume goedkoper worden hierdoor? (Ja ik heb diverse forathreads gelezen en weet wat consumerdisks als zijnde externe opslag voor een plaats hebben in de consumentenmarkt)

Zo heb ik op dit moment 2x 2Tb WD Pro SMR (yep…helaas) in mijn DS218+ zitten. Opslagpool is nu voor 75% vol en het gaat hard qua ‘vullen’ met 2 kids die hun eigen backup erop hebben qua foto’s.
Meer opslag is altijd fijn voor de komende jaren.
Anoniem: 138647 @austin_779 mei 2022 18:35
Als je die 2 2TB Schijven met Synology Hybrid Raid in een RAID-1 Setup geconfigureerd hebt, kun je naadloos grotere schijven er in stoppen. Stuk voor stuk (1 vervangen, rebuild, 2. vervangen, rebuild en klaar).
Ja heb ze idd zo erin zitten. Je reactie is juist waarom ik wens :+ dat ze goedkoper worden
2, 4tbs kosten ong 95 euro ? Zo duur is dat toch niet ?
voor sommigen is dat een week salaris voor 2 schijfjes ;)
Dat zou kunnen idd, dan is een 2de handse aankoop misschien beter idd!

Of via mp naar een 4bay nas (heb toevallig voor 25 euro een ds411+ gevonden, is een ouder model maar doet wat hij moet doen). En dan voor 2x 30 euro een goede set 2tbs er bij in. Goedkoper dan 1 nieuwe 4tb schijf!
Dit ;). Hier draait ook een DS410 in raid 10 gewoon puur voor de echt kritische spulletjes als 3e machine onafhankelijk van mijn 2 freenas builds. Kost een habbekrats, is met 40mb/s al verzadigd. Maar voor wat foto materiaal een prima kastje die elders op het erf in het hoogste gebouw gepositioneerd is :+
Zelfs voor een backup vanaf een andere nas is het prima, alleen de eerste keer even slikken haha!
die eerste 3TB duurder behoorlijk lang :+
Kijk even ook in V&A. Daar gaan sommige schijven voor hele nette prijzen. Zelf goede ervaringen met JCP Trading.
Ik heb nog wel een paar gebruikte 6TB WD Reds liggen, stuur maar een PM bij interesse
Dat ligt natuurlijk helemaal aan de prijs
Daarom heb ik 10 jaar geleden al 12TB in een DS412+ gepropt. Loopt nu einde support, levensduur van de disks en tegen vol volume aan. Tijd voor nieuw dus. :P
hmmz, hoe lang zou een DS920+ bezig zijn met de SHR of RAID set opbouwen van deze 26TB schijven?

(ja.. is gewoon geinig theoretisch want ik weet ook dat dit niet niet realistisch voor thuis is, en die 78TB kan je ook met 6*16TB doen.)
Het opbouwen vind ik niet spannend, het herbouwen indien nodig dat is spannend :P want dan hebben de meeste disks al wat draaiuren, dus als er 1 gaat en die ga je vervangen, komt er een klap load tijdens het rebuilden op de anderen waardoor die misschien ook naar zijn grootje gaan.
De prijs per GB gaat niet echt omlaag hiermee, deze schijven worden gewoon reteduur.

HDDs tot en met 6TB beginnen nu een beetje in prijs te zakken, maar alles daarboven blijft nog gewoon ver voorbij waar een gemiddelde consument interesse in heeft
Kijkend naar de professionele markt zie je steeds minder HDD. Zelfs de capacity arrays hebben flash. De ontwikkeling ligt dus ook steeds meer stil. Het is nu vooral wachten dat SSD goedkoper worden.
Wat zijn dan de afmetingen van deze harddisks? Want 10 platters klinkt niet alsof het zomaar in een standaard bay gaat passen.
De platters zitten tegenwoordig veel dichter op elkaar doordat de platter ruimtes gevuld zijn met helium
Hmm de pricewatch mag ook wel aangepast worden, hij gaat nu maar tot 20TB.
Misschien is dat omdat er nog geen grotere schijven in de pricewatch staan?
Is er een interessant fysiek of technisch verschil tussen de Purple Pro, Red Pro en Gold? Of is het grootste verschil de kleur van het etiket?

Als je bedrijfsmatig vooral bewakingstoepassingen op je NAS-systeem gebruikt, welke kleur koop je dan?
"Geschikt voor RAID opstellingen: "
"Nee"
Hoe kan je dat serieus nemen?

En bijv: "Zo werkt hij namelijk in een RAID opstelling tot maximaal 16 schijven samen, dat is 8 meer dan de normale Red uitvoering. " Wat?... Ik hoop dat ze het over een specifiek soort hardware-RAID hebben anders kan ik het echt niet begrijpen.

[Reactie gewijzigd door jwywy17276 op 25 juli 2024 06:36]

Dat een disk niet geschikt kan zijn voor een RAID opstelling kan ik nog begrijpen. Denk bijvoorbeeld aan hoe een disk reageert als deze een bad sector tegen komt. Een disk welke niet geoptimaliseerd is voor RAID kan proberen de bad sector meerdere malen uit te lezen, of tot het lukt of tot een timeout van 2 minuten. Afhankelijk van je RAID conroller kan deze bepalen de disk eruit te gooien. Ook is op dat moment geen andere communicatie mogelijk met andere disken omdat de sata bus in gebruik is.

Erg vervelende situaties kun je daarmee krijgen, bijvoorbeeld dat de RAID controller de verkeerde disk eruit gooit omdat deze geen reactie krijgt van een disk maar eigenlijk de schuld bij een andere disk ligt.

Vaak is het mogelijk om deze setting aan te passen, en dan nog kan het een verkeerde werking hebben.
Interessant
Ik gok dat moderne file systems zoals zfs hier geen last van hebben, omdat welke disk op welke controller zit gewoon bekend is op OS niveau, als je software raid gebruikt iig (en ik neem aan dat de meeste mensen tegenwoordig software raid gebruiken).

Als je dan ziet dat 1 disk read/write stuck is, is het heel simpel om te programmeren dat je andere drives op dezelfde controller er niet uit gaat gooien tot die transactie voltooid/dropped is.

Dus ik denk dat dat meer een legacy probleem was.

"... tot een timeout van 2 minuten. Afhankelijk van je RAID conroller kan deze bepalen de disk eruit te gooien."
Ook simpele fix voor dus, mits je software raid gebruikt.
En als je een goede hardware raid controller gebruikt heb je hier dus eigenlijk ook totaal geen last van, als de timeout redelijk kort ingesteld is.

Maar dan is de disk er wel tijdelijk helemaal uitgegooid als zoiets gebeurt.. Maken deze goedkope disks de bad sector dan wel vanzelf inaccessible? Het klinkt echt als een extreem oude design flaw dat ze er blijkbaar expres gewoon nog in laten in hun goedkope disks. Hoe is dit uberhaupt acceptabel? Geen Raid gebruiken is sowieso onacceptabel, behalve als het je niet uitmaakt of je je data verliest, bijv cache disk. Maar niemand gebruikt hdd's als cache disks tegenwoordig. Het slaat dus gewoon helemaal nergens op?

Sterker nog, als je geen raid gebruikt heb je hier MEER last van, want dan is je hele systeem bevroren tot die disk weer verder kan.
Is dat correct?

[Reactie gewijzigd door jwywy17276 op 25 juli 2024 06:36]

Interessant
Ik gok dat moderne file systems zoals zfs hier geen last van hebben, omdat welke disk op welke controller zit gewoon bekend is op OS niveau, als je software raid gebruikt iig (en ik neem aan dat de meeste mensen tegenwoordig software raid gebruiken).
Uiteindelijk is het allemaal software natuurlijk, of je CPU nu in je controller zit of op je moederbord of op het moederbord van je NAS/SAN-kast.

Er is in servers nog steeds een bestaansrecht voor 'hardware' RAID-controllers; als hashes en XOR-berekeningen voor je RAID5/6 twee van je cores bezighouden, houd je twee cores minder over voor je feitelijke workload.

Het zal steeds minder een edge-case worden, tussen 'standalone server met interne opslag met tekort aan CPU-ruimte' en 'netwerkopslag is net niet snel genoeg' (in die beide gevallen kun je met 'software' RAID uit).
Het probleem met hardware RAID controllers is dat CPU cores al een decennium lang goedkoper zijn, en bovendien breder inzetbaar. Ja, technisch gezien zijn HW Raid controllers efficienter in het gebruik van silicium, maar de volumes waarin ze gemaakt worden zijn te klein.
Die is wel lollig! Een Red Pro is niet geschikt voor dagelijks gebruik, maar wel voor dag en nacht gebruik... ;)
Oh ze hebben ook een 'analyse'die de verschillen tussen WD en Seagate in kaart brengt.
https://www.coolblue.nl/a...-vs-seagate-ironwolf.html
Als ik het hier zo lees hangt de keuze voor WD of Seagate hangt bij de meeste tweakers af van een persoonlijke ervaring.
Mooi dat we eens een keer een flinke sprong maken in capaciteit: Met steeds maar 2TB erbij werd de groei de laatste jaren procentueel steeds iets minder. van 18TB naar 22TB in PMR is een dubbele sprong en van 20TB naar 26TB in SMR is zelfs een driemaal zo grote sprong.
Aan de andere kant 2TB is (momenteel toch 10%, best de moeite waard.
Jammer dat WD nu ook SMR-techniek gebruikt voor hun UltraStar schijven, maar wellicht dat het voor cloud-toepassingen waarvoor deze schijven zijn bedoeld snellere random read/write prestaties minder van belang zijn.
benieuwd of/wanneer ze HAMR (Heat Assisted), MAMR (Magnetic Assisted) en EAMR (Energy Assisted) gaan combineren en wat voor een groottes/snelheden dat zou opleveren :9~
mooi, ken ik einderlijk mijn oude 10/14tb hdds vervangen , smr of cmr maak niet uit, heb tog een backup en rendudancy
Anoniem: 138647 @KuroHana9 mei 2022 18:37
SMR doet eigenlijk alleen pijn tijdens een rebuild van een RAID-Set. Zie google.
bij het (her)schrijven van grote hoeveelheden data in het algemeen en random specifiek, aangezien sectoren over elkaar heen liggen
Unraid is toch ZFS. Dan moet je helemaal weg blijven van SMR.
Unraid gebruiks xfs of btrfs (en reiserfs, maar die wordt bij nieuwe arrays eigenlijk niet meer gebruikt). Je kunt ook zfs gebruiken op unraid, maar de naam in unraid zegt het eigenlijk al, het is juist geen raid. Daarnaast werkt de parity in unraid op sector / bit niveau, en maakt het bestandssysteem volgens mij niet zo heel veel uit voor het eventuele re-builden van de array.
ok. hoe zo dat ? unraid is "single disk performance"

het net als een gewone pc,
ik kan de hdd er uit halen en gewoon in de pc zetten en ik heb gewoon toegang tot de bestanden

en nee unraid is geen zfs het is simple gewoon xfs en btrfs, je ken wel zfs erop zetten maar de naam zeg het al "unRAID"

dood simpel een gewone pc met redudnacy
SMR doet eigenlijk alleen pijn tijdens een rebuild van een RAID-Set. Zie google.
Bij een RAID rebuild, mits goed geïmplementeerd, zou de performance van SMR eigenlijk juist optimaal moeten zijn. Een RAID rebuild zou moeten bestaan uit grote sequentiële (reads en) writes. Dat is juist waar de nadelen van SMR geen rol spelen.

Behalve natuurlijk met filesystemen die zelf RAID implementeren op file-niveau, want die doen tijdens de rebuild waarschijnlijk nog steeds een redelijk aantal kleine updates van bestaande meta-data, waar SMR dus weer niet goed in is.
Anoniem: 138647 @RJG-22310 mei 2022 08:52
Hoe dan ook, RAID Rebuilds op SMR zijn een drama. Tig websites die dat getest hebben en ze trekken allemaal de zelfde conclusie. Schijnbaar kan dus niemand een RAID Rebuild goed implementeren...

Op dit item kan niet meer gereageerd worden.