Western Digital begint met leveren van nieuwe 22TB-hdd's

Western Digital is begonnen met het leveren van zijn eerste 22TB-hdd's op basis van cmr. Het bedrijf komt met drie verschillende varianten die ieder zijn bedoeld voor verschillende doeleinden. De fabrikant deelt nog geen adviesprijzen.

Western Digital introduceert drie verschillende nieuwe 22TB-hdd's, die allemaal gebruikmaken van conventional perpendicular magnetic recording, oftewel cmr. De 7200rpm-drives krijgen allemaal een 3,5"-formaat, een SATA-aansluiting, 512MB cache en vijf jaar garantie. De hdd's worden geïntroduceerd in de WD Red Pro-, Purple Pro- en Gold-series.

De WD Red Pro-hdd van 22TB is volgens Western Digital onder meer bedoeld voor nas-systemen met maximaal 24 bays en zijn volgens de fabrikant geschikt voor voortdurend gebruik. De hdd beschikt over 512MB cache en OptiNAND, waarbij nandgeheugen wordt gebruikt om metadata op te slaan. Dat moet de datadichtheid van hdd's verbeteren. De WD Red Pro 22TB haalt volgens Western Digital een mtbf van een miljoen uur en krijgt een rated workload van 300TB per jaar. De drive moet sustained doorvoersnelheden van 265MB/s bieden.

De WD Gold-variant met 22TB opslagcapaciteit is bedoeld voor enterprisedoeleinden en heeft daarmee een hogere betrouwbaarheid. Deze WD Gold-schijven halen volgens de fabrikant een mtbf van 2,5 miljoen uur en een hogere rated workload van 550TB per jaar. Ook deze hdd krijgt OptiNAND. Deze schijf biedt volgens Western Digital sustained doorvoersnelheden van 291MB/s.

De WD Purple Pro 22TB is verder bedoeld voor het opslaan van beelden van bewakingscamera's en volgens de fabrikant kunnen er maximaal 64 single-stream hd-camera's tegelijkertijd naar de Purple Pro-drives schrijven. Ook deze hdd krijgt OptiNAND, een mtbf van 2,5 miljoen uur, een rated workload van 550TB per jaar en doorvoersnelheden van 265MB/s.

In mei kondigde Western Digital zijn eerste 22TB-hdd's al aan. Het bedrijf toonde toen onder meer Ultrastar-hdd's voor gebruik in datacenters. Het bedrijf zei toen ook al dat in de zomer 22TB-varianten van de Purple Pro, Red Pro en Gold zouden verschijnen, maar noemde toen nog geen concrete datum waarop de drives uit zouden komen.

Seagate begon in januari al met het leveren van zijn eerste 22TB-hdd's, hoewel dat smr-schijven betroffen. In tegenstelling tot cmr, liggen datatracks op de hdd-platters bij shingled magnetic recording deels over elkaar. Dat maakt hogere opslagcapaciteiten mogelijk, hoewel dit de willekeurige lees- en schrijfsnelheden nadelig kan beïnvloeden.

Western Digital 22 en 26 TB harde schijven

Door Daan van Monsjou

Nieuwsredacteur

19-07-2022 • 17:05

104

Lees meer

Reacties (104)

104
102
35
4
0
44
Wijzig sortering
Zoveel opslag dat de pricewatch er niet eens op kan filteren! (max 20TB). Los daarvan zijn er nog geen >20TB schijven beschikbaar in de pricewatch.

[Reactie gewijzigd door Thonz op 25 juli 2024 22:38]

Volgrnsmij werkt pricewatch zo dat ie kijkt naar de maximum grootte dat aangeboden wordt. Bij SSD's loopt pricewatch tot 30,72 TB.
...de grootte die aangeboden wordt...
ze staan niet in de pricewatch, dus de dynamische filter kan er dan ook geen rekening mee houden. Als er morgen een shop is die een foutje maakt en een 2000TB drive in de pricewatch duwt en die door de upload-check raakt, dan zal je tot 2000TB kunnen filteren ;) :+
Nee joh, daar is door de slimme pricewatch bouwers toch wel rekening mee gehouden. En gezien het aantal data wat er dagelijks ingepompt wordt is een dergelijke MB, GB, TB fout vast wel eens voorgekomen.

Ik blijf erbij, de werking, historie en database achterkant van de pricewatch en het commerciële model lijkt mij een leuk onderwerp voor de Podcast. Ben benieuwd hoeveel Tweakers hierover -wil/mag- vertellen, het is tenslotte 1 van de 3 financiële palen onder tweakers.net
Maar dan moeten er wel een 2.000 tb ssd bestaan, want de filter wordt niet gevoed op basis van de content van de shops (die doen enkel ean, prijs en voorraad).
Ongelofelijk die capaciteit die ze eruit persen. De rebuilds gaan wel ontzettend lang duren, en meerdere parity disks lijkt me zeer aan te raden... Geen raid5 of iets met single parity met deze jongens.
Beter nog, geen RAID met deze jongens.
RAID 1 is toch prima?
De URE rate is nog steeds op 10^¹⁴ gespecificeerd, in elk geval voor WD Red. Dat betekent dus dat je ongeveer elke 12TB die je leest een unrecoverable read error zou moeten verwachten. Die waardes houden ze al járen gelijk en is erg conservatief, maar strikt genomen, dat is wat in de specs staat. Dat betekent dus óók met RAID1 dat een rebuild (bij gebruik van traditionele RAID althans) je al niet meer er vanuit kan gaan dat je data nog in orde is.

Ik ben daar overigens niet zo bang voor. Onze SANs werken onder water met RAID6 of 60 (zelfs 5 is nog een keuze, eng!), en daar hebben we met grote arrays nooit gedoe mee gehad. Dat is wel SAS, die zijn wat beter gespect. Maar ook in een 12*10TB RAID6 array met sata wat we hebben draaien zou het statistisch gezien al mis moeten gaan. Daar hebben we initieel drie keer zelf een rebuild veroorzaakt maar ook daar geen enkel probleem.

Maar wees gewaarschuwd, 22TB is wel héél erg veel en als t volstaat duurt een rebuild / resilver met zfs net zo lang hoor. De data moet er tóch weer opgezet worden.
Maar wees gewaarschuwd, 22TB is wel héél erg veel en als t volstaat duurt een rebuild / resilver met zfs net zo lang hoor. De data moet er tóch weer opgezet worden.
22TB data / 265MB/s doorvoersnelheid / 60 seconden / 60 minuten = meer dan 23 uur continu werken in meest optimale condities.

Kans is groot dat die optimale conditie bij lange na niet gehaald wordt.

Dus pas na een weekje weer helemaal up and running na een crash zal geen uitzondering zijn.

Dan realiseer je pas waarom 'even backup terug zetten na crypolock', niet altijd in een dagje geregeld is.

[Reactie gewijzigd door djwice op 25 juli 2024 22:38]

Voor dit probleem hebben ze DRAID uitgevonden.
Ok, dus DRAID zorgt er voor, mits er voldoende andere schijven de data al hebben, dat het 'slechts' net iets meer dan 23 uur duurt.
Daar heb je toch filesystems als ZFS en BTRFS voor?
Afhankelijk van de hoeveelheid parity / redundancy kan RAID of ZFS daar iets aan doen. Maar stel het volgende: RAID 1, of 5, of ZFS met single parity. Een van je disks klapt en je gaat rebuilden / resilveren. Gemakkelijkste voorbeeld is hierbij RAID1, je overgebleven disk wordt heel simpel gezegd gekopieerd naar de nieuwe disk. Maar aangezien je geen dubbele parity hebt, is er bij een leesfout niet meer te verifieren of de gelezen data wel matcht. En dan ga je dus de boot in.
Je moet altijd rekening houden met de URE icm de hoeveelheid parity / redundancy die je inbouwd als je van je data houdt.
Haha ja dat ondervond ik ook laatst, dat 120TB kopieren toch nog best lang duurt... dan hoop je wel even dat er niks misgaat die 1-2 dagen
dat laatste klopt niet. Onlangs 85 tb resilver gedaan. Was op 7u klaar. Je moet je resilver priority aanpassen volgens mij?
Nee je hebt ook vast geen schijven van 85tb erin zitten. Maar bv van 16TB ofzo. Dan moet wel die 85TB gelezen worden maar je schrijft gewoon de capaciteit van 1 disk (mits die volledig in gebruik was). Dan zou je uitkomen op 16TB*1024*1024 = 16777216MB / zeg 230MB/sec / 3600 sec = ruim 20 uur. En dan ga je er al vanuit dat die disk non-stop zn sequentiële snelheid haalt, en dat gaat in de praktijk gewoon echt niet lukken. M.a.w. ik geloof best dat je een array van 85TB regerbuild hebt in 7 uur, maar dan stond er, als je telt met die 230MB/sec in het meest ideale geval zo rond de 5.5TB data op die spindel.

Priority houdt in de regel in de prioriteit van de rebuild ten opzichte van de reguliere data. Als je tijdens rebuilden data vraagt of schrijft van de array moeten er keuzes gemaakt worden, sneller klaar met de rebuild of sneller werken met de data op het array. Als je de array niet belast, zal het in de regel weinig uit maken of de prio of laag of hoog staat, want dan kan 'ie alsnog alle tijd besteden aan de rebuild. Maar de fysieke spindels worden er natuurlijk niet sneller van.
Ook een RAID1 array heeft met 22TB wel even een kluif met rebuilden.
Waarom moet je rebuilden? Met RAID1 heb je 2 disks met identieke data. Als 1 disk faalt heb je de ander nog. Of mis ik iets?
Als je een disk vervangt, is de RAID array niet meer correct. Het herstellen van de data (overzetten van de een naar de ander, dit is het rebuilden!) moet dan nog gedaan worden vooraleer de RAID array weer betrouwbaar is. Als je dat met 22TB gaat doen, zal dat dus de nodige tijd in beslag nemen.

Omdat dit in potentie veel schrijfacties heeft, wil je dit liever niet op een SSD, maar een gewone HDD is niet zo heel bijster snel, dus kort het veel tijd om te rebuilden. RAID 1 hoeft overigens niet eens per se 2 disks te zijn, al heb je wel een even aantal disks nodig. Hoe meer disks je in de array hebt, hoe langer het rebuilden duurt. Met dit soort disks en dan als mirror (want dat is RAID 1) ben je best lang bezig om die data te rebuilden.

[Reactie gewijzigd door CH4OS op 25 juli 2024 22:38]

.. RAID 1 hoeft overigens niet eens per se 2 disks te zijn, al heb je wel een even aantal disks nodig.
Een even aantal disks is niet nodig voor raid1, b.v. 3 disks kan ook.
Hoe meer disks je in de array hebt, hoe langer het rebuilden duurt. Met dit soort disks en dan als mirror (want dat is RAID 1) ben je best lang bezig om die data te rebuilden.
Welke raid je ook gebruikt, als er 1 disk kapot gaat die wordt vervangen door een andere (hot spare) moet gewoon die hele nieuwe disk worden geschreven.
Dank! Weer wat geleerd :)
Waarom zou je dat niet op een SSD willen? Elke cel wordt maar 1 keer geschreven, en bovendien kunnen SSDs heel veel schrijfacties hebben. De gedachte "ik mag op een SSD niet teveel schrijven" is echt niet rationeel.
Als tijdens het rebuilden een leesfout op een andere schijf optreedt heb je een probleem. Gebruikt dus ten minste Raid 1 met 3 schijven of Raid 6.
Daarom doe je regelmatig consistency checks op de schijven van je array, zodat die bij een volwaardige array optreden en meteen gecorrigeerd kunnen worden. Hierdoor ga je je kansen op een desastreus probleem verlagen, want je hebt toch onlangs nog al je data gelezen en waar nodig gecorrigeerd.
Of gebruik een modern bestandssysteem zoals ZFS. Dan zit je ook niet vast aan hardware vendors om de RAID-array beschikbaar te houden.
Als je geld over hebt ja :) RAID 1 is gewoon heel erg duur, in elk geval voor thuisgebruik.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 22:38]

Niet mee eens, hangt van de data af. Het vervangen van die data is meestal veel duurder. Ga je die vakantie over doen? Ga je je trouw foto's opnieuw maken? Die herinnering met je overleden oma krijg je ook niet terug (voorbeeld). Fijn dat die dus redundant staan opgeslagen.

Ik krijg regelmatig klanten wiens data zo corrupt is geworden door een schijf crash, dat ik een data recovery bedrijf moet inschakelen om het te herstellen (ja klanten die geen backups maken). En dan betalen ze tot 6-8 keer de prijs van het opslag medium. En dan hebben we het over particulieren.

Data is relatief goedkoop geworden. Enkel data als games die je met enkele klikken weer kunt downloaden sla ik nog non-raid oplossingen op.
Wacht even, RAID is geen backup ;) . Uiteraard heb ik belangrijke dingen zoals foto's al gebackupt.

De echt belangrijke dingen staan op mijn 'grote' NAS in een aparte folder. Deze heeft ook geen RAID, dat niet want ik heb 1 groot filesysteem dus dat zou lastig worden. Maar, die folder synct naar mijn 'kleine' NAS en die synct weer naar 2 offsite servers via rsync.

Maar er is een heleboel content op mijn NAS die niet zo belangrijk is maar ik wel graag wil bewaren. Echter kan ik deze via andere bronnen wel terughalen indien echt nodig. O-)

Ik zou wel graag RAID doen maar ik heb altijd net te veel data, en bovendien heb ik een mix van verschillende schijfgroottes. Daar ontkom je gewoon niet aan als je geen enorm budget hebt. Even 8 schijven vervangen is een klap geld in een keer. Ik heb ooit een NAS gehad met 6x500GB (heel lang geleden toen 500GB nog veel was) en daar had ik mezelf gewoon in een hoek mee geverfd. Upgraden kon wel maar dan moest ik 6x een grotere schijf kopen en daar had ik geen geld voor. Toen begon ik weer aan te kloten met externe HDD's eraan gehangen, en uiteindelijk heb ik die allmeaal opengebroken en in een nieuwe server gestopt.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 22:38]

Tja... Geen raid.... Dan maar een losse disk. Ben je bij een disk-error zeker alles kwijt.
Natuurlijk, als je disk in een groter opslag systeem gaat gebruiken moet je wel bewust kijken naar 'garantie' getallen. Daarmee is het in veel gevallen helemaal geen probleem om met 2 of 4 disks een raid 1 of raid 01 of 10 te gebruiken: Een al-dan-niet striped-mirror met al dan niet een return op de eerste of op de tweede schrijf actie.

Over een raid 5 of zo moet je iets beter/langer nadenken. Voor productie doeleinden moet je bewust om gaan met praktische redundancy door bijvoorbeeld voor meerdere parity disks te kiezen (raid 6 of hoe je dat ook noemt).

Voor mijn volgende privé nas zal er ongetwijfeld weer een 4 disk nas komen met raid 5 en 1 parity disk. Al weet ik nog niet welke maten en met welk budget, dat duurt nog wel even.
Tja... Geen raid.... Dan maar een losse disk. Ben je bij een disk-error zeker alles kwijt.
Als je online backups maakt (bijvoorbeeld ten behoeve van archivering) is dit helemaal niet zo erg. Het belangrijkste is dat je systeem up blijft, en dat je de disk moeiteloos kan vervangen. Bij 100 MB/sec is de disk in minder dan drie dagen weer gevuld (als je tot het maximum zou gaan, wat je idealiter nooit doet). Prima voor archivering, zeker als je meerdere online backup-locaties gebruikt.

[Reactie gewijzigd door The Zep Man op 25 juli 2024 22:38]

Het belangrijkste is dat je systeem up blijft
Hier is niks generieks over te zeggen en verschilt volledig per situatie.
Als de applicatie op 10 verschillende servers draait is het een systeem mogelijk minder belangrijk dan de data die die applicatie serveert.

(( edit: typo ))

[Reactie gewijzigd door lenwar op 25 juli 2024 22:38]

Ach waarom niet ? Ik gebruik 16TB disks, ongeveer 1.2PB in totaal.
Ik heb gewoon raid60 met parity groups van 10 disks , dus iedere set van 10 disks heeft 2 parity disks + nog eens dedicated hotspare.

Rebuild valt echt nog mee , gewoon genoeg parity groups

[Reactie gewijzigd door klakkie.57th op 25 juli 2024 22:38]

Heb je dat thuis? Ben wel heel benieuwd naar je setup dan, en energieverbruik. Indrukwekkend!
Niet OP maar Ik heb voor mijn eigen thuisserver ooit berekend + 'gemeten' (voor zover de software correct is) wat het gebruik van alles afzonderlijk is:

180W gem. heel het jaar door.
32W gem. per fysieke CPU (10C/20T) [wel aan de hoge kant zeg.., als iemand optimalisatietips heeft voor een 2640v4 hoor ik het graag! Ik heb alles al in energy saving etc]
1.5W gem. per RAM DIMM (32GB RDIMM ECC)
3.0W gem. per HDD (10TB schijven in RAID6)
3.0W gem. per FAN (x4)
De rest van de 56W zal naar Mobo, NIC (max 19W), IPMI BMC, PSU's (+fans) zelf, RAID adapter (max 14W), RAID+NIC fans, verliezen, etc moeten gaan.

[Reactie gewijzigd door grasmanek94 op 25 juli 2024 22:38]

Oh ik meet het zelf gewoon (met WiFi stekkerdozen). Hoeveel schijven heb je dan?

Dat doe je wel netjes. Mijn NAS is 100W in idle, en dat is met 8 schijven (verschillende groottes, geen RAID om die reden). En die is veel zwakkere specs (E3-2220 L v3 geloof ik). Het zijn 2 HP Microserver G8's met een glasvezel kabel ertussen (fibre channel 4Gb), dus elk 4 schijven wat ook hun maximale capaciteit is. Ik vind 100W idle echt heel veel.

De iLO van die dingen alleen al doet al 5W als hij uit staat 8)7. Vandaar ook die wifi stekkerdozen. Ik zet die grote NAS alleen aan als ik hem echt nodig heb.

Ik heb ook nog een andere Microserver G8 die wel altijd aan staat, daar zit 3x 5TB in. Die doet 45W ongeveer in "idle" (hij is nooit echt idle omdat hij mijn camera's continu opneemt en wat dockers draait).

Ik wou dat er een goed RAID systeem was dat met verschillende groottes overweg kan. Ik heb wel eens naar UnRaid gekeken maar dat was het net niet. Bovendien wil ik mijn eigen OS draaien, geen compleet NAS OS dat dichtgetimmerd is. Dus het moet echt een filesystem zijn dat gewoon op Linux of FreeBSD werkt.

Ik wil ook block checksumming. Ik snap niet dat bijv. ZFS voor de parity van schijven niet gewoon '0' kan rekenen voor de missende capaciteit van de kleinste schijven. Maar helaas.. Bovendien heb ik nu het probleem dat ik al mijn data ergens moet laten als ik het zou veranderen. Ook wel eens met SnapRaid bezig geweest maar dat was enorm traag en moeilijk te verifieren.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 22:38]

Er zitten 8 schijven in de RAID6 array (80TB raw, 60TB usable). 2 fysieke CPU's, 16 DIMM's.

De L versies van CPU's hadden denk ik lager verbruik, maar ik weet niet hoeveel dat in de praktijk exact zal zijn. Je Idle wattages zijn wel nice! (maar daar zijn de specs ook wel naar denk ik).
Dat klopt ja, de TDP is 17W. Daarvoor heb je wel maar 2 cores! Dus in jouw geval zou je echt enorm veel inleveren. 180W voor jouw specs is behoorlijk zuinig (ik neem aan dat je met 20 cores wel meer doet dan alleen NAS gebruik).

Maar daarom is de idle performance bij mij dus zo 'laag' (al vind ik 100W helemaal niet zo laag eigenlijk). Wel heb ik dus twee hele servers draaien die een geheel vormen. En ik heb geen RAID controller, ik gebruik de onboard in losse SATA mode.

Het is een beetje een rare opzet maar die Microserver G8's zijn redelijk briljant (iLO, mooie behuizing met losse bays) en ze werden aan het eind echt voor een appel en een ei verkocht. Met cashback van HP waren ze niet meer dan 140 euro nieuw.

Daar heb je nog niet eens een 2-bay synology voor :D

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 22:38]

Ja ik zat al even te rekenen en je zit zo te horen al over de 100 disks, dus dat is voor thuis toch niet echt haalbaar meer tenzij je in een datacenter woont :') Stomme vraag van me.
Daarom wil je ook een slim filesystem dat niet gewoon dom een complete disk gaat rebuilden.
Kan je aub wat voorbeelden noemen? Gebruik nu thuis ZFS maar sta zeker open voor nieuwe ontwikkelingen!
Unraid is een leuk systeem maar als er een disk kapot is, of je wil je array gaan upgraden zit je wel echt gebonden aan die gruwelijk lange rebuild tijd.
Minder dan een dag (Unraid met 160TB hier)
Afgelopen jaar 3 van de 8 4TB disken vervangen in mijn unraid systeem. Preclearen van de nieuwe disk (format & surface check) duurde een dag, en de reconstruction vervolgens ook nog een uur of 14. Lang? Ja, wellicht. Maar het rebuilden van een dergelijke opzet in een RAID5 NAS zou minstens net zo lang duren, met een grotere kans op falen dan bij Unraid.
ZFS. Denk dat je wel goed zit.
ZFS. Denk dat je wel goed zit.
ZFS is prima, maar deze disken zijn dat absoluut niet.
De WD Red Pro 22TB haalt volgens Western Digital een mtbf van een miljoen uur en krijgt een rated workload van 300TB per jaar.
Stel je doet eenmaal per week een scrub van je hele array, wat opzich niet vreemd is om te doen. Dan heb je dus elke week een workload van 22TB, iets meer als je overhead meerekent. Ofwel 52x22=1144TB per jaar enkel en alleen om je array te scrubben. Dan heb je er functioneel verder nog niets van gelezen of geschreven en zit je toch al bijna op 3x van de max workload.

De betrouwbaarheid qua max workload van deze disken is veel te laag voor de capaciteit die ze hebben.
Dit klopt niet helemaal een scrub word alleen gedaan op de data. Je disken zitten nooit helemaal vol. Bij ZFS moet je dat zeker niet doen.
Dit klopt niet helemaal een scrub word alleen gedaan op de data. Je disken zitten nooit helemaal vol. Bij ZFS moet je dat zeker niet doen.
Koop jij 22TB disken om ze leeg te houden? Zelfs al zitten je disken maar voor de helft vol dan ga je al ruim over de 300TB workload per jaar heen enkel en alleen voor een wekelijkse scrub.
Die keuze heb je niet altijd... Als je je eigen storage server bouwt natuurlijk wel. Maar als je je disk in bv een synology stopt (voor huis tuin en keuken gebruik) maar ook in een 'echte' NAS of SAN, dan zit je natuurlijk vast aan de onderliggende techniek. Zolang je maar voor voldoende redundancy zorgt vind ik persoonlijk RAID nog niet zo'n probleem. Ook voor ZFS geldt, als je array hélemaal vol staat en je moet een 22TB disk rebuilden, duurt het schrijven van die 22TB net zo lang als met regulier RAID. De disk zelf wordt niet sneller van ZFS of wat dan ook. Heel misschien is het dan met RAID zelfs sneller, omdat een rebuild dan echt sequentieel schrijven is van voor tot achter (behoudens de writes die tijdens de rebuild gedaan worden naar de array). Bij ZFS zou dat wel eens anders kunnen werken.
Nee rebuilds gaan per definitie net zo snel, want met zoiets wil je geen parity systeem meer draaien maar gewoon raid 1/10

Doordat de dichtheid hoger is gaat de ruwe transfer snelheid ook evenredig omhoog 😉
Ongeveer met de wortel van de dichtheid denk ik, want het aantal sporen neemt ook toe.
Juist wel denk ik; als je URE lager is dan de grootte van één disk (in geval van RAID1) en je moet rebuilden, is er dus geen enkele mogelijkheid om vast te stellen of de gelezen data ook wel correct is. Bij double parity zoals bv RAID6 heb je dan altijd nog een parity over, dan heb je veel minder last van de URE.

Nou is die URE erg conservatief gekozen, gewoon kwestie van indekken door de fabrikanten. Maar ALS je met RAID1 tegen een URE aanloopt, helaas, dan flipt er dus gewoon een bit om tijdens je rebuild. Als er daarna een keer een scrub of media validation gaat lopen, zal je array waarschijnlijk op de originele disk wel weer de juiste waarde lezen, maar die matcht dan niet met de mirror-disk. En wederom, zonder parity kan het systeem niet vaststellen wat de originele data was. Dus: in theorie niet veilig voor je data, hoe groter de disks, hoe groter de kans hierop.
die 26 TB is SMR, shingled dus dan liggen de data tracks deels over elkaar heen. Dat is helemaal niet geschikt voor raid/parity setup.
In artikel staat

Western Digital introduceert drie verschillende nieuwe 22TB-hdd's, die allemaal gebruikmaken van conventional perpendicular magnetic recording, oftewel cmr.
Misschien even verder kijken dan je neus lang is om te zien waarop ik reageer.
neus verlengt :) stond in artikel waar naar verwezen wordt 8)7

[Reactie gewijzigd door extraman op 25 juli 2024 22:38]

in een home NAS kan je tegenwoordig evengoed enterprise disken steken zoals de Ultrastar of EXOS. Prijzen daarvan zijn de laatste jaren gekelderd, zelfs goedkoper dan zogenaamde "NAS" HDD's.
In die van mij steken Ultrastars, die sinds 2017 24x7 draaien zonder enig probleem.
Vind je dit geen riskante oplossing? In de zin dat als 1 disk failed, je een volledige rebuild moet draaien op de 2e disk die dan waarschijnlijk ook op het eind van z'n leven zit?
Ikzelf draai op disks waar (minimaal) 2 jaar verschil in leeftijd zit, juist om deze reden. Ok, nog altijd geen garanties, maar die accepteer ik ;)
Als je data alleen op dat RAID staat dan is het riskant.

Met een back-up achter de hand is het gemak:
-Als een schijf uitvalt blijft het array beschikbaar.
-Als het mee zit kun je het array rebuilden met een nieuwe schijf.
-Als het tegen zit kost het wat meer tijd/moeite om de back-up terug te zetten.
Daarvoor heb je een externe backup naar een andere NAS of cloud. Als de boel af fikt ben je ook alles kwijt, ook als er 2 jaar tussen zit :+ Riskant is dus pas alles op 1 fysieke locatie opslaan.

(en uiteraard offline de belangrijkste dingen ivm ransomware... lastig allemaal soms 8)7 )
Bij een nas en zo gaat het niet om de potentiële kwaliteit die ooit achter 'enterprise' titels zat. Maar het gaat er bij nas- systemen om hoe de disk reageert als er iets aan de hand is.

Een enterprise zoals google gebruikt bewust gewoon veel van de goedkoopste disks en als het zo uit komt van alles door elkaar. De opslag is in ieder geval dubben en soms zelfs meervoudig, afhankelijk van het gebruik. Bij storingen wordt dat snel gedetecteerd en gaan de disks er ook snel weer uit. De term 'enterprise' kan met die kennis ook betekenen dat je snel een nieuwe krijgt als er iets mee mis is maar dat de kwaliteit misschien wel minder is omdat je er bij levering alvast een paar reserve krijgt.

Bij mijn thuis systemen wil ik dat de enkele disk in mijn computers gewoon blijft proberen tot de sector is gelezen. Bij mijn nas met raid-disk-opstelling wil ik dat de disk het lezen indien nodig betrekkelijk snel opgeeft zodat de raid kan aangeven dat er iets met de disk aan de hand is en de gegevens uit de redundancy/parity kan halen. Daarom gebruik ik wel echte nas-disks in mijn nas.
Heb ook net een nieuwe nas gekocht met 5 x 16TB WD Ultrastar 550 in Raid 5.
Werkt supper en stiller dan ik had verwacht.

Mijn oude Synology had last van de welbekende c2000 cpu bug
Die overigens vrij eenvoudig te fixen is. Mijn ouwe DS1215+ had er ook last van, na een powerdown gewoon niet meer aan te krijgen. Maar een weerstand tussen een specifieke pin en 0 en 't ding draait alweer jaren vrolijk door.
Heb idd ook een weerstandje er op gesoldeerd en dat werkte gelukkig, toch is dat niet altijd het geval en bied het zeker geen garantie.
Buiten dat was ik gewoon toe aan een nieuwe nas met minder schijven maar wel meer capaciteit .
Laatst was er een leuke actie bij Western Digital, heb zodoende 2 schijven van 20TB gekocht voor 750,- totaal en ook nog eens gebruik kunnen maken van CashBackXL.

Ik verwacht dat ik over een jaar of 5 pas weer nieuwe schijven nodig heb en tegen die tijd zitten we waarschijnlijk al weer richting aan de 30TB schijven ;)
Nog een tip.. Maak een account, voeg je producten toe aan winkelwagen en verlaat de pagina. Binnen een a twee dagen krijg je een kortingsbon voor nog meer korting. Gebruik dan ook je cashback.

Cashback op korting op korting.
Uiteraard ook de 10% nieuwsbriefkorting meegepakt, zodoende de lage prijs ;)
Pfoe, zie net dat de 20 TB zo tussen de 460 en 480 euro ligt dus de 22 TB versie zal denk ik nog wel iets hoger liggen qua prijs. Omgerekend valt het mee en betaal je per TB meer voor b.v. een 8 TB maar evenzogoed blijft het een boel geld. Ook wel het idee dat er zoveel data op 1 medium staat zou ik zelf niet zo prettig vinden.
Het zal dan ook vooral situaties betreffen dat de ruimtewinst om 22tb in 1 bay kwijt te kunnen tegenover meerdere bays waar dit product in eerste instantie veelal zou worden toegepast; als je kijkt naar serieuze NASsen of SANs zal dat verschil vrij snel aardig groot kunnen worden; tel daarbij mogelijke prestatiewinst en reliability bij op als je een viertal van dit soort schijven in raid1+0 (bijv.) Draait en dan 44tb ruimte hebt ipv de lagere prestatie, reliability, of totaalcapaciteit dat je met 4 8tb schijven zou halen :)
Dus wss niet interessant om een klein aantal schijven mee te vervangen, maar als je met exact dezelfde bays meer capaciteit performance of reliability kan krijgen lijkt het mij duidelijk wie er wel voordeel mee kan doen :)

Desnoods in het voorbeeld om met 1 extra disk een nagenoeg volledige kopie van een ander array van bijv 3 8tb schijven in de coldstorage te kunnen hebben :)

[Reactie gewijzigd door Annihlator op 25 juli 2024 22:38]

Desnoods in het voorbeeld om met 1 extra disk een nagenoeg volledige kopie van een ander array van bijv 3 8tb schijven in de coldstorage te kunnen hebben
Als backupdisk kan ik mij er wel iets bij voorstellen en dat zeker handig kan zijn om dan de inhoud van meerdere harddisks bij elkaar te hebben staan.
Niet €460, maar €433.
En als ik me niet vergis is het recent €390 geweest voor €20 TB.
Wanneer ik in de Pricewatch kijk staat er bij mij toch echt vanaf 469 bij de WD-Gold 20 TB en zelfs 486 bij de WD Red Pro 20 TB.
De bewering was: 20 TB.
Op dit moment: voor €421 heb je 20 TB:
https://www.sicomputers.n...b-sata-iii-id-833172.html
Zomg wie heeft er nou 22TB opslag nodig lol
Het gaat hard als je 24 uur surveillance opneemt van verschillende camera's met zelfs 2 weken rententie hoor.
640K Ought to be Enough for Anyone :P
...en wie heeft er ooit meer dan 640 kB intern geheugen nodig... en er is ooit gezegd dat er 'ooit' ern wereldmarkt voor 5 computers zal zijn...
Ik zou 2-3 van deze schijven nodig hebben voor de backups van m'n complete DVD/HD-DVD/BD-collectie. Iets wat ik op termijn ook wil doen, een paar van deze schijven in een NAS en daar de hele collectie op zetten.
Wat ik eruit mocht opmaken uit een vorig nieuwsbericht is dat deze (voorlopig) alleen beschikbaar is voor een aantal klanten en dus niet voor consumenten. Dat haal ik (of ik lees er over heen) er niet meer uit uit dit bericht.

Ja, ik lees dat het voornamelijk voor datacenters is bedoelt, maar dat wilt niet zeggen dat consumenten hier niet aan zouden moeten kunnen komen. Maar in het aangehaalde bericht werd eerst gezegd dat het in de zomer geleverd wordt aan een aantal klanten.

Dus mijn vraag, komen deze ook beschikbaar voor consumenten?
Zeg dat je van Tweakers bent , krijg je gelijk antwoord
https://www.westerndigital.com/nl-nl/company/newsroom
Mooie schijven van HGST. :Y)
Weet iemand waarom sustained bandbreedte niet evenredig omhoog gaat met de disk capaciteit? Lijkt me toch redelijk 1 op 1, of komt het omdat er steeds meer lees/schrijf fouten voorkomen die dubbel gecheckt moeten worden door de density?

[Reactie gewijzigd door Marctraider op 25 juli 2024 22:38]

Zou kunnen dat de dichtheid vooral toeneemt omdat de tracks (1 rondje met n sliert aan bits) niet meer data bevatten, maar omdat er meer tracks op een platter zitten (omdat ze dunner zijn, of dichter op mekaar gepakt).
Ik dacht dat er sws niet parallel gelezen wordt van meerdere platters, omdat dat veel teveel mechanische precisie vereist, dus daar boek je ook geen snelheidswinst mee.
Alweer een "3,5" HDD. Wanneer komt er een laptop formaat HDD uit met meer dan 5TB opslag? Er passen letterlijk 4 laptop HDD's in het formaat van een "3,5" HDD.
Daar is zo goed als geen vraag naar. Als je zoveel ruimte nodig hebt op je laptop neem je gewoon een paar externe schijven mee
Als je zoveel ruimte nodig hebt op je laptop neem je gewoon een paar externe schijven mee
Ja, da's lekker handig... ;)
Nog afgezien van het feit dat externe harddisks sneller stuk gaan. Ik heb er hier 3 kapotte liggen.
Echt laptop formaat HDD's stoppen al bij 2TB. Een 2.5" schijf van 5TB is 15mm dik, en dat heeft misschien maar in een enkele laptop gepast, meestal stoppen laptops wel bij 10mm.
Voor de rest denk ik dat er gewoon niet voldoende marktruimte meer gezien wordt om 2.5"-schijven door te ontwikkelen. SSD's zijn betaalbaar genoeg geworden, en voor goedkope data-opslag is 3.5" altijd al de betere keuze geweest. En ook bij 3.5" zie je al dat de echte consumentenmarkt daar is verdwenen, je ziet vooral schijven gericht op zakelijk gebruik die zo hier en daar ook nog wel bij consumenten belanden.

Op dit item kan niet meer gereageerd worden.