WD start levering 24TB-hdd's met cmr voor datacenters en enterpriseklanten

Western Digital is begonnen met het leveren van zijn eerste 24TB-hdd's op basis van conventional magnetic recording. Het bedrijf komt ook met nieuwe smr-hdd's van 28TB. De nieuwe drives zijn vooralsnog vooral bedoeld voor gebruik in datacenters.

Western Digital introduceert zijn 24TB-cmr-schijf onder andere als Ultrastar HC580-variant. De hdd beschikt volgens de fabrikant over tien platters van ieder 2,4TB. De HC580 beschikt onder meer over 'verbeterd' OptiNAND. Daarop wordt metadata opgeslagen voor een hogere datadichtheid. Het moet ook de betrouwbaarheid van de schijven verhogen, aangezien 'kritieke metadata' op het nandgeheugen staat in het geval van stroomuitval. De eerste versie van de HC580 beschikt over een SATA-3-interface. Daarmee haalt de hdd transferrates van maximaal 298MB/s, claimt de fabrikant in een datasheet. Begin volgend jaar komt WD met een SAS-variant.

De fabrikant komt ook met een 24TB-crm-hdd in zijn WD Gold-serie voor enterpriseschijven, schrijft WD in een persbericht. Ook deze hdd biedt OptiNAND. Het bedrijf noemt ook bij deze schijf transferrates van 298MB/s. Volgens de fabrikant biedt die hdd een gemiddelde tijd van 2,5 miljoen uur tussen storingen. De schrijf kan volgens WD tot 550TB per jaar wegschrijven.

Verder komt Western Digital met een nieuwe Ultrastar HC680. Die schijf beschikt over shingled magnetic recording, maar heeft 28TB opslagruimte. Smr is trager dan cmr doordat de datatracks op de hdd-platters deels over elkaar liggen bij smr. Dat kan hogere capaciteiten opleveren, maar ook lagere lees- en schrijfsnelheden, vooral bij veel willekeurige schrijfacties. Volgens WD zijn deze HC680-schijven dan ook vooral bedoeld voor bulkopslag, online back-ups, videobewaking, cloudopslag en andere toepassingen waarbij de data niet vaak wordt geraadpleegd. WD heeft nog geen concrete specificaties van de HC680 online gezet.

De fabrikant deelt ook geen adviesprijzen voor de nieuwe schijven. Western Digital stelt de Gold-variant beschikbaar via zijn distributiekanalen. De Ultrastar-varianten worden nu alleen geleverd aan bepaalde klanten.

Western Digital 24TB- en 28TB-hdd's

Door Daan van Monsjou

Nieuwsredacteur

16-11-2023 • 15:29

119

Lees meer

Reacties (119)

119
119
90
2
0
0
Wijzig sortering
Ik kan niet wachten op 30TB HDD's die een "oke" prijs en prima performance hebben. Dan kan ik mijn 8x10TB RAID6 door 4x30TB RAID6 vervangen. Gewoon voor de sport om een zuinigere NAS te hebben. Nog ruimte zat.

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 02:41]

Ik denk dat je een echte grote klapper mbt zuinigheid kunt maken wanneer we goede arm processoren hebben voor de nas.

M3 ziet er goed uit, er zijn vast bedrijven die het veel beter kunnen dan apple
Ik heb voor mijn nieuwe server de tijd genomen om alle veranderingen na te meten (elk 4-24u lang):

PSU+PDU: 5W constant
Motherboard (H12SSL-i, IPMI actief, geen CPU): 10W
RAM (8DIMMs x 32GB): 22W (idle in ubuntu, nagemeten vanaf 2 dimms, daarna 4, daarna 8, ong 5.5W per 2 DIMMs erbij steeds)
CPU (idle in ubuntu, 7302P): 35W (gededuceerd door totaal te pakken, en dan van totaal PSU, PDU, MB en RAM eraf te halen)
10G NIC (X520-DA2 + 1 SFP+ fiber module): 15W
RAID NIC (ASR8805): 16W
8x HDD 10TB: 22W

125W idle totaal mijn server.

Het meeste gewin zie ik in van die PCIe kaarten af komen en helft van disks, als alles in-mobo kan en MB zou evenveel blijven gebruiken.. besparing 42W. Dat zou al meer dan de CPU zijn. Stel je kan de CPU 50% efficienter maken, dat zet nog geen zoden aan de dijk bij mij.. 17.5W.
Minder RAM kan ook maar 256GB is zo fijn.. en ik gebruik het ook. Ik had 512GB (op mijn oude MB+2CPU's) maar ben daar van af gestapt ivm niet genoeg utilisatie. Uiteindelijk heb ik door een dure upgrade en dit experiment (700EUR MB+CPU) maar 15W bespaard, niet zo denderend dus. Hiervoor dus 256GB in een X10-DRH-CLN4 + 1x 2640v4 gehad (was iets van 140W gem. idle). Met 2 CPU's en 512GB RAM was dit ~180W idle. Met CPU's besparen valt dus vies tegen.. maar alle kleine beetjes helpen.

Een ding.. mijn server is wel veel "snappier" en sneller.

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 02:41]

Ik ben wel benieuwd heb je voor je 10G nic ook gekeken welke invloed dit had op je cpu verbruik?

Bij mij schoot het verbruik omhoog toen ik een 10G PCI-e kaart (SUPERMICRO AOC-STGN-I2S met intel 82599ES chip) toevoegde. Ook als de poorten ongebruikt waren. Mijn oog viel toen al snel op de Mellanox ConnectX-3 kaarten, maar na een zoektocht kwam ik dit topic tegen:

https://forums.servetheho...-with-aspm-support.36817/

Lang verhaal kort, de oudere 10G nic's die tweedehands goed verkrijgbaar zijn werken niet goed samen met de power saving functionaliteit op "moderne" cpu's (specifiek de c-states) Een moderne NIC (X710 bijvoorbeeld) zou dus het energieverbuik van allebei flink kunnen verlagen.
Maar met een X710 krijg je er weer packetloss voor terug. Wat een vreselijke kaart is dat zeg!
Ik heb ze gebruikt in een project, waarin we 4 pc routers hebben, elk met een X710 kaart. Elke router had constant 2 tot 5 procent packet loss. Met VPP ging het beter, maar pas goed op met deze kaarten
Een vriend van me heeft 2 X710’s. Ook daar zit loss. Daar draait geen VPP.
Kennissen van me rapporteren zelfde loss cijfers met de X710.

Persoonlijk zou ik elke andere kaart kiezen dan een X710
ASUS PRIME Z790-P D4
13th Gen Intel® Core™ i5-13600K @ 5100 MHz (gaat een stuk sneller bij sabnzbd repairs :P)
Memory: 64 GiB DDR4 2x 3200 32 gb
850 corsair platinum (model vergeten)

Pci devices
GeForce GTX 1050 Ti (9w idle)(forwarded naar VM)
LSI SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon]
Fresco Logic FL1100 USB 3.0 Host Controller (forwarded naar VM)

disks
Samsung SSD 980 PRO 2TB
Corsair MP400 4TB
8x HDD 18TB / 8TB drives, raid 0 XFS(geen belangrijke spullen op de nas)

OS:
Unraid

met de disks spun up 115w
met de disks spun down 69w (nice)

ik denk denk dat mn power hungriest device mn cpu is. dus het halveren van mn cpu powerdraw veel zal helpen. maar wel verbaasd dat jouw machine even veel verbruikt tov die van mij. ik had die van jou eenstuk lager verwacht. het zal de 10gbit nic vast zijn
Vwb dat laatste: want? Bij Apple werken minkukels?
niet hun core business. en het is een bedrijf dat torenhoge marges de prioriteit geeft.
uuh Apple heeft een volledig eigen chipdivisie wiens core business juist processors maken is. En dat dan ze best aardig voor een relatief nieuwe speler op de processoren markt.

De hoge marges heeft ze meer dan genoeg slagkracht gegeven om bij een aantal chip ontwerpers mensen weg te kopen voor de chipdivisie
> een volledig eigen chipdivisie
Uh, nee. Ze bakken ze bij TSMC (of kopen daar prio-1 plekken in) en nemen referentieontwerpen van ARM af en tweaken die. Dat is een heel ander idee dan eigen processors maken.
Dat is sowieso het hele idee van Arm om een ontwerp aan te passen naar je eigen behoeften.
Daarnaast bakt AMD ook niet zijn eigen chips.
Dus Nvidia, and, Qualcomm, en zelfs Intel doen het ook niet volgens jou?
ze doen het relatief goed voor een nieuwe speler is een understatement. maar het is niet hun core business.

de hoge margers verdwijnen denk ik vooral in de zakken van apple.
Maar als het gaat om tweaken aan je eigen nasje, dan zal een walled overpriced garden device van apple nooit de beste keuze zijn.

Bovendien hebben bedrijven zoals Intel, Qualcom, AMD iets goed te maken met deze new kid on the block

hey en voor mij is het enkel eigenbelang, biggest bang for the my buck
Zoals hierboven ook vermeld wordt zit je dan wel met een flinke rebuild tijd als er eentje faalt, dat doet mij toch meer kijken naar 18-20TB/schijf NAS in RAIDZ2. Kunnen er 2 schijven falen en doet alles het nog.

Met 30TB duurt het 2 dagen om te rebuild en.
Het risico voor hem valt wel mee, aangezien hij zijn 24x4TB als backup kan inzetten.
8x10TB*

Maar hij zegt het te doen voor een minder verbruik, oftewel vervanging. Dus beide vebruikt alleen maar meer energie.
Welnee. Die gemaakte backup vraagt helemaal niets meer. maar grappig, ik had de 24x4TB van aadje93 in gedachte.
Het verhaal over die hoge rebuild tijden hoorde ik ook al toen de 1e 10GB disk uitkwam.
RAID is ook geen backup, dus je moet sws een vorm van backup hebben van je data buiten de bescherming die RAID biedt bij uitval van een disk.

In combi met Patrol Read en Consistency Checks is 't naar mijn idee niet zo'n issue.
Hier zit ik idd nog op een verouder 24x 4tb raid10 setup (truenas) maar met zulke schijven in z2 plus een ssd volume voor iscsi met zfs eronder is wel heel aantrekkelijk aan het worden
Ik hoop dat de prijzen nu eindelijk ook eens een beetje omlaag gaan.

De prijs per gigabyte is al jaren aan het stagnereren :-( En zelfs aan het stijgen. 5 jaar geleden kocht ik een 14TB voor 229 euro. Nu is dat ondenkbaar.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Oh ja inderdaad nice. Ik heb al een tijdje niet gekeken omdat het zo duur was en een stijgende trend. Bovendien wil ik juist naar grotere modellen toe (mijn NAS is permanent vol en ik heb 90TB :) )

Maar alsnog is dat nog hetzelfde als de prijs van 5 jaar geleden :'( In die tijd waren trouwens desktop modellen (met USB interface) veel goedkoper dus ik brak dan de behuizing open en haalde de schijf er uit (wat bijna altijd gewoon een enterprise-klasse drive was).

Heb je zelf toevallig ervaring met Toshiba? Ik heb nu alleen Seagate en WD.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Deze toshiba's zijn uit de serie die vroeger Hitachi HGST disks waren, ik ben er heel blij mee en mijn NAS zit vol met deze disks (maar dan de 8 en 16T versies)

Ze doen 't ook erg goed in de BackBlaze rapporten.
HGST is toch van WD tegenwoordig ? Lijkt me niet dat Toshiba met hun nieuwere MG schijven dezelfde schijven maakt als Hitachi HGST toen deed.
Correct, HGST is overgenomen door WD, maar de 3.5" drive-business ging naar toshiba:

Hitachi Global Storage Technologies[4] (HGST) – 2002 merger of Hitachi and IBM disk drive businesses, sold to Western Digital in 2012 with part of 3.5″ manufacturing facilities going to Toshiba[15][16][17][18]

Bron ( https://en.wikipedia.org/...t_hard_disk_manufacturers , https://www.anandtech.com...a-complete-hitachi-buyout )
Western Digital will be allowed to acquire Hitachi’s 2.5” and SSD businesses, but not the 3.5” business. Instead Western Digital will be selling that business to Toshiba – factories and all – along with granting licenses for the necessary patents, which would allow Toshiba to effectively continue in the 3.5” market from where Hitachi left off. This would firmly establish Seagate, Western Digital, and Toshiba as the 3 major players in the hard drive business across all product segments.

[Reactie gewijzigd door markjanssen op 23 juli 2024 02:41]

Hm HGST ben ik niet echt een fan van. Ik weet nog de oude DeathStar :P

Maargoed inderdaad, backblaze vertrouw ik wel (mits ze voldoende hebben van het betreffende model).
90 TB vol :? Met wat dan? Met 20.000 films ofzo? (serieuze vraag).
Van alles. Veel films en series ja, geen idee hoeveel. Zeker omdat tegenwoordig de streaming zo gefragmenteerd is, ik heb een tijd alleen maar gestreamd maar ik word nu gek van al die aparte diensten. Dus ik ben weer helemaal terug op alles in eigen beheer. Al die streamingdiensten en platformen (Android TV, Fire OS) zitten nu ook vol met reclames.

Maar ook veel andere dingen. Unity projecten, systeem backups, ISO's, enz. Het tikt allemaal aan. Alleen mijn persoonlijke files zijn al 10TB ofzo.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Ben je niet bang dat als zo'n grote drive faalt, je echt enorm veel data kwijt ben?
als je fatsoenlijke RAID heb, dan maakt het niet uit of die drive groot of klein is toch? Mensen zeiden exact ditzelfde ook toen de eerst 1GB drives kwamen, en weer bij de 100GB en 1TB drives, en nu bij 24TB schijven.

Als je 200TB wilt schrijven, is het misschien wel veiliger om 12 24TB schijven te gebruiken dan om 24 12TB schijven te gebruiken toch? De kans DAT er iets kapot gaat wordt alleen maar groter als je er meer in dienst hebt.
Ja, dat maakt wel uit. Op een gegeven moment worden de rebuild times van de RAID array zo lang dat de kans bestaat dat er een tweede schijf omvalt voor de rebuild van de eerste klaar is. En weg is je RAID-5.

En ja, dat is niet denkbeeldig. Wat dat betreft is een hele stapel kleine schijven dus beter dan een paar grote.
Daarnaast moet je ook rekening houden met URE's (Unrecoverable Read Errors). Met niet enterprise schijven is de kans best groot dat je die tegen komt tijdens een rebuild. Helemaal leuk als je schijven hebt zonder TLER (time limited error recovery). Geheel geen ervaring mee hoor O-)

Bij consumenten schijven ligt die maximum error rate gewoonlijk onder de 1 error per 10^14 gelezen bits, dat is dus ongeveer 1 error per ~11TB. Bij enterprise schijven ligt dat gewoonlijk onder de 1 error per 10^15 gelezen bits.

Vroeger kon je nog wel af met een RAID-5 of 6 array met consumenten schijven. Het risico bestaat echter dat die schijven door de RAID controller uit de array gekickt worden bij een URE. Zonder TLER blijft een schijf langere tijd proberen de betreffende bit te lezen terwijl de controller de schijf op een gegeven moment markeert als defect aangezien er geen reactie komt. In een RAID array is het immers mogelijk om de URE te herstellen via de redundancy dus is het gedrag van een consumenten schijf niet handig. En die kans op URE's is dus best aanzienlijk bij het formaat van arrays met moderne consumenten schijven.

Nu is dat met enterprise schijven, icm TLER allemaal wat minder snel een probleem. Maar je wilt er wel rekening mee houden. Mochten er onverhoopt toch 2 schijven uitvallen in je RAID-6 array, dan kun je een URE ook niet meer lekker herstellen. En als we die 10^15 nemen, zeg iedere ~113TB, dat is ook niet meer zo'n idioot groot getal als je een array maakt met 24TB schijven.

Het zijn allemaal afwegingen, als je bulk data niet zo kritisch is dan is een URE dat misschien ook niet. Is het dat wel dan heb je als het goed is ook een backup. Overigens typ ik dit even uit mijn hoofd, ik heb mij eigenlijk al vrij lang niet meer verdiept in de ontwikkelingen op dit gebied. Sowieso kan ik mij voorstellen dat niet erg veel mensen nog hardware RAID-5/6 draaien. Eerlijk gezegd heb ik geen idee hoe de diverse software oplossingen met URE's omgaan.

[Reactie gewijzigd door Aapenootjes op 23 juli 2024 02:41]

Daar zie je overigens een historische denkfout in RAID - begrijpelijk in de tijd van 1 GB schijven, maar niet meer logisch in de tijd van 24000 GB schijven. Je wil niet een héle disk uit de array gooien puur en alleen omdat één van de 6000000000 sectoren onleesbaar is. De andere 5999999999 sectoren zijn vrijwel zeker nog wel leesbaar, in elk geval leesbaar genoeg voor een rebuild.
De problemen die je beschrijft kun je voorkomen door Patrol Reads en Consistency Checks. Patrol Reads leest elke bit van de disk zodat je read errors vroegtijdig tegenkomt (dus al voordat er een disk sterft). Met Consistency Checks kom je eventuele afwijkingen tegen (bv. een mirror set waarbij de data niet 1:1 identiek is).

Zeker Patrol Reads zijn op arrays t.b.v. bv. video's of muziek belangrijk, omdat je waarschijnlijk veel data hebt die je misschien jaren niet aanraakt.
En weg is je RAID-5.
Je weet dat er ook RAID-6 bestaat?
Natuurlijk. En nog veel meer andere opties ook. Maar het feit blijft. Been there, done that.
Al mijn kritische bestanden (persoonlijke files, databases, configuratie bestanden) worden 2*/dag gesynct naar Backblaze. Een restore is dan iets trager, maar nog steeds erg pijnloos (uiteraard af en toe eens testen, dan weet je dat het werkt en ben je er vaardig in als het noodlot toeslaat).

Als de RAID faalt en je bent series en films kwijt is dat een kwestie van automatisch te laten downloaden. Zaken die toch voor eeuwig op het internet staan hoef je geen 3-2-1 backup van te nemen.
Dat kan nog vies tegenvallen. Vooral jaren 90 series beginnen langzaam minder beschikbaar te worden.
En je punt is? :? Ook bij een RAID-6 array heb je een heel lange rebuild time bij een defecte disk. Feit blijft als je data hebt die je absoluut niet kwijt wilt/kunt, je gewoon backups moet maken, dat is de meest veilige optie.

[Reactie gewijzigd door CH4OS op 23 juli 2024 02:41]

Mijn punt is dat de kans op 2 defecte schijven tijdens een rebuild stukken kleiner is dan de kans op 1 defecte schijf. En natuurlijk moet je backups maken van je belangrijke data maar als je dat niet doet, loop je met RAID-6 net wat minder risico dan met RAID-5.
Ik denk niet dat iemand met zoveel opslag zo dom is om raid 5 te gebruiken. Dat wordt minimaal raid 6.
Raid? Mag hopen dat je met zulke volumes ZFS of soortgelijk gebruikt🙈

Hier 4x 20tb in mijn truenas en zfs.
Ondanks dat truenas niet 100% mijn ding is, is het wel stabiel.
Als je regelmatig scrubt, zal je niet plots een gedoemde schijf zien falen die stiekem al maandenlang kapot zou gaan, want je raakt alle data regelmatig aan waardoor dit al vroeger uitgelokt wordt ipv bij een array rebuild.
als je fatsoenlijke RAID heb
Je moet gek zijn om Raid te gebruiken voor thuis media. Het probleem zit hem dat raid te veel afhangt van die ene file system, in combinatie met die verdeelde parity (laten we zeggen 2 drives).

Scenario 1: Steek 10 schrijven op Raid 6, well, verlies je 3 schrijven, ben je 100% van je data kwijt.

Scenario 2: Steek 8 schijven met hun eigen file system, en 2 parity drives (unraid, snapraid, whatever), verlies je 3 schijven, dan heb je nog altijd 7 schijven intact.

En dan spreken we nog niet over stroomgebruik / spinup/down.

Scenario 1: 24/7 draaiende houden, of als je ze in slaap laat gaan, 1 bestand access en alle schijven op, en dan terug neer, en op weeral en ...

Scenario 2: Ze slapen allemaal, access je 1 bestand, dan gaat enkel die schijf opspinnen. Schrijven? Dan spinnen enkel drive X + de 2 parity drives up.

Raid is perfect voor datacenters, waar je 24/7 access wilt, waar je grotere random en max lees/schrijf snelheid wilt (dankzij de parallel schrijven). Maar voor home gebruikers, moet men hier dringend ophouden met Raid.

En dan spreken we nog niet over de voordelen zoals verschillende drive grote onder Scenario 2 (zo lang je parity drives de zelfde of grootste zijn). Je bent veel meer flexible.
Als je 200TB wilt schrijven, is het misschien wel veiliger om 12 24TB schijven te gebruiken dan om 24 12TB schijven te gebruiken toch?
Zie hierboven, ironisch genoeg is je data veiliger met 24 schijven dan met 12 schijven. 21 gaan meer slapen, als je een kapote schijf hebt, is het herbouwen dubbel zo snel, dan bij 12x24TB schijven.

Als iemand dat al eens fout gelopen file systems gezien heeft met Raid 5, nooit meer!

Ironisch genoeg, met unraid/snapraid/... is er minder druk op die backup + offsite regel, simpel omdat je veel minder kans hebt op catastrofaal data verlies van alles! Ik vind zelf dat je veel beter kan inschatten welke drive kapot zal gaan, dan met raid.

Bij Raid is het random, want de lees / schrijf is verdeelt over de schijven, waardoor als er 1 kapot gaat, veel kans is dat er meer kapot gaan. Bij unraid achtige toestanden, dan weet je vaak welke drive meer gebruikt is, dat deze meer kans heeft op kapot te gaan, omdat je onregelmatig schrijft/leest, ipv over alle drives. Ja, in theorie zal een drive sneller sterven, dan met raid, maar omgekeerd zal je makkelijker die drives vervangen, zonder het enorme risico dat andere onderuit gaan. Als je snap wat ik bedoel.

Je neemt de "Ik weet dat X drives sneller zullen kapot gaan, maar dat is beter dan dat ze allemaal langer bijven werken maar als er 1 kapot gaat, het risico op meerder enorm veel hoger is'.

Voor home labbers, stuur ik altijd mensen in die richting.
Scenario 2: Steek 8 schijven met hun eigen file system, en 2 parity drives (unraid, snapraid, whatever), verlies je 3 schijven, dan heb je nog altijd 7 schijven intact.
Als je drie data disks verliest, dan heb je maar vijf intacte data disks meer, want een rebuild van die drie lukt niet meer.
Als je drie data disks verliest, dan heb je maar vijf intacte data disks meer, want een rebuild van die drie lukt niet meer.
Denk dat je de vergelijking mankeert: 8 Data disks + 2 Parity = 10 Disks.

Als er 3 kapot gaan, kan je niet meer rebuilden, maar je hebt nog altijd 7 disks dat AL hun data hebben (met iedere disk zijn eigen onafhankelijke file table). In tegenstelling tot Raid 5/6, waar je al je data kwijt bent van alle 10 disks. Snappie ;)
Tuurlijk snappie, dat is sowieso een beter resultaat dan RAID-6, maar je hebt ook niet de voordelen van RAID-6, namelijk de verbetering in prestaties door (block level?) striping en de gelijkmatigere verdeling van de load waardoor de bottleneck dus pas na hogere load opduikt.

Beide keuzes zijn een afweging en een compromis, de kiezer zal moeten bepalen wat die belangrijkst vindt.

[Reactie gewijzigd door RuddyMysterious op 23 juli 2024 02:41]

je hebt ook niet de voordelen van RAID-6, namelijk de verbetering in prestaties door (block level?) striping en de gelijkmatigere verdeling van de load waardoor de bottleneck dus pas na hogere load opduikt.
Toon me a home setup, waar dat een benodigde is deze dagen?

Als je snelle access wilt, dan gebruik je een SSD/NVME. Wil je veel data geschrijven, dan zal een 2.5Gbit netwerk de bottleneck worden. Wil je 10Gbit gebruiken, steek een NVME as cache drive in je systeem.

98% van de mensen hier, als ze volop data storage draaien is dat vaak voor iso files. De mensen dat een pro zijn, en met 8k video files werken, draaien dat op NVMEs of Cache tier oplossingen (en die kijken minder op een paar cent want dat is vaak voor hun werk).

Zoals ik schreef hierboven, voor data centers is raid een noodzaak, maar voor thuis gebruikers is het de meeste fout keuze, dat mensen meer geld kost en hun data meer in risco zet.
Ik heb het eigenlijk vooral over IOPS eerder dan rauwe bandbreedte.

Flashgeheugen is veel te duur voor een systeem met bv. 200TB usable capacity, laat staan 500 of 2000.

Maar inderdaad, niet meteen iets waar een gemiddelde consument van wakker ligt.
Maar met RAID-1 bijv heb je gelijk 2 van die schijven nodig, en ik vind het een geruststellendere gedachte om meerdere kleine schijven te gebruiken, als het om veel kleine bestanden gaat, een paar grote bestanden ben ik dan weer minder bang voor.

Op professionele schaal is het een ander verhaal

[Reactie gewijzigd door dakka op 23 juli 2024 02:41]

Er is inderdaad een schaalvoordeel om in Raid-5 met 3 of meer schijven te werken qua nuttige schijfruimte.

Daartegenover staat een hoger energieverbruik en hogere kans op falen want per extra schijf verhoogt je faalkans, dus tenzij je dan ook de redundancy verhoogt ben je per definitie slechter af. Als consument wordt Raid-6 met een hot spare wel heel duur...

Ook is de TCO van een (relatief goedkope) NAS met 2-bays en 2 grote schijven vb. 24TB goedkoper dan een NAS met 4 bays en 3 schijven van 12TB of 4 schijven van 8TB.

[Reactie gewijzigd door helldogbe op 23 juli 2024 02:41]

Ik heb geen RAID zoals @Arokh zegt, maar ik heb wel backups van de echt belangrijke data. De rest is op zich vervangbaar.

De reden dat ik geen RAID heb, is dat ik 8 drives heb van verschillende grootte. Er zijn weinig opties voor 'flexi-raid' waarbij je drives van verschillende grootte in een RAID array kan stoppen. En 8 van dezelfde kopen is te duur voor een upgrade. Dus ik vervang ze een voor een. Het voordeel is wel dat als zo'n drive faalt, ik niet alles kwijt ben, maar alleen wat er op die drive stond. Ik combineer het dan tot 1 groot filesysteem op file-niveau met MHDDFS.

De oude drives gebruik ik voor backup. En de allerbelangrijkste spullen (een TB of 3) gaan naar de cloud voor backup met een encryptielaag erover.

Ik heb wel een tijdje snapraid gebruikt maar ik vond het daar te onduidelijk of alles nou goed was of niet. Ik denk er wel over om terug te gaan naar ZFS en dan Snapraid daar overheen.

PS: Er is wel Unraid maar daar ben ik niet zo'n fan van. Niet flexibel genoeg. En Synology kan ook RAID over verschillende grootten drives maar is me te duur.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Thuis alleen nog maar SSD. Op het werk vooral veel WD Red Plus en die doen het wel goed. Weinig uitval.

Deze week nog wel een NAS besteld met Seagate Exos X20 18TB disken. Nog geen ervaring mee hoe die het doen dus. Uiteindelijk vanwege de prijs nu eens de switch gemaakt.
Thuis alleen nog maar SSD.
Het nadeel hiervan is dat bulk opslag met SSD's héél duur is. Dan zijn schijven hier toch wel beduidend handiger voor.
dat valt echt mee tegenwoordig. Zeker als je naar sata ssd kijkt, scheelt het maar 50%.

Ligt er wel een beetje aan wat je onder buik verstaat
Ligt er wel een beetje aan wat je onder buik verstaat
20TB+ vind ik wel bulk. Maar dat ligt er maar aan wat anderen dat vinden.
Mijn 120TB NAS wil ik sowieso niet voorzien van SSD's, want dan ga ik enkele duizenden euro's méér neerleggen voor storage wat niet per sé echt nuttiger is. Al is m'n energieverbruik dan wel lager, maar als dat alles is, dan is het niet investeren handiger :).
Als je nieuwe schijven wilt kopen
Kijk dan eens naar de Toshiba MG 09
MG10 schijven
Betaalbaar en zelf goede ervaringen mee ..
Bedankt voor de tip! Ik had toshiba nooit overwogen maar ik zal ze proberen.
(mijn NAS is permanent vol en ik heb 90TB :) )
Dat is fors (als het een thuisNAS is). Heb je last van film/tv-serie verzamelwoede? Heb ik ook last van gehad, maar daar ben ik voor behandeld :+
Idd. Want naast de verzamelwoede (....helaas niet onbekend...) kun je je afvragen of je zoveel data ooit nog kunt gebruiken... (als dat films/series betreft).

Ik vermoed dat iemand dan ook graag nieuwe films en series kijkt en ook dat blijft maar toenemen.....

Misschien voor nostalgie (heb ik soms ook) maar om dan uren te gaan kijken naar series uit een ver verleden.....tja....dat weet ik nog net zo niet.....
Ik vermoed dat iemand dan ook graag nieuwe films en series kijkt en ook dat blijft maar toenemen.....

Misschien voor nostalgie (heb ik soms ook) maar om dan uren te gaan kijken naar series uit een ver verleden.....tja....dat weet ik nog net zo niet.....
Ik kijk veel oudere series. Ben nu toevallig Stargate SG-1 aan het kijken, die heb ik vroeger nooit gezien.

Dit is wel ergens op streaming te kijken (de streamingdienst van MGM geloof ik) maar dat is allemaal zo gefragmenteerd dat het niet meer te doen is. Dus ik haal het gewoon uit mijn eigen archief.

Bovendien, nieuwe series komen er ook gewoon bij ja. Daarom wil ik ook steeds de HDD's vervangen door grotere. 8 bays is wel voldoende maar 90TB zeker niet.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Idem, ben momenteel met de oudere star trek bezig. Tng en ds9 gehad, nu met voyager bezig. Daarn begin ik ook met sg1,sga en sgu😇

De oudere series zijn in het algemeen beter dan veel moderne series. Heeft een bepaalde apeal denk ik.
Ja het fijne van TNG is dat deze zo mooi geremasterd is <3

Alleen het nadeel daarvan is dat je soms ziet dat de deurposten e.d. van hout zijn :D Maar al met al is het prachtig.

En ja ik vind oude series ook super. Nieuwe series zijn vaak zo extreem, zo 'over the top'. Wel wil ik ze graag in 720p minstens zien, gelukkig is dat soort kwaliteit voor de meeste series wel beschikbaar tegenwoordig. Wat me wel een beetje tegenstaat is het "monster of the week" format, dat maakt de afleveringen zo allemaal hetzelfde aanvoelen. Maar ik weet waar dat door komt: Destijds was er geen streaming en kwam het gewoon heel vaak voor dat je een aflevering op TV miste, dus het was stomvervelend als je het verhaal dan niet meer kon volgen.

Maar er zijn wel nieuwe series die me bevallen hoor. Die van Star Trek bijvoorbeeld niet zo, maar The Expanse wel, en ook iets als DARK van Netflix vond ik uitmuntend.

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

Expanse idd goed. Ben momenteel het nodige schepen aan het printen🙈

Killjoys is ook een leuke.
En the orville😇
Oh je doet ook 3D printing? Tof he <3

En idd The Orville ook! Maar ook omdat het nog echt de oude TNG Star Trek feel heeft in plaats van de nieuwe "knallen in de ruimte" series.
Feit is dat de vraag naar HDD nog steeds afneemt. Ook wordt het technisch alsmaar lastiger meer data in dezelfde vormfactor te krijgen.
Daar komt nog eens bij dat dit soort drives op (grote) bedrijven gericht zijn. Daar is de nood vaak prioritair over de kost.
't Is wat de zot ervoor geeft...
Mijn ervaring met Toshiba is niet geweldig. Ik heb 3 Toshies gehad waarvan de sata plugs resulteerden in afgebroken bij het verwijderen van de stekker.

Ze 'rammelen' ook veel in verhouding tot mijn andere schijven en voelen alsof ze altijd super lang moeten inladen.

Aan de andere kant, gingen deze wel pas problemen opleveren na voor een zoveelste keer... fysiek te zijn gebruikt (?)... De andere schijven welke ik totaal niet kon waarderen, waren (goedkope) Seagates. Die zijn bij mij eigenlijk stuk voor stuk minder dan 2 jaar meegegaan. Waren echt de slechtste schijven die ik ooit heb gehad.

Met Western Digital heb ik eigenlijk nooit problemen gehad.

Voor mij dus liever Toshiba dan Seagate, dat wel. Optimaal vind ik ze niet, maar maar ondanks het rammelende geluid wat ze maken zijn ze nog niet stuk gegaan.
Ik heb zelf 5x Toshiba MG 09 van 18TB zeer tevreden over... stil.. snel.. .helium... cmr ...Nette prijs
In mijn Synology,s
Bovendien wil ik juist naar grotere modellen toe (mijn NAS is permanent vol en ik heb 90TB :) )
Tijd om op te ruimen dan maar.
Fijne schijven, gebruik eigenlijk al jaren niets anders meer dan de Toshiba schijven. Heb er nu 12 ingebruik variërend van 8TB tot 14TB
It's a "recertified product", not an original
"Original recertified hard drive from Seagate with 0 operating hours".

Dat is hetzelfde als je een nieuwe koopt en in de garantie laat vervangen. Zie ik geen enkel bezwaar tegen, maar wel goed om het even te melden inderdaad! Bezorgkosten in NL ook 29 euro maar liefst.

[Reactie gewijzigd door Houtenklaas op 23 juli 2024 02:41]

OW.... in dat geval, ik ging er vanuit dat het refurbished roest was met 8 jaar knetteren op de teller, dit maakt het toch zeer interessant.
Wow, bedankt voor de tip!

Wel 39 euro bezorgingskosten zie ik (ik woon in Spanje, wellicht komt het daardoor maar die zijn normaal nooit zo hoog). Maar niettemin wellicht te overwegen. Deze zet ik op de wenslijst <3

[Reactie gewijzigd door Llopigat op 23 juli 2024 02:41]

uitvoering: Toshiba MG07ACA14TE (512e), 14TB

+/- 220€

[Reactie gewijzigd door wim1928 op 23 juli 2024 02:41]

De WD Ultrastar DC HC530 14 tb kost precies 229 bij bol.com
Komt/kwam waarschijnlijk ook door dat Chia mining zo'n hype was. Iedereen bunkerde schijven.
Ja en de componentencrisis denk ik.

Maar sindsdien is het niet echt gestabiliseerd. Ik denk dat het ook is omdat eindgebruikers steeds minder interesse hebben in schijven thuis, en die zijn natuurlijk het meest prijsbewust als klanten (het was niet voor niets dat een schijf + behuizing + adapter veel goedkoper was dan de losse schijf).
Jeetje dat ze 10 platters in zo'n 3.5" behuizing kunnen krijgen, dat is toch wel indrukwekkend.
Ik vraag me af of dit platters van aluminium, keramisch of van glas zijn.
Dit zijn Helium harde schijven: daardoor kunnen er meer platters (10 vs 5) in dezelfde formfactor. De platters zijn meestal van aluminium.

[Reactie gewijzigd door John Stopman op 23 juli 2024 02:41]

Fun fact, the helium wil leak out.

Supplier zal zeggen dat dit niet in z'n 5 year warranty life span zal gebeuren,
en zeer waarschijnlijk ook niet in de 6 jaar daarna, maar het blijft een feit dat ze lekken.
Krijg je daar eigenlijk waarschuwing voor via SMART?
Yes, helium drives have an additional SMART attribute (22) to monitor the Helium Level
De schrijf kan volgens WD tot 550TB per jaar wegschrijven.
Ben ik naast de 'schrijf'-fout de enige die dit een opmerkelijke zin vindt? 550TB per jaar wegschrijven bij een schijf van 24TB? Dat is nog geen 20x de schijfgrootte.. Dat lijkt me wel erg weinig.

[Reactie gewijzigd door roedi06 op 23 juli 2024 02:41]

Weet je hoeveel dat is? Dan moet je ruim een maand lang non-stop full speed kopiëren naar die disk, per jaar. En dan nog is dit gewoon een claim. Waarschijnlijk kan het ook probleemloos het dubbele.
Het meest opmerkelijke vind ik dat de redacteur iets heeft geschrijven wat totaal niet in de specs staat.
WD heeft het helemaal niet over 550TB aan schrijf acties. WD zegt dat de schijf is ontworpen voor 550TB aan LEES en schrijfacties. En dat de MTBF waarden ook gelden voor een max aan 550TB aan lees en schrijfacties.
Je kan uiteraard wel meer lezen en schrijven, maar dan gaan de MTBF waardes veranderen.
Als ik het goed begrijp is deze disk dus op twee manieren vatbaar voor fatale crashes:

1) Helium loopt weg

2) "Kritieke" data wordt op een flash disk. Als deze corrupt raakt door power loss, is dan ook je complete disk irrecoverable? Zelfde voor de write cache, want ze lijken die "optinand" te gebruiken als write cache.

Prima architectuur, maar wellicht niet voor een bulk storage archival disk?
Een mechanische harddisk heeft sowieso het nadeel mechanisch te zijn, die kunnen het op elk moment begeven, dus ook de motor. Als je hem als archief schijf gebruikt en jarenlang niet opstart heb je natuurlijk ook de kans dat de smering een probleem wordt en hij alsnog faalt op te starten.

Persoonlijk nooit meegemaakt maar het kan wel, ik zie anders in mijn verleden wel op schijven vrij snel sector-errors verschijnen (Samsung/Seagate) dan wel plotsklaps vroegtijdig dood te zijn (Seagate), en dat is dan eigenlijk voor velen al reden ze niet meer te gebruiken.

Inmiddels draaien hier pakweg 8-9 jaar drie HGST (7K4000) schijven, de oudste met volgens mij meer dan 60K uren inmiddels en die vertonen geen problemen, de Samsung 840/860 Pro SSDs ook geen van allen. Later zo'n 5 jaar terug drie HGST He10 8TB schijven met helium gekocht, twee daarvan draaien inmiddels ook al meer dan 40K uur terwijl de 3e een offline externe backup is en geen van allen problemen.

Voordeel van de Helium schijven is ook nog dat ze qua temperatuur koeler draaien dan hun lucht-soortgenoten wegens minder wrijving, ik denk dat het met de levensduur niet zo'n heel groot probleem is.

Overigens de hierboven afgebeelde schijven van "WD" zijn gewoon HGST schijven onder een andere naam, zien er precies hetzelfde uit, HGST hun helium technologie, maar andere sticker wegens WD overname.

Maar in het kort, ik zie niet zo snel een probleem t.a.v. de traditionelere lucht-gebaseerde schijven.
bring it on. Dan gaan de 22TB versies hopelijk wat dalen, want tov een half jaar geleden zijn ze alleen maar gestegen...
Ik heb recent een aanbieding gevonden voor 200 euro voor 12Gbps SAS 18TB HC550 drives, ik hoop dat het zo door gaat en dat Storage prijzen omlaag blijven gaan. Heb nu 2.25x de Storage (gebruikte eerste 8TB’s) in dezelfde drives en dus power consumptie, en omdat die andere drives ouder waren is me power consumptie per drive zelfs een wat of 2 omlaag gegaan
Dus bij maximale snelheid duurt het 25 uur om m vol te schrijven. De werkelijke snelheid de helft of een derde: 50 tot 75 uur om m vol te schrijven
Dat is vaak ook wel een van de zaken om rekening mee te houden als je een NAS volstopt met 12x 28TB disken en er gaat er eentje kapot. Je bent zo 2 dagen aan het rebuilden op een nieuwe disk.
ah klassiek, bij een nieuwe grotere harde schijven artikel weer een leuk reactietopic :) Leuk, ik doe mee.. 12x28=336TB thuis in je meterkast. Wat moet je ermee.. nou dan zou je een audiobibliotheek met ieder liedje -ooit- in je meterkast kunnen hangen? https://www.reddit.com/r/...ta_would_every_song_ever/
Mijn voorbeeld was wat meer zakelijk gericht. Wij hebben diverse grotere Synology NAS systemen staan waar de back-up heen gaat. Daar praat je wel over meerdere honderden terabytes
Dan staat die NAS gevuld net 99,99% ***muziek 🙂
Ooit was er een tijd dat ik nog wel kon vermelden dat ik met mijn hypothetische 64disk server met een hypothetisch opslagcapaciteit van 12TB per disk daar nog wel vlotjes overheen kon gaan. Maar tegenwoordig is dat niet zo handig meer 8-)
En daarvoor heb je dus een backup nas op een andere groep in huis, want raid is geen backup.
Hoe helpt die backup bij een rebuild? Je wilt toch die data-store niet kwijt?

Dus daarom: ook met een backup zal de rebuild gewoon nodig zijn.
Die backup heb je als je rebuild faalt. Want als tijdens de rebuild nog een schijf defect raakt (Raid5 of Raid10 als je pech hebt) dan ben je in principe alles kwijt.
Die backup terug pompen over 10gbit is soms sneller dan de raid6 rebuild doen omdat je alleen de daadwerkelijke data overzet ipv de volledige capaciteit van de disk.
298MB/s! Zo dan, ik heb blijkbaar onder een steen gelegen, mag blij zijn als mijn SSD dat soort snelheden haalt.
Dan is het wel tijd om eens onder die steen vandaan te komen ja :-)

Het wordt een heel stuk leuker als je kunt afstappen van het voor SSD's verouderde SATA protocol. Tijd voor PCI-E / NVME :-)
Zelfs op SATA haalde die SSDs toch al 600MB/s?

Ben dus wel benieuwd naar welke SSD hij heeft die langzamer is dan een HDD :P
Zelfs op SATA haalde die SSDs toch al 600MB/s?

Ben dus wel benieuwd naar welke SSD hij heeft die langzamer is dan een HDD :P
HP LT002AA 160GB / 100MB/s
Intel Solid-State Drive 310 80GB / 200MB/s
Verkrijgbaar sinds: 23 april 2013

lol, tijd om te vervangen
Ligt voornamelijk aan de erg kleine capaciteit van je SSD's. M'n 1TB Samsung 840 Evo uit 2013 haalt 500MB/s.
Elke SSD zou 500/550 (SATA 3 600Mb/s) minus overhead moeten halen.
Ik begon met OCZ Vertex SSD's die kwamen vanaf 120GB op de markt, die capten ook de 550Mb/s
(Dat kwamen 13 jaar geleden op de markt btw :))
Ik heb recent een 20TB hdd aangekocht. Zeer tevreden van. Enorm verschoten van de snelheid van zo’n 10 platter cmr schijf.

Op dit item kan niet meer gereageerd worden.