Seagate maakt hdd's van 30TB op basis van hamr-techniek beschikbaar

Seagate begint met de verkoop van nieuwe Exos- en IronWolf Pro-hdd's met een opslagcapaciteit van 28TB en 30TB. Om die opslagcapaciteit te bereiken, maken de harde schijven gebruik van heat-assisted magnetic recording (hamr). De harde schijven zijn vanaf dinsdag verkrijgbaar.

De nieuwe 30TB-versie van de Exos M bestaat volgens de fabrikant uit tien platters van 3TB en maakt gebruik van conventional magnetic recording (cmr). Hoeveel platters de 30TB-versie van de IronWolf Pro heeft, zegt Seagate niet, maar hoogstwaarschijnlijk gaat het om dezelfde schijf. Hoewel de harddisks in principe zijn bedoeld voor zakelijke klanten, kunnen ook consumenten ze aanschaffen.

De nieuwe hdd's van Seagate maken gebruik van heat-assisted magnetic recording, oftewel hamr. Voor deze techniek gebruiken harde schijven speciale platters op basis van een stabiel magnetisch materiaal, bestaande uit een legering van ijzer en platina. Dit materiaal wordt verhit met een zeer kleine laserbundel vlak voordat er op die plek geschreven wordt. Daardoor wordt het materiaal soepel genoeg om kleinere bits te maken, waardoor een grotere opslagcapaciteit mogelijk is.

De Exos-schijven hebben verder een heliumverzegeld ontwerp en halen overdrachtssnelheden van 270MB/s tot 275MB/s en een random read/write van 170/350 iops. De schijven gebruiken gemiddeld 6,9W in idle en 9,5W in gebruik. De 28TB-versie heeft een verkoopprijs van 566 euro, de 30TB-versie kost 590 euro.

Seagate heeft ook 28TB- en 30TB-versies aangekondigd van de IronWolf Pro, die de fabrikant aanprijst als speciale schijven voor een nas. Deze schijven gebruiken in idle en gebruik respectievelijk 6,8W en 8,3W, maar hebben ook een stand-by- en slaapstand waarin de schijven maar 1,2W verbruiken. Ze halen dezelfde overdrachtssnelheid als de Exos X-schijven en maken ook gebruik van cmr. De 28TB- en 30TB-versies van de IronWolf Pro kosten respectievelijk 623 en 661 euro. Alle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.

Seagate werkt ook aan een 36TB-versie van de Exos X. Deze maakt naast hamr ook gebruik van shingled magnetic recording (smr). Daardoor is meer capaciteit mogelijk, maar vooral bij het herschrijven presteert de schijf minder goed. Daardoor zijn deze schijven vooral goed voor toepassingen waar veel wordt gelezen en weinig geschreven, zoals het streamen van media.

Seagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf Pro

Door Imre Himmelbauer

Redacteur

15-07-2025 • 14:43

45

Reacties (45)

45
45
22
2
0
21
Wijzig sortering
Seagate claimt een AFR van 0,35%
Dat lijkt me enorm overdreven optimistisch.
Kijk ik bij Backblaze: https://www.backblaze.com...-drive-stats-for-q1-2025/
dan is de AFR gemiddeld 1,4%
0,35% is niet onmogelijk, maar dan zou de disk wel bij de bovenste 1% of wellicht 0,1% vallen....
Seagate's beste model bij Backblaze scoort 0,49%
1.4% ligt ook in lijn met het gemiddelde van 1.42% over alle drives bij Backblaze. Geeft bijna niet elke fabrikant een 0.35% failure rate (=2.5M uur MTBF) aan? Is dan iedereen aan het liegen of gaat er systematisch iets verkeerds bij Backblaze? (Retorische vraag, geen reden om aan Backblaze te twijfelen)

- WDC beste schijf: 0.54%
- Toshiba: 0.63%
- HGST: 0.31%

Eigenlijk maar 2 schijven die dit getal halen, en die zijn van HGST. Maar dat zegt ook weinig, want de HGST -604 schijven zijn daarintegen uiterst onbetrouwbaar terwijl die ook 0.35% AFR moeten hebben. Dus wat moet je dan kopen?

[Reactie gewijzigd door Hans1990 op 15 juli 2025 16:19]

30TB (als ik reken dat het marketing TBs zijn) zijn 30.000.000 megabytes. Als ik een backup of raid 1 wil maken aan 270mb/s (als dat sustained is) duurt die dus 30 uur.
Dan ben je dus al wel even bezig... Voor een consumer die zulke ops niet zal automatiseren is dit eigenlijk niet erg verstandig.
Zelf zit ik op Unraid, en heb (in noodgevallen op een trage SATA 1) al wel langere parity calculations gedaan om een schijf te vervangen. Maar vrolijk wordt je er niet van- vooral niet als je eerst will null schrijven als warm aanbevolen test van de schijf.
30 uur nulletjes schrijven, dan 30 uur parity berekenen, en al die tijd is je array niet beschermd!
(Vanochtend is mijn server blijkbaar een parity check begonnen, merk ik dit schrijvende. Met zijn dockers lopende haalt die dan een mooie 1,2mb/s en hij hoopt over 100 dagen klaar te zijn. Ik zet de dockers maar uit denk ik...)
Ik herinner me nog dat enkele jaren geleden al een groot licht bedacht dat je bij bepaalde groottes en schrijfsnelheden de kans van disk failure tijdens disk recuparation 1/1 wordt. Daar zijn we nog niet, maar het nut van zulke grote schijven t.o.v. meerdere kleintjes stel ik wel in vraag.

Addendum: zeker nu mijn disk temps langzamerhand mee met global warming en de bijhorende hittegolven omhoog kruipen, ik ga dan ook van een 2u naar een 4u case zonder hotswap en dus van 80mm naar 120mm fans, om toch wat betere airflow te krijgen.
Ik hoor al zo’n veertig jaar dat “HDDs tegenwoordig zo groot zijn, niemand kan ze praktisch gebruiken”, maar toch blijkt er telkens toch genoeg vraag naar te zijn.

In de oude XT tijd: backups maken van een 20 MB harde schijf met 360 kB floppies kostte je ook meerdere dagen. Toch kochten mensen ze massaal.

[Reactie gewijzigd door Dreamvoid op 15 juli 2025 17:57]

Mijn eerste backup duurde ook 30u, maar daarna doe je alleen een sync actie. Kan mij niet echt voorstellen dat je elke keer 20TB gaat pushen, maar iets als rsync gebruikt bijvoorbeeld (of andere sync tool).

Daarna maak je op je backup snapshots. Dat kan ook op je live data. Zelf doe ik dat (nog) niet, maar het kan.

Deze schijven lijken me juist ideaal. De M-ITX borden hebben vaak 2-4 SATA poorten, zeker handig als je het klein wilt houden. Vaak is het ook zuiniger, dan bijvoorbeeld 10x HDDs als RAID-1 (of zoals unRAID is het eigenlijk een soort JBOD).
En hoe test je je backups dan precies? Raid is onbruikbaar met dit soort schijven om de reden die @L2GX al meldt, dat kan gewoon niet meer. Ik geloof toch dat ik voor de Raid 1 optie zou gaan met minstens 3 schijven en dan maar blijven vergelijken. Of - die keuze heb ik gemaakt - de essentie backuppen en accepteren dat niet alles blijft. Belangrijke documenten en foto's en dat is het. Enkele TB's hier.
Je test die doordat rsync een checksum doet. Je kunt een snelle sync doen op basis van filesize, maar het 'werkt' doordat het een checksum uitvoert.

Synology doet ongeveer hetzelfde tussen verschillende systemen. Je kunt dus beide doen, en je hoeft niet weer alles opnieuw te syncen.

Daarnaast heeft Synology ook nog echt een Backup-app, je hebt ook nog zoiets als BorgBackup (heel lang gebruikt) en zoveel andere tools. Je synced dus niets steeds zoveel data, dat is nergens voor nodig, en helemaal niet goed voor de levensduur van je disks.

RAID is geen backup (maakt niet uit welke). Daarom doe ik eigenlijk nooit iets meer met RAID (enkel RAID-0), en sync gewoon tussen de nodes. Als je Enterprise bent, dan wil je het wel, daar is uptime heel erg belangrijk.

[Reactie gewijzigd door HollowGamer op 15 juli 2025 18:18]

Daar zijn we nog niet, maar het nut van zulke grote schijven t.o.v. meerdere kleintjes stel ik wel in vraag.
Bij ons in Nederland (en enkele andere west Europese landen) speelt natuurlijk ook de torenhoge elektriciteitskosten mee in de overweging. Een grotere hoeveelheid aan kleinere schijven betekend een hogere energierekening vergeleken minder schijven die meer capaciteit hebben.
Laten we beginnen met een aantal vragen te stellen.

Ik waag te betwijfelen of je echt 30TB op de schijf hebt staan de meeste mensen vinden het al lastig om meer dan 10TB aan data op een schijf te zetten en als ze dat al doen dan is het voornamelijk films en games waar ze een backup van gemaakt hebben zodat ze de originele disks niet hoeven te gebruiken. Daar hoef je niet nog eens een backup van te maken lijkt me zo.

Maar goed er even van uitgaande dat je inderdaad een 30TB schijf geheel vol hebt staan met unieke data die je niet kwijt wil raken en waar je geen andere kopie van hebt wat is dan de bedoeling van de backup? Het veilig stellen van data in het geval dat een andere schijf faalt is eigenlijk het enige dat een lokale backup echt doet en als je dat wil doen kijk eens naar mirroring niet alleen heb je dan een backup in je systeem maar je hebt ook nog eens het voordeel dat je twee keer zo snel de data kunt lezen.

Als je echt backups wil maken van tientallen TB's aan data kijk eens naar een tape oplossing of misschien zelfs een optische opslag. Deze producten zijn bedoeld voor het maken van backups van grote hoeveelheden data en zijn ook makkelijk en met veel minder risico te verplaatsen en dus ergens anders op te slaan.
Een andere optie waar veel Tweakers schijnbaar niet blij van worden is een Cloud provider. Alle grote cloud providers hebben een lange termijn opslag waar je bizarre hoeveelheden data kunt opslaan voor vrij weinig. Denk aan ongeveer $30.30 per maand voor 30TB bij AWS. Met andere worden je kunt dus bijna 20 jaar die 30TB opslaan voor de kosten van deze ene schijf waar van het maar de vraag is of die het over 20 jaar nog doet.
Nu hangt het er natuurlijk van af hoe groot de delta is van dag tot dag en maand tot maand welke oplossing het beste is voor jouw use case.

Ik denk dan ook dat je simpel weg iets meer tijd moet besteden aan het bepalen van je doel en dan eens zou moeten kijken wat de beste methode is om dat doel te bereiken. Het gebruik van meerdere hard drives misschien zelfs in een zelfde case is niet echt een backup en anders dan vrij duur zeker met zulke grote schijven redelijk onzinnig.
[quote]Denk aan ongeveer $30.30 per maand voor 30TB bij AWS. Met andere worden je kunt dus bijna 20 jaar die 30TB opslaan voor de kosten van deze ene schijf[/quote]

Hier klopt iets niet helemaal denk ik
Ik denk dat iets mis is met je Unraid, ik heb toevallig 2 Dell 740's met 16 TB schijven in een 5+1 array en dat duurt een kleine 22 uur per array.

Neemt niet weg als je dan naar 30 TB gaat met dezelfde snelheid zit je opeens op bijna 2 dagen voor een parity check. Dit is voor mij overigens de reden waarom ik 2 Dells heb, welke aan te raden zijn, zelfs in de zomer wanneer m'n study zo'n 35 graden wordt als de AC niet aanstaat (ik woon niet in NL) blijven de schijven ook netjes 40 graden.
Moet er inderdaad nog eens naar kijken, ik ga eens beginnen met de parity check te stoppen en een reboot.
In Unraid zal je eerst ook de snelheid van je kleinere trage schijven moeten doorlopen. Daarnaast zullen ook de grote geen 280 sustained doen wanneer je bij het midden komt
Als het draaien van containers veel iops naar deze disks veroorzaken heb je mogelijk je caching niet voor elkaar.

Dit soort disks zijn voor koude of lauwe data waar je niet zo vaak bij hoeft. Niet runtime files van een container.
Containers draaien op een aparte ssd maar ook in memory en tijdens de parity check wil ik liefst ook het systeem zo klein mogelijk zetten.

Meestal scheelt het wel wat aan gerapporteerde lees/schrijfsnelheid terwijl de bottleneck bij cpu of memory lijkt te zitten.
Dit is geen schijf waarvan je backups wilt maken, dit is de schijf naar waar je backups maakt.

Sure, er zijn nadelen, maar ik voordelen: een nas met 5 bays is vele malen duurder dan eentje met 2 bays. En qua stroomverbruik ook een stuk beter om twee schijven van 30TB in mirror te hebben, dan om er 5 van 10TB in raid5 te hebben.
30 uur nulletjes schrijven, dan 30 uur parity berekenen, en al die tijd is je array niet beschermd!
Zulke schijven zijn bedoeld voor de supergrote arrays, en die hebben dit probleem niet.

Neem bijvoorbeeld Backblaze. Op serverniveau hebben ze geen RAID, want ieder bestand is verdeeld over 20 servers - waarvan 3 voor parity. Dit beschermt niet alleen tegen de uitval van een schijf, maar ook tegen de uitval van een hele server. Combineer dat met een tweede kopie in een ander datacentrum, en de kans is praktisch nul dat er zeven schijven tegelijkertijd kapot gaan.

Ook kan je gebruik maken van een distributed spare: in plaats van een traditionele "hot spare" waar één disk leeg is en klaar staat om de plaats van een defecte schijf over te nemen, is de lege ruimte verdeeld over alle schijven. Je hebt hierdoor niet één schijf die bij uitval volledig beschreven moet worden, maar een array van (bijvoorbeeld) 10 schijven waarin iedere schijf 1/10e schijf gaat herschrijven. Dat is dus ruwweg 10x zo snel. Totdat de kapotte schijf vervangen is en je een rebalancing hebt gedaan heb je geen hot spare meer, maar je krijgt je parity wel een heel stuk sneller terug!
Wat ik zei; voor consumenten is het mischien niet ideaal.

En ook; mobos hebben limieten op hun totale buscapaciteit. Zelfs overstappen naar SSD arrays (wat sommige unRAID users doen) helpt niet met dit nadeel van heel veel data.
'lle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.'

Klinkt nou niet echt als heel beperkt 5 jaar ?
De beperking is op welke onderdelen ze garantie leveren, niet hoe lang.
Limited warranty. De (Amerikaans?) Engelse manier om aan te geven dat de garantie niet álles dekt, maar beperkingen kent. Beperkingen in bijvoorbeeld wat gegarandeerd wordt: dat de schijf vrij is van productiefouten bijvoorbeeld. Maar niet de kosten die je hebt bij data verlies in het geval data verlies optreed door een productiefout.

5 jaar is niet echt een beperking (tijdsduur) al weet ik niet hoe lang een schijf gemiddeld mee zou moeten gaan. Klinkt mij heel redelijk in de oren, voor een schijf als deze.
De beperking zit vaak niet in de tijd, maar in hoeveel je mag schrijven per jaar (wat vreemd is voor een hdd, maar blijkbaar overgenomen vanuit de ssd wereld).
Due volgorde lijkt me een anachronisme. De HDD wereld was er eerder dan de SSD wereld. Er zat volgens mij nooit een maximum aan wat je leest of schrijft (je hebt geen last van cellen die kapot gaan, wel bad sectors die overgeslagen worden) maar ook een MTBF.

Wat andere al zeiden: de beperking lijkt me te zitten in de nevenkosten van dataverlies. En het heeft ook volgens mij altijd al 'limited' warranty geheten, ook voordat SSDs bestonden.
Alsof een mechanische kop geen slijtage kent? 10x hetzelfde plekje opstoken met een laser of 100.000x maakt nog wel een verschil...
'lle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.'

Klinkt nou niet echt als heel beperkt 5 jaar ?
Vaak is het een combinatie van 5 jaar, of geschreven GB's per dag / TBW, net wat er eerder is.
Als je bedenkt dat in 2020 schijven van 20TB uit kwamen dan is dat maar een groei van 50% in opslag over ongeveer 5 jaar!

Met vervangen schiet je kwa TB per server dus maar bijzonder weinig op en ik kan me voorstellen dat je dan niet perse wilt vervangen los van eventuele garantie issues.
Dat is het helaas wel. Genoeg schijven die juist bij 5 jaar de geest geven. Vooral bij Seagate heb ik die ervaring. Bij WD heb ik dat stukken minder, al zijn er mensen die het juist andersom hebben.

Denk ook gewoon geluk hebben.
Kijk ook eens naar de recente fraude waar schijven uit de mining als nieuw verkocht werden met getrukeerde gebruikscijfers
Mee eens, en daarnaast heb je nog het verschil tussen SMR en die andere (uit het hoofd).

Het liefst kocht ik alleen nog NVMe's, maar voor grote opslag moet je nog altijd bij de HDDs.
Dat zijn vooral de EXOS X18-20 schijven die voor Chia farming gebruikt zijn en die ook al ouder zijn. Van de X24 verwacht ik het niet en met deze al helemaal niet.
Met hoeveel draaiuren erop?
Ik mag toch hopen een paar minuten maximaal :P
En toen gaf ie de geest..... :+
Let op de schrijfsnelheid voor sustained writes van grote bestanden.

Ik heb een 'archive' drive die echt tergend langzaam schrijft en dat wist ik toen ik hem kocht maar dacht "Boeit me niet zo." maar ik weet nu beter. Het is echt rete irritant.
Dat is een smr schijf, geen cmr zoals deze.
Je zou een FS kunnen kiezen, die een latere sync doet. Het is nog altijd langzaam, maar het is al wat beter te doen.

Deze schijven zijn zeker interessant, maar had meer gehoopt op betaalbare NVMes van 8TB of meer.
Ik heb een grote hoeveelheid aan data door mijn hobby project en ik volg al een poosje met interesse deze schijven in het nieuws. Een nieuwe technologie dat al vele jaren geleden aangekondigd was door Seagate. De vermelde prijs is niet mals, maar als het een beetje weet te zakken na de introductie (is jammer genoeg niet heel gebruikelijk bij harde schijven van wat ik heb gemerkt) zijn het erg interessante schijven.

Maar ik ben niet overtuigd dat de Nederlandse webshops het voor die prijs zullen aanbieden. Die zullen er waarschijnlijk een mooi bedrag bovenop doen. Verder ben ik erg benieuwd naar de gemiddelde levensduur van de HAMR schijven de komende jaren tegenover "traditionele" schijven.
TOV de huidige ironwolf schijven is de prijs nog vrij redelijk.

Helaas duurt het wel flink lang voordat de prijzen voor 20-30TB dalen naar een niveau van onder de 200 euro
Wel knap als het schrijven met deze techniek ook nog eens op (betrekkelijk) hoge snelheid kan. Als ik het zo lees, dan lijkt hamr vergelijkbaar met al lang bestaande magneto-optische techniek, die niet bepaald bekend stond om hoge schrijfsnelheden. Als consumentenproduct hadden we de MiniDisc met mo-techniek. Zelfs via usb haalde dat systeem geen hoge snelheden. Maar goed, dat is inmiddels 20 à 25 jaar geleden...
Wat een tijden! :9~ Heb net even uitgerekend dat als ik mijn hele huis van boven tot beneden zou volstapelen met klassieke floppy disks, elke kamer volledig gevuld zonder iets van vrije ruimte, dat ik nog altijd net niet aan dertig terabyte zou komen.
Hoogste “consumenten” HDD zit nog steeds op 18-20?

En dan bedoel ik dus geen nas/red als thuispc schijf. Kan wel maar toch.
Moeten ze maar weer 5.25 inch disks maken.

Kwa platter oppervlakte bijna groeien we dan bijna naar het dubbele..

En dan meteen ook de hoogte maar in met 41mm ipv 25mm oid.. Kan je ook meer platters stapelen...


Quick 'n dirty rekensom zou je dan richting de 90TB kunnen gaan... Met de zelfde data dichtheid per mm2 aan platter..


Om te kunnen reageren moet je ingelogd zijn