Seagate maakt hdd's van 30TB op basis van hamr-techniek beschikbaar

Seagate begint met de verkoop van nieuwe Exos- en IronWolf Pro-hdd's met een opslagcapaciteit van 28TB en 30TB. Om die opslagcapaciteit te bereiken, maken de harde schijven gebruik van heat-assisted magnetic recording (hamr). De harde schijven zijn vanaf dinsdag verkrijgbaar.

De nieuwe 30TB-versie van de Exos M bestaat volgens de fabrikant uit tien platters van 3TB en maakt gebruik van conventional magnetic recording (cmr). Hoeveel platters de 30TB-versie van de IronWolf Pro heeft, zegt Seagate niet, maar hoogstwaarschijnlijk gaat het om dezelfde schijf. Hoewel de harddisks in principe zijn bedoeld voor zakelijke klanten, kunnen ook consumenten ze aanschaffen.

De nieuwe hdd's van Seagate maken gebruik van heat-assisted magnetic recording, oftewel hamr. Voor deze techniek gebruiken harde schijven speciale platters op basis van een stabiel magnetisch materiaal, bestaande uit een legering van ijzer en platina. Dit materiaal wordt verhit met een zeer kleine laserbundel vlak voordat er op die plek geschreven wordt. Daardoor wordt het materiaal soepel genoeg om kleinere bits te maken, waardoor een grotere opslagcapaciteit mogelijk is.

De Exos-schijven hebben verder een heliumverzegeld ontwerp en halen overdrachtssnelheden van 270MB/s tot 275MB/s en een random read/write van 170/350 iops. De schijven gebruiken gemiddeld 6,9W in idle en 9,5W in gebruik. De 28TB-versie heeft een verkoopprijs van 566 euro, de 30TB-versie kost 590 euro.

Seagate heeft ook 28TB- en 30TB-versies aangekondigd van de IronWolf Pro, die de fabrikant aanprijst als speciale schijven voor een nas. Deze schijven gebruiken in idle en gebruik respectievelijk 6,8W en 8,3W, maar hebben ook een stand-by- en slaapstand waarin de schijven maar 1,2W verbruiken. Ze halen dezelfde overdrachtssnelheid als de Exos X-schijven en maken ook gebruik van cmr. De 28TB- en 30TB-versies van de IronWolf Pro kosten respectievelijk 623 en 661 euro. Alle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.

Seagate werkt ook aan een 36TB-versie van de Exos X. Deze maakt naast hamr ook gebruik van shingled magnetic recording (smr). Daardoor is meer capaciteit mogelijk, maar vooral bij het herschrijven presteert de schijf minder goed. Daardoor zijn deze schijven vooral goed voor toepassingen waar veel wordt gelezen en weinig geschreven, zoals het streamen van media.

Seagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf ProSeagate Exos M, Seagate IronWolf Pro

Door Imre Himmelbauer

Redacteur

15-07-2025 • 14:43

64

Reacties (64)

64
64
25
2
0
37
Wijzig sortering
Seagate claimt een AFR van 0,35%
Dat lijkt me enorm overdreven optimistisch.
Kijk ik bij Backblaze: https://www.backblaze.com...-drive-stats-for-q1-2025/
dan is de AFR gemiddeld 1,4%
0,35% is niet onmogelijk, maar dan zou de disk wel bij de bovenste 1% of wellicht 0,1% vallen....
Seagate's beste model bij Backblaze scoort 0,49%
De laatste keer dat ik checkte had Seagate een paar hele slechte series van harddisks op de markt. Ik ben benieuwd hoe dat nu is.

//edit
En ik ben benieuwd wat de schrijven gaan kosten gezien het feit dat ze gebruik maken van platinum, helium en lasers. Dat hoeft niets te zeggen, maar het lijkt me ook productietechnisch niet handig. Het valt me wel op dat de Exos M en de Ironwolf PRO series die nu te koop zijn een SATA-aansluiting hebben, dus het lijkt wel te gaan om hardeschijven voor de consumentenmarkt.

[Reactie gewijzigd door necessaryevil op 16 juli 2025 07:34]

Het is te kort door te bocht om SATA een consumentenstandaard te noemen.

Zolang de schijven binnen de prestatiegrenzen van SATA blijven is het niet bijzonder nuttig om per se SAS overal op te plakken, want SAS kan een stuk harder (24Gbps in de huidige standaard). Het is vooral dat je niet kunt mixen in arrays en daarom de ene of de andere kiest.

SATA past bovendien in een SAS aansluiting, dus dat maakt niet uit.

[Reactie gewijzigd door nelizmastr op 16 juli 2025 08:36]

Nuance, dat je SAS niet perse voor de Interface speeds hoeft te kopen.
SAS kan/is dual ported voor redunancy op interface/hba nivo indien gewenst.
1.4% ligt ook in lijn met het gemiddelde van 1.42% over alle drives bij Backblaze. Geeft bijna niet elke fabrikant een 0.35% failure rate (=2.5M uur MTBF) aan? Is dan iedereen aan het liegen of gaat er systematisch iets verkeerds bij Backblaze? (Retorische vraag, geen reden om aan Backblaze te twijfelen)

- WDC beste schijf: 0.54%
- Toshiba: 0.63%
- HGST: 0.31%

Eigenlijk maar 2 schijven die dit getal halen, en die zijn van HGST. Maar dat zegt ook weinig, want de HGST -604 schijven zijn daarintegen uiterst onbetrouwbaar terwijl die ook 0.35% AFR moeten hebben. Dus wat moet je dan kopen?

[Reactie gewijzigd door Hans1990 op 15 juli 2025 16:19]

30TB (als ik reken dat het marketing TBs zijn) zijn 30.000.000 megabytes. Als ik een backup of raid 1 wil maken aan 270mb/s (als dat sustained is) duurt die dus 30 uur.
Dan ben je dus al wel even bezig... Voor een consumer die zulke ops niet zal automatiseren is dit eigenlijk niet erg verstandig.
Zelf zit ik op Unraid, en heb (in noodgevallen op een trage SATA 1) al wel langere parity calculations gedaan om een schijf te vervangen. Maar vrolijk wordt je er niet van- vooral niet als je eerst will null schrijven als warm aanbevolen test van de schijf.
30 uur nulletjes schrijven, dan 30 uur parity berekenen, en al die tijd is je array niet beschermd!
(Vanochtend is mijn server blijkbaar een parity check begonnen, merk ik dit schrijvende. Met zijn dockers lopende haalt die dan een mooie 1,2mb/s en hij hoopt over 100 dagen klaar te zijn. Ik zet de dockers maar uit denk ik...)
Ik herinner me nog dat enkele jaren geleden al een groot licht bedacht dat je bij bepaalde groottes en schrijfsnelheden de kans van disk failure tijdens disk recuparation 1/1 wordt. Daar zijn we nog niet, maar het nut van zulke grote schijven t.o.v. meerdere kleintjes stel ik wel in vraag.

Addendum: zeker nu mijn disk temps langzamerhand mee met global warming en de bijhorende hittegolven omhoog kruipen, ik ga dan ook van een 2u naar een 4u case zonder hotswap en dus van 80mm naar 120mm fans, om toch wat betere airflow te krijgen.
Ik hoor al zo’n veertig jaar dat “HDDs tegenwoordig zo groot zijn, niemand kan ze praktisch gebruiken”, maar toch blijkt er telkens toch genoeg vraag naar te zijn.

In de oude XT tijd: backups maken van een 20 MB harde schijf met 360 kB floppies kostte je ook meerdere dagen. Toch kochten mensen ze massaal.

[Reactie gewijzigd door Dreamvoid op 15 juli 2025 17:57]

Mijn eerste backup duurde ook 30u, maar daarna doe je alleen een sync actie. Kan mij niet echt voorstellen dat je elke keer 20TB gaat pushen, maar iets als rsync gebruikt bijvoorbeeld (of andere sync tool).

Daarna maak je op je backup snapshots. Dat kan ook op je live data. Zelf doe ik dat (nog) niet, maar het kan.

Deze schijven lijken me juist ideaal. De M-ITX borden hebben vaak 2-4 SATA poorten, zeker handig als je het klein wilt houden. Vaak is het ook zuiniger, dan bijvoorbeeld 10x HDDs als RAID-1 (of zoals unRAID is het eigenlijk een soort JBOD).
En hoe test je je backups dan precies? Raid is onbruikbaar met dit soort schijven om de reden die @L2GX al meldt, dat kan gewoon niet meer. Ik geloof toch dat ik voor de Raid 1 optie zou gaan met minstens 3 schijven en dan maar blijven vergelijken. Of - die keuze heb ik gemaakt - de essentie backuppen en accepteren dat niet alles blijft. Belangrijke documenten en foto's en dat is het. Enkele TB's hier.
Je test die doordat rsync een checksum doet. Je kunt een snelle sync doen op basis van filesize, maar het 'werkt' doordat het een checksum uitvoert.

Synology doet ongeveer hetzelfde tussen verschillende systemen. Je kunt dus beide doen, en je hoeft niet weer alles opnieuw te syncen.

Daarnaast heeft Synology ook nog echt een Backup-app, je hebt ook nog zoiets als BorgBackup (heel lang gebruikt) en zoveel andere tools. Je synced dus niets steeds zoveel data, dat is nergens voor nodig, en helemaal niet goed voor de levensduur van je disks.

RAID is geen backup (maakt niet uit welke). Daarom doe ik eigenlijk nooit iets meer met RAID (enkel RAID-0), en sync gewoon tussen de nodes. Als je Enterprise bent, dan wil je het wel, daar is uptime heel erg belangrijk.

[Reactie gewijzigd door HollowGamer op 15 juli 2025 18:18]

Je zult zo een schijf op low levelk moeten formateren dan ben je ook een jaar bezig denk ik.
Daar zijn we nog niet, maar het nut van zulke grote schijven t.o.v. meerdere kleintjes stel ik wel in vraag.
Bij ons in Nederland (en enkele andere west Europese landen) speelt natuurlijk ook de torenhoge elektriciteitskosten mee in de overweging. Een grotere hoeveelheid aan kleinere schijven betekend een hogere energierekening vergeleken minder schijven die meer capaciteit hebben.
30TB (als ik reken dat het marketing TBs zijn) zijn 30.000.000 megabytes. Als ik een backup of raid 1 wil maken aan 270mb/s (als dat sustained is) duurt die dus 30 uur.
Met 270 millibit per seconde, zoals jij schrijft, ben je 246.914 uur oftewel ruim 18 jaar bezig. Hoofdlettergebruik doet ertoe.
Laten we beginnen met een aantal vragen te stellen.

Ik waag te betwijfelen of je echt 30TB op de schijf hebt staan de meeste mensen vinden het al lastig om meer dan 10TB aan data op een schijf te zetten en als ze dat al doen dan is het voornamelijk films en games waar ze een backup van gemaakt hebben zodat ze de originele disks niet hoeven te gebruiken. Daar hoef je niet nog eens een backup van te maken lijkt me zo.

Maar goed er even van uitgaande dat je inderdaad een 30TB schijf geheel vol hebt staan met unieke data die je niet kwijt wil raken en waar je geen andere kopie van hebt wat is dan de bedoeling van de backup? Het veilig stellen van data in het geval dat een andere schijf faalt is eigenlijk het enige dat een lokale backup echt doet en als je dat wil doen kijk eens naar mirroring niet alleen heb je dan een backup in je systeem maar je hebt ook nog eens het voordeel dat je twee keer zo snel de data kunt lezen.

Als je echt backups wil maken van tientallen TB's aan data kijk eens naar een tape oplossing of misschien zelfs een optische opslag. Deze producten zijn bedoeld voor het maken van backups van grote hoeveelheden data en zijn ook makkelijk en met veel minder risico te verplaatsen en dus ergens anders op te slaan.
Een andere optie waar veel Tweakers schijnbaar niet blij van worden is een Cloud provider. Alle grote cloud providers hebben een lange termijn opslag waar je bizarre hoeveelheden data kunt opslaan voor vrij weinig. Denk aan ongeveer $30.30 per maand voor 30TB bij AWS. Met andere worden je kunt dus bijna 20 jaar die 30TB opslaan voor de kosten van deze ene schijf waar van het maar de vraag is of die het over 20 jaar nog doet.
Nu hangt het er natuurlijk van af hoe groot de delta is van dag tot dag en maand tot maand welke oplossing het beste is voor jouw use case.

Ik denk dan ook dat je simpel weg iets meer tijd moet besteden aan het bepalen van je doel en dan eens zou moeten kijken wat de beste methode is om dat doel te bereiken. Het gebruik van meerdere hard drives misschien zelfs in een zelfde case is niet echt een backup en anders dan vrij duur zeker met zulke grote schijven redelijk onzinnig.
[quote]Denk aan ongeveer $30.30 per maand voor 30TB bij AWS. Met andere worden je kunt dus bijna 20 jaar die 30TB opslaan voor de kosten van deze ene schijf[/quote]

Hier klopt iets niet helemaal denk ik
Als ik het op Google zoek

S3 Glacier Deep Archive offers the lowest cost at $0.00099 per GB per month. This translates to roughly $29.70 per month for 30TB.

Die onderste schijf is 30TB die is 600 euro. Dan kom je inderdaad meer op 20 maanden uit wat bijna twee jaar is
Data er heen zetten kost 'weinig' maar kijk eens naar de voorwaarden...

kijk eens naar de prijs voor retrieval...

Je kan toch geen normale HDD vergelijken met een online dienst die compleet anders is.

https://www.nops.io/blog/how-much-do-aws-s3-storage-classes-cost/#amazon-s3-glacier-deep-archive-storage-class
Ik denk dat iets mis is met je Unraid, ik heb toevallig 2 Dell 740's met 16 TB schijven in een 5+1 array en dat duurt een kleine 22 uur per array.

Neemt niet weg als je dan naar 30 TB gaat met dezelfde snelheid zit je opeens op bijna 2 dagen voor een parity check. Dit is voor mij overigens de reden waarom ik 2 Dells heb, welke aan te raden zijn, zelfs in de zomer wanneer m'n study zo'n 35 graden wordt als de AC niet aanstaat (ik woon niet in NL) blijven de schijven ook netjes 40 graden.
Moet er inderdaad nog eens naar kijken, ik ga eens beginnen met de parity check te stoppen en een reboot.
In Unraid zal je eerst ook de snelheid van je kleinere trage schijven moeten doorlopen. Daarnaast zullen ook de grote geen 280 sustained doen wanneer je bij het midden komt
Als het draaien van containers veel iops naar deze disks veroorzaken heb je mogelijk je caching niet voor elkaar.

Dit soort disks zijn voor koude of lauwe data waar je niet zo vaak bij hoeft. Niet runtime files van een container.
Containers draaien op een aparte ssd maar ook in memory en tijdens de parity check wil ik liefst ook het systeem zo klein mogelijk zetten.

Meestal scheelt het wel wat aan gerapporteerde lees/schrijfsnelheid terwijl de bottleneck bij cpu of memory lijkt te zitten.
Dit is geen schijf waarvan je backups wilt maken, dit is de schijf naar waar je backups maakt.

Sure, er zijn nadelen, maar ik voordelen: een nas met 5 bays is vele malen duurder dan eentje met 2 bays. En qua stroomverbruik ook een stuk beter om twee schijven van 30TB in mirror te hebben, dan om er 5 van 10TB in raid5 te hebben.
30 uur nulletjes schrijven, dan 30 uur parity berekenen, en al die tijd is je array niet beschermd!
Zulke schijven zijn bedoeld voor de supergrote arrays, en die hebben dit probleem niet.

Neem bijvoorbeeld Backblaze. Op serverniveau hebben ze geen RAID, want ieder bestand is verdeeld over 20 servers - waarvan 3 voor parity. Dit beschermt niet alleen tegen de uitval van een schijf, maar ook tegen de uitval van een hele server. Combineer dat met een tweede kopie in een ander datacentrum, en de kans is praktisch nul dat er zeven schijven tegelijkertijd kapot gaan.

Ook kan je gebruik maken van een distributed spare: in plaats van een traditionele "hot spare" waar één disk leeg is en klaar staat om de plaats van een defecte schijf over te nemen, is de lege ruimte verdeeld over alle schijven. Je hebt hierdoor niet één schijf die bij uitval volledig beschreven moet worden, maar een array van (bijvoorbeeld) 10 schijven waarin iedere schijf 1/10e schijf gaat herschrijven. Dat is dus ruwweg 10x zo snel. Totdat de kapotte schijf vervangen is en je een rebalancing hebt gedaan heb je geen hot spare meer, maar je krijgt je parity wel een heel stuk sneller terug!
Wat ik zei; voor consumenten is het mischien niet ideaal.

En ook; mobos hebben limieten op hun totale buscapaciteit. Zelfs overstappen naar SSD arrays (wat sommige unRAID users doen) helpt niet met dit nadeel van heel veel data.
Heb hier dik 50TB aan belangrijke data staan. Opgeslagen op 2 nassen met een identieke kopie van elkaar. Daarin zit totaal 200TB aan schijven.

Nu is dit geen prive gebruik, ik run een foto/video bedrijfje van 9 man, en we garanderen 2 jaar backups van de data voor onze klanten.

Maar ook een zzp fotograaf of hobby foto/videograaf zal snel veel data hebben staan. En zo kan ik kog wel wat scenario’s bedenken waar je best wel wat TB aan belangrijke data kan hebben staan.
Ik hoop / neem aan dat die 2 NASsen niet in hetzelfde gebouw staan? Ik heb zelf ook meerdere NASsen, de belangrijkste bestanden staan op een 3e NAS ergens anders.
Klopt, belangrijk detail! Staan zeker in een ander gebouw, de enige echt veilige manier.
30 TB = 30 000 000 MB --> Dat zijn geen marketing TB's, dat zijn SI-TB's. En dat rekent ook veel handiger. Als je uit wilt gaan van een factor 1024 dan zou het officieel één Tebibyte (TiB) zijn, dus 1 TiB = 1024 GiB.

Ik vind zelf de TB's , GB's en MB's handiger. Dat je dan niet precies aan een duizendvoud kan komen omdat data per 8 bit (of een andere macht van 2) meer wordt weggeschreven zal me een worst wezen.
Eigenlijk wel wat 'bedrieg den boer', bij opslag gebruiken ze altijd factor 1.000 in plaats van 1.024!
Voor geheugen dan weer niet denk ik, omdat je daar met een adres bus zit.

Maar die 30 miljard MB is in feit maar 28,61 miljard MiB, toch een verschil van 5%.
Al kan je de fabrikanten niet veel verwijten wat die gebruiken nooit TiB of zo.

En bij netwerkapparatuur zijn ze dan wel eerlijk, maar gebruiken ze bits, we moeten dan nog eens zelf alles delen door 8 om er iets nutitig voor ons uit te halen.

Kunnen ze gewoon niet afspreken om voor alles GiB or MiB te gebruiken?
'lle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.'

Klinkt nou niet echt als heel beperkt 5 jaar ?
De beperking is op welke onderdelen ze garantie leveren, niet hoe lang.
Limited warranty. De (Amerikaans?) Engelse manier om aan te geven dat de garantie niet álles dekt, maar beperkingen kent. Beperkingen in bijvoorbeeld wat gegarandeerd wordt: dat de schijf vrij is van productiefouten bijvoorbeeld. Maar niet de kosten die je hebt bij data verlies in het geval data verlies optreed door een productiefout.

5 jaar is niet echt een beperking (tijdsduur) al weet ik niet hoe lang een schijf gemiddeld mee zou moeten gaan. Klinkt mij heel redelijk in de oren, voor een schijf als deze.
De beperking zit vaak niet in de tijd, maar in hoeveel je mag schrijven per jaar (wat vreemd is voor een hdd, maar blijkbaar overgenomen vanuit de ssd wereld).
Due volgorde lijkt me een anachronisme. De HDD wereld was er eerder dan de SSD wereld. Er zat volgens mij nooit een maximum aan wat je leest of schrijft (je hebt geen last van cellen die kapot gaan, wel bad sectors die overgeslagen worden) maar ook een MTBF.

Wat andere al zeiden: de beperking lijkt me te zitten in de nevenkosten van dataverlies. En het heeft ook volgens mij altijd al 'limited' warranty geheten, ook voordat SSDs bestonden.
Ik bedoel dat je vroeger op hdds geen opgave had van tbw (terabytes written) en tegenwoordig wel. Dat lijken ze overgenomen te hebben van ssds waar het logisch is.
En een mogelijkheid om onder garantie claims uit te komen 🤷🏼‍♂️
Alsof een mechanische kop geen slijtage kent? 10x hetzelfde plekje opstoken met een laser of 100.000x maakt nog wel een verschil...
Dat is inderdaad anders dan 'oude hdds', maar ook de oude hdds van 8tb waar het alleen het polariseren van het magnetisch materiaal is kennen tegenwoordig een tbw waarde.
Zeer zeker, maar daar word alleen door middel van stroom een magneet veld omgezet, wat daarna gemeten word en indien niet succesvol overnieuw (de smart waarde retry error is dit ook dacht ik) Bij deze nieuwe schijven word er daadwerkelijk iets verhit, en verhitten is iets anders dan alleen stroom erop zetten.
'lle nieuwe schijven van Seagate hebben een beperkte garantie van vijf jaar.'

Klinkt nou niet echt als heel beperkt 5 jaar ?
Vaak is het een combinatie van 5 jaar, of geschreven GB's per dag / TBW, net wat er eerder is.
Als je bedenkt dat in 2020 schijven van 20TB uit kwamen dan is dat maar een groei van 50% in opslag over ongeveer 5 jaar!

Met vervangen schiet je kwa TB per server dus maar bijzonder weinig op en ik kan me voorstellen dat je dan niet perse wilt vervangen los van eventuele garantie issues.
Dat is het helaas wel. Genoeg schijven die juist bij 5 jaar de geest geven. Vooral bij Seagate heb ik die ervaring. Bij WD heb ik dat stukken minder, al zijn er mensen die het juist andersom hebben.

Denk ook gewoon geluk hebben.
Kijk ook eens naar de recente fraude waar schijven uit de mining als nieuw verkocht werden met getrukeerde gebruikscijfers
Mee eens, en daarnaast heb je nog het verschil tussen SMR en die andere (uit het hoofd).

Het liefst kocht ik alleen nog NVMe's, maar voor grote opslag moet je nog altijd bij de HDDs.
Dat zijn vooral de EXOS X18-20 schijven die voor Chia farming gebruikt zijn en die ook al ouder zijn. Van de X24 verwacht ik het niet en met deze al helemaal niet.
Ook ik heb bij dit bij Seagate regelmatig ervaren, terwijl WD samen met Toshiba en HGST/Hitachi me nooit hebben teleurgesteld. N=2 dus :)
Precies, het ligt ook aan zoveel factoren, en geluk hebben is daar een van.

Zelf koop ik liever iets van WD, maar genoeg die een Seagate hebben die ook jaren meegaat. Helaas zijn er niet genoeg aanbieders meer, geloof dat er nog maar twee echt grote zijn (Seagate + WD), dacht dat de rest meer een sublicentie/rest was?

Hopen dat NVMEs in prijs gaan zakken dan maar.
Met hoeveel draaiuren erop?
Ik mag toch hopen een paar minuten maximaal :P
En toen gaf ie de geest..... :+
Let op de schrijfsnelheid voor sustained writes van grote bestanden.

Ik heb een 'archive' drive die echt tergend langzaam schrijft en dat wist ik toen ik hem kocht maar dacht "Boeit me niet zo." maar ik weet nu beter. Het is echt rete irritant.
Dat is een smr schijf, geen cmr zoals deze.
Je zou een FS kunnen kiezen, die een latere sync doet. Het is nog altijd langzaam, maar het is al wat beter te doen.

Deze schijven zijn zeker interessant, maar had meer gehoopt op betaalbare NVMes van 8TB of meer.
Ik heb een grote hoeveelheid aan data door mijn hobby project en ik volg al een poosje met interesse deze schijven in het nieuws. Een nieuwe technologie dat al vele jaren geleden aangekondigd was door Seagate. De vermelde prijs is niet mals, maar als het een beetje weet te zakken na de introductie (is jammer genoeg niet heel gebruikelijk bij harde schijven van wat ik heb gemerkt) zijn het erg interessante schijven.

Maar ik ben niet overtuigd dat de Nederlandse webshops het voor die prijs zullen aanbieden. Die zullen er waarschijnlijk een mooi bedrag bovenop doen. Verder ben ik erg benieuwd naar de gemiddelde levensduur van de HAMR schijven de komende jaren tegenover "traditionele" schijven.
TOV de huidige ironwolf schijven is de prijs nog vrij redelijk.

Helaas duurt het wel flink lang voordat de prijzen voor 20-30TB dalen naar een niveau van onder de 200 euro
Wel knap als het schrijven met deze techniek ook nog eens op (betrekkelijk) hoge snelheid kan. Als ik het zo lees, dan lijkt hamr vergelijkbaar met al lang bestaande magneto-optische techniek, die niet bepaald bekend stond om hoge schrijfsnelheden. Als consumentenproduct hadden we de MiniDisc met mo-techniek. Zelfs via usb haalde dat systeem geen hoge snelheden. Maar goed, dat is inmiddels 20 à 25 jaar geleden...
Wat een tijden! :9~ Heb net even uitgerekend dat als ik mijn hele huis van boven tot beneden zou volstapelen met klassieke floppy disks, elke kamer volledig gevuld zonder iets van vrije ruimte, dat ik nog altijd net niet aan dertig terabyte zou komen.
Hoogste “consumenten” HDD zit nog steeds op 18-20?

En dan bedoel ik dus geen nas/red als thuispc schijf. Kan wel maar toch.
Moeten ze maar weer 5.25 inch disks maken.

Kwa platter oppervlakte bijna groeien we dan bijna naar het dubbele..

En dan meteen ook de hoogte maar in met 41mm ipv 25mm oid.. Kan je ook meer platters stapelen...


Quick 'n dirty rekensom zou je dan richting de 90TB kunnen gaan... Met de zelfde data dichtheid per mm2 aan platter..

Op dit item kan niet meer gereageerd worden.