Seagate introduceert 32TB-hdd op basis van hamr-opslagtechniek

Seagate introduceert nieuwe Exos M-hdd's. Het bedrijf komt met twee varianten van 30TB en 32TB. Beide schijven worden gebaseerd op de hamr-techniek. Daarmee zijn het de eerste hamr-hdd's die algemeen beschikbaar komen.

Seagate Exos M 32TBSeagate heeft de hamr-hdd's stilletjes toegevoegd aan zijn website, merkte Tom's Hardware op. De drives komen beschikbaar in de Exos M-serie, die is bedoeld voor enterprisedoeleinden. De 30TB-variant maakt gebruik van de cmr-opslagtechniek, terwijl de 32TB-variant is gebaseerd op smr. Cmr levert betere prestaties, maar maakt het lastiger om de opslagcapaciteit op te hogen.

Beide drives maken gebruik van heat-assisted magnetic recording, ook wel hamr. Hdd's op basis van deze techniek gebruiken platters van een stabiel magnetisch materiaal, bestaande uit een legering van ijzer en platina. Hierdoor kunnen de bits kleiner gemaakt worden, wat voor een hogere opslagdichtheid zorgt. Dankzij hamr hebben de nieuwe Exos M-drives voor het eerst een capaciteit van 3TB per platter.

Seagate deelt sinds vorig jaar samples van zijn hamr-hdd's met grote klanten, maar ze waren nog niet los verkrijgbaar. Daar lijkt binnenkort dus verandering in te komen. Eerder deze maand werd al bekend dat Seagate klaar is om de drives op grote schaal te leveren, nadat de drives kwalificatietests hebben doorstaan bij klanten, waaronder 'een grote clouddienstverlener'. De website van Seagate noemt geen adviesprijs.

Door Daan van Monsjou

Nieuwsredacteur

18-12-2024 • 11:26

114

Reacties (114)

114
114
48
3
0
48
Wijzig sortering
Ik mis nog even een regel over hoe t heat assisted deel werkt? Lijkt me wel bij t artikel horen?
Het probleem bij hogere datadichtheden bij magnetische opslagmedia is dat het steeds moeilijker wordt om het magnetisme van een bit niet te laten beïnvloeden door het magnetisme van zijn buren. Bij een HAMR (Heat-Assisted Magnetic Recording) harde schijf gaat de fabrikant een materiaal gebruiken waarvan het magnetisme bij kamertemperatuur zeer stabiel is en er dus hogere dichtheden behaald kunnen worden.

Het volgende probleem is dan: hoe zorg je ervoor dat je nog kan schrijven naar de schijf als het materiaal stabieler is? Bij kamertemperatuur lukt dat niet meer zo eenvoudig en daarom plaatst men een kleine laser op de schrijfkop die een heel klein plekje kortstondig verwarmd zodat er naar geschreven kan worden. Dat plekje koelt dan snel weer af en neemt zo de stabiele eigenschappen bij kamertemperatuur weer aan. Volgens Seagate is het mechanisme zo nauwkeurig dat de schrijfkop één bit tegelijk kan verhitten om te beschrijven en het verhitten, schrijven en afkoelen gebeurt in minder dan een nanoseconde.

Overigens klinkt dit als een potentieel energieverslindend proces maar de laser zou minder dan 200mW verbruiken als hij actief is dus op het totale verbruik van een harde schijf valt dat best nog wel mee.
En dat is geen geringe opwarming, de plek wordt opgewarmd tot maar liefst 450 graden.
De vraag is dan wat de levensduur is van die laser.
Oftewel dan gaan we dus ook een TBW rating krijgen voor harde schijven.
Volgens Seagate 2PB (oftewel petabyte) per schrijfkop. Klinkt ruim voldoende.
Is "maar" zo'n 60 full drive writes.
Nou zal dit soort drives waarschijnlijk meer gebruikt worden voor lange termijn storage, dus waarschijnlijk prima waarde. Maar met dit soort groottes van drives is een PB schrijven niet zoveel meer.

Geen idee wat de werkelijke schrijfsnelheid is, maar even uitgaande van 300 MB/sec (zal er geen factor 2 of meer naast zitten vermoed ik) zit je dus op een levensduur van de laser van +/- 6000 uur (hopelijk niet ergens een 0 vergeten)
Klinkt wel aannemelijk aangezien meestal een laser op zo'n 8000 uur levensduur geschat wordt.
Oftewel als je 24/7 zou schrijven, is de laser na pak 'm beet 9 maanden versleten. (even aangenomen dat de slijtage niet anders is bij continue schrijven)

Dat maakt dit soort schijven dus minder geschikt voor grote (astronomische) opslag in de ingest laag.
Die schijven schrijven namelijk extreem vaak.
Wat je bij dat sommetje nog mist is dat deze schijf iets van 20 koppen heeft?
Schijven gebruiken doorgaans maar 1 kop tegelijk (behalve dual actuator modellen).
Zo bekeken kan ie 20x zo lang mee, aangenomen dat je de koppen gelijkmatig belast.

[Reactie gewijzigd door N8w8 op 18 december 2024 14:24]

Nou nee, het enige wat het sommetje dan anders maakt is de levensduur van de laser en dat het dus uitmaakt hoe de schrijf-acties verdeeld worden over de koppen.

2 PB blijft 2 PB.
Wat je bij dat sommetje nog mist is dat deze schijf iets van 20 koppen heeft?
Schijven gebruiken doorgaans maar 1 kop tegelijk (behalve dual actuator modellen).
En hoe gaat dit dat in zijn werk met het stroomverbruik, want ik zie dat deze maximaal 8,9W zou verbruiken, wat niet veel meer is dan een normale HDD met 1 kop.
Of je nou 1 of 20 koppen hebt, ook bijv uit benchmarks blijkt dat je altijd grofweg dezelfde paar honderd MB/s haalt.
Dus alle koppen tezamen leveren evenveel werk, ongeacht hoeveel je er hebt.
Oftewel, bij 2x zoveel koppen heeft elke kop het half zo druk.

Maar alle koppen worden wel altijd tegelijk bewogen door dezelfde actuator, dus als je meer koppen hebt dan moet die actuator wel meer werk verzetten, dus mss iets meer verbruiken.

En meer koppen betekent vaak ook meer platters (je hebt immers max 2 koppen per platter), die altijd tegelijk worden gedraaid door dezelfde motor, dus ook die moet dan meer werk verzetten.
Maar dat is vooral bij het opstarten; zodra t eenmaal draait alleen om de wrijving te compenseren.

Weet er ook niet alles van hoor. Maar in de specs kan je vaak gewoon zien dat het voor verbruik in de praktijk idd niet veel uitmaakt hoeveel koppen je hebt.

(Dit alles uitgaande van gewoon single actuator schijven).
Ook bij meerdere koppen zorgt 1 falende kop er al voor dat er op 1 kant van een platter niet meer geschreven kan worden.
Voordeel is wel dat lezen nog gewoon kan dus oude data kan je er nog gewoon vanaf halen.
Die cijfers zijn vooral bedoeld voor de slijtage van de platter. Dus wanneer door het schrijven van bits er errors naar voren kunnen komen omdat de situatie niet stabiel genoeg meer is.

Het mechanisme die platters draaien, de controller, lasers, schrijfkoppen, de bus, geheugen etc.. staan hier buiten. Deze technieken zijn inmiddels zo ver door ontwikkeld dat we ons daar weinig zorgen over hoeven te maken, maar productiefoutjes blijven altijd mogelijk.
Dot klopt idd want ik heb in het verleden gelezen dat een of andere techniek waar destijds een artikel over ging over harde schijven dat het oppervlakte warm gemaakt moest worden dat doet deze laser dus omdat hij bij gewoon kamer temperatuur dat te weinig zou zijn.Buiten dit vind ik 30 tb al heel erg veel voor een schijf laat staan 32 tb,Ze zullen steeds meerdere technieken nodig hebben voor tot een betere dichtheid te komen.En dus de schijven steeds een grotere aantal terabites te laten functioneren.Dit is er een van.
Die schijven zijn goed voor een nas schijf die voldoende terabites aan geheugen in een schijf kunnen proppen.Bovendien komt het allemaal ten goede van de modernere eufy techniek waar de meeste pc of zo niet allemaal mee uitgerust zijn.Want het eufy formaat kan grote harde schijven aan die maar een partitie hebben.ik weet tevens niet de grens van normaal mbr formaat zoals de schijven door een ntfs mbr record geformatteerd kan worden.Daar zou ik voor moeten googlen dat weet ik niet meer uit mijn hoofd.Maar ik weet wel dat eufy daar nog eens over heen gaat zodat de schijven die de mbr ntfs schijven het maximale formatteerbaar schijf kleiner is dan eufy ik weet alleen niet hoeveel.
Voor het gewoon huis tuin en keuken formateren is mbr ntfs al voldoende, voor echte grotere schijven moet men echt bij eufy zijn

[Reactie gewijzigd door rjmno1 op 18 december 2024 13:44]

De typische use-case van dit soort schijven is waarschijnlijk een of andere object store.
En zal hoogstwaarschijnlijk in een setup met erasure-code opgenomen worden.
Zeg maar van die setups waar zo'n 60 schijven in 4U zitten, of van die kasten waar de schijven rechtop in geschoven worden.
Dan heb je dus zo'n 2PB aan ruwe opslag per 4U, wat afhankelijk van de gebruikte overprovisioning dus waarschijnlijk zo'n 1.5 PB per 4U zal zijn.
Dus ruwweg zo'n 15 PB per rack.

Erasure-code is een klein beetje vergelijkbaar met RAID, waarbij een blok data verdeeld wordt over bijvoorbeeld 4 drives en 2 voor de redundantie (RAID-6 idee zeg maar, alleen kun je de overprovisioning dan zelf schalen bij het opzetten van je array)
Alleen waar bij RAID je steeds over dezelfde set schijven de boel verdeelt, doe je dat met erasure-code bij elk blok data over een andere combinatie van drives.
Voordeel is dat lees- en schrijf-acties amper invloed op elkaar hebben (bij grotere sets) en dat bij een rebuild van een vervangen drive die schijf met maximale snelheid weer gevuld kan worden zonder dat het je array merkbaar vertraagt.

Bij dit soort drives gaat het om zo'n hoog mogelijke datadichtheid en energie per TB.
En dan ga je niet meer moeilijk doen met MBR en filesystemen zoals NTFS.
Nee dan komt eufy om de hoek kijken ik snap wat je bedoelt.of andere filesystemen die waarschijnlijk linux gebruiken.
Lijkt me niet, aangezien er 2 suggesties onder het artikel staan waar je kunt lezen hoe het werkt...
hoe een elektrische auto werkt wordt ook niet elke keer opnieuw uitgelegd. Lees het in-dept artikel over HAMR hiervoor eens dat er onder staat.
Als dat elk artikel herhaalt moet worden is dat wel heel verbose, een linkje naar Wikipedia daarentegen had wel gemogen: Wikipedia: Heat-assisted magnetic recording
Ik mis nog even een regel over hoe t heat assisted deel werkt? Lijkt me wel bij t artikel horen?
Er mist niks... De basis is te lezen onder de link "samples van zijn hamr-hdd's" en als je daar bent staat er een link naar "een achtergrondartikel over hamr-hdd's" voor als je er nog meer over te weten wil komen.
nieuws: 50 terabit per vierkante inch met HAMR technologie (2002)

review: Hamr-hdd's komen eraan - Schrijfkoppen met lasers verhogen capaciteit (2020)

@AverageNL wellicht een linkje in het artikel waard?

[Reactie gewijzigd door djwice op 18 december 2024 18:31]

3 TB per platter, dus ze weten er 10 te proppen in een drive tegenwoordig, wow.
En voor de 2 TB (1/15e) extra capaciteit, zou ik nooit voor de SMR variant gaan, want die zijn echt niet prettig in random-write scenarios / raid-arrays e.d., en dat is toch wel waar dit soort capaciteit drives vooral gebruikt zullen worden.

Raar dat ze SMR nog blijven maken als het dus maar zo weinig extra capaciteit toevoegd (of heeft de smr versie minder platters?)
en dat is toch wel waar dit soort capaciteit drives vooral gebruikt zullen worden
Ik gebruik dergelijke drives (momenteel 4*20 TB) om linux iso's op te slaan. Omwille van energie zuinigheid gebruik ik juist geen raid, zo hoeft maar 1 drive op te spinnen als ik S02E13 van ubuntu wil installeren.
Ik moest toch lachen, nice one ;)
Ja, er hoeft maar 1 drive op te spinnen, maar als die dood is, ben je 20TB aan data kwijt ;) (Ja, raid is geen backup, maar 20T aan linux-iso's opnieuw downloaden is ook geen pretje)
Dit is absoluut een punt van discussie geweest hier in huis. Mijn vriendin is er op tegen, want: 'we hebben 4gbit en ik vind alles toch wel als ik handmatig zoek. Ik wil meer storage ten koste van redundancy.'

Ik tel simpelweg mijn zegeningen dat ze ook nerd is en vind het wel prima. Hi @shadowsence ! <3
en dat is toch wel waar dit soort capaciteit drives vooral gebruikt zullen worden.
Waarom zou je HDDs daarvoor gebruiken?
Omdat je veel capaciteit nodig hebt, en niet direct veel iops, tegen een prijs die 1/4 is van de nvme/ssd prijs ?
Omdat je veel capaciteit nodig hebt, en niet direct veel iops
Net had je het over random writes..
Daar ga je geen SMR voor gebruiken.

[Reactie gewijzigd door Olaf van der Spek op 18 december 2024 11:59]

Dat is ook wat ik bedoel.... met capaciteiten van tientallen TB's wil je geen SMR (je wil eigenlijk nooit SMR, misschien voor een backup-medium, maar als de extra capaciteit die je met SMR haalt nog geen 10% is... waarom ontwikkelen ze dan in hemelsnaam nog SMR drives)
Het is knap dat ze alsnog 30TB in een schijf weten te proppen met CMR, maar ik heb in mijn server bijvoorbeeld ook twee 5TB 2,5" schijfjes zitten. Die gebruiken heel weinig stroom, blijven heel koel, nemen weinig plek... en zijn SMR. In CMR zijn ze maar tot 2TB gegaan denk ik. Maar dat laatste is geen enkel probleem want ze zijn 'WORM' (write once, read many) voor films en daar speelt hun nadeel niet mee.
Omdat je geen zin hebt om >€4.000 per drive neer te leggen?
...
dat is toch wel waar dit soort capaciteit drives ...

[Reactie gewijzigd door Nas T op 18 december 2024 11:44]

3 TB per platter, dus ze weten er 10 te proppen in een drive tegenwoordig, wow.
En voor de 2 TB (1/15e) extra capaciteit, zou ik nooit voor de SMR variant gaan, want die zijn echt niet prettig in random-write scenarios / raid-arrays e.d., en dat is toch wel waar dit soort capaciteit drives vooral gebruikt zullen worden.
Dat zal ook wel weer meevallen. Hyperscalers zullen de disks niet in klassiek RAID draaien, maar een Erasure Coding variant waarbij data niet alleen over meerdere schijven maar ook over meerdere hosts of racks verspreid wordt opgeslagen. Met een block-grootte gelijk aan een SMR-regio en relatief rustig aan vullen van een schijf merk je er op die schaal maar weinig van.
Hyperscalers wel... maar wij tweakers zullen het toch vooral moeten doen met raid5/6 of zfs oplossingen. Ik heb momenteel een array van 16TB disks, daar kan ik voorlopig nog prima mee vooruit, maar het is mooi dat er nu 30TB is, wat hopelijk ook weer er voor gaat zorgen dat de 16/18/20/22 TB disks betaalbaarder worden. (En ik op termijn 30 TB disks in systemen van klanten kan plaatsen, dit soort disks is altijd lastig te krijgen als je niet een hyperscalar bent)
Hyperscalers wel... maar wij tweakers zullen het toch vooral moeten doen met raid5/6 of zfs oplossingen.
Dat klopt op zich ook, maar voor de fabrikanten zijn dat de bonuskruimels aan de rand van de markt, en niet waar de schijven vooral gebruikt zullen gaan worden. Gelukkig is de markt naast de grootafnemers nog wel groot genoeg dat de schijven algemeen verkrijgbaar worden.
32TB... Er waren tijden dat ik blij was met 32MB, iets meer dan een miljoen keer zo klein....
32 MB? Dat is wel heel ver terug..
En dan had je nog mazzel dat je niet hoefde te partitioneren .
MS-DOS van toen kon niet meer aan dan 32 MB. Had je een grotere schijf, moest je een 'D' partitie aanmaken. ;)

[Reactie gewijzigd door LooneyTunes op 18 december 2024 12:16]

Nou.. MS-DOS voor 3.31 kon niet groter dan 32 Mb. aan - dus vanaf ruwweg 1989 was dat probleem opgelost!

Vanaf MS-DOS 4.0 kon je 2048 Mb. doen in een partitie.
Tja, groot geworden met DOS 2.nogwat ;)
Een Tulip XT kwam toen 't huis binnen.
Heb net het archief opgeruimd hier. Ik heb de install disks van Tulip nog!
Had ik mijn Tulip AT Compact III nog maar :D

[Reactie gewijzigd door cupra4 op 18 december 2024 12:40]

Die limiet was voor primary partitions tot MS DOS 6.22 zelfs. Extended mocht tot 8GB max (daar overheen gebeuren er vreemde dingen ;))
Nou.. MS-DOS voor 3.31 kon niet groter dan 32 Mb. aan - dus vanaf ruwweg 1989 was dat probleem opgelost!
Volgens Wikipedia: FAT16 is dat niet juist en tevens incorrect.
Wat spreekt dit precies tegen? Vanaf DOS 3.31 krijg je FAT16b / BigDOS / BigFAT partities (type 0x06) - waar je in kunt clusteren

zie : Wikipedia: File Allocation Table
Wikipedia: MS-DOS
In het oorspronkelijk ontwerp kwam iedere positie in de tabel overeen met een enkele sector van 512 bytes, waarmee de grootte van een FAT16-partitie maximaal 32 mebibyte (MiB) kon bedragen. In MS-DOS versie 3.0 werd het mogelijk sectoren samen te voegen in zogenaamde clusters, waardoor harde schijven tot 2 GB gebruikt konden worden (onder Windows NT tot 4 GB).
DOS 3.31 kon dus wel groter dan 32 MB.

Ah, wacht, je schreef "voor 3.31". My bad.
Nou ja, strikt gezien leek 3.0 het dus ook al te kunnen.

Wikipedia: FAT16 lijkt in dat opzicht niet correct.
Version 3.31 (Compaq OEM only)

[Reactie gewijzigd door Olaf van der Spek op 18 december 2024 16:51]

Iets meer dan 40 jaar, schat ik. Mijn eerste harddrive voor mijn Amiga 500 had een nooit vol te krijgen 52 MB.

Edit: aan de reacties te zien, zit er hier toch een aardig aantal oude knarren...

[Reactie gewijzigd door Superbra op 18 december 2024 12:29]

Ik had er een van 20MB...maanden voor gespaard :)
Hier ook.
6 Weken vakantiewerk (eind jaren 80) voor een Megafile 20 (pdf) voor een iets van ƒ1600 voor mijn Atari-ST.
Daar zat toen een 20 MB MFM drive in.
Ik ook. De Seagate ST-225. En daarna Stacker installeren om je opslag "te verdubbelen".
Dat waren nog eens tijden.
Of Double/DriveSpace in Dos, werkte ook op 3.5" diskettes en kon je tot 100mb free space op een diskette krijgen, tot je iets probeerde tek opieren natuurlijk
In 1996 gebruikte ik iets van fdformat om DMF floppies van 1,7 MB te maken. Daarop kon ik bepaalde bestanden van het internet die ik via SURFnet gedownload had, mee naar huis nemen en installeren.
Ik ook. Heb hem hier nog liggen miniscribe 20MB met een MFM controller (pre-IDE voor de jonkies ;) )
Ik heb er ook nog een liggen, zo'n bakbeest :) MFM/RLL 20MB schijf
Op school hadden we 2x een diskette, harde schijven was iets van de toekomst.

1 diskette om OS op te starten, daarna 1 diskette erin om het programma op te starten.
Bij mij op school nog een 8 inch floppy gezien. Met 80kb opslag.
Nou, ik had een Quantum SCSI drive van 425MB in mijn Amiga 4000/60 en die was elke week tot aan de nok toe vol en moest ik altijd ruimte maken wat veel moeite kostte.

[Reactie gewijzigd door saL-onE op 18 december 2024 12:25]

Daar zat toch een PATA in?
The Amiga 4000 system design was generally similar to that of the A3000, but introduced the Advanced Graphics Architecture (AGA) chipset with enhanced graphics. The SCSI system from previous Amigas was replaced by the lower-cost Parallel ATA.
Klopt, ik had er een SCSI expansion board in zitten. Mijn BBS had ik op een IDE drive staan en de uploads gingen naar de Quantum. Het was altijd leuk om die HD aan het werk te zien, de Amiga ging dan als een gek schudden.
Nee, korter geleden. Eind jaren 80, toen de PC definitief doorbrak in NL als thuiscomputer, was een 20MB harde schijf (winchester drive werd toen het toen soms ook genoemd) zo'n beetje de standaard die je aantrof bij mensen thuis.
20MB 120ms schijf in mijn eerste pc in 1987. Traag ondanks rommelen met Spinrite. Een jaar later diep in de buidel getast voor een nieuwe AT pc met 40MB 40ms schijf. Doorbraak! Kon ik eindelijk de Clipper compiler met goed fatsoen draaien evenals Space Quest.
tja over de 50 jaar alweer.
Eerste PC die ik had (toegegeven: die was éérst van m'n vader, daarna van mij toen hij naar een 386 overstapte) had een harddisk van een whopping 20MB !
Ik moet ineens denken aan de Quantum Bigfoot van 1.2GB. 5,25" monster dat een klereherrie maakte.

Nog even checken of dat ding ook Barracuda heette.

[Reactie gewijzigd door Miglow op 19 december 2024 09:10]

Ah, dat ding. Inderdaad een monster. Ligt nog ergens in een doos
1992 , in mijn amiga 600hd : 30MB WD TidBit :)
Valt wel mee. Mijn eerste schijf was 40MB en dat was maar.. 34 jaar geleden ;(
ja die van mij ook ik had toendertijd een heuze tandon computer met een svga scherm erbij.
386sx op 16 mhz en 4 mb intern geheugen.
ik draaide toen ms dos 6.22 samen met windows 3.1 zonder internet.

[Reactie gewijzigd door rjmno1 op 19 december 2024 11:53]

Destijds ben ik begonnen met een Exidy Sorcerer met CP/M als OS en met Basic als programmeertaal. Die had 48KB intern geheugen. Dat heb ik toen met een gemodificeerd Extension Pack uitgebreid tot een whopping 56KB. Daarbij 5¼ inch floppies. Eerst Single Sided, Single Density en later Double Sided en Double Density. Die floppies waren duur dus ik maakte in de Single Sided floppies een extra inkeping om er Double Sided floppies van te maken. Dat waren mooie tijden.
40MB hier, maar “verdubbeld” tot 80MB met Stacker.

[Reactie gewijzigd door blissard op 18 december 2024 11:43]

Dat verdubbelen klinkt bekend. Je had destijds toch ook Drivespace van MS zelf?
Ja en een hoop ellende altijd haha. Moest wel tig keer 95 erop zetten want hij kon weer eens iets niet lezen. Hield me wel bezig, dat dan weer wel.
Destijds waren er voldoende leermomenten ja, haha.
Toen kon je nog Windows naast DOS draaien. In plaats van dat Windows geheel je OS was. Wat een tijden.
Later kwam MS-DOS met DoubleSpace. Kan het me nog wel herinneren dat het magisch was om ineens bijna een verdubbeling van je schijfruimte te hebben. Ging natuurlijk wel wat ten koste van de snelheid.

Maar teruglezend op Wikipedia is er blijkbaar nog een hele ruzie geweest tussen Stac Electronics en Microsoft over het schenden van bepaalde patenten.
Mijn moeder had mijn PC uitgezet terwijl stacker hiermee bezig was! Helaas heb ik toen alles verloren. Ik voel het trauma nog bovenborrelen!
mijn eerste schijf: 18 megabyte als ik me goed herinner ....
was wel een 14" met 2 platters, beetje formaat magnetron, controller met S100 bus aansluiting

[Reactie gewijzigd door PetervdM op 18 december 2024 11:59]

Mijn eerste drive was een Seagate ST-506 met een gigantische 5MB....
Rond 1982 denk ik, da's pakweg 6 miljoen keer groter in 40 jaar...

Mijn salaris heeft dat niet bijgehouden... Gelukkig de prijs van HDDs ook niet :-)
En het hangt er misschien een beetje vanaf wat je er op zet, maar je bent bij wijze van spreken gelijk ook een miljoen keer zoveel bestanden kwijt. Op een 32 MB schijf had je - in een MS-DOS-omgeving - in je C:\GAMES misschien een stuk of tien/vijftien kleine spelletjes staan en daarnaast nog een paar mappen met programma's/utilities/tools, een tekstverwerker of tekenprogramma en dan hield het wel op voor de meesten. Geen grote ramp als je dat kwijt was, want je had die programma's/spelletjes toch wel op diskette staan en je documenten had je ook (een) aparte diskette(s) voor.

Met een 32 TB-schijf moet je echt serieus goed nadenken over hoe je die gegevens ergens anders als kopie maakt/hebt. Voor spelletjes heb je dan Steam om ze opnieuw erop te zetten, maar voor filmpjes/foto's/andere media lijkt het me dat je 32 TB vooral inzet voor een NAS i.c.m. spiegelen o.i.d.
LTT heeft hierover een video gemaakt. Prachtig hoe het in elkaar zit.
Ja ongekend, ik kan me de komische aankondiging van Hitachi herinneren, get perpendicular, waarin ze de bits rechtop zetten ipv "neerlegden" wat een behoorlijke stap was waardoor HDD's grotere capaciteit kregen, al durf ik niet meer te zeggen hoe groot precies.
Video op YT
Amiga van 20mb naar 210mb. :>
Ik had een Intel 80486 - 120MB met Windows 95 .. verder dan dat kan ik niet terug .. :X

.. Want daarvoor was er helemaal geen PC in huis .. :D


.

[Reactie gewijzigd door MPIU8686 op 18 december 2024 15:50]

En in computertijd ook een miljoen jaar geleden :)
Speciaal voor jou het filmpje van Hitachi, toen ze nog harddisks maakten: YouTube: Get Perpendicular
Klopt,had voor de ST een megafile 30...
32 hele megabyte in pizzadoos formaat, met het geluid van een straaljager 😂
Maar de snelheid vs een 720kb 3,5 was fenomenaal ..
Mijn eerste harddisk was 25 mb
Dankzij hamr hebben de nieuwe Exos M-drives voor het eerst een capaciteit van 3TB per platter.
10 of 11 platters totaal dus.. best veel. Vroeger was twee de sweet spot en 5 zo'n beetje het maximum.
Ik heb 20TB schijven in gebruik, die hebben evenveel platters, dat is toch niet meer wat ik me herinner van een HDD. Ik zou er geen OS vanaf draaien. Maar snel zat voor archivering of dergelijke. Ik heb al snelheden gezien van 280MB/s, sequentieel ofc. Heb er nu zo’n 2 in raid 0 draaien voor minder belangrijke data, dat is helemaal gek.

[Reactie gewijzigd door BlaDeKke op 18 december 2024 11:43]

5MB/sec was vroeger erg snel he ;) in de tijden van de <2GB harddisks... 10MB/sec was absurd snel. HDD's trekken nog altijd (net) niet een SATA poort vol, maar zijn zoveel sneller dan vroeger. Voor echte snelheid zal je toch aan de nvme storage moeten gaan.
Ik herinner me nog toen ik van IDE naar UDMA ging. Plots een whopping 33MB/s bandbreedte die beschikbaar kwam; ongezien toen :-D
** ik word oud **
Ik ook, maar ik ben al lang blij dat we van de master/slave jumpers af zijn. ;) Overigens, volgens mij zijn IDE en ATA (later PATA) namen voor hetzelfde. udma is ook wel ata-4, oftewel een nieuwere versie / revisie van ATA (nog steeds parallel, in tegensteling to het nog steeds gebruikte seriele SATA).
Toch jammer dat de snelheid een beetje blijft steken tegenwoordig. Stille 25000 toeren HDD's zou mooi zijn anno 2024. Maar nee, netjes 5400 toeren zoals 15 jaar terug.
Het grootste probleem is dan de warmte die je moet kunnen afvoeren (buiten geluid).
Ondanks deze hdd een andere user case hebben. Als deze straks los te verkopen zijn, zou je deze in principe gewoon in een gaming pc kunnen stoppen??
En wat is de cache (en andere prestaties) verhouding met bijvoorbeeld een barracuda 3.5 schijf? ik vond dat wel een interessante gedachten.
Latency hangt min of meer alleen maar van de rotatiesnelheid af en de snelheid hangt min of meer alleen maar van de datadichtheid af. Dat is eigenlijk bij alle HDDs zo. Je zou de prestaties dus grotendeels kunnen berekenen. De praktijk-prestaties hangen verder vooraf af van hoe je data gestructureerd is versus hoe jij toegang wilt tot je data. De cache, dat is iets wat in de spec sheets staat en dat is nu nog onbekend dus. Maar mijn Exos 20TB-schijven hebben 256MB cache en doen zo'n 285MB/s sequentieel. Ik verwacht niet dat het bij de 30TB-modellen heel veel meer gaat zijn, misschien 512MB cache en als je geluk hebt 400 MB/s seq, maar dat was het wel een keer. Het OS weet doorgaans veel beter dan de schijf welke data in de toekomst nog nodig is en doet zelf ook aan caching dus daarmee is cache van de schijf zelf ook niet zo enorm relevant.

Ik koop HDDs allang niet meer voor "prestaties" want elke SSD rent er rondjes omheen, maar alleen voor big storage waarbij dat niet zo van belang is. Als ik dan met grote datasets die niet in RAM passen random moet werken kopieer ik die "even" naar een SSD en ga ik van daaruit aan de slag. Voor best veel situaties kan je prima uit de voeten met een 4TB SSD die goedkoper zal zijn dan een van deze schijven (bij introductie). Voor een 24TB-model betaal je nu al het dubbele van zo'n SSD, dus kosten kunnen eigenlijk geen issue zijn. En omdat ze ook sequentieel niet echt snel meer zijn volgens de huidige standaarden zet je er doorgaans een flink aantal van in een RAID-opstelling zodat je >1GB/s ofzo kan halen. Maar dat is niet echt nuttig meer voor een game-pc. Dus eh... ja, kan gewoon in een game-pc maar er zijn veel betere oplossingen die veel goedkoper zijn binnen de behoorlijk gelimiteerde context van wat je op een game-pc normaal doet.

[Reactie gewijzigd door DataGhost op 18 december 2024 11:56]

Het hangt veel van de situatie af. Als je er genoeg in een ZFS mirror pool doet kun je dicht in de buurt van je totale SATA-snelheid komen. Door de gespreide warmte-afgifte gaan ze dan ook nog langer mee. Als ik een PB snelle opslag nodig had, grote kans dat et Seagate mech schijven worden.
Stroomverbruik is maximaal 8,9W, in principe wel. Maar snelheid.

Maar puur om enkele games te installeren heb je wel genoeg aan een 4TB NVMe momenteel of je moet echt heel je library van steam/epic/uplay installeren
.. als ze nou al eens als standaard met 8TB NVMe's zouden komen zouden de prijzen van de 4TB NVMe's opnieuw betaalbaarder worden en daarna richting 16TB NVMe's.
Kan ik eindelijk alle CoD games op 1 schijf installeren.
oh wauw van 24TB direct naar 30 en 32. Grote stap.
Dat de 22TB+ discs nu maar snel goedkoper worden. Had 1 22TB in mijn nieuwe NAS gestoken 2 jaar geleden (400€, grootste capaciteit die toen bestond) met de verwachting om er meerdere bij te proppen later als ze goedkoper wroden, maar ze zijn alleen maar gestegen in prijs...
Blijkbaar is de vraag de laatste jaren enorm gestegen.

Edit: oh blijkbaar heeft WD een 26TB schijf uitgebracht ook. Heb ik gemist

[Reactie gewijzigd door TMT op 18 december 2024 12:28]

Is de HAMR Technologie geschikt voor NAS (techniek & warmteontwikkeling)? Van SMR wordt sowieso afgeraden als ik het goed heb, maar het ging me even om de techniek daarachter
Hij heeft uiteraard bepaalde doeleinden, een daarom wordt hij niet als prosumentendisk gepresenteerd. In traditionele benchmarks zal hij goed presteren bij sequentieel schrijven, maar door grote blcksize zal zal die in andere benchmarks tegenvallen.
nadat de drives kwalificatietests hebben doorstaan bij klanten
Dus dat impliceert dat het om beta-producten gaat, waarbij de klant direct ook proefkonijn is? Ik zou geen 32TB aan data kwijt willen geraken. Bij een nieuwe techniek van opslag zou ik altijd wachten op de tweede generatie vooraleer het aan te schaffen.
Belangrijk om in je achterhoofd te houden is dat een schijf altijd en op elk moment "gewoon" kapot kan gaan ongeacht de kwaliteit ervan. Dus als jij persoonlijk een 32TB schijf hebt en je raakt data kwijt als deze kapot gaat dan heb je echt zelf meerdere dingen fout gedaan vind ik.

Ik denk dat dat klanten zijn die daar vrijwillig aan meewerken, en die hun omgang met data gewoon op orde hebben. Als je de boel in RAID draait maakt het verlies van één of meerdere schijven niet uit voor je continuïteit en als je backups (meerdere) hebt maakt het verlies van een array of zelfs verlies van een hele backup niets uit voor je data. Die klanten zullen o.a. cloudproviders zijn zoals al genoemd in het artikel, die zullen elke dag meerdere kapotte schijven moeten vervangen dus veel verschil maakt het niet voor ze of het nou normale of "beta-schijven" zijn. Zet zo'n schijf in een array met andere "normale" schijven en je hebt een goeie test voor real-world belasting te pakken zonder verder grote risico's voor je continuïteit, wat het primaire belangrijke ding voor ze is. Bij fatsoenlijke processen is het gebruik van backups dus niet eens noodzakelijk en kost het ze niet meer werk dan bij een willekeurige andere kapotte schijf.
Sneller hoeft van mij niet voor dit soort drives, maar hogere betrouwbaarheid dat ze 10+ jaar mee gaan vind ik belangrijker.
Ik was de laatste tijd ook al wat op zoek naar een vervangende schijf voor m'n NAS, en deze serie biedt echt enorm veel TB's / Euro. Maar als ik de reviews er op nalees is dat wel echt een ding.

Er is bijna geen review die de hoeveelheid uitval niet benadrukt. En als echt stil staan ze ook niet te boek.

Maar concurrentie is er nu eenmaal nauwelijks nog.
Heb je geen backup bedoel je? Uitval is iets wat bij alle fabrikanten een ding is en onaangekondigd kan gebeuren. Beter om je daar gewoon op voor te bereiden, dan maakt het ook niet zoveel meer uit als er een schijf kapot gaat. Hopelijk binnen de garantietermijn want dan krijg je gratis een nieuwe. Dus daarom koop je schijven met een zo lang mogelijke garantietermijn. Met 5 jaar op de Exos-serie zit dat prima in orde vind ik. Dat is even lang als de normale afschrijvingstermijn voor hardware.

[Reactie gewijzigd door DataGhost op 18 december 2024 12:34]

5 Jaar garantie is een leuke pleister op de wond, maar rompslomp heb ik ook geen zin in, laat staan mijn persoonlijke data naar een fabrikant te mogen sturen om dit te claimen. Liever gewoon een enkele betrouwbare schijf in dat geval, dan twee schijven te moeten kopen waarvan je uit review op kan maken dat het 50/50 is of ze de garantietermijn wel gaan halen...
Geen enkele schijf is betrouwbaar op de manier die jij voor je ziet, en "één enkele" schijf ook nooit. Elke schijf, altijd, kan om tig redenen kapot gaan. Dat kan komen door een productiefout of door iets anders intern in de schijf, doordat je ermee gooit / laat vallen, doordat jij of iemand er op de een of andere manier koffie overheen knoeit, doordat je PSU kapot gaat en hoge spanningen op je componenten zet, doordat de bliksem ergens inslaat, enzovoort. Daarnaast kan je je data kwijtraken door je eigen stomme fout, door je kat die over het toetsenbord loopt, door onbetrouwbare andere hardware (CPU/RAM/PSU), door virussen/ransomware en nog wat andere redenen. Dus: backups. Dan maakt het niet uit.

Je persoonlijke data bescherm je door de boel gewoon te versleutelen, wat tegenwoordig meer en meer standaard wordt. Dan krijgt de fabrikant een kapotte schijf met random data terug. "Ja maar datarecovery" daarvoor maakt het sowieso niet uit of de boel versleuteld is of niet, want a) je hebt de key en b) je hebt backups... toch?

Verder: schijven gaan meestal binnen een maand kapot of pas tegen of na de garantieperiode. Daar tussenin niet zo vaak. Doe daarmee wat je wilt, maar dit maakt wederom niets uit als je gewoon backups hebt.

Rompslomp valt verder ook wel mee, ik heb al redelijk wat schijven (van allerlei merken) terug mogen sturen onder garantie, dat is zo simpel als de boel aanmelden, SMART-rapportje erbij, inpakken, opsturen en een week of twee wachten tot je een nieuwe schijf in huis hebt. Kost je ongeveer een uurtje.

[Reactie gewijzigd door DataGhost op 18 december 2024 14:00]

Op dit item kan niet meer gereageerd worden.