Toshiba werkt aan mas-mamr-hdd's van meer dan 30TB

Toshiba en Showa Denko werken aan mas-mamr-hdd's. Dergelijke harde schijven moeten volgens de fabrikanten opslagcapaciteiten van meer dan 30TB mogelijk maken. Het bedrijf meldt nog niet wanneer zulke hdd's uitkomen.

In een persbericht melden SDK en Toshiba dat de bedrijven een opslagmedium voor mas-mamr-hdd's hebben ontwikkeld. Dat staat voor microwave assisted switching-microwave assisted magnetic recording. Die techniek wordt gebruikt om de recording tracks op de platters van hdd's te vernauwen, wat de dichtheid en daarmee de opslagcapaciteit van de schijf verhoogt.

Mas-mamr-drives zullen de huidige generatie mamr-hdd's opvolgen. Die opslagtechniek wordt momenteel al gebruikt in Toshiba's 18TB MG09-hdd's voor datacenters. Het is niet bekend over hoeveel platters deze hdd's zullen beschikken of wat de daadwerkelijke datadichtheid van de hdd's moet worden. Toshiba meldt wel dat mas-mamr moet uiteindelijk gebruikt worden in hdd's van 'meer dan 30TB'. Het bedrijf meldt ook niet wanneer de eerste van deze drives op de markt verschijnen. Vermoedelijk zullen de eerste mas-mamr-hdd's wel gericht zijn op servers en datacenters, net zoals het geval is met Toshiba's huidige mamr-schijven.

Momenteel wordt perpendicular magnetic recording nog relatief veel gebruikt in hdd's, maar de grenzen van die opslagtechniek zijn in zicht. Fabrikanten zetten daarom in op verschillende opvolgers. Naast Toshiba werkt ook Western Digital aan mamr-hdd's, hoewel dat bedrijf zich momenteel meer lijkt te focussen op energy-assisted magnetic recording, of eamr, dat ook een grotere datadichtheid mogelijk moet maken.

Een andere optie is heat-assisted magnetic recording. Toshiba en SDK geven aan dat ze momenteel ook werken aan dergelijke hamr-hdd's, oftewel heat-assisted magnetic recording. Andere fabrikanten ontwikkelen dergelijke schijven ook. Seagate is de eerste fabrikant met hamr-hdd's en verwacht in 2026 een 50TB-hdd met deze opslagtechniek uit te brengen. Het is niet bekend of Toshiba hamr als opvolger voor mas-mamr-hdd's ziet, of als gelijkwaardig alternatief.

Door Daan van Monsjou

Nieuwsredacteur

15-12-2021 • 18:00

42

Lees meer

Toshiba kondigt 16TB-hdd aan
Toshiba kondigt 16TB-hdd aan Nieuws van 8 januari 2019

Reacties (42)

42
41
25
1
0
14
Wijzig sortering
Als de lees en schrijfsnelheden ongeveer hetzelfde blijven is de vraag hoe nuttig dit is.
Een RAID of mirror rebuilden kost dan pakweg een week, en in die week is de kans dat er een bitje foutief gelezen wordt significant.

Zoals Robin Harris hier al zegt:
With an unrecoverable read error rate of 10^-14, you could expect a failed block read once every 12.5 TB or so.
Dus of de unrecoverable read error rate moet omlaag, of je hebt eigenlijk niks aan dit soort schijven.
Fabrikanten werken ook aan dual-actuator, waarmee je 2 onafhankelijke sets van lees en schrijfkoppen krijgt.
Hiermee verdubbel je de IOps en doorvoer.
Maar dit is geen oplossing voor unrecoverable Read error rate.

[Reactie gewijzigd door GarBaGe op 31 juli 2024 01:57]

schijven met 2 armen hadden ze in de jaren 90 al met de chinook drive.
Een parity drive kan dat toch prima opvangen?
De parity kan ook fout gelezen worden.
Uiteindelijk is dat ook alleen maar data.
En bovendien heb je dan al weer een extra disk nodig, wat het nut van grote schijven ook al weer minder maakt.
Zeker voor offline (backup) storage zijn grote schijven best interessant. Zeker als ze fysiek van en naar een kluis of offsite gebracht moeten worden.

Ja, tegenwoordig gaat een hoop via internet/cloud maar sommige data wil je misschien gewoon niet online hebben staan. Zelfs niet als het versleuteld is.

Al vraag ik mij wel af of je daarmee 50TB weet te vullen. Dergelijk grote schijven zijn vooral interessant voor cloud systemen denk.

[Reactie gewijzigd door NBK op 31 juli 2024 01:57]

Al vraag ik mij wel af of je daarmee 50TB weet te vullen. Dergelijk grote schijven zijn vooral interessant voor cloud systemen denk.
Not Bill Gates
640K is Enough For Anyone
Thuis bezit ik al +20 TB aan storage, ok ok NAS backup zit daar ook bij, en ben een beetje een hamster.
Alleen is de kans dat de data drive en parity drive tegelijk verkeerd gelezen worden natuurlijk een exponentieel stuk kleiner dan 10^-14.
Gelukkig is het 10^-15 dat scheelt iig. al een factor 10. En raid ben ik mee gestopt: ik moet toch backups maken (want raid is geen backup) en een RPO van 24 uur is voor de meeste data wel genoeg. Waar het niet genoeg is wordt het elders opgeslagen met raid1 en zfs.
RAID zorgt niet alleen voor data bescherming bij het falen van een harde schijf. Het zorgt er ook voor dat data gewoon beschikbaar blijft tijdens het falen van de schijf en tijdens het rebuilden. Bij een op backup's gebaseerd systeem is de data tijdens het falen van een schijf offline en tijdens het restoren grotendeels. En een backup schijf word niet actief gemonitord. Hij kan dus best defect raken nadat je hem uit het systeem heb getrokken zonder dat je ervoor word gewaarschuwd.

Ik ben hier in huis inmiddels ook wel overgeschakeld naar RAID6. Een rebuild geeft best wat stress op de nog resterende schijven.
Vandaar de RPO van 24 uur: 24 uur onbeschikbaar is voor sommige data niet relevant. Raid1 voor belangrijke 24/7 data. De rest op 'cold storage' met fatsoenlijke backups. Alles op raid doen EN backups is vele malen duurder.
Dan wordt het tijd voor simpele ECC op block level. Dan gaat de waarschijnlijkheid op bit errors met een factor 10^6 verder naar achteren en heb je pas problemen bij een dubbele bitfout.
Klinkt goed! Tijd voor een nieuw filesystem dat dat doet.
Synology heeft btfrs zo gehackt dat het werkt in raid. Mocht de software merken dat de checksum met het bestand niet overeenkomt, probeert de software met de informatie uit de RAID het bestand weer te repareren. De nieuwe generatie file systemen hebben in mijn ogen RAID weer bestaansrecht gegeven. Data mirroren en een checksum.
Ik snap niet precies wat je bedoelt, btrfs ondersteunt meerdere RAID vormen.
Het bestaansrecht voor RAID zit m.i. meer in availability en performance.
btfrs werkt niet goed met raid. Synology heeft het aangepast. (gehackt buiten de opensource om) Dus je hebt nu de voordelen van raid met de voordelen van btfrs.

https://daltondur.st/syno_btrfs_1/
Er bestaat meer dan RAID 5 en 6. En je kan de metadata ook in bijv RAID10 erbij zetten.
Ik vind raid10 al jaren achterhaald. Dat was leuk 20 jaar geleden toen wij allemaal nog 32 bit 1 core cpus hadden. Pak tegenwoordig een 4 disk opstelling. Met de rekenkracht die wij nu hebben is raid5/6 zo snel geworden dat vier schijven tegelijk kunnen lezen. Tegen de lees snelheid bij twee schijven in een raid10 in een vier disk opstelling.

[edit]

Misschien is raid10 nog niet achterhaald. Ik moet echt even door mijn hoofd later rollen als ik douche.

[Reactie gewijzigd door 4POX op 31 juli 2024 01:57]

Dat zo ook prima in hardware op sector of cilinder level kunnen. Het voordeel is dat het compleet transparant geïmplementeerd kan worden in de disk zelf.
Zoals Robin Harris hier al zegt:
Dat artikel heet specifiek "Has RAID5 stopped working?". Er zijn veel meer RAID vormen dan RAID5, treed bv. hetzelfde issue op bij RAID6? Wat ik bv. al jaren draai omdat ik RAID5 te risico begon te vinden...
Bij RAID6 verandert de URE-rate niet. De kans dat je twee misreads tegelijk hebt is wel een heel stuk kleiner. Mijn NAS is dan ook in RAID6.
Het moeten niet alleen 2 misreads zijn maar ook nog eens 2 keer exact het zelfde stukje data. Die kans is dus min of meer 10^-15x10^-15.
Alleen is bij het rebuilden de kans op een totale schijf failure van 1 van de resterende schijven gewoon best hoog.

Ik schrok trouwens meer van de tijd die het koste om mijn RAID5 om te zetten naar RAID6. Daar is mijn controller gewoon een maand mee bezig geweest.
Ik had in mijn RAID5 een schijf met een slechte sector. Die wou ik eruit halen. Voor de zekerheid eerst de boel naar RAID6 gezet. Daarna schijf eruit en rebuilden.
Uiteindelijk is er ergens in dat proces dus 1 schijf echt gesneuveld. De rotte schijf is wel blijven werken en is nu mijn offline backup schijf voor onbelangrijke data (favoriete films, series e.d. daar is meestal wel weer aan te komen mocht het echt mis gaan.)

[Reactie gewijzigd door NBK op 31 juli 2024 01:57]

Hoeveel schijven van hoe groot zaten er dan in dat NAS dat het zo lang duurde?
Van 5 naar 6 schijven van 6TB.

Maar in dit geval is het een server voor thuis dus ligt heel oude controller in. Een 8-poorts Adaptec 6805T of zoiets.
Ik kwam van een situatie met een raid array wat op een onboard raid controller zat. Merkte al vrij snel dat dat hopeloos is als je wil upgraden dus wou weer naar een externe controller.
Enige eisen die ik had voor de controller was dat het PCIe moest zijn en dat hij arrays van meer dan 2TB moest aankunnen. Volgens mij doet deze niet eens 6gbit sata Dat kan hij dus nog net wel. Dit was zo ongeveer de goedkoopste die ik kon vinden (wel met backup 'batterij' overigens). Wel heel fijn kaartje verder hoor :)

Rebuilden van het array na het vervangen van de schijf duurde overigens minder dan een dag. Iets van 18 uur dacht ik maar misschien was het nog wel korter.

[Reactie gewijzigd door NBK op 31 juli 2024 01:57]

Gebruik altijd indien mogelijk software RAID. Mocht je controller + een disk tegelijkertijd falen, kan je op andere hardware herstellen. RAIDZ (ZFS) vind ik een mooie techniek.
Ik schrok trouwens
Tja, dan ga ik je blij maken met de term 'bit rot'. Naast (hardware-) raid is ook een filesysteem als ZFS een goede keuze ...
interresante insteek,
maar de cijfers aangeleverd in de link tellen niet op.

If you had a 8 drive array with 2 TB drives with one failure
your chance of having a unrecoverable read error would be near 100%

die 12.5TB is gemiddeld per disk .
dus 7 X 12,5TB geeft volgens hem gegarandeerd een error?
aangehaalde voorbeeld zal 7X2tb zijn , 14 TB ,
terwijl je minstens 87TB (7x12,5TB) kan lezen zonder 1 error tegen te komen .

ook lees je dat dit verschillende jaren 10^-15 is geweest, en plots is teruggesteld naar 10^-14.
dus factor 10meer , 125TB per disk voor je 1 fout tegenkomt.

is misschien niet altijd even duidelijk naar de consument, maar hoeveel consumenten draaien raid 5 thuis op gewone disks? ,
dan zou ik al NAS storage disks nemen met een hogere rating.
klopt, het artiekel is ook compleet uit een plek getrokken waar de zon niet schijnt. als het namelijk wel zo kloppen zou je niet eens een moderne harde schijf 1x kunnen lezen zonder een URE. dat zou betekenen dat je elke harde schijf die meer dan een paar TB heeft onverkoopbaar/bruikbaar is.

[Reactie gewijzigd door flippy op 31 juli 2024 01:57]

De gouden vraag blijft natuurlijk wat de prijs per GB is… (en natuurlijk daarna wat de betrouwbaarheid is)
Dat is voor dit soort zaken natuurlijk heel complex. Een simpel sommetje van prijs/grootte= is leuk, maar bij servers en datacentra moet je ook alle kosten van servers en rackspace erbij rekenen.

Er zal uiteraard een slimme ict-er zijn die de volledige berekening gaat maken voor hun toepassing. Maar denk niet dat dat openbaar wordt.
Zo enorm complex is het ook weer niet, je moet alleen e.e.a per U berekenen ipv per disk. Kosten server, stroom, rackspace, backup evt. en onderhoud, dat is het grofweg wel.
Per U is een betere berekening ja. Maar dan wordt het wel complex natuurlijk, omdat je tientallen cpu's, mobo's/servers etc hebt. Die allemaal ook andere stroomkosten hebben.
De complexiteit hangt vooral af van de vraagstelling.
Optie 1: Wil je het goedkoopste systeem met X opslag capaciteit.
Optie 2: Wil je voor X bedrag een systeem met de maximaal haalbare capaciteit.

Uiteindelijk zullen de stroomkosten per GB opslag niet zoveel uitmaken. Als de capaciteit per schijf te laag word komen er extra kosten bij voor de omliggende hardware en rackspace. Dan worden die goedkopere lage-capaciteit schijven al snel duurder dan de wat duurdere hoge-capaciteit schijven.

Met een systeem met hogere aantallen lage-capaciteit schijven ten opzichte van een systeem met hoge-capaciteit opslag is de kans op uitval vaak ook hoger omdat je meer componenten online heb die kunnen falen.

Je komt uiteindelijk toch al gauw uit op de hoogste of 1 na hoogste capaciteit als meest voordelig.
"per U" hoeft natuurlijk niet slechts 1 getal te zijn, als je erover denkt om die dingen op 8 plekken in je infrastructuur toe te passen dan reken je natuurlijk 8 verschillende sommen uit.

Daarnaast kan het best zijn dat de Per U prijs hoger is, maar dat je door de capaciteit met 1.000U minder afkan.
Vergeethoek igaat voor datacenters natuurlijk om hoeveel een datacenter kost capex met oplossing A en oplossing B en vervolgens ook wat het kost om het draaiend te houden opex. Energieconsumptie voor hdds zijn hoger, waardoor je meer koeling nodig hebt en zwaardere switchgear. Maar mogelijk is volume voor 50 TB minder dan bij SSD’s, wellicht kan je je datacenter kleiner houden. Misschien is de levensduur bij always on gebruik beter?

Dit zijn cases die per locatie, toepassing, energieprijs etc. bekeken worden.

Wil je een data center maken? Dan heb je ook voor je industriële pc en je plc’s te maken met lange levertijden, drukte en te weinig personeel. Dus ook in de oplevertijd kan een lichtere installatie iets schelen.
De eerste nieuwsberichten over MAMR stammen alweer uit 2013. Het mag onderhand ook wel eens komen.
het idee hebben is wat anders dan het commercieel kunnen maken,

[Reactie gewijzigd door flippy op 31 juli 2024 01:57]

http://www.baarf.dk/
"BAARF was invented by James Morle on Wednesday the 4th of June, 2003, in the Grange hotel outside Birmingham while having a beer or two with Mogens Nørgaard.

On the following day - Thursday the 5th of June, which happens to be the Danish national holiday celebrating our constitution - the Battle Agaist Any Raid Five initiative was announced jointly by James and Mogens in front of the UK Oracle User Group UNIX Special Interest Group meeting at the Grange hotel.

Both announcers were careful to sport the “Enough is Enough” look (including arms folded across the chest) while delivering the message to about 80 delegates.

It’s important to note, that RAID-3, -4, and -5 are all included in the initiative, so the F in BAARF both stands for Five, Four, and …err… Free.

The reason for BAARF is that we’ve had it. Enough is Enough. For 15 years a lot of the world’s best database experts have been arguing back and forth with people (vendors and others) about the pros and cons of RAID-3, -4 and -5.

Cary Millsap has written excellent articles on RAID technologies that should have stopped the use- and pointless discussions many years ago. Many others have written splendid articles about it as well. Many.

James Morle and others have written books where they discussed the uselessness of RAID-F stuff.

It has been the same arguments, the same mistakes, the same misunderstandings that have guided the discussions for all those years.

The same frustrations from people that knew RAID-F is not a good choice.

The laws of Nature are still solidly in place and are not going to be changed by RAID-F vendors anytime soon.

So we’ve decided to stop arguing and debating with people about it. We will lower our blood pressure permanently by refusing to have any more arguments about it.

We’re done. It’s done. Everything has been said. It’s time for action – and making up your mind.
..."
You know, I have one simple request.
And that is to have sharks harddisks with frickin' laser beams attached to their heads!

Op dit item kan niet meer gereageerd worden.