Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

WD zegt met mamr-technologie 40TB-hdd's te kunnen maken in 2025

Western Digital zegt dat het in 2019 zijn eerste hdd's met microwave-assisted magnetic recording-technologie gaat uitbrengen. De techniek moet een hogere datadichtheid mogelijk maken. In 2025 zou dat moeten resulteren in 40TB-hdd's.

WD presenteerde de mamr-technologie op een eigen evenement en demonstreerde daarbij naar eigen zeggen de eerste hdd die er gebruik van maakt. De techniek is uitgevonden door professor Jimmy Zhy van de Carnegie Mellon University. Hij publiceerde daar al in 2007 over en was aanwezig bij de presentatie van WD.

De fabrikant zegt al jaren te werken aan mamr-technologie en claimt dat er recent een doorbraak heeft plaatsgevonden op gebied van betrouwbaarheid en prestaties. Volgens WD kan doorontwikkeling van de techniek per jaar de datadichtheid met gemiddeld 15 procent verbeteren.

De mamr-technologie maakt gebruik van microgolven die worden gegenereerd door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt. Deze genereert een elektromagnetisch veld dat het mogelijk maakt om gegevens met een veel hogere dichtheid naar een magnetische laag te schrijven, zonder dat daarbij de betrouwbaarheid in gevaar komt.

Microwave-assisted magnetic recording is een alternatief voor heat-assisted magnetic recording, ofwel hamr. Ook aan die technologie wordt al jaren gewerkt. Seagate schoof die techniek in 2010 naar voren als opvolger van pmr-hdd's, maar tot nu toe zijn er nooit hamr-hdd's verschenen. Dat komt volgens WD vanwege 'uitdagingen' op het gebied van materialen en betrouwbaarheid. Bij de mamr-techniek zou dat geen rol spelen. WD stelt dat de kosten van mamr-hdd's vergelijkbaar zijn met die van huidige pmr-hdd's.

In de aankondiging zegt WD dat het verwacht in 2019 de eerste mamr-hdd's gaat leveren. Het zou gaan om hdd's met een 'ultra hoge' capaciteit voor datacenters. Wat de capaciteit is, maakt de fabrikant niet bekend. Traditionele hdd's gaan momenteel tot maximaal 14TB.

Door

Nieuwsredacteur

112 Linkedin Google+

Reacties (112)

Wijzig sortering
De HDD zal zich echter wel moeten blijven richten op lage prijs per GB/TB.

Een HDD blinkt namelijk niet uit in performance/TB waar een SSD dat wel doet. Is een SSD goedkoop? Nee, maar ze zijn al goedkoper geworden door de jaren en dat zal op termijn ook nog verder gaan.

Op dit moment is er inderdaad een tekort waardoor de prijzen nog (kunstmatig) hoog zijn, maar dat gaat ooit veranderen.

2025 is nog ver weg. We hebben nu de eerste schrikbarend dure SSD's van 32TB al gezien, maar dat kan in 2025 een heel ander verhaal zijn.

Daar moet de HDD met zijn lage performance dan wel tegen blijven opboksen.
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Pak een 16gbit fiber SAN, doe hier 12 van deze disks in (RAID6+2), dus effectief 8 stuks bruikbaar.
Dus 320TB in een 2u doosje in je datacenter.
Met 8 spindles die draaien, haal je gewoon een leuke snelheid naar je device, en de SAN vangt met caching en processor kracht de RAID6 vertraging wel op.
Dat laatste dacht ik ook maar is toch lang niet altijd waar. We hebben een SAN met 8GB RAM caching en 3.2TB aan SSD caching. Toch merken we grote verchillen, zowel sequentieel als bv 4k random IO tussen RAID6 sets met 6 disken (dus 4 'effectief') en wat grotere data-vdisks met 16 disks in RAID6. De overhead is voor kleine writes dermate groot dat dat bijvoorbeeld geen serieuze storage voor VM's is, terwijl de 6 disk sets als de brandweer performen.
Natuurlijk zal eea afhankelijk zijn van de SAN die je gebruikt (HPe in ons geval), maar vergis je niet in RAID penalty!
Als je 8GB cache vol zit zullen de kleine writes direct naar de SSD gaan. Deze zijn voor kleine writes niet heel erg snel. Sneller dan harde schijven uiteraard. De hit / miss ratio bij reads zal ook niet zo best zijn. Je hebt gelijk over de raid penalty vooral bij raid 6. Waarom geen raid 10? Die paar disken zijn het geld niet toch? Als ik zo heel snel dit lees dan zou ik zeggen die 8GB is waarschijnlijk veel te weinig en raid 6 is niet optimaal voor de huidige workload.
Nou niet helemaal. Als de cache en controller niet toereikend is dan beland je wel in een raid 6 setup met hoge penalties. Alles hangt af hoe groot de cache pool is natuurlijk. Dan kan je 2 dingen doen. Migreren naar raid 10 met minder penalties of investeren in een grotere cache pool zodat je een hogere hit / miss ratio behaald.
Jij gaat even een 40TB disk restoren met een trage lees snelheid op de andere schijven? Worden je restore tijden zo hoog dat er een kans is dat je er 3 dood hebt op hetzelfde moment. Vaarwel RAID 6 array.
De aanname dat het trage disks zullen zijn is wellicht niet juist. Ik verwacht juist dat de snelheid mee zal schalen want anders ga je hele andere problemen krijgen. Je heb namelijk x aantal actieve gebruikers per y amount of storage, als je datadichtheid veel groter word, maar je lees/schrijf snelheid niet, dan loop je er a vlot tegenaan dat je users niet snel genoeg bij de data kunnen komen omdat er teveel users zijn per disk.
En dat niet alleen, maar er zijn rebuild technieken die weinig IO verbruiken tov de traditionele IOs die nodig waren aan een raid X-Or rebuild. NetApp gebruikt zoiets. Dan worden alle levende disken gelezen en wordt de X-OR in memory gedaan. Dan wordt het resultaat op de spare teruggeschreven. De NetApp heeft 256GB - 1TB aan intern geheugen waardoor zo'n rebuild snel en betrouwbaar kan. Ik ga ff het plaatje van de cursus erbij zoeken ;-)
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Wat als je 40 TB HDD's gebruikt om backups (archieven) naar op te slaan, zonder dat je verwacht dat je ze er ooit weer vanaf hoeft te trekken (tenzij je een backup moet herstellen, natuurlijk)? Voor grote backup repositories kan dat mogelijk goedkoper met minder disken.

Je moet er alleen vanuit gaan dat RAID draaien niet meer realistisch is als de rebuild time meer wordt dan enkele dagen. Daarvoor zijn andere (slimmere) file systems in opkomst.
Soort write once dus. Daar zijn tapes voor. Stabieler in opslag en goedkoper.
Onderschat niet de kosten van tape.
Random access is een big-no-no.
Voor een beetje omvangrijke tape library heb je een tape-robot nodig + meerdere drives + een cache omgeving + personeel wat er mee om kan gaan + af en toe teruglezen en opnieuw wegschrijven + tapes.

Alleen als je alle zaken al hebt staan, is tape goedkoper, met 1ct per GB, waar hdd-media op ongeveer 3 ct zit.
https://tweakers.net/nieu...ling-330tb-cartridge.html

[Reactie gewijzigd door Android Fan op 12 oktober 2017 18:07]

Ik wil mijn reactie onder dat bericht nog wel een keer herhalen hoor ;)
De grootste tapes zijn op dit moment nog steeds kleiner dan de grootste hdd's en kosten-technisch zijn de 4 TB tapes het goedkoopst met een prijs van ongeveer 40 euro per tape. => 1ct per GB.
Wat als je 40 TB HDD's gebruikt om backups (archieven) naar op te slaan, zonder dat je verwacht dat je ze er ooit weer vanaf hoeft te trekken
Als je je backup niet getest hebt, dan heb je geen backup. Dus je moet 'm er zeker wel 'vanaf trekken'.
Als je je backup niet getest hebt, dan heb je geen backup. Dus je moet 'm er zeker wel 'vanaf trekken'.
Dat kan je ook steekproefsgewijs doen voor de hele data. Daarnaast kan je de ontvangende kant ook hashes van alle ontvangen parts laten berekenen.
Zou ze wel willen in m'n plex server anders ;) Enneh als je er een stuk of 10 hebt en je draait die mirrored met ZFS bijv dan is je perfomance waarschijnlijk prima of goed genoeg voor wat je ermee wilt doen.
De catch is dat je waarschijnlijk tzt met 2 SSD's hetzelfde (veel meer IO's) kunt tegen dezelfde prijs of minder. zonder mechanische risicos, met minder stroomverbruik.
Helemaal waar het is alleen even afwachten hoe snel de ontwikkeling op dat gebied gaat en of de tekorten aan blijven houden de komende jaren. Uiteindelijk gaat het puur om de prijs per GB.
die ontwikkeling gaat razendsnel.. kijk naar de pc ontwikkeling van de laatste 5 jaar... enige waar de pc in is blijven treuzelen is RAM geheugen.. cpu's/gpu's/mobo features/(aftermarket) koelers/SSD's.. allemaal razendsnel gegaan.. 2025 hebben we al dingen die we niet eens kunnen bevatten vandaag de dag.. 7 jaar geleden was een 2 TB SSD 'never heard off' vandaag de dag zitten we bijna op 32 TB SSD's

nieuws: Samsung brengt eerste ssd met ddr-nand uit
Als je 400 TB aan video data hebt vraag ik me af of Stichting (no-)Brein niet een keer aan de deur staat tegen die tijd..

Overigens wil je ook niet de langzaamste HDD's voor je media server, zeker niet aangezien je met die grootte waarschijnlijk hoge kwaliteit videomateriaal wilt.
Dit is een goede Use-Case voor zoveel storage.
https://www.youtube.com/watch?v=uykMPICGeqw

Maar ook voor fotografen, DJ's, 3D renders, Full system backups, etc.
Tja nu heb ik effectief 24 TB en moet ik constant dingen wissen omdat het volloopt. En als je een RAID setup maakt met mirroring heb je effectief natuurlijk ook 'maar' 200 TB. En vol krijg je het wel hoor, uiteindelijk dan. Als je het hebt gebruik je het dan download je gewoon meer crap en wis je nooit meer iets.

En Brein ach, of je nu 1 TB hebt of 1000 puur voor privégebruik. Ik denk niet dat Brein 'ruikt' hoeveel ruimte jij hebt en daarop af komt ;)
Dat ligt toch helemaal aan je toepassing? Wij draaien incremental forevers met ReFS integratie voor synthetic fulls. M.a.w. enkel de dagelijkse delta wordt geschreven met wat overhead. Dat is best te overzien. Bovendien, veel netwerken zijn nog 1Gbps en dan heb je relatief weinig aan je SSD powered backup-omgeving. Daar gaat je backup weinig sneller van lopen.

Afgezien van andere problemen als bv lange rebuilds kan ik dergelijke schijven voor bepaalde toepassingen best toejuichen. Cold-storage, archive storage, dat soort zaken.
Alhoewel veel LAN 1Gb/s is, kun je richting infiniband (40Gb/s is goedkoop op ebay) en 10Gb/s LAN denken, zeker in enterprise waar dit soort bulk data gebruikt word is een 10Gb/s netwerkje redundant aanleggen de kosten niet tegenover de vele honderden terabytes aan data die opgeslagen dienen te worden.
Nog een usecase: (video) surveillance.
Geen gekke gedachte. Een transportbedrijf met een groot magazijn heeft zo maar 50 camera's hangen.

Als deze van SD naar een 24/7 4K opname over wil stappen en dit een maand willen bewaren heb je volgens deze calculator een flinke verbinding (2.4Gb minimaal) en opslag nodig.
Zie wel een toepassing voor een relatief goedkope/kleine petabyte raid10 storage :) (stop je er nog wat ssds en/of flink ram in voor caching...)

[Reactie gewijzigd door Zoijar op 12 oktober 2017 10:14]

Niet alle storage hoeft bloedsnel te zijn. Zeker de storage voor severs die aan internet hangen kan de 2e lijn opslag makkelijk uit hdd's bestaan. Of voor bedrijven die veel data online beschikbaar moeten hebben maar b.v. de data van voorgaande jaren minder vaak nodig is. Deze op goedkope hdd's te zetten ipv dure ssd's is dan een goede keuze.
Voor databases zijn deze disken dan weer minder geschikt.
Multimedia storage. Ik vezamel films en series... heb meer aan stabiele massaopslag dan dat ik heb aan snelheid.
Waar denk je dan dat al die sleepnet voice recordings van iedereen gaan blijven?
Index op SSD, volume on HDD

Om maar niet te spreken van al die TV en Alexa recordings die permanent aan staan. }>
Die prijsstagnatie van SSD's duurt wel al zo'n 2 jaar, het is nog maar de vraag of en wanneer de prijs per GB weer significant gaat dalen. Uiteindelijk zal het inderdaad wel, maar of het zo snel gaat dalen in de komende 7 jaar dat het harde schijven voor massa opslag gaat vervangen? Dat denk ik eigenlijk echt niet.
Een hogere datadichtheid bied ook mogelijkheden om de data sneller te kunnen lezen/schrijven. Een belangrijke beperkende factor is namelijk de mechanische beweging van de kop en de draaisnelheid van de schijf. Zelfs als de beperkende factoren gelijk blijven schuift er nu ineens ruim twee keer zoveel data onder de kop door.
Fragmentatie gaat dan weer een rol spelen, maar daar bestaan al technieken voor (gebruik twee of drie leeskoppen) om dat voor een deel te tackelen.

De nieuwe techniek kan dus ook wel eens een boost geven aan de snelheid van de HD, Voor datacenters is dat toch weer interessant.
Prachtig voor massaopslag natuurlijk. Maar is het op een gegeven moment
niet gewoon trekken aan een dood paard? SSD's worden steeds betaalbaarder
en de opslagvolumes daarvan nemen steeds verder toe...
Dit richt zich meer op de zakelijke markt, waar zoveel mogelijk opslag per kubieke centimeter ruimte word gebruikt. Ruimte is duur, en los daarvan is het makkelijker om 1 HDD van 40TB te koelen dan 8 van 5TB etc.. Er zijn voldoende toepassingen waarbij de hogere snelheid van een SSD niet zo belangrijk is.

De rek is dus nog niet uit HDDs. Althans, niet voor de zakelijke markt, want ik kan me geen consument indenken waarbij voorgaande het geval is. Geef mij maar een betaalbare 2TB SSD, dan ben ik klaar.
SSD's worden goedkoper, maar we hebben ook nog steeds tape als backup, goed die zijn ook een stuk "betrouwbaarder" dan hdd's, immers de rol tape kun je zo in een nieuwe doos schuiven en alleen de fysiek beschadigde delen ben je kwijt (je kunt zo stukken aan elkaar knopen en weer uitlezen). Bij een hdd hoef je dat niet te proberen door de nog vele hogere dichtheid.

Maar ik zie een soort balans ontstaan in de toekomst, waar het nu hdd > tape is zal het langzaam ssd productie, hdd dagelijks backup, tape lange termijn backup (wekelijks?) of full-replication zijn, en hdd's als incremental backup.
Zo langzaam gaat niet het.
Veel van onze klanten gebruiken storage tiering waarbij veel gebruikte blokken automatisch naar SSD's/Flash storage verhuizen en data die al lang niet meer is benaderd en aan enkele andere kriteria voldoen automatisch verhuizen naar tape (deep archive), daarbij laten ze een stub file staan en voor de gebruiker is het gebruik van deze (deep archive) data hetzelfde behalve dat het openen van zo'n bestand wat langer kost.
Vanuit het bedrijfsleven is door de zeer betaalbare read intensive SSD's, nu ook in degelijke dual controller storage oplossing steeds meer vraag naar flash only en zie je 10K & 15K disk verdwijnen waarbij eigenlijk alleen nearline nog overblijft als tier voor tape.
Mwoah, ik zou een NAS thuis nog steeds gewoon voorzien van de traditionele draaiende variant, omdat het een goede factor goedkoper is en er dan behoorlijk wat TB in 2 slots past.
Prijs per GB is nog steeds een factor 10 als ik zo snel in de pricewatch kijk naar SSD's en HDD's van 1,5TB en meer.
Dacht in eerste instantie dat ze weer op het 'BigFoot ' formaat gingen over stappen, gezien dit wel een hele grote sprong in data dichtheid is.
ik zou graag hdd's in bigfoot zien, dan kunnen we zonder helium ineens makkelijk 20TB? opslaan in een schijf. De techniek is er al, en gezien de dichtheid in enterprise omgevingen belangrijk is zal bigfoot met aangepaste behuizingen volgens mij per volume eenheid ook efficienter zijn?
Daarnaast draaien de buitenkanten van de platters minder snel dan de binnenkant,
Het aantal toeren is op ieder plek gelijk. Maar de omloopsnelheid aan de buitenkant is hoger, dus eigenlijk is hij daar sneller. Meer afstand afleggen in dezelfde tijd als de binnenkant.
De eerste partitie is dan ook sneller dan de tweede of derde. Want buitenkant.
En hoe zit het met de snelheid? Zal waarschijnlijk ook omhoog gaan als de dichtheid hoger wordt?

Lijkt me wel nodig want met 150/200 MB/s gaat het wel even duren voordat je 40TB vol hebt. Laat staan als je random iets gaat doen i.p.v sequentieel.

[Reactie gewijzigd door Navi op 12 oktober 2017 09:48]

Ik gok dat sequentieel schrijven behoorlijk snel is gezien de data dichtheid. En wie weet, misschien wordt dit wel iets met nvme, of sata-4, 2025 is nog ver weg en een nieuwe standaard zou er zomaar kunnen zijn.
Dat zou een versnelling betekenen, tot nu toe moeten we het met 2TB per jaar erbij doen.
Ik ben op dit moment aan het over gaan van 4TB naar 8TB schijven in mijn nas, daar ligt nu de beste prijs/grootte verhouding (tenzij ik 10 TB schijven uit WD's kant en klare externe HDD's ga halen).
Ik verwacht over een jaar of 3 over te gaan op de 12TB schijven. Tenzij SSD's opeens een compleet andere marktbeweging gaan maken zie ik niet opeens het overbodig worden van de klassieke 'langzame' HDD. Fijn dat er al een horizon tm 2025 is.
Wat doe jij met je NAS dat je over drie jaar 12TB schijven nodig hebt.. O.o
Ben benieuwd of door die hogere dichtheid van informatie de doorvoersnelheid dan ook navenant hoger wordt.
Het maakt niet uit hoe groot ze kunnen worden.... maar wat gaat het uiteindelijk kosten? Dat is de vraag.
Even quick en dirty rekenend (geen rechten aan verlenen): SSD's zijn jaarlijks met een factor van ongeveer 1,261 kwa capaciteit gegroeid:

Jaar - GB - TB
2006 - 80 - 0,08
2007 - 101 - 0,10
2008 - 127 - 0,12
2009 - 160 - 0,16
2010 - 202 - 0,20
2011 - 255 - 0,25
2012 - 322 - 0,31
2013 - 406 - 0,40
2014 - 511 - 0,50
2015 - 645 - 0,63
2016 - 813 - 0,79
2017 - 1026 - 1,00
2018 - 1293 - 1,26
2019 - 1631 - 1,59
2020 - 2056 - 2,01
2021 - 2593 - 2,53
2022 - 3270 - 3,19
2023 - 4123 - 4,03
2024 - 5199 - 5,08
2025 - 6557 - 6,40

Dat zou in theorie impliceren dat er in 2025 nog markt is voor 40GB HDD's.

[Reactie gewijzigd door bverstee op 12 oktober 2017 10:43]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*