Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

WD zegt met mamr-technologie 40TB-hdd's te kunnen maken in 2025

Western Digital zegt dat het in 2019 zijn eerste hdd's met microwave-assisted magnetic recording-technologie gaat uitbrengen. De techniek moet een hogere datadichtheid mogelijk maken. In 2025 zou dat moeten resulteren in 40TB-hdd's.

WD presenteerde de mamr-technologie op een eigen evenement en demonstreerde daarbij naar eigen zeggen de eerste hdd die er gebruik van maakt. De techniek is uitgevonden door professor Jimmy Zhy van de Carnegie Mellon University. Hij publiceerde daar al in 2007 over en was aanwezig bij de presentatie van WD.

De fabrikant zegt al jaren te werken aan mamr-technologie en claimt dat er recent een doorbraak heeft plaatsgevonden op gebied van betrouwbaarheid en prestaties. Volgens WD kan doorontwikkeling van de techniek per jaar de datadichtheid met gemiddeld 15 procent verbeteren.

De mamr-technologie maakt gebruik van microgolven die worden gegenereerd door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt. Deze genereert een elektromagnetisch veld dat het mogelijk maakt om gegevens met een veel hogere dichtheid naar een magnetische laag te schrijven, zonder dat daarbij de betrouwbaarheid in gevaar komt.

Microwave-assisted magnetic recording is een alternatief voor heat-assisted magnetic recording, ofwel hamr. Ook aan die technologie wordt al jaren gewerkt. Seagate schoof die techniek in 2010 naar voren als opvolger van pmr-hdd's, maar tot nu toe zijn er nooit hamr-hdd's verschenen. Dat komt volgens WD vanwege 'uitdagingen' op het gebied van materialen en betrouwbaarheid. Bij de mamr-techniek zou dat geen rol spelen. WD stelt dat de kosten van mamr-hdd's vergelijkbaar zijn met die van huidige pmr-hdd's.

In de aankondiging zegt WD dat het verwacht in 2019 de eerste mamr-hdd's gaat leveren. Het zou gaan om hdd's met een 'ultra hoge' capaciteit voor datacenters. Wat de capaciteit is, maakt de fabrikant niet bekend. Traditionele hdd's gaan momenteel tot maximaal 14TB.

Door

Nieuwsredacteur

112 Linkedin Google+

Reacties (112)

Wijzig sortering
Dat is de stelling toch niet? De stelling was dat RAID6 penalty wel aangepakt wordt door cache en controller CPU's. Maar dat is niet altijd zo. Dat je voor echte performance iets RAID10 achtigs moet hebben weet ik ook wel, maar daar ging het hier niet over.
Soort write once dus. Daar zijn tapes voor. Stabieler in opslag en goedkoper.
Ligt eraan hoeveel ruimte je remote hebt, hoe groot je tape library is, of handmatig werk geaccepteerd wordt om offline media in te laden bij een herstel, etc.

Het feit dat een backupmedium per direct beschikbaar is om selectief snel (potentieel sneller dan bij een tape omdat je geen seeking hebt) bestanden te kopiëren kan een beslissende factor zijn.
Je gaf aan dat de verwachting is dat het er nooit meer af hoefde te worden gehaald en dáár reageerde ik op :z
Bij cpu’s heb je niet meer de gigantische sprongen in performance die je aan het begin van de eeuw wel bij elke generatie zag, we lopen daar qua single core performance toch echt wel tegen de grenzen van de natuur aan wat productieschaal en kloksnelheid betreft.
dat klopt... maar ik ging eigenlijk mee uit van de generaties... 8e gen. in wat.. 4 jaar elk jaar een nieuwe cpu type met bijbehorende mobo socket... zo snel gingen we 8-10 jaar geleden echt niet.. en 2025.. well 8 jaar van verwijderd....
De vaart is echter een beetje uit het goedkoper worden van SSDs, aan het begin ging dat nog vrij hard. Op het moment gaat het compleet de verkeerde kant uit omdat teveel fabrikanten uit hetzelfde vijvertje vissen en gaan de prijzen zelfs omhoog.

2025 is ver weg en we zullen het nog moeten gaan zien maar ik vermoed (net zoals WD) dat de HDD nog steeds de betere kaarten in handen heeft als het op prijs/opslagruimte aankomt.
Ik reken mezelf tot een vervend verzamelaar van media, maar ik red het wel met minder. Echter verwijder ik relatief veel, wellicht zal ik ook wel 200 TB vol kunnen krijgen..

Wat betreft Brein;
Ik verwacht eerder dat het algemeen verbod op downloaden van auteursrechtelijk materiaal uit niet-legale bronnen daadwerkelijk gehandhaafd gaat worden.

Dan zal er vast wel een organisatie dan wel overheidsorgaan gaan kijken wat er allemaal gedownload wordt, waarbij je dan per item mag betalen.

In sommige landen zoals Duitsland gebeurt dit al sinds enige tijd.

[Reactie gewijzigd door Arcticwolfx op 12 oktober 2017 17:08]

Het is lastig te handhaven, zeker wanneer je een VPN icm een seedbox oid gebruikt. Hoe gaan ze dat controleren? Hoe dan ook tot het zo ver is download ik vrolijk verder en ik kan me ook niet voorstellen dat er in Duitsland niemand meer is die nog download :)
Waarom niet? een beetje HDD gaat makkelijk over de 150Mbit p/s heen voor sequential reads en 4k bluray zit op 128Mbit p/s.

[Reactie gewijzigd door batjes op 12 oktober 2017 22:52]

Het zal wel aan het gebruik liggen, ik heb bij het streamen van twee verschillende films op 4K wel eens problemen gehad toen deze nog op oude HDD's stonden.

Ik heb het echter niet verder onderzocht, het probleem zal ook wel aan andere factoren gelegen hebben. Echter als de snelheden van jou kloppen dan betekent het dus wel dat bij twee gelijktijdige streams het lastiger kan worden?
Dat wel, maar daar zijn andere oplossingen voor. ZFS, RAID etc. om die bandbreedte meer op te krikken.

Er zijn ook disks die over de 200mbit/ps gaan als ik zo in de pricewatch koekeloer. 2 of 3 van die diskjes in zfs en 300mbit moet wel haalbaar zijn.

Een grote 4k media bieb op SSD's is vrij prijzig. Als geld geen issue is, waarom niet natuurlijk.
Ik denk dat je wat dingen door elkaar gooit vriend.. 150 MB/sec is niet hetzelfde als Mbit/sec. Daar zit een factor 8 tussen.
Daarom benoem ik het bij beide ook als Mbit aan, alleen een hoofdletter op de 2de M vergeten zie ik, maar die is toch niet zo boeiend. HDDs en blurays hebben geen gigabit+ aan snelheid.
klopt maar de snelheid van harddisk wordt niet in megabit gemeten maar in megabytes... 128 Mbit/sec is maar 16 MByte/sec.. en dat haalt letterlijk elke harddisk. Het probleem zit 'm in als je meerdere 4K streams tegelijk wilt gaat afspelen, dan zakt de boel meestal wel snel in.
En die 150mbit HDD is ook maar 18,75mbyte p/s. Uiteindelijk maakt het niet uit of je bit of byte gebruikt voor de vergelijking. Bit werkt wat makkelijker want dat is meestal de gebruikte vormfactor voor datastroom snelheden. Bytes wordt meestal gebruikt in de vorm van capaciteit.
nee helaas, de snelheid van harddisks en SSD's worden uitgedrukt in MegaBytes per seconde en niet in megabit. De snelheid van een SATA-SSD is toch max rond de 600 MB/sec... we zeggen toch niet dat is 4800 mbit/sec. Een NVME SSD gaat tot 3000 MB/sec....

Dat ze voor verbindingen graag de term Megabit gebruiken heeft er mee te maken dat dit commercieel aantrekkelijker is.. 100 Mbit klinkt lekkerder dan 12,5 MB/sec.
Zit ik nu zelf de bende door elkaar te halen, oeps.
Het is niet omdat het bij jou niet meer bestaat dat het overal afgeschaft is.
Bedoel je misschien de thuiskopieheffing? Deze bestaat effectief nog wel.

Vanwege de thuiskopieheffing die wij betalen, is het toegestaan dat er een kopie wordt gemaakt van auteursrechtelijk materiaal mits deze uit legale bron verschaft is en uitsluitend voor privé-doeleinden gebruikt wordt.

Er zijn nog enkele situaties waarop het kopiëren van materiaal toegestaan is, onder specifieke voorwaarden, zoals in het onderwijs.

Edit: Ik bedenk me net dat er in Belgie (althans Wallonie) nog wel kijk- en luistergeld betaald dient te worden. Maar het schijnt dat ook deze over twee maanden zal verdwijnen.

[Reactie gewijzigd door Arcticwolfx op 12 oktober 2017 17:18]

Met een veelvoud aan kosten, zeker als er ook nog met bestaande cat5 infrastructuur word gewerkt. 1gb/s netwerk is spotgoedkoop vergeleken met 10gb of infiniband in een totale installatie. Als we zulke kosten gaan negeren kunnen we net zo goed overal battery backed dram gebruiken of beter nog sram of ander mram als je iets geeft om energie verbruik. Helaas is in de echte wereld geld nog altijd een zeer belangrijk aspect van alle installaties.
laat ik het zo zeggen, een controller met 2 poorten voor 10Gb/s kost "slechts" een 200-300 euro, een 16 port switch (ubiquity) een 400? en de kabels is gewoon cat 7 materiaal.

Als een 10TB nu al 300 kost, en het gebruikelijker word om er 30-40 in 1 chassis te proppen via de bovenkant of voor én achterkant (supermicro) dan denk ik niet dat een netwerk infrastructuur van 300-400 per server veel waarde is tegenover misschien 10-15 duizend euro aan hdd's in datzelfde 4u chassis. Als het er niet meer zijn.
Dat is nu de reden waarom wij in een (shared) enterprise omgeving geen incremental forever willen.
Selling point is, bij dit soort producten, dat er dagelijks minder capaciteit vereist is in je netwerk. Dat lijkt leuk als je het denken beperkt to backups. Maar wat nu bij restoren? Bij een disaster moet er dus wel alles terug en dan is vaak de infra niet toereikend om alles terug te zetten in de beoogde tijd. Goed voor je RPO maar slecht voor een RTO bij een full disaster. Wij gedogen het alleen voor klanten met een uitwijklocatie. Er zijn inmiddels slimmere manieren zoals (Global) client side deduplication om de infra te ontlasten waarbij je heel snel kan restoren.
de 2.4Gb kun je uiteraard spreiden over 4 gigabit aansluitinngen in LACP, eventueel in 2 paren van 4 heb je het redundant ook, mogelijk vanaf 1 u...
Tjah wat is langzaam. Ik vind 80MB per sec. snel zat voor mijn data.
Voor anderen is het misschien anders. Vooral met kleinere bestanden, foto's e.d.
Dat probleem zie ik ook. Een hogere dichtheid betekent bij harde schijven evenwel ook dat de snelheid omhoog gaat (in bandbreedte, niet in iops). Waar nu een 12TB schijf onpraktisch is vanwege de tijd die het kost om een RAID-array te reconstrueren, kan een hogere dichtheid dankzij MAMR ervoor zorgen dat dit soort schijven wel praktisch worden.

Voorlopig kunnen we niet zonder de lage prijs per terabyte van een harde schijf, dus technologiën om ze te verbeteren zijn van harte welkom.
HDD's in sequentieele schrijf en lees bewerkingen zijn niet gigantisch trager dan een SSD.
Een SSD blinkt vooral uit in lage acces tijd, omdat elke stukje data op een SSD even snel op te vragen valt terwijl een HDD mechanische kopen heeft die heen en weer moeten bewegen. Zeker als je op die HDD een bestandsysteem heeft die een bestand zo wegschrijft dat de kop naar verschillende plaatsten moet springen om het te lezen.

Ook hebben HDD's nog andere voordelen die een SSD niet heeft. Een SSD heeft altijd een zekere interne spanning nodig, anders verliest het alle data. Een harde schijf heeft dat niet, vinden ze 100 jaar in de toekomst een harde schijf, ook al is het meganisme kapot en vele bits geflipt kunnen ze toch nog iets van data lezen van de platters. Bij een SSD is dat anders.

SSD's hebben dan weer het voordeel dat er niks mechanisch is dat slijt en zijn dus een stuk minder complex om te maken. In principe kunnen SSD's goedkoper gemaakt worden dan harde schijven maar het zal nog wel even duren voordat dat werkelijheid wordt.
Wat denk je van .... opslag?
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen
Mijn filmcollectie opslaan? 2 van die dingen (1 backup) en zo nu en dan syncen, en ik kan weer jaren vooruit.
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Hoe groter de data dichtheid des te sneller de snelheden. Bij de 500 GB platters zaten we op circa 130-140 MB/s en nu met de 1 TB platters gingen we naar 220 MB/s. Stel dat ze 5 TB per platter halen dan kun je dus rekenen op 1000+ MB/s.
Mijn Film server bevat op dit moment 23TB aan data op 3 disks. Tegen 2025 met BR van 40gb per stuk heb ik die heus wel nodig. Eenmaal op die schijf is snelheid geen probleem. Per jaar krijg ik zo een 100 films erbij, is dus 4Tb per jaar groei, heb ik het nog niet over 4k en later 8k films.
gb/¤ is voor mij belangrijker dan mb/s transfer.
Ik zie het probleem niet. Er zijn genoeg cases waarbij performance helemaal niet van tel is dus een HDD heeft zeker nog zijn plaats. Ik snap de idiote fixatie op performance ook helemaal niet.
Ik ken in een datacenter geen enkele case waar performance er niet toe doet. HDD's zijn eigenlijk altijd wel de bottleneck.
Jammer voor jou dan, hierboven staan genoeg use cases voor zulke schijven. Misschien moet je eens verder kijken dan een datacenter of naar een ander type datacenter.
Grote data bedrijven hebben bestand systemen zoals ZFS waar je gewoon een groote pool hebt met redunante data. Gaat er een SSD van 2TB kapot dan is dat geen probleem en zodra er een nieuwe schijf word ingeplugd word die gepopuleerd met data.
want ik kan me geen consument indenken waarbij voorgaande het geval is. Geef mij maar een betaalbare 2TB SSD, dan ben ik klaar.

Ging toch om HDD voor thuisgebruik?
Ja maar een 2TB SSD voor thuis gebruik hoeft niet gebackupt te worden, teminste niet het hele ding. Alleen de date die belangrijk is. Niet al die films die je toch wel weer opnieuw kunt downloaden.

Of heb jij zelf aan persoonlijke data zoals filmpjes en foto's die je gemaakt hebt 2 TB aan data?
Waarom zou je je druk maken over wat te back-uppen? Gewoon een image draaien om de zoveel tijd en alles meenemen, ook als ik een 2tb schijf in mijn computer heb. En bij meerdere systemen en b.v. een NAS loopt de back-up toch snel op.
Dus jij zou als je een 20 TB NAS systeem hebt dan ook nog een tweede 20 TB nas systeem hebben waar je dan een image van maakt? Heb je dat ooit al eens gedaan? Als je een NAS wilt waar er een schijfje kapot maak gaan dan bouw je een RAID systeem of nog beter, ZFS.
En er zijn toepassingen waar je flash ziets als memory en dan is er een zooi overhead die weggaan. Een PCI SSD kaart met flash als memory architecture zoals bijvoorbeeld fusionIO (waar Woz gewerkt heeft)
Dan heb je geen raid en disk controller meer nodig. Dat maakt alle betrouwbaarder en minder complex en ook goedkoper.
Flash kan je niet gebruiken als memory, daar is het te traag voor.
FusionIO zegt dat je geen raid meer nodig hebt maar het is maar 1 controller en daarmee geen enterprise oplossing als je niet zelf een grid oplossing eromheen maakt met zoiets als GPFS.
Eigenlijk is FusionIO zo goed als dood, Flash gaat naar dual controller shared storage systemen (zoals IBM flash storage) of oplossingen zoals als vSphere vSAN in de vorm van lokale NVME drives icm lokale spinning disken.
Daar heb je wel een aantal goede punten.
300 - 400 MB/s, en dan heb je een bestandsysteem nodig dat een bestand niet zo wegschrijft dat de heads teveel heen en weer moeten springen. Wat mij bij grotere harde schijven wel een probleem lijkt is dat die dingen wel erg betrouwbaar moeten zijn, als zo een schijf kapot begint te gaan, probeeer al je data er maar eens af te krijgen voor hij er mee ophoudt.
2025 is in 8 jaar. Als we 8 jaar terug gaan naar 2009 dan hadden we toen al een harde schijf van 2 TB. Nu hebben we er van 12 TB. Dat is maal 6. Als we deze 12 TB maal 6 doen krijgen we 72 TB. 1000 TB zou maal 83 zijn. Nee, dat zie ik niet gebeuren. Eerder maal 5 = 60 TB in 2025 want de snelheid van groei neemt af.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*