Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

WD zegt met mamr-technologie 40TB-hdd's te kunnen maken in 2025

Western Digital zegt dat het in 2019 zijn eerste hdd's met microwave-assisted magnetic recording-technologie gaat uitbrengen. De techniek moet een hogere datadichtheid mogelijk maken. In 2025 zou dat moeten resulteren in 40TB-hdd's.

WD presenteerde de mamr-technologie op een eigen evenement en demonstreerde daarbij naar eigen zeggen de eerste hdd die er gebruik van maakt. De techniek is uitgevonden door professor Jimmy Zhy van de Carnegie Mellon University. Hij publiceerde daar al in 2007 over en was aanwezig bij de presentatie van WD.

De fabrikant zegt al jaren te werken aan mamr-technologie en claimt dat er recent een doorbraak heeft plaatsgevonden op gebied van betrouwbaarheid en prestaties. Volgens WD kan doorontwikkeling van de techniek per jaar de datadichtheid met gemiddeld 15 procent verbeteren.

De mamr-technologie maakt gebruik van microgolven die worden gegenereerd door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt. Deze genereert een elektromagnetisch veld dat het mogelijk maakt om gegevens met een veel hogere dichtheid naar een magnetische laag te schrijven, zonder dat daarbij de betrouwbaarheid in gevaar komt.

Microwave-assisted magnetic recording is een alternatief voor heat-assisted magnetic recording, ofwel hamr. Ook aan die technologie wordt al jaren gewerkt. Seagate schoof die techniek in 2010 naar voren als opvolger van pmr-hdd's, maar tot nu toe zijn er nooit hamr-hdd's verschenen. Dat komt volgens WD vanwege 'uitdagingen' op het gebied van materialen en betrouwbaarheid. Bij de mamr-techniek zou dat geen rol spelen. WD stelt dat de kosten van mamr-hdd's vergelijkbaar zijn met die van huidige pmr-hdd's.

In de aankondiging zegt WD dat het verwacht in 2019 de eerste mamr-hdd's gaat leveren. Het zou gaan om hdd's met een 'ultra hoge' capaciteit voor datacenters. Wat de capaciteit is, maakt de fabrikant niet bekend. Traditionele hdd's gaan momenteel tot maximaal 14TB.

Door

Nieuwsredacteur

112 Linkedin Google+

Reacties (112)

Wijzig sortering
De HDD zal zich echter wel moeten blijven richten op lage prijs per GB/TB.

Een HDD blinkt namelijk niet uit in performance/TB waar een SSD dat wel doet. Is een SSD goedkoop? Nee, maar ze zijn al goedkoper geworden door de jaren en dat zal op termijn ook nog verder gaan.

Op dit moment is er inderdaad een tekort waardoor de prijzen nog (kunstmatig) hoog zijn, maar dat gaat ooit veranderen.

2025 is nog ver weg. We hebben nu de eerste schrikbarend dure SSD's van 32TB al gezien, maar dat kan in 2025 een heel ander verhaal zijn.

Daar moet de HDD met zijn lage performance dan wel tegen blijven opboksen.
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Pak een 16gbit fiber SAN, doe hier 12 van deze disks in (RAID6+2), dus effectief 8 stuks bruikbaar.
Dus 320TB in een 2u doosje in je datacenter.
Met 8 spindles die draaien, haal je gewoon een leuke snelheid naar je device, en de SAN vangt met caching en processor kracht de RAID6 vertraging wel op.
Dat laatste dacht ik ook maar is toch lang niet altijd waar. We hebben een SAN met 8GB RAM caching en 3.2TB aan SSD caching. Toch merken we grote verchillen, zowel sequentieel als bv 4k random IO tussen RAID6 sets met 6 disken (dus 4 'effectief') en wat grotere data-vdisks met 16 disks in RAID6. De overhead is voor kleine writes dermate groot dat dat bijvoorbeeld geen serieuze storage voor VM's is, terwijl de 6 disk sets als de brandweer performen.
Natuurlijk zal eea afhankelijk zijn van de SAN die je gebruikt (HPe in ons geval), maar vergis je niet in RAID penalty!
Als je 8GB cache vol zit zullen de kleine writes direct naar de SSD gaan. Deze zijn voor kleine writes niet heel erg snel. Sneller dan harde schijven uiteraard. De hit / miss ratio bij reads zal ook niet zo best zijn. Je hebt gelijk over de raid penalty vooral bij raid 6. Waarom geen raid 10? Die paar disken zijn het geld niet toch? Als ik zo heel snel dit lees dan zou ik zeggen die 8GB is waarschijnlijk veel te weinig en raid 6 is niet optimaal voor de huidige workload.
Dat is de stelling toch niet? De stelling was dat RAID6 penalty wel aangepakt wordt door cache en controller CPU's. Maar dat is niet altijd zo. Dat je voor echte performance iets RAID10 achtigs moet hebben weet ik ook wel, maar daar ging het hier niet over.
Nou niet helemaal. Als de cache en controller niet toereikend is dan beland je wel in een raid 6 setup met hoge penalties. Alles hangt af hoe groot de cache pool is natuurlijk. Dan kan je 2 dingen doen. Migreren naar raid 10 met minder penalties of investeren in een grotere cache pool zodat je een hogere hit / miss ratio behaald.
Jij gaat even een 40TB disk restoren met een trage lees snelheid op de andere schijven? Worden je restore tijden zo hoog dat er een kans is dat je er 3 dood hebt op hetzelfde moment. Vaarwel RAID 6 array.
De aanname dat het trage disks zullen zijn is wellicht niet juist. Ik verwacht juist dat de snelheid mee zal schalen want anders ga je hele andere problemen krijgen. Je heb namelijk x aantal actieve gebruikers per y amount of storage, als je datadichtheid veel groter word, maar je lees/schrijf snelheid niet, dan loop je er a vlot tegenaan dat je users niet snel genoeg bij de data kunnen komen omdat er teveel users zijn per disk.
En dat niet alleen, maar er zijn rebuild technieken die weinig IO verbruiken tov de traditionele IOs die nodig waren aan een raid X-Or rebuild. NetApp gebruikt zoiets. Dan worden alle levende disken gelezen en wordt de X-OR in memory gedaan. Dan wordt het resultaat op de spare teruggeschreven. De NetApp heeft 256GB - 1TB aan intern geheugen waardoor zo'n rebuild snel en betrouwbaar kan. Ik ga ff het plaatje van de cursus erbij zoeken ;-)
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Wat als je 40 TB HDD's gebruikt om backups (archieven) naar op te slaan, zonder dat je verwacht dat je ze er ooit weer vanaf hoeft te trekken (tenzij je een backup moet herstellen, natuurlijk)? Voor grote backup repositories kan dat mogelijk goedkoper met minder disken.

Je moet er alleen vanuit gaan dat RAID draaien niet meer realistisch is als de rebuild time meer wordt dan enkele dagen. Daarvoor zijn andere (slimmere) file systems in opkomst.
Soort write once dus. Daar zijn tapes voor. Stabieler in opslag en goedkoper.
Onderschat niet de kosten van tape.
Random access is een big-no-no.
Voor een beetje omvangrijke tape library heb je een tape-robot nodig + meerdere drives + een cache omgeving + personeel wat er mee om kan gaan + af en toe teruglezen en opnieuw wegschrijven + tapes.

Alleen als je alle zaken al hebt staan, is tape goedkoper, met 1ct per GB, waar hdd-media op ongeveer 3 ct zit.
https://tweakers.net/nieu...ling-330tb-cartridge.html

[Reactie gewijzigd door Android Fan op 12 oktober 2017 18:07]

Ik wil mijn reactie onder dat bericht nog wel een keer herhalen hoor ;)
De grootste tapes zijn op dit moment nog steeds kleiner dan de grootste hdd's en kosten-technisch zijn de 4 TB tapes het goedkoopst met een prijs van ongeveer 40 euro per tape. => 1ct per GB.
Soort write once dus. Daar zijn tapes voor. Stabieler in opslag en goedkoper.
Ligt eraan hoeveel ruimte je remote hebt, hoe groot je tape library is, of handmatig werk geaccepteerd wordt om offline media in te laden bij een herstel, etc.

Het feit dat een backupmedium per direct beschikbaar is om selectief snel (potentieel sneller dan bij een tape omdat je geen seeking hebt) bestanden te kopiëren kan een beslissende factor zijn.
Je gaf aan dat de verwachting is dat het er nooit meer af hoefde te worden gehaald en dáár reageerde ik op :z
Wat als je 40 TB HDD's gebruikt om backups (archieven) naar op te slaan, zonder dat je verwacht dat je ze er ooit weer vanaf hoeft te trekken
Als je je backup niet getest hebt, dan heb je geen backup. Dus je moet 'm er zeker wel 'vanaf trekken'.
Als je je backup niet getest hebt, dan heb je geen backup. Dus je moet 'm er zeker wel 'vanaf trekken'.
Dat kan je ook steekproefsgewijs doen voor de hele data. Daarnaast kan je de ontvangende kant ook hashes van alle ontvangen parts laten berekenen.
Zou ze wel willen in m'n plex server anders ;) Enneh als je er een stuk of 10 hebt en je draait die mirrored met ZFS bijv dan is je perfomance waarschijnlijk prima of goed genoeg voor wat je ermee wilt doen.
De catch is dat je waarschijnlijk tzt met 2 SSD's hetzelfde (veel meer IO's) kunt tegen dezelfde prijs of minder. zonder mechanische risicos, met minder stroomverbruik.
Helemaal waar het is alleen even afwachten hoe snel de ontwikkeling op dat gebied gaat en of de tekorten aan blijven houden de komende jaren. Uiteindelijk gaat het puur om de prijs per GB.
die ontwikkeling gaat razendsnel.. kijk naar de pc ontwikkeling van de laatste 5 jaar... enige waar de pc in is blijven treuzelen is RAM geheugen.. cpu's/gpu's/mobo features/(aftermarket) koelers/SSD's.. allemaal razendsnel gegaan.. 2025 hebben we al dingen die we niet eens kunnen bevatten vandaag de dag.. 7 jaar geleden was een 2 TB SSD 'never heard off' vandaag de dag zitten we bijna op 32 TB SSD's

nieuws: Samsung brengt eerste ssd met ddr-nand uit
Bij cpu’s heb je niet meer de gigantische sprongen in performance die je aan het begin van de eeuw wel bij elke generatie zag, we lopen daar qua single core performance toch echt wel tegen de grenzen van de natuur aan wat productieschaal en kloksnelheid betreft.
dat klopt... maar ik ging eigenlijk mee uit van de generaties... 8e gen. in wat.. 4 jaar elk jaar een nieuwe cpu type met bijbehorende mobo socket... zo snel gingen we 8-10 jaar geleden echt niet.. en 2025.. well 8 jaar van verwijderd....
De vaart is echter een beetje uit het goedkoper worden van SSDs, aan het begin ging dat nog vrij hard. Op het moment gaat het compleet de verkeerde kant uit omdat teveel fabrikanten uit hetzelfde vijvertje vissen en gaan de prijzen zelfs omhoog.

2025 is ver weg en we zullen het nog moeten gaan zien maar ik vermoed (net zoals WD) dat de HDD nog steeds de betere kaarten in handen heeft als het op prijs/opslagruimte aankomt.
Als je 400 TB aan video data hebt vraag ik me af of Stichting (no-)Brein niet een keer aan de deur staat tegen die tijd..

Overigens wil je ook niet de langzaamste HDD's voor je media server, zeker niet aangezien je met die grootte waarschijnlijk hoge kwaliteit videomateriaal wilt.
Dit is een goede Use-Case voor zoveel storage.
https://www.youtube.com/watch?v=uykMPICGeqw

Maar ook voor fotografen, DJ's, 3D renders, Full system backups, etc.
Tja nu heb ik effectief 24 TB en moet ik constant dingen wissen omdat het volloopt. En als je een RAID setup maakt met mirroring heb je effectief natuurlijk ook 'maar' 200 TB. En vol krijg je het wel hoor, uiteindelijk dan. Als je het hebt gebruik je het dan download je gewoon meer crap en wis je nooit meer iets.

En Brein ach, of je nu 1 TB hebt of 1000 puur voor privégebruik. Ik denk niet dat Brein 'ruikt' hoeveel ruimte jij hebt en daarop af komt ;)
Ik reken mezelf tot een vervend verzamelaar van media, maar ik red het wel met minder. Echter verwijder ik relatief veel, wellicht zal ik ook wel 200 TB vol kunnen krijgen..

Wat betreft Brein;
Ik verwacht eerder dat het algemeen verbod op downloaden van auteursrechtelijk materiaal uit niet-legale bronnen daadwerkelijk gehandhaafd gaat worden.

Dan zal er vast wel een organisatie dan wel overheidsorgaan gaan kijken wat er allemaal gedownload wordt, waarbij je dan per item mag betalen.

In sommige landen zoals Duitsland gebeurt dit al sinds enige tijd.

[Reactie gewijzigd door Arcticwolfx op 12 oktober 2017 17:08]

Het is lastig te handhaven, zeker wanneer je een VPN icm een seedbox oid gebruikt. Hoe gaan ze dat controleren? Hoe dan ook tot het zo ver is download ik vrolijk verder en ik kan me ook niet voorstellen dat er in Duitsland niemand meer is die nog download :)
Waarom niet? een beetje HDD gaat makkelijk over de 150Mbit p/s heen voor sequential reads en 4k bluray zit op 128Mbit p/s.

[Reactie gewijzigd door batjes op 12 oktober 2017 22:52]

Het zal wel aan het gebruik liggen, ik heb bij het streamen van twee verschillende films op 4K wel eens problemen gehad toen deze nog op oude HDD's stonden.

Ik heb het echter niet verder onderzocht, het probleem zal ook wel aan andere factoren gelegen hebben. Echter als de snelheden van jou kloppen dan betekent het dus wel dat bij twee gelijktijdige streams het lastiger kan worden?
Dat wel, maar daar zijn andere oplossingen voor. ZFS, RAID etc. om die bandbreedte meer op te krikken.

Er zijn ook disks die over de 200mbit/ps gaan als ik zo in de pricewatch koekeloer. 2 of 3 van die diskjes in zfs en 300mbit moet wel haalbaar zijn.

Een grote 4k media bieb op SSD's is vrij prijzig. Als geld geen issue is, waarom niet natuurlijk.
Ik denk dat je wat dingen door elkaar gooit vriend.. 150 MB/sec is niet hetzelfde als Mbit/sec. Daar zit een factor 8 tussen.
Daarom benoem ik het bij beide ook als Mbit aan, alleen een hoofdletter op de 2de M vergeten zie ik, maar die is toch niet zo boeiend. HDDs en blurays hebben geen gigabit+ aan snelheid.
klopt maar de snelheid van harddisk wordt niet in megabit gemeten maar in megabytes... 128 Mbit/sec is maar 16 MByte/sec.. en dat haalt letterlijk elke harddisk. Het probleem zit 'm in als je meerdere 4K streams tegelijk wilt gaat afspelen, dan zakt de boel meestal wel snel in.
En die 150mbit HDD is ook maar 18,75mbyte p/s. Uiteindelijk maakt het niet uit of je bit of byte gebruikt voor de vergelijking. Bit werkt wat makkelijker want dat is meestal de gebruikte vormfactor voor datastroom snelheden. Bytes wordt meestal gebruikt in de vorm van capaciteit.
nee helaas, de snelheid van harddisks en SSD's worden uitgedrukt in MegaBytes per seconde en niet in megabit. De snelheid van een SATA-SSD is toch max rond de 600 MB/sec... we zeggen toch niet dat is 4800 mbit/sec. Een NVME SSD gaat tot 3000 MB/sec....

Dat ze voor verbindingen graag de term Megabit gebruiken heeft er mee te maken dat dit commercieel aantrekkelijker is.. 100 Mbit klinkt lekkerder dan 12,5 MB/sec.
Zit ik nu zelf de bende door elkaar te halen, oeps.
Inderdaad niet, kijk- en luistergeld bestaat al bijna 18 jaar niet meer.
Ik zeg alleen dat je geen kijk- en luistergeld betaald hebt omdat het al heel lang niet meer bestaat. Waaruit je opmaakt dat ik zeg dat opnemen niet mag is me een raadsel.
Het is niet omdat het bij jou niet meer bestaat dat het overal afgeschaft is.
Bedoel je misschien de thuiskopieheffing? Deze bestaat effectief nog wel.

Vanwege de thuiskopieheffing die wij betalen, is het toegestaan dat er een kopie wordt gemaakt van auteursrechtelijk materiaal mits deze uit legale bron verschaft is en uitsluitend voor privé-doeleinden gebruikt wordt.

Er zijn nog enkele situaties waarop het kopiëren van materiaal toegestaan is, onder specifieke voorwaarden, zoals in het onderwijs.

Edit: Ik bedenk me net dat er in Belgie (althans Wallonie) nog wel kijk- en luistergeld betaald dient te worden. Maar het schijnt dat ook deze over twee maanden zal verdwijnen.

[Reactie gewijzigd door Arcticwolfx op 12 oktober 2017 17:18]

Dat ligt toch helemaal aan je toepassing? Wij draaien incremental forevers met ReFS integratie voor synthetic fulls. M.a.w. enkel de dagelijkse delta wordt geschreven met wat overhead. Dat is best te overzien. Bovendien, veel netwerken zijn nog 1Gbps en dan heb je relatief weinig aan je SSD powered backup-omgeving. Daar gaat je backup weinig sneller van lopen.

Afgezien van andere problemen als bv lange rebuilds kan ik dergelijke schijven voor bepaalde toepassingen best toejuichen. Cold-storage, archive storage, dat soort zaken.
Alhoewel veel LAN 1Gb/s is, kun je richting infiniband (40Gb/s is goedkoop op ebay) en 10Gb/s LAN denken, zeker in enterprise waar dit soort bulk data gebruikt word is een 10Gb/s netwerkje redundant aanleggen de kosten niet tegenover de vele honderden terabytes aan data die opgeslagen dienen te worden.
Met een veelvoud aan kosten, zeker als er ook nog met bestaande cat5 infrastructuur word gewerkt. 1gb/s netwerk is spotgoedkoop vergeleken met 10gb of infiniband in een totale installatie. Als we zulke kosten gaan negeren kunnen we net zo goed overal battery backed dram gebruiken of beter nog sram of ander mram als je iets geeft om energie verbruik. Helaas is in de echte wereld geld nog altijd een zeer belangrijk aspect van alle installaties.
laat ik het zo zeggen, een controller met 2 poorten voor 10Gb/s kost "slechts" een 200-300 euro, een 16 port switch (ubiquity) een 400? en de kabels is gewoon cat 7 materiaal.

Als een 10TB nu al 300 kost, en het gebruikelijker word om er 30-40 in 1 chassis te proppen via de bovenkant of voor én achterkant (supermicro) dan denk ik niet dat een netwerk infrastructuur van 300-400 per server veel waarde is tegenover misschien 10-15 duizend euro aan hdd's in datzelfde 4u chassis. Als het er niet meer zijn.
Dat is nu de reden waarom wij in een (shared) enterprise omgeving geen incremental forever willen.
Selling point is, bij dit soort producten, dat er dagelijks minder capaciteit vereist is in je netwerk. Dat lijkt leuk als je het denken beperkt to backups. Maar wat nu bij restoren? Bij een disaster moet er dus wel alles terug en dan is vaak de infra niet toereikend om alles terug te zetten in de beoogde tijd. Goed voor je RPO maar slecht voor een RTO bij een full disaster. Wij gedogen het alleen voor klanten met een uitwijklocatie. Er zijn inmiddels slimmere manieren zoals (Global) client side deduplication om de infra te ontlasten waarbij je heel snel kan restoren.
Nog een usecase: (video) surveillance.
Geen gekke gedachte. Een transportbedrijf met een groot magazijn heeft zo maar 50 camera's hangen.

Als deze van SD naar een 24/7 4K opname over wil stappen en dit een maand willen bewaren heb je volgens deze calculator een flinke verbinding (2.4Gb minimaal) en opslag nodig.
de 2.4Gb kun je uiteraard spreiden over 4 gigabit aansluitinngen in LACP, eventueel in 2 paren van 4 heb je het redundant ook, mogelijk vanaf 1 u...
Zie wel een toepassing voor een relatief goedkope/kleine petabyte raid10 storage :) (stop je er nog wat ssds en/of flink ram in voor caching...)

[Reactie gewijzigd door Zoijar op 12 oktober 2017 10:14]

Niet alle storage hoeft bloedsnel te zijn. Zeker de storage voor severs die aan internet hangen kan de 2e lijn opslag makkelijk uit hdd's bestaan. Of voor bedrijven die veel data online beschikbaar moeten hebben maar b.v. de data van voorgaande jaren minder vaak nodig is. Deze op goedkope hdd's te zetten ipv dure ssd's is dan een goede keuze.
Voor databases zijn deze disken dan weer minder geschikt.
Multimedia storage. Ik vezamel films en series... heb meer aan stabiele massaopslag dan dat ik heb aan snelheid.
Waar denk je dan dat al die sleepnet voice recordings van iedereen gaan blijven?
Index op SSD, volume on HDD

Om maar niet te spreken van al die TV en Alexa recordings die permanent aan staan. }>
Tjah wat is langzaam. Ik vind 80MB per sec. snel zat voor mijn data.
Voor anderen is het misschien anders. Vooral met kleinere bestanden, foto's e.d.
Dat probleem zie ik ook. Een hogere dichtheid betekent bij harde schijven evenwel ook dat de snelheid omhoog gaat (in bandbreedte, niet in iops). Waar nu een 12TB schijf onpraktisch is vanwege de tijd die het kost om een RAID-array te reconstrueren, kan een hogere dichtheid dankzij MAMR ervoor zorgen dat dit soort schijven wel praktisch worden.

Voorlopig kunnen we niet zonder de lage prijs per terabyte van een harde schijf, dus technologiën om ze te verbeteren zijn van harte welkom.
HDD's in sequentieele schrijf en lees bewerkingen zijn niet gigantisch trager dan een SSD.
Een SSD blinkt vooral uit in lage acces tijd, omdat elke stukje data op een SSD even snel op te vragen valt terwijl een HDD mechanische kopen heeft die heen en weer moeten bewegen. Zeker als je op die HDD een bestandsysteem heeft die een bestand zo wegschrijft dat de kop naar verschillende plaatsten moet springen om het te lezen.

Ook hebben HDD's nog andere voordelen die een SSD niet heeft. Een SSD heeft altijd een zekere interne spanning nodig, anders verliest het alle data. Een harde schijf heeft dat niet, vinden ze 100 jaar in de toekomst een harde schijf, ook al is het meganisme kapot en vele bits geflipt kunnen ze toch nog iets van data lezen van de platters. Bij een SSD is dat anders.

SSD's hebben dan weer het voordeel dat er niks mechanisch is dat slijt en zijn dus een stuk minder complex om te maken. In principe kunnen SSD's goedkoper gemaakt worden dan harde schijven maar het zal nog wel even duren voordat dat werkelijheid wordt.
Wat denk je van .... opslag?
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen
Mijn filmcollectie opslaan? 2 van die dingen (1 backup) en zo nu en dan syncen, en ik kan weer jaren vooruit.
Kan me dan ook geen toepassingen voorstellen waarvoor je een 40TB 'langzame' HDD zou willen, zelfs back-ups zouden dan super lang duren.
Hoe groter de data dichtheid des te sneller de snelheden. Bij de 500 GB platters zaten we op circa 130-140 MB/s en nu met de 1 TB platters gingen we naar 220 MB/s. Stel dat ze 5 TB per platter halen dan kun je dus rekenen op 1000+ MB/s.
Mijn Film server bevat op dit moment 23TB aan data op 3 disks. Tegen 2025 met BR van 40gb per stuk heb ik die heus wel nodig. Eenmaal op die schijf is snelheid geen probleem. Per jaar krijg ik zo een 100 films erbij, is dus 4Tb per jaar groei, heb ik het nog niet over 4k en later 8k films.
gb/¤ is voor mij belangrijker dan mb/s transfer.
Die prijsstagnatie van SSD's duurt wel al zo'n 2 jaar, het is nog maar de vraag of en wanneer de prijs per GB weer significant gaat dalen. Uiteindelijk zal het inderdaad wel, maar of het zo snel gaat dalen in de komende 7 jaar dat het harde schijven voor massa opslag gaat vervangen? Dat denk ik eigenlijk echt niet.
Een hogere datadichtheid bied ook mogelijkheden om de data sneller te kunnen lezen/schrijven. Een belangrijke beperkende factor is namelijk de mechanische beweging van de kop en de draaisnelheid van de schijf. Zelfs als de beperkende factoren gelijk blijven schuift er nu ineens ruim twee keer zoveel data onder de kop door.
Fragmentatie gaat dan weer een rol spelen, maar daar bestaan al technieken voor (gebruik twee of drie leeskoppen) om dat voor een deel te tackelen.

De nieuwe techniek kan dus ook wel eens een boost geven aan de snelheid van de HD, Voor datacenters is dat toch weer interessant.
Niet alleen TB/performance maar ook op betrouwbaarheid wint de SSD. Ja SSD’s gaan ook stuk, maar meestal ver buiten de aangegeven range. Waarbij ik HDD’s nogal eens zomaar onverwachts stuk heb zien gaan. Deze race is eigenlijk alleen maar nog intressant voor bedrijven die enorme hoeveelheid data moeten opslaan. Maar voor gemiddeld en consument is SSD allang de betere keus.

In mijn private cloud hangt allang een san met alleen nog maar SSD’s. Ja het was iets duurder maar kwa prijs ontliep het elkaar niet veel en totally worth it.

[Reactie gewijzigd door ro8in op 12 oktober 2017 10:58]

Ik zie het probleem niet. Er zijn genoeg cases waarbij performance helemaal niet van tel is dus een HDD heeft zeker nog zijn plaats. Ik snap de idiote fixatie op performance ook helemaal niet.
Ik ken in een datacenter geen enkele case waar performance er niet toe doet. HDD's zijn eigenlijk altijd wel de bottleneck.
Jammer voor jou dan, hierboven staan genoeg use cases voor zulke schijven. Misschien moet je eens verder kijken dan een datacenter of naar een ander type datacenter.
Prachtig voor massaopslag natuurlijk. Maar is het op een gegeven moment
niet gewoon trekken aan een dood paard? SSD's worden steeds betaalbaarder
en de opslagvolumes daarvan nemen steeds verder toe...
Dit richt zich meer op de zakelijke markt, waar zoveel mogelijk opslag per kubieke centimeter ruimte word gebruikt. Ruimte is duur, en los daarvan is het makkelijker om 1 HDD van 40TB te koelen dan 8 van 5TB etc.. Er zijn voldoende toepassingen waarbij de hogere snelheid van een SSD niet zo belangrijk is.

De rek is dus nog niet uit HDDs. Althans, niet voor de zakelijke markt, want ik kan me geen consument indenken waarbij voorgaande het geval is. Geef mij maar een betaalbare 2TB SSD, dan ben ik klaar.
Die 2TB SSD moet natuurlijk ook gebackuped worden zo nu en dan.
Grote data bedrijven hebben bestand systemen zoals ZFS waar je gewoon een groote pool hebt met redunante data. Gaat er een SSD van 2TB kapot dan is dat geen probleem en zodra er een nieuwe schijf word ingeplugd word die gepopuleerd met data.
want ik kan me geen consument indenken waarbij voorgaande het geval is. Geef mij maar een betaalbare 2TB SSD, dan ben ik klaar.

Ging toch om HDD voor thuisgebruik?
Ja maar een 2TB SSD voor thuis gebruik hoeft niet gebackupt te worden, teminste niet het hele ding. Alleen de date die belangrijk is. Niet al die films die je toch wel weer opnieuw kunt downloaden.

Of heb jij zelf aan persoonlijke data zoals filmpjes en foto's die je gemaakt hebt 2 TB aan data?
Waarom zou je je druk maken over wat te back-uppen? Gewoon een image draaien om de zoveel tijd en alles meenemen, ook als ik een 2tb schijf in mijn computer heb. En bij meerdere systemen en b.v. een NAS loopt de back-up toch snel op.
Dus jij zou als je een 20 TB NAS systeem hebt dan ook nog een tweede 20 TB nas systeem hebben waar je dan een image van maakt? Heb je dat ooit al eens gedaan? Als je een NAS wilt waar er een schijfje kapot maak gaan dan bouw je een RAID systeem of nog beter, ZFS.
SSD's worden goedkoper, maar we hebben ook nog steeds tape als backup, goed die zijn ook een stuk "betrouwbaarder" dan hdd's, immers de rol tape kun je zo in een nieuwe doos schuiven en alleen de fysiek beschadigde delen ben je kwijt (je kunt zo stukken aan elkaar knopen en weer uitlezen). Bij een hdd hoef je dat niet te proberen door de nog vele hogere dichtheid.

Maar ik zie een soort balans ontstaan in de toekomst, waar het nu hdd > tape is zal het langzaam ssd productie, hdd dagelijks backup, tape lange termijn backup (wekelijks?) of full-replication zijn, en hdd's als incremental backup.
Zo langzaam gaat niet het.
Veel van onze klanten gebruiken storage tiering waarbij veel gebruikte blokken automatisch naar SSD's/Flash storage verhuizen en data die al lang niet meer is benaderd en aan enkele andere kriteria voldoen automatisch verhuizen naar tape (deep archive), daarbij laten ze een stub file staan en voor de gebruiker is het gebruik van deze (deep archive) data hetzelfde behalve dat het openen van zo'n bestand wat langer kost.
Vanuit het bedrijfsleven is door de zeer betaalbare read intensive SSD's, nu ook in degelijke dual controller storage oplossing steeds meer vraag naar flash only en zie je 10K & 15K disk verdwijnen waarbij eigenlijk alleen nearline nog overblijft als tier voor tape.
En er zijn toepassingen waar je flash ziets als memory en dan is er een zooi overhead die weggaan. Een PCI SSD kaart met flash als memory architecture zoals bijvoorbeeld fusionIO (waar Woz gewerkt heeft)
Dan heb je geen raid en disk controller meer nodig. Dat maakt alle betrouwbaarder en minder complex en ook goedkoper.
Flash kan je niet gebruiken als memory, daar is het te traag voor.
FusionIO zegt dat je geen raid meer nodig hebt maar het is maar 1 controller en daarmee geen enterprise oplossing als je niet zelf een grid oplossing eromheen maakt met zoiets als GPFS.
Eigenlijk is FusionIO zo goed als dood, Flash gaat naar dual controller shared storage systemen (zoals IBM flash storage) of oplossingen zoals als vSphere vSAN in de vorm van lokale NVME drives icm lokale spinning disken.
Daar heb je wel een aantal goede punten.
Mwoah, ik zou een NAS thuis nog steeds gewoon voorzien van de traditionele draaiende variant, omdat het een goede factor goedkoper is en er dan behoorlijk wat TB in 2 slots past.
Prijs per GB is nog steeds een factor 10 als ik zo snel in de pricewatch kijk naar SSD's en HDD's van 1,5TB en meer.
Dacht in eerste instantie dat ze weer op het 'BigFoot ' formaat gingen over stappen, gezien dit wel een hele grote sprong in data dichtheid is.
ik zou graag hdd's in bigfoot zien, dan kunnen we zonder helium ineens makkelijk 20TB? opslaan in een schijf. De techniek is er al, en gezien de dichtheid in enterprise omgevingen belangrijk is zal bigfoot met aangepaste behuizingen volgens mij per volume eenheid ook efficienter zijn?
het is niet simpelweg de casing en platters wat groter maken, als de platters groter worden worden ze ook zwaarder en nemen de krachten toe (natuurkundige zal je dit exact kunnen uitrekenen), de behuizing en motor zal ook sterker moeten zijn.
Daarnaast draaien de buitenkanten van de platters minder snel dan de binnenkant, bij een 5,25" schijf is dit nog extremer, resultaat is dus lagere transfersnelheid.
Daarnaast draaien de buitenkanten van de platters minder snel dan de binnenkant,
Het aantal toeren is op ieder plek gelijk. Maar de omloopsnelheid aan de buitenkant is hoger, dus eigenlijk is hij daar sneller. Meer afstand afleggen in dezelfde tijd als de binnenkant.
De eerste partitie is dan ook sneller dan de tweede of derde. Want buitenkant.
Dat was even een trow-back :) Quantum Bigfoot <3
En hoe zit het met de snelheid? Zal waarschijnlijk ook omhoog gaan als de dichtheid hoger wordt?

Lijkt me wel nodig want met 150/200 MB/s gaat het wel even duren voordat je 40TB vol hebt. Laat staan als je random iets gaat doen i.p.v sequentieel.

[Reactie gewijzigd door Navi op 12 oktober 2017 09:48]

Ik gok dat sequentieel schrijven behoorlijk snel is gezien de data dichtheid. En wie weet, misschien wordt dit wel iets met nvme, of sata-4, 2025 is nog ver weg en een nieuwe standaard zou er zomaar kunnen zijn.
300 - 400 MB/s, en dan heb je een bestandsysteem nodig dat een bestand niet zo wegschrijft dat de heads teveel heen en weer moeten springen. Wat mij bij grotere harde schijven wel een probleem lijkt is dat die dingen wel erg betrouwbaar moeten zijn, als zo een schijf kapot begint te gaan, probeeer al je data er maar eens af te krijgen voor hij er mee ophoudt.
Dat zou een versnelling betekenen, tot nu toe moeten we het met 2TB per jaar erbij doen.
Ik ben op dit moment aan het over gaan van 4TB naar 8TB schijven in mijn nas, daar ligt nu de beste prijs/grootte verhouding (tenzij ik 10 TB schijven uit WD's kant en klare externe HDD's ga halen).
Ik verwacht over een jaar of 3 over te gaan op de 12TB schijven. Tenzij SSD's opeens een compleet andere marktbeweging gaan maken zie ik niet opeens het overbodig worden van de klassieke 'langzame' HDD. Fijn dat er al een horizon tm 2025 is.
Wat doe jij met je NAS dat je over drie jaar 12TB schijven nodig hebt.. O.o
He will need a fortune on lube!
Ben benieuwd of door die hogere dichtheid van informatie de doorvoersnelheid dan ook navenant hoger wordt.
Het maakt niet uit hoe groot ze kunnen worden.... maar wat gaat het uiteindelijk kosten? Dat is de vraag.
Even quick en dirty rekenend (geen rechten aan verlenen): SSD's zijn jaarlijks met een factor van ongeveer 1,261 kwa capaciteit gegroeid:

Jaar - GB - TB
2006 - 80 - 0,08
2007 - 101 - 0,10
2008 - 127 - 0,12
2009 - 160 - 0,16
2010 - 202 - 0,20
2011 - 255 - 0,25
2012 - 322 - 0,31
2013 - 406 - 0,40
2014 - 511 - 0,50
2015 - 645 - 0,63
2016 - 813 - 0,79
2017 - 1026 - 1,00
2018 - 1293 - 1,26
2019 - 1631 - 1,59
2020 - 2056 - 2,01
2021 - 2593 - 2,53
2022 - 3270 - 3,19
2023 - 4123 - 4,03
2024 - 5199 - 5,08
2025 - 6557 - 6,40

Dat zou in theorie impliceren dat er in 2025 nog markt is voor 40GB HDD's.

[Reactie gewijzigd door bverstee op 12 oktober 2017 10:43]

klinkt leuk, maar 2025 is behoorlijk ver (voor technologie) mijn gok is dat er al PB opties zijn.
2025 is in 8 jaar. Als we 8 jaar terug gaan naar 2009 dan hadden we toen al een harde schijf van 2 TB. Nu hebben we er van 12 TB. Dat is maal 6. Als we deze 12 TB maal 6 doen krijgen we 72 TB. 1000 TB zou maal 83 zijn. Nee, dat zie ik niet gebeuren. Eerder maal 5 = 60 TB in 2025 want de snelheid van groei neemt af.
Mooie schijven voor alle overheden die alle data willen afluisteren en bewaren.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*