Door Julian Huijbregts

Nieuwsredacteur

Hamr-hdd's komen eraan

Schrijfkoppen met lasers verhogen capaciteit

30-10-2020 • 06:00

162 Linkedin

Nieuwe hdd-technieken

De capaciteit van harde schijven blijft van jaar tot jaar gestaag toenemen, maar grote sprongen worden er al lang niet meer gemaakt. In de afgelopen jaren is de groei in capaciteit sterk afgenomen. Zo kwamen in 2010 de eerste 2TB-hdd's breed beschikbaar en vanaf 2015 boden diverse fabrikanten 8TB-hdd's aan. Zo'n verviervoudiging van de capaciteit heeft in de afgelopen vijf jaar niet plaatsgevonden. Als consument kun je momenteel hdd's kopen met een capaciteit van maximaal 18TB. In vijf jaar tijd is de maximale capaciteit dus met een factor 2,25 gegroeid.

Die afnemende groei komt door beperkingen van de perpendicular magnetic recording-techniek waarop harde schijven zijn gebaseerd. De datadichtheid van dergelijke hdd's is niet of nauwelijks meer te verhogen. Fabrikanten werken achter de schermen dan ook al jaren aan alternatieve technieken, die weer moeten leiden tot grote vooruitgang in de opslagcapaciteit van hdd's.

Seagate maakte onlangs bij de presentatie van zijn kwartaalcijfers bekend dat eind dit jaar de eerste productie-hdd's op basis van de heat-assisted magnetic recording-techniek geleverd worden. Die techniek gebruikt lasers om bits kleiner weg te kunnen schrijven op hdd's.

Vooralsnog zal het gaan om een beperkte hoeveelheid samples van 20TB-hdd's, maar vanaf volgend jaar wil Seagate groter inzetten op dat soort hdd's en de fabrikant verwacht dat de capaciteit van hamr-hdd's in 2026 zal oplopen tot 50TB.

Illustratie van een hamr-hdd met laser. Afbeelding: Seagate

Er wordt al ongeveer twintig jaar gewerkt aan hamr-hdd's. Het eerste bericht over de techniek op Tweakers stamt uit 2002. Seagate demonstreerde destijds een hamr-hdd in zijn lab. In 2013 was de fabrikant zo optimistisch dat er hamr-hdd's op de planning stonden voor 2014. De nieuwe techniek is echter lastig te implementeren en die planning werd niet gehaald. Concurrent Western Digital kiest daarom voorlopig voor een tussenoplossing onder de noemer energy-assisted perpendicular magnetic recording, die voortbouwt op de pmr-techniek. Ook werkt WD aan microwave-assisted magnetic recording, een variant van hamr, die eenvoudiger toe te passen is.

Nu de huidige hdd's wat maximale capaciteit betreft tegen hun beperkingen aanlopen en de nieuwe technieken voor de deur staan, maken we de balans op en bekijken we de beloftes van de twee grootste hdd-fabrikanten.

Beperkingen van perpendicular magnetic recording

Traditionele hdd's bestaan uit platters die van een aluminiumlegering zijn gemaakt. Dat zijn ronde schijven die aan weerszijden zijn voorzien van datatracks met magneetvelden om bits op te slaan. Om de dichtheid te vergroten, staan de magneetvelden rechtop op het schijfoppervlak, waar de techniek zijn naam aan dankt. De pmr-techniek wordt ook conventional magnetic recording genoemd, ofwel cmr.

De maximale opslagcapaciteit van een harde schijf wordt bepaald door het aantal platters en de dichtheid van de magneetvelden. Fabrikanten lopen inmiddels op beide vlakken tegen het maximaal haalbare aan. De 3,5"-hdd's met de hoogste capaciteit gebruiken momenteel negen platters. Om dat mogelijk te maken, moeten harde schijven al gevuld worden met helium. Dat heeft een lagere dichtheid dan lucht en levert minder wrijving op, waardoor het mogelijk is om relatief veel dunne platters te plaatsen en die te beschrijven met de bewegende schrijfkoppen.

Bij pmr-hdd's is gebleken dat de maximale dichtheid ongeveer 1 terabit per vierkante inch bedraagt. Als de magneetvelden voor de opslag van bits nog kleiner gemaakt worden, komt de stabiliteit in het geding. De huidige 18TB-hdd's met negen platters lopen tegen die limiet aan.

Capaciteit verhogen met shingled magnetic recording

De capaciteit van hdd's is enigszins op te rekken door shingled magnetic recording toe te passen. Dat is een variant van pmr waarbij de datatracks op de platters deels over elkaar heen liggen. Dat kan de dichtheid met zo'n 1,3x verhogen, maar er zitten ook nadelen aan vast. Het kan de prestaties bij toepassingen met veel random write-acties negatief beïnvloeden. Eerder dit jaar kwamen verschillende hdd-fabrikanten in opspraak omdat ze smr bleken toe te passen zonder dat te vermelden in de specificaties.

Afbeelding: Western Digital

Dunnere platters van glas

Een andere manier om de capaciteit van pmr-hdd's te vergroten, is het verhogen van het aantal platters. Dat zou kunnen door ander materiaal te gebruiken. In 2017 toonde Hoya al een prototype van een 3,5"-hdd met tien platters, gemaakt van glassubstraat met een dikte van 0,5mm. Tot op heden zijn er nog geen hdd's met tien platters uitgebracht, vermoedelijk vanwege de hoge kosten.

Hoya maakte in juli dit jaar bekend dat het bedrijf wel samples van zijn dunne platters heeft verstuurd naar een fabrikant. Dat kan erop wijzen dat een hdd-fabrikant werkt aan een harde schijf met tien platters. Of en wanneer die uitkomt, is nog niet duidelijk. Platters van glas werden al langer gebruikt in 2,5"-hdd's. Dat soort hdd's zijn echter steeds minder in trek. Ze worden veelal in laptops gebruikt en daarin zitten tegenwoordig steeds vaker ssd's.

Prototypes van 3,5"-hdd's met 9 en 10 platters van glas

Grote vooruitgang met energy assisted magnetic recording

Met smr en het toevoegen van platters zit er dus nog wel wat rek in de huidige 3,5"-hdd's, maar een echt grote groei in opslagcapaciteit is niet meer mogelijk. Voor nog meer opslagcapaciteit moet de dichtheid van de data op de platters verder omhoog. Dat is mogelijk met een aantal technieken die al decennialang in ontwikkeling zijn. De verzamelnaam daarvan is energy assisted magnetic recording, ofwel eamr. Hierbij worden de magneetvelden gemanipuleerd voordat ze beschreven worden, waardoor de bits veel kleiner gemaakt kunnen worden en de datadichtheid toeneemt.

Hamr: heat-assisted magnetic recording

Seagate werkt zoals gezegd al jarenlang aan hdd's op basis van heat-assisted magnetic recording. Deze hamr-hdd's zijn voorzien van platters met een stabieler magnetisch materiaal, bestaande uit een legering van ijzer en platina. Doordat dit stabieler is, kunnen de bits kleiner worden gemaakt. Het materiaal is echter ook veel harder en om dat te kunnen beschrijven, moet het eerst verhit worden tot 400°C. Hamr-hdd's gebruiken daar schrijfkoppen met minuscule lasers voor. Het toepassen van de hamr-techniek is complex, omdat de bits binnen een nanoseconde verhit en vervolgens weer afgekoeld moeten worden.

Hamr-hdd's hebben dezelfde 3,5"-formfactor als pmr-hdd's en zijn ook uitwisselbaar, maar vanwege het gebruik van laser zijn er nieuwe schrijfkoppen nodig en ook moeten de platters gemaakt zijn van materiaal dat bestand is tegen hitte. De glassubstraten van fabrikanten als Hoya komen hier weer van pas. Volgens die fabrikant zijn die bestand tegen temperaturen tot 700°C, terwijl op aluminium gebaseerde platters maximaal 200°C kunnen weerstaan. Het glassubstraat wordt voorzien van een dunne film met het magnetische materiaal dat beschreven kan worden.

Volgens SDK, eveneens een fabrikant van glassubstraat voor platters, zal de dichtheid van hamr-platters in de toekomst oplopen tot 5 of 6 terabit per vierkante inch. Daarmee is de datadichtheid ongeveer vijf keer zo hoog als bij pmr-hdd's. SDK stelt dat dit uiteindelijk zal resulteren in 3,5"-hdd's met een capaciteit van 70 of 80TB, zonder dat het aantal platters wordt verhoogd. Ook Seagate geeft aan dat de datadichtheid van hamr-hdd's uiteindelijk ongeveer vijf keer zo hoog zal zijn als bij pmr-hdd's. De fabrikant denkt met de techniek tien jaar vooruit te kunnen.

Seagate: hamr is interessant vanaf 24TB

Eind dit jaar gaat Seagate zijn eerste hamr-hdd's uitleveren. Dat gaat om exemplaren met een capaciteit van 20TB en die zullen niet in grote aantallen worden geproduceerd. Met die capaciteit biedt het gebruik van de nieuwe techniek nog geen duidelijke voordelen boven pmr- of smr-hdd's, die immers verkrijgbaar zijn met dezelfde capaciteit. Waarschijnlijk zijn de hamr-hdd's veel duurder door de complexe techniek.

Welke klanten de eerste hamr-hdd's ontvangen, zegt Seagate niet. Vermoedelijk gaat het om grote techbedrijven en datacenters, zodat die ermee kunnen experimenteren. Volgens Gianluca Romano, de cfo van Seagate, wordt de overgang naar de hamr-techniek aantrekkelijk als een capaciteit van 24TB wordt bereikt. Hamr-hdd's met een dergelijke capaciteit moeten in het volgende kalenderjaar volgen, aldus de cfo bij de bespreking van de kwartaalcijfers in oktober.

Dave Mosley, de ceo van Seagate, zegt dat het uitbrengen van de 20TB-variant significant is omdat het een technologische mijlpaal is. Hoeveel van de hdd's er geleverd worden, is volgens de topman niet belangrijk. "Het gaat erom dat de techniek werkt en dat we precies doen wat we gezegd hebben: een 20TB hamr-hdd leveren voor het einde van het kalenderjaar."

Mamr: microwave-assisted magnetic recording

Een andere vorm van eamr is microwave-assisted magnetic recording. Bij deze techniek kunnen traditionele aluminium platters met daarop een legering van kobalt en platina gebruikt worden, net als in pmr-hdd's. Door de magnetische laag te manipuleren met een elektromagnetisch veld is het mogelijk om de gegevens met een hogere dichtheid weg te schrijven. Mamr-hdd's werken met microgolven die gegenereerd worden door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt.

Afbeelding: Western Digital

Western Digital zei eind 2017 in te zetten op mamr en stelde toen dat de dichtheid van mamr-hdd's zou kunnen oplopen tot 4 terabit per vierkante inch en dat er in 2025 hdd's zouden uitkomen met een capaciteit van 40TB. Destijds verwachtte de fabrikant in 2019 de eerste mamr-hdd's te zullen leveren, maar dat is tot nu toe niet gebeurd.

In een promotiefilmpje legde WD destijds nadruk op de nadelen van hamr-hdd's; de noodzaak om de platters te verhitten zou de techniek onbetrouwbaar en duur maken. WD presenteerde mamr als een betrouwbaar en goedkoop alternatief.

Promotiefilmpje over mamr van Western Digital

Inmiddels lijkt WD wat minder stellig te focussen op mamr. Bij een technische presentatie begin dit jaar gaf de fabrikant aan zowel mamr als hamr te zien als opties voor toekomstige hdd's. De fabrikant gaat die technieken echter pas na 2023 inzetten. In de komende jaren verwacht WD nog pmr- en smr-hdd's uit te kunnen brengen met capaciteiten die oplopen tot 30TB.

Afbeelding: Western Digital

Tussenstap: energy-enhanced perpendicular magnetic recording

Western Digital kan de capaciteit van zijn pmr- en smr-hdd's naar eigen zeggen verder oprekken door gebruik te maken van epmr. Volgens de fabrikant gaat dat om een variant van traditionele hdd's waarbij deels technieken worden toegepast die zijn ontdekt bij onderzoek naar mamr- en hamr-hdd's. WD wil deze epmr-hdd's als opstapje gebruiken om in de toekomst over te stappen op hdd's die volledig van eamr gebruikmaken.

WD heeft dit al toegepast in zijn Ultrastar DC HC550 18TB en in de HC 650 20TB-variant. Eerstgenoemde is een pmr-hdd met een datadichtheid van 1022 gigabit per vierkante inch en de tweede is een smr-hdd met een dichtheid van 1160 gigabit per vierkante inch. Deze hdd's hebben een traditionele schrijfkop, maar tijdens het schrijven van data wordt die onder stroom gezet, waardoor een extra magnetisch veld ontstaat. Daardoor vermindert de jitter en is het mogelijk om nauwkeuriger te schrijven. Zodoende kunnen de bits dus kleiner worden gemaakt. WD wil nog twee generaties van deze energy-enhanced pmr- en smr-hdd's maken en na 2023 overstappen op mamr of hamr.

Uit roadmaps en technische documenten van Seagate en WD is op te maken wat de plannen zijn voor de komende jaren. Seagate wil zoals gezegd dit jaar zijn eerste hamr-hdd van 20TB uitbrengen en het bedrijf denkt de hamr-techniek vanaf volgend jaar in te zetten voor meer hdd's met hogere capaciteiten. Concrete plannen voor meer hamr-producten zijn nog niet openbaar gemaakt.

Western Digital heeft op zijn roadmaps tot 2023 nog pmr- en smr-hdd's staan die een steeds hogere capaciteit krijgen. Om dat voor elkaar te krijgen moet de fabrikant al deels technieken toepassen die later gebruikt zullen worden in mamr- of hamr-hdd's.

Hamr- of mamr-hdd in je pc?

De concepten voor hamr- en mamr-hdd's zijn al tientallen jaren oud, maar de komst van daadwerkelijke producten op basis van de nieuwe technieken heeft lang op zich laten wachten. Genoemde planningen van de hdd-fabrikanten zijn in het verleden meer dan eens niet gehaald.

Het ligt niet voor de hand dat de nieuwe hdd's binnen afzienbare tijd beschikbaar komen voor consumenten. Het verhogen van de opslagdichtheid is vooral belangrijk voor datacenters, waar de datahonger nog steeds toeneemt. Hoewel er niets bekend is over de prijzen van mamr- en hamr-hdd's, is het aannemelijk dat ze duurder zijn dan pmr- en smr-varianten, vanwege de complexe techniek.

Nu Seagate zijn eerste hamr-hdd uitbrengt, is het startsein gegeven. Wel is het tekenend dat concurrent WD zich pas over een aantal jaar aan mamr of hamr waagt en voorlopig voortborduurt op de bestaande technieken. Het blijft dus afwachten of de techniek zich snel zal ontwikkelen en marktaandeel zal winnen.

Lees meer

Reacties (162)

162
160
113
11
0
22
Wijzig sortering
25% Meer dat op je HDD..?
Radboud Universiteit in Nijmegen: "Hold my beer."..

"Onderzoekers van de Radboud Universiteit in Nijmegen hebben een manier gevonden om nog meer data op te slaan op kleinere oppervlaktes. De technologie kan grote gevolgen hebben voor zowel data-opslag als voor de hoeveelheid stroom die nodig is om datacenters draaiende te houden. 'We kunnen nu een miljard keer zuiniger worden'"

Bron: BNR
Toen 18 jaar geleden voor het eerst over HAMR gerept werd was men ook optimistisch. Het theoretisch framework voor deze techniek stond. Dat het uiteindelijk bijna 20 jaar zou duren voor het naar de markt kwam hadden ze ook niet verwacht. Zeker niet toen het in 2014 al op de planning stond.
20 jaar geleden zaten we nog te spelen met 18GB harde schijven (leuke Tweakers review uit 2000 overigens) en zou HAMR ongelofelijke verbeteringen beloven.

Er is pas recent (5 oktober) een research paper van gepubliceerd. Hopelijk komt het sneller dan HAMR, maar ik zou er nog niet op rekenen deze, of komende, Sinterklaas het op m'n verlanglijstje te kunnen zetten.
Quote uit die Review:
"Seagate heeft met deze schijf niets anders tot doel dan het leveren van de ultieme kick-ass stijve-plasser performance voor de servermarkt."

Ooh ik mis de échte Tweakers, toen het nog niet onder de duim van de adverteerders werd gehouden en PC/SJW nog niet tot ultiem doel is verheven }:O

[Reactie gewijzigd door Travelan op 30 oktober 2020 08:53]

Misschien dat tegenwoordig dames ook harde schijven willen kopen zonder een stijve plasser te moeten krijgen.
Harde schijf of natte schijf... ach...
Bedankt voor het maken van mijn punt ;-)
Maar daar zijn deze schijven toch voor, om dat in huis te halen?

Glas in plaats van aluminium zorgt voor een stijve platter.

Oh wacht...
Of ze zijn gewoon wat meer volwassen geworden ;)
Femme ... :') ?

Heb je zijn huis gezien!? Gewoon 1 grote stijve-... kast van een huis zonder concessies zoals een echte Tweaker betaamt :+

Back on topic, heeft het nog wel nut nu de race van solid state opslag steeds harder de huidige schijven met bewegende deeltjes (die kapot kunnen gaan) ze langzaam inhaalt? Zal wel wat missen op het gebied van MBTF's en het aantal keren kunnen wegschrijven, maar deze techniek lijkt ook een hardere slijtageslag op de platters te veroorzaken als ik het zo lees.
Dat geloof je zelf toch niet! ;-)
Je schreef 'commercieel' verkeerd :+
Right, opslag is 99,9999999% van het verbruik in datcenters? Vind het maar matig dat ze met dergelijke vage uitspraken komen. Beetje niveau van 'er past wel 1000 voetbalvelden aan data op deze schijf van 10cm2!'
Ik denk dat je het te snel gelezen hebt, want ik kan zelf nergens vinden dat men de claim maakt dat bijna al het energie verbruik uit datacenters aan opslag toegeschreven kan worden. Men zegt dat de hoeveelheid energie die nodig is om een Nederlands datacenter draaiende te houden sterk gereduceerd kan worden als opslag zuiniger wordt (hoeveel geeft men niet aan en waarom dat voor andere landen niet zou gelden is me een raadsel).

Wat betreft de claim van een miljard (artikel spreekt van miljard, maar ik vermoed dat dat een miljoen moet zijn) maal zuiniger opslag.. Ik vermoed dat er bedoeld wordt dat men opslag op twee manieren tegelijk zuiniger kan maken. Enerzijds door de datadichtheid te verhogen met een factor 1000, waardoor je potentieel 1000x minder schijven nodig zou moeten hebben voor dezelfde hoeveelheid opslag. En anderzijds door de benodigde energie voor het operationeel zijn van de schijf met een factor 1000 te verlagen. Dit zou kunnen door een sterk verbeterd lees en schrijf proces wat niet vrij hoge temperaturen nodig heeft, zoals het geval bij HAMR (heat assisted magnetic recording).

Uiteraard is het bovenstaande 1000x1000 een best case scenario. Er zijn nog legio andere factoren van toepassing waardoor je totale energiebesparing op opslag minder zal zijn. Maar al zou de energiewinst (op opslag) de helft kunnen zijn, dan is dat toch mooi meegenomen.

[Reactie gewijzigd door diyoo op 30 oktober 2020 10:31]

ik weet niet hoe lang je naar school bent gegaan, maar 1000x1000 = 1 miljoen, een miljard is nog eens x1000 ;)
Hehe, je hebt helemaal gelijk. Ik heb die info gekopieerd uit het artikel wat gelinkt is, daar spreekt men van 1 miljard en later van 1000x1000. Wellicht is de genoemde miljard foutief, is er een derde factor aanwezig in het onderzoek welke niet in het artikel genoemd wordt, of is er iets anders aan de hand.

Anyway, lesson learned: niet een reactie typen terwijl je een collega ondersteunt met pair programming, en kritisch blijven nadenken over wat een journalist schrijft over wetenschap. }>
"kritisch blijven nadenken over wat een journalist schrijft over wetenschap"

Correctie: kritisch blijven nadenken over wat een journalist schrijft over wetenschap

het zijn ook maar mensen weet je
Er staat in het artikel:
'Qua efficiëntieverbetering gaat dit niet om een factor twee, maar om een factor duizend keer duizend. En we kunnen een miljard keer zuiniger worden als we ons best doen.'
Ik lees het als 'met wat we nu ontdekt hebben een factor 1 miljoen, en misschien (als we ons best doen) wel een factor 1 miljard.
'We kunnen nu een miljard keer zuiniger worden', zegt universitair docent en co-auteur Johan Mentink van de Radboud Universiteit.

Ik zeg ook niet dat ze claims maken, ik laat alleen zien dat dit van het niveau 'sensatie headlines' is. Dat valt gewoon tegen.
Het lijkt me voor de hand liggend dat de manier waarop BNR verwoord het enigzins verwarrend maakt.

De onderzoekers claimen nergens dat het verbruik van het datacenter dermate drastisch zal dalen.
De onderzoekers claimen bijna niks, het is een stukje sensatie journalistiek, dat is wat ik probeer aan te geven. 'Als we ons best doen worden we wel een miljard keer zuiniger!'

En dan een kopje met 'efficienter met een factor duizend maal duizend' OOOEH duizend maal duizend! Dat is zo veel daar hebben we geen woorden voor.

[Reactie gewijzigd door TWeaKLeGeND op 30 oktober 2020 12:33]

ballonnetjes genoeg, maar praktisch commercieel inzetbaar zijn die bijna nooit. Het feit dat ze daar beweren dat hun data-opslag de gigantische energiebehoeften van een datacenter een miljard keer zuiniger kan maken zijn gewoon te belachelijk om nog serieus te worden genomen, alsof je ipv een gigawatt plots maar 1W nodig zou hebben. FYI: gigawatt is de grootteorde waarin nucleaire centrales spelen, en 1W is wat een klein led-lampje verbruikt. Als je dan verder leest dat ze het niveau zo downdumben dat ze niet meer een factor 1 miljoen, maar factor "duizend maal duizend" gebruiken, dan weet je voor welk publiek dat geschreven is.

Een ander voorbeeld is data-opslag in DNA wat al perfect mogelijk is, maar praktisch kan je het niet noemen, hoewel ze er toen al 125GB per dag mee konden opslaan (4Mbps of wat een traditioneel adsl-lijntje kon)
Het feit dat ze daar beweren dat hun data-opslag de gigantische energiebehoeften van een datacenter een miljard keer zuiniger kan maken zijn gewoon te belachelijk om nog serieus te worden genomen
Gelukkig beweren ze dat ook niet. Wat ze wel beweren is dat ze opslag in het meest gunstige geval een factor 1000x1000 zuiniger kunnen maken (en die 1000x1000 is geen downdumben, maar een gevolg van het feit dat hun onderzoek zowel de datadichtheid verhoogd als de benodigde energie voor lezen/schrijven verlaagt - toevallig beiden met een factor 1000).

De inleiding van het genoemde artikel is een beetje ongelukkig wellicht, omdat de claim 'We kunnen nu een miljard keer zuiniger worden' staat achter de zin die gaat over datacenters. De claim is echter gedaan door een wetenschapper met onderzoeksgebied "opslag", en moet m.i. ook in die context gelezen worden. Aan het eind van het artikel wordt gesteld:
De uitvinding kan het enorme stroomverbruik dat nodig is om de Nederlandse datacenters draaiende te houden, sterk reduceren.
Ik haal hieruit dat de auteur ook wel begrijpt dat het hele datacenter niet een miljard keer zuiniger zal worden. Dat opslag een niet verwaarloosbaar deel van het energieverbruik voor zijn rekening neemt klinkt logisch, maar praktijkgetallen laat ik over aan een ander.
Zoals ik het heb begrepen, is koeling de grootste kostenpost (qua energieverbruik) in een datacenter. Zeker als dat met AC's moet gebeuren, welke 24 uur per dag moeten draaien.

Kan me voorstellen dat in gedeeltes van een datacenter waar temperatuur wat mag varieeren, AC units niet 24 uur per dag hoeven te draaien.

Ook kan ik me voorstellen dat er datacenters zijn met gedeeltes waar verschillende minimum temperaturen worden gegarandeerd. Kan de klant zelf kiezen waar deze zijn apparatuur plaatst. Dat zal qua energieverbruik voor koeling ook behoorlijk schelen.

AC's doen uitstekend werk als het gaat over snel koelen. Maar als je het afzet tegen energie verbruik, dan vallen AC's behoorlijk tegen. Valt nog een heleboel te winnen op dat gebied, lijkt me.
En om het nog iets concreter te maken, een gigawatt is wat je ongeveer nodig hebt om een Delorean door de tijd te laten reizen.
Voor er nog meer commentaar komt; het gaat hier inderdaad om 1.21GW. Voor diegene die de film gezien hebben zullen zich de uitspraak herinneren als 'JigaWatt'. Om verdere discussies te vermijden refereer ik maar naar het volgende artikel: https://en.wikipedia.org/wiki/Talk%3AJigawatt
Ja, maar dat was toch gewoon een kabeltje leggen naar een klokkentoren... ;-)
Dat soort dingen klinkt mij altijd te mooi om waar te zijn. Hetzelfde als dat er al jarenlang nieuwe accutechniek wordt aangekondigd waar je smartphone een week op kan draaien en je auto 1500 km op kan rijden, die zijn er ook nog steeds niet.

Voor de meeste bedrijven zou het ook niet eens interessant zijn om nu met een disk op de proppen te komen die bijv. 1000 TB kan opslaan. Alle fabrieken en productieprocessen zijn nu ingericht op de huidige technieken. Dat moet eerst terugverdiend worden (lees: maximaal uitgemolken).

Leuk dus dat soort onderzoeken maar eer dat je een betaalbaar consumentenproduct hebt gebasseerd op die techniek ben ik waarschijnlijk dood of met pensioen.
Leuk dus dat soort onderzoeken maar eer dat je een betaalbaar consumentenproduct hebt gebasseerd op die techniek ben ik waarschijnlijk dood of met pensioen.
Inderdaad. Maar zoiets kun je vaak wel met je klomp aanvoelen. Als iets in een lab werkt, wéét je eigenlijk al dat het zomaar 5-10 jaar kan duren voordat er een product in de winkels ligt. In het lab knutselen ze dingen in elkaar; voor productie moeten machines, processen en procedures bedacht worden die betaalbaar zijn. En ze moeten ook nog de oude generatie 'uitgemolken' hebben, om de R&D daarvan terug verdiend te hebben. Als je ziet dat het tientallen jaren kan duren voor je zo'n nieuwe techniek ontwikkeld hebt, snap je dat het best een bak geld kost. Dat geld moet terugverdiend worden, dus volgens mij kan dat ook gewoon de volgende generatie tegenhouden als de ontwikkelingen te snel gaan. Accutechniek is zo'n terrein waar de nieuwe ontwikkelingen elkaar heel snel opvolgen. Je moet wel de tijd hebben om geld te verdienen natuurlijk.
Onderzoek is 1 van onderzoek in een lab naar een werkbaar product is heel iets anders. Veel zaken die in theorie mogelijk zijn lopen richting praktijk tegen andere problemen aan.
Die vraag moet je je hier ook stellen.
Het vinden van een nieuwe techniek is één ding, maar het vervolgens toepassen in een betaalbaar consumenten product is een tweede. Ik denk dat het zo minimaal 20 jaar kan duren voordat nieuwe technieken worden geïmplementeerd in eindproducten en dat is vaak een optimistisch tijdpad. Niets ten nadele van zulk soort fundamenteel onderzoek, want het is fantastisch dat we uitkijk kunnen hebben op revolutionaire nieuwe technieken in de toekomst.
Mja, dit is net als met de "veel betere batterijen" die elke keer weer worden beloofd. Maar niks lijkt goed massaal te produceren of uberhaupt te produceren. Hierdoor heb ik voor zulke claims altijd een "eerst zien dan geloven" houding aangenomen.
Dat klinkt geweldig en is ook noodzakelijk. Een factor miljard is misschien wat utopisch, maar als daar een promille van kan worden behaald is dat al meer dan geweldig. Het stroomverbruik van datacenters loopt de spuigaten uit en past totaal niet in de klimaatdoelstellingen. Het dataverbruik en daarmee het energieverbruik zal exponentieel blijven toenemen door de steeds snellere verbindingen, verbruik van streamingdiensten hogere datadichtheid van streams etc. etc.
Microsoft: "Hold my beer..."
https://www.microsoft.com...h/project/project-silica/
Let wel dit is long WORM [Write Once, Read Many] term storage vergelijkbaar met een DVD_R
Geweldig om nog eens te lezen over perpendicular recording. Hitachi vond dat toen zo'n revolutionaire techniek dat ze er zelf een liedje over schreven. Moest er meteen aan denken. Gelukkig vergeet ook het internet niet https://youtu.be/xb_PyKuI7II :)
Gaaf, die kende ik nog niet. Ook filmpje er na is grappig : het afzwaaien van het GB-tijdperk:
https://www.youtube.com/watch?v=Vsp8oHKZzfo
In het hele artikel wordt niets gezegd over de snelheid. Enkel over densiteit en dus capaciteit.

Het is vooral revolutionair als het ook (veel) sneller is dan conservatieve HDD schijven.
Hoe hoger de densiteit hoe meer data er op hetzelfde moment onder de leeskop passeert wat automatisch vertaald naar sneller schrijven & lezen. Echter dat ze in random bewerkingen traag gaan zijn zoals bij huidige klassieke schijven staat vast, ze zijn en blijven mechanisch. Echter niemand verwacht dat dit soort schijven op prestatie gaat winnen, wel dat ze veel data kunnen opslagen en verwerken (endurance) een lagere kost.

Onderschat daarbij de vraag niet, vaak word opgemerkt dat bewakingsbeelden van bedroevende kwaliteit zijn terwijl de smartphone veel betere beelden geeft, wat men mist is dat men 24/24 7/7 met liefst minstens een maand historiek beelden bijhoud van 10 camera's, aan 4k bij 30fps zit je aan 0.3GB per minuut per camera ofwel aan 10 camera's 3GB per minuut, 180GB per uur, 4.3TB per dag of 129.6TB om 30 dagen historiek bij te houden. Dat is slechts 1 van de vele toepassingen waarbij die random performance niet uitmaakt maar waar een conservatieve HDD heer en meester is
De absolute snelheid zal best omhoog gaan, maar uiteindelijk alleen bruikbaar als (relatief traag) archief of backup medium. Naar verhouding (snelheid:capaciteit) zal de HDD steeds trager worden, wat het onbruikbaar maakt voor toepassingen waar performance ook belangrijk is. Om nog maar te zwijgen over het feit dat het rebuilden van een RAID set met dit soort disks dermate lang gaat duren dat je inmiddels wel aan multi-partity RAID sets moet gaan denken (kijk naar TransIP's STACK failure van een paar weken geleden).
Dus eigenlijk moet er diepte worden toegevoegd: dat de intensiteit van het magnetisme ook een waarde is.
Dat kan de capaciteit laten toenemen met factor N, waarbij N het aantal verschillende niveau's in intensiteit.
Zo'n bit die meerdere intensiteiten kan hebben noemen we voor het gemak N-bit.

Uitdagingen hierbij zijn onder andere:
  • Magnetisch verval - over tijd moet de magnetische intensiteit van de N-bits onderling te onderscheiden blijven.
  • Flux correctie - als gevolg van de schijf rotatie.
  • Kwaliteit magnetisch materiaal - moet verschillende intensiteiten goed kunnen vast houden.
  • Kop positie - nog nauwkeuriger.
Opties
  • Door verschillende lagen materiaal te nemen welke elk gevoelig zijn voor slechts een bepaalde magnetische intensiteit construeren we een N-bit construeren.
  • Door de hoek van het veld tijdens schrijven te veranderen wordt de polarisatie anders gelezen. We variëren hier die polarisatie hoek die haaks staat op de leesrichting.
Ik sta open voor correcties, want mijn kennis is beperkt

[Reactie gewijzigd door djwice op 30 oktober 2020 09:20]

Anoniem: 562971
30 oktober 2020 06:45
Ik als gemiddelde consument dacht altijd dat het op een gegeven moment over is met de traditionele harde schijf.
SSD's hebben zo hun voordelen, maar ook nadelen. Zelfs als consument.

De prijs per terabyte beperking is voor SSD's een belangrijke beperking. Voor grofweg duizend euro heb je al snel ongeveer 40 - 50 TB aan HDD's en zit je op nog geen 10TB aan SSD's.

Met andere woorden, indien jij thuis een eigen Plex server draait met ruime media collectie, dan zijn SSD's erg onvoordelig.

Ook met de sterke toename in omvang van games, titels van 100+ GB, zie je een toenemende interesse voor storage op HDD. Ja, loading times nemen toe, maar je gameplay performance zelft verandert bij de meeste games niet. En dat terwijl ook hier je aanzienlijk bespaart. Meest gespeelde games op SSD en rest op HDD is dan ook iets waar veel voor gaan.

In Nederland met onbeperkte data kun je natuurlijk ook opnieuw installeren wil je weer gaan spelen. Maar zonder onbeperkte data en ook met lage download snelheden wil je dat niet.

Het aantal schrijfbewegingen is verder ook nog een ding. Continu log files wegschrijven naar een schijf kun je niet eindeloos doen op een SSD. Wel lang, maar niet eindeloos. Met een HDD is dit minder problematisch. Uiteraard kunnen beide opslagmedia nog op andere wijze defect raken.

Nog een voordeel van HDD's is storage density. Stel je hebt het geld voor bijvoorbeeld 50TB aan SSD opslag, de ruimte die je hierbij in beslag neemt is tegen betaalbare prijs meer dan opslag met HDD's, ondanks de kleinere form factor per unit.

Daarmee kan een HDD dan ook zeker voor de consument waarde hebben. Indien je maar een beperkte hoeveelheid data opgeslagen hebt thuis, dan is een SSD natuurlijk al snel voldoende en beste all-rounder voor consumenten gebruik.

@N8w8 Ik weet dat er 50TB en 100TB SSD's bestaan, maar de prijs daarvoor is dusdanig exorbitant dat ik dat even buiten beschouwing heb gehouden voor consumenten gebruik.

[Reactie gewijzigd door psychodude op 30 oktober 2020 08:13]

Dit is het decennium van de SSD
De prijs per terabyte beperking is voor SSD's een belangrijke beperking. Voor grofweg duizend euro heb je al snel ongeveer 40 - 50 TB aan HDD's en zit je op nog geen 10TB aan SSD's.
@N8w8 Ik weet dat er 50TB en 100TB SSD's bestaan, maar de prijs daarvoor is dusdanig exorbitant dat ik dat even buiten beschouwing heb gehouden voor consumenten gebruik.
Ik denk toch echt dat het op een gegeven moment over is met de traditionele harddisk. Dat die prijs per GB nu niet optimaal is wil niet zeggen dat het niet gaat veranderen. Eigenlijk is de prijsontwikkeling van de SSD per GB steady naar beneden: een exponentiële afname. Terwijl die van de hdd stokt, door de hier genoemde technische beperkingen, en ook deze techniek gaat er niet heel snel verbetering in brengen. Seagate verwacht in 2026 HDD's te hebben met hamr technologie op 50tb.
Zelfs met de traditonele schijven blijkt de prijs met grotere schijven amper voordeliger per GB, als ze nu al zeggen dat het pas interessant is vanaf 24TB, hoef je ook geen dramatische prijsdalingen te verwachten (ik bedoel een 20 GB laser schijf gaat niet de helft kosten van een 20GB zonder laser).

Terwijl je op basis van de wet van Moore mag verwachten dat de prijs van SSD GB's elke twee jaar halveert. Reken even met mij mee:
2020 = 100 euro voor 1TB
2022 = 100 euro voor 2TB
2024 = 100 euro voor 4TB
2026 = 100 euro voor 8TB (50 TB HAMR van Seagate moet <625 euro kosten om concurrerend te zijn)
2028 = 100 euro voor 16 TB
2030 = 100 euro voor 32 TB

Op basis van de historische prijsontwikkeling van de SSD is -96% van 2011 tot 2020 (vergelijk 80GB intel ssd uit 2011 met 100 euro die je nu voor 1TB Kingston A2000 betaald). Ziet het er nog veel rooskleuriger uit voor de SSD-prijs-ontwikkling. Dan heb je 1TB/0,04 = 100 TB voor 100 euro in 2029.
In dezelfde tijd zijn HDD's per GB -37% in prijs veranderd.

De waarheid zal waarschijnlijk ergens in het midden liggen en ook afhankelijk zijn van marktontwikkelingen, wordt productiecapaciteit gebouwd, is er vraag vanuit de markt, etc: Ik denk het wel want smartphones (de moderne pc) met immer meer (SSD) opslag zijn wenselijk: hoe meer, hoe kleiner, hoe zuiniger, hoe beter.

De andere "voordelen" die je noemt zijn dan niet meer zo van belang:
1. Ik heb liever altijd snelle schijf dan niet
2. Logfiles kunnen ook naar een dedicated SSD worden geschreven die je dan vervangt als het nodig is, of je schrijft het naar volatiel geheugen, want daarvan heb je dan ook zeker een overvloed. Is er in 2030 uberhaupt nog onderscheid tussen de twee? ;-)
3. Storage density, die van SSD's heeft veel meer potentie om af te nemen, omdat de magnetische schijf dezelfde formfactor houd 3,5" terwijl de SSD in M.2 nu al kleiner is.

Tenzij het produceren van HDD's ineens heel veel goedkoper wordt is dit het decenium waarin de SSD de HDD gaat inhalen in prijs per GB! Ik zou niet weten waarom men dan nog een HDD zou kopen!
Terwijl je op basis van de wet van Moore mag verwachten dat de prijs van SSD GB's elke twee jaar halveert. Reken even met mij mee...
Afgezien van het feit dat de wet van Moore steeds minder geldt: Flashgeheugen heeft andere (en veel ergere) groottebeperkingen dan transistoren, omdat de ladingen niet (of niet te snel) weg mogen lekken. Ze vrolijk halveren gaat dus echt niet.
Terwijl je op basis van de wet van Moore mag verwachten dat de prijs van SSD GB's elke twee jaar halveert.
Had Intel volgens die wet niet al op 3nm moeten zitten? ;)
De afgelopen jaren zijn de kosten per GB echt niet elke twee jaar gehalveerd, zelfs met trucs als meer bits per cel.

Volgens mij gaat die wet ervan uit dat de kosten per wafer (of per mm2) ongeveer gelijk blijven, maar momenteel stijgen die kosten..

[Reactie gewijzigd door Olaf van der Spek op 30 oktober 2020 09:59]

De afgelopen jaren zijn de kosten per GB echt niet elke twee jaar gehalveerd, zelfs met trucs als meer bits per cel..
Zal er niet ver vanaf zitten. Ik heb ~2017 (?) €300 betaald voor een 1TB SSD en die zijn nu inderdaad €100. Een terabyte is voor de meeste gebruikers ook meer dan voldoende.
In 2012 zat een 256 GB SSD (Samsung 830) onder de 200 euro.
2014: 512 GB
2016 1 TB
2018 2 TB
2020 4 TB / 200 euro?

Zit er toch minimaal een factor 2 naast en dan is het voordeel van TLC / QLC al meegerekend.
Nou dat is niet het hele plaatje.
Door overschot zijn de flash prijzen gekelderd de afgelopen jaren.
Heb ik zelf niet zo goed zicht op maar zie bijv hier: "the downturn will be the biggest price correction in the history of semiconductor products".
Ook wordt het vlgs mij vooral goedkoper door procesverkleining (minder nm), wat ervoor zorgt dat de endurance (TBW/DWPD) omlaag gaat. Kan nu nog wel wat meer vanaf, maar daar zit ook wel n grens aan.
Maar toch investeren bedrijven zoals Seagate en Western Digital nog zwaar in HDD technologie. En is er interesse van de datacenter markt om die nieuwe HDD te evalueren, dat allemaal in het decennium van de SSD.
Deze organisaties zien nog wel toekomst in de HDD.

Het is wel duidelijk dat er niet meer 1 technologie is die in alle opslag toepassingen domineert. SSDs zijn nu duidelijk populairder voor consumenten toepassingen, om dat ze daar simpelweg de betere oplossing zijn, voor redenen die jij noemt.

En de wet van Moore stokt wel degelijk op die moment. Als monolitische 3D stacking niet doorbreekt, moet je denk ik ook geen gigantische vooruitgang meer verwachten op vlak van density. (Hoewel flash wel redelijk verschillend is van standaard CMOS technologie: misschien hebben ze daar wel een grotere trukendoos)
Het is misschien niet de wet van Moore, maar er zijn vast net als bij cpu's iedere keer wel weer nieuwe trucjes om meer uit de huidige techniek te halen. Technieken waarbij bijvoorbeeld steeds meer bits(of misschien wel bytes) per lees-/schrijfactie worden verwerkt.
Technieken waarbij bijvoorbeeld steeds meer bits(of misschien wel bytes) per lees-/schrijfactie worden verwerkt.
Dat is het punt niet, het gaat vooral over hoe je een bit aan data uiteindelijk ook echt opslaat. Ook daar kun je met meerdere bits tegelijk werken (multi level cell) en dat was ooit een mooie truc, maar daar is de rek inmiddels ook wel uit. Elke keer dat je één extra bit op wilt slaan verdubbelt het aantal mogelijke waarden dat de cell moet kunnen onthouden (in de praktijk: halveert het voltage tussen twee niveaus).
Een probleempje dat je vergeet in je opsomming, is dat SSD ook langzaam de rek van makkelijk verhogen van capaciteit, beginnen te verliezen.

SLC, MLC, TLC, QLC

Je verdubbelde de capaciteit van SLC naar MLC ( 100% ). Van MLC naar TLC was dat maar 50% verhoging. Van TLC naar QLC is dat maar 33%. En dan spreken we nog niet over de constante verlaging van levensduur ( en snelheid ), wat men compenseert met meer en meer trucjes. Zoals SLC partitioneering voor sneller "bufferen", enz Waardoor die 4,5,7,8 TB/s geclaimede snelheden enkel maar beperkten tot de SLC vol zit en de boel moet wegschrijven. Laat staan als je SSD voller is = kleinere plaats om te gebruiken als SLC.

Men proper meer en meer lagen op dezelfde geheugen maar dat verhoog dan weer de kostprijs. Verlagen van node, was in het begin ook 1 van de drijfveren om capaciteit te verhogen maar daar begint ook meer en meer issues te voorkomen.

Vroeger waren we van HDD's hun capaciteit zal blijven verdubbelen iedere 2 jaar. Zie hoeveel technieken er klaar liggen. Maar technieken en praktijk != gelijk hetzelfde.

HDD's gaan niet verdwijnen voor de server markt. Consumenten daartegen hebben vaak genoeg met 1TB, laat staan 2TB ... De evolutie naar meer data is veel kleiner op de consumenten markt dan op de server/cloud markt. Streaming diensten hebben ook de noodzaak weggenomen voor veel data op te slagen op je HDD.

Enkel de Plesk / HomeStorage / ... group zijn die dat zich inzetten op 20,50,100TB opslag. En dat is een enorme kleine markt van consumenten. Blijft er over bedrijven dat backups doen en media focused ( video's 4k/8k ... ) bedrijven. Wat weeral niet consumenten markt is.

Het probleem is dat alles dat verkocht word naar niet consumenten vaak een prijskaartje krijgt van "pro/enterprice". Ik zie SSD prijzen nog dalen maar 32TB SSD's voor 100 Euro. Dat is een grote gok dat men genoeg technieken blijft behalen. En wie koopt dat? Pro's vooral. Zelf met 8K games, ga je aan wat? 250GB / Game zitten?

Kunnen we in de toekomst meer SSD storage zien in 3.5" formaat? Zeker als de rek in technologie eruit is en men meer en meer de volume route moet uitgaan. Maar dat verhoogt de prijzen dan weer.
Maarja dan moet je wel zo’n langzaam lawaaiding in je PC gaan stoppen. En die omvang van games... Nog een paar jaar en dan is een SSD gewoon een minimum vereiste. Kom je niet onderuit.
Anoniem: 1463186
@Wolfos30 oktober 2020 08:41
Dat ligt er aan wat je wilt. Als jij een gaming PC bouwt om hem zo stil mogelijk te hebben, dan is dat minimale geluid van een HDD misschien te veel. Maar voor iedere andere toepassing zoals een Plex server, of vooral gewoon organisaties, is een HDD echt niet zo lawaaiig.

Je noemt games, maar dan is het misschien zo dat SSD's verplicht worden voor gaming. Prima, maar dat zijn sowieso al de mensen die het meeste uitgeven aan hun PC. Voor een film is een HDD prima snel genoeg, en je moet wel een hele stille film kijken wil het geluid van een HDD boven je film uit komen :)
Waarom zouden HDD's naast je moeten staan? Daar heb je toch NASsen voor?
Anoniem: 1463186
@salipander30 oktober 2020 09:32
Natuurlijk heb je dat, ik doel ook meer op de claim dat het lawaaiig is. Het was meer een grappig bedoeld voorbeeld dan dat je echt een HDD tegen je oor houdt natuurlijk, dat leek me vanzelfsprekend.
Was als reactie op @psychodude's opmerking dat HDD's wenselijk zouden zijn voor games.
Maarja dan moet je wel zo’n langzaam lawaaiding in je PC gaan stoppen.
5400 rpm schijven zijn best stil hoor..
Nou qua density, wil je 50TB, dat kan met 3 HDDs, maar het kan ook met 1x deze SSD (en ja er is ook een 100TB model).
Het is vooral de prijs of endurance dat men voor HDDs kiest lijkt mij.

@psychodude, ja ik vind het ook exorbitant, ik ging uit van "Stel je hebt het geld voor bijvoorbeeld 50TB aan SSD opslag", maar daar is idd wat voor te zeggen.
Als je je beperkt tot "normaal" geprijsde SSDs; met 8 van deze SSDs, in deze cage, kan je 64TB kwijt in 1x5,25".
Handig vergelijken is mss 5x20TB in 3x5,25"? Dat is dus 33TB per 1x5,25".
Nouja, wat voor eisen/sommetjes we ook precies maken, het density voordeel lijkt me wel mee te vallen iig.

[Reactie gewijzigd door N8w8 op 30 oktober 2020 08:50]

Voor $100 minder heb je 64TB. Koopje! 8)7
Ik denk dat 50TB aan SSD in combinatie met consumenten geen goed voorbeeld is. Dit kan je natuurlijk in een kast krijgen en aansluiten, maar handig/praktisch is dat niet. Maar imho geld dat ook voor HDDs, dat zullen maar weinig mensen in hun PC hebben zitten, wellicht in een NAS of thuis servertje. En dan is SSD sowieso een heel ander verhaal dan HDD. Het is niet verstandig om traditionele RAID oplossingen te gebruiken met SSD, daar zijn spelciale oplossingen voor ivm. hoe een SSD degradeert, die zijn niet echt goedkoop.

Qua ruimte, je kan prima 4-6 8TB M2 SSDs op een PCI-E bordje kwijt kan, ik denk dat iets dergelijks zelfs kleiner is dan 2-3 grote HDDs. Maar dat is nog steeds 3x zo duur als HDDs.

De vraag is, wat voor type data is het, hoe wordt het gebruikt en hoeveel ruimte heb ik?

Zelf gebruik ik veel SSD, in laptops en mini PCs zal ik geen HDD meer zetten. Maar in mijn NASen zitten nog braaf HDDs en dat zal echt niet veranderen de komende 5-10 jaar. Maar als ik kijk naar HDDs in mijn workstation/gaming PC gaan die bij de volgende build eruit. Waar ik 7 jaar geleden een 1TB SSD voor kocht, krijg ik nu een 4TB, als ik naar HDDs kijk betaal ik 1/3e meer voor 50% meer storage. Deel van het issue daarin is dat de HDD markt behoorlijk is geslonken in het afgelopen decennia, terwijl de SSD markt enorm is gegroeid.

Gaan SSDs de HDDs vervangen, uiteindelijk wel imho. Echter zal dat nog wel even duren, ik verwacht namelijk dat de groei/kosten van SSDs niet op dezelfde manier zullen doorzetten zoals dat de afgelopen 15 jaar is gegaan. Daar zullen nog wat technische hindernissen overkomen moeten worden. In de consumenten markt zie je steeds minder (grote) 2.5" SSDs en steeds meer M2 SSDs, maar het aantal aansluitpunten in een PC is normaal beperkt voor iets dergelijks en ik ben al helemaal geen NASen tegengekomen welke deze als primaire storage medium kunnen gebruiken (momenteel primair als cache 1-2 stuks).
Dank voor de nette uitleg.
Je bent niet de enige. De meeste consumenten stellen dat ze aan een moderne SSD en een paar HDDs genoeg aan opslag hebben. Echter groeit de data van die consumenten in de cloud. En rara waar cloud opslag diensten die data op opslaan.
Wat is het voordeel van een HDD tov SSD? Vooral de prijs toch?
Prijs en opslagcapaciteit
Enkel prijs, de grotere SSD's zijn oneindig veel groter dan de grootste HDD's, maar ook een stuk duurder.
Oneindig veel groter? Hoezo dan? De grotere SSDs zijn nu 16TB en harddisks 18TB. Je kunt beide natuurlijk stapelen...
Als je kijkt wat er nu beschikbaar is op de markt, ja dan nog niet... maar oneindig is uiteraard nogal overdreven. Bouw een SSD in hetzelfde formaat als een 3,5" HDD met hoge capaciteit chips en je zal vele malen meer opslag hebben, prijs technisch gezien uiteraard wel weer een heel ander verhaal. SSD's zijn een stuk goedkoper geworden en zitten nu inmiddels ruim rond 10 cent per GB, een HDD doet rond de 2 cent per GB... dat is toch nog steeds 5x goedkoper.
Bouw een SSD in hetzelfde formaat als een 3,5" HDD met hoge capaciteit chips
Is ook nog niet zo makkelijk. Je zit met hitte-ontwikkeling. Dat is een grote bottleneck op het nog meer op elkaar stapelen van cells. Je bent dan ook een stevig eind behuizing kwijt aan koeling.

[Reactie gewijzigd door R4gnax op 30 oktober 2020 10:13]

Als het puur om opslag gaat hoeft de schrijfsnelheid lang niet zo hoog te zijn als de huidige PCI-e 4.0 drives, dan valt het ook weer reuze mee met de warmte ontwikkeling.
Totaal niet mee eens. Ik heb momenteel 20 TB staan en een volledige backup kost me bijna 3 dagen met een gemiddelde snelheid van 100 MBps.
Ten eerste is zo lang draaien helemaal niet goed voor schijven want ze worden loeiheet en als de drives dus 50TB worden en we hebben zo veel data ben je gewoon een week bezig. Dat betekent dat je opslag een week niet beschikbaar is.
Het heeft dus ook functionele gevolgen doordat je niet kan backuppen van je huidige dataset. Wil je dus een backup moet je een raid draaien wat voor de meeste mensen thuis gewoon niet redelijk is.
Ik ben bewust bij usb drives gebleven omdat een nas te veel gedoe is en er teveel haken en ogen aan zitten en gewoon fors meer kost.
https://nl.hardware.info/...0tb-ssd-kost-40000-dollar

Het is niet goedkoop maar 100TB is ruim meer dan 18TB.
Kunnen ze met deze techniek de prijs wel laag houden? Anders voegt het niet veel toe
Kunnen ze met deze grote SSD wel laag houden? Anders voegt het niet veel toe.

Want er zullen weinig mensen zijn die 2,5k euro uitgeven aan een 15.6TB SSD. Als een 16TB hdd voor onder de 400 euro kan krijgen.
stroomverbruik, stabiliteit, stilte
Dat klopt ja. Zie bijvoorbeeld een 5tb HDD voor (correct me if I'm wrong) 100 euro, hetzelfde betaal je voor een 1tb ssd. Het fijne van een HDD is dus bang for the buck storage. Ook hebben ze weinig last van slijtage door schrijven, wat Ssd's wel hebben. Ssd's zijn echter weer veel sneller en muisstil.
Een HDD heeft altijd last van slijtage, daar ontkom je niet aan bij mechaniek, zeker dergelijke fijnmechaniek. Het is een ander soort slijtage dan bij een SSD maar een redelijke SSD slijt zichzelf minder snel dood dan een redelijke HDD.
Je hebt een punt, die ssd slijt niet door aan staan, een HDD wel. Het is ook maar wat je er aan uitgeeft. Intel ssd's zijn er tot 1,6 pbw dacht ik. Een goedkope SSD (crucial grotendeels uitgezonderd) kent wel een hogere vroegtijdige uitval. (Zeker gevallen als de Kingston A2000 in een ryzen systeem)
Seagate verwacht in 2026 HDD's te hebben met hamr technologie op 50tb. Dat is nou toch ook niet een enorme sprong als je 6 jaar moet wachten op 30tb meer. Dat is 5tb per jaar. Het zal vast meer zijn dan de groei van afgelopen tijd maar zo baanbrekend is het nou ook weer niet. Zeker gezien de alternatieven. Of misschien is de term '1 terabyte' wat te gewoon geworden. Het blijft een hoop opslagcapaciteit natuurlijk.

Desalniettemin zit ik me wel af te vragen hoe je een 50tb schrijf in hemelsnaam vol krijgt. Ik heb al moeite met 2tb aan SSD opslag. Zo'n hoge capaciteit schijf lijkt me nou niet heel interessant in een desktop. Meer in een server. Zeker gezien de prijs die waarschijnlijk behoorlijk hoog zal zijn.
Als je 25 moderne games installeert is t op.

Texture Compression is tegenwoordig schijnbaar een heel vies woord(of eigenlijk 2 woorden) in game development.
Noem eens 25 games die samen 2 TB aan opslag vullen?
Volgens mij zijn de 100+ GB games nog altijd de uitzondering, niet de regel.

En dat dan even los van dat hij voor zich persoonlijk sprak. 50 TB is zelfs met zulke grote games bizar groot.
Dat is echt zo moeilijk niet...

https://gamerant.com/pc-g...ze-hd-space-biggest-huge/

Tel deze is bij elkaar op... 10 games en je zit al op de 1,3TB... en allemaal grote populaire titles.

Of deze: https://www.pcgamer.com/biggest-game-install-sizes/

Games worden momenteel o.a. vanwege 4K e.d. heel snel bizar groot, het is echt niet zo lastig om 2TB vol te krijgen met recente triple A games.
Ja beetje flauw, van die top lijstjes, dan lukt het inderdaad. Maar het is wel héél toevallig als dat net precies allemaal jouw favoriete games zijn. Punt is, pak wat meer willekeurige games die niet specifiek op hun storage footprint geselecteerd zijn en je krijgt veel meer games op 2 TB.

Bij consoles speelt dat ook, mensen die gelijk roepen dat je maar een paar games op die interne SSD's krijgt... Ik heb momenteel 32 games geïnstalleerd staan op mijn Xbox one x met 1 TB schijf en heb nog 244 GB vrij... Er zijn zeker uitschieters maar dat is precies wat het zijn, uitschieters.
Star citizen? 61 GB. Fortnite? 27GB. Horizon Zero Dawn op PC? 64GB. Death Stranding? 64 GB. HALO master chief edition? 80GB. Ace Combat 7? 55GB. iets oudere games dan: Borderlands the Presequel: 19GB, F1 2018: 38GB

The list goes on and on and on....

En dit is NU, niet over een paar jaar. Games worden belachelijk groot en die trend stopt niet, die versneld eerder.

[Reactie gewijzigd door redniels op 30 oktober 2020 09:30]

Ik moet zeggen had me hierboven even verrekend, dacht dat er gesproken werd over 100 GB gemiddeld maar 25 games op 2 TB is natuurlijk 80 GB. Alsnog zitten die games die je nu noemt daar echter gewoon onder, op 1 na.

Of games groter worden is de vraag. Dankzij de nieuwe consoles kunnen ontwikkelaars er binnenkort eindelijk vanuit gaan dat er een SSD aanwezig is. Een van de redenen waarom games zo ontzettend veel plek innemen is namelijk dat veel assets meerdere keren op de schijf staan. Dit doen ze om te voorkomen dat op een HDD de kop als een gek heen en weer moet springen waardoor de laadtijden veel langer worden. Als je dus een texture hebt voor een muur die in elk level voorkomt dan heb je goed kans dat die texture ook individueel in elke level file staat.

Met SSD's is dat niet nodig, het maakt een SSD namelijk vrijwel niks uit of gelezen data netjes bij elkaar staat of niet. Microsoft en ik meen ook Sony hebben dus ook aangegeven dat dit meespeelt in dat je straks minder opslagruimte nodig hebt om dezelfde game op te slaan... Als devs eenmaal stoppen met optimaliseren voor HDD's.

Op pc had dat in principe natuurlijk al langer gekund, maar je ziet vaker dat als iets niet mogelijk is voor de console dat het op pc ook niet gebeurt (als het geen flashy graphics oplevert waar je games mee verkoopt). Ik verwacht dat wanneer games niet meer naar de oude consoles komen dat je dan ook vaker zult zien dat je op de pc ook echt een SSD nodig gaat hebben en daarmee dat het formaat op schijf weer wat afneemt.

Edit: trouwens, star citizen is volgens mij zo'n game die volgens mij al een SSD vereist eigenlijk. Die 61 GB valt me dan ook erg mee voor zo'n enorm spel, had eigenlijk gedacht dat die een stuk groter was al.

[Reactie gewijzigd door Finraziel op 30 oktober 2020 09:52]

Ik weet niet of assets meerdere keren op disk staan. Ik weet wel dat voor een developer opslag goedkoop is en CPU cycles benodigd voor decompressie niet. Decompressie slagen kosten performance; FPS. Call to disk kost niets, daar hoef je alleen maar op te wachten en als je code slim is kun je in die tijd iets anders doen. En als je code "dom" is maakt dat ook niet uit: laadschermen tussen levels zijn een geaccepteerd gemeengoed.

Star citizen is een leuk voorbeeld: juist door de waanzinnig grote textures ben je verplicht om die 55GB op een SSD te zetten omdat een HDD de textures niet snel genoeg laad en de game hapert en stottert en pruttelt. Tuurlijk, SC is in een eeuwigdurende alpha staat maar dan nog.
Ik heb alles bij elkaar gepakt wat ik heb (ooit gespeeld, bezit, niet meer bezit).
Mix van mijn Steam + GoG + originele CD met NoDVD patches + HumbleBundle + gratis games (best veel sources zoals je ziet, dus niet gelimiteerd tot 1 platform).

~1.6TB, ~261 entries, sommige spellen 2x want sommige zijn ge-mod, en sommige "clean". Ja je kan snel op de 2TB zitten, maar ik denk dat dat in de praktijk erg mee valt.

Afgerond naar boven gem. 7GB/spel.

2TB zou genoeg moeten zijn voor 300+ willekeurige spellen.

https://pastebin.com/ch9MWz5r

[Reactie gewijzigd door grasmanek94 op 30 oktober 2020 11:26]

Niets flauw aan... jouw verzoek was vooral wat flauw.

Maart dat zijn allemaal zeer populaire games waarvan de kans vrij groot is dat men daar meerdere van op het systeem geïnstalleerd heeft staan... oftewel totaal geen obscure titels waarvan de aanwezigheid op een systeem klein is.

Nee, het zijn geen uitschieters, dit zijn allemaal recente Triple A games, zeker voor de nieuwe consoles en de komende games voor PC gaan ze allemaal zo groot worden.
Mijn cod black ops 3 met mijn zombie maps is al 320 gb.
Met hd texture packs wil het allemaal best oplopen tegenwoordig.
Final fantasy was iets van 140 gb dacht ik. Rdr2 is 130 gb.

Daarnaast is 2 TB in realiteit maar 1,8 TB

[Reactie gewijzigd door computerjunky op 30 oktober 2020 11:25]

Ik verbaas me nu al decennia over hoe mensen zich kunnen verbazen over de behoefte aan grotere opslag. Met 4K films bijvoorbeeld gaat het hard, en dat lijkt me nou niet echt een exotische behoefte, een media server thuis.
Mwah, als je de illegale films van de opslag haalt dan blijft er bij de meeste mensen maar weinig over verwacht ik.
Ik denk dat ouders met kinderen (en het vermogen de telefoon een kwart slag te ) een beste storage behoefte hebben als ze het beeldmateriaal van hun grut lokaal wensen op te slaan om bv op TV terug te kijken.

De meeste telefoons filmen 4K, dus dat kan best hard gaan. Om nog maar niet te spreken over eventuele actie-cameras.
Het is echter niet zo gek veel meer games die tegenwoordig al over de 100 GB vereisen.. voor werk gebruik ik regelmatig virtual machines en dan is het ook zo vol. Nee ik wacht met smart op betaalbare 4 TB SSD's.
Camera systemen met toegestane backup van meerdere maanden ? Daar schroeven wij nu al 12x 6TB zonder backup puur voor de normale 2/3 weken .. nu zijn dat wel “surveillance” HDD’s plus je moet maar afwachten of je apparatuur ook meer als 6 TB zomaar slikt . Echter ben ik wel van mening liever 10x6TB dan 1x 60TB als je zonder raid draait betekend het maar 10% verlies tegenover alles

Ps.. Cloud storage ?
Maak het simpeler: Nog geen x3 in 6 jaar klinkt nou niet echt geweldig en revolutionair. (maargoed hoeft ook niet, maar zo brengt men het wel).

Hoe je 50TB vol krijgt is een kwestie van 50TB + support structuur tot je beschikking hebben. Als je een razendsnelle petabyte in je broekzak hebt een paar petabyte in je pc 10 petabyte aan online opslag en een dikke internetpijp, dan is de kans veel groter dat je (vandaag de dag) 50TB aan data vergaart binnen een paar jaar dan als je 2TB ssd in je laptop hebt met nog een storage server van 60TB op zolder. Waarom nog je prive fotos/videos comprimeren bijv als je nagenoeg onbeperkte capiciteit en snelheid hebt mbt opslag.

[Reactie gewijzigd door TWeaKLeGeND op 30 oktober 2020 07:41]

Dat dacht ik vroeger ook toen ik een harde schijf kreeg van 200MB :+ Kon je 200 Commander Keens op kwijt :P
Inderdaad grappig dat je de opslag op die manier zag vroeger.
Ik was héél blij toen ik mijn allereerste HD van 40MB (MEGA geen GIGA) in mijn computer stak (Amiga 2000) en dacht: ik kan hier gewoon meer dan 20 diskettes op kwijt, en mijn computer start sneller op ook nog!! 8)7
Mijn eerste HD was 20MB in een XT, maar dat was toen al een beetje krapjes. Wilde ook niet *zo* oud klinken ;)
hoeveel TB heb je nu voor de prijs van die 20 MB ? denk ook wel 20 TB O-)
Het verbaast mij vooral dat het uitbrengen van schijven met deze techniek keer op keer wordt uitgesteld. Als sinds 2012 worden er aankondigingen gedaan die steeds niet gehaald worden. In de jaren '80 en '90 werden soortgelijke technieken al gebruikt, bijvoorbeeld in de Mini-Disc. Ergens zou je daarom denken dat het een beetje oude wijn in nieuwe zakken zou moeten zijn, maar kennelijk is er toch iets dat de lancering tegenhoudt.
HAMR & MAMR, allemaal mooie beloftes...

Zover ik weet zit HAMR toch best wel met temperatuur problemen, waardoor het praktisch eigenlijk niet inzetbaar is. (ook al beweerd Seagate iets anders ;) ) Vandaar dat ze er ook al 20 jaar over doen...

Ik betwijfel alleen de meerwaarde ten opzichte van de modernere SSD's
Ik betwijfel alleen de meerwaarde ten opzichte van de modernere SSD's
SSDs zijn nog steeds flink duurder dan HDDs..
Ja sorry, je hebt helemaal gelijk, ik had misschien iets duidelijker moeten wezen.
Als je de huidige hdd's afzet tegen de huidige ssd's dan zijn de huidige hdd's makkelijk 4 to 5 keer zo goedkoop als je alleen kijkt naar prijs per GB

De verwachting is alleen dat de komende generaties ssd's die gericht zijn op storage daar een grote slag gaan slaan. Die zullen veel goedkoper worden met hun prijs per GB.

Daarnaast deze HAMR & MAMR schijven zullen zeker niet zo goedkoop zijn als de huidige hdd's

Als je dan daarna gaat kijken wat de stroom/koeling verbruikskosten zullen zijn, denk ik echt dat ssd's in de nabije toekomst goedkoper zullen zijn in de meeste scenario's.
Ach de tijd zal het uitwijzen. ;)

Wat ik altijd wel opvallend vind in de hdd storage markt, er zijn 2 partijen die markt regeren en daarmee ook vaak de berichtgeving...
Ik moet zeggen dat ik vroeger regelmatig grotere HDDs kocht omdat de behoefte voor opslag groeide. De afgelopen 5 jaar merk ik juist dat mijn opslag behoefte daalt. Ik heb nog steeds eem 2TB HDD in mijn systeem zitten samen met 1.5TB SSDs. Alleen de behoefte voor snelle opslag groeit en niet die van HDDs aangezien alle content voor mij uit streaming diensten komt. Alleen eigen gemaakt materiaal staat op mijn PC zoals foto's en video's.

Volgende upgrade wordt een 2TB SSD erbij en ik verwacht dat ik dan nog heeeel erg lang vooruit kan.
Hier net zo ja. Een paar jaar geleden was het altijd schipperen met HDD ruimte, maar nu in de tijd van Netflix en Spotify, loop ik eigenlijk nooit meer tegen de grenzen van de ruimte aan. (Ok, het afsterven van mijn fotografie hobby heeft daar ook wel wat mee te maken)
Waarom veranderen ze niet gewoon de form factor (groter dus)? Bij videokaarten vinden we het heel normaal dat ze dubbel zo dik en lang worden en passen daar moederborden en cases op aan, maar bij hdd's blijven we hangen op maximaal 3,5".
In datacenters wil men er natuurlijk zoveel mogelijk in één rack kunnen stoppen

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee