Door Willem de Moor

Redacteur

De toekomst van harde schijven

Op weg naar nog grotere capaciteiten

15-01-2022 • 06:00

115

Multipage-opmaak

Groeien

Vol trots meldde Marvell onlangs dat het zijn vijf miljardste hardeschijfcontroller heeft geleverd; het heeft het bedrijf 25 jaar gekost om die indrukwekkende mijlpaal te passeren. Die vijf miljard controllers hebben in die periode volgens Marvells berekening 4,9 zettabyte aan dataopslag mogelijk gemaakt. Om dat in een beetje begrijpelijke termen te zetten: dat is bijna vijf miljard terabyte. Klein zijspoor: dat zou betekenen dat elke controller van de afgelopen 25 jaar gemiddeld een terabyte aan data aanstuurt. Een harde schijf uit 2001 had natuurlijk geen terabyte capaciteit, maar tegenwoordig zitten die Marvell-controllers in drives van 20TB.

Het bovenstaande lijkt te impliceren dat er elk jaar steeds meer hardeschijfcapaciteit wordt verkocht, terwijl de verkoopcijfers juist gestaag dalen. Dat doet de vraag rijzen: hoe ziet de toekomst van de harde schijf eruit? Die lijkt op het eerste gezicht niet rooskleurig; de meeste tweakers kopen immers liever een ssd dan een hdd. Ook volgens verkoopcijfers is de overgrote meerderheid van de desktops en laptops in het afgelopen jaar geleverd met een ssd in plaats van een hdd en dat lijkt alleen maar meer te worden. Het aantal verkochte ssd's was in 2020 ook bijna 30 procent hoger dan het aantal verkochte harde schijven.

Ook als we naar de data van onze eigen Pricewatch kijken, zijn harde schijven niet meer zo populair als ze ooit waren. Wat is dan nog het nut van harde schijven? Waar worden ze voor gebruikt en wie koopt ze? Hoe spelen fabrikanten in op de veranderende rol van harde schijven? We kijken naar de cijfers en de technieken die de harde schijf ook in de komende jaren nog interessant moeten houden voor specifieke toepassingen.

Verzameling harde schijven

Verkoopcijfers

De 5 miljard controllers die Marvell in de afgelopen 25 jaar heeft geproduceerd, waren natuurlijk niet de enige controllers voor harde schijven in die periode. In die 25 jaar zijn pakweg 9,5 miljard harde schijven verkocht, aldus Statista. De andere helft harde schijven wordt aangestuurd door controllers van bijvoorbeeld LSI of Broadcom, of door controllers van eigen fabrikaat.

De capaciteit van de harde schijven steeg gestaag, maar dat werd zoals eerder gezegd gecompenseerd door steeds lagere leveringen. De stijgende prijzen als gevolg van de overstromingen in Thaise fabrieken in 2011 veroorzaakten in dat jaar een daling van het aantal verkochte drives. De hdd-sector heeft die daling nooit meer weten te keren; in het afgelopen decennium daalden de hoeveelheden verkochte harde schijven gestaag. In 2020 en 2021 werd slechts 40 procent van het aantal schijven verkocht dat op het hoogtepunt, in 2010, werd verkocht.

Pricewatch-data

We kunnen de cijfers van de vorige pagina deels staven met onze Pricewatch-data. We verkopen natuurlijk zelf geen harde schijven, maar kunnen wel het aantal clicks op hardeschijfproducten inzichtelijk maken. Dat is een indicator voor de koopinteresse in drives, maar het zijn niet per se de daadwerkelijke verkoopcijfers. Wel kunnen we aan onze data zien welke harde schijven het interessantst gevonden werden. Die cijfers voegen we samen per capaciteit.

De PW-data van 2021 is, net als de verkoopcijfers, niet volledig, omdat het jaar op de peildatum nog niet om was. We hebben data tot 1 december 2021. Om te kunnen vergelijken, extrapoleren we die lineair naar het hele jaar. Bij de analyse van de data valt op, hoewel er inmiddels harde schijven van 18 en zelfs 20TB te koop zijn, dat het aandeel van die grote schijven vrij klein is. De overgrote meerderheid van de bekeken drives, zo'n 26 procent, betreft 4TB-schijven. De volgende populairste capaciteit is 8TB met ongeveer 12 procent van de clicks en de 6TB-schijven completeren de top drie met bijna 10 procent van de clicks. De rest van de top tien wordt gevormd door achtereenvolgens 2TB-drives (9%) 16TB-drives (8%), 14TB-drives (7%), 10TB-drives (6%), 18TB-drives (6%) en 1TB-drives (5%). Let wel: dit betreft alleen interne harde schijven; sommige tweakers kopen goedkopere externe harde schijven en halen ze uit elkaar om de interne schijf te gebruiken.

Het valt op dat de 4TB-drives al vijf jaar de populairste capaciteit vormen, al zijn het aandeel daarvan en de verhouding tot andere drives in die tijd wel veranderlijk. Vooral in het afgelopen jaar zien we een duidelijke verschuiving naar grotere capaciteiten, waar in voorgaande jaren ook de kleinere capaciteiten nog erg gewild waren. Dat komt in de cijfers terug; de gemiddelde capaciteit steeg weliswaar gestaag in de laatste jaren, maar in het afgelopen jaar maakte die een flinke sprong. Waar wij als consument vooral 4TB-drives kopen, zijn cloudstorageproviders als Backblaze al overgestapt op 14TB- en 16TB-drives.

Ten slotte kijken we naar de relatieve populariteit van harde schijven in de Pricewatch door het relatieve aantal clicks in de Pricewatch per jaar te vergelijken. Daarbij valt 2019 op als 'slecht jaar', met het minste aantal clicks. Dat stellen we op 100 procent. Vergeleken met de jaren vóór 2019 zagen we een daling, maar die lijkt in 2020 en 2021 opnieuw gestabiliseerd op het niveau van 2018. Van een duidelijke daling zoals in de wereldwijde markt kunnen we onder tweakers dan ook nauwelijks spreken. Dat is ook te zien in de totale 'verkochte' capaciteit, opnieuw relatief ten opzichte van het dieptepunt in 2019. De verkopen in units dalen dan weliswaar, maar de totale capaciteit stijgt juist flink.

Technieken

De drives die het meest worden verkocht, zijn dus duidelijk niet de grootste; het volume zit op de kleinere drives. Logisch, want met de populariteit van streamingdiensten hebben niet veel mensen behoefte aan extreem veel opslagruimte. Een raid-array van 4TB-schijven in je nas is dan een stuk minder prijzig dan een array met 18TB-schijven, om over zaken als rebuilding maar te zwijgen.

Om de capaciteit enerzijds steeds verder te vergroten en de kosten per eenheid anderzijds te verlagen, blijft de techniek achter harde schijven niet stilstaan. Ondanks de achteruitgang in verkoopaantallen blijft in hdd's geïnvesteerd worden, al lijkt de vooruitgang minder vlot te gaan dan gehoopt. De twee grootste voordelen van harde schijven, hun veel lagere prijs per gigabyte en hun grotere capaciteit vergeleken met ssd's, worden ook steeds kleiner.

Harde schijven kosten inmiddels nog ongeveer een vijfde van wat ssd's kosten, waar dat verschil ooit veel groter was. Wat capaciteit betreft verliezen hdd's ook langzaam terrein, zeker nu qlc-ssd's gemeengoed worden. Ssd's hebben regelmatig 4TB opslagcapaciteit, terwijl hdd's een vijf keer zo grote capaciteit hebben. Ook dat verschil is in het verleden veel groter geweest. In onderstaande grafieken hebben we de capaciteiten van harde schijven en ssd's van de laatste jaren tegenover elkaar gezet. Vooral in de logaritmische grafiek is goed te zien hoe de capaciteiten naar elkaar toe groeien.

  • Lineair
  • Logaritmisch

Pogingen in het verleden om harde schijven en ssd's tot elkaar te laten komen, zijn een beetje met een sisser afgelopen. Zo zijn hybride ssd-hdd's, ook wel bekend als sshd's, nooit populair geworden, wellicht omdat ssd's rap in prijs daalden en een systeem op een betrouwbaardere manier sneller maakten dan hybride oplossingen. Ook Intels Smart Response Technology, dat net als hybride shdd's rond 2011 zijn opwachting maakte, is nooit populair geworden.

Toch hebben fabrikanten genoeg innovaties voor harde schijven ontwikkeld. Zo zijn met helium gevulde schijven aan de orde van de dag, hoewel de eerste exemplaren opzienbarend waren. Helium in plaats van gewone lucht leidt tot minder weerstand en minder turbulentie van de koppen, waardoor die dichter op het medium kunnen komen en preciezer gericht kunnen worden. De belangrijkste indicator voor harde schijven is echter hun opslagdichtheid: hoeveel Gbit of Tbit past op een vierkante inch medium? Dat vertaalt zich immers rechtstreeks in hdd's met een grotere capaciteit of in drives met minder onderdelen en dus lagere (productie)kosten. Dat lichten we toe op de volgende pagina.

Platters en dichtheid

In een harde schijf wordt data opgeslagen op glimmende schijfjes, platters genaamd. Die zien er niet alleen mooi uit, ze zijn bedekt met een laagje ferromagnetisch materiaal, dat in kleine magnetische domeintjes is gerangschikt. Elk magnetisch domeintje kan data bevatten en hoe kleiner die magneetjes zijn en hoe dichter ze op elkaar zitten, hoe meer bits op een platter passen. Om die data te lezen en te schrijven, zijn koppen nodig, een voor elke kant van de platter. En omdat harde schijven vaak meer dan één platter hebben, zijn verschillende lees-schrijfkopparen nodig, opnieuw voor elke platter een paar. Als je als fabrikant de datadichtheid op een platter kunt vergroten, waardoor je met drie in plaats van vier platters dezelfde hoeveelheid data kunt opslaan, bespaar je dus niet alleen de kosten van een platter, maar ook van een lees- en schrijfkoppaar. Ook op de motor om die platters rond te laten draaien kan iets bespaard worden; die hoeft immers minder massa in beweging te brengen. Zo sijpelen de besparingen door het hele ontwerp.

Koppen van een harde schijf
Koppen van een harde schijf

Een van de manieren om de dichtheid op de platters te vergroten, is verandering van de techniek om de magneetdomeinen uit te lezen. In de afgelopen decennia zijn hardeschijftechnieken geëvolueerd van magnetoresistieve (MR-), via giant magnetoresistieve (gmr-) naar tunneling magnetoresistieve (tmr-) technieken. De MR-varianten maken gebruik van aparte lees- en schrijfkoppen, waarbij de leeskoppen dankzij het magnetoresistieve effect zeer gevoelig zijn voor magneetvelden. Een kleine verandering in het magneetveld kan daarmee gedetecteerd worden, waardoor de magneetjes op de platter kleiner en zwakker gemaakt konden worden. Een aparte schrijfkop is nodig, omdat MR-koppen niet het benodigde magneetveld kunnen genereren om data weg te schrijven.

Oppervlak van een harde schijf-platter (beeld: HGST)
Oppervlak van een hardeschijfplatter. Beeld: HGST

Parallel hieraan zijn de magneetdomeintjes kleiner geworden en op hun kant gezet dankzij perpendiculaire technieken. De belangrijkste innovatie van pmr is dat de magneetdomeintjes niet langer 'plat' op de schijf liggen, maar er haaks op staan. Noord- en zuidpolen zijn dus niet horizontaal, maar verticaal gerangschikt. Dat maakt een hogere dichtheid van dataopslag mogelijk en dichtheid is koning, samen met de afstand tussen de koppen en het medium.

Granulaire samenstelling magneetdomeintjes op een platter

Harde schijven met pmr zijn zo rond 2005 geïntroduceerd en maakten drives met datadichtheden van 133Gbit/inch² mogelijk bij introductie. Latere modellen vergrootten dat tot 325Gbit/inch² en meer in 2008. De oppervlakte van een 3,5"-platter is ongeveer 9 vierkante inch, dus op een enkele platter met een datadichtheid van 325Gbit/inch² past pakweg 18 x 325 = 700GB. Inmiddels zijn drives met capaciteiten van terabytes per platter mogelijk.

Fabrikanten hebben ook na pmr nieuwe technieken ontwikkeld om de datadichtheid te vergroten. Dat heeft geleid tot smr-technieken, wat staat voor shingled magnetic recording. Daarbij overlapt de schrijfkop de magneetdomeintjes een beetje; de sporen zitten dichter op elkaar dan de afmetingen van de kop. Dat geeft het medium een hogere dichtheid dan wanneer sporen en schrijfkop even groot zijn. Bij het schrijven van sporen bestrijkt het magneetveld van de kop daardoor ook de sporen aan weerszijden, waardoor een schrijfpatroon als shingles of dakpannen ontstaat.

Nu heeft smr als nadeel dat door de overlap buren van de datasporen die worden beschreven, eveneens worden overschreven. Dat brengt een hoop huishoudelijke taken met zich mee om data heen en weer te kopiëren om corruptie te voorkomen. Dat doet denken aan de garbagecollection en trimfuncties van flash in ssd's, al gebeurt alles in harde schijven trager. Om dat het hoofd te bieden, wordt data gecachet, maar als de cache vol is, opnieuw net als bij ssd's met pseudo-slc-cache, zakt de snelheid in. Voor de meeste eindgebruikers is dat niet zo'n probleem, aangezien dergelijke drives toch alleen voor relatief 'koude' data gebruikt worden. Dat is overigens ook het primaire doel van smr-schijven; ze zijn niet ontwikkeld als performante systeemschijven.

Verdere ontwikkeling

Hoe moet het nu verder met harde schijven? We zitten inmiddels met harde schijven die een verbazende 20TB aan data kunnen opslaan. Dat is mogelijk door hogere datadichtheden op de platters, maar ook dankzij een 'eenvoudig' trucje: meer platters. De 20TB-drives van WDC gebruiken er bijvoorbeeld maar liefst negen. Hier speelt het vervangen van lucht door helium in de drives weer een belangrijke rol, omdat daarmee de platters dicht op elkaar kunnen zitten. Dat betekent een vrij bescheiden 2,2TB per platter, niet zo gek veel meer dan een budget WD Blue-drive. Dat is echter niet het enige trucje van de 20TB WD Gold.

De platters van een 20TB-drive

De metadata, die onder meer bijhoudt waar welke data staat en wanneer die ververst moet worden, wordt niet op de magnetische sporen opgeslagen, maar in een nandcache. WD noemt die techniek Optinand-cache en dat vervangt onder meer de ATI-refreshdata die normaliter in het werkgeheugen wordt opgeslagen. Dat zou niet alleen de prestaties van vooral shingled schijven verbeteren, maar ook de data-integriteit.

Een andere techniek die steeds grotere dichtheden mogelijk maakt, is het veelbesproken hamr. Al in 2007 sprak bijvoorbeeld Seagate van deze techniek, maar ze begint nu pas ingezet te worden. Zo heeft Seagate een hamr-drive van 20TB, maar het ziet die niet echt als massaproduct. Dat moet wel het geval zijn met een nieuwe generatie hamr, waarmee ook capaciteiten van 50TB in 2025 en zelfs 100TB rond 2030 mogelijk moeten worden. Over de ins en outs van hamr schreven we in 2020 een uitgebreid achtergrondverhaal.

Hamr-concept (bron: Blocksandbytes
Hamr-concept. Bron: Blocksandfiles

In het kort komt hamr hierop neer. Om een hele hoge dichtheid te halen, moeten de magneetdomeintjes erg klein zijn. Die domeintjes en daardoor de koppen voor individuele bits zijn zo klein dat het moeilijk is een sterk genoeg magneetveld op te wekken om de bits te beschrijven. Die kleine 'magneetjes' moeten bovendien goed bestand zijn tegen veranderingen in magneetvelden, omdat ze anders hun veld verliezen of door de omgeving beïnvloed worden. Dat maakt het voor de minuscule schrijfkoppen onmogelijk hun magneetveld te veranderen; de minimagneetjes weerstaan immers het zwakke veld dat de kleine koppen kunnen opwekken. Met hamr worden de magneetjes gedurende een nanoseconde door een laser verwarmd, wat het makkelijker maakt ze te (de)magnetiseren. Zo is het zwakke veld van de schrijfkop toch even sterk genoeg om de bits te 'flippen' en zo data weg te schrijven.

Overige technieken in harde schijven

Lasers zijn niet de enige manier om de magneetdomeintjes te verwarmen. Western Digital werkt aan microwave-assisted magnetic recording, oftewel mamr. In plaats van verhitting met een kleine laser in de schrijfkop worden microgolven opgewekt en op het medium gericht. Die kunnen resoneren met de spin van de magneetjes in de platter en zo hun weerstand tegen magneetvelden verkleinen. Daarmee wordt hetzelfde effect bereikt als met de hamr-techniek. Mamr biedt dus ook een weg naar hogere bitdichtheden en maakt deel uit van WD's epmr-strategie. Dat is een verzamelnaam van energy-assisted perpendicular magnetic recording en stelt WD in staat de koppen preciezer te laten schrijven en zo de opslagdichtheid op platters te vergroten. Het is een van de manieren die WD ontwikkelt om capaciteiten te vergroten en zal worden ingezet als de techniek daarvoor rijp is en de noodzaak er is.

Platters en actuators

Bijna iedereen die weleens een foto van de binnenkant van een harde schijf heeft gezien of er een heeft opengemaakt, kent de basiscomponenten van een harde schijf wel. Een of meer platters worden door een spindlemotor rondgedraaid en leeskoppen zitten op een actuator-arm die op de juiste plaats wordt bewogen. De platters bieden zoals eerder aangegeven ruimte voor verbetering door meer platters in een drive te stoppen of de datadichtheid van het magnetische medium erop te vergroten. Ook het materiaal van de platters zelf kan getweakt worden. Dunnere platters geven meer ruimte voor extra platters; ze zijn lichter en dus sneller in beweging te krijgen met minder energie. Ook het materiaal verandert. Voor hamr worden bijvoorbeeld glazen in plaats van aluminium platters gebruikt, omdat die beter bestand zijn tegen warmte.

WD micro-actuator
WD-microactuator

De lees- en schrijfkoppen worden met actuators op hun plek bewogen, zodat een spoor gelezen of beschreven kan worden. Dat kan al lang niet meer met de grote magneetspoelen en supersterke magneten die zo fijn te hergebruiken waren. Die zijn immers veel te grof om de minuscule koppen op de juiste plek te krijgen. De armen van de koppen hebben daarom nog een extra microactuator vlak achter de koppen. Dat is een piëzo-elektrische actuator die een uitslag in de ordegrootte van nanometers heeft. Daarmee kan de precieze controle over de positie van de koppen gerealiseerd worden, zodat de sporen dichter op elkaar kunnen. Ook om vibraties tegen te gaan is de microactuator essentieel.

Seagate's dual actuator--patent
Seagates dual-actuatorpatent

Ook de enkele lees- en schrijfkop is voor verbetering vatbaar; twee koppen kunnen immers twee keer zo snel lezen en schrijven. Dat is precies wat Seagate heeft gedaan met de MACH.2-techniek. Die Multi-Actuator-techniek maakt gebruik van twee actuators die boven elkaar zitten en onafhankelijk van elkaar kunnen bewegen. Daarmee zouden vooral de random-accessprestaties van harde schijven verbeteren, maar zou ook de doorvoersnelheid verhoogd worden. De eerste drives met MACH.2 zijn Exos-drives, die snelheden van bijna 500MB/s kunnen volhouden. Die Exos-drives zijn weinig interessant voor consumenten, maar voor datacenters, waarin veel harde schijven worden gebruikt, leveren ze flinke winst op. Thuisgebruikers kunnen uiteraard voor prestaties beter naar ssd's grijpen dan naar dure enterpriseschijven. Ook WD werkt aan drives met twee actuators.

Met twee actuators hoeft het niet op te houden. Seagate en WD kunnen het concept verder doorvoeren en drie of vier actuators inzetten. De SATA-interface zou dan zomaar een beperkende factor kunnen worden en schijven zouden naar de snellere PCIe-bus met NVMe-protocol moeten overstappen. Dat is precies waarmee, opnieuw, Seagate bezig is. In november 2021 toonde het bedrijf zijn eerste NVMe-hardeschijven. Niet alleen om op eventuele bottlenecks in snelheid vooruit te lopen, maar ook om de implementatie en het beheer van grote hoeveelheden harde schijven en ssd's in datacenters te vereenvoudigen. Door alle media via NVMe aan te sturen, zouden kosten omlaag kunnen. Niet voor niets demonstreerde Seagate het concept met zijn enterprise Exos-drives.

Media

De laatste innovatie die we bekijken, is bit patterned media, of bpm. Om de sporen zo dicht mogelijk opeen te krijgen, is het belangrijk dat de magnetische domeintjes die bits opslaan, zo klein mogelijk zijn. Daarom is het opslagmedium van groot belang. Het magneetfilmpje op de platters bestaat uit een soort fijn granulaat van minimagneetjes. Voor traditionele harde schijven is dat een kobalt-chroom-platinalegering, terwijl voor hamr-schijven ijzer-platinalegeringen gebruikt worden. Die granulaten worden chemisch op een substraat aangebracht, maar dat zou fabrikanten niet genoeg dichtheid geven.

Bit-patterned media (rechts) versus granulaat (links)
Bit-patterned media (b) versus granulaat

Om hogere dichtheden te realiseren, zouden eerst granulaten op een meer geordende manier op het substraat gekweekt worden. De overtreffende trap daarvan is het gebruik van bit patterned media, waarbij elke bit zorgvuldig wordt gepositioneerd op een template die via lithografische processen wordt gemaakt. Daarnee komen hardeschijfplatters met dichtheden van meer dan 8Tbit per vierkante inch in zicht, goed voor schijven van meer dan 120TB.

Tot slot

Het schemerde al een beetje door; voor wie maakt de hdd-industrie zijn producten? De meest geavanceerde technieken komen zoals gebruikelijk eerst voor de zakelijke markt ter beschikking. Zo biedt Seagate zijn nieuwste innovaties aan via de Exos-schijven, die op datacenters gericht zijn.

Toch profiteert uiteraard ook de 'gewone' consument van innovaties op hardeschijfgebied. Niet in de laatste plaats met de diensten die datacenters aanbieden, maar ook met de harde schijf in een nas. Want ook voor ons consumenten blijft de capaciteit van harde schijven groeien en dalen de kosten gestaag. De prestaties verbeteren wellicht niet spectaculair, maar waar we in 2010 nog blij waren met een 2TB-drive, is de beschikbare capaciteit in het afgelopen decennium vertienvoudigd.

De rest van dit decennium moet daar nog een flinke schep bovenop doen. WD verwacht in de komende vijf jaar de capaciteit van zijn reguliere schijven met hamr op te schroeven tot 50TB en shingled drives zouden over vijf jaar zelfs 60TB kunnen halen. Iets vergelijkbaars verwacht ook Seagate, dat eveneens in 2026 schijven van meer dan 50TB denkt te produceren.

Voor prestaties moeten we het als consument uiteraard van ssd's hebben, maar voor bulkopslag en om aan de honger naar opslagcapaciteit in datacenters te voldoen, wordt volop aan de weg getimmerd.

Lees meer

Toshiba kondigt 16TB-hdd aan
Toshiba kondigt 16TB-hdd aan Nieuws van 8 januari 2019
Seagate komt met eerste 8TB-harddisk
Seagate komt met eerste 8TB-harddisk Nieuws van 27 augustus 2014
Toshiba kondigt 5TB-schijven aan
Toshiba kondigt 5TB-schijven aan Nieuws van 13 februari 2014
Western Digital introduceert 4TB-drives
Western Digital introduceert 4TB-drives Nieuws van 28 september 2012
Sandisk introduceert ReadyCache-ssd
Sandisk introduceert ReadyCache-ssd Nieuws van 4 september 2012

Reacties (115)

115
115
56
5
1
46
Wijzig sortering
Wat ik nog mis is het aspect "minimum prijs".

Een traditionale HDD bestaat uit een brok metaal met forse magneten in een pittige elektromotor die zowel snel, nauwkeurig en betrouwbaar moet zijn. Dat heeft iedere HDD nodig, ongeacht de capaciteit. Daar komt dan de prijs van de platters nog bovenop. Dat maakt de minimumprijs voor een draaischijf zo'n 35 euro, ongeacht de capaciteit. En daar komen dan nog transportkosten bovenop voor een zwaar en fragiel ding.
Daardoor is de prijs van een nieuwe 72GB HDD vrijwel hetzelfde als die van een nieuwe 2TB HDD: vanaf 40 euro (inclusief transportkosten in een stevige doos met beschermend materiaal). Daar verdient de leverancier nauwelijks nog iets aan. Natuurlijk wordt er wel eens een partij gedumpt tegen lagere prijzen, op pricewatch worden ook veel 'refurbished' schijven aangebocden, maar dat zijn kleine aantallen die zakelijk niet interessant zijn.

Bij SDDs heb je geen brok metaal nodig, geen magneten, geen motoren. Je kan ze heel compact opslaan en je hoeft niet bijzonder voorzichtig te zijn met het transport. Daardoor is de minimumprijs voor een SDD ongeveer 20 euro (inclusief transport in een gewone envelop). Dat is half zo goedkoop!

En voor de helft van de prijs krijg je een product dat op alle punten superieur is. Kleiner, stiller, zuiniger (in stroom en dus warmte), hogere doorvoersnelheid en een enorm veel lagere latency. Er zijn eigenlijk geen situaties waarin een /kleine/ HDD voordeliger is dan een SSD van vergelijkbare capaciteit.
Als je aan 250GB genoeg hebt dan is er geen reden om nog naar HDDs te kijken. Veel consumenten en apparaten hebben genoeg aan 250GB. Pas rond de 1TB doen HDDs weer mee. Als andere aspecten dan prijs een rol spelen (zoals gewicht of schokgevoeligheid) dan zal de SSD het snel weer winnen.

Een 4TB HDD heb je al vanaf 80 euro, maar de prijsverschillen met een 1TB of 2TB HDD zijn vrij klein, en als je de prijs per gigabyte meerekent zijn die kleine schijfjes helemaal niet interessant. Iedereen zal zien dat het zeer de moeite waard is om een paar tientjes meer te betalen en daar veel meer storage voor terug te krijgen die nog sneller is ook.
De meeste mensen hebben die 4TB helemaal niet nodig maar zullen dat extra geld 'voor de zekerheid' toch maar uitgeven want dat is goedkoper dan later je schijf vervangen door een grotere, mocht het toch nodig zijn.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 16:26]

Die HDD’s kunnen veel meer writes aan, al zij het trager.
Die HDD’s kunnen veel meer writes aan, al zij het trager.
Klopt op zich wel, maar wie heeft daar nu echt last van? Het is maar een hele kleine doelgroep die een SSD echt stukgeschreven krijgt. En wie zoveel schrijft wil waarschijnlijk ook wel een grote schijf hebben.
Ik ben een behoorlijk intensieve gebruiker, mijn computer staat eigenlijk altijd aan en ik ben een behoorlijke early adopter van SSD's. Dit argument hoor ik al sinds het begin, een jaar of 15 geleden. Ik heb zelf werkelijk NOG NOOIT een SSD stukgeschreven in al die tijd, en ik heb er heel wat gehad. In de praktijk is het haast onmogelijk om een SSD aan zijn max aantal writes te krijgen. Wat mij betreft een argument van erg weinig betekenis in deze discussie.

[Reactie gewijzigd door ravenamp op 22 juli 2024 16:26]

Mijn eerste SSD uit 2012 begint slecht te worden nu, maar goed dan ben ik blijkbaar meer de uitzondering dan de regel. Ik dacht dat een SSD meestal niet langer mee ging dan 8 jaar, maar ik heb echt maar 1 keer een SSD zo lang gebruikt, omdat de laatste jaren ik vaker moest wisselen door het uitkomen van nieuwe tech (NVME, PCIX 4 etc).
Wat ik nog mis in dit verhaal is recovery. 20TB disk versus 2TB SSD. In het eerste geval ben je tien keer meer data kwijt maar is de recovery waarschijnlijk/meer/beter mogelijk dan een SSD. Of is dit ook niet meer zo met deze nieuwe techniek?

Zelf ben ik aan het kijken naar LTO tape eens in de zoveel tijd. Het wordt niet goedkoper omdat steeds minder mensen het gebruiken. Maar het lost wel het probleem van thuisopslag op. Professioneel.

Lijkjt me beter dan een RAID met 4 hdd's in je thuisserver. En totaal offline : )
Wat ik nog mis in dit verhaal is recovery. 20TB disk versus 2TB SSD. In het eerste geval ben je tien keer meer data kwijt maar is de recovery waarschijnlijk/meer/beter mogelijk dan een SSD. Of is dit ook niet meer zo met deze nieuwe techniek?
HDDs zijn inderdaad makkelijker te recoveren, maar het heeft geen zin om daar op te plannen.
Als je rekening wil houden met dataverlies dan zijn er beter manieren, zoals backups. Dat is op termijn veel beter en goedkoper.
Geen woord over UltraRAM terwijl dat me pas echt een gave innovatie lijkt. Is ook pas vrij recent onderzoek over vrijgegeven en over geschreven, dus ik snap dat dit artikel toen al lang klaar was.
https://m.slashdot.org/story/395011

Tl;dr:
RAM en SSDs gaan qua performance steeds minder verschillen waardoor er een punt gaat komen waarbij je niet 2 apparaten nodig hebt voor opslag en werkgeheugen, maar 1.
Geen woord over UltraRAM terwijl dat me pas echt een gave innovatie lijkt.
Op zich wel, maar het idee is niet echt nieuw. Zo zijn we ooit begonnen, de eerste computers hadden permanent geheugen (ringkern). De eerste 50 jaar is er toen een steeds groter gat gegroeid tussen wat we nu "RAM" en een "schijf" noemen. Pas met de komst van SSD's is dat proces weer omgekeerd en zijn we een enorme inhaalslag aan het maken.
Intel verkoopt ook "Optane" geheugen dat ook probeert het "beste van beide werelden" te zijn, dus zo snel als RAM en zo permanent als SSD.

Daarmee wil ik niet zeggen dat het geen interessante ontwikkeling is. Decennia werd de effectieve snelheid van computers grotendeels bepaald door de trage storage. De CPU's werden wel steeds sneller maar dat betekende in veel gevallen vooral dat ze meer staan te wachten, niet dat ze effectief meer werk verzet kregen voor hun eigenaar. De hele architectuur van de moderne computer is gericht op dat perfomance gat tussen storage en CPU dichten. Memory controlers, RAM-bussen, PCI-bussen, read-ahead cache, write back buffers, elevators, het kan allemaal op de schop.
Artikel heeft het alleen over de techniek hoe data en de hoeveelheid daarvan op een schijf te krijgen.
Ze hebben het helemaal niet over de controller en de eventuele nieuwe mogelijkheden in de controller.
Een ieder van wie de controller wel eens is doorgebrand snapt wat ik bedoel. Heb je eindelijk een zelfde controller gevonden, dan moet je het geluk hebben dat de bios chip van de oude controller nog heel is.
Die los solderen en over zetten en dan tot de conclusie komen dat het toch niet werkt is frustrerend, de Hardware c.q. de disks en hun data zijn waarschijnlijk nog goed, maar die controller is kapot en er is geen mogelijkheid om die bios data te herstellen laat staan opnieuw op te bouwen. Voor zover ik weet is er geen software beschikbaar om die bios informatie aan te maken. Het is sowieso belachelijk dat alle instellingen en andere relevante informatie van die schijf hardware, slechts in een klein bios chipje zit, zonder dat die opnieuw opgebouwd kan worden met een nieuwe controller. Daar moeten ze wat aan doen i.p.v. steeds grotere capaciteit, die alleen maar tot gevolg heeft dat een chkdsk steeds langer duurt.
Ik ben bang dat het repareren van schijven economisch niet interessant is. Zorgen voor een goede backup is vele malen goedkoper. En backups heb je toch nodig want niet alle fouten zijn te herstellen. Als je die backups dan toch hebt dan is het makkelijker om je data op een nieuwe schijf te zetten dan proberen de oude te redden.

Nu snap ik ook wel dat het in praktijk niet altijd zo werkt en de meeste mensen geen goede backups maken waardoor er een aanzienlijke markt is voor data-recovery. Maar daar hebben de fabrikanten van schijven geen boodschap aan. Die willen geen extra kosten maken om een schijf makkelijker repareerbaar te maken, die verkopen liever wat meer schijven. En in alle eerlijkheid is dat ook wat de klanten zouden moeten doen.
Maar ja, die vervelende realiteit waarin mensen niet rationeel handelen....
Ondanks dat je gelijk hebt met economisch niet interessant, ook al scheelt het 1 disk weggooien, alles helpt. Die firmware moet gewoon vervangen worden door open source. Niet voor niets dat filesystems extra checks hebben om te kijken of de disk niet defect is, buiten de firmware van de controller om. De CPU zou dit prima kunnen regelen SATA-3 wordt met 16GB schijven nog maar tot 300MB/s belast. Er is nog 250MB/s beschikbaar voor “CPU-software-controller” verkeer.
Ondanks dat je gelijk hebt met economisch niet interessant, ook al scheelt het 1 disk weggooien, alles helpt. Die firmware moet gewoon vervangen worden door open source. Niet voor niets dat filesystems extra checks hebben om te kijken of de disk niet defect is, buiten de firmware van de controller om. De CPU zou dit prima kunnen regelen SATA-3 wordt met 16GB schijven nog maar tot 300MB/s belast. Er is nog 250MB/s beschikbaar voor “CPU-software-controller” verkeer.
Je hebt gelijk, open source firmwares zouden beter zijn en helemaal geen, of in ieder geval zo min mogelijk, firmware zou beter zijn. Iedere schijf moet worden aangestuurd en de software daarvoor is belangrijk voor de snelheid, de betrouwbaarheid, de herstelbaarheid en zelfs voor het vetrouwen van de gebruiker.
Eigenlijk denk ik dat de hardwarebouwers liever geen software zouden schrijven, anders waren ze wel een softwarehuis geworden ipv hardwarefabrikant. Maar tegelijkertijd heb je veel slimme software nodig om moderne schijven efficient te gebruiken, zeker de SSDs. Veel van de verschillen tussen vergelijkbare SSDs zit juist in die firmware.
Ik hoop dat de ontwikkeling weer wat sneller gaat gaan. Het is de afgelopen jaren iets dat nogal heeft achtergelopen op de ontwikkeling van materiaal. Hogere resoluties van video bijvoorbeeld. Daarom heeft opslag me steeds meer geld gekost.

Ook is het belangrijk om niet alleen te kijken naar de top van de mogelijkheden maar ook naar de beste prijs per gigabyte. Die ligt momenteel niet bij 20TB schijven maar meer rond de 14.

Wat daarbij ook meespeelt is dat consumenten niet echt harde schijven meer kopen. Als ze het al doen zijn die extern waardoor het 'shucken' (het openbreken van een externe behuizing in de schijf er uit halen) een ding is geworden, echter wel een die bij sommige merken je garantie vernietigt. Seagate bijvoorbeeld maakt hun behuizingen zeer moeilijk te openen zonder schade, en het interne en externe serienummer is anders. Als je het interne opzoekt dan krijg je "Dit is een OEM model, klop aan bij de originele verkoper". Losse schijven zonder te shucken zijn nog veel duurder en daardoro niet echt rendabel.

Als iemand die geen fan is van 'cloud' is het best wel een dure grap momenteel. En de 'echte' consument koopt helemaal geen schijf meer, die stopt alles op hun google drive (al dan niet betaald).

Maar ik hoop dat de ontwikkeling weer wat meer richting de consument gaat gaan allemaal. Meer focus op lokaal gebruik en meer capaciteit voor je geld. Helaas is dat nogal ijdele hoop, ik zie alleen maar meer richting cloud gaan.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:26]

Helaas is dat nogal ijdele hoop, ik zie alleen maar meer richting cloud gaan.
En wat is nou het grote bezwaar dat er steeds meer naar de cloud gaat?
Een van de bezwaren is dat wanneer je als particulier door een cloud provider wordt buitengesloten (vermeend misbruik van jouw account), je in de EU er heel erg lang over kunt doen om ooit weer toegang tot je account en data te krijgen.

Microsoft staat er bekend om. Hele families die ineens niet/nooit meer bij hun data kunnen. Omdat er iets met een account gebeurde wat volgens Microsoft niet door de beugel kon. Voorlopig is er geen EU regeling die cloud providers dwingt deze issues snel en rechtvaardig op te lossen.
En wat is nou het grote bezwaar dat er steeds meer naar de cloud gaat?
De 'cloud' is gewoon een 'computer' van iemand anders. Is het verstandig om al je data door iemand anders te laten beheren?
Met fatsoenlijke backups en encryptie zie ik het probleem niet. Voor de veiligheid zul je toch altijd een offsite backup moeten hebben. Cloud storage lost dat meteen op.

[Reactie gewijzigd door Wolfos op 22 juli 2024 16:26]

Dat hangt er vanaf natuurlijk hoeveel je om je data geeft. Voor mij is een deel inderdaad gebackupt offsite maar niet alles. Als het huis afbrandt heb ik een groter probleem dan het verlies van sommige data.

Ik heb ook een onsite backup die redelijk compleet is, door alle oude schijven die ik door de tijd heen heb vervangen te gebruiken. Die zitten allemaal in een grote doos waarbij ik sequentieel backup met een wisselframe. Ik gebruik ze eigenlijk als een soort tape cartridges.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:26]

Ik gebruik ze eigenlijk als een soort tape cartridges.
Dit. HDDs verhouden zich tot SSDs zoals tapes zich verhouden tot HDDs.
In beide gevallen geldt dat je 'zoeken' zo veel mogelijk moet voorkomen, deze media komen vooral tot hun recht als je ze lineair gebruikt. Vooraan beginnen en dan op constante snelheid doordraaien tot je aan het einde komt. Zodra je moet stoppen om naar een ander stukje van je tape/HDD te gaan stort je performance volledig in elkaar. Dat kan zo een factor 100 of 1000 verschillen. Als dat veel gebeurt dan wordt het al snel onwerkbaar.

(In de dagelijkse praktijk wordt de slechte perfomance van HDDs verborgen door er een flinke RAM-cache voor te zetten waardoor je veel "random IO" kan voorkomen door verschillende opdrachten te combineren tot een grote sequentiele actie. Daardoor hebben de meeste mensen niet echt een gevoel voor hoe slecht de performance eigenlijk wel niet is.)
Ha ha ha, dit is ook mijn strategie. Ik heb twee interne drives (momenteel 6TB+14TB) en vervang elke 2 jaar een HD. Zo groeit mijn interne capaciteit, maar ook mijn backup capaciteit. Ik gebruik nu twee sets van 4TB+6TB om elke week een volledige backup van moeilijk te vervangen data te maken. De nieuwste set gaat naar mijn moeder's huis, en de oudere set neem ik weer mee om een nieuwe backup te maken.

Dit werkt echt geweldig en is een aanrader.
Wat @Strebor zegt. Je data is niet echt meer je eigen data.

Bovendien, ik heb nu 90TB opslag. Bij welke cloud provider haal ik dit voor een normaal bedrag en hoe kan ik er dan snel bij?
Sowieso is dat het geval wanneer je je data uit handen geeft (doe ik zelf dus niet).

Maar ook dit : we klagen over de snelheden van HD's, maar cloud oplossingen zijn over het algemeen nog veel trager (tenzij je de hoofdprijs betaald).
90TB? Ik zal maar niet vragen wat dat allemaal bevat?
Ik heb ook hoop rommel maar afntoe een lenteschoonmaak doet wonderen ;)
Zie bijvoorbeeld dit topic: Microsoft account vergrendeld / geblokkeerd als een goede reden. Maar ook: https://www.nrc.nl/nieuws...-over-verbanning-a4015503 (kan zo snel even geen T.net nieuws item hierover vinden). Dus daarom heeft mijn voorkeur om Cloud te gebruiken om snel dingen te kunnen syncen ipv volledige backup.
Ik ben het met je eens dat voor de meeste consumenten grote HDD's niet meer relevant zijn. Wat je nog wel veel ziet is 2-bay NAS units voor backup, wat media-opslag en misschien nog als opslag voor een CCTV camera. En dan is 2x4 TB of 2x6 TB vaak zat.
En de gemiddelde consument hikt puur tegen de aanschafprijs aan. Heeft geen idee van prijs/gigabyte.
Een paar tientjes meer voor een maat grotere schijf wordt vaak al als "te duur" beschouwd.

Voor de pro-sumer met een wat grotere NAS is het sweet-spot inderdaad 14 TB momenteel wat betreft prijs/gigabyte.
Ik heb mijn huiswerk wat dat betreft noodgedwongen moeten doen deze week, omdat een van de 5 TB schijven in mijn Syno na bijna 6 jaar gebruik afgelopen woensdag bad sectors begon te geven. (En ze liepen heel snel op. 80-100 bad sectors per dag er bij...)
Aangezien de andere 2 schijven net zo oud zijn (zitten ook nog 2 8 TB schijven in maar die zijn nog maar 3 jaar oud) heb ik gelijk maar 2 14 TB schijven gekocht. Ik hoop alleen maar dat die andere 2 oude het vol houden totdat de raid rebuild klaar is.
Ik heb uiteraard nog backups (2e Syno off-site geparkeerd bij mijn zus en ook nog een OneDrive) van de backup wat betreft het echt belangrijke spul (documenten en fotos), maar die enorme media-collectie voor mijn Plex server opnieuw opbouwen.... Een hoop is in de loop der jaren geripped van (legaal gekochte) fysieke media (vooral DVDs), maar ik ben een heel groot deel van de originele media kwijt (brand in de garagebox waar ze opgeslagen waren). Opnieuw aanschaffen zou een vermogen kosten en veel van dat materiaal is gewoon uberhaupt niet meer verkrijgbaar (zelfs niet in het illegale circuit).

Rebuild is echt een dingetje. Vrijdagmiddag gestart en is nog bezig voor die ene schijf. (Rebuild zelf was zo'n 10 uur. Daarna gaat hij de SHR raid resizen naar de extra capaciteit en dat duurt ook nog zo'n 10 uur en is nog steeds bezig. Totale doorlooptijd ongeveer 20 uur schat ik in.)
En dan heb ik de 2e 14 TB er nog niet in zitten. Heb ik dat nog een keer. En dan moet de laatste 5 TB schijf er nog uit (voor de veligheid). Die ga ik trouwens voorlopig niet vervangen, want ik heb de capaciteit niet nodig (gaat met de 2 nieuwe schijven al van ongeveer 20 naar 30 TB effectieve capaciteit) en het blijft een behoorlijk dure grap.
Op dit moment heeft in de pricewatch niet een 14 TB, maar een 18 TB-drive de laagste prijs per TB: de Toshiba MG09.
Ja maar ik koop de 14TB's altijd tegen 220 euro op Amazon Spanje. Daar kan de Toshiba niet tegenop. Regelmatig zijn ze duurder hoor, maar elke 3-4 maanden zijn ze in de aanbieding voor dat lage bedrag.

Vreemd genoeg heb ik die prijzen nog niet in nederland gezien inderdaad.

Maar misschien is voor de volgende swap de Toshiba wel een oplossing ja.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:26]

Dat klopt.
Het maakt niet heel veel uit maar de Toshiba zijn ietsje goedkoper.

Maar ik ben toch voor een WD Red Pro gegaan omdat:

1 De 18 TB Toshiba variant nog niet opgenomen in de Synology compatiblity lijst.
Hoewel ik geen echte problemen verwacht.. De versies tot 14 TB staan er wel in.
2 Ik heb in het verleden wat problemen met Toshiba's gehad.
Ben er een beetje huiverig van geworden. Ik hou het liever bij Western Digital en Seagate.
3 Gezien de snel oplopende error-count had ik ze heel snel nodig.
En bij mijn vaste leverancier had ik de WD Red vrijdag, maar een Toshiba zou pas maandag arriveren. En het scheelde maar € 12.
Ik vind het al thans al snel genoeg gaan die schijven krijg je onder normaal gebruik nooit vol.
Ik kan me best voorstellen als je een mp3 verzameling hebt dat de honger naar meer beter in te schalen is.
Of als bedrijf als je veel data moet aansturen voor bijv een laboratorium of server admin bent dat een grote database aan het draaien bent misschien ibm ofzo een webserver of database die daar daadwerkelijk zoveel ruimte echt nodig hebben.Bedrijfsmatig kom je al snel inde buurt van SCSI drives maar die zijn een stuk duurder en gaan ook langer mee.Wat wd en seagate maken is goed voor de thuis hobbyist.
Ik heb alleen een ssd harde schijf erin zitten vroeger waren dat sata drives, die heb ik na verloop van tijd eruit gehaalt omdat ik het allemaal niet meer nodig heb.ik heb een ssd m2 harde schijf van kingston a 2000 van 1 terabyte en ben er best tevreden mee.En meer komt er niet in omdat ik het gewoonweg niet meer gebruik.Op een 20 tb hd zou je natuurlijk ook een grote gamecollectie op kunnen bewaren.Of idd een film collectie op bewaren.Of als je fotograaf bent kun je ook ongecomprimeerde raw afbeeldingen op de harde schijf zetten in combinatie met photoshop.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 16:26]

Die schijfcapaciteit gaat rap op als je van muziek collectie van MP3 formaat naar FLAC formaat overzet bijvoorbeeld.
wav bestanden zijn nog groter en zijn bijna of niet gecomprimeerd.Flac bestanden zijn idd ook groot.En beter van kwaliteit.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 16:26]

Ik zou niet meer weten wat ik op een 20TB HDD nog moet plaatsen. Ja, je zou je volledige DVD en BR collectie kunnen digitaliseren, maar eerlijk, dan nog zou ik een film sporadisch bij slecht weer en gebrek aan streaming weer eens aanslingeren.

Ik heb een 8TB Synology NAS. Die zit wel aardig richting 90-95% gebruikte capaciteit. Dreigt deze vol te lopen, dan is het ‘shift delete’ van oude meuk.

Games worden groter. Mijn MS Flight Simulator directory, met een berg addons, loopt ook al voorbij de 250GB, maar op een 2TB M2 slaat dat nou ook niet bepaald een deuk.

HDD’s met zulke capaciteit is naar mijn idee leuk voor een eigen datacenter, de hobbyisten en kleinschalige dienstverlening op je eigen ijzer.

Ik hoop mijn comment over 5-10 jaar terug te lezen en mijzelf voor het hoofd te kunnen slaan..
Ik heb kinderen en wil graag de foto’s en video’s bewaren die ik van ze maak. Ik bewaar alles in het ruwe formaat op mijn unraid machine. Daarnaast leg ik een backup vast op een losse hdd die ik bij mijn ouders neerleg.

Dan zijn grote schijven wel minder gedoe.

En voor de kinderen is een plex server (op de unraid bak) ook wel fijn.
Maar dan moet je die HDD ook weer regelmatig gaan halen bij je ouders om bij te werken en zit je ook weer met het probleem dat op een gegeven moment je twee storages zich op dezelfde fysieke locatie bevinden wat weer het risico verhoogd. Als je opslag extern hebt hoort deze in de basis extern te blijven. Murphy is te gevaarlijk in dat opzicht.
Dat risico valt mee hoor, de backup gaat vanaf mijn laptop niet vanaf de server. En de laptop heb ik toch al vaak bij mij.
De grap is dat externe schijven helemaal niks meer kosten. 5TB gaat voor ongeveer 100 euro en 5TB is _serieus_ veel ruimte als je er alleen zelfgemaakte foto's, video's en documenten op zet. Ik heb gewoon 2 van die externe schijfjes gekocht en die exact hetzelfde gepartitioneerd. Eentje ligt op een externe locatie en de andere in m'n auto. Die in m'n auto werk ik regelmatig bij vanaf de brondata (een SSD in m'n laptop) en als ik een keer op de externe locatie ben wissel ik de schijfjes om.

Mocht m'n huis dan echt een keer tot de grond toe afbranden en ik overleef dat, dan is zelfs de kans dat de schijf in m'n auto het overleeft wel aanwezig (staat een stukje verderop) en anders loop ik hooguit de meest recente foto's achter en is de schade dus wel te overzien. Verder heb ik nog een server waar ook een kopie van die data op staat (wordt elke nacht automatisch bijgewerkt). De data staat dus 2x op een SSD en 2x op een HDD. Waarvan de HDD's normaal gesproken niet in m'n huis liggen (en zelfs offline zijn). Dus dan moet het al heel raar gaan wil ik echt data kwijtraken.
Dat is een hele mooie warme gedachte, meen ik.
Maar wanneer wilt u dat terugkijken?
Of uw nageslacht?
Klinkt hard, maar als ervaringsdeskundige kan ik u vertellen dat 9 van de 10 dit gewoon in de kliko of in het digitale hiernamaals verdwijnt.
Papieren albums daarentegen worden wel vaker bewaard, maar meestal eindigen die ook gewoon als zoldervulling.

We hebben onlangs een paar woningen ontruimd en het enige waar naar uitgekeken werd waren de echte papieren fotoboeken.

Voor wat familiefoto's en video's betreft is minder vaak meer.
Daarom moet je ook het beste materiaal gebruiken voor een mooie montage. Desalniettemin blijft het ook met digitale film fijn om de negatieven nog te hebben
Eigenlijk geld voor zowat alles dat je 2jaar on aangeraakt op een zolder hebt opgeslagen dat het rijp is voor de kliko, tenzij het een bewaarplicht heeft. Beeldmateriaal is daar een uitzondering op, als je überhaupt nog de hardware hebt om het te bekijken (video cassettes bijvoorbeeld) dan is het wel leuk om dat na jaren nog een terug te kijken.
Waar is den tijd toen we hetzelfde zeiden over die 500 gulden kostende 20 GB schijf 8-)
We hebben een shift gehad naar data die in grote mate te relateren is aan hogere resoluties . Denk aan 4k /8k video, denk aan hoge resolutie textures in games etc etc De vraag is of er nog ontwikkelingen denkbaar zijn die nog veel hogere ordes groter aan pixels gaan vragen en daarmee meer data. Ik heb het dan niet over een factor drie of vier, maar een factor 10 of meer.

Ik bedoel, voor een ‘office’ computer kom je als het echt moet nog heel ver met slechts 20gb!

8k op op zeg 200 - 240 fps is wel echt een beetje de max van wat je ooit nodig hebt visueel en dynamisch en voor veel doeleinden is dat minder. En er is de vraag wat je nog lokaal op zou willen slaan.

[Reactie gewijzigd door PjotterP op 22 juli 2024 16:26]

Ik snap je redenering maar ....straks komt VR. Ik heb geen idee welke resolutie dat nodig heeft maar zal wel een factor x10 weer zijn?
Ja wellicht, al denk ik dat met VR de uitdaging meer zit in de rekenkracht en het maken van miniatuurschermen met zeer hoge pixeldichtheid (ie 8K), hoge refreshrates en zo min mogelijk latency.

Volgens mij is 8K op een miniatuurscherm, zelfs als het dicht bij je ogen zit, echt wel behoorlijk scherp
Mjn eerste gekochte disk was een seagate ST251-1 (rond de 42MB)
1200 gulden...
Ik ik was echt blij met zowel de prijs als de capaciteit.
Ik had zelf de ST225... Was ook een fijn ding alleen na verloop van tijd begonnen de koppen aan de schijf te plakken en moest je er op slaan om hem draaiend te krijgen (echt slaan). Als hij uit ging dan hoorde je hem een minuut later ook nog down spinnen <3

Niettemin heeft hij het nog jaren gedaan. Uiteindelijk werd mijn vader het gedreun zat en heeft hij meebetaald aan een tweedehandse Conner van 200MB ofzoiets :D

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:26]

Die 20MB-schijf van mij kostte destijds 2000 harde guldens. Een voorloper van 5MB kon je bemachtigen voor 5000 gulden.
Hoe kan 5MB nu meer dan X2 keer kosten dan de 20MB?

[Reactie gewijzigd door OxWax op 22 juli 2024 16:26]

Terug gaan in de tijd.
Betaalde eind jaren '80 ca. NLG 2.500,- voor 40 MB SCSI-HD. 😳
Sinds onze familiefilmpjes in 4K en 5.7K (360 graden) worden opgenomen gaat het hard met de opslag. Mijn 12gb NAS zit nu op de 90%. Was 2 jaar geleden nog 40%

Het liefst backup ik alles het liefst ook 2 maal waarvan een schijf in rotatie buitenshuis. Dure grap zou. Denk eraan om er een nieuwe NAS bij te zetten naast mijn DS918+. Dan degradeert die naar 1e backup en kan ik beginnen met SHR met 3x 14TB en uitbreiden zodra nodig.

Op termijn zullen de filmpjes vast 10 bit en 8K worden. De honger naar opslag blijft hierdoor groeien.

[Reactie gewijzigd door PHiXioN op 22 juli 2024 16:26]

Mijn 12gb NAS zit nu op de 90%. Was 2 jaar geleden nog 40%
Ik neem aan dat je 12 TB bedoelt, i.p.v. 12 grambit... ;)
Yep… 12gb zit snel vol met 4K video…
Moet eerlijk bekennen dat het bij mij ook steeds meer die kant op gaat.
Binnenkort komt hier een 1 Gbit glasvezelverbinding, dus iets opnieuw downloaden is dan zo gedaan.
In totaal heb ik wel iets van 20 TB aan opslag (3x 4TB en 1x 8 TB + 1.5 TB SSD opslag) maar door regelmatig oude meuk te deleten blijf ik voorlopig voldoende opslag hebben.

Maar de gemiddelde consument zal inderdaad niet snel meer aan de hardeschijf gaan. Laptops en pc's hebben al snel enkel nog een SSD als opslag. Steeds meer mensen hebben hun data in de cloud staan en kijken films en series via streaming diensten.
Harde schijven zijn eigenlijk alleen nog maar voor de grootgebruikers. Denk dat 1TB en dergelijke straks ook niet meer te halen valt. Dat is totaal niet interessant meer als SSD's in die categorie straks net zo duur zijn.

Gamen vanaf een HDD moet je sowieso vergeten. Vanaf dit jaar worden nieuwe games niet meer voor een HDD geoptimaliseerd, en het was sowieso al geen doen meer qua laadtijden...
Dus als je net als ik geen nut meer hebt voor een harde schijf, haal 'm uit je PC, gooi 'm ergens in de kast en geniet van de stilte.
1 game een achtste van je opslag is toch best een deuk.
Meer een samenvatting van "de harde schijf door de jaren heen". Met hier een daar een stukje van wat er aan zit te komen. Maar om nou te zeggen "de toekomst van de harde schijf" ?
Ik meid de Plus artikelen over het algemeen, omdat ik toevallig aan het kijken ben naar m'n NAS uit te breiden met 20TB disks dacht ik, wellicht nuttige info hierover. Maar dit is meer een verkoop cijfer analyse en dan ook nog eens voornamelijk op basis van clickthroughs in pricewatch... Heel generiek en niet nuttig voor mij.
Bij ons poetst 'de meid' ;) maar u hebt gelijk. Ik zou hier nooit voor betalen. :X

[Reactie gewijzigd door OxWax op 22 juli 2024 16:26]

Dat dit artikel niet interessant voor u is wil niet zeggen dat in die plusartikelen heel wat schrijfsels zitten die het de paar euro waard maakt.
Bij ons poetst 'de meid' ;) maar u hebt gelijk. Ik zou hier nooit voor betalen. :X
Ik betaal zodat ik Tweakers kan bezoeken zonder reclame en deze site er toch iets aan over houdt. Want ik heb een hekel aan reclame maar snap ook wel dat de redactie ook moet eten. De Plus-artikelen zijn extra, "plus" zeg maar ;)

Als ik eerlijk ben zou ik niet betalen voor de meeste artikelen, plus of niet. De meeste artikelen interesseren me gewoon niet en ik ken ook geen enkele site waar ik 100% interessant vind. Sites als deze bezoek ik omdat ze een vrij breed overzicht geven van het nieuws. Op gebieden waar ik echt in ben geïnteresseerd zal een nieuwssite me niet snel iets nieuws kunnen vertellen. Vaak is de discussie onder het artikel voor mij interessanter omdat experts daar de kleine details of achtergronden uitleggen.

Ook in dit artikel lees ik weinig verbazend nieuws. De grote lijn en algehele conclusies kende ik al. Maar dit artikel levert data om dat verhaal te ondersteunen. Ik vind de grafiekjes die de ontwikkeling van prijs en capaciteit laten zien erg interessant. De grotere trends zijn wel duidelijk, zoals dat SSD de HDD aan het vervangen is, dat weten we al jaren. Maar met die grafiekjes in de hand kun je iets zeggen over hoe ver dat proces is en wat we de komende jaren kunnen verwachten.

Ik gebruik dat soort informatie om beslissingen te nemen. Zo heb ik een NAS staan met veel HDD-schijven. Het systeem dat ik gebruik kan helaas niet overweg met schijven van verschillende formaten en snelheden behandelt alle schijven zoals de kleinste en langzaamste. Als ik dus een schijf van SDD 1TB en een HDD van 16TB combineer, dan ziet het systeem dat als 2 schijven van 1TB met de snelheid van een HDD. Ik heb dus pas iets aan grotere schijven of snellere als ik alle schijven in mijn NAS vervang. Het is niet ongebruikelijk dat een HDD wel 10 jaar mee kan. Vroeg of laat wil ik over op SSD.

Iedere keer als er een schijf stuk gaat moet ik dus kiezen waar ik die schijf mee vervang. De goedkoopste mogelijke schijf of eentje die op de toekomst is gericht maar dan wel fors duurder is. Het kan jaren duren voor ik iets heb aan die snellere of groter schijf. Maar een kleine/langzame schijf zal vroeg of laat de bottleneck worden die de rest van het systeem afremt. Ik heb dus iedere keer de vraag of het niet handiger is om nu maar een goedkope schijf te kopen die ik dan over X jaar moet vervangen terwijl de schijf eigenlijk nog goed is, of dat ik nu heel veel geld uitgeef aan een moderne schijf die dan z'n hele levensduur kan volmaken. Wel met het risico dat die schijf stuk gaat voordat ik gebruik heb kunnen maken van de grotere snelheid/capaciteit.
Voor dat soort beslissingen kun je niet alleen naar de dagprijzen van individuele schijven kijken maar moet je de grotere trends onderzoeken. Al is het maar omdat de ontwikkeling niet geleidelijk gaat maar in stappen en tijdelijke tekorten of overschotten of kortingen flink kunnen afwijken van de grote lijn. Wat dat betreft is dit artikel dus erg waardevol omdat het data levert waar ik zelf niet makkelijk bij kan en de ontwikkelingen over langere tijd laten zien. Dat soort informatie is nodig om de toekomst te voorspellen. Zo kun je beslissen of het zin heeft om nu een 4TB SSD te kopen om naast een 4TB HDD te zetten als je verwacht dat die HDD nog 5 jaar mee kan (maar het kan ook 3 dagen zijn of 10 jaar).
Om te laten zien waar we naartoe gaan is het toch logisch om te laten zien waar we nu zitten en waar we zaten? Vlakt de groei af of neemt deze exponentieel toe?
Ik geef eerlijk toe dat ik niet altijd een even grote fan ben van de PLUS verhalen, maar dit vind ik persoonlijk zeker een interessant en geslaagd verhaal :)

Er wordt al heel even aan gerefereerd in het artikel maar waar ik nou benieuwd naar ben, is wat voor invloed dit soort grote schijven hebben op het gebruik van RAID.

Nu is RAID geen backup, en dat zou ook voor iedereen die het gebruikt compleet helder moeten zijn.

Maar wat voor impact heeft dit allemaal op het RAID gebruik? Ik zelf en meerdere op Tweakers gebruiken al jaren RAID, al dan niet in een NAS tegenwoordig of zoals vroeger regelmatig met een mooie (bijvoorbeeld) Areca kaart.

Een enkele schijf die 500MB/s zou halen maakt de noodzaak om RAID te gebruiken vanwege de performance voor een thuisgebruiker wel iets minder nodig/noodzakelijk, echter zijn er natuurlijk nog steeds use cases te bedenken waarbij (bijvoorbeeld) 8x20TB @ 500MB/s per schijf en dan over een 40Gbit/s intern netwerk nodig dan wel gewenst is :)

Continuïteit zou natuurlijk ook nog steeds een goede reden kunnen zijn ondanks dat er tegenwoordig ook veel meer in de/een cloud oplossing opgeslagen wordt.

Met andere woorden in het kort, hoe kijken jullie naar zulke schijven en het gebruik van RAID?

[Reactie gewijzigd door Operations op 22 juli 2024 16:26]

Raid heeft nog wel nut maar voor thuissituaties zou ik dat zelf alleen voor redudancy doeleinden doen en niet voor meer snelheid.
Dan hoop ik wel dat je redudancy ziet als continuïteit en niet als backup :)
Continuiteit ja. Backup is iets dat ik vind dat je op een andere lokatie moet doen. Niet in zelfde systeem en ook niet zelfde woning of kantoor

[Reactie gewijzigd door PjotterP op 22 juli 2024 16:26]

Klinkt goed. Bij backup wordt vaak het 3-2-1 principe aanbevolen.

Kort samengevat:
- 3 kopieën van je belangrijkste data
- 2 verschillende media
- 1 kopie offsite
Met een m2 harde schijf zou raid wel haalbaar zijn aangezien ze veel sneller zijn als de gemiddelde sata harde schijven, maar word veelvuldig gebruikt bij bedrijven die dan een schijf kunnen vervangen zodat alles op die andere harde schijf blijft lopen hot swapeble.Ik zou gewoonweg een backup maken van windows en alle programmaa;s die je al geinstalleert hebt met een opstartbare dvd of bluray, zo kun je vrij snel alle bestanden terug zetten die je nodig hebt met EEN schijf in het systeem.Het licht eraan wat je allemaal gewend bent het licht eraan hoeveel data op je raid schijven komen te staan, het is een mogenlijkheid maar meer een oplossing voor grote bedrijven met veel data, denk aan de overheid.
Ik gebruik al jaren een Areca-controller met 24 schijven in raid 6. En, oh boy, ik ken niets wat sneller en doeltreffender is. Meer dan 100 processen tegelijk laten lopen, een snelheid > 1000MB/s. Het kost wat, maar je krijgt er echte klasse voor terug.
Ik gebruik dan tegenwoordig primair meer de synology DS3617xs maar heb jaren lang Areca kaarten gebruikt. Mijn backup opslag zit een 1883 in. (En heb hier nog 5 Areca kaarten liggen :p )

Maar rebuilden gaat met zulke grote schijven uiteindelijk ook erg lang duren wat het risico natuurlijk wel vergroot. Ja bij RAID6 mogen er 2 wegvallen, maar wat mensen veel doen is schijven uit dezelfde batch nemen wat de kans op uitval van een 2de schijf ook weer iets groter maakt.

Enfin ik ben dus ook zeker groot fan van RAID (en Areca :) ) maar uiteindelijk denk ik als we straks bij 50TB zijn dat er dan toch is iets anders moet gaat komen want rebuilden gaat dan zolang duren dat lijkt mij dan wel een serieus issue.
Ik had vorige maand voor het eerst sinds jaren een rebuild, wellicht omdat ik ze alleen in aantallen van 2-4 heb toegevoegd. En ja, je moet natuurlijk ontzettend uitkijken dat je niet een verkeerde schijf gaat vervangen. Maar verder....dat enorme gemak.
Raid blijft hetzelfde doel dienen, redundantie. De snelheidswinst was vooral in het begin van raid een pre zeker in een bedrijfsmatige oplossing, in de particuliere / hobbymatige setting heb ik daar nooit echt de voordelen van in gezien anders dan de eerder genoemde redundantie. En nee redundantie is geen vervanging van een backup. Voor een goede data strategie houd je minstens het 3-2-1 principe aan, 3 kopieën van de data op twee verschillende backup media's waarvan 1 extern.
Mijn punt is meer dat bijvoorbeeld rebuilden met een 50TB schijf straks misschien wel een week duurt als er niks anders wordt aan de RAID zoals we die nu kennen. Tijdens die week wordt de array nog steeds gebruikt en rebuilden is een intensief proces wat het risico ook weer groter maakt etc.

Nogmaals ik ben groot voorstander/gebruiker van RAID opstellingen maar vraag mij af hoe houdbaar het is in de toekomst.

3-2-1 heb ik in dit verhaal ook al is genoemd, is inderdaad een goede strategie van backuppen.

[Reactie gewijzigd door Operations op 22 juli 2024 16:26]

Hier een leuk infotainment filmpje van, toen nog, Hitachi, over de Perpendicular technologie :

https://youtu.be/xb_PyKuI7II

Hitachi(HGST) is later overigens overgenomen door het nu bekende Western Digital en bestond zelf weer uit het samengaan van de HDD divisies van IBM en Hitachi.

En het laatste weetje, het was Seagate dat in 2006 de perpendicular technologie als eerste commercieel inzette in 3.5" drives.
WD heeft HGST enkel mogen overnemen nadat het bepaalde toegevingen heeft moeten doen. Zo moest HGTS nog jaren als apart merk blijven bestaan. Daarnaast is in essentie de productiecapaciteit van 3.5" HDDs verkocht aan Toshiba en heeft WD de 2.5" productie gehouden en uitgebreid net door een fabriek van Toshiba over te nemen die reeds stil lag na de overstromingen van 2011.

En naast die 2 heb je dus enkel nog Seagate dat vandaag ook nog harde schijven produceert. En dan te bedenken dat er ooit meer dan 200 bedrijven zijn geweest.
Met de overstap richting 4K en zelfs 8K en mirrorless camera's met 40-50MP sensoren gaat het heel hard. Zojuist een compleet nieuw systeem gebouwd maar daar zit toch echt nog een 8TB gewone schijf in aangezien een 4TB SSD prijstechnisch niet echt het geld waard is. Je project tijdelijk verplaatsen naar een 2de SSD van 1TB is dan een beter alternatief en daarna weer lekker op de gewone opslag plaatsen. Voor foto en video blijven HDD's nog steeds perfect totdat 8TB SSD's net zo betaalbaar worden.
Vraag me wel af, is die 8k nou echt een must voor fotos? Is 4k zelfs voor bewerkingsdoeleinden niet al genoeg?
8K is video. Ik heb zelf al 3TB aan foto's (RAW en JPG) en dan ook nog eens 1TB aan 1080p video en dat loopt per jaar alleen maar op. Nou schiet ik zelf met een 20MP Canon R6 en actioncams maar voor de mensen met een 40-50MP camera voor foto en die veel 4K video doen is 4TB is ontzettend weinig en dan zijn conventionele schijven toch echt nog wel de oplossing voor de komende jaren.

[Reactie gewijzigd door Rugby82 op 22 juli 2024 16:26]

Is 4k zelfs voor bewerkingsdoeleinden niet al genoeg?
High-end camera's hebben 30 - 60 MP, dus nee, blijkbaar niet.

https://www.sony.nl/elect...verwisselbare-lens/ilce-1
[...]

High-end camera's hebben 30 - 60 MP, dus nee, blijkbaar niet.

https://www.sony.nl/elect...verwisselbare-lens/ilce-1
Ja wat ik meer bedoel is, kan je die fotos op de camera of bij export niet al in ‘lage’ 4k resolutie opslaan?
Het kan wel, maar dan verlies je gewoon kwaliteit. Zeker als je achteraf nog wil kunnen inzoomen.
Ook volgens verkoopcijfers is 60 procent van de desktops en laptops in het afgelopen jaar geleverd met een ssd in plaats van een hdd en dat lijkt alleen maar meer te worden.
Ik moet zeggen dat dit getal mij enigzins verbaast. In 2021 werden echt nog 4 op de 10 splinternieuwe desktops en laptops geleverd met louter een harde schijf? :?

Wie doet zich dat zelf (of zijn/haar werknemers) aan?
[...]

Ik moet zeggen dat dit getal mij enigzins verbaast. In 2021 werden echt nog 4 op de 10 splinternieuwe desktops en laptops geleverd met louter een harde schijf? :?

Wie doet zich dat zelf (of zijn/haar werknemers) aan?
Thin clients?
Thin clients?
Welke HDD gebruik je dan? Een SSD lijkt mij goedkoper.
ik heb de prijsvergelijking nog niet gemaakt maar als je paar duizend laptops nodig hebt en die zijn beduidend goedkoper ...upgraden kan nog later.

30€ voor 500GB HDD, 44€ voor een SSD
pricewatch: Seagate Barracuda Compute 2,5" (5400rpm), 500GB

pricewatch: Intenso Top Performance 2,5" 512GB

(veronderstelling, zeker weet ik het ook niet)

[Reactie gewijzigd door OxWax op 22 juli 2024 16:26]

ik heb de prijsvergelijking nog niet gemaakt maar als je paar duizend laptops nodig hebt en die zijn beduidend goedkoper ...upgraden kan nog later.
Laptops zijn geen thin clients, voor een thin client zou 64 GB of minder voldoende zijn.
Upgraden kan later maar arbeid is ook niet gratis.

pricewatch: Seagate Barracuda Compute 2,5" (5400rpm), 500GB komt bij mij op 45+ euro uit?
Alternate BE = 29€ (ex delivery) ;)
Ik vraag me af: is het wel enkel een HDD, of hebben de meeste van die systemen naast een HDD misschien ook nog een SSD? Of misschien een SHD?
Goede vraag.

@willemdemoor kun je extra duiding geven bij deze getallen? :) Wordt 40% van de desktops en laptops echt alleen uitgerust met een harde schijf, of is het een genuanceerder verhaal? En betreft dit de wereldmarkt, Europa, Nederland?
Ik had hier inderdaad een bron voor, maar ik kan 'em met geen mogelijkheid meer vinden, en ook mijn google-zoektocht spreekt het tegen in plaats van het met vergelijkbare cijfers te staven. Ik heb het daarom veranderd in 'de overgrote meerderheid is met ssd's ipv hdd's geleverd'... zo ziet het er nog slechter uit voor de hdd als primary storage...

Op dit item kan niet meer gereageerd worden.