Seagate wil dit jaar nog harde schijven van maximaal 30TB uitbrengen

Seagate is van plan om dit jaar nog hdd's uit te brengen van 22, 24 en 30TB. Laatstgenoemde moet in het derde kwartaal verschijnen en de hamr-technologie bevatten. Hoeveel schrijfkoppen deze meekrijgt is nog niet bekend.

De harde schijven van 22 en 24TB moeten in het eerste of tweede kwartaal verschijnen en maken respectievelijk gebruik van conventional/perpendicular magnetic recording- en shingled magnetic recording-technologie. Deze bevatten verder tien schrijfkoppen in een behuizing van 2.2TB per platter.

Over de hdd van 30TB is minder info bekendgemaakt, behalve dat deze gebruikmaakt van heat assisted magnetic recording. Deze technologie is ontworpen door Seagate en gebruikt lasers om de capaciteit van harde schijven te verhogen. Volgens de ceo van de fabrikant, Dave Mosley, gaat de ontwikkeling van deze hamr-hdd's sneller dan verwacht, waardoor Seagate deze iets eerder uit kan brengen dan gepland. Een specifieke datum wordt echter niet genoemd. Wel meldt Mosley dat er in eerste instantie een gelimiteerde hoeveelheid van deze harde schijven wordt geproduceerd. Naarmate de fabricagekosten gedrukt en de hamr-opbrengsten verhoogd kunnen worden, zal de oplage gestaag stijgen. Mosley verwacht dat dat binnen twee jaar zal gebeuren.

Op basis van de roadmap van Seagate is het de bedoeling dat er tussen 2024 en 2025 hdd's uitgebracht zullen worden van meer dan 40TB. In 2026 moet de eerste harde schijf met een capaciteit van meer dan 50TB verschijnen. Vorig jaar leverde Seagate al smr-hdd's van 22TB aan een select aantal grote klanten.

Seagate-roadmap
Seagates roadmap

Door Kevin Krikhaar

Redacteur

28-01-2023 • 11:23

158

Submitter: molens

Reacties (158)

158
158
103
6
1
40
Wijzig sortering
Gaat leuk worden als je RAID moet rebuilden. Neem aan dat de lees- en schrijfsnelheid niet zo veel zal verbeteren.
Goed punt, gaat heel erg lang duren, wel afhankelijk van de opstelling natuurlijk.

[Reactie gewijzigd door MineTurtle op 23 juli 2024 21:30]

Niet alleen dat. De kans op failure van een tweede drive terwijl je aan het rebuilden bent neemt ook toe. Voor zulke grote schijven is RAID eigenlijk geen veilige oplossing meer...
Interessant om hier even op aan te haken, want inderdaad RAID 5 met drie of vier van dit soort schijven is statistisch gezien 'doomed to failure' mocht er inderdaad na een x hoeveelheid jaar één 30TB disk kapot gaan en de storage pool moet gaan rebuilden.

Wat voor oplossing(en) weet jij hiervoor die reeds bestaan als RAID alternatief? Hebben we het dan over ZFS? Of juist alleen gebruik maken van striping, zoals RAID 10 / ZFS striped mirror? Betekent dit dat je als 'kleine' datavebruiker beter meer disks kan kopen met minder capaciteit en dan meer storage pools aanmaakt? Op kantoor voor cloud backup storage pools heb ik als regel maximaal 4 disks in één SHR storage pool (op Synology, 1 disk redundacy) met tot nu toe 20TB disks al. Mocht er iemand zijn die hier meer over weet dan zou dat leuk zijn!

Voorbeeld: Stel ik heb vier 30TB schijven en wil deze zo optimaal mogelijk benutten met ook redundancy in het geval dat de hardware stuk gaat. RAID-5 is eigenlijk uitgesloten en RAID-6 volgens mij statistisch gezien ook met deze groottes.

[Reactie gewijzigd door fjh40 op 23 juli 2024 21:30]

RAID5 gebruik ik al heel lang niet meer, voornamelijk omdat de arrays zo groot worden dat dit te risicovol wordt. RAID6 is wat ik tegenwoordig gebruik.

Stel je heb een array met 6x 30TB schijven in RAID5 of 16x 10TB schijven in RAID5. Sure, je rebuild zal sneller klaar zijn, maar je heb wel 10 extra points of failure of een failure kans die 3x zo hoog ligt door de extra schijven. Welke is betrouwbaarder?

Ik ben zelf juist terug gegaan van een 12 schijf (6TB/schijf) array in RAID6 naar een 8 schijf (20TB/schijf) array in RAID6. De gebruikte schijven zijn iets sneller, maar het blijft een crapshoot qua betrouwbaarheid! Tegen de tijd dat deze storage NAS vervangen gaat worden (7-10 jaar) verwacht ik eerlijk gezegd dat SSD storage betaalbaar (genoeg) is geworden. Ik denk echter niet dat je tegen de (theoretische_ snelheid van je HDD of SSD aanloopt, maar tegen de snelheid van je NAS/server. En RAID5/6 is dan sowieso geen optie met SSDs...

Belangrijk is backups. Echter met dergelijke grote datasets van tientallen TB wordt ook backups maken lastig. In het verleden naar Tapes gekeken (heb hier nog een tape unit liggen), maar dat is zeer onhandig en duur. Je zal je data moeten classificeren en prioriteren. Naast cloud storage ben ik nu ook 100GB BR disks aan het overwegen afhankelijk van de data...
Hoe doen cloud providers dat dan? Die hebben enorm veel data en maken daar ook backups van.

Ik denk dat je ernaartoe moet om geen raid te hebben maar je data gewoon naar meerdere plekken synchroniseert. Dat is uiteindelijk sneller en goedkoper. Hoe groter de schijven, hoe eenvoudiger je dit per toepassing kunt doen.
Cloud providers doen dat op een heel andere schaal met een infrastructuur die niet thuis te doen is en ook niet voor de meeste bedrijven. Wat ik er ooit van heb gelezen is dat MS Azure bv. de data op drie verschillende plekken opslaat in het datacenter (waarschijnlijk meer als je availability regelt in meerdere regios), geen RAID.

Over het algemeen laat een bedrijf iets meer van hun keuken zien dan de rest:
https://www.backblaze.com/blog/

Synchronisatie is geen backup en RAID zorgt er voor dat je data beschikbaar blijft bij gedeeltelijke uitval. Maar tot zekere hoogte heb je gelijk, echter is op een kleine schaal RAID nog steeds goedkoper. Want wat je eigenlijk zegt is RAID10: Al je data 2x uitgevoerd (met kanttekeningen), een RAID5/6 zorgt voor redundantie met minder schijven, minder stroomverbruik, minder ruimte en minder warmte. Maar synchronisatie zorgt alleen voor 'veiligheid' bij uitval en niet tegen corrupte data, daar heb je dan weer backup voor nodig!
Daarom dus synchronisatie voor beschikbaarheid ipv raid. Heb je meteen je uitwijk geregeld iig voor je data.

Daarnaast idd nog nog een backup richting een 3e plek.
Volgens mij draait Backblaze een 3x replicatie.
OT maar wat is een crapshoot?
@DohnJoe
https://nl.m.wikipedia.org/wiki/Craps

Vrij vertaald:
Een rol met de dobbelstenen.

[Reactie gewijzigd door Keypunchie op 23 juli 2024 21:30]

Ah, gewoon een gok dus
Bij het woord "crapshoot" gaat de focus wat meer uit naar de kans op een negatieve uitkomst en het is ook weer geen loterij waarbij de kans op een negatieve uitkomst zo goed als verzekerd is. Engels heeft wat meer woorden om dit soort kleine verschillen aan te duiden.
Unraid werkt met een systeem waarbij je eigenlijk schijven tegen elkaar plakt en een of twee pariteit schijven aanwijst waarmee fouten kunt herstellen. Het systeem is wel zo snel als de traagste schijf vandaar dat er vaak met een caching SSD gewerkt wordt. Grote voordeel is dat wanneer een schijf kapot gaat de data op de andere schijven nog normaal te benaderen is.
Ik ben het je eens. Dan moet het op deze manier gebeuren. Niks mis met 30-50TB schijven. Zolang je de techniek daaromheen er maar op afstemt met minimale downtime en risico’s. Of Raid 6.

[Reactie gewijzigd door killergrave op 23 juli 2024 21:30]

Anoniem: 1745418 @fjh4028 januari 2023 18:41
Dit soort SMR schijven zijn zo wie zo niet geschikt voor een Nas
En een rebuilding van je Raid loopt vrijwel altijd verkeerd af
LTT heeft hier al eens aandacht aan besteed
Minimaal raid6 gebruiken, dan heb je nog redundantie als je een schijf vervangt.
Waarom denk je dat exchange in 2010 al is gestopt met raid.

Applicatie aware disk fault tolerant is voor slow disks veel interesanter
Niet helemaal, het originele probleem met normale device based raid was dat er een situatie als dit kan onstaan:

Disk 1: OK
Disk 2: [Rebuilding 43%/100% - Failed]
Disk 3: OK
Disk 4: [Error reading 1 sector]

En omdat die ene sector defect was of een error had (mogelijk gezien bijna alle drives rated zijn met bit error rate van 1 bit per 2TB) faalde je complete rebuild en zat je dus zonder data.

Met modernere raid technieken zoals zraid (ZFS Raid) heb je in dat scenario 1 block die niet recovered kan worden maar gaat je rebuild wel gewoon door. Daarna kan je volgens mij er zelfs nog achterkomen welk bestand er beschadigd is geraakt (waar het niet recoverable block bij toebehoord). De rest van je array is gewoon prima en gezond.

Nu kan het natuurlijk altijd dat meerdere drives /compleet/ overlijden, maar in een beetje normale zraid2 (2 parity disks) setup heb je dat eigenlijk zo goed als nooit, en zelfs met 1 parity disk moet je dan wel echt heel goed ongelukkig zijn dat het meer is dan de bit error die ik hier boven beschrijf.
Nu kan het natuurlijk altijd dat meerdere drives /compleet/ overlijden, maar in een beetje normale zraid2 (2 parity disks) setup heb je dat eigenlijk zo goed als nooit, en zelfs met 1 parity disk moet je dan wel echt heel goed ongelukkig zijn dat het meer is dan de bit error die ik hier boven beschrijf.
Nou, onlangs was ik wel gevaarlijk dichtbij. 1 harde schijf was écht stuk, en een ander was in een kritische toestand volgens SMART. Allebei RMA gestuurd maar toen had ik tijdelijk geen redundantie. Dit in een 8 schijf RAIDZ2 setup.
Ik zou in dat geval absoluut niet beide disks tegelijk opgestuurd hebben, zolang de ene disk nog wel enigszins werkt maar degraded is, zou ik deze disk wel nog even in je array houden zodat je nog helemaal zonder redundantie zit.

Zodra ik de eerste disk terug heb zou ik een replace actie starten om de verslechterde drive op die manier te recoveren. Dat is vrij snel omdat ie gewoon puur de oude drive moet kopieren naar de nieuwe (ipv. een complete rebuild). Als er slechte sectoren zijn kan hij deze wel weer verkrijgen via de rest van je array, maar het gros is gewoon een copy job

[Reactie gewijzigd door smiba op 23 juli 2024 21:30]

nee hoor, de opstelling maakt niet zoveel uit. Ik zie vaker mensen toeteren dat met bv ZFS de resilver time korter is. En dat is maar ten dele waar. Als je in dit geval 30TB hebt, en daar staat 28TB data op, dan zal die 28TB toch geschreven moeten worden, hoe dan ook. En het filesystem maakt het daadwerkelijke schrijven niet sneller. Een slimme 'ouderwetse' RAID controller zal initieel ook alleen de gebruikte blokken doen (controller moet dan ik meen T9 unmapping ondersteunen) en daarna middels scrubs de 'lege' stukken ook gelijk trekken.

Kortom: als je 30TB moet rebuilden aan zeg 250MB/sec ben je zo'n 35 uur bezig als je nonstop vol gas kunt schrijven. En dat zal in de praktijk al niet lukken.
Ik ben letterlijk op dit moment een disk van een ZFS pool van 10x18TB disks aan het resilveren. Het duurt ongeveer 1.5 dag, en de pool blijft te gebruiken. Met 30TB, disks zal het enkele dagen kosten om te resilveren, maar waarom is dat zo erg? Normaal gezien draaien er processen die wekenlang fulltime lezen en schrijven van alle schijven, zo'n resilver stelt hiermee vergeleken echt niet zo veel voor, en kost minder moeite en tijd dan een 100TB backup te kopiëren naar een nieuwe pool.
Op zich is die 1.5 dag niet zo erg, zolang tijdens die resilvering geen verdere uitval plaatsvind.
Dat zou dan op zich nog geen probleem zijn want dan kun je de herstelde raidset weer vullen vanaf je backup, maar tijd is in deze het belangrijkste item. Hoe snel heb je de beschikking over vervangende hardware? Hoe snel kun je je data van de backup naar de nieuwe/herstelde raid-set pompen? Hoe lang kunnen de medewerkers niet over benodigde data beschikken en hun werk niet (op tijd) uitvoeren? Worden er orders misgelopen?
Het blijft natuurlijk koffiedik kijken, maar we weten allemaal dat dhr. Murphy wel eens een bakkie koffie komt halen als het jou op dat moment helemaal niet uit komt!
Wat is de performance tijdens een rebuild of zonder rebuild? Als je in een weekend moet rebuilden of doordeweeks dan wil je wellicht niet dat je productie workload daar hinder van ondervindt.
Anoniem: 58485 @japie0628 januari 2023 11:56
Er zijn disks met zowel multi actuator ( https://www.seagate.com/i...lti-actuator-hard-drives/ ) die in theorie de snelheid verdubbelen als ook met Hybride SSD/NVME.

Maar ja. 30TB gaat extreem lang duren. :P
Ook opletten dat SMR schijven in een RAID blijkbaar problemen kan geven, waar ze in sommige gevallen niet meer kunnen resilveren.
Grote schijven in een raid is dus goed opletten
Als er meer op een spoor past neemt de snelheid toe. Het aantal sporen bepaalt daardoor de tijd die je nodig hebt.
Eens op de zoveel bitjes moet je een schrijffout mogen maken. Dan heb je bijna gegarandeerd minstens één fout na een rebuild met volle schijven. Je kan beter van andere technologie gebruik maken.
Anoniem: 1745418 @japie0628 januari 2023 18:33
En vergeet SMR niet, eerst data verplaatsen om bij de onderliggende data te komen om het vervolgens weer terug te schrijven
Veel succes met een schijfje van 24Tb😜
Ideaal voor cold tier opslag.
Hot tier op ssd en inactieve data op disk.
We gebruiken nu nog 10 TB disks, dit gaat een flinke capaciteit/rack verbetering opleveren.
Bizar om te zien hoe groot die schijven worden, ik heb nog steeds een externe 320 GB schijf hier in de kast liggen. Toen die tijd was dat een van de grootste die je kon krijgen.
Na een stagnering van jaren gaat het de laatste paar jaar ineens weer rap met de capaciteitstoename.
Wat is rap? +10 TB per jaar? Vroeger was het x1.5 per jaar..
Sowieso eerst zien dan geloven.
Ik wilde dat eigenlijk ook wel eens weten. Gelukkig heb ik toegang tot een database vol met producten, specificaties en wanneer de eerste prijsvermelding was en kan ik wel een query kloppen. Dus bij deze per jaar de grootste harde schijf die in dat jaar zijn eerste prijsvermelding had.

Het resultaat is:
Jaar GB
2000 73
2001 180
2002 250
2003 300
2004 400
2005 500
2006 750
2007 1000
2008 1500
2009 2000
2010 3000
2011 3000
2012 4000
2013 8000
2014 8000
2015 8000
2016 10000
2017 12000
2018 14000
2019 16000
2020 18000
2021 20000
2022 22000
2023 30000
2024 40000
(2023 en 24 zijn op basis van dit artikel, die zijn dus nog niet in de pricewatch verschenen).

In een (logaritmische) grafiek ziet dat er dan zo uit: https://tweakers.net/foto...P9iXEn7zhsbL1C2ZPBMrP.png. Het lijkt erop dat de gemiddelde groei wel iets afneemt en het inderdaad niet meer zo hard ging als vroeger. Ook wel grappig te zien hoe we gewoon 3 jaar lang op 8TB zijn blijven hangen..

[Reactie gewijzigd door Kees op 23 juli 2024 21:30]

Dus bij deze per jaar de grootste harde schijf die in dat jaar zijn eerste prijsvermelding had.
Mijn eerste HDD was 40 MB.. de grootste sprongen werden voor 2000 gemaakt. Wel interessante grafiek!
Het aantal platters in een schijf is de laatste jaren ook omhoog gegaan. De schrijfsnelheid is daardoor, en door HAMR, ook nog eens achtergebleven.
De prijs/GB is ook niet evenredig gedaald.

In 2008 kocht ik 1 TB 7200rpm HDDs voor ongeveer 120 euro.
Voor dat geld koop je nu, 14 jaar later, 6 TB..

[Reactie gewijzigd door Olaf van der Spek op 23 juli 2024 21:30]

Mijn eerste HDD was 40 MB
Mijne ook. Dat waren verwisselbare 'cassettes' in een SCSI drive.

Daarvoor een floppydiskdrive (800kB)van 800 gulden.
Die floppy disk drives hadden vaak een volle CPU aan boord om te werken. Bij sommige computers was de FDD even krachtig als de processor in het ding zelf. Toen was de CPU sowieso natuurlijk maar 1 van de vele chips, en voor veel andere zaken had je uitbreidingen nodig. Overigens had mijn MSX2 (Philips VG8235) er eentje ingebouwd. Maar goed, dat was 360KiB (single sided, single density, maar gelukkig wel 3,5" harde floppies, jaja).

Volgens mijn zou je de controller van een HDD of een SSD overigens ook prima van een video aansluiting en USB kunnen voorzien. Mijn keyboard heeft al twee volwaardige CPU's aan boord, hoewel een Cortex M0 nou niet bepaald een powerhouse is.

[Reactie gewijzigd door uiltje op 23 juli 2024 21:30]

Iets als inflatie mag je ook wel meerekenen ;)
Maar het is inderdaad wel zo dat de afgelopen 10-15~ jaar computerapparatuur algeheel wel duurder is geworden, terwijl het voor die tijd alleen maar goedkoper werd over de brede lijn, dat is niet alleen iets van hardeschijven.
Nieuw, beter, sneller én goedkoper dan de vorige gen kom je bijna niet meer tegen.
Uiteraard zijn er uitzonderingen en worden de meeste producten zeker wel zodoende verbeterd, dat je voor die eventuele meerprijs toch een verhoudingsgewijs betere aankoop hebt
Maar kijk voor de gein eens wat een mainstream cpu, gpu, ram etc. destijds kostte en vergelijk het met dezelfde categorie hardware die nu te koop staat.
En doe dat dan ook met het meest high-end spul van die tijd, dan schrik je je kapot!
Zo rond en voor 2010 was echt wel een mooie tijd te noemen als het om voordelig een hele sterke pc in elkaar te zetten, voor die tijd uiteraard :)

[Reactie gewijzigd door JohanNL op 23 juli 2024 21:30]

Computers zijn duurder maar het is niet zoiets als gewone fietsen die duurder zijn geworden. Immers de functionaliteit is ook enorm uitgebreid. Wat je nu met een beetje laptop en desktop kan doen qua taken / werkzaamheden daarvoor had je 25 jaar geleden tienduizenden zo niet honderduizenden guldens aan studio / workstation apparatuur voor nodig. En dat was dan vaak nog steeds niet zo goed en snel als dat het nu is.

[Reactie gewijzigd door PjotterP op 23 juli 2024 21:30]

Mijn eerste HDD was 40 MB..
Dan weet jij zeker nog wat Stacker is. :D Het werkte verdraaid goed voor de kloksnelheden van die tijd (i386), omdat schijven zo traag waren dat decomprimeren sneller ging dan (meer) lezen.
Dat is nog steeds zo: https://github.com/lz4/lz4lz4 (met zfs) doet rond de 4gb/s
Het is alleen wat minder spannend dan toen computers nog 4 MB geheugen hadden waar de hele compressiesoftware/drivers in moest zitten naast de reguliere software, waarvan een gedeelte in conventional memory (640 kB). Ik blijf het overigens wel indrukwekkend vinden hoe algoritmes als lz4 bijna geen extra geheugen nodig hebben voor het decomprimeren.
Jaaaa, Stacker! En QEMM-386 natuurlijk. :)
Onze eerste PC had uberhaupt geen HDD (5.25” FDD) en op de volgende mocht ik 10 van de 40MB van pa gebruiken. M’n eerste eigen PC (386SX) had ook 40MB en daarop was Stacker zeer welkom :P DoubleSpace bij MS-DOS (versie 6) werkte ook prima.
Dan weet jij zeker nog wat Stacker is. :D Het werkte verdraaid goed voor de kloksnelheden van die tijd (i386), omdat schijven zo traag waren dat decomprimeren sneller ging dan (meer) lezen.
Ja, maar nooit echt gebruikt. De 40 MB HDD zat in een 8088 XT (Vendex Headstart).
Later had ik een 486 DX2 50 MHz met 210 MB HDD, later nog uitgebreid met 3 GB HDD als ik het me goed herinner. Weet niet of ik DoubleSpace / DriveSpace heb gebruikt. QEMM zeker wel.
Ja die had ik (lees me moeder) ook. 8086 headstart. Drie kleuren scherm.

Nostalgie
Mijn eerste HD was 20MB van Quantum en eentje van 18MB geformatteerd van een ander merk. Even kwijt de naam. Beiden waren over de 1000 gulden. Maar ja een verademing tov die verwisselbare grote floppyschijven.
Ik moet ook denken aan deze, die heeft data vanaf 1956.
@Kees, er staat "these are the lowest priced disk drives for which I found prices at the time". Ik ga t niet helemaal uitzoeken maar lijkt mij dat de grootste schijf op de markt zelden de laagst geprijsde is.

[Reactie gewijzigd door N8w8 op 23 juli 2024 21:30]

Alleen heeft die incorrecte recente data, volgens die lijst werd er pas in 2021 een 14TB schijf verkocht, terwijl je die al vanaf 2018 in Nederland kan kopen...
Vroeger waren de HHDs kleiner, als je nu een HDD hebt van 20TB, dan is x1.5 30TB en dat betekend 10TB extra... Maar de overgang bij Seagate (IronWolf Pro) zal meer liggen op 2 jaar van 20TB naar 30TB...
Ja, dat was met processorsnelheden en RAM ook zo. Alles in perspectief zien.
Anoniem: 58485 @Exirion28 januari 2023 11:53
Nja ze moeten wel he. Net nog een artikel op de FP over NVME SSD's / 1TB voor 50 euro.
Ik heb alleen in de NAS’en nog harddisks zitten. In alle apparaten in huis zitten SSD’s en voor frequente backups gebruik ik ook al een paar jaar 2TB SSD’s. Na een dagje op lokatie werken is een rsync kopie zo klaar.
meet of bereken eens hoeveel van die ssd-s er in de ruimte van een hdd past? Zeker met de ssd-s voor inbouw die alleen maar printplaat en chips zijn kunnen aardig in elkaar schuiven. Dan heb je helemaal veel opslag. Als je het allemaal aangesloten kan krijgen.

Of zijn er al hdd-kasten waar een aantal nvme-ssd-s in passen, samen met een leuke controler? Zoals je op een zeker moment ook compact-flash kaartjes kon krijgen waar meerdere micro-sd kaartjes in passen.
Begonnen met een 5MB schijf voor bijna 2000 gulden, ik voelde me de koning te rijk!
Ik heb nog een IBM schijf liggen, 200MB
Platters zijn 14” geloof ik. Aangedreven door een flinke 230 volt ac motor met vsnaar.
Ik heb nog 20MB schijven gebruikt :) Edit: Ik ben niet de enige 8)7

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 21:30]

Cassettes en floppies, HDD was nog niet te betalen. Daarvoor had je ook home computers waarbij er überhaupt geen opslagcapaciteit was. Met wat mazzel kon je nog wat uitprinten.
Ja ik ook nog cassettes (Atari) en floppies ja.

Ik probeer beide trouwens over te zetten op HDD, maar dat blijkt nogal een opgave :'( 3,5" Floppy's met USB zijn nog wel te vinden, maar 5,25" totaal niet :'( Ik heb wel een drive maar geen interface naar USB. Ik heb er maar 1 gevonden die het kan, en die versturen niet naar Europa.

De meeste adapters die 3,5" doen, kunnen namelijk geen 5,25".

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 21:30]

Ik vraag mij alleen af of het niet goedkoper is om de productie processen van SSD's te verbeteren. 30TB ssd's bestaan al, deze zullen grofweg 3-4x zo duur zijn als een 30 TB hdd (prijzen basseer ik even op de huidige 20tb hhd's van seagate+ wat extra want grotere schrijf).

één, 1 TB SSD is kwa prijs aanzienlijk gedaald de laatste jaren. Ik durf toch te zeggen dat SSD's tegenwoordig steeds aantrekkelijker worden, alleen de hele hoge opslag SSD's (nog) niet.
30TB ssd's bestaan al, deze zullen grofweg 3-4x zo duur zijn als een 30 TB hdd
Ik denk dat je dat veel te positief ziet!
Momenteel is de goedkoopste 30TB SSD ~€4100, echter is dat een E1.L drive (een serverstandaard) waar de doorsnee gebruiker helemaal niets mee kan. Ook vrij groot (32cm lang).
De goedkoopste 2.5" SSD van 30TB is ~€5100...

Als je kijkt naar de grote prijsverschuivingen van SSDs, dan zitten die in het consumenten segment. Zelfs alles boven de 4TB is lastig, zelfs wat je (betaalbaar) kan krijgen is dan weer vaak voorzien 'mindere' storage techniek...

Momenteel ben je rond de €500 kwijt voor een 20TB Seagate IronWolf Pro kwijt. Dus voor de prijs van die 30TB SSD koop je nu 10x20TB. Daar zitten natuurlijk wel een hele hoop meer nadelen aan vast: Meer ruimte, meer aansluitingen nodig, meer stroomverbruik, meer geluid, meer warmte. Maar dat is wel bijna 7x zoveel storage!
Toshiba heeft een FC-MAMR MG09 18TB 7200 rpm schijf met hoge doorvoersnelheid van 268 MiB/s voor € 283, ofwel € 15,72 per TB. Dat is veel goedkoper dan Seagate Ironwolf of WD. Het idle verbruik is ook relatief (TB per Watt) laag.

Seagate heeft wel een lager verbruik als die in een lage 'idle' rpm stand komt.

[Reactie gewijzigd door mrmrmr op 23 juli 2024 21:30]

We hebben het hier toch over hoge capaciteit Seagate HDDs? De genoemde 20TB Iron Wolf Pro heeft ook gewoon een dergelijke hoge doorvoersnelheid (op papier). Prijs per TB is alleen leuk als je onbeperkte ruimte, aansluitingen en stroom hebt. Ik zou de 22TB versie hebben genomen ter vergelijking, maar die is nog niet beschikbaar geweest. Er zijn veel kleinere HDDs die een veel betere prijs per TB hebben, maar op een gegeven moment zit je met kosten aan de andere kant (host, ruimte, stroom, etc.)
Appels met appels is 20tb hdd prijs vergelijken met de prijs van 20tb ssd. De prijs van de 30tb is niet bekend, dus daar kun je in het geheel niet aan rekenen.

20tb ssd bestaan niet, maar trek de prijs van 15,36tb ssd door naar 20tb, is 100€ per tb, kom je in de buurt.
uitvoering: Samsung PM1643 15,36TB

Dan de prijs van een 20tb hdd per tb is €34,70
uitvoering: Seagate Exos X20 (SATA, Standard), 20TB

Concluderend is de prijs van ssd vs hdd zo'n factor 3 verschil per tb.

[Reactie gewijzigd door Somoghi op 23 juli 2024 21:30]

20tb ssd bestaan niet
Die bestaan wel, staan alleen niet in PW:
https://www.ampinc.com/product/primeseries/

Daarnaast pak je de goedkoopste large storage SSD die je kan vinden. Je had ook 2/3e van die 30TB SSD kunnen nemen. Staar je dan niet blind op 1 enkele verkoper via Bol.com (je mag zeker ook wat onderzoek doen naar de verkoper die daar achter zit) die een EOL product verkoopt. Als die er meer heeft dan 1 vind ik dat al verbazend en het zou me ook niets verbazen als het 2e hands is of 'refurbished'. Bedrijven zoals Azerty hebben niets op voorraad, hun leveranciers hebben niets op voorraad en de 10+ dagen levertijd met de combinatie dat het EOL bij Samsung, zal deze SSD nooit meer leverbaar zijn. En daarmee een hele slechte vergelijking.

Reken maar meer op €170/TB voor een 20-30TB SSD in een formfactor die we kunnen gebruiken.

Seagate Exos X20 zijn datacenter schijven, ik durf niets te zeggen over geluidsproductie, maar performance is significant slechter dan die van de IronWolf Pro (20TB)...

Bron:
https://semiconductor.sam...prise-ssd/pm1643-pm1643a/
https://www.storagereview...0tb-enterprise-hdd-review
Als je iets niet kunt doen is het 2/3 van de prijs van een product nemen. Dan kom je (mits aan de max kant van het spectrum) te hoog uit.

Alsof een gemiddelde gebruiker 30tb of zelfs 20tb schijven zal kopen, per definitie is de hoogste capaciteit voor enterprise/datacenter, later komen de echte consumentenschijven dus dat is geen argument.

Wel ben ik het met je eens dat 1 bol.com verkoper niet genoeg is, uitvoering: Micron 7450 PRO U.3 15mm (non-SED) 15,36TB

Maar dan nog zit je niet op 170€ per tb.
In welk device wil je die U.3 SSD in doen? Als we het over business/enterprise oplossingen hebben, sure. Maar het merendeel van de discussie betreft prive gebruik. Ook al is het 'duur' prive gebruik.

Je kan wel SSDs krijgen met een Sata aansluiting, maar ik kom eigenlijk weinig tegen boven de 7,68TB, voor SAS3 (wat ook nog in een hoop NASen past) kom ik wel wat 15,36TB tegen, maar meer in de €6k+ range...

Er zijn al SSDs van 100TB (SATA $40k => $400/TB) en ze werken zelfs al aan een 200TB model... Maar die zijn zelfs in idle behoorlijk power-hungry. Maar zelfs de goedkopere modellen zijn nog $200/TB (~€223/TB)... En dit wordt dan gewoon een potje import werk, want ik heb ze hier nog nooit te koop gezien...

Ik heb me vorig jaar kapot gezocht naar grote SSDs die 'betaalbaar' zijn EN in een normale NAS passen. Je bent dan extreem beperkt in je keuze en bij 15+TB ben je extreem veel geld kwijt. Ik ben uiteindelijk voor een twee disk op lossing gegaan met Samsung 870 QVO 8TB SSDs.

Bron:
https://nimbusdata.com/products/exadrive/pricing/
Ik heb deze Toshiba 18TB al een tijdje in mijn Synology zitten.
Hij is stil.
En zuinig met stroom +/- 6 Watt als hij actief bezig is
Welke Synology heb jij dan met FibreChannel?
Aah, ik snap 'em. Ik zag "FC" staan en ben vanouds gewend dat dat voor Fibre Channel staat. Niet in dit geval dus, zeer verwarrend. Bedankt voor je reactie!
Kan toch prima naast elkaar staan. Er zijn zelfs nog bedrijven die tape gebruiken.

In mijn NAS zit bijvoorbeeld nog een gewone schijf. Waarom zou ik 3 keer zoveel betalen voor een SSD als een hardeschijf snel genoeg is om documenten, foto's e.d. op te slaan? Ook voor (remote) backups een prima medium.
Er zijn zelfs nog bedrijven die tape gebruiken.
Nog tape gebruiken? Je bedoelt weer tape gebruiken. Tape verkopen stijgen de laatste jaren weer.
https://www.tomshardware....ars-while-hdd-sales-crash

Niet vreemd, tape is een uitstekend middel om fysiek offline en immutable backups te creëren.
Ik zeg toch niet nog tape gebruiken, ik zeg nog bedrijven.
Ik denk dat de heren vooral struikelen over je gebruik van het woordje "zelfs". Dat doet het schijnen alsof je bedoelde dat dat een uitzondering of apart geval moet zijn.
je laat het klinken alsof tape slecht is, terwijl die een heel ander doel hebben (namelijk long term offline storage). Het nadeel is dat de snelheden niet even lineair meeschalen en je met LTO-9 dus al aan 12.5u zit om er eentje vol te schrijven (18-45TB) en dat je tegenwoordig nog maar max 1 generatie backwards compatible kan gaan (ipv 2 bij LTO-7), dus voor oudere tapes te lezen moet je nog een drive houden of oude backups migreren naar nieuwere tapes.
Het is niet de bedoeling om het slecht te laten lijken, dat zeg ik volgens mij ook nergens. Misschien had ik het net even anders moeten formuleren, maar zoek er niet direct iets negatiefs achter.

Lijkt hier altijd wel iemand die achter elk nieuwsartikel of reactie wel iets negatiefs probeert te zoeken.
misschien niet slecht dan, maar eerder ouderwets of achterhaald. Ik kom integendeel weinig grote bedrijven tegen die ze niet in productie hebben.
Mijn punt is vooral dat een backup enorm belangrijk is. Hoe je dat doet maakt eigenlijk nog niet eens zoveel uit. Voor bedrijven een non discussie. Bij particulieren vraag ik ze altijd, hoe erg zou je het vinden als je al je foto's die op die ene schijf staan kwijt bent? Wat zou je er dan voor over hebben om ze terug te krijgen? Dat is precies het bedrag dat je dan in een goede back-up kunt investeren (minimaal een extra externe schijf en bij voorkeur op een andere locatie).

We zijn het volgens mij prima met elkaar eens ;)

[Reactie gewijzigd door jongetje op 23 juli 2024 21:30]

Ik denk dat ze voor SSD sowieso veel vragen en juist expres beetje verschil willen laten.
Ze zullen de SSD geen goedkope vervanger willen maken.
Zowel om gewoon goed geld er aan te verdienen als je mensen teveel geeft zijn ze met het budget model SSD al te vreden als die al 10TB instap zal zijn. Nu hebben ze een beetje kunstmatig te kort voor simpele gebruiker is 256-512GB al voldoende.
Gamer wil toch al graag gauw 1-4TB.
Iemand voor werk met rendering of server/grote taken die echt graag alles op SSD wil staan die willen zeker 4-16TB ruimte hebben en professionele server nog de veelvoud of eindeloze vraag.

Dat opschalen en stacken van piep kleine chipjes van nog niet eens een gram kost dus geen materiaal ongeveer 1/200 daarvan is goud op iets wat al minder dan 1 gram weeg.
Alleen aanschaf van machines en R&D is duur. Ik denk dat SSD de Harde schrijf allang heeft ingehaald die letterlijk voor een prikje kunnen aanbieden als ze zouden willen. Hoewel ze dan de markt dan heel snel verzadigen en grote winsten verleden tijd zijn. Daarbij de HDD fabrikanten gelijk de nek omdraaien.

Als ze willen kunnen ze vast morgen 16TB op een M.2 kunnen duwen en nog winst maken al vragen ze er 100 euro voor. Probleem is dan hoeven mensen niks meer te kopen de komende 10+ jaar totdat het stuk gaat. De SSD levensduur zal ook veel langer worden met die capaciteit omdat SSD levensduur nou eenmaal goed schaalt met meer grote dan worden ze minder snel oud. Omdat dezelfde cellen niet steeds herschreven worden.

Dit gebeurde ook vroeger met de gloei lampen , auto onderdelen etc. Een product wat te succesvol is en te ver door ontwikkeld is gaat op geven moment niet meer stuk of voldoet boven verwachtingen. Fabrikant beschermd zichzelf door te zorgen dat product niet meer relevant is na x aantal jaar dit doe je door dus net niet genoeg capaciteit bieden of levensduur korter te maken alles dicht timmeren en onvervangbaar maken. (Planned obsolescence) Zodat ze hun huidige klanten steeds weer kunnen verwelkomen.

Ik vind wel fijn dat SSD Prijzen eindelijk weer aardig zakken want mijn vraag blijft hoog naar ze maar ik koop ze niet omdat ik ze te duur vind. Heb zelfs inmiddels 5TB. 1x1TB 2x1TB 1x2TB. Liefst wil ik in toekomst gewoon 2x4TB of 1x8TB m.2 meer is altijd welkom krijg ze nog goed vol :P
Ik denk dat ze voor SSD sowieso veel vragen en juist expres beetje verschil willen laten.
Zo werkt de markt niet, als hij goed functioneert. Als een HDD fabrikant tevens SSD's maakt, kan hij die duurder maken om zijn HDD's nog te kunnen verkopen. Maar daar heeft de concurrent geen boodschap aan, en die zal dan met zijn SSD's op prijs gaan concurreren. Dus tenzij de SSD fabrikanten (verboden!) prijsafspraken maken, gaat dat niet werken.
Een goed voorbeeld daarvan is Samsung, die al in 2011 hun HDD divisie verkocht aan Seagate en sindsdien alleen SSDs produceert. De HDD fabrikanten zijn over het algemeen veel later in de SSD markt gestapt dan de geheugen fabrikanten (zoals Samsung)...

Bron:
https://www.engadget.com/...te-for-1-375-billion.html
De productie processen van SSD's worden verbeterd. Daarom dalen ze zo in prijs. Maar nog steeds zijn harde schijven (óók dankzij verdergaande innovatie) goedkoper bij grote opslagcapaciteit, en kunnen ze dus concurreren. Niks mis mee.
Never underestimate the capacity of a truckload of tapes….was een uitspraak van mijn eerste manager… eind jaren 90. De beste man leeft allang niet meer, maar hij heeft nog altijd gelijk.
Die heeft ie niet zelf verzonnen.
Klopt, het doet niks af aan de betekenis. Overigens heeft hij hem wel uit de eerste hand, van Tanenbaum zelf toen hij daar nog student was

[Reactie gewijzigd door divvid op 23 juli 2024 21:30]

Echt betrouwbare SSD's zijn helemaal niet zo goedkoop, en moeilijk te vinden. Dat vergeten mensen vaak voor het gemak. Een HDD is ervoor gemaakt om jarenlang intensief op volle capacaiteit gebruikt te worden, een normale SSD niet. NIet uit gemenigheid maar simpelweg doordat SSD's tov een HDD maar per sector een 'paar' x beschreven kunnen worden. Zelf een paar geleden vanwege de hoge IOPS van SSD overgegaan voor mijn database en andere toepassingen naar 2 goedkope SSD's in RAID1 en daarvan geleerd. Het draait nog steeds maar ik heb er allesbehalve vertrouwen in.

Toen geleerd dat er ook SSD's bestaan die wel gemaakt zijn voor schrijfintensieve taken, en aangezien ik net overgegaan ben op AM5 met PCIe5 m2 support is het nu ff wachten op een dergelijke SSD met een aantrekkelijke prijs en gaan die Crucials snel met pensioen.

Tweakers heeft hier 2 stats voor: "Total bytes written" en "Drive writes per day", kijk voor de grap maar eens bij de meeste consumenten drives hoe schikbaarend laag die waardes zijn. Ik ken eigenlijk maar 1 serie die dat niet is en die is van Samsung, hoop dat er binnenkort een PCIe5 variant komt dan ben ik over.

Het is wrang, wil je veel en vaak schrijven, dan wil je eigenlijk een SSD, maar een HDD is juist daar goed in en SSD's in toenemende mate niet.
Ik heb nog paar enterprise SLC ssd’s juist voor die toepassing
Onder elk artikel de laatste 20 jaar waarin een grotere hard disk worden aangekondigd:
- raid rebuild tijden veel te lang
- wat als die kapot gaat, zoveel data in 1x weg
- hoe kan je deze ooit vullen met nuttige data?
- dit valt niet te backuppen
- ongelovelijk dat ze dit op een harde schijf krijgen tegenwoordig
- vergelijking met de 1e schijf je hebt gekocht
- we zitten nu wel echt op de max. qua opslag

Genieten altijd :) Welke vergeet ik nog?
Volgens mij zijn al die punten direct plat te slaan. Uiteindelijk is 1 grotere schijf natuurlijk veel efficiënter dan die hoeveelheid met een raid creëren. In mijn ogen koop je er liever 2 (liefst van verschillende merken/batches). 1 voor je data en 1 offsite voor je backup.
Dat werkt best prima als je geen uptime hoeft te garanderen. Dus prive kan het een goede oplossing zijn. Maar zakelijk is dat vaak geen optie. Ik kies vaak voor wat meer kleinere disks. Dat is sneller qua performance en rebuilden gaat ook sneller. En RAID6 want hoe groter de disks, hoe langer de rebuild tijd, hoe groter de kans op een extra disk failure...
Hangt van grootte van je array af,
270tb netto storage met zfs3 is prima te doen met 30tb schijven.
Heb je dus 12 x 30tb (3 als parity)
Zou je dat doen met 10tb heb je dus 3 keer zoveel schijven nodig.
3 keer hogere kans dat er een stuk gaat.
3 keer meer energie gebruik.
Zelfde risico data verlies.
3 keer meer rackspace.
Welke vergeet ik nog?
In elk geval de laatste 5 jaar:
"Niemand heeft nog harde schijven nodig, want SSD is veel sneller"
Niemand heeft nog een SSD nodig want een NVMe is veel sneller!
"NEEEE!!!! Dan is hij nog sneller kapotgeschreven!!!11!!!"
NVMe is een overdrachtsprotocol maar nog steeds een SSD.
nou je kan wel makkelijker een petabyte server bouwen voor als je jaren aan 8K footage wil bewaren (LTT)
Genieten altijd :) Welke vergeet ik nog?
Dat er altijd wel iemand is die dan zo'n lijstje post ;)
En nog steeds hetzelfde aantal IOPS als 30 jaar geleden. Dat wordt een steeds groter probleem. Je kan deze disks alleen nog gebruiken voor bulk opslag (backup, misschien video of hele grote afbeeldingen). Alles wat random access nodig heeft gaat nat op de stagnatie van het aantal transacties per disk.
Ja, afgelopen jaar dan ook mijn storage opgesplitst naar een bulk storage NAS (HDDs) en een actieve NAS (SSDs). Waardoor mijn Actieve NAS slechts 4-5W trekt (~4W idle en ~5W actief gebruik). Mijn bulk opslag NAS staat standaard gewoon uit, 1x per maand gaat die aan en worden er bestanden naartoe verplaatst. Scheelt enorm in stroomverbruik, warmte en geluid!
Zo doe ik het ook. Foto's en muziek op een NAS met SSD's en dan diezelfde data plus de RAW bestanden en rest van de data op een NAS met schijven die niet 24/7 aanstaat.
Ik heb 2x Synology DS 918+
De ene voor alleen films met 3x6TB.

En de ander staat constant aan met
1 TB SSD en 18Tb HDD verbruik van deze +/- 16 Watt
En toen had je een schijf die stuk ging..
Had ikzelf ook bij een Exos 16TB drive, maakte opeens rare geluiden en werd niet meer herkend.
Werd wel netjes en snel omgeruild door Seagate maar dan moet je wel blij zijn als je backups hebt.
Duurt wel lang voor je al je data weer op de schijf hebt staan.
Maar zo'n schijf zet je toch minimaal in RAID-1/5/6 en gebruik je niet als single drive lijkt me. Tenzij het niet uitmaakt als je die data kwijtraakt uiteraard.
Als bedrijf misschien maar als particulier wordt dat wel wat prijzig.

Belangrijke data moet je altijd backups van maken, maakt niet uit hoe groot je schijf is.

[Reactie gewijzigd door SiGNe op 23 juli 2024 21:30]

Zelfs als consument zou ik deze nooit zonder RAID willen gebruiken. Alleen de tijd al die het kost om een backup terug te zetten van 30TB
Inmiddels zijn de prijzen ook wat gedaald dus dat schelet natuurlijk ook al.
Het blijft toch wel apart dat fabrikanten nog steeds harddisks blijven door ontwikkelen hetzij dan wel alleen in de hoeveelheid opslag. Maar als je gaat kijken naar de gebruikte materialen zou je eigenlijk zeggen dat productie van ssd's goedkoper is. Een NVME ssd is uiteindelijk maar een klein printplaatje met een paar chips in tegenstelling tot een harddisk met vrij veel metaal.

Ik denk verder wel dat die grote harddisks een fiks prijskaartje zullen hebben dus dat zou wel al een nadeel kunnen zijn. Ander punt is dat ik ook zo mijn twijfels heb bij de betrouwbaarheid zeker bij zulke grote hoeveelheden aan data. Dan vind ik het toch een veiliger idee om data op meerdere kleinere harddisks te zetten zodat je in geval van defect niet alles kwijt bent.
Dan vind ik het toch een veiliger idee om data op meerdere kleinere harddisks te zetten zodat je in geval van defect niet alles kwijt bent.
En ik denk dat jij niet de klant bent voor dit soort disks. Want inderdaad in een simpel opslagsysteem is dit gewoon bijzonder gevaarlijk. Als je 30TB verliest heb je bij de restore een behoorlijk kans dat er nieuwe problemen ontstaan. Als je, zoals grote jongens, 10.000 van dit soort disks in een data centrum hebt zitten is dat geen enkel probleem.

En hoe je het ook bekijkt, 30TB aan NVME is veel duurder (je hebt vele interfaces nodig!), neemt meer ruimte in, kost meer stroom en is waarschijnlijk enige malen minder betrouwbaar voor long term data opslag waarbij de disk 99.99% van de tijd niets doet.
En ik denk dat jij niet de klant bent voor dit soort disks.
Ik help ook anderen zoals een vriend van me die een multimedia bedrijfje heeft en nogal wat videomateriaal verzameld heeft in de loop der tijd. Paar uur aan videomateriaal neemt al meteen heel wat aantal TB in beslag. Dus voor hem zou zo'n grote harddisk geeneens zo gek zijn en hij inmiddels ook al heel wat harddisks vol heeft staan.
En hoe je het ook bekijkt, 30TB aan NVME is veel duurder (je hebt vele interfaces nodig!), neemt meer ruimte in, kost meer stroom en is waarschijnlijk enige malen minder betrouwbaar voor long term data opslag waarbij de disk 99.99% van de tijd niets doet.
Dat is zondermeer waar maar zelfs als de prijs gelijk zou zijn dan zou ik persoonlijk ook nog steeds kiezen voor een harddisk. Zeker inderdaad met wat je zegt, als backup doet zo'n harddisk tijden lang vaak niets, sterker nog, bij mij staat de externe harddiskbay gewoon uit. Ander nadeel van ssd's is dat deze na verloop van tijd degraderen ook al worden ze niet gebruikt, iets waar een harddisk geen last heeft.
De disk is dan niet bedoelt voor mensen die een paar honderd TB aan opslag hebben (daarvoor is de prijs per TB ook te hoog), het zal je vriend weinig uitmaken of er een stack met 30 of met 15 HD's staat lijkt mij. Topsegment qua opslagcapaciteit is vooral bedoelt voor datacenters, als je i.p.v. 300.000 schijven er nog maar 150.000 hoeft te huisvesten dan scheelt dat aanzienlijk in de afmetingen van je datacenter dan scheelt je dat meer dan 150 stuks 42U rack. Dat zijn aardig wat vierkante meters, racks, koeling, kabels etc.. die je minder hoeft te bouwen en onderbouwen.
het zal je vriend weinig uitmaken of er een stack met 30 of met 15 HD's staat lijkt mij
Hij heeft de harddisks gewoon intern in de diverse pc's die hij staan heeft, dus ruimte is wel beperkt. Dus hij kan niet meteen een hele stack aan harddisks plaatsen en dan 1 grote harddisk voor hem gunstiger is.
Zijn een paar van huidige van 20TB dan niet veel voordeliger dan HAMR 30TB, als ook die 20TB's niet voldoende zijn dan moet je in mijn beleving tot gaan kijken naar externe opslag en dan maakt het niet zoveel uit of er 10 of 20 schijven in de hoek staan lijkt mij.
kijken naar externe opslag en dan maakt het niet zoveel uit of er 10 of 20 schijven in de hoek staan lijkt mij.
Daar ben ik ook al met hem mee bezig om extern te gaan werken net zoals ik zelf trouwens al een tijd hier een Fantec 4 bay dock heb staan via USB-C. Heb er 2 x 4 TB in en nog 2 x 1 TB harddisks ( oudjes ) maar dat werkt eigenlijk prima en vooral ook best snel voor harddisks dan. Ook wel handig bij deze 4 bay dock dat alle harddisks apart te benaderen zijn, dus zonder verder RAID.

[Reactie gewijzigd door Roel1966 op 23 juli 2024 21:30]

Een HDD degradeert wel degelijk als hij uit staat. Langer dan 5 jaar in offline storage is een risico. De drive zelf gaat dan niet meteen "kapot" maar de data die opgeslagen is wel.
Hiervan heb ik nog niet gehoord en zelf ook eigenlijk niet meegemaakt met oude harddisks maar wel goed om te weten. Maar bij een ssd schijnt het zo te zijn dat de cellen degraderen en na een bepaalde tijd de ssd niet meer te gebruiken is. Dus tja, een harddisk kan je dan wel nog gebruiken, hetzij dan wel dat je die dan opnieuw moet formatteren.
De schijven eens in de zoveel tijd ff online gooien en er een check op draaien lost het wel op, dus een echt probleem is het (nog) niet. Als je dat doet is het buiten de mogelijkheid dat ze een interface gebruiken die niet meer bestaat, iets van 60+ jaar retentie als er geen mechanische defecten optreden.
Als je echt volledig offline storage wil dan pak je tapes en maak je daar eens in de 20-25 jaar een nieuwe backup van. Ik heb nog een stapeltje QIC-250 tapes die prima werken bijvoorbeeld, kwam ik een tijdje terug tegen. Ff bezig geweest een wat ouder systeem aan de gang te krijgen met de drive maar verder geen probleem. De hele stapel overgezet naar een enkele LTO tape en klaar :P
iets van 60+ jaar retentie als er geen mechanische defecten optreden
Ik denk dat geen enkele ssd het zo lang volhoud althans, vraag mij af of dit wel al eens getest is ?
Ik heb nog een stapeltje QIC-250 tapes die prima werken bijvoorbeeld,
Ik heb wel vroeger een tapedrive in de pc gehad maar deed er eigenlijk weinig mee. Weet eerlijk gezegd geeneens meer welke ik had.
Heb nu 33TB in huis maar zou fijn zijn om over te gaan naar enkel 2 schijven van 30TB. Bespaard mooi wat energie! Kom maar op met de schijven van 30TB

Resilveren van de ZFS pool gaat wel een week duren maar oké.

[Reactie gewijzigd door osmosis op 23 juli 2024 21:30]

Hoe lang acties gaan duren of hoe traag het allemaal wordt is tegenwoordig steeds meer afhankelijk van de vulling van de systemen. Als ik een 30 TB disk maar met 4 TB vul, dan hoef ik ook maar 4 TB te testen. Volgens mij gaat ZFS daar veel beter/netter mee om dan het gemiddelde raid systeem.
Zeker! ZFS is wat dat betreft een verademing. Echter op dit moment heb ik ongeveer 18TB aan data. Gaat wel even duren. Maar het mooie is aan ZFS het is nog steeds beschikbaar ondanks array degradatie terwijl het de nieuwe schijf initialiseert
Dit is een kwestie van tijd dat schijven afsterven. Voor de consument is het nog niet beschikbaar maar ik zie in de storage wereld al SSD's met 49 TB. Rebuilden is daar ook geen probleem omdat het flash is.
Voorlopig zijn reusachtige magnetische harde schijven nog vele malen goedkoper dan reusachtige SSD's. En de trend naar steeds meer bit per cel (QLC) beperkt het aantal keer dat data op deze SSD's herschreven kan worden. Dus ik zie voorlopig dus nog wel scenario's bestaan waarin HDD's de beste oplossing blijven.

[Reactie gewijzigd door Tyrian op 23 juli 2024 21:30]

Dat is simpel op te lossen met software en caching. Daarnaast kunnen drives ook steeds meer hebben. Voor grote hoeveelheden data wordt het iig steeds minder interessant om zulke grote drives te gebruiken.
Juist niet, het aantal writes per cel loopt steeds meer terug.

Je kan daar wel slim tegen wear levellen maar dat houdt ook een keer op. Bovendien, als long-term storage zijn SSD's minder geschikt omdat de data daar iets van 1x per jaar gerefreshed moet worden.
Dat heeft enkel te maken met steeds meer spanningsniveaus in een cell. Dat wordt uiteindelijk beter naarmate er ontwikkeld wordt.Daarnaast gaat de betrouwbaarheid hard achteruit met slechte software en gebrek aan caching. Er zijn inmiddels genoeg professionele apparaten die prima overweg kunnen gaan met QLC en waar je niet elke week een nieuwe drive in moet stoppen. Ook kun je prima long term storage op flash zetten. Data scrubbing is ook nodig met traditionele disken en dus niets specifieks voor SSD.
Harddisks zitten langzamerhand in het terrein dat het zelfs voor die hard computer-hobbyisten, een capaciteit heeft die niemand redelijkerwijs meer gebruikt.
Mijn 18x16TB unraid server raakt anderd al aardig vol.
Dat zeg ik. Zelfs die-hard computerhobbyisten hebben redelijkerwijs niet meer nodig inmiddels.

Op dit item kan niet meer gereageerd worden.