Sandisk werkt aan petabyte-ssd's, releasedatum is nog niet bekend

Sandisk heeft tijdens zijn jaarlijkse investeerdersbijeenkomst plannen onthuld voor ssd's met capaciteiten tot één petabyte. Een concrete releasedatum voor de drives is nog niet bekendgemaakt.

De doelstelling moet mogelijk gemaakt worden door een nieuw platform met de naam UltraQLC. De technische basis daarvan wordt gevormd door een controller met 64 nandkanalen. Deze component bevat hardwareaccelerators die opslagfuncties van de firmware overnemen, wat de latency verlaagt en de bandbreedte verhoogt. Een busmultiplexer moet het gebruik van de kanalen optimaliseren bij hoge datastromen. Het stroomverbruik wordt dynamisch aangepast aan de belasting.

Voor de opslagchips gebruikt Sandisk 3d-nandgeheugen. De eerste generatie UltraQLC-drives maakt gebruik van 2TB-chips en biedt een capaciteit van 128TB. Deze variant verschijnt later dit jaar. In de komende twee jaar volgt een uitbreiding naar 256TB en 512TB, waarna de petabyteversie moet volgen. Tom’s Hardware berichtte als eerste over de aankondiging.

Roadmap voor de petabyte-ssd van Sandisk
Roadmap voor de petabyte-ssd van Sandisk

Door Andrei Stiru

Redacteur

18-02-2025 • 08:55

111

Reacties (111)

111
111
48
3
0
51
Wijzig sortering
Zou er wel 2 van willen hebben, maar ik denk dat het budget wat ik er voor over heb niet toereikend is.
Ben wel benieuwd wat de prijs er van zal zijn en wat de prijs van de 8/16 TB ssd dan worden.
Die zijn nog best hoog, 8 TB is al 500+ euro.
Anoniem: 2158854 @Calamor18 februari 2025 09:06
Ach ja en over 20 jaar, liggen ze bij de Action. ;)
Dit soort bedragen werd in den beginne ook voor 1GB, 10GB, 1TB, etc gevraagd.
Uiteindelijk zakt de prijs. En worden ze betaalbaar voor de consument.
Toen ik met mijn XT pctje van 720kb naar 1.44MB ging was dat ook al heel wat.
Daarna kwam de 486 met een disk van wel 420MB! En dat ging zo door. Dit is in deze hoedanigheid dan ook een volgende logische stap in de evolutie van opslag. :)

Ben zelf vooral benieuwd van wat er ná de NVMe SSD gaat komen.
Kristal opslag? Zoals in Stagate te zien was? ;)
Ik denk niet perse dat het hier zo'n vaart gaat lopen voor persoonlijk gebruik. De groei van geheugen in de tijden van 1GB en 1TB, etc. was altijd een die voortkwam uit noodzaak; andere technologiën bleven groeien en vereiste meer opslag. Maar dat lijkt nu stil te zijn gevallen. De hoeveelheid opslag die we gebruiken is lang niet meer op dezelfde snelheid aan het groeien. We hebben nu nog misschien een push omdat video formaten naar 4K migreren, maar daarna? Smartphones gaan al niet boven 1440p behalve voor wat niches. Laptop en desktops lijken ook niet voorbij 4K te komen op wat niches na. En zelfs TV lijken geen apetijt te vinden voor hogere resoluties. Ook voor games gaat dit uiteindelijk stil vallen.

Op een gegeven moment stopt het. De groei in wat een acceptabele hoeveelheid RAM is, is ook meer dan een decenia lang gestagneerd op 8GB. Men is pas in de laatste 2 jaar beginnen over te gaan op "16GB is toch wel een beetje het minimum tegenwoordig". Ik denk dat we daar met opslag ook zijn. Hoelang komen de meeste PCs nu niet al uit met opslag van 1 of 2 TB max? Er is niet echt nood aan opslag van 1 PB.

Intressant voor datacenters en bedrijven, etc. Sure. Voor consumenten denk ik dat dit wel nog voor een langere tijd buiten bereik blijft, zowel wat nood als prijs betreft, dan dat 1TB of 1GB ooit zijn geweest.

[Reactie gewijzigd door Loller1 op 18 februari 2025 09:30]

De groei van geheugen in de tijden van 1GB en 1TB, etc. was altijd een die voortkwam uit noodzaak; andere technologiën bleven groeien en vereiste meer opslag. Maar dat lijkt nu stil te zijn gevallen.
Er komen veel van die anecdotes voorbij zoals een screenshot van Super Mario Bros. "Deze game was 32KB, deze screenshot is 240KB." of iets dergelijks. Optimalisatie is jarenlang niet echt een prioriteit geweest en je ziet nu dat dat wel meer gebeurd. Om in de gamingscene als voorbeeld te blijven: als ik op mijn Playstation 5 kleine indie games download dan vereisen de PS4 versies meestal meerdere malen zoveel opslag dan de PS5 versies.
Ik zie het vooral ook bij jonge(re) developers (ik ben 40). Opgegroeid met een overvloed aan Ghz, RAM, HD/SSD ruimte en bandbreedte. Een paar MB aan libraries includen voor slechts een enkele functie (die prima in native Javascript valt te maken in een paar regels) is geen uitzondering.

En bij andere talen wordt er echt veel te weinig in 'cores' gedacht en niet parallel gewerkt. De GHz nemen niet zo hard toe, het aantal cores wel. Daar moet eens wat meer gebruik van gemaakt worden (net zoals SIMD of GPU)

Overigens was SIMD ook voor mij een openbaring een paar jaar geleden. En het is prima te gebruiken in bijvoorbeeld C# :).

En ja, een paar GB tekst parsen (of iets anders semi triviaals) kan in een tiental seconden op een core. Maar moet je eens zien wat je voor elkaar kan krijgen als je even een halfuurtje goed kijkt naar wat je algoritme doet. Soms optimaliseer ik bepaalde code naar een fractie van de originele (ook mijn eigen) implementatie. Of geheugenoptimalisatie door even goed na te denken hoeveel bits je nou echt nodig hebt.
De meeste javascript frameworks kunnen daar tegenwoordig prima mee omgaan en gebruiken alleen de nodige code uit de library. Tuurlijk kost het nog altijd meer dan het zelf schrijven, maar tijd is geld en dat geld ga je niet terug verdienen door een paar KB te besparen op client side code.
Onderzoeken hebben uitgewezen dat het "zelf schrijven kost nog altijd meer tijd" een gigantische misconceptie is. De tijdkosten zijn ongeveer gelijk, enkel verschuift waar die tijd aan gespendeerd wordt.

Bij het gebruik van maatwerk code, wordt deze ook vaak goed begrepen, gerecycled en zit hoe de code werkt vaak in het geheugen van de developers vast. Ze weten precies wat er gebeurt en typen het vaak uit zonder alteveel na te denken. Daarnaast werken veel zaken met dezelfde principes (al helemaal binnen eenzelfde bedrijf) en wordt deze code erg veel gerecycled.
De leercurve van nieuwe developers ligt dan wat hoger en dat kost wat meer tijd, maar aan de andere kant blijven deze developers belangrijke kennis bij zich dragen en kunnen ze met bijna alles werken onafhankelijk van gebruikte frameworks en libraries.

De tegenzijde, en waarom de tijd met frameworks en libraries praktisch gelijk speelt, en soms zelfs meer tijd in beslag neemt;
1 ) Je code is afhankelijk van partijen van 3e. Veel libraries zijn afhankelijk van anderen en wanneer er één updatet, moet er vaak een hoop mee. Dit veroorzaakt veel tijdverlies in onderhoud, testen en minder snel kunnen schakelen.
2 ) Wanneer zaken veranderen, moet iedereen weer iets bijleren
3 ) Met frameworks en libraries gaat er enorm veel tijd verloren aan planning en communicatie binnen bedrijven. Wat gebruiken we hoe en wanneer, waar je met maatwerk vaak gewoon direct aan de slag gaat. Het overgrote deel van tijdkosten bij frameworks en libraries zit'm in het plannen en documentaties, demo's etc van said libraries en frameworks bekijken. Je wint gegarandeerd op tijd dat je aan het typen bent, maar verliest enorm veel tijd in "opstarttijd" en "een snelle fix maken".
4 ) Onderhoud. Een maatwerk product draait meestal gewoon als hij af is en daar hoef je dan zelden tot nooit meer iets aan te doen. Het is erg zeldzaam dat je veel onderhoud hebt met zelf geschreven functies. Daartegenover staat dat je met libraries en frameworks soms geforceerd moet updaten wegens zero-days, andere security issues of de eindeloze cirkel van dependencies waarbij je in een heel web van afhankelijkheden zit.
5 ) Niet zozeer "tijd", maar kosten. En tijd IS geld en daarom belangrijk; Omdat ze zoveel minder efficiënt zijn, kosten frameworks simpelweg gewoon aanzienlijk meer.

---
Mijn anekdotische ervaring; Ik ben een maatwerker en heb in mijn tijd wel wat libraries gemaakt die behoorlijk veel gebruikt zijn. Ook wel een aantal WordPress en Magento plugins enz.

Ik ben mild bevooroordeeld en dat erken ik, maar dat komt omdat letterlijk mijn hele klantendatabase (welke overigens enorm loyaal is) bestaat uit mensen die allerlei klachten hadden over hun systemen. Van torenhoge vaste lasten (servers, onderhoudspakketten) tot klachten van traagheid en zelfs complete server crashes en time-outs.

Ik vervang dan hun product altijd vrijwel 1-op-1, tenzij ze toch meteen iets nieuws willen, met maatwek. Tenslotte draait het product al en is al bekend wat ze willen en wat het moet worden (dit maakt het relatief makkelijk om iets te maatwerken zonder technisch/functioneel ontwerp natuurlijk). Meestal verdwijnen dan de klachten ook als sneeuw voor de zon.

Een concreet voorbeeld vanuit mij is een website met een database van bijna 2 terabyte, en vaste serverkosten van zo'n 2.5k per maand, waarvan de telefoon dagelijks roodgloeiend stond met klachten.

Ik heb dat hele project in een kleine maand omgezet naar maatwerk voor 20.000 euro.
De serverkosten zijn nu 80 euro per maand (en dat is overigens al overkill, ding heeft bijna geen load meer) en de database is nu 455MB, met een losse database voor archivering welke 1.5gb bedraagt.
De telefoon gaat gemiddeld nog 1 keer per maand over.
Deze rewrite was 6 jaar geleden. Tot dusver geen onderhoud meer aan gehad. Extra info; de website heeft zo'n 24.000 actieve gebruikers tussen 9u 's ochtends en 17u 's avonds.

ivm de verlaging van serverkosten heeft de maatwerk investering zich dus al zeker 7 keer terugverdiend.
Ik heb, als ik even terug kijk in mijn administratie, nog 12 werkuren gefactureerd aan deze klant over de hele 6 jaar.

Ja, ik ben bevooroordeeld, maar je maakt mij niet wijs dat je dit voor elkaar krijgt met frameworks en libraries. Korte-termijn en losse kleine websitetjes maak ik zelf ook graag zo kant-en-klaar mogelijk, maar complexe systemen, no thanks.

[Reactie gewijzigd door CapnCrinkle op 18 februari 2025 17:54]

Dat heeft meer te maken met optimaliseren voor HDD op de PS4 vs optimaliseren voor een SSD op de PS5 zou ik zeggen. Maar ja, van zodra games expliciet SSDs gaan vereisen en geen ondersteuning meer gaan bieden voor HDDs gaan zij zelfs hun opslagvereisten omlaag zien gaan.
Idd. Het lijkt qua ssd's nu te blijven steken op 1 en 2 TB. Mensen doen ook steeds meer met de cloud, niet alleen opslag, maar ook streamen waardoor je minder opslag nodig hebt. Jammer maar helaas voor de wat meer data hongerige mensen die graag een 4TB ssd voor een aardige prijs zouden willen, zoals ik.
Tja ik weet niet wat jij een redelijke prijs vind, maar je moet gewoon goed letten op de aanbiedingen.
Ik heb anderhalf jaar terug nog een Samsung 4TB gekocht voor 160 bij de mediamarkt tijdens black friday, dat vond ik zelf best een redelijke prijs.
(zie grafiek van prijsverloop onderaan de product pagina.)

Ik wil er graag nog 4tb bij, maar ik wacht wel weer even tot de prijs weer in een dal zit.
Bij native PC-games heb je als consument toch wel aardig wat opslag nodig. Een zeer populaire game als Call of Duty: Black Ops 6 kan bijvoorbeeld zomaar 300 GB innemen. Daarmee zou je net zes games op een 2TB-schijf kunnen installeren. Als deze opslagvereisten verder blijven groeien, verwacht ik dat 4TB- en misschien zelfs 8TB-schijven meer in het vizier komen voor consumenten.
Anoniem: 2158854 @Loller118 februari 2025 10:24
Ben ik niet helemaal met je eens. ;)
Cloud / Datacenters snap ik, maar als je grote hoeveel heden data (denk aan foto/video) daar in wil opslaan, dan betaal je een premium helaas. Net als ik 64GB in mijn systeem heb zitten. 16GB red ik het gewoon niet mee.

Voor het geld wat ze in de cloud op jaarbasis (al is het maar 1 jaar) durven vragen voor storage, kan ik flink wat opslag voor thuis kopen waar ik dan een aantal jaar mee vooruit kan en kan afschrijven. én daarbij nog een offsite replica/backup in stand kan houden.

Voor je vakantie kiekjes is het een ander verhaal, maar mijn usecase is toch wel anders. ;)
Reageer je op de foute? Ik zeg nergens dat 64GB genoeg is, laat staan 16GB.

En laten we ook absoluut niet vergeten dat Tweakers geen gewone gebruikers zijn in de eerste plaats.
Idd. Ik heb ook 64GB en 2 Ssd's 1 van 2TB en 1 van 4 TB in mijn laptop zitten
Is toch totaal niet relevant wat jouw use cases zijn als het gaat om prijsvorming van producten die echt niet massaal gemeengoed gaan worden? Dat er consumenten zijn die het goed kunnen gebruiken maakt niet dat er massa markt consumenten prijzen zullen ontstaan op middellange termijn.
De belangrijkste snelheids-/ruimtebeperking voor een huis-tuin-en-keukengebruiker wordt volgens mij tegenwoordig bepaald door diens internetabonnement. Dat is denk ik een belangrijke rem op schijfruimte voor persoonlijk gebruik. Opslag is vooral iets geworden wat datacenters graag zien groeien
Er is zeker wel een markt, de komende jaren voor groter en meer. Maar alleen niet voor ons op de lange termijn. Waarom zou bedrijf bezit van data commercialiseren wanneer bedrijf mogelijk veel meer kan verdienen aan controle over data waar jij alleen bij kunt als wij dat a) goed vinden en b) je maandelijks meer gaat betalen en c) als ik geld had kocht ik Micron/WD/HGST/Crucial/etc op.
Ach ja en over 20 jaar, liggen ze bij de Action. ;)
"In verleden behaalde resultaten bieden geen garantie voor de toekomst"

In de komende 20 jaar gaat het niet zo snel als in de afgelopen 20 jaar..
Sterker nog, de afgelopen jaren lijkt NAND nauwelijks in prijs gedaald.
Hetzelfde zie je bij CPU en GPUs.

[Reactie gewijzigd door Olaf van der Spek op 18 februari 2025 09:40]

Het gaat vaak in golven... Ik heb 2,5 jaar geleden een 2 TB SSD gekocht voor net geen 200 euro en dat was toen een erg goede deal (prime day). Een jaar later was een 4 TB SSD die het in de meeste testen wint van de mijne rond de 200 te krijgen... De prijzen zijn daarna helaas weer wat gestegen maar alsnog is de prijs per GB nu flink beter dan 2,5 jaar geleden. Het is moeilijk te zeggen natuurlijk wat er in de toekomst gaat gebeuren maar uit de recente geschiedenis van prijzen zou ik nog niet gelijk stagnatie concluderen.
De technologische rek is er wel tamelijk uit. Meer dan 4 bits per cel lijkt niet echt haalbaar (en als het er vijf zijn maakt dat ook weinig uit) en verkleining van de cellen van Flash is nauwelijks mogelijk. We stapelen nu >100 lagen op elkaar, maar nog veel meer lagen zullen de kosten niet veel drukken.

Ik ben eerder blij dat de min-of-meer stagnatie komt op een moment dat we zo een overvloed aan flash voor een relatief zachte prijs kunnen krijgen. Ik heb een enorme hekel aan magnetische harde schijven :)
20 jaar is wel ver vooruit. Geef het 10/15 jaar.

MicroSD-kaarten van die capaciteit minstens 15 jaar ;)
Maar ik weet nu al dat ik over 20 jaar niet degene wil kopen die bij de action liggen. (referentie aan slechte kwaliteit micro sd die ze nu hebben)
Memmories: doet mij denken aan mijn eerste 1gb schijf, een hele grote vakantie een bijbaan gehad om 650 gulden te verdienen om deze te kunnen kopen, toen was volgens mij rond 100-200mb de standaard.
Joh, hoeveel heb jij nodig??
Die tijden van krapte zij definitief voorbij.
Over 20 jaar ligt bij de action hetzelfde als nu.
Yep mijn duurste HDD was ooit een Quantum 52Mb voor Hfl 960.--
Nu koop je een usb stickie voor een dubbeltje (€ 0,04) de GB ;)
Ik weet niet welke prijzen ze gaan vragen maar het zou me niets verbazen als je er EUR > 50.000 per stuk voor moet neertellen.
Wie het weet mag het zeggen. Die 1 PB zou ook zomaar een ton kunnen kosten.
Pak 'm beet 8 jaar geleden heb ik gewerkt aan een 20 PB opslag (astronomische data)
Toen kostte een PB ruwweg 100k euro.
Dat ging in 4U Dell boxen met 5 lades van 12 drives van 10 TB. (dus 600 TB bruto opslag per 4U)
Rijtje van 4 van die dingen + 6U aan servers + switch om het te managen.
Dat was ruwweg een half rack qua hoogte voor 2 PB opslag en kostte ongeveer een ton per PB aan hardware.
Veel meer paste er niet in 1 rack op die locatie vanwege beperkte koel-capaciteit.

Zo'n systeem haalde wel ongeveer 7 GByte/s lees/schrijf-snelheid continue.
Dit was met allemaal SAS schijven.

Ben best wel benieuwd wat het formaat en stroomverbruik gaat zijn van 1 PB aan flash en vooral ook naar de interface en interne organisatie van de opslag van die data.
Voordeel is wel dat je de schrijf-acties kunt verdelen over veel chips en dus hopelijk de warmte-ontwikkeling een beetje kunt beperken.

Als je een significante reductie in stroomkosten en rack-space kunt reduceren, dan zou het maar zo een behoorlijke duit mogen kosten en toch kosten-effectief blijven.
Probleem blijft alleen wel hoe je de dataredundantie kunt garanderen.
Bij zo'n 240 drives uit mijn voorbeeld is met erasure-code de boel makkelijk redundant genoeg kunt houden om uitval van enkele drives te ondervangen.
Bij PByte per unit is het al een stukje lastiger, tenzij je eigenlijk oneindig veel opslag nodig hebt en alleen maar beperkt bent door rackspace en budget. (Wat ik bedoel te zeggen is dat wanneer je "maar" een paar PB opslag nodig zou hebben, je de overprovisioning in grote stappen moet doen)
Een SAS HDD array is wel heel iets anders dan een enkele SSD van 1 PB. Leuke anekdotes dat wel maar verder is het natuurlijk appels met peren vergelijken. Ik mag trouwens hopen dat die SSD een 16 lanes PCIe 5.0 interface krijgt omdat alles minder dan dat voor mijn gevoel weinig zin heeft. Je wilt natuurlijk wel een beetje rap je data kunnen doorvoeren.
Qua doelgroep en budget is het zeker geen appels met peren vergelijken.
Feit is dat de kosten van een PB aan storage in al die jaren amper goedkoper geworden is.
Hooguit neemt het nu minder ruimte in een rack in en zijn daardoor de kosten bovenop de prijs van de schijven per PB wat afgenomen.
Maar het zou mij verbazen als de prijs van een dergelijk array met huidige grootte van drives meer dan een factor 2 per PB lager is geworden.
De prijs per TB van harde schijven is namelijk niet echt heel veel lager geworden.
Ik vermoed dat de grootste daling in kosten zal zitten in de inflatie.

Oftewel dan zit je nog steeds aan minimaal een aantal 10k euro per PB voor een SSD en dan zit je dus sowieso in dezelfde doelgroep-markt.
En naast die ene SSD komt er nog heel wat bij kijken, alleen zou het nu mogelijk in 1U passen per PB.
Of misschien zelfs nog wel minder.
En ook aanzienlijk minder stroomverbruik.
Dus als je alleen al op stroomverbruik en rack-space kunt besparen, dan mag een 1 PB SSD 50k per stuk kosten en dan nog is het een stuk goedkoper dan een disk-array, wat op dit moment het enige haalbare is voor grote volumes aan enigszins betaalbare opslag (tape uitgezonderd)
Een PB HDD oplossing vergelijken met een PB SSD oplossing is appels met peren vergelijken. HDD's zijn een volstrekt ander product dan SSD's. Ik denk dat de eerste 1 PB SSD aanmerkelijk meer zal kosten dan 50 k. Ik verwacht minimaal het drievoudige als het niet meer is. De prijs is vaak ook ingegeven door de besparing die een klant ervaart. Bespaart de klant 500k dan kan die SSD zonder problemen een prijskaartje krijgen van 250 k. De oplossing is dan immers nog steeds goedkoper dan wat de competitie kan leveren.
Voor ca 300 euro heb je nu een 16TB HDD. Dus voor ca 18k heb je 1PB. Grotere schijven zijn naar verhouding duurder en SSDs zijn in deze grootte minimaal factor 2 (tot 10) duurder dan HDDs. Ik denk niet dat je voor 50k een 1PB SSD hebt.

Alleen: 60HDDs kost behoorlijk wat ruimte (minimaal 4U). Met SSDs heb je minder ruimte en minder energieverbruik. Dat telt ook mee in de TCO.

[Reactie gewijzigd door kdekker op 18 februari 2025 09:38]

Een HDD is natuurlijk niet te vergelijken met een SSD. Het zijn compleet andere producten met ieder hun specifieke toepassingsgebied. Het zou mij verbazen als de eerste 1 PB SSD voor minder dan EUR 50.000 van eigenaar wisselt. Het zou zomaar drie keer zoveel kunnen zijn.

In de eerste plaats vanwege de waanzinnig complexiteit om zo'n product te maken. Zelfs met een waanzinnig goede yield heb je nog steeds enorm veel ongeschikte componenten. Ik neem ook aan dat er minimaal een 25% over provisioning op zit, dus technisch gezien is die SSD waarschijnlijk 1,25 PB. Dat kost alles bij elkaar serieus veel geld.

En ten tweede, ook niet onbelangrijk, bij dergelijke enterprise producten betaalt de klant niet zozeer wat het kost om het product te maken maar bepalen de besparingen die de klant ervaart mede de prijs van het product. Gaat deze oplossing de klant EUR 500.000 besparen dan is het doorgaans geen probleem dat het product een prijskaartje heeft van EUR 250.000. De klant bespaart er immers geld mee.
Dat zegt ie ook. €50/Tb (terabit) komt uit op €400.000,-. :o
€50/TB is 50.000,-.

edit:
Fixed typo n.a.v. de correctie van @J2S vv :)

[Reactie gewijzigd door Room42 op 18 februari 2025 15:54]

To be more pedantic:
Terra is de aarde.
Tera is 10^12.
Hetzelfde hier. Ik denk echter dat er te weinig vraag is bij consumenten naar SSDs groter dan een paar Tb: mensen kopen niet zovaak meer een desktop, SSDs in laptops zijn vaak niet meer te vervangen en edereen heeft alles in de cloud staan. Je blijft dan uitkomen bij enterprise spul met daarbij behorende prijs...
SSDs zijn volgens mij nog vaker wel dan niet te vervangen in laptops. Die van HP en Dell bij ons op de zaak in ieder geval wel. Dat zijn gek genoeg m.2 2230 in een slot waar wel gewoon een 2280 in past.

Al zullen deze nieuwe chips op een 3.5" server drive zitten gok ik zo.Hopelijk zal deze tech ook het QLC memory robuuster en sneller maken.
Hoe zou dat komen?
Prijzen dalen niet meer.
En voor de meesten is 1tb wel genoeg mits men nog een HDD heeft voor storage.
Die zijn de helft goedkoper per TB, al zakken die ook al lang niet meer in prijs.
Prijsafspraken?
Dat legt niet uit waarom HDD's niet dalen in prijs.
En dat je met een minimale productie kost zit wil ik wel begrijpen.(behuizing, transport, grondstoffen, marketing)
Maar we zitten nu toch al enkele jaren met 4TB HDD's van om en bij de €100.
Je zou denken dat die minimum prijs wel blijft, maar dat de capaciteit stijgt door een extra patter er bij te wippen.
Maar idd, gezien nand geheugen niet daalt hebben ze geen reden om spinning storage te doen zakken.
En NAND zal niet dalen gezien ze gezamenlijk de productie terug schroeven om de prijs hoog te houden.

Dus: prijsafspraken
Ik weet niet wat een schijf van 256tb kost, wat ik wel weet is dat een storage unit (van een gerenommeerd merk) met 24 'disken' kost ongeveer 250.000 dollar kost. Daarvoor krijg je 24 'disken' van ongeveer 140tb effectieve opslag capaciteit per stuk. Als je dat even doortrekt, kom je met 24 'disken' in het gehele systeem op rond de 3.3 petabyte uit aan effectieve opslagruimte (zonder raid). Dus ongeveer 75 dollar per terabyte. of 600 dollar voor 8tb, komt aardig in de richting van de 500 euro die een 8tb consumentenschijf kost
Dat is eigenlijk waar ik al jaren op wacht, SSD's met een lage prijs per GB/TB... de focus lijkt vooral op steeds sneller te liggen, maar ik zou al heel tevreden zijn met SDD's puur voor opslag met een snelheid van circa 1000~1200MB/s die de prijs van HDD's gaat benaderen.
Wat voor data heb je dan dat je 2 PB aan data wilt opslaan ?
Zoveel heb ik niet nodig. Het is meer een droom om te kunnen zeggen dat ik 1 PB aan opslag heb.

Aan 8 TB heb ik wel genoeg voor nu.
Die 2 PB zou dan wel in Mirror gezet worden en dan heb je 1 PB aan opslag.
Het voordeel is wel dat de backups niet meer verwijderd hoeft te worden.
Op mijn ZFS opslag worden er dagelijkse backups gemaakt en die hebben een leeftijd van 2 maanden.
Dan kunnen ze dan op onbeperkt gezet worden.
Die zijn nog best hoog, 8 TB is al 500+ euro.
Als dat al zo duur is wil ik niet eens weten hoeveel 128, 256 of 512 zoals in het plaatje vermeld staan kosten, laat staan een petabyte. Zo te horen is dit meer voor de professionals, bedrijven en datacenters etc. Denk dat een petabyte voor een consument ook wel overkill is.
Ik neem aan dat dit soort SSD's voor professioneel gebruik (Server) bedoelt zijn?

Ik kan me als 'gewone' gebruiker niet voorstellen dat ik dat ooit nodig zou hebben (laat staan vol zou krijgen)
Kan me beginjaren '90 nog herinneren... Een CD-ROM? 640Mb? Hoe krijg je dat ooit vol?

Kan me herinneren dat een vriend van me een paar jaar later een harde schijf van 1 gigabyte kocht. Waanzin! Waar heb je dat ooit voor nodig?

Geloof me... je krijgt die petabyte echt wel vol.
Geloof me... je krijgt die petabyte echt wel vol.
Hoe ? Ik snap niet dat je een +2 krijgt, zonder te staven wat je op 1PB kwijt zou moeten kunnen. Dat is 1024 TB, daar kunnen bvb met gemak meer dan 30.000 4K films op. Daar kan ook ruim 1000 keer heel Wikipedia op.
En vergeet ook niet dat als het over belangrijke data zou gaan, je die ook nog eens ergens moet zien te backuppen.
Ik dacht ook nooit 4TB op te krijgen maar moet nu door mijn fotografiebedrijf elk jaar een nieuwe kopen. Het kan hard gaan hoor! :)
Daar zeg je het: fotografieBEDRIJF. @Jurgen1965 had het over gewone gebruiker, wat dan door @alexbl69 zogezegd weerlegd werd. Maar zelfs jij met je 4TB zit nog altijd een factor 250 onder de PB.
Maar zelfs jij met je 4TB zit nog altijd een factor 250 onder de PB.
Hij zegt niet dat ie maar 4TB heeft, hij koopt (dat?) elk jaar bij, al dacht ie 4TB nooit vol te krijgen...

Verder wel eens hoor, 1PB is enorm en normale (consumenten) usecases zullen schaars zijn...

[Reactie gewijzigd door watercoolertje op 18 februari 2025 09:57]

Ok, dan nog kan hij 250 jaar voort ;).
Gezien niemand (behalve hij) weet hoeveel hij er precies heeft, dus niemand anders kan je een uitspraak doen over zijn gebruik. Sowieso geen 250 jaar want hij heeft er al wel 1 :9

Daarnaast is het nogal naïef om zo lineair te denken, alsof je over 5/10/20 jaar nog steeds dezelfde bestandsgroottes hebt als nu, dat zou totaal niet logisch zijn gezien dat tot op heden altijd gegroeid is...

Punt is we weten het niet, en 1PB is nu voor de meeste heel veel, maar hoe we daar over 10 jaar over denken weet helemaal niemand!

[Reactie gewijzigd door watercoolertje op 18 februari 2025 10:19]

Ik merk aan mezelf dat ik aan mijn (nieuwe!) 2 TB 990 Pro niet eens genoeg heb. Kleine anecdote incoming:

Regelmatig ben ik thuis bezig met machine-learning en gerelateerde zaken. Zo doe ik bijvoorbeeld video's van 24fps interpolaten naar een hogere framerate zoals 120fps. Kwaliteit verschilt nogal per shot, en dit is ook meer voor de lol, maar dat terzijde. Een 1080p video van 45 minuten is al snel 65k frames. Die moet ik allemaal extracten en interpolaten. Het resultaat: een kleine 400k PNG bestanden van 1-4 MB. M'n 2 TB 990 kan dat nog nét aan, maar gezond voor de SSD is het niet (TDW is 1,2 PB).

Probeer je dit grapje met 4K films van 2-3 uur, dan heb je misschien 16 of 32 TB aan SSD storage nodig. Voor één film! Gezien de vele data is een grote buffer en héle hoge TDW een must, waardoor je al snel naar deze nieuwe 128/256/512 TB drives zou moet kijken. Dus dat is tenminste één voorbeeld van een usecase.
Hoe ? Ik snap niet dat je een +2 krijgt, zonder te staven wat je op 1PB kwijt zou moeten kunnen.
Sorry, maar dat riekt wel erg naar een "ik zie geen werkelijke usecase" argumentatie.
Misschien dat alex wel erg bezig is met video's te maken.
Daar kan ook ruim 1000 keer heel Wikipedia op.
Volgens Wikipedia zelf staat er 26.455 GB aan totale content op Wikepedia
En vergeet ook niet dat als het over belangrijke data zou gaan, je die ook nog eens ergens moet zien te backuppen.
Mocht je Windows desktop OS kunnen gebruiken op het device waar je deze 1 PB in stopt dan zou je gebruik kunnen maken van Backblaze met onbeperkte opslag.
Wel desktop gebruiken, want voor Server OS moet je wel betalen voor de gebruikte opslag. ;)
Sorry, maar dat riekt wel erg naar een "ik zie geen werkelijke usecase" argumentatie.
Misschien dat alex wel erg bezig is met video's te maken.
Hij geeft eerst voorbeelden die aantonen dat claims van vroeger vandaag de dag door niemand meer ondersteund zouden worden. Die claims waren toen al redelijk idioot, want stellen dat je met 1 CDROM genoeg hebt, terwijl het letterlijk 1 muziek-album kan bevatten, toont al hoe kortzichtig dat was.

Dus zijn claim gaat helemaal niet over niche use cases. Maar zelfs als je niche gaat, moet je toch al serieus ver gaan zoeken om iets te hebben aan 1PB. Zelfs als amateur video-editor heb je normaliter geen PB aan storage nodig.
Ten eerste: ik ga natuurlijk niet zelf over de plusjes :)

Maar serieuzer: kijk eens naar de grafiek op deze site: https://www.securedatarec...log/hdd-storage-evolution

Het stijging is redelijk lineair. De afgelopen 60 jaar hebben we dus elke 20 jaar een 'verduizendvoudiging' van de opslagcapaciteit gezien.

Wat er op die petabyte schijven van de toekomst wat zoveel ruimte nodig heeft komt te staan? Ik heb werkelijk geen idee.

Maar dat wist ik dus ook niet toen ik medio jaren '90 iemand die een 'gig' kocht voor gek verklaarde, of toen ik ergens in de '2000' een TB kocht en dacht voor altijd klaar te zijn.

Zou ook verwachten dat met de groei van online de lokale opslagcapaciteit minder relevant zou worden. Maar tot nu toe blijkt dat niet uit de data.
Maar serieuzer: kijk eens naar de grafiek op deze site: https://www.securedatarec...log/hdd-storage-evolution
Dat gaat gewoon over de evolutie van de capaciteit. Dus een beetje in lijn met dit Tweakers artikel. Het zegt werkelijk niets over de noden van thuisgebruikers.
Wat er op die petabyte schijven van de toekomst wat zoveel ruimte nodig heeft komt te staan? Ik heb werkelijk geen idee.
Voila, daar zeg je het. Je moet echt al heel ver gaan zoeken naar onrealistische voorbeelden als ettelijke duizenden 4K films of videogames, databases vol calculated data (op zich al behoorlijk niche), enz... En je kan natuurlijk ook gaan overdrijven, door -ik zeg maar iets- bvb elke laptop/PC bij je thuis elke maand te imagen zodat je per maand tot een paar TB aan images creëert. Dan heb je na een tiental jaar inderdaad wel een PB aan data, maar dan vraag ik me af wat je nog gaat doen met je image van 107 maand geleden vs die van 106 of 108 maand geleden.
Uncompressed je hele bluray/dvd/cd collectie, alles wat je koopt op bv GOG als backup. En verder alle (illegale) films/series die je download. Maar verder zou ik het ook niet weten. Zelf kijk ik wel uit naar 20TB variant om mn externe HDDs te vervangen.
In 1993 stond een game als 7th Guest al op twee CD-Roms, dus die verbazing viel best mee. Eind jaren '80 waren er al games die op CD-Rom kwamen waar de volledige ruimte al werd benut voor CD-kwaliteit audio.
In 1995 speelde ik Phantasmagoria was 7 cd’s, vet spel voor die tijd.
Een groot deel van de data verschuift naar de cloud. De groei van lokale opslag is al aan het afvlakken. Nieuwe pc's worden al jaren geleverd met een opslag van 512 GB of 1 TB.
Als je wilt kan een Tweaker of film verzamelaar een petabyte wel vol krijgen, maar dat is dan een verzamelaar van data die nauwelijks gebruikt worden.
Over 10 jaar wordt het misschien anders en gooien we alle compressie bijvoorbeeld overboord. Tot die tijd is het vooral professioneel gebruik.
Als je wilt kan een Tweaker of film verzamelaar een petabyte wel vol krijgen
Je onderschat hoeveel data dit is.

1 bluray is max 50gb laat ons dus het extreem max 50gb/film voor een complete purist.
Die kan dan 20 000 4k films daarop zetten, dat is meer dan dat er momenteel 4k films zijn (een 5000) . Tel er gewone dvd's bij (5gb) en je kan een collectie van 5000 4k blurays en 150 000 dvd's hebben.

Of ALL 4k films ooit gerleleased en de helft van alle dvd's ooit. eerder grote bibliotheek dan een tweaker :-)

Oh en dat is iets van een 30+ jaar non stop film kijken
Onderschat de Tweakers ook niet! Laat (voor de purist) de compressie voor beeld en geluid achterwege. Met 4000 pixels van 10 bits per beeldje loopt het datagebruik lekker op.

Maar een normaal mens krijgt een petabyte inderdaad niet gemakkelijk vol.
Laat (voor de purist) de compressie voor beeld en geluid achterwege.
Dat deed ik, ik nam de uncompressed bluray & dvd.
Compressed (av1/h265) kan je een veelvoud aan dit opslaan.
Met 4000 pixels van 10 bits per beeldje loopt het datagebruik lekker op.
Misschien idd iemand die dan zelf veel raw footage maakt maar dan moet je echt wel jaren van materiaal allemaal compleet uncrompressed moeten willen bijhouden. Betwijfel echt of dat veelvuldig voorkomt , zelfs op tweakers :-)
Mijn 2e PC had een 5,25" SCSI harddisk van wel 80MB. Jawel MB. Toen mijn medestudenten dat zagen was de opmerking: '80MB, wat moet je daar nou mee?". Letterlijk.

Mijn 1e PC was een commodore PC1 zonder HDD, met 5,25" drive en daar heb ik zelf een 3,5" drive bijgekocht.

Rond de jaren 90 had ik een Novell server draaien met een 1GB SCSI harddisk. Die ging op een gegeven moment kapot. Toentertijd was het een hele klus om die data te back-uppen.

Mooi tijden .

Nu heb ik een NAS met 140TB en zelfs dat is al aan de kleine kant.
Lijkt mij ook, echter vraag ik me af hoe slim het is om zulke grote SSD's te maken ten opzichte van meerdere kleine.
Een defecte chip op je printplaat is dan ineens een veel groter risico lijkt mij?
Er zijn een hoop standaardcomponenten die in elke drive moeten zitten. Die spaar je uit omdat die PB drive ze maar één keer nodig heeft. Zo heb je netto minder componenten en chips. Bovendien zou je ook voor hogere kwaliteit kunnen kiezen, en bijvoorbeeld investeren om reparatie of datarecovery makkelijker te maken.

Maar ik denk dat het gebruik niet anders wordt: Voor de zekerheid zet je die dingen toch in een RAID neer.
Voor de zekerheid zorg je voor een backup, niet RAID. RAID beschermd niet tegen heel veel dingen. Het enige waar RAID tegen beschermd dat een backup niet doet is "uptime garantie". Maar RAID beschermd al niet tegen het per ongeluk verwijderen van een bestand (in het scenario van uitval wellicht minder relevant). Maar ook een defecte PSU die alles sloopt, blikseminslag, diefstal, wateroverlast, ... geeft RAID geen enkele bescherming. Alleen een backup, op een externe locatie, beschermd dan.

En als je én zo'n grote opslaghoeveelheid hebt én uptime je lief is (zeker aangezien het herstellen van een PB vanaf ern backup ook wel even zal duren) zou je RAID kunnen inzetten om in ieder geval in het geval van uitval van 1 disk niet een lange, trage, restore vanaf backup te moeten doen. Maar als je maar het geld hebt voor 2 van dit soort drives zou ik toch een backup verkiezen over RAID. Tenzij de data je minder waard is, zoals "Linux ISOs", maar de vraag is of RAID het je dan wel waard is. Die ISOs kun je natuurlijk ook opnieuw downloaden en je hoeft dan niet die petabyte in een paar uur terug te hebben.
Laat dat maar fijn aan vader-tijd over.

Mijn eerste schijf was 40 MB en wist toen ook niet hoe ik die vol moest krijgen.
In die tijd hadden pc,s standaard te weinig geheugen en ging dat heel rap.
Ik had het over opslag, maar voor geheugen gold een beetje hetzelfde.
Dat het vroeger verhoudingswijs duurder was dat klopt.
een beetje game kost al snel 100 tot zelfs 200 GB dus ik zie zeker mogelijkheden.

ik maak een dikke rekenfout.

[Reactie gewijzigd door 4play op 18 februari 2025 09:31]

Als je met 200GB per game gaat rekenen, kan je 5000 games van 200GB opslaan op 1PB.
Weet vrijwel zeker dat er niet eens 5000 games bestaan, van 200GB.

Dit is echt geen SSD bedoeld voor de dagelijkse consument.

Vol krijgen kan wel, maar zelfs voor een gamer is dit way too much.

Ziet er ook naar uit dat zij inspelen op de demand van AI, en dat 1PB pas na '27 uberhaupt in te planning staat.
Ik gooi mijn getallen door alkaar
Ja, laat ons 5 a 10 duizend games installeren. Volgens mij zijn er niet eens zoveel games van +100GB gereleased (not even close).
Nou...
Ja steeds clean install van een game heb je gelijk maar vervolgens komen er update,s die eisen om x ruimte vrij te hebben om te kunnen installaren.

Het kan behoorlijk rap gaan hoor.
Ja, maar nogmaals, we spreken over grootte-ordes. Volgens mij onderschatten velen hier hoeveel 1PB wel niet is.
Zelfs mocht een game 1TB zijn, wat al compleet van de pot gerukt is, spreek je nog over 1000 games.
Volgens mij onderschatten velen hier hoeveel 1PB wel niet is.
Overduidelijk, en dan nog niet eens gesproken over hoeveel zo'n schijf wel niet mag kosten.

Er zal vast een dag komen dat 1PB de 'nieuwe' 1TB wordt, maar daar zijn we voorlopig nog ver vandaan, voor normaal, dagelijks gebruik.
Ik kan me als 'gewone' gebruiker niet voorstellen dat ik dat ooit nodig zou hebben (laat staan vol zou krijgen)
Haha, arrr, matey! I’d fill that up faster than a treasure chest on raid day! 🏴‍☠️
Vond het wel grappig nalufrank , waarom-1
LOL dat hoor ik als ouwe lul al decennia. ;)
Krijg het wel vol hoor, bespaar er zelfs heel veel abonnementen mee :+
't zal geen sata disk worden vrees ik...
Haha, dat dacht ik met mijn eerste 20MB HDD ook, die krijg ik NOOIT vol
Het verschil is dat 1 petabyte iets van een 20 jaar aan video kan bevatten @4k .
Zeker zullen de eerste versies alleen voor profesioneel gebruik zijn. Zelfs al biedt je constant data aan met 1Gbs, dan nog duurt het 100 dagen om hem te vullen. En zeker zal het over 20 jaar realistischer zijn voor thuisgebruik, maar wie kan er nu voorspellen wat de toekomst gaat brengen? Ik zelf denk niet dat de behoefte-groei van de afgelopen 20 jaar zich zal herhalen richting de volgende 20 jaar. Op het moment dat de extra informatie niet meer waarneembaar is voor ons mensen, zal het afvlakken.
Als iemand z'n hele leven (80 jaar) zou willen filmen in 4K (60fps) met een H.265 codering, zou die 715 PB aan opslag nodig hebben volgens Video File Size Calculator. 1 PB is dan dus een aardige stap in de goede richting. :)
Als ik zo om me heen kijk zijn mensen steeds meer bezig om zichzelf en/of anderen zo veel mogelijk vast te leggen op camera. Dus zo onrealistisch lijkt me dit niet.
Dus 16 uur(8 uur slaap) aan 4K video met AV1 codec @18mbps/24fps & 192kb mp3 geluid = 125GB per dag of 0.124 terrabyte
80 jaar = 29 200 dagen

Dus totaal aan 29 200*0.12434 = 3 630 terrabyte of 3.63 petabyte.
Idd realistisch :-)
Doet mij denken aan de film OniSciente uit 2020 op Netflix:
In een stad waar burgers dag en nacht worden geobserveerd, moet een techneute haar bewakingsdrone te slim af zijn om een moord te onderzoeken.
Black mirror heeft "The Entire History of You"
Waar je met een implant je hele leven opslaat en je die kan herzien.

Wel je hebt 4 petabyte nodig
Ook een hele goede! ;)
terrabyte
Ah, jij vindt dus onderwijl even nieuwe aanduiding voor opslagruimte uit? ;)

Terra = (de) Aarde. Ook een leuk medium om zaken op te slaan. Hoeveel Aardes opslag heb jij? :)
Het totale landoppervlak van de aarde is 148.940.000 km2. Als je daar 1 petabyte over verdeelt, dan krijgt elke vierkante meter zo'n 6,7 byte, omgerekend één bit voor elk stukje land dat nauwelijks groter is dan je smartphone.
Wie kijkt dat terug? De tijden van gezellig een avondje vakantie dia's kijken zijn ook al een halve eeuw geleden.
Wow een 1PB schijf... Met een 1gbps glasvezel lijn ben je 92 dagen nonstop aan het downloaden om een 1PB schijf te vullen. Dat zal voorlopig wel alleen in datacentra worden gebruikt.
Ik weet nog goed dat ik ergens in de jaren '90 naar de lokale computerwinkel ging en een toenmalig topmodel kocht met 1,2GB aan opslag en dat de verkoper zei dat ik nu voor altijd genoeg opslag had. :)
Het was ook 6 keer zoveel als mijn vorige schijf, maar zelfs die raakte vol met spellen als The 7th Guest, Doom, etc. :)
Iets recenter, zo ongeveer 2010 heb ik een nas gekocht met 4x2 TB om zo ruim 4 TB opslag te hebben. Met 2 externe disks van 1 TB op de usb voor offline opslag buiten de deur werkt dat nu nog steeds (net aan). Dat is dan voor mijn privé gegevens en vooral foto's en video's.

Met deze peta-byte opslag kan dat dus 1000 keer worden opgeslagen. Hoe lang duurt zo'n backup? en een eventuele restore? (en waar stond dat ook al weer....)
Weer terug naar vroeger waar je sneller je schijf uit kon lenen en terug krijgen dan de datatransfer via internet/lan laten lopen :+
onderschat nooit de bandbreedte van een vrachtwagen met harde schijven/ssd/gelijk welke opslag die data naar de andere kant van Europa moet brengen
De bandbreedte van een vrachtwagen is tussen de 17, 5 en 22 inch....

\m/\m/
Je kunt ook de helft van de capaciteit van de SSD effectief gebruiken en hiermee de levensduur verdubbelen. Dat lijkt me een slimmere usecase... :)
is er dan een probleem met ssd levensduur?
Jazeker, inherent aan de techniek. Al wordt daar met slimme controllers wel veel beter mee omgegaan dan een jaar of 10 terug..
Zowat hdd als ssd werken een 5 a 10 jaar.
De ene hangt meer af van de tijd de andere hoeveel je gebruikt. Zie niet echt een issue met beiden.
Vraag me af of ze bij deze SSD's ook een soort hardware redundantie inbouwen, zodat een defect aan een van de controller(s)/nandkanalen/hardwareaccellerators/flashchips niet gelijk betekent dat je al je data kwijt bent. 128TB+ dan hebben we het wel over flinke hoeveelheden. Zover ik weet is fysiek herstel van SSD's lastiger dan de ouderwetse HDD's.

Ja, je kan natuurlijk meerdere SSD's in een RAID variant plaatsen, maar dat is ook geen garantie. En een backup van deze hoeveelheden maken wordt ook steeds spannender.

[Reactie gewijzigd door Miesepies op 18 februari 2025 11:35]

1 Petabyte tot je het installeert en merkt dat er maar 930Terabyte beschikbaar is :+

[Reactie gewijzigd door Nuke777 op 18 februari 2025 19:58]

Je bedoelt 909 Terabyte.

10^15/2^40 = 909.49...

Het verschil wordt groter naargelang je omhoog gaat in de prefixen.
Zit mij we zo af te vragen hoe het zit met levensduur van dit soort ssd's ten opzichte dan van de nog conventionele harddisks. Vooral denk ik dan aan langdurige opslag van veel data en dan in hoeverre ssd's dan nog betrouwbaar zijn qua vasthouden van data.

Op dit item kan niet meer gereageerd worden.