Corsair brengt 4TB-variant van MP510-ssd met m2-formfactor uit

Corsair voegt een 4TB-uitvoering toe aan zijn serie MP510-ssd's. De hoogste capaciteit in die serie m2-ssd's was tot nu toe 1,92TB. De nieuwe ssd staat bij webwinkels voor prijzen van ongeveer achthonderd euro.

Corsair heeft de 4TB-versie van de MP510-ssd nog niet op zijn eigen website gezet, maar verschillende internationale webwinkels hebben de ssd met productnaam CSSD-F4000GBMP510 opgenomen in hun listings. Meer fabrikanten verkopen 4TB-ssd's, maar dat gaat veelal om 2,5"-modellen. Op het moment van schrijven staat er alleen een m2-ssd met die capaciteit van Sabrent in de Pricewatch.

De 4TB-variant van de MP510 gebruikt dezelfde Phison PS5012-E12-controller als de andere ssd's in de serie. Corsair kondigde de MP510-ssd's eind 2018 aan; de grootste versie was toen 1,92TB. De MP510-ssd's tot nu toe gebruikten 3d-tlc-nand met 64 lagen, de nieuwe 4TB-versie is voorzien van nandgeheugen dat uit 96 lagen is opgebouwd.

Corsair Force MP510-ssd

Corsair Force MP510-ssd's
Capaciteit 240GB 480GB 960GB 1920GB 4TB
Formfactor M2-2280, pci-e 3 x4
Controller Phison PS5012-E12
Nandgeheugen Toshiba BiCS3, 256GB 64-laags 3d-tlc 96-laags 3d-tlc
Seq. leessnelheid 3100MB/s 3480MB/s 3480MB/s 3480MB/s 3480MB/s
Seq. schrijfsnelheid 1050MB/s 2000MB/s 3000MB/s 2700MB/s 3000MB/s
Random read 180.000iops 360.000iops 610.000iops 485.000iops 580.000iops
Random write 240.000iops 440.000iops 570.000iops 530.000iops 680.000iops
Prijs Onbekend Onbekend Onbekend Onbekend Onbekend

Door Julian Huijbregts

Nieuwsredacteur

03-06-2020 • 11:31

89

Reacties (89)

89
81
31
6
0
36
Wijzig sortering
Is het dan niet goedkoper om 2x de 2TB versie te kopen? Uiteraard moet je moederbord dan wel over 2 M.2 slots beschikken.
Ik denk dat bij veel storage op nVME de manier waarop het benaderd wordt (PCI-E lanes) belangrijker kan zijn juist om die absurd lage latency te genereren. Direct vanaf de CPU, of achter een PCH die zelf slechts 4 lanes krijgt vanaf de CPU, en achter die 4 lanes alle I/O en alle andere devices (USB, geluid, andere controllers) ook moet aansturen.

Bij TR1 en TR2 (x399) had je het probleem bovendien ook nog dat een lane van eigenlijk een losse NUMA-node kon komen, wat zeker nét zo funest kan zijn.

Het probleem wat nVME kan introduceren in veel situaties (zeker als je niet rechtstreeks op de CPU zit) en dingen met storage spaces gaat uitvoeren waar overhead er in komt... en dat er een hoop interrupts gedaan worden op de PCI-E infrastructuur van een PC, en ineens zijn we weer in een wereld die we in post-NT era al dachten losgelaten te hebben: interrupt stall op een PC...

Er is dus een hoop te zeggen voor zoveel mogelijk gebundelde storage, zodat je niet méér modules hoeft aan te sluiten, zeker met technologie op de PCI-E bus die érg lowlvl in het systeem zit...

Dit artikel (en de bijbehorende L1tech discussies) over Linus die 24 nvme drives in één epyc-based systeem wil rammen geeft een mooi voorbeeld. En dan heeft een consumer AMD CPU slechts 24 PCI-E lanes, en Intel slechts 20... (AMD heeft 20 voor GPU, 4 voor één NVME slot, en 4 voor de platform controller die dat kan hubben naar 20 extra, afhankelijk van chipset; Intel heeft 16 voor CPU, en 4 voor de PCH, waar NVME dan weer achter hangt...). Dit soort problemen wat je bij Linus op 24 devices ziet, kan een consumer device soms al met 2-3 devices krijgen (en dan kom je op van die situaties waar het lager zetten van de mouse polling rate van 1000 naar 200 ineens een hoop vage meuk oplost...):

https://www.youtube.com/watch?v=xWjOh0Ph8uM
3 jaar geleden was ik €1200 kwijt voor de Samsung 960Pro 2TB. Dit was toen de grootste NVME SSD die er toen beschikbaar was. In mijn laptop had ik niet veel sloten. Dus het was mijn enige oplossing. Nu 3 jaar later ben ik blij om te lezen dat de capaciteit eindelijk verdubbeld wordt. Nog even en HDD's zijn echt overbodig. Als je kijkt wat je nu voor een 2TB NVME SSD betaald dat is gewoon spot goedkoop in vergelijking met 3 jaar geleden.

In mijn huidige small form factor mini itx pc maak ik gebruik van 2 NVME m.2 SSD's . Terug naar SATA SSD's is voor mij niet meer mogelijk mede in verband met de snelheid en formfactor.

Tevens heb je geen last meer bij SSD's van defragmenteren wat je wel bij HDD's moet doen. Defragmenteren kan behoorlijk wat tijd in beslag nemen. In de 10 jaar dat ik SSD's gebruik heb ik 1 Dead on Arrival SSD gehad en verder nooit kapotte SSD's. HDD's daarentegen heb ik er veel versleten afgelopen jaren. Vaak begonnen deze te tikken of blauwe schermen te geven. Kortom ik ben geen fan van HDD's.

[Reactie gewijzigd door aliberto op 24 juli 2024 00:06]

HDD's gaan nooit compleet overbodig worden, dat is een foute redenering en SSD-fabrikanten denken ook niet met die redenering. HDD's zullen altijd superieur blijven in datacenters, of in omgevingen waar opslag en veilige opslag van belang is. (Dus ook een NAS). Als een HDD stuk gaat is er een 97% kans dat je de data er nog vanaf krijgt, bij een SSD kan dat niet gezien het flash geheugen is. Overbodig zullen HDD's nooit zijn. Althans: niet door de komst van SSD's.
Toch is het datacenter waar alle data van onze klanten staat nagenoeg SSD-only geworden. (binnen enkele maanden is alles volledig over). Voor dataverlies op één schijf hebben we een goede oplossing... RAID.
Ook bij traditionele schijven hebben we nooit gebruik gemaakt van die 97% kans om de data er weer af te halen, een kapotte schijf vervangen en de raid bouwt zich wel opnieuw op.

Voor data op een laptop, daar gebruik ik ook externe cloud/server storage voor. Ik maak dan wel geen gebruik meer van HDD's, maar ook ook een HDD kan gestolen worden. waardoor externe storage altijd nodig zal blijven.

20TB voor HDD's zal voorlopig nog wel moeilijk zijn om te evenaren qua prijs per GB, maar dat is een kwestie van tijd.
Hopelijk heb je niet alleen een oplossing voor het geval de hardware uitvalt, maar ook een oplossing voor de 'oeps' gevallen, randsomeware-uitbraken en dergelijke. Daarvoor (daar tegen) wil je een off-line backup.

En hopelijk heb je er ook aan gedacht wat te doen bij brand (of een binnen vliegend vliegtuig of zo). Daar tegen wil je een off-site backup hebben.

En voor de raid oplissing: Heb je de error-garantie-getallen van je opslag al eens door gerekend op de raid oplossing? Het is al weer 10 jaar geleden maar toen hadden we berekend dat we met een raid 0-1 of raid-5 systeem niet meer dan 10 TByte willen bedienen, anders is de kans op dubbele fouten (dat raid het ook niet meer weet) te groot.
De datacenter in de brede zin van het woord uitkaard.

De data staat redundant opgeslagen op meerdere storage units, op 3 verschillende locaties.

Jaar backups worden 15 jaar bewaard.
Kwartaal backups 3 jaar.
Maand backups 24 maanden
Week backups 12 weken
Dag backups 30 dagen
(Uiteraard wordt dit minder of verwijderd op verzoek van de klant)

Daarnaast houden we rekening met randsomeware aanvallen. Er is apparatuur aanwezig wat kan inzien of de datastructuur verdacht wordt aangepast (er kan door onze software onbeperkt terug gekeken worden welk proces welk bestand aan past, maar ook welke processen door een ander process gestart zijn. Mocht process 1 via een piramidestructuur diverse processen aanmaken die op hun beurt ook weer processen aanmaken etc... dan ziet onze securitysoftware alles nog steeds als 1 opdracht die meerdere bestanden in een x tijd van encryptie voorziet)

We hebben op dit moment 3 type storage controllers, waarvan er rekening gehouden wordt met 10% spare (met een minimum van 2).
Bijna perfect. Vooral die verschillende bewaar slagen. Mijn toevoeging zou alleen maar zijn dat ik geen 24 maanden maar 25 zou doen: net iets meer dan 2 jaar. Zo ook 14 weken, want net iets meer dan 1 kwartaal. en 35 dagen want een heel aantal weken en meer dan 1 maand.

Dit vooral uit ervaring voor de 'oeps' restore mogelijkheid. Veel gebruikers weten nog wel dat ze het vorige week, vorige maand of vorig kwartaal nog hadden. Die mis je nu net in jou geval en moet je net terugvallen op de grovere resolutie.
Daat gaat de discussie toch helemaal niet over? Het gaat over welk medium(ssd of hdd) je makkelijk data van zou kunnen recoveren en dat je dat dmv redundantie tegen hardwarefalen nooit zou moeten nodig hebben.
Hetgeen jij aandraagt gaat over backuppen en moet altijd in acht worden genomen waarbij het gebruikte opslagmedium niet uitmaakt.

Backuppen en redundantie(bvb RAID) zijn 2 verschillende dingen
Het is maar net waar je de draad begint te lezen. Het artikel begint met ssd's met een best wel grote opslag capaciteit. Maar om daar alle opslag behoeften van een datacentrum aan op te hangen zou ik niet doen.
Ik denk datn in de meeste datacenters er ook niet volledig SSD zal komen, de prijd per GB van gewone HDD is gewoonweg te sterk.

Aan de andere kant hangt dit volledig af van de use case. Een club als Flickr zal heel veel HDD hebben met alleen de recente spullen op SSD (relatief normale storage tiering).

Een hosting provider die heel veel VMs host zal juist SSD kiezen want daarmee zijn de VMs sneller zonder dat je ergens op inlevert. Als de hosting provider ook bulk storage levert zal dat juist weer vaak op een tiered SDD/HDD oplossing staan.

Het argument van data recovery is eigenlijk alleen voor een losse server (hoewel dat tegenwoordig bijna 100% van raid is voorzien) of werkstation (en ook hier zie je soms een vorm van RAID) van toepassing en daar hoor je iets van backup op toe te passen als er data op staat die werkelijk belangrijk is

Dus je hebt absoluut een punt, puur SSD in een datacenter is ongebruikelijk, maar toch is het niet uit te sluiten, het hangt volledig van de usecase af.
Niewsgierigheids vraagje: Waarom zijn HDD's veiliger? En in datacenters wordt toch alles redundant gedaan, dus mocht er een kapot gaan, maakt het toch niet uit of de data nog te redden is?
Alles wat in een datacenter online beschikbaar is, kan door ransome-ware worden versleuteld. Daarom heb je offline-backups nodig. Dat kan natuurlijk op ssd, hdd en op tape.

HDD is 'veiliger' dan ssd omdat de tijd dat de gegevens op de media blijven staan bij een harddisk volgens mij nog steeds langer houdbaar is dan op een ssd. Overigens zou het op een tape nog langer houdbaar zijn. Daarom zijn die ook nog steeds beschikbaar.
Er werd eerst gezegd dat het maximaal maar een half jaar goed zou blijven op een SSD. Laatst een Samsung 830 in een externe behuizing gedaan en alles stond er na ruim 2 jaar nog gewoon op. Ik heb HDD's die zolang op de plank lager ook gewoon als verloren kunnen beschouwen. Ik denk dat het dus vooral een wassen neus is. wil je echt lange termijn opslaan is tape echt gewoon je enige keuze.

[Reactie gewijzigd door Hakker op 24 juli 2024 00:06]

Tape is ook magnetisch en zal na verloop van tijd ook zn magnetisme verliezen. Niet anders dan een harde schijf. Je bent natuurlijk niet afhankelijk van de mechanica in een harde schijf bij gebruik van tape, maar dat verleg je naar de tape drive. Als je die na jaren weer aanslingert weet je ook niet wat er gebeurt... Bovendien kun je archief storage prima in ZFS of een raid variant doen zodat mocht er een scjijf klappen, je die gewoon kunt vervangen. Tenzij je je tapes gaat mirrorren... één tape stuk --> data weg.

Tape is een geweldig medium met ook enorme opslagcapaciteiten, maar niet per definitie betrouwbaarder dan een harde schijf.

[Reactie gewijzigd door Rataplan_ op 24 juli 2024 00:06]

Dan is het toch juist niet bij mirrorren? Striping (RAID 0) geeft juist minder zekerheid op data retentie.
Ik zeg toch ook tenzij je je tapes gaat mirroren, ben je als er één tape stuk is een hoop data kwijt. Raid 0 is alleen leuk voor benchmarken, maar bij gebrek aan enige redundantie eigenlijk voor geen enkele serieuze toepassing bruikbaar in mijn ogen.
Oke zal aan de hooikoorts liggen dan, maar ik vatte het anders op.
Elke opslag heeft haar voordeel en haar nadeel. Meet resultaten van verschillende media met verschillende achtergronden zullen nooit goed vergelijkbaar zijn. Verdeel en heers is ook hier het adagio: Gebruik in geval van twijfel beide!

Bij ZFS moet je niet vergeten dat het uiteindelijk vooral aan je eigen instellingen ligt. ZFS kan heel goed een zelfde beveiliging bieden als raid-0: geen. Raid-0 (stripes) is er voor de snelheid, niet voor de veiligheid. En vooral: zfs is on-line (en on-site): crypto-malware zal alles versleutelen.
Niewsgierigheids vraagje: Waarom zijn HDD's veiliger? En in datacenters wordt toch alles redundant gedaan, dus mocht er een kapot gaan, maakt het toch niet uit of de data nog te redden is?
Zolang Ssd's een TBW hebben zullen ze nooit hdds gaan vervangen in een datacenter omgeving voor storage.

Wij werken in een omgeving met een behoorlijke hoeveelheid camera's. Als wij onze storage op SSD niveau zouden doen dan kunnen we elk jaar alle ssd's weggooien omdat ze hun TBW gehaald hebben en zeer waarschijnlijk binnenkort kapot gaan.

Enterprise hdds hebben een garantie van een aantal jaar dat ze blijven functioneren onder niet al te strenge omstandigheden en gebruik. Vrijwel alle schijven houden het met gemak 5 jaar vol.

Dat zie ik een SSD nog niet doen.
Hoezo zijn dan alle top end storage systemen (netapp, emc, nutanix, etc) compleet in SSD uitgevoerd.
Uit ervaring kan ik zeggen, dat zelfs bij hoog volatile data, de SSDs inmiddels 3+ jaar mee gaan, uitgezonderd die ene die het begeeft.

Daarbij, Enterprise SSDs hebben dat soort garanties ook. 5 jaar vziw bij de NETAPP die we bij ons hebben staan (en als ik me goed herinner ook de EMC unit heeft 5 jaar op de SSD).

Echt, de discussie waarom HDDs blijven bestaan is vooral een kosten per gigabyte bij een vastgestelde performance. Voor sommige zaken is de performance van SSD overkill en is een HDD prima, zeker omdat een HDD per GB nog altijd goedkoper is. Juist data die veel en snel wisselt wil je op SSDs, alleen data die beperkte performance nodig heeft (en hoge wisseling is dat niet) zet je op HDD.

Als SSDs ooit net zo duur per GB worden als HDDs, dan zal je een omkering in de markt gaan zien en worden ook de "cheap storage" oplossingen omgezet in SSD.
Waar haal je dit vandaan.
Onze primary Storage is 100% flash, disks hebben we volledig in de ban gedaan.
Voor recovery, heb je redundancy tussen je arrays en backups.
Enkel voor backups gebruiken we nog magnetische disksen en dat puur omwille van kost.
Als je puur magnetische disken gebruikt voor opslag door de kost.. Dan gaat er wat mis, en slaat dit echt nergens op. Het is hierboven al vermeld, en ik ben over de gehele lijn akkoord met @beerse . SSD's blijven niet lang houdbaar, waar HDD's op 2 staan en tape op 1.

De dag dat 1 SSD stuk gaat, samen met nog een SSD, afhankelijk van welke raid je hebt, ben je al mooi geneukt. Die kans is klein maar in een datacenter mag er geen sprake zijn van "kleine kansen". Alle kansen moeten daar vermeden worden, dus ook een ander opslag medium welke kans kan hebben op ransomware, hoe klein die kans ook is. Bij een HDD kan je nagenoeg 97% van die data terughalen. Ik ken genoeg bedrijven/datacenters die om die reden niet naar SSD's overgaan en bij HDDs blijven steken, de snelheid in een datacenter gaat niet op tegen veiligheid. Wat heeft een datacenter aan snellere apparatuur als ze geen veiligheid kunnen garanderen?
Nu ben ik geen IT'er, maar als je recovery strategie bij een defect opslagsysteem is: Laten we hopen dat een specialistische dienst data kan herstellen van deze HDD/SSD, dan doe je volgens mij iets heel erg verkeerds. Dat is alleen een plan G wanneer plan A, B, C, D, E en F gefaald hebben, wat dus normaal niet moet gebeuren.

Dat gezegd, hoewel ik me er nooit in verdiept heb, zolang alleen de controller kaduuk is moet je lijkt mij zowel bij SSD als HDD kunnen recoveren (ervan uitgaande dat er geen encryptie key op die controller stond).
Dan heb je simpelweg je redundantie en backup strategie niet op orde. RAID is in dat opzicht dan ook relatief oud. Er zijn ondertussen al veel meer technieken beschikbaar die uitval van meerdere schijven kunnen opvangen. Dingen als ZFS en glusterFS. En combinaties van dit soort dingen. met dit soort oplossingen kun je al snel 2 of meer drive failure opvangen.
ALs je 2PB opslag nodig hebt , dan gaat kost echt wel meespelen. 100K of 1M is echt wel een verschil dat geen enkel bedrijgf gaat negeren voor opslag van backup data.

Raid, dat is toch echt wel een concept dat langzaam minder en minder belang heeft. Je hebt gewoon verschillende copies op verschillende locaties, Als we dan al opteren voor RAID dan toch meestal RAID60 , met niet al te grote raidgroepen. Dat zijn echt al wel heel veel disks die dan tegelijk mogen falen.
Hoezo snelheid niet belangrijk ?? We sluiten servers niet met 50/100GBit aan om dan terug te moeten vallen op 200MB/sec.
Vervolgens speelt dataencryption at rest op storageniveau ook nog een keer mee. Ik mag echt hopen data zeg GEEN data kunnen recoveren want dat is de hele opzet.
SSD's niet lang houdbaar ? hoe lang moet die dan wel houdbaar zijn op je primary storage ? 5 a 6 jaar max en dat wordt gedekt door een al dan niet "evergreen" contract.

Als ik jouw argumentatie hoor, dan luister ik naar een datacenter van vorige eeuw.
Sorry maar wat je zegt raakt kan nog wal.

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 00:06]

Ik zou tape nooit op 1 zetten, 12 -24 maanden naargelang het merk max. Tenminste dat is mijn praktijk ervaring met DLT, DDS, LTO-2 en alle voorgaande versies. Sinds dien doe ik niets meer op tape, te onbetrouwbaar.

En als er bij ons SSDs stuk gaan moeten er 15+ stuk gaan voordat onze raid in gevaar komt. LUN striping doe je over enclosures dus een complete enclosure bevat altijd maar een deel dat met raid te herstellen is. Als je denkt aan een single server heb je het niet over een datacenter.
Een datacenter kent failover en raid als beveiliging, bij raid kom je op de grote storage oplossingen op tussen de 15 en 50 disken die tegelijk mogen failen. Echt, die ene kapotte SSD is totaal oninteressant.

En in de laatste 25 jaar 1x een disk laten recoveren, uit een losse MKB server waar geen raid in zat en waar de klant het geld niet wilde uitgeven voor een eenvoudige backup. Dat is de use case voor recovery.

Ik ben benieuwd welke datacenters jij kent die geen SSD doen om de jou genoemde reden (serieus, tell me, dan kan ik ze vermijden)
Mwoah, zeg nooit nooit. De prijs per GB van een SSD daalt volgens mij nog steeds sneller dan die voor HDDs, en er zijn toch ook al redelijk wat SSDs op de markt gericht op datacenters/HPC. Dat je data nog van een HDD kan halen na 97% van de crashes is volgens mij niet heel belangrijk; datacenters gooien kapotte HDDs namelijk gewoon weg zonder de data eraf te halen (die staat toch elders gedupliceerd) en daarnaast gaan SSDs veel minder vaak kapot.

Op een gegeven moment zit de prijs per GB van een SSD onder die van een HDD en dan vraag ik me af of er nog redenen zijn om HDDs te blijven gebruiken.

[Reactie gewijzigd door Dorstlesser op 24 juli 2024 00:06]

Waarom zou je data van een HDD af halen als je een kopie hebt op een andere schijf die je vervolgens kan herstellen? Bij een HDD duurt een volledige kopie overigens immens lang, terwijl bij een SSD dit veel sneller gaat.

Zeggen dat HDDs nooit overbodig zijn is nogal een claim. Uiteindelijk worden SSDs gewoon veel goedkoper en zijn ze significant sneller.

[Reactie gewijzigd door Gamebuster op 24 juli 2024 00:06]

Groot gelijk. Hierbij wil ik graag een vergelijk maken met tape-opslag (voor backup en dergelijke). Als je een ssd, een hdd en een tape vol schrijft met gegevens en die in de kluis stopt voor of-line backup, dan zeggen de cijfers dat de tape het langst mee gaat. Dan de hdd, die ook geen slecht figurr slaat. De ssd is het eerste de gegevens kwijt.

Voor het vullen van deze media, en dan bedoel ik in streaming-mode vol spuiten met gegevens zoals dat met een backup gebeurt, ga ik er van uit dat de tape niet eens zo'n slecht figuur slaat, zolang ze in streaming-mode kan werken. Al moet ik eerlijk toegeven dat ik al een paar jaar niet met backups en/of tapes bezig ben geweest. Voor thuis gebruik ik voor backup nog graag een fysieke harddisk.
Ik ken geen backup oplossingen meer die tapes nog offline leggen op die manier. Veelal stop je het in een off site robot die tape refreshing doet. En maar goed ook anders ben je het na een maand of 24 ook kwijt.

Wat performance betreft, het key punt is inderdaad streaming van tapes. En daar gaat het vaak mis. Dus eerst naar disk en dan het backup systeem laten streamen naar tape als je een offline offsite kopie wilt hebben (90% vand e grote backup oplossingen doen echter geen tape meer.
Ik zal niet zeggen dat HDDs overbodig worden, maar bij het bedrijf waar ik werk is alle hot-storage SSD. HDDs worden enkelt nog gebruikt voor archival data.
Dit vind ik wel een gedurfte uitspraak. Wanneer SSDs goedkoper per gb worden als hdds is er volgens mij echt geen reden om hdds te gebruiken. Voor data verlies bestaat iets moois als raid. Daarnaast zijn SSDs zuiniger, sneller en kleiner.
HDD's gaan nooit compleet overbodig worden, dat is een foute redenering en SSD-fabrikanten denken ook niet met die redenering. HDD's zullen altijd superieur blijven in datacenters, of in omgevingen waar opslag en veilige opslag van belang is. (Dus ook een NAS). Als een HDD stuk gaat is er een 97% kans dat je de data er nog vanaf krijgt, bij een SSD kan dat niet gezien het flash geheugen is. Overbodig zullen HDD's nooit zijn. Althans: niet door de komst van SSD's.
Je mening over SSD recovery is wellicht niet juist (of behoeft de nodige nuance).

Gelukkig breng je zelf een nuance aan wat betreft "HDD's gaan nooit compleet overbodig worden".
Als de prijzen zover dalen dat een SSD per GB minder dan de helft kost van een mechanische HDD dan is een RAID-1 SSD setup goedkoper dan een enkele HD in aanschaf, ruimte en stroomverbruik. Bij een defecte SSD is er dan niet eens meer een recovery nodig, met een hot-swap kan de SSD worden vervangen.

Als de SSD prijs op dat punt komt is er geen bestaansrecht meer voor de mechanische harde schijf. En daar zijn we hard naar op weg gelukkig.
Ik heb even snel gekeken, maar de goedkoopste 2 TB HDD kost iets minder dan €60,- momenteel. De goedkoopste NVME SSD met 2 TB capaciteit kost €259,-. Hoewel de prijzen mooi gedaald zijn, is het natuurlijk veel te voorbarig om te zeggen dat HDD binnenkort echt overbodig zijn. Ze zijn nog altijd vele malen goedkoper en in veel opzichten is een HDD nog een prima opslag medium. Zeker voor servers waar data opgeslagen staat die niet per se heel snel heen en weer geschoten hoeft te worden, om maar een voorbeeld te noemen.
Ik heb een 500gb ssd voor Windows en programma's, 1tb ssd voor games en 4tb hdd voor data.

En dat ene filmpje of liedje opent niet merkbaar sneller op een SSD dan een HDD (ik hou ook rekening met de prijs) voor mij dus een HDD is zat daarvoor.

Maar prijsverschil is nog steeds fors, die 1tb SATA SSD was 107 euro, die 4tb HDD 93 euro (dit jaar in januari gekocht) dus het verschil in prijs is nog steeds fors.

prijzen van SSDs zijn wel fors gedaald, in 2013 betaalde ik 159 euro voor een 256gb MLC ssd, terwijl ik nu voor minder 1tb heb

[Reactie gewijzigd door Mizgala28 op 24 juli 2024 00:06]

Ik weet niet of hdds echt overbodig worden op korte termijn.

Die zijn namelijk ook goedkoper geworden per terabyte opslagcapaciteit.

Ik gebruik zelf ook nog steeds een normale HDD voor opslag waar de snelheid weinig uitmaakt (foto's, films etc.) En SSD voor waar het wel uitmaakt (Programma's, games, OS).

In een laptop ben je natuurlijk wel wat beperkter in de ruimte die je hebt.
Ik heb momenteel enkel nog een 2.5” plek in mijn laptop waar geen ssd in zit maar ik vind de 4TB varianten nog steeds erg duur. Al heb ik met 1 512GB nvme ssd en een 1TB nvme ssd niet te klagen momenteel
Nou, weet niet hoor, maar ik vind de ontwikkelingen van SSD's maar tegenvallen de afgelopen jaren. Waar zijn de 8TB SSD's? HDD's gaan al richting de 16TB, 6-10TB is momenteel de sweet spot qua prijs. Daar kunnen SSD's nog niet aan tippen. Qua snelheid is er uiteraard geen twijfel mogelijk, maar iets meer capaciteit moet toch niet moeilijk wezen?
Vind dat we weinig te klagen hebben over de ontwikkeling als ik naar de afgelopen 10 jaar kijk.

in 2010 kon je voor 400 euro een OCZ vertex 2 kopen met 100 GB opslag en 280 MB's lezen en schrijven, tien jaar later is voor hetzelfde geld een SSD te koop met 20 keer zoveel opslag en 10 keer zoveel lees- en schrijfsnelheid.

Bedenk wel dat harde schijven in deze zelfde periode wel enorme stappen hebben gemaakt in de prijs per TB, maar dat de snelheid in deze periode nauwelijks is toegenomen, waar we 10 jaar terug rond de 100 tot 120 MB/s zaten is dit nu toegenomen naar slechts 150 tot 200 MB/s.
Kun je dan niet beter 4x 1tb kopen? Uiteraard moet je moederboerd wel over 4 m.2 sloten beschikken.
Kun je dan niet beter 8x 500GB kopen? Uiteraard moet je moederboeerd wel over 8 m.2 sloten beschikken.

Of je haalt zo'n PCI-E kaart waar je 8 M.2 slots op hebt. (die zijn er, echt! 8x PCI-E 4x 3.0 m.2 slots op een adapter met 1 PCI-E 16x 4.0 poort)

[Reactie gewijzigd door Gamebuster op 24 juli 2024 00:06]

Die is niet goedkoper ;)

[Reactie gewijzigd door dec0de op 24 juli 2024 00:06]

Maar wel leuker. Raid 0! Met 800% kans om je data kwijt te raken!

[Reactie gewijzigd door Gamebuster op 24 juli 2024 00:06]

In principe is het gewoon een PCIe splitter waar elke m2 ssd 2x lanes krijgt. Je kan ze dus allemaal als aparte ssd aanspreken.
Dat kan, maar je kan ze ook in RAID zetten voor extra fun
Linus had recent nog een video gemaakt over zo'n kaart:

https://www.youtube.com/watch?v=zC03p4j_5Yc
Prijs zou eventueel nog kunnen zakken, en daarbij hebben moederborden meestal maar een aantal M.2 slots, dus als je veel snelle ssd opslag wil is zoiets wel interessant.
Stel je wil 12 TB aan opslag, heb je 3 m.2 sloten nodig t.o.v. 6. is toch een heel stuk meer gangbaar op een normaal moederbord zonder uitbreidingskaarten.
Op basis van het tabelletje hier boven zou ik vooral kiezen voor de 1-TByte varianten.

Maar dan moet wel gezien worden in wat voor opslag systeem ze komen en waar voor ze gebruikt gaan worden. Als het gewoon voor een bulk-opslag is dat door veel andere systemen gebruikt wordt, zoals in een san of vooral in een nas bijvoorbeeld. Ook voor raid-systemen, om met meer ssd-s een grote opslag te bouwen gaat naar mijn idee het optimum uit naar die 1 TByte systemen. Hier zal de adresseerbaarheid en/of de fysieke aansluitingen ook mee spelen. Met het zelfde aantal aansluitingen kan je met grotere ssd-s immers een grotere opslag bouwen.

Maar als het echt voor 1 groot opslag systeem gebruikt moet gaan worden, bijvoorbeeld een giga/tering/googel bytes database of zo, dan eventueel de grotere ssd-s. Maar in dat geval moet echt gerekend gaan worden aan de aansluitingen en buffers voor de snelheid en ook aan de mtbf en andere error-getallen om optimaal uit te komen.
Ongelofelijk - 4TB consumenten SSD's. Soms moet je even stilstaan om te realiseren hoe snel dit allemaal wel niet gaat en hoe bizar het eigenlijk is. Al die data, films, muziek, games op een zeer snel opslagmedium....
Ongelofelijk - 4TB consumenten SSD's. Soms moet je even stilstaan om te realiseren hoe snel dit allemaal wel niet gaat en hoe bizar het eigenlijk is.
Volgens mij valt dat wel mee. Natuurlijk wordt het allemaal goedkoper maar SSD’s zijn relatief langzaam in prijs gedaald.

Ik kocht in 2009 een 80GB SSD voor € 200 en voor dat geld heb je nu ongeveer 1TB (afhankelijk van merk, performance, etc). Twaalf keer zoveel storage voor het geld is netjes maar loopt ver achter op wat de Wet van Moore je zou laten verwachten. Als ik het goed uitreken hadden we dan al op 16TB voor € 200 moeten zitten.
Twaalf keer zoveel storage voor het geld is netjes maar loopt ver achter op wat de Wet van Moore je zou laten verwachten. Als ik het goed uitreken hadden we dan al op 16TB voor € 200 moeten zitten.
Echter heeft de wet van Moore met opslag en SSD's niets te maken, die gaat over het aantal transitors in een schakeling welke elke twee jaar verdubbelt.

Aantal transitors in een schakeling != opslagcapaciteit van een schijf. Ja, er zit verband tussen de twee, maar het is niet een "als -> dan" verhaal zoals jij nu presenteert.

Hoe groter de SSD, hoe meer "spare" cellen je moet hebben om de levensduur acceptabel te houden. Daar merk je het dus voornamelijk aan, gok ik.
Echter heeft de wet van Moore met opslag en SSD's niets te maken, die gaat over het aantal transitors in een schakeling welke elke twee jaar verdubbelt.
Aangezien de cellen van flash-geheugen uit transistoren bestaan, is de wet van Moore zeker wel van toepassing geweest op geheugen.
Snelheid mag ook wel omhoog, ga maar eens 4TB kopieeren van HDD naar HDD, veel plezier ermee zou ik zeggen wat duurt dat ongeloofelijk lang zeg, en vooral als je kleinere bestandjes gaat kopieeren maak je borst dan maar nat.

HDD,s zijn de afgelopen 20+ jaar amper sneller geworden in verhouding met de opslag capaciteit.

Dat heeft met technische limieten te maken in de schijf, en schijven die wel sneller kunnen zijn verschikkelijk duur voor consumenten.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 00:06]

Je hebt het nu over HDD -> HDD. Ik heb het idee dat SSD -> SSD een stuk sneller is, en die zijn niet verschrikkelijk duur (meer)!
Kijk de prijzen beginnen ergens op te lijken ik was 400 euro kwijt voor 1 TB, dat is nu nog 160 euro, hopelijk zet deze trent nog even door, zodat hardeschijven ook voor toepassingen met meer opslag overbodig worden.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 00:06]

Ik zou graag nog 4 TB aan NVME schijven erbij hebben, dan kan ik ook mijn Lightroom bibliotheek verhuizen en mijn boot disk uitbreiden. HD's zijn OK voor backups, maar het snelheidsverschil tussen HD en SSD is gewoon te groot. Daarom ben ik bereid er een bak geld aan uit te geven.

Plus, minder stroom, minder warmte, minder herrie.

De betrouwbaarheid van SSD's is ook wel OK, in 10 jaar heb ik er maar 1 kapot gehad. Van OCZ of iets, dat was een beruchte serie.

HD's sneuvelen links en rechts, vroeger er nu. Zooitje roest dat rondgeslingerd wordt.The age of the steamengine...
Leuk echter vraag ik mij hierbij af , wanneer je deze zou zetten in een raid 1 configuratie hoeveel snelheid er over blijft.
Waarom zou de snelheid afnemen bij raid1? Ik kan me voorstellen dat je pci-e bus of je processor het niet trekt, maar voor de SSD maakt het niet uit.
Ik vermoed dat @Krab1989 de redenatie doet dat er op 2 plaatsen een lookup gedaan moet worden voor data, en niet op 1.
RAID 1 is net zo snel als de traagste schijf in de array is volgens mij de vuistregel.
Dat geld alleen voor schrijven van data.
Raid1 is theoretisch net zo snel als de traagste schijf/ssd in schrijfacties omdat de data naar alle schijven geschreven moet worden.
Lezen is in theorie gelijk aan de snelheid van 1 schijf keer het aantal schijven omdat van alle schijven andere stukjes data gepakt kunnen worden.
Ca. 800 euro 4TB

Ca. 450,- euro ... dan praten we verder. Te duur.
Een paar jaar terug betaalde je voor 1 TB 1200 euro. Geduld, ze worden vanzelf betaalbaarder
Ik neem aan dat het gaat om een M.2 formfactor? Anders even een stukje uitleg over wat m2 is?
Vrij vaak wordt de boel door elkaar gehaald, eigenlijk zijn dit MVMe schijven.
en geen satabus schijven die kunnen ook in een M.2 slot.

In volksmond kan men ook beter zeggen NVMe schijven, dan is voor iedereen duidelijk wat er bedoelt wordt.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 00:06]

Vrij vaak wordt de boel door elkaar gehaald, eigenlijk zijn dit MVMe schijven.
en geen satabus schijven die kunnen ook in een M.2 slot.

In volksmond kan men ook beter zeggen NVMe schijven, dan is voor iedereen duidelijk wat er bedoelt wordt.
NVMe = non-volatile memory
Waar staat de M voor die jij bedoelt ?
m.2 slot kan zowel PCI-e als Sata zijn of apart. dat is het format van het slot..

Verder moet de prijs nog wel zakken, want de concurrent is al €100,- goedkoper
Sabrent Rocket Q NVMe PCIe M.2 2280 4TB
Zodra je Nvme zegt weet iedereen waar je over hebt.
NVMe zegt alleen wat over de bus waarover de SSD communiceert. M.2 zegt wat over de aansluiting.

Dus alleen praten over NVMe schijven als je het hebt over SSD's die in een M.2 slot passen, is niet juist. Je hebt namelijk ook SATA SSD's die in een M.2 slot passen.
M.2 is de fysieke formfactor, die een paar verschillende verschijningsvormen kan hebben, en die zou je kunnen uitspecificeren tot B/M/MB. Je kunt ook de lengte erbij vermelden. Maar de algemene term is M.2.

NVMe is een protocol waarmee met zulke devices (maar ook U.2, afaik) gecommuniceerd wordt.

Het ging me erom dat je M.2 zo schrijft, en niet anders. Een hoofdletter M, een punt, en een 2.

[Reactie gewijzigd door _Thanatos_ op 24 juli 2024 00:06]

Een stukje uitleg over M.2 is ook wel weer een beetje overbodig :) Bij een artikel over een laptop die een USB-C poort heeft, ga je ook niet uitleggen wat USB-C is.
M.2 kennen we wel ja, maar het artikel gaat over m2.

Half-sarcastisch, want ik weet ook wel dat het M.2 is, maar ik begrijp niet waarom het willens en wetens fout gespeld wordt.

[Reactie gewijzigd door _Thanatos_ op 24 juli 2024 00:06]

Ah, dat bedoelde je. Vreemde keuze inderdaad van de redactie.
De vraag is meer vanuit het oogpunt wanneer jet Raid 1 gebruikt krijg je een synchronisatie slag. gezien 4tb aardig wat vraagd van de pci-e lanes
Hij verbruikt niet méér pci-lanes per toegenomen TB, maar per aangesloten device. Recente mobo's hebben genoeg lanes om een videokaart en een stuk of 4 ssd's te bedienen.
Bij PCI-e 4.0 speelt dit probleem minder, dan neemt apparatuur minder lanes in beslag en hoef je niet meer te kijken bij high-end chipsets, echter Intel komt maar niet met pci-e 4.0 of 5.0, we blijven te lang hangen op 3.0.

Want het is vooral de chipset op moederbord dat de hoeveelheid lanes aanbied.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 00:06]

Ik vraag mij af wanneer dit straks tegen de 300 / 350 euro gaat kosten?

Twee, drie, vier jaar?
Ik denk zodra dit soort capaciteiten mainstream worden, en zeker een 3 of 4 capaciteiten "erboven" algemeen beschikbaar zijn. Dat is met 4TB nog lang niet het geval.
Leuk en aardig maar tot die dingen zakken naar 50 euro per gb hoef ik ze niet meer. het kost simpelweg te veel. Voor mijn gewone opslag gebruik ik wel een hdd die ook gewoon 180 MB/ps halen.

Al meer als een jaar lijken de prijzen niet of nauwelijks te zakken en ik denk niet dat dat snel gaat veranderen.

Op dit item kan niet meer gereageerd worden.