Samsung 990 Pro ondersteunt PCI Express 5 en duikt op bij PCI-SIG

PCI-SIG, de organisatie die de PCIe-standaard overziet, heeft nieuwe ssd’s van Samsung opgelijst die de 5.0-standaard ondersteunen, waaronder de 990 Pro M.2. Eerder deze maand doken ook al enkele typenummers van Samsung-ssd's op die vermoedelijk ook van de 990 Pro zijn.

Op de website van PCI-SIG zijn sinds kort vier product-id’s van Samsung-ssd’s te zien die aan de PCIe 5.0-standaard voldoen. Een daarvan is de 990 Pro M.2 die een PCIe 5.0 x4-interface lijkt te krijgen. Deze nog niet officieel aangekondigde ssd werd vorige maand vermoedelijk ook al opgemerkt bij Koreaanse autoriteiten en uit de modelnummers, MZ-V9P1T0 en MZ-V9P2T0, werd afgeleid dat de 990 Pro in een 1TB-variant en een 2TB-variant zal uitkomen.

Het is momenteel nog onduidelijk welke lees- en schrijfsnelheden de 990 Pro-ssd’s zullen halen. Techsite Wccftech merkt op dat de eerste PCIe 5.0-ssd van Samsung voor servers, de PM1743, 13GB/s aan sequentiële leessnelheden haalt. De sequentiële schrijfsnelheid van die ssd ligt op 6,6GB/s.

Samsung 990 Pro-ssd op website PCI-SIG

Door Jay Stout

Redacteur

14-08-2022 • 13:03

61 Linkedin

Reacties (61)

Wijzig sortering
Dat is bijna een verdubbeling ten opzichte van de Samsung 980 Pro. Ik ben ook benieuwd of het in de praktijk dit verschil merkbaar is en wat de prijzen gaan worden? Ik heb in mijn Ryzen 7 5800X computer een Samsung 980 Pro 1TB en ik haal bijna 7GB/s. In november heb ik hem al 2 jaar, voor €229,- gekocht. Ik heb daarnaast een Samsung 970 EVO 1TB bijna vol samen met de 980 Pro aan games. Mocht ik in de toekomst een grotere capaciteit willen wordt dit een Samsung 990 Pro 2TB naar de toekomst toe

[Reactie gewijzigd door van der Berg op 14 augustus 2022 13:17]

Vergeet niet dat het voornamelijk gaat om IOPS en random read/write. Seq read/write is voornamelijk marketing bullshit om mensen te laten denken dat het ding bloedsnel is, terwijl de 4K random performance wel tegen kan vallen.

Tuurlijk zijn er scenario's waar je wél de maximale throughput van de SSD kan benutten, zoals videobewerking. Volgens mij doen niet heel veel mensen dat over het algemeen, als je kijkt naar de verkoopcijfers van SSDs. Die verhouding lijkt mij vrij klein.
Ik heb nu een nvme 980ssd in m'n pc en ja ik merk eigenlijk geen verschil tussen deze schijf en de oude samsung sata ssd. Natuurlijk schrijven gaat allemaal sneller maar tijdens gamen en dagelijks gebruik merk je er niets van
Waarschijnlijk ga je met de nieuwe generatie games wel verschil merken als deze zaken als DirectStorage en NVME Queuing gaan gebruiken. Dan zijn laadtijden ook op de PC iets van het verleden.
Wacht maar tot-ie bijna vol is, of langere tijd sustained (na initial burst). Dan kakt-ie helaas behoorlijk in. Verder is TLC en QLC een Pro label onwaardig.
Ja ik ben dan toch wel eens benieuwd wat tegenwoordig de zwakste schakel in een systeem of werkstation is....
Oh serieus....? Maar de software maakt toch gebruik van de (limiet van de) hardware?
Een een heel simpel voorbeeld van software die de boel afremt, zijn games met een zogeheten engine cap. Doom bijvoorbeeld loopt bij 200fps tegen de muur. GTA V bij 187.
CSGO zit al jaren op 300-400 fps op nieuwe hardware, ondanks dat het steeds maar sneller zou moeten worden.

Niet alles kan geparalleliseerd worden. Niet alle software is geschreven op een zodanige manier dat er efficient van de hardware gebruik gemaakt wordt. Als jouw software heel erg hangt op file IO, maar je hebt de aanspraak van bestanden totaal niet geoptimaliseerd en je leest dezelfde bestanden te vaak opnieuw in, dan kun je nog steeds traag werken op een hele snelle pc.
Je kunt op een hele onhandige manier met geheugen omgaan waardoor dezelfde waardes of informatie steeds maar opnieuw berekend moet worden terwijl je het ook allemaal in RAM kunt cachen

[Reactie gewijzigd door youridv1 op 14 augustus 2022 17:40]

Ja dat snap ik en weet ik zelf bij een klant van mij. Die gebruiken AutoCAD Civil 3D en hebben allemaal zware werkstations. Volgens mij merken ze weinig tussen zeg maar de laatste generatie hardware of 4 of 5 generaties terug.
Sterker nog: Dell heeft Optimizer software gemaakt die adviseert om in 't bios in te stellen single core te draaien voor AutoCAD omdat AutoCAD nu tot de dag van vandaag nog steeds niet gebruik kan maken van multi core CPU's (dacht ik, recentelijk nog opgezocht). Maar dat is toch van de zotte? Multi-core bestaat gok ik al ruim 15 jaar?!
Die single core setup was echt heel traag volgens alle tekenaars dus snel weer uitgezet....
Lees ik het nou goed dat je je hele computer op single core hebt gezet? Zelfs als een belangrijke applicatie er niet gebruik van kan maken dan nog moet je het aanhouden omdat er heel veel processen tegelijkertijd draaien op je OS die allemaal aandacht van de CPU eisen. Hoe meer CPU's (/cores) aanwezig hoe minder mogelijk oponthoud.

Veel taken binnen een proces zijn inderdaad slecht parallel uit te voeren en moeten na elkaar plaatsvinden (e.g. eerst je gezicht wassen en dan pas afdrogen). Hoe dat met AutoCAD zet weet ik niet. Als je rekentaken echt parallel uitvoerbaar zijn wordt een GPU ook interessant wat een soort van mega simpele core processor is.
Ja klopt heb ik niet gedaan maar de Dell Optimizer software vond dat een goed idee als je aangeeft dat je het systeem gebruikt als AutoCAD werkstation.
Daarna werd 't systeem traag, en ik maar kijken hoe dat kwam, uiteindelijk zag ik maar 1 core aanstaan🙈

Edit: AutoCAD ondersteund 't nog steeds niet goed en er wordt flink over geklaagd: zie https://forums.autodesk.c...more-2-cores/td-p/9044203

Dit zijn ook zware werkstations met bijv een Quadro RTX2000.....

[Reactie gewijzigd door Urk op 15 augustus 2022 09:45]

Meer CAD Software heeft dat. Laatste keer dat ik keek was SolidWorks tevreden met 2, en meer dan 4 heeft 0 nut. Solid Edge is niet veel beter.
AutoCAD hard op 1 vaste CPU core (CPU affinity) zetten zou mogelijk kunnen helpen.
Maar die limiet van nieuwe hardware wordt lang niet altijd benaderd. Veel zaken zijn (voor wat voor een reden dan) niet geparallelliseerd en schalen dus niet goed met betere hardware. Zo zal een 16-core 5950X in dagelijkse taken echt niet sneller zijn dan een 8-core 5800X.

Wat het meest zal helpen in dagelijks gebruik is waarschijnlijk meer IOPS op je SSD en een meer single thread performance op je CPU.
Het jammer is dan alleen weer wel dat die 5950X wel 0,2GHz hoger boostclocks heeft en dus zelfs met single thread workloads wel degelijk sneller kan zijn.
Niet dus, des te meer ongeoptimaliseerde trage software, zoals gemaakt met bv Python je gebruikt, des te minder dat je van je nieuwe hardware iets zult merken. Dat is dan ook het nadeel van snellere hardware, men gaat die vaak nog minder optinaal gebruiken want 'het is toch al snel genoeg'.
Dat klopt, maar...

Ik ben vooral bezig met cryptografie. Dan denk je... wat heeft dat er mee te maken? Nou vroeger werd er meestal gebruik gemaakt van init / update / final sequentie voor ciphers en hashes. Hierbij wordt er 1 keer init aangeroepen, meerdere keren update en tenslotte 1 x final. Deze data kan kun met zogenaamde chunks worden aangevoerd.

Hoe doe je dat met "higher level API's"? Nou: cipher aanmaken en 1 keer encrypt aanroepen: alles moet dus eerst in 1 blok in het geheugen worden geladen. Beetje lullig als je 1 GiB groot bestand wil versleutelen: minimaal 1 GiB geheugen gebruik. Meestal willen ze dan ook nog iets naar tekst overzetten, dus dan komt er - meestal onnodig - nog even een base 64 encoding overheen, die nogmaals ~1,3 GiB meer nodig heeft.

Dan willen ze die tekst weer naar een bestand schrijven, dan converteren we die base 64 weer naar binary - natuurlijk in 1 blok - en schrijven we daarmee het bestand vol. Dus dat is meer dan 3,6 GiB geheugen gebruik terwijl 1 kiB - vooruit, laten we 1 MiB nemen - meer dan genoeg is.

Ik zie dit zelfs in C# terwijl die hele API gescheven is om streaming heen (hoewel de GCM class daar dan weer vanaf wijkt - zucht).

[Reactie gewijzigd door uiltje op 14 augustus 2022 19:54]

Op een lange rechte weg kan je zo snel je auto kan, maar de snelheid wordt beperkt door zo een simpel bordje waar "100" op staat, de meeste mensen houden zich er aan. Zo werkt dat eigenlijk ook met software.

Natuurlijk zijn er gewoon ook limieten, je kan ook bv. niet alles maar tot het oneindige paraleliseren, soms moet de software gewoon wachten op de hardware totdat deze klaar is met een berekening. Daarnaast maakt men OSen en software met de laagste hardware in gedachte. MS wil met W11 juist geen HDDs meer hebben (als boot drive), het wordt nog ondersteund, maar wellicht dat daar een einde aan gaat komen.

nieuws: 'Microsoft wil oem's verplichten ssd te gebruiken als bootdrive in ni...
Ik zeg de frequentie van je cpu en geheugen
Je merkt het dus wel degelijk, want het is juist bedoelt voor schrijven en lezen en dat gaat echt wel sneller. Bij normaal gebruik zal je inderdaad weinig verschil merken.
Ja als je grofweg een dozijn stappen doorloopt met ieder een vertaalslag of instructie welke eigenlijk gericht zijn op harde schijven dat gaat em niet worden. NVME is wel een goede stap maar het kan een stuk directer.

Ik denk dat de grootste winst zit in betere aansturing van flash geheugen. DirectStorage is een stap in de goede richting.
Ik ben benieuwd of dit nog altijd zo is met grafische kaarten die direct met de SSD communiceren. Sowieso is het altijd goed vooraf je af te vragen wat je nodig hebt waarvoor. Voor veel personen is een SATA SSD eigenlijk al meer dan genoeg.
Ik ben benieuwd of dit nog altijd zo is met grafische kaarten die direct met de SSD communiceren.
Houd er ook rekening mee dat dit maar in chunks van 128MB word gedaan, en niet in giga brokstukken van meerdere GB's. Dus ja, ik denk wel dat Resizable BAR de maximale throughput haalt van een SSD, maar ik denk niet dat je het verschil gaat merken tussen 5GB/s en 7GB/s of hoger.

Ik draai nog een GTX1080, dus ik kan het niet voor je testen :P
Please correct me if I'm wrong, maar volgens mij haal je dingen door elkaar?

De hoe kleiner de blokken, hoe lager de snelheid, daarom wordt met de Seq read/write snelheden geadverteerd die met files van tientallen GB's grootte worden gehaald.

De chunks van 128 MB liggen qua grootte redelijk in het midden tussen de 4K blokken voor random en de tientallen GB's voor sequential snelheden. Is het dan niet aannemelijker dat de snelheid ook ergens in het midden zal liggen?

Tot slot, of het merkbaar is hangt er volgens mij in eerste instantie van af of dit wel de bottleneck is. Mocht dat het geval zijn, dan lijkt mij een verschil van 40% sneller toch wel heel erg groot (dus merkbaar).
maar dan is het nog alleen de laad tijd van de textures naar VRAM,

dus je fps gaat er niet hoger door worden , hooguit zal je laad tijd van 10 sec naar 7 sec gaat , wat iets is wat je eigelijk niet merkt,
Als ze on the fly ipv vooraf geladen worden ga je dat mogelijk wel zien, pop-in van objecten of verspringen naar hogere kwaliteit van objecten.

De benchmarks waarmee rebar aan/uit staat spreken ook niet over laadtijd maar ingame performance, dus het doet toch iets daarmee.

[Reactie gewijzigd door watercoolertje op 14 augustus 2022 18:35]

dat is als je meer textures dan vram hebt dan komen ze van disk, en dan is rebar idd fijn,

Maar een goede geoptimaliseerde game zorgd dat alles in de 6Gb blijft zodat dat niet gebeurd.

Zo Optimaliseer je dus per platform Pc, Xbox, PS etc, je zet de minder belangrijke texture op een lagere sample rate zodat ze kleiner ingeladen worden en het hele level in je vram past,

heb je een brakke level designer die dat niet weet of voor lief neemt tja dan krijg je jouw verhaal
In pc games werden vroeger alle assets netjes bij elkaar achter elkaar gezet zodat alles ingeladen kon worden in sequence, maar sinds dat we open worlds hebben lijkt me dat niet meer mogelijk Ofja effectief.
Klopt, assets worden wel bij elkaar gegrouped, maar per soort.
Dus bomen bij elkaar, gebouwen, etc
en als je ergens loopt dan laad het verschillende levels of details in wat ook weer van verschillende plekken komt.

sequentieel lezen is meer iets wat je bij databases ziet tegenwoordig.
Of assets per level 🙂

Maar ik heb me nooit geïnteresseerd in hoe game engines zoals unity en unreal in de huidige tijd bestanden laden.

[Reactie gewijzigd door Zezura op 14 augustus 2022 23:43]

No offence, maar voor gaming is seq r/w natuurlijk best een factor. Steeds groter wordende assets worden immers niet in random 4K blokken weggeschreven.
Zolang je geen perfect geoptimaliseerde game hebt voor de Directstorage API, en die game bestaat nog niet, ervaar je voor game loading times, en overigens ook OS boottime, geen verschil tussen SATA, PCI 3.0 of PCI 4.0 SSD's.

Zal bij 5.0 niet anders zijn.
Waarom je gaat het echt niet merken. Of wil je je SSD volschrijven in een slordige 3 minuten? want dat is werkelijk het enige punt waarop het zo snel zal zijn grote bestanden over te pompen.
Voor dagelijks gebruik is het al lastig het verschil te merken tussen een SATA SSD en een PCI 4.0 SSD
https://www.youtube.com/watch?v=4YoRKQy-UO4 is een aardig voorbeeld hoe weinig verschil er is.
Hangt er maar net van af hoe je de SSD gaat gebruiken. We staan op het punt om direct storage te gebruiken binnen pc's om de gpu rechtstreeks met de ssd te laten praten, zoals de nieuwere consoles nu al al doen. Hiervoor is meer performance altijd welkom.
Voor grote compute taken is het ook prettig. Maar voor de doorsnee gebruiker kan je dan misschien beter twee M.2 x2 slots aanbieden zodat men later een extra ssd kan kopen en de overige lanes beschikbaar blijven voor pcie uitbreidingen.
Vaak hebben duurdere borden ook al een tweede (of nog meer) M.2 sloten. Die gaan dan vaak via de chipset dus zijn dan wel iets trager. Maar als je over een doorsnee gebruiker praat is dat meestal meer dan genoeg (of gewoon een SATA3 SSD).
Klopt, maar vaak moet je dan kiezen M.2 of sata of een PCI-e slot.
  • X570 Taichi: als M2_3 gebruikt wordt is PCIE5 disabled.
  • Gigabyte Aorus Extreme: M2C deelt bandbreedte met SATA3 4/5 connector
  • ROG Crosshair VIII Dark Hero heeft maar 2 M.2 sloten. Middels een adapter en bifurcation kan je de GPU in een x8 slot stoppen en het tweede x8 slot gebruiken voor 2x M.2 x4
  • MSI MEG X570S ACE MAX[: PCI_E4, M2_3, M2_4 and SATA5~8 share the same bandwidth en he PCIe x1 slot and onboard Wi-Fi module share the same bandwidth/li]
Zo kan ik nog wel even doorgaan, maar als je pcie 5.0 slim inzet dan kan je al die functionaliteit op je moederbord tegelijk gebruiken zonder merkbaar snelheidsverlies voor alles behalve het meest extreme niche gerbruik voor deze borden.

[Reactie gewijzigd door Omega Supreme op 14 augustus 2022 16:13]

Aangezien de toekomstige CPU'S integrated graphics hebben, kan je ook prima een pci-e nvme converters insteken, meteen ook directe lanes beschikbaar.
Daar heb je weinig aan als je ook een Radeon instinct of Tesla accelerator wil gebruiken. Overigens één van de niches (voor consumenten hardware iig) waarbij je waarschijnlijk ook zoveel mogelijk SSD bandwidth wil hebben om bottlenecks weg te halen.

Als je daarentegen ook een midrange GPU wil gebruiken, dan heeft die genoeg aan pcie 4.0 x8 en kan je op de duurdere moederborden het tweede x16(@x8) slot gebruiken voor twee SSDs.

[Reactie gewijzigd door Omega Supreme op 14 augustus 2022 16:17]

de hele discussie is evolutionair versus revolutionair en wat doe je er mee. ik zou graag zien dat de 990pro er ook in een 4tb of groter versie zou uitkomen. een timelapse van 50.000x 50mpx stills inladen doe ik liever met deze drive dan met een oude hdd.
de hele discussie is evolutionair versus revolutionair en wat doe je er mee. ik zou graag zien dat de 990pro er ook in een 4tb of groter versie zou uitkomen. een timelapse van 50.000x 50mpx stills inladen doe ik liever met deze drive dan met een oude hdd.
doet u dat dan veel zo'n timelapse van 50.000x 50mpx stills inladen met een hdd?
lees die zin nog eens en kijk dan eens of jouw reactie aansluit.
Lees je eigen reactie nog eens om te kijken of je een duidelijk punt maakt, volgens mij niet. Je noemt drie compleet verschillende dingen zonder daarbij de samenhang aan te geven/uit te leggen.

- geen uitleg hoe je revolutionair vs evolutionair ziet/bedoelt: volgens mij is er echt niets revolutionairs hier, PCI, SSD en M.2 bestaan al jaren en dit is gewoon de volgende generatie?
- je wil graag een grotere SSD - tsja, wie niet met zulke snelheden?
- als je een megatimelapse/file wil laden/kopieren, wie zou er dan niet voor de snellere techniek kiezen?

De vraag die OxWax stelt is of het theoretische scenario's wat je schetst wel reeel is. Volgens mij zijn, zeker op dit moment, dit soort snelheden enkel leuk op papier maar hebben voor 99% van de gebruikers/consumenten geen praktisch nut.
Dat is bijna een verdubbeling ten opzichte van de Samsung 980 Pro. Ik ben ook benieuwd of het in de praktijk dit verschil merkbaar is ...
Als in de meeste praktijktests nauwelijks een verschil te bespeuren is tussen SATA en M.2 PCIe 4 drives lijkt me dat niet waarschijnlijk, tenzij je een werklast hebt die de SSD met veel threads belast.
de 980 pro is een consumerproduct en moet je met de cijfers van de 990 pro vergelijken, want de pm1743 waar hier cijfers van genoemd worden is de opvolger van de pm9a3. Desondanks houdt elke pci-express versie een verdubbeling van de snelheid tov de vorige versie in, dus zo onlogisch is dat niet. Hoe het in de praktijk gaat zijn kan niemand je zeggen, laat staan of het de moeite is
Leuk dat het nu nog wat sneller is, maar voor mijn gevoel staat de ontwikkeling qua opslag een beetje stil. Er is nog steeds niet een enkele drive van zeg zo'n 20TB die snel en betaalbaar is (en in een normale desktop te stoppen)

Als ik nu een ultimate PC samen zou moeten stellen zou het nog steeds een M.2 / SATA SSD / HDD combo worden voor opslag. De M.2 voor Windows en programma's, de SSD's voor data van die programma's (Steam library) en de HDD's voor statische data als films en foto's. Met een 10Gb netwerk moet ik nog steeds 2 apparaten aanzetten, en dat wil ik niet ;)
Een beetje stil? Een 500GB Sata SSD die maar 500 MB/s haalde, kostte 5 jaar geleden nog 150 euro. Tegenwoordig heb je voor 80-90 euro 1 TB aan NVMe

Nee we zijn nog niet bij betaalbare 20TB aan betaalbare SSD.

Je moet met huidige schijf technologie ook absoluut geen 20 TB aan nuttige data op 1 schijf willen. Dan dien je echt met arrays te werken

[Reactie gewijzigd door youridv1 op 14 augustus 2022 17:45]

Je moet met huidige schijf technologie ook absoluut geen 20 TB aan nuttige data op 1 schijf willen.
Waarom niet? Als de schijf kapot gaat download ik het wel opnieuw....
en.... tromgeroffel... je kunt ook meerdere betaalbare 20 TB ssd's in een array hangen...
Kan een leuke simpele nas worden, 5x 20 TB nvme op een bordje met een paar 2.5/10 Gbit nics. Weinig geluid en stroomverbruik.

[Reactie gewijzigd door Zer0 op 14 augustus 2022 18:02]

Dan moet het wel te downloaden zijn.
Waarom zou je 20TB aan data lokaal houden die je ieder moment kunt downloaden? Je hele steamlibrary installeren zeker, ookal heeft dat nul nut

Ik denk dat jij eens moet gaan inlezen over arrays van schijven. Die hebben namelijk ook zo hun grenzen met de capaciteit van de individuele disks mbt herstellen van fouten etc

Wat jij nu benoemt is namelijk een beetje de beginnend tweaker / tech youtube viewer mindset.
Groter getalletje goed. Zonder er dieper op in te gaan

[Reactie gewijzigd door youridv1 op 14 augustus 2022 19:25]

Waarom zou je 20TB aan data lokaal houden die je ieder moment kunt downloaden?
Omdat downloaden tijd kost, en er meerdere gebruikers van de data zijn.
Ik denk dat jij eens moet gaan inlezen over arrays van schijven. Die hebben namelijk ook zo hun grenzen met de capaciteit van de individuele disks mbt herstellen van fouten etc
Valt best mee, zelfs mijn relatief simpele NAS heeft al een paar keer een rebuild gedaan met 14 TB schijven, duurt even, maar is goed te doen.
Wat jij nu benoemt is namelijk een beetje de beginnend tweaker / tech youtube viewer mindset.
En wat jij doet is veel te professioneel naar een "issue" kijken dat geen professionele blik vereist. Ik wil gewoon een hoop data opslaan, bij voorkeur voor een lage prijs, en redundancie of backups zijn geen issue... waarom zou ik dan niet 20 TB ssd's gebruiken? Die zijn maar een klein beetje groter dan de 14 TB hdd's die ik nu gebruik, en bieden een aantal voordelen.
Eerst het doel benoemen, dan een juiste oplossing er bij verzinnen, niet andersom.
Vreemd. Ik wil juist wel die kant op.
Nu heb ik een all-in-1 toren (Antec P182) met o.a. 5x HDs, 1xSSD, 1xSSD M.2. Vandaag opengemaakt om te ontstoffen. Moest het samen met mn moeder op tafel tillen. Het kreng weegt een ton.
Ik wil een mooie kleine kast. Met mATX, 1 of 2 SSDs voor games, apps.
Misschien de fractal pop mini.
De hardddisks gooi ik in een 4-bay NAS voor mijn legale backups van series en natuurfilms.

[Reactie gewijzigd door LordLuc op 14 augustus 2022 18:39]

flash-storage is nu eenmaal een pak jonger dan harddisk-storage en is nog volop aan het groeien. Je mag de capaciteit van de 2 verschillende media eigenlijk niet met elkaar vergelijken omdat de techniek radicaal anders is, alsof je met een unicycle even snel als een fiets wil kunnen rijden
Die industrie zit er niet op te wachten. Ik gebruik nogal veel USB-sticks en er duiken telkens meer merken op die bij de produktie verknoeid zijn. Een mooie transfer-rate als verkooppraatje en dan zorgen dat de controler 2 seconden nodig heeft voor elke actie. O.a. Kingston Exodia en Kioxi Transmemory komen er bij mij niet meer in. Sandisk verdenk ik van voortijdige eol-praktijken. Die gaan gewoon veel te vaak kapot.

Probleem is denk ik dat de fabrikanten van de chips niet hun eigen interne storage willen beconcurreren. Het mag geen OS-bestandssysteem booten en ook snel blijven. Films erop zetten is geen probleem. In prestatie houdt flash het goed bij, behalve als we dit gaan krijgen en er ook niks tegen wordt gedaan.

[Reactie gewijzigd door blorf op 15 augustus 2022 02:00]

ik had het niet over externe storage, laat staan usb. usb-sticks moeten vooral zo goedkoop mogelijk zijn en vaak wordt er dan ook op de controllers bespaard en een dram-cache kan je dan al helemaal vergeten.
De fysiek vaak iets grotere externe ssd's hebben meer ruimte om die dingen wel te bevatten en zijn dan enkel beperkt door de usb-poort en de achterliggende controller + hoe die verbonden is. Laatste voordeel van de interne ssd's is dat ze beter gekoeld kunnen worden omdat de chips open en bloot aan de airflow van je kast kunnen en niet in een behuizing zitten die tegen vallen en vochtigheid moeten beschermen.
SSD's zijn marketing-technisch een probleem. In principe kan de snelheid zonder grote problemen opgevoerd worden tot het de bussnelheid benadert. Kwestie van chips naast elkaar leggen in plaats van opstapelen.
Wat is nog het nut van zowel een m.2 en een s-ata ssd te gebruiken? Gewoon 1 nvme van 2 of 4 TB voor Windows, programma's en die steam library
Het wordt tijd dat we gezien de grote hoeveelheden RAM die we kunnen instaleren we een beetje richting het AS400 model gaan,

We hebben traag, normaal en snel geheugen en het systeem moet het maar gaan managen,

dus dingen die je veel nodig hebt staan in een RAM disk en worden snel uitgeswaped tussen deze snelle SSD en RAM voor ultra snelle access,

Dan zijn dit soort disks heel handig om de uitwisseling snel te laten verlopen zodat jij van de juiste storage type gebruik kunt maken, en dan word alles veel sneller en vloeibaarder.
Op papier ziet het er gigantisch uit maar ik denk dat ook hier weer in de praktijk deze snelheden alleen met bepaalde specifieke toepassingen gehaald worden. Maar zoals anderen ook al schrijven is het net alsof er een beetje een stop gekomen is bij de ontwikkeling van ssd's, buiten dan hogere snelheden. Denk dat de ontwikkeling van snelle harddisks of goedkopere grote ssd's een betere ontwikkeling zou zijn.
Persoonlijk vind ik de snelheden van de moderne SSD's minder van belang, ik vind ze voor het dagelijks gebruik allemaal snel zat :) Die hoge snelheden merk je eigenlijk alleen maar als je hele grote bestanden kopieert (en dat doe ik vrijwel nooit). Wat ik belangrijker vind is de betrouwbaarheid, IOPS en de TBW waarde van de SSD :Y)
Sinds de 980 Pro is de Pro-serie SSD’s van Samsung zijn geld eigenlijk een stuk minder waard geworden. Het is voortaan TLC geheugen en bijvoorbeeld een Seagate Firecuda 530 geeft dubbel de garantie TBW. leuk dat hoge snelheden worden opgegeven, maar voor zo’n dure drive lijkt 600TBW voor 1TB capaciteit mij aardig karig.

Op dit item kan niet meer gereageerd worden.

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee