Silicon Power kondigt pci-e 4.0-ssd's aan

Het Taiwanese Silicon Power presenteert de US70-serie pci-e 4.0-ssd's. De ssd's zullen verschijnen in varianten van 1TB en 2TB. De fabrikant noemt maximale lees- en schrijfsnelheiden van 5000MB/s en 4400MB/s.

Silicon Power US70De Silicon Power US70-ssd's maken gebruik van de pci-e 4.0-interface met vier lanes en het nvme 1.3-protocol. Welke controller er in de ssd's zit, is niet bekendgemaakt, maar de genoemde maximale sequentiële snelheden wijzen op de Phison PS5016-E16. Veel fabrikanten hebben die controller in hun eerste lichting pci-e 4.0-ssd's gestopt.

Silicon Power geeft de US70-ssd's slc-cachegeheugen en een dram-cachebuffer, maar exacte details daarover zijn nog niet bekendgemaakt. Welk nandgeheugen de ssd's gebruiken voor de opslag, is evenmin bekend. Vermoedelijk gaat het om tlc-nand.

Silicon Power komt met twee uitvoeringen van de US70-ssd, met capaciteiten van 1TB en 2TB. De m2-ssd's hebben afmetingen van 22x80x3,5mm en krijgen vijf jaar garantie. Prijzen heeft de fabrikant nog niet bekendgemaakt. Ook is nog niet duidelijk wanneer de ssd's uitkomen.

Door Julian Huijbregts

Nieuwsredacteur

15-06-2020 • 10:26

36

Reacties (36)

36
35
24
4
0
9
Wijzig sortering
Leuk al die snelheden, alleen Windows haalt het nooit, dat is de grootste botelneck voor een computer. Linux doet het beter maar haalt het ook niet.
Probleem met dit soort snelheden wordt al snel latency. Een van de zaken waarom NVME juist zo bijzonder is tegenover AHCI, is juist dat. En als je dat koppelt aan het feit dat je als consument tegenwoordig een PC kan halen waar de SSD dan ook nog eens rechtstreeks met de CPU verbind, dan kan dat best van invloed zijn.

Denk eens in: wát is booten, wát is het starten van software? Feitelijk het laden van uitvoerbare code uit opslag naar de CPU. L1, L2, en L3. In die hiërarchie. Op het moment dat iets niet in L1 zit, is er een 'cache miss', waarna er feitelijk hoger op de boom gezocht gaat worden, all the way tot RAM, en daarna conventionele storage. Als elke "cache miss" een tick is, heb je al snel een hele hoop verspilde ticks als je er vanuit gaat dat zowel CPU cache (instruction/data L1, L2, en L3), als RAM feitelijk klein zijn (hoewel je als consument nu CPU's kan kopen met 128MB L3, 12MB L2, en 1,5MB L1, genoeg om oude OS-en op te draaien), en bovendien al hun data kwijtraken zodra er 'power loss' is.

Het liefst zou je zoiets hebben als persistent RAM... want dan is er feitelijk geen verschil meer tussen "aan" en "uit", en heb je minder cache misses.

Dat is waar PCI-E, wat feitelijk rechtstreeks onderdeel is van de CPU (in sommige platformen, Intel hubt het nog vrolijk via een south bridge...), en protocollen als NVME. Het is nog steeds storage, maar het staat veel dichter bij, kan veel meer requests tegelijk aan (door slimme queueing), en zelfs leuke trucjes leren zoals HMB, waardoor zelfs een dram-less SSD feitelijk ineens een beest kan zijn...

Nou is flash nog steeds geen RAM, maar het begint, zeker dankzij slimme controllers, wel in de buurt te komen. En eigenlijk wordt het pas écht leuk als je naar technieken als 3D x-point, wat feitelijk alweer meer op RAM lijkt (en binnenkort ook als dusdanig gebruikt kan worden... we moeten onze software echt anders gaan schrijven!). Dit wordt o.a. als Optane en als QuantX verkocht door Intel en Micron.

Ik denk dat je verder moet kijken dan Windows, Linux, of operating systems, maar meer moet kijken naar dit soort 'evoluties' als goed voor computers in hun geheel.

Als je naar de marketing-blabla van Sony kijkt (die overigens een BSD-OS gebruiken op AMD hardware) zie je al vrij snel juist de meerwaarde van dit soort PCI-E4 en hoger zaken. Naast meer bandbreedte, is er ook meer lowlvl access. En ook dit wordt terug in Windows geport. Dat is leuk, want daar heeft iedereen baat bij. Tot we op den duur in een wereld wonen waar zelfs CPU cache persistent is, en er eigenlijk geen onderscheid meer is tussen compute & storage. Alles gewoon instant.
Linux doet niets beter, gebruiken dit onder windows en linux en zie geen verschillen. (RAW) performance.
De verschillende filesystem opties op linux systemen zijn wel degelijk regelmatig veel sneller dan de op windows beschikbare filesystem opties.
https://www.phoronix.com/...m=xeon-windows-2019&num=2

Zie ook deze uitleg: https://github.com/Micros...73#issuecomment-425272829
en zelfs tussen de verschillende filesystems op linux zit naturlijk een wereld van verschil in performance, en features welke afhankelijk van de usecase wel of niet roet in het eten gooien, of wel of niet de beschikbare bandbreedte kunnen gebruiken:
https://www.phoronix.com/...inux-50-filesystems&num=2
De verschillende filesystem opties op linux systemen zijn wel degelijk regelmatig veel sneller dan de op windows beschikbare filesystem opties.
https://www.phoronix.com/...m=xeon-windows-2019&num=2

Zie ook deze uitleg: https://github.com/Micros...73#issuecomment-425272829
en zelfs tussen de verschillende filesystems op linux zit naturlijk een wereld van verschil in performance, en features welke afhankelijk van de usecase wel of niet roet in het eten gooien, of wel of niet de beschikbare bandbreedte kunnen gebruiken:
https://www.phoronix.com/...inux-50-filesystems&num=2
Je zit hier nu raw drive performance vs OS dependent filesystems te halen. Het gaat hier toch over de SSD niet over hoe een OS performance is per filesystem? Want die vergelijkingen hadden we in de HDD tijd ook.
heh?

Wat heb je aan raw drive performance zonder filesystem of zonder operating system?
Elk Os kan dmv een driver een pci-e, of sata verbinding volduwen. Juist dat stuk er bovenop maakt het een werkbare en snelle oplossing voor de gebruiker.
Sure er zijn wel raw disk oplossingen zoals databases, maar als ik het plaatje boven in het artikel daarbij moeten verwachten dan gaat er iets mis in de marketing denk ik.
Leuk al die snelheden, alleen Windows haalt het nooit, dat is de grootste botelneck voor een computer. Linux doet het beter maar haalt het ook niet.
Bron voor die claim?
Mits u een mobo heeft (met chipset) die dat ondersteunt , zie ik het probleem niet.
Ik ben niet degene die het claimde maar LinusTechTips heeft een video van z'on razendsnelle SSD. Ze testen op Windows en Linux en op Linux is de snelheid effectief hoger. Maar als ik het me goed herinner was het sowieso geen realistisch scenario. Ze probeerden gewoon een zo groot mogelijk nummer te tonen aan de kijker(s).

Edit: link https://youtu.be/zC03p4j_5Yc

[Reactie gewijzigd door GoldenBE op 22 juli 2024 22:23]

Je bedoeld dat het voor het gemiddelde gebruik weinig uit maakt, dat klopt. Ga je veel grote bestanden verhuizen dan maak het wel uit. Sequentieel is het verschil echt flink merkbaar maar in random IO haast niet.
Ik heb een 3.5GB/sec Samsung 970 EVO SSD en ik haal dat ook in Windows als ik grote bestanden kopieer.
Het gaat niet om througput maar om latency. Dat is ook het hele PS5 verhaal en dat daar meer mogelijk is dan op huidige pc's. Dat is de marketing althans.
Maar met dingen laden merk je niet veel verschil met een normale ssd. En welke driver gebruik jij verder?
Er is een verschil in effectiviteit tussen de operating systems, maar stellen dat je OS het niet haalt geeft aan dat de hardware limitaties en configuratie/afstelling nog niet is meegenomen. Kortom: de operating systems kunnen hier aardig gebruik van maken, als de rest van de hardware er naar is, inclusief afstelling.
Wirth's law

Wirth's law is an adage on computer performance which states that software is getting slower more rapidly than hardware is becoming faster.
Ik zie snelheden waarvan ik denk dat die in de praktijk ook wel met PCI-E 3 te halen zijn. Dacht dat 5500MB/s daar een beetje het limiet (in de praktijk) is.

Biedt PCI-E 4 nog andere voordelen of is dit een gevalletje, we willen de eerste zijn...


Blijkbaar loop ik voor/achter, maar het is idd pci-e 4 die in de praktijk maar ongeveer 5.5GB/s haalt

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:23]

Dit soort producten lijken vooral gemaakt te worden voor hoger nummer == beter product groep. Ik ken weinig software die 5.5Gb in moet laden en daar direkt iets mee kan. Bij dat soort hoeveelheden data zinnig verwerken komt waarschijnlijk ook een hoop rekenwerk kijken zodat de laadtijd maar een klein deel van de totale tijd is. M.i. zou men er beter aan doen pci-e 4 sloten met 2 lanes te gebruiken en dan het aantal m2 slots verdubbelen.
Je kent weinig software die 5.5 GB moet inladen, daar weinig mee kan, anders dan er veel mee moeten rekenen?

Ga dan maar eens aan de slag met digitale muziekproductie, gericht op virtuele akoestische instrumenten, symfonie en koren. Als je je setup goed wilt opzetten, dan heb je wel een of meerdere server racks gevuld met machines en opslag. Het zijn MIDI-slaves en audio-sources. De input van MIDI-signalen kost zeer weinig bandbreedte en de output van gegenereerde audio signalen is zoiets ongelimiteerd (audio-outs naar audio-mixers). Sommige machines zullen moeten rekenen (realtime synthesis), anderen zullen vooral werken op basis van samplebibliotheken en weer anderen zitten er tussenin. Let wel dat we tegenwoordig niet meer spreken over gewoon wat click-and-play-sampletjes waarin je bijv. een pianonoot hoort, maar over realtime geluidsconstructie door het combineren van duizenden sample slices. We spreken hierbij niet over GBs aan opslag, maar over meerdere TBs _per instrument_. Feitelijk eindeloos. Meer is altijd beter en hoe meer in een past hoe beter. Dat drukt de kosten aanzienlijk. De grootste bottleneck is hierbij de (in deze context geziene) beperkte hoeveelheid RAM geheugen. Dan is het mooi dat je i.i.g. gebruik kunt maken van snelle en stabiele disks i.p.v. ouderwetse, mechanische, slijtende hardware.

Zelfs bij productie op een gewone desktop is zulke opslag erg handig en zeker nooit te veel. Neem bijv. de platinum edities van East West Brass, East West Hollywood Strings, de Vienna Symphonic Library suite of welkeender goede choir library. Dat zijn honderden GBs die je graag preloaded wilt hebben bij het openen van een nieuw project, zodat er weinig of niet geladen hoeft te worden gedurende het sequencen en/of het renderen. Deze producten worden dan ook niet voor niets verkocht pre-installed op een SSD. Zulke producten zijn qua kunnen en kwaliteit gelimiteerd aan de opslagcapaciteit van SSDs. Er kan dus vrijwel letterlijk gezegd worden dat er altijd een tekort aan opslag zal bestaan. Al zouden we naar Petabytes gaan: dan gaan we toch lekker van 44.1 kHz naar 22.5 MHz samples, met nog meer round-robins, nog meer slices per signaal, nog meer recording setups per slice, etc.

Kortom: Ik zou graag 200+ TB aan het snelste RAM en SSD hebben. Dan kunnen we wel een tijdje vooruit.

[Reactie gewijzigd door CoreIT op 22 juli 2024 22:23]

Met het gebruik van virtuele instrumenten die bijzonder goed klinken zijn deze redelijk eenvoudig om te zetten naar audiosporen.

Het realtime kunnen gebruiken van pluggins, veel audiosporen en virtuele instrumenten is natuurlijk prima voor de workflow. Het is zeker mogelijk om het systeem op te schonen en te ontlasten met een mixdown van een instrument of vocalen. Met opnames is het zeer wenselijk om de latency op z’n allerkleinst te hebben. Zodat je tijdens het spelen en opnemen geen “lag“ ervaart maar ook het terug horen van eerder opgenomen audio sporen van de verschillende instrumenten en zangpartijen plus de mogelijkheid voor realtime filtering.

Voor live geluid is alles zo snel mogelijk in de digitale mengtafel en stageblok zeer wenselijk, en zal een muzikant bij voorkeur zijn instrument audio output geven. In een mengtafel kan dan alsnog prima een snelle ssd zitten om in realtime te kunnen routen, filteren en mixen.

edit: correctie

[Reactie gewijzigd door DefaultError op 22 juli 2024 22:23]

@latka zegt toch niet dat er geen software is, alleen dat hij er weinig kent. Iets zegt me dat jouw voorbeeld een beetje niche is en niet voor de grote massa. Ik kan me vergissen, misschien ben ik de enige Tweaker die niet onmiddellijk iets heeft met virtuele akoestische instrumenten en koren.
Zelf zit ik aan parallelisatie en databases te denken.
Als je echt serieuze databases hebt dan kun je opslag media's niet snel genoeg zijn.

Het is "mooi" dat het nu een mainstream heeft gevonden dat gamers helemaal heet worden over "betere laadtijden" waar in praktijk er maar een paar games zijn die het kunnen gebruiken, door de manier waarop zaken worden ingeladen.

Maar voor zakelijk segment, 1 bak met flink wat cores en ram geheugen, denk dan meer dan 32 cores en 512 GB aan geheugen. Als je dan een paar TB aan databases hebt en meer dan 500 request per seconden dan ga je op een gegeven moment die bandbreedte nodig hebben.

Misschien niet perseen in rauwe doorvoer snelheid, maar omdat requests ook zo snel kunnen worden afgehandeld, steigen je IOPS en random read/writes ook.

En als je even een backup moet draaien dan zijn die rauwe sequentiele read / writes ook wel fijn.
IOPS stijgen doe je oa. met RAID-0. Dus meer slots is dan wenselijk (meer parallele flash aansturen). En als je DB zoveel data in moet lezen ben je waarschijnlijk tablescans aan het doet. Tijd voor een index wellicht? En een backup met 5.5Gb/s dan moet je ook een flinke netwerk pijp hebben liggen (of bedoel je lokaal een een kopie trekken?). 5.5Gb/s is al 50Gbit ethernet. Dan zit je in het domein van hele dikke servers. Daar is M.2 weer niet handig want het hotswapt voor geen meter. Ik blijf erbij dat PCI-e 4x4 overkill is voor een consumenten PC.
Dat licht volledig aan hoe de software werkt, veel real time software doet vrij weinig aan compressie en verwerking van data om bottle necks te voorkomen. Hiervoor zijn dit soort dingen perfect geschikt.

In games worden modelen vaak zo opgeslagen dat de verwerking na decomrpessie van de asset enkel een memcpy is. En de decompressie is vaak ook opsnelheid gericht.

[Reactie gewijzigd door NC83 op 22 juli 2024 22:23]

Als het echte "harde" real-time is dan vermijd je I/O (als in: real-time betekend dat je 100% voorspelbaar bent in je jitter en latency, dan ga je niet naar een m.2 device die wellicht aan het throttlen geslagen is). Als je bedoelt: het moet snel. Er zijn voldoende gevallen bekend dat het sneller is om lz4 compressie toe te passen omdat je geheugenbus dan minder zwaar belast wordt en dan de data verwerken op de cpu. Maar het hangs af van je doel, dat is duidelijk.
En een memcopy is dus traag: eerst van nvme naar geheugen = 40Gb/s max. Dan moet het weer naar de CPU cache en van weer de pci-e bus over. Verre van optimaal. Ik denk dat de console's die eraan zitten te komen dus nvme -> GPU dma doen (iets wat je op je PC niet zal zien) om zo de bottlenecks te omzeilen. Als ze dat idd. doen dan hoop ik dat PC boeren snel volgen en DMA tussen pic-e busmasters goed gaan ondersteunen. Dan kan die snelle nvme SSD nog wel renderen voor een beperkt aantal usecases. Zoals PCs nu in elkaar gezet worden is het een spoiler (met RGB lights) op een Fiat Panda.
Waarom wachten totdat PCI-E 3 een bottleneck is? Misschien heeft PCI-E 4 nog andere voordelen? Zuiniger? Nog steeds jammer dat SATA plots was achterhaald. Had niemand zien aankomen! Ook goed om ervaring op te doen. Dat alles plug in play werkt van verschillende fabrikanten is een wonder! Voor RAM-geheugen zie je wel vaker moeilijkheden.
(@latka jammer inderdaad dat er voor sata nog geen echt alternatief is met kabeltjes)

[Reactie gewijzigd door g4wx3 op 22 juli 2024 22:23]

PCI-e 4 is zeker niet zuiniger dan PCI-e 3 (zie het ventilatortje op de x570 borden). En sata is nog niet achterhaald: als je meer storage wil dan is M.2 gewoon erg beperkt (tot 3 of 4 slots op een moederbord en dan tot 2tb per slot oid.). Als je meer wilt dan moet je een SAS (=SATA, maar dan voor professioneel gebruik) schijven tot 30TB aan flash gebruiken. U.2 was er ook voor nvme schijven via een kabel aansluiten, maar dat is een stille dood gestorven. Voor draaiend roest is SATA/SAS nog steeds de beste optie (en prijs/gb is beter dan die van SSD, dus afhankelijk van je toepassing is dat verstandiger).
Tweakers: Silicon Power kondigt pci-e 4.0-ssd's aan
Eindelijk komen ze weer is met een pci-e 4.0 ssd aan, zag weken alleen maar nieuws van nieuwe pci-e 3.0 ssd's langskomen, nu ook eindelijk B550 MB uit gekomen zijn die ook een PCIe 4.0 M.2 slot hebben, als je de nieuwere AMD CPU's gebruik, X570 hadden dat al lang maar die ging ook via de chipset.
U.2 had meer gemeengoed moeten zijn, dat ben ik met je eens, minder plek op het moederbord, meer poorten mogelijk.

Wat betreft je andere comment en "PCI-e 4x4 overkill is voor een consumenten PC" dat ben ik niet met je eens. Voor je e-mail en browser wel, maar wil je een beetje rommelen met videobewerking of meer wil met je vakantiefoto's dan upload naar FB klikken dan heeft het wel nut. Of lekker wil gamen (zeker met aankomende crossplatorm titels, zie PS5 ssd) dan heeft het wel nut, over een maand of 10.
Dan blijft staan dat je die data moet kunnen verwerken. CPU's van nu doen ongeveer 40Gb/s naar het geheugen. pci-e 4x4 doet ongeveer 8Gb/s naar het geheugen. Dat betekent dat je CPU niet meer dan 5 instructies per byte-transfered op de data mag doen. Voor kopieren lukt dat wel, maar voor iets zinnigs doen met de data is 5 instructies wel weinig. Dus sustained een transferrate van 8Gb/s is best fors voor een reguliere PC. En dan nog kun je beter 2xSSD in RAID-0 hebben over pci-e 4x2 (in raid-0) zodat je schijfperformance redelijk blijft.
Wellicht dat DMA van NVME naar de GPU gemeengoed gaat worden op PCs (dus je textures zonder CPU direkt op de GPU laden), maar dat zal voorlopig wel console only worden (en dure pro Quadro kaarten op werkstations).
En dan loop je volgens mij ook in de praktijk nog een beetje meer achter dan je denkt :)
Bij de eerste lichting van pci-e 4 SSD's (meestal met dezelfde controler) was de limiet ong. 5.5GB/s.
De nieuwste echte performance SSD's van bijv. Samsung die halen al 7GB/s.
Bijv. https://tweakers.net/pric...-5-inch-1-komma-92tb.html

[Reactie gewijzigd door kh65 op 22 juli 2024 22:23]

"maar 5.5GB/s" ... 8)7
Als je dan van een "gewone" SSD komt, lijkt me dat toch niet zo slecht.
Kan iemand mij uitleggen wat de toegevoegde waarde is voor fabrikanten om SSD’s uit te brengen die exact dezelfde controllers gebruiken als de SSD’s van hun concurrenten?
Omdat er maar enkele grote spelers zijn die dit kunnen produceren.
Tevens is Phison, of bijvoorbeeld Marvell, SMI geen concurrenten van opslag fabrikanten, maar eigenlijk juist een 'samenwerking'.

Dat is geheel normaal in allerlei sectoren.
Snap ik, maar wat is de toegevoegde waarde? Het kost een hoop om op de markt te brengen, maar uiteindelijk breng je een product uit dat exact hetzelfde is en kan als het product van de concurrent.
De toegevoegde waarde is dat je anders geen werkende SSD heb?
Tevens is het niet het zelfde product, maar maken twee producten gebruik van de zelfde controller.
Alle overige onderdelen, bijvoorbeeld de flash kan weer zelf geproduceerd zijn of ergens anders gehaald worden. De prestaties is dus niet vast gelinkt aan de controller specificaties.

En zijn zat verschillende telefoon merken die de zelfde CPU gebruiken, of twee bluetooth speakers die de zelfde BT chip gebruiken.

In het kabeltje van Apple & Action zit ook beide koper, en een USB connector, doet ook exact het zelfde.
Het hangt van veel meer factoren/onderdelen af. Denk ook de productie wijze, kwaliteit, temperatuur beheersing etc.
Ik denk dat ze zo snel mogelijk SSD's met deze snelheid willen klaar hebben en een approval van Sony zodat eind dit jaar wanneer de PS5 uitkomt mensen eventueel een compatible SSD als uitbreiding er bij kunnen stoppen.
Want de 825 GB die standaard op het moederboard zit gesoldeerd is natuurlijk niet super groot.

Op dit item kan niet meer gereageerd worden.