Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties

Seagate zegt deze zomer een ssd uit te brengen die een snelheid van 10 gigabyte per seconde haalt. De ssd maakt gebruik van nvme-techniek en zestien pcie-lanes. Ook zegt Seagate te werken aan een variant met acht lanes.

Volgens Seagate is de 10GB/s-ssd klaar voor productie en voldoet het opslagapparaat aan de specificaties zoals gesteld voor het Open Compute Project. Dat moet de ssd geschikt maken voor grote datacenters waaronder die van Facebook. Seagate claimt dat de snelheid van 10GB/s ruim 4GB/s sneller is dan de snelste ssd's die op dit moment verkrijgbaar zijn.

De ssd maakt gebruik van het non-volatile memory express-protocol en om de snelheid van 10GB/s te halen zijn zestien pcie-lanes nodig. Met huidige nvme-ssd's voor consumenten, zoals de Samsung 950 Pro, zijn in de praktijk momenteel snelheden tot 3GB/s haalbaar. Deze ssd maakt gebruik van vier pcie-lanes.

Verder maakt Seagate weinig details bekend over de ssd; zo is het niet duidelijk wat de opslagcapaciteit is. Ook ontbreken details over iops of prijs. Wel zegt de fabrikant dat er ook een model komt dat met acht pcie-lanes werkt. Deze variant moet een doorvoer van maximaal 6,7GB/s bieden.

Seagate SSD 10GB/sSeagate SSD 10GB/s

Moderatie-faq Wijzig weergave

Reacties (68)

DDR4 data transfer rate:DDR4 3200:25.6 GB/s
In dit tempo zal het niet lang meer duren voordat het verschil tussen "werkgeheugen" en "storage" niet meer bestaat. Ik ben erg benieuwd wat dit gaat betekenen voor het ontwerp van moederborden (en PCs) . Ik voorzie een toekomst waarin een moederboard (PCB) geen dedicated intern geheugen meer nodig heeft, en al naar behoefte geheugen als storage of als werkgeheugen inzet, Desnoods Terabytes aan intern geheugen.
Daar PCIe (zelfs x16) en/of NVMe niks doen aan de grootste bottleneck van NAND, de relatief trage toegangstijd van NAND geheugen zelf, en opzichte van geheugen (factor 2000), en zolang je geen grote Queue Depth (QD) hebt, kan je maar een beperkte data snelheid halen, en is 95% van de tijd, zelfs SATA 600 niet een beperkende factor.

Ik denk zelfs met deze SSD, dat je tijdens het opstarten van Windows, je maar 10 tot 50 MB/s aan gemiddelde data doorvoer zal hebben, dat doet SATA ook op zijn makkie!

Dus voordat er hier een hoop gaan zeggen, die wil ik ook wel in mijn PC hebben, helaas voor hen, deze SSD is niet of nauwelijks sneller dan een 850 Pro in SATA uitvoering, voor 99.5% van het desktop gebruik.

En hoewel ik zeker een groot voorstander ben van NVMe, heeft het in tegenstelling van de server markt, zeer weinig voordelen voor desktop gebruik, daar het niet het fundamenteel probleem van NAND oplost, de toegangstijd tot data, en het is puur de random toegangstijd van NAND geheugen die je de das omdoet op de desktop.

Zal mijn oude uitleg van het probleem, die ik eerder poste bij de HWI video review van 1.2TB Intel 750 versie van deze type kaart.

-------------------

Een hoop ge-hype met nagenoeg irrelevante extreem hoge AS SSD scores, maar waar in de praktijk weinig of niks aan hebt, daar QD64(*) super interessant is voor een hele zware database server, maar totaal irrelevant is voor de desktop, waar een QD4 min of meer een echte uitschieter is, en QD1 en QD2 min of meer 95% van de tijd standaard zijn.

En er wordt in zijn geheel niet gesproken over de bijzonder saaie PCMark 8 Storage totaal score, wat veel meer de praktijk weer geeft.

Er zullen vast momenten zijn dat deze SSD lekker rap aanvoelt, vooral bij het laden van grote files, maar in de praktijk zal je er zeer weinig van merken over een normale moderne SATA SSD/

(*)Wat is Queue Depth, QD is het aantal uitstaande disk acties die in de wachtrij staan.

Desktop (PCMark 8 scores)
Hoe moet je dat zien, stel je voor je gaat naar een bibliotheek, als je bij de desk komt ben je er steeds met 1~4 mensen tegelijk, als je voor een nieuw boek of een aantal boeken komt, er zijn 64 bediendes de een met een kleine (SATA) kar, de andere bibliotheek met een grote (PCIe 4x) kar.

Server (AS SSD scores)
En hoe moet je dat zien zien, je gaat naar een bibliotheek, en als je bij de desk komt ben je er steeds met 64 mensen tegelijk, als je voor een nieuw boek of een aantal boeken komt, er zijn weer 64 bediendes de een weer met een kleine kar(SATA), de andere met een grote(PCIe 4x).

Waarom zijn er nauwelijks verschillen te zien met PCMark 8
Dat komt omdat er steeds maar max 4 mensen zijn bij de desk die om boeken vragen, gaat de bediende door de rijen boeken heen en komt terug met je boek, de SATA kar komt steeds half vol terug, waar de PCIe kar steeds bijna leeg terug komt, maar wel met net zo veel boeken als de SATA kar.

En als eens een enkele keer je meerdere boeken te gelijk opvraagt dan, dan kunnen die sneller geleverd worden met de grotere PCIe kar, maar dat gebeurd maar zelden op de desktop, en heeft daarom maar weinig invloed op de totaal score, en het gebruik in de praktijk.

Waarom zijn er dan wel zulke enorme verschillen te zien met AS SSD
Dat komt omdat er steeds tot wel 64 mensen zijn bij de desk die om boeken vragen, en gaat de bediende door de rijen boeken heen en komt terug met je boek, en de SATA kar komt steeds vol terug, maar nu komt ook de PCIe kar steeds vol terug, maar wel met 6x/12x/24x zoveel boeken als de SATA kar.

Samen vatend
Deze NVMe SSDs zijn leuk, maar behalve in hele bijzondere omstandigheden op de desktop, zijn deze SSD in zijn geheel hun prijs premium niet waard voor desktop gebruik, voor servers is het weer een heel ander verhaal.

En heb je wel meer bandbreedte nodig voor speciaal gebruik, dan kan je dat ook doen door een extra disk aan te make, en 2 of 3 SSDs in R0 te zetten, is een heel stuk goedkoper per GB.

-------------------

Waar het op neer komt, NVMe & PCIe SSDs zijn leuk, maar ik ga er iig niet meer aan uitgeven dan 10 max 20% extra over de huidige top SSD als de 850Pro, want in de praktijk op de desktop heeft R0 van 2 of 3 SATA SSDs het zelfde effect als deze nieuwe NVMe SSDs, in het geval dat je echt extra bandbreedte nodig hebt.

[Reactie gewijzigd door player-x op 9 maart 2016 16:53]

Interessante post, kan helaas geen score meer geven, maar m.b.t. je conclusie, spreek je je betoog hiermee niet een beetje tegen? Je geeft aan dat 2 of 3 SATA SSD's in Raid opstelling hetzelfde effect hebben als nieuwe NVMe SSD's, en je wil niet meer dan 20% extra uitgeven voor NVME. Maar dan moet je dus minimaal 2 van die SATA SSD's aanschaffen om dezelfde snelheid te halen als 1 NVMe SSD. Een Samsung SM951 NVME SSD a 256gb haal je in huis voor ¤137, en een Samsung 850 Pro SATA 600 a 256gb koop je voor ¤123,95 per stuk, maar die moet je dan dus minimaal 2 kopen. Of mis ik hier nu iets? :?
In raid 0 houd je dan wel 512GB over, dus de prijs per GB komt nog steeds heftig lager uit dan met een nvme-oplossing. ;)
Oké duidelijk, ben zoals je merkt ook niet echt bekend met RAID opstellingen. Dacht altijd dat in RAID 2x256gb drives 1x256gb aan opslag betekende.

Gaat de nieuwe 3D xpoint technologie die Intel heeft aangekondigd dan wél een grote snelheidsverbetering betekenen voor de desktopgebruiker, of is dat ook slechts merkbaar voor Data centra e.d.?
Ja en nee, ligt aan de raid type, waar jij aan dacht is raid 1 of mirror, waar een complete kopie van de zelfde data als backup op een andere HDD/SSD word gezet.

Waar ik het heb is raid 0, daar wordt de data verdeelt over 2 of meerdere HDDs/SSDs, daardoor haal je bv twee keer de bandbreedte van een enkele SSD.
Dank voor de info.

Denk je dat de nieuwe 3D Xpoint technologie van Intel wél de beloofde snelheidswinst gaat opleveren voor de desktopgebruiker?
Het zou qua snelheid ongeveer tussen NAND en DRAM moeten zitten, het lijkt er op dat 3D Xpoint een stuk sneller zal zijn, maar of het ook zo is in de praktijk, ik heb ondertussen al lang geleerd, eerst echt zien dan geloven.
Je weet er blijkbaar heel wat meer van dan ik. Maar toevallig heb ik pas een computer in elkaar geflanst met een SM951 en een 850Pro. En ik kan je vertellen dat het nut van een NVMe-plaatje buiten kijf is.
En daarom is dit voor datacenter toepassingen.
in datacenters wordt er bijna alleen maar gebruik gemaakt van SAS schijven, in de smaak SSD of normale schijven.
Dan zullen ze ze wel voor decoratie gebruiken :p er worden er best veel verkocht, dus als ze ze niet als opslag gebruiken om dat ze alleen maar SAS willen dan doen ze er dus wat anders mee.
Nee hoor PCIe SSDs als deze worden ook gewoon in datacenters gebruikt, mijn vriend werkt op de IT van Statoil (Noorse Shell), en die hebben nu alleen maar PCIe SSDs voor de SAP database.

En alleen de aanvullende informatie, zoals bv bouwtekeningen/foto's staan op gewone SAS SSDs of HDDs, afhankelijk van wanneer ze voor het laatst waren gebruikt.
Wat een bizar duidelijke en goede uitleg man, denk dat heel veel mensen hier wat aan hebben. Jammer dat het niet mogelijk is om +4 te geven ;) Een boost kan gelukkig wel.
Dan heb je nog steeds het verschil in latency
Hoewel een SSD rap is, is het nog steeds in de orde van tientallen microseconden.
L4 cache, wat op de nieuwste series i7 zit, (128 MByte) haalt 50 GByte/sec lezen en ook schrijven (netto dus 100 GByte/s) en 30 nsec latency.
Geheugen latency zit een factor 10 - 100 hoger en een SSD dus nog zo'n factor.
Latency is inderdaad het issue.

Maar vwb streaming snelheden: Dan is het wel heel veel sneller dan de Haswell. Weet je dit zeker? De getallen van mijn 5930K zijn:

L1: 150 GB/s
L2: 75 GB/s
L3: 45 GB/s
DDR4: 15 GB/s
Zijn getalllen kloppen volgens mij redelijk, die van jouw zijn echter veel te laag :+

Waar heb je dat mee gemeten als ik vragen mag?

Zie hier de resultaten qua snelheid en latentie op de Cache niveau's + het geheugen op mn I5-4670k met 1333Mhz geheugen bijv. Laat ook mooi het verschil in Latency zien, en waarom een SSD qua Latency simpelweg niet voldoet ;)

De door TD-er aangegeven snelheden op het L4 bij Skylake zijn allersinds realitisch, precies tussen L3 en Ram in qua latentie en snelheid

Jouw 5930k zal in Quad Channel met DDR4 makkelijk tussen de 60 en 120GB/s halen afhankelijk van het geheugen dat je gebruikt.

[Reactie gewijzigd door !mark op 8 maart 2016 22:46]

Waar heb je dat mee gemeten als ik vragen mag?
**UPDATE**

Ik heb even wat testjes geprogrammeerd en heb het probleem gevonden. Het issue zit in single threaded vs multi threaded performance. Ik heb het over single threaded performance; AIDA test zo te zien multi-threaded performance. That said, de AIDA getallen zijn structureel hoger dan wat ik hier naar boven haal.

Ik heb de code incl. executable (Windows x64) even op github gezet voor de mensen die de test willen herhalen, zowel voor single threaded als voor multi threaded: https://github.com/atlaste/simplebench .

[Reactie gewijzigd door atlaste op 9 maart 2016 09:34]

In je code heb je een enkel stukje geheugen (adres van de variabele 'sum') wat heel vaak gebruikt wordt.
Als dat door meerdere threads benaderd wordt, terwijl de adressen van de sum in meerdere threads dicht bij elkaar ligt (op dezelfde cache-line), maak je je proces eigenlijk single-threaded.
Dus misschien handig om een dummy-variabele op de stack te zetten die 64 bytes groot is (grootte van een cache-line), meteen na de declaratie van "int sum".
Misschien dat dat al iets scheelt in de performance.

En geen idee hoe een sum gaat qua casten als 'ie overduidelijk overflowt.
Dus misschien ipv. += een &= doen? Voor hetzelfde geld gaat je compiler 't namelijk eerst opslaan in iets wat een stuk groter is en dan een dure casting-operator uitvoeren.
tl;dr: Heb het programma'tje een beetje aangepast, nu moet het correct zijn (=gecontroleerd met de assembler output).

Heb net even gepatcht z.d.d. het ook zou moeten werken onder linux, maar kan dat hier niet testen bij gebrek aan linux bak. Als iemand dat kan confirmeren: muchos gracias.
Als dat door meerdere threads benaderd wordt, terwijl de adressen van de sum in meerdere threads dicht bij elkaar ligt (op dezelfde cache-line), maak je je proces eigenlijk single-threaded.
Nee hoor. (1) Ik maak een nieuwe lokale variable voor iedere thread (op de stack). (2) Bovendien is dat niet hoe het memory model van o.a. C++ werkt: Je hebt gelijk als ik atomic zou gebruiken en die zou benaderen, maar dat doe ik niet. Artikelen over 'memory barriers' leggen uit hoe dit werkt; deze is wel goed: https://www.kernel.org/doc/Documentation/memory-barriers.txt .
En geen idee hoe een sum gaat qua casten als 'ie overduidelijk overflowt.
Simpel antwoord: hij cast niet; een overflow wordt door je processor afgehandeld door de overflow flag te zetten, niet meer en niet minder.

Hoe dan ook, ultimo is het enige dat ertoe doet de assembler output. Die moet kloppen met "alleen maar loads doen". Gisteren kreeg ik dat niet overal voor elkaar met de dummy variable (die moest in een register eindigen maar Visual Studio wilde dat niet); vandaag wilde dat wel.

Hoe komt AIDA aan die enorme getallen dan?

Had zojuist een ideetje van hoe het werkt... volgens mij doen ze helemaal niets met de CPU en proberen ze gewoon cache fetches te triggeren door een byte geheugen per page te laden. Ik heb mijn versie daarvan geimplementeerd en daaruit komen inderdaad ook de belachelijke grote getallen.

Het issue dat ik met deze getallen heb is overigens dat ik een hoop redenen kan bedenken dat deze benchmarks niet de werkelijkheid weergeven (bijv. omdat je CPU ook slimme dingen doet met memory fetches).
De 6xxx serie heeft 128 MB geheugen voor de GPU, echter dat is geschakeld als L4 cache.
Dus als je de GPU niet nodig hebt, kun je dat geheugen heel leuk inzetten.

Kijk o.a. hier voor meer info (zoeken op "L4")
Dat is een feature die heel erg onderbelicht is gebleven, wat heel jammer is.
Toch interessant, mijn Skylake's (Dell XPS15, DDR4 memory) weet van niets... ook niet met AIDA. Is alleen als je ook een integrated Intel Iris Pro hebt begrijp ik.

Wel een gave feature trouwens! Ik kende 'm inderdaad ook niets.
Klopt er is een verschil in latency, maar ironisch genoeg wordt het daardoor ook juist iets minder belangrijk. Historisch gezien gebruikt software doorgaans "Random Access Memory" omdat de schijf dus TČ langzaam was. Nu met de hardware architectuur verschuivingen die je noemt, wordt dat probleem kleiner. Is dus nog minder RAM vereist voor een goede werking.

En zo veranderd er door de hardware architectur ook iets in de toekomstige software architectuur. Een van de belangrijkste verschillen die ik verwacht te zien (als hardware architectuur principe) is dat het "live" weggooien/overschrijven van je oude data slechts "tijdverspilling" en vrijwel alles copy-on-write gaat plaatsvinden. Deze performance optimalisatie kennen we nu al uit storage controllers en webbrowsers, maar kan je dus prima doortrekken tot op hardware niveau waarbij het "IBM x86 PC" moederbord wat we nu allemaal wel kennen dus heel anders in elkaar zou steken.

We kennen als mainstream systeem hardware architecturen de IBM mainframes AS400 architectuur, de IBM x86 PC architectuur, (gezien het zo mainstream is mag ARM ook wel in dit rijtje) en straks komt er een nieuwe architectuur die misschien nog wel het meeste lijkt op een mesh van co-cpu's en persistent storage.. alsof het een FPGA architectuur on steroids is. Time wil tell.. :Y)

[Reactie gewijzigd door Barryke op 8 maart 2016 22:34]

IBM mainframe <> IBM Power architectuur (P & I series)

Daarnaast natuurlijk nog Sparc.
30 nsec latency? memtest86 denkt dat mijn gewone DDR3 XMP 1.3 Profile 1 1600 8-8-8-24 ongeveer 23.xxx ns latency (Met 19xxxMByte/s) heeft. Dat is wel jammer dan dat de L4 cache dat niet beter doet.
30 nsec latency voor welk element dan ook uit de L4-cache.
Dat haalt jouw DDR3 geheugen echt niet.
Wanneer je telkens stukjes nodig hebt vanuit een andere page dan sta je veel langer te wachten.
Nee oké, zeker waar.

Die 24 ns is voor tRAS (dus tijd voordat een row gedeactiveerd kan worden, of minimaal actieve tijd)
Via hbm kan intern geheugen ook veel sneller en goedkoper worden.
En dan is er ook nog xpoint van Intel.
Ik denk dat er vooral veel winst te halen valt voor database toepassingen. Die zijn meestal I/O bound en hebben een enorm geheugen nodig om alle indexen in memory te houden. Als je dat voor een groot gedeelte kunt offloaden naar (extreem) snelle disk storage dan scheelt dat erg in de kosten, zonder in te boeten aan snelheid.
Intel heeft zijn plannetje al klaar liggen, zij beweren dat ze 1000x sneller snelheden kunnen halen met hun nieuwe tech. 3D XPoint. Kijk het volgende filmpje om te zien hoe ze dit willen bereiken :)

I hoop dat SATA poorten echt heel snél vervangen gaan worden, want dat is nu een groot struikel blok.
Daar dacht ik vroeger al over na ,zo`n 5 jaar terug.Toen had je opslag geheugen wat gemaakt was van 16 stuks , 8GB ddr3 reepjes in een behuizing ,een 128 GB ding.Stond toen hier nog op Tweakers. (kan link niet meer vinden)

Ik denk dat je i.d.d 1 geheugen gaat zien en het langzame virtueel geheugen wat nu op je schijf of ssd staat zal dan niet meer langzaam zijn maar even snel als je data opslag en je geen fysiek werk geheugen apart meer hebt ,
maar een alles in 1.

Het zal de echte kern gaan vormen waar in de cpu geďmplementeerd is ,heel erg dichtbij ,enkele mm voor directe communicatie. .Ook zal de Gpu er in zitten .Maar het zal nog zeker 20 jaar duren voor dat zulke superkernen gemaakt worden.Ze zullen zuinig met stroom zijn, supersnel ,zonder bewegende delen en het begin zijn van de echte kunst matige intelligentie ,toepassingen zonder tussen komst van mensen .

Uiteindelijk gaan we naar computers die zelf lerend zijn,zelf verbeteringen in en uitvoeren en zelf computers maken ,geheel autonoom .(met misschien nog een paar regels code er in ,algoritmes ,die het onmogelijk maken mensen te doden,maar als het leger en defensie er mee zullen werken dan zullen ook die algoritmes er uit gaan)Maar dan zitten we al in het jaar 2100.

Dit klinkt als sfi-fi maar is self fulfilling -toekomst -analytics- statistiek .

[Reactie gewijzigd door tweaker1971 op 9 maart 2016 09:33]

Zijn er echt datacenters die dit zullen gaan gebruiken? Lijkt me dat het ontbreken van raid-mogelijkheden en hotswap zorgt voor een te hoog risico voor de continuďteit. Misschien voor een "master" disk waar je honderden virtuele desktops vanaf draait ofzo?
Wat maakt het uit wanneer je bv 25 servers hebt met ieder 3 van die dingen en je repliceert je data naar 3 of 4 servers via infiniband.

De kans dat er 3 servers gelijktijdig defekt zijn is nagenoeg 0.
Als je zelf een tiered storage oplossing bouwt, is dit een mooie tier tussen je ramdisk en 'normale' ssd.
Wij hebben dit soort kaarten in onze NetApp's, waar ze worden gebruikt als read cache. Die kunnen niet snel genoeg zijn.
EMC heeft al dergelijke architecturen, namelijk scaleIO.Gebruik maken van een batterij van lokale servers om er een scalable SAN van te maken, allemaal aangestuurd door de software later die er bovenop draait.
Je kunt altijd software RAID gaan draaien als het echt nodig is.
Ik denk dat meeste data centers geen aansturing hebben voor die snelheden. Kost kapitalen om dit te bewerkstelligen.
Moederborden met PCI Express 3 met 16 lanes zijn er toch genoeg?
Als je een workload met veel IO hebt kan dit voor een prestatieverbetering zorgen.
Ik denk dat hij bedoelt, waar haal je de functionele belasting van 10GB/s vandaan. Benchmarken kan iedereen, maar ga jij een SAP omgeving bouwen die 10GB/s *continu* nodig heeft? Knappe beheerder :)

In een extreem grote virtualisatiefarm is dat misschien het geval, maar je gaat niet je 10.000+ VM's op 1 SSD draaien. Dus waar is het dan wel voor geschikt?

Gigantische databases die ingewikkelde business object calculaties doen ofzo. Of meetkundige instrumentatie (iets als de LHC sensor data verwerken ofzo...)

Wat CMSTRR (denk ik) bedoelt is dat veel datacentra helemaal niet geschikt zijn om dit soort snelheden uberhaupt te bewerkstelligen.
Yup :)

Je legt het goed uit. Wat ik ook verwacht is dat degene die dit lezen en interesse hebben in zulk soort producten het zelf zouden inzien wat ik ermee bedoelde lol.

[Reactie gewijzigd door CMSTRR op 8 maart 2016 21:49]

Nee hoor; een dergelijke SSD kan je ook inzetten voor x VM's of voor een SAP-omgeving. Het gaat niet zozeer om de continu-throughput maar meer om de burst. Hetzelfde geldt ook voor consumenten/Tweakers die tot op de MB/s dingen zitten te vergelijken in de Pricewatch maar ondertussen vergeten dat hun SSD waarschijnlijk 95% van de dag uit zijn neus staat te eten.

Ik kan me zeker wel vinden in dure/snelle storage die voor bepaalde burst-zaken juist een enorm hoge prestatie levert; dat de prijs per GB erg hoog ligt, is dan vaak ondergeschikt want bedenk maar eens wat een SAP-consultant per uur kost en wat je dus kan "besparen" als zo iemand kan troubleshooten en per query ipv 30 seconden nog maar 15 seconden hoeft te wachten.
Ik heb pas een OS op een Samsung SM951-NVMe 256GB M2-plaatje gezet. Het is enorm plezierig hoe reactief zo'n systeem werkt met ruim 2GB/s. Continu "vol" krijgen gaat me zeker niet lukken. Maar oh oh, wat een genot om mee te werken.
Ik denk dat het hier vooral gaat om local storage in servers. Via SAN netwerken haal je nu praktisch gezien maximaal 40Gbit/s. Dus ontsluiten van deze kaart kan niet via het netwerk, zal dus lokaal moeten gebeuren, in scale-out oplossingen van servers met lokale storage.
Inderdaad ideaal voor Big-data oplossingen.
Een beetje big-data applicatie haalt zo'n 10 GByte/sec aan datadoorvoer per CPU-socket en met geheugen kom je ook maar tot ettelijke honderden GBytes, met momenteel een praktisch maximum van 1.5 TB voordat het echt onbetaalbaar is (24x 64GB modules)
Dus met een dergelijke drive is dat een mooie uitbreiding.
Maar diensten via Cloud dan?

Ben dan wel benieuwd naar de max capiciteit opslag. Maar dat is afwachten dus.

[Reactie gewijzigd door CMSTRR op 8 maart 2016 20:58]

Ik denk van wel en mijn moeder trouwens ook ;)
Juist omdat het gebruik maakt van standaard pcie gaat dit gewoon gebeuren.
Ik heb er de ballen verstand van, maar kun je zulke SSD's in RAID zetten? Met de 950 Pro kan het wel dus leek me dat het hier ook wel mee kan. Hoe snel zou je dan gaan :+
Je CPU gaat de bottleneck worden, ik denk dat meer dan 2 van deze SSD's geen enkel nut meer heeft, zelf met een moderne XEON.
Raid voor snelheid is echt een beetje 2008 als je het mij vraagt.

Tenzij het een storage is voor VM's dan wil je Raid10 of Raid6(0) over zoveel mogelijk spindles.
Raid voor snelheid is echt een beetje 2008 als je het mij vraagt.

Hoe kom je daar toch bij. Veel data snel bewerken gaat nog altijd heel snel op een hardwareraid kaart met veel schijven.
Ja duidelijk, maar met SSD's op een raidcontroller dan ga je voor size niet meer voor raid10 sets om snelheid te halen.
Persoonlijk zou ik voor het bundelen van SSD's een HBA gebruiken ipv RAID controller en deze bundelen met storage spaces of iets dergelijks.
Ja dat is een van de opties. Ik denk overigens dat SSD voor storage niet echt interessant is. Spindles zijn wellicht iets betrouwbaarder voor de langere termijn.
Lijkt me niet, tenzij je een raidcontroller kent waarbij je de drives in je raid opstelling via 16 pcie lanes kan aansluiten? Die controllers hebben vziw normaal gesproken gewoon en set SATA aansluitingen.
Ik geloof dat dit softwarematig kan, zoals fantafriday zegt. Er zijn laptops met 2 Samsung 950 Pro's in RAID.
Ik kan me bijna niet voorstellen dat het daar echt nog sneller van wordt eigenlijk...
Nee dat denk ik ook niet, je zal wel een bottleneck krijgen met je CPU.

[Reactie gewijzigd door Kiet Stiemer op 9 maart 2016 09:48]

Software raid :+
Voor pr0n zijn SSD's als deze inderdaad niet interessant.

Maar voor virtualisatie omgevingen kan dit wel heel interessant zijn. Stel je eens voor dat je een virtuele machine van 40GB groot in 4 seconden kan migreren naar een andere server.

Dit lijkt mij ook wel toekomst te hebben in enterprise fileservers, als de grootte van deze SSD voldoende is heb je genoeg met 2 (redundantie) van deze in een server met flinke CPU en NIC('s).
Storage vMotion zal dit apparaat niet voor gebruikt worden. VM's staan meestal op shared storage (SAN/NAS). Maar voor lokale read/write cache zijn deze apparaten geweldig. Software als PernixData FVP en VMWare's ingebakken Flash Read Cache kan VM's op trage storage lokaal cachen, en zodoende VM's zeeen van IOPs geven.
Het is supersnel met 10 gigabyte per seconde en een leuke ontwikkeling. Benieuwd of dit ook als consumenten versie in te zetten is?
Dit is wel de ultieme LVT!

Op dit item kan niet meer gereageerd worden.



Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True