Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

Intel heeft op het Intel Developer Forum in China een prototype van een Optane-ssd getoond, die gebruikmaakt van 3D XPoint-opslagtechnologie. Tijdens een demonstratie werd een bestand van 25GB in net iets minder dan vijftien seconden gekopieerd.

Intel logo (60 pix)De 3D XPoint-technologie werd in juli 2015 aangekondigd met de verwachting dat deze tot duizend maal sneller zou zijn dan conventioneel nand-geheugen, dat in ssd's aanwezig is. Dit jaar moeten de eerste ssd's in de Optane-serie beschikbaar komen, maar Intel noemde nog wel dat het model dat voor de demonstratie is gebruikt een vroeg prototype is.

In de testopstelling tijdens de presentatie werd gebruikgemaakt van twee identieke computers, waaraan twee verschillende ssd's waren gekoppeld. Aan het linker model was een ssd met nand-flashgeheugen verbonden en aan de rechter pc een Optane-ssd. In beide gevallen ging het om een intern model dat met eenzelfde extern model is verbonden via een Thunderbolt 3-connectie.

Bij de overdracht tussen de nand-ssd's is te zien dat de snelheid neerkomt op gemiddeld 280MB/s. De overdracht tussen de Optane-ssd's verloopt zo te zien een stuk stabieler, met een snelheid van ongeveer 1,95GB/s. De overdracht is in de video hieronder weergegeven. Bij een demonstratie van augustus lag de prestatiewinst nog rond een vijfvoudige tot zevenvoudige snelheid. De volledige Intel-presentatie is via een stream te bekijken.

Moderatie-faq Wijzig weergave

Reacties (77)

Leuk, maar je kunt er zo weinig mee op dit moment. SATA, of dan iig NVME-SSD's bieden al zo veel snelheid dat geen ander apparaat er iets mee kan (behalve dan een tweede gelijke SSD die ook lokaal is aangesloten).

Misschien wordt het eerst eens tijd om 10 Gb ethernet betaalbaar te maken, dan kun je er nog een leuke server van gaan bouwen. Natuurlijk heb je aan 10 Gbps nog steeds niet voldoende voor deze SSD maar je komt in ieder geval al meer in de richting en zou met trunking nog wel wat kunnen bereiken.

Voor desktop experience heb je er (vooralsnog) sowieso niets aan. Daar zal het prijskaartje dan ook wel niet naar wezen, maar dat terzijde.
De vraag is of je nu zoveel baat zult hebben bij het kunnen verplaatsen van zoveel data in zo'n korte tijd. Je zult toch echt een toepassing moeten hebben die hier gebruik van maakt.

Veel interessanter vind ik dat we richting het moment gaan waarop lezen van SSD even snel is als lezen uit RAM en je kunt afvragen waarom we nog RAM nodig hebben. Waarom zou je eerst de data vanaf een SSD moeten lezen naar het RAM geheugen om het vervolgens daar te bewerken als je het direct op een SSD zou kunnen bewerken? Een heel paradigma over hoe computers werken kan dan op de schop.

Als je het hele idee van volatile RAM overboord kan gooien dan kun je ook aan instant-on en instant-off computers denken bijvoorbeeld.
Veel interessanter vind ik dat we richting het moment gaan waarop lezen van SSD even snel is als lezen uit RAM en je kunt afvragen waarom we nog RAM nodig hebben.
<knip>
Een heel paradigma over hoe computers werken kan dan op de schop.
We zullen de komende jaren inderdaad een paar fundamentele aannames zien veranderen die het computerlandschap op z'n kop gaan zetten.
Snelle SSDs zijn daarbij een belangrijke factor. Dusver is het altijd waar geweest dat je processor ontzettend veel sneller is dan je storage. De hele computer is opgebouwd rond dit idee, al de lagen van caches en buffers zijn daar een direct gevolg van. Iedere trade-off waarbij je de storage kan ontlasten door meer op de CPU te doen is altijd de moeite waard. Iedere keer als je storage data kan aanleveren staat de CPU klaar om die onmiddellijk te verwerken.

We naderen het punt dat dit niet meer waar is en een goede SSD meer data kan leveren dan je processor kan verwerken. Alle caches zijn nu opeens een nadeel geworden in plaats van een voordeel, data prefetchen heeft geen zin meer, in plaats van schrijfbuffers en leescaches heb je nu leesbuffers nodig. In plaats van dat een enkele processor(core) meerdere schijven kan afhandelen wordt het nodig om meerdere processoren samen te laten werken om een enkele SSD te voeden.

In de processorwereld is ook een grote verandering gaande. Het wordt steeds moeilijker om processoren nog kleiner en sneller te maken. Zelfs Intel heeft de wet van Moore en het tick-tock systeem opgegeven. We proberen al een paar jaar om de overstap te maken naar multi-core systemen maar dat wil niet echt vlotten, GPU's zijn de enige echt succesvolle poging om het werk te verdelen over meerdere verwerkingseenheden.

Ook op netwerkgebied verwacht ik dat er weer een flinke stap genomen gaat worden als is die meer evolutionair dan revolutionair. We zitten namelijk al weer 15 jaar vast op 1gbit netwerk. In vrijwel alle gevallen voldoet dat omdat onze hardeschijven het toch niet bij kunnen houden. Bij lineair lezen lukt het nog wel om een 1 gbit lijn te verzadigen met een draaischijf maar zodra er maar een beetje random IO bij komt kijken is het afgelopen. Een SSD trekt zonder enige probleem meerdere gbits vol, de SSD in dit artikel kan zelfs 2 10gbit lijnen vullen.
Als je het onderste uit de kan wil halen dan is 1gbit netwerk dus niet meer genoeg. Eindelijk is er een reden om 10 gbit netwerk te installeren buiten professionele datacenters.

Dusver zagen we onze computers als een piramide met veel schijven aan de voet, een enkele processor in de top en vele lagen van caches en buffers er tussen in. Dat zou wel eens helemaal kunnen omdraaien naar systemen met een enkele SSD en veel processoren.
Daarbij moet ik wel opmerken dat ik geloof in netwerkstorage en verwacht dat lokale storage steeds minder interessant wordt. Ook dat is een reden om over te willen op 10gbit netwerk, je hebt niks aan snelle storage als de verbinding er naar toe te langzaam is (en dan heb ik het hier meer over latency dan over throughput).

Ik verwacht dus grote veranderingen waardoor de fundamentele aannames over computerarchitectuur moeten worden aangepast.
Waarom maken ze Cpu's niet gewoon groter? Als ze het productie proces niet meer kunnen verkleinen kunnen ze toch gewoon een nieuwe socket invoeren die groter oppervlak heeft? Dan kunnen er meer transistors in lijkt me.
Dan neemt ook het energieverbruik en nodige koeling toe. Daar zit niemand op te wachten.
Ik zou het veel interessanter vinden wanneer dit ingebakken wordt in een moederbord (lees mAtx, itx) en dan de allround prestaties omhoog worden geschroefd. Zodat alles veel compacter kan en wordt.

Ik zou heel graag deze techniek het computer tijdperk zien liften op een veel groter vlak, zoniet gebieden!
Waarom zou je dit willen? Is je SSD kapot.. nieuw moederbord... is je moederbord kapot.. SSD ook onbruikbaar.
Niks mis met connectors gebruiken hoor.
Heb je wel eens een smartphone van binnen gezien? Alle modules (scherm, speakers, cameras, buttons ed.) zitten gewoon met een connector verbonden met het moederbord zodat deze te vervangen zijn.

Om nog niet te spreken over de 'strijd' die je dan gaat krijgen tussen SSD fabrikanten om HUN ssd op de moederborden van moederbordfabrikanten te krijgen.

Nee, keuzevrijheid is een goed iets en laten we dat zo houden ook! De nieuwste generatie PCI-E/nvme SSD's hebben overigens meer dan genoeg bandbreedte tot hun beschikking om de verbinding met het moederbord geen bottleneck te laten zijn (al moet ik toegeven dat een 'SSD' chip tegen de CPU als cache natuurlijk wel retestoer is.. maar dan wel alleen als cache!)
Tot op zeker hoogte heb je gelijk, echter in je voorbeeld van de smartphone sla je wel het stukje over waar het NAND/eMMC geheugen wel degelijk op het main/moederbord van de smartphone vast gesoldeerd is. En ik heb (helaas) toch al twee keer mee mogen maken dat het NAND als eerste de handdoek in de ring gooide in de levensloop van een smartphone. Het flashen van een ROM was gewoon niet mogelijk!

Hetzelfde geldt binnenkort natuurlijk ook voor de eerste smart tv's die ineens vreemd gaan doen omdat er te goedkope NAND/eMMC flash chipjes in zitten (of er te veel naar geschreven is) en tbh heb ik minder moeite met het vervangen van een moederbord van een PC dan een moederbord van een Smart TV/Tablet/Smartphone, puur omdat het ook officieel mag, mogelijk gemaakt wordt, en zelfs toegejuicht wordt (i.t.t. alle apparaten waarbij er dubbelzijdig tape gebruikt wordt om e.e.a. eenmalig van fabriek af af te sluiten).
Yep, dat klopt inderdaad..

En wat is nou de grootste ergernis van smartphone kopers?... dat ze absurde prijzen betalen voor meer opslag (zie Apple als perfect voorbeeld die makkelijk honder(den!) euros vragen voor wat meer GB aan opslag).

Toen ik mijn eerste SSD kocht (een OCZ 120GB model) was die binnen een jaar kapot... ik moet er niet aan denken dat dat ding vastgesoldeerd zou hebben gezeten aan mijn moederbord (welke 2-3x zo duur was als de SSD) en ik die ook op dat moment af zou moeten schrijven. Dat moederbord zit nog steeds (na 7+ jaar) in mijn PC, maar inmiddels ben ik wel weer 2 nieuwe SSD's verder.
I.p.v op moederbord, zou je dit dan eerder direct op de CPU willen hebben. Maar alsjeblieft niet. Ik heb geen behoefte aan nog meer planned obsolescence. Meer snelheid en capaciteit is prima, maar dan zonder inboeten op modulariteit/repareerbaarheid. Wat ik liever zie is dat SSD naast RAM op een RAM reep worden geplaatst, en uiteindelijk dat SSD RAM volledig overbodig maakt.
Uiteindelijk zal het daar toch wel terecht komen vermoed ik. Ja de onderdelen van een smartphone zitten ook gewoon op een piepklein moederbordje, maar dat worden er, net als bij de pc, steeds minder. Geluidskaart, netwerkkaart, controllers, grafische kaart, stukje bij beetje wordt het opgeslokt door de SOC.

Er zijn buiten de kosten ook een hoop andere voordelen aan. Zoals de hogere snelheden die te halen zijn door de componenten dichter bij elkaar te plaatsen en hechter te integreren. En tja reparatie. .. Een monteur kan er hoogstens een half uur mee bezig zijn anders kan je beter een nieuwe pakken.
M.2 slot. Maak er in de toekomst pci-e 4.0 x 4. En het loopt gewoon als een layer over je mobo. Zie geen reden waarom je het op je mobo wil bakken.
Welke tijd leven we nou? Wat heb je in godsnaam aan instant on?

Ik ben pas geïnteresseerd in een computer, tablet of telefoon als hij continu aan staat in een energie-zuinige modus. Misschien dat Octane memory daarbij kan helpen. Maar een CPU die helemaal uit staat, wat moet je daarmee? Hoe krijgt ie dan berichten en updates?
Wat je aan instant-on hebt? Je hoeft je computer juist niet meer aan te laten staan.

In plaats van dat je cpu in een standby-stand moet staan om snel wakker te worden, kan de cpu (en alle andere onderdelen incl voeding) gewoon helemaal uit. En wat ik nu uit noem, wordt de nieuwe standby. Standby zoals we het nu kennen wordt geheel overbodig.

Er gaat geen verschil meer zijn tussen uit en standby, want als je de stekker/accu eruit trekt blijft alles gewoon staan waar het staat...
Je hebt een punt, maar hoe krijg je dan pushberichten etc? Als we de kant op gaan van continuum dan moet je pc wel altijd berichten kunnen ontvangen, ook in de uit stand.
Variant op wake-on-lan? Dat je computer aan gaat bij bepaalde inkomende pakketjes. Hiervoor al je NIC altijd aan moeten blijven staan inderdaad...
Latency van RAM gaat nog altijd een pak lager liggen dan een SSD. Als je bij elke lees/schrijf instructie moet wachten op I/O ipv RAM, gaat de performantie echt gigantisch omlaag.
RAM is ook gewoon I/O, alleen via een andere bus. Ja, als je dit moet doen zul je geen filesystem op je SSD moeten zetten maar dat is een ander verhaal.
RAM is niet 'gewoon' I/O. Processor communiceert rechtsreeks met RAM (via Northbridge).
I/O zit echter achter een I/O bridge/controller (ook Southbridge genoemd).
NVME drives prak je direct aan de CPU via de pci lanes.

je denkt nog in 2002 techniek. ;)
Niet meer, tegenwoordig zit de gehele geheugencontroller in die cpu zelf. Vroegah had je nog n aparte north en southbridge daarvoor, tegenwoordig enkel chipset em cpu en evt. nog wat losse controllertjes
Dankzij suspend to ram bestaat die instant on-off functionaliteit al jaren. Dus dat lijkt me niet de meest zinnige doelstelling.
Ja, totdat de stroom uitvalt of na enkele dagen je laptopaccu toch echt op is.
In het geval van een laptop schakelt hij alsnog over naar suspend to disk op het moment dat je het critical percentage bereikt (in te stellen bij powermanagement). Een andere optie is op basis van tijd omschakelen naar suspend to disk.
4K VR video opnemen? Daar heb je een hoop data voor nodig om te kunnen verwerken.
Ik moest ook denken aan die abnsurde camera die laatst geprecenteerd werd die, wat was het, 400GB per seconde weet wegteschrijven ?!

video: Lytro Cinema is lichtveldcamera voor filmproducties

400GB per seconde; jongens, gaat het wel helemaal :')
Met dat soort dingen is het denkbaar dat we over 5 jaar SSDs hebben van 2TB met 2GB/s snelheden.
Is niet echt voor je consumenten pc, wie weet over 5 jaar dat het daar interessant wordt.

Maar kijk eens naar een SQL server, Ik werk bij een bedrijf waar alle SQL's al op SSD draaien, dat loopt echt lekker. En is ook echt hard nodig. Restore/backup gaat retesnel, Maar ik zou deze nieuwe SSD's er nu al in willen hebben.
http://www8.hp.com/us/en/...etail.html?oid=1008830324
https://en.wikipedia.org/wiki/NVDIMM
Als ze dat nu in bv een iphone weten te stoppen hoef je ook niet meer af te vragen of dat ding nu 1 of 2 gig geheugen heeft.
Dit is ook wel interessant: https://xitore.com/what-is-nvm-x/
Ik ben het helemaal met je eens, het wegvallen van het onderscheid tussen memory en storage is de grote belofte van deze technologie. Maar verwacht er niette snel te veel van.

SSD's hebben al een aantal jaren geleden het historisch grootste probleem bij data processing, namelijk random access op traditionele harde schijven, domweg geëlimineerd. Maar onze OSsen en DB engines zitten nog vol met code die allerlei slimme caching strategieën gebruiken om juist dat probleem aan te pakken, code die waarschijnlijk op SSD meer performance kost dan het oplevert, en ik zie daar nog niet veel verandering in. Het duurt lang voor dat zo'n revolutionaire verandering werkelijk doorwerkt.
"De vraag is of je nu zoveel baat zult hebben bij het kunnen verplaatsen van zoveel data in zo'n korte tijd. Je zult toch echt een toepassing moeten hebben die hier gebruik van maakt."

Absoluut. Broadcast wereld staat om deze technologie te springen.
Alleen de mensen die er werken. De bazen niet, anders hadden ze die oude rommel allang vervangen.
Dan werk je bij het verkeerde bedrijf.
Een stream in 4k van een paar uur bewerken kan met deze snelheden gewoon realtime ipv dat er continu gewacht moet worden op laden, linus had hier ook een keer een achtergrond vlog van gemaakt bij hun pure ssd server voor het monteren.
Het grote voordeel van 3d xpoint is dan ook niet zo zeer de hoge lees of schrijf snelheid. Maar de latency ligt een stuk lager als van NAND. nanoseconden ipv milliseconden. Hierdoor kan je dus veel meer random IO verwerken. Ook ligt het aantal write cycles een stuk hoger als bij NAND dus je SSD gaat ook nog is langer mee.

Anandtech heeft er een mooi artikel over geschreven.
http://www.anandtech.com/...mance-endurance-than-nand
10 gigabps ethernet is dan ook commercieel gezien één groot drama. Het werd gelanceerd in 2005 en is eigenlijk pas sinds vorig jaar een beetje betaalbaar. Koop gewoon een paar infinibandkaarten op Ebay, kosten geen drol.

http://www.ebay.nl/sch/i....=3&_trksid=p2045573.m1684

En infiniband, dat is pas snel!
Maar is dit ook een beetje gebruiksvriendelijk. Anders is het meer iets voor tweakers en niet echt voor een gewone gebruiker.

Alhoewel een gewone gebruiker nog niet een 10Gbps verbinding nodig heeft.
Maar is dit ook een beetje gebruiksvriendelijk.
O ja hoor. Al jarenlang verbaas ik mensen hoe simpel infiniband is, hoe retesnel het is, en hoe betaalbaar het is.

- Kaarten erin schroeven, kabel aansluiten

- Op machine 1:

/etc/init.d/opensmd start
ifconfig ib0 192.168.0.1

- Op machine 2:
ifconfig ib0 192.168.0.2

- Even pingen om te testen:
ping 192.168.0.1

Voila, een 40 gigabps-lijntje voor een prikkie. En infiniband heeft veel meer voordelen dan dat de bandbreedte wat hoger ligt dan ethernet. Dat duurt wat langer om te ontdekken, maar je zult snel merken dat een hoop netwerkgerelateerde zaken op je computer opeens haast krijgen.

Ten opzichte van ethernet is er dus één extra stapje: Het opstarten van opensmd (die in ieder Linuxdistro zit) op één van de machines. Dat komt omdat infiniband een zogenaamd "software defined network" is (wat de laatste tijd ook bij ethernet in de mode komt). Je hebt geen intelligente switch met managementinterface waarop je poorten kunt instellen, maar een programma ergens in het netwerk wat de switchen vertelt wat en hoe ze moeten switchen.
Jouw verhaal gaat over Linux machines, die hebben 'gewone gebruikers' niet.
Voor Windows machines lijkt het zo eenvoudig nog niet:
http://andy-malakov.blogs...ows-7-computers-with.html
Tweakers wel.

Maar ook onder Windows is het eenvoudig. Dat artikel van jou gaat sowieso over de oudste generatie infinibandkaarten, met de Infinihost III-chip. 10 jaar oud, desondanks klopt het nog vrij aardig.

Het begint met het upgraden van de firmware van de kaarten. Kun je doen als je wilt, maar hier zou ik 10 jaar oude adviezen met een korreltje zout nemen, de kans dat je een kaart in het wild aantreft met firmware die incompatibel is met Windows, lijkt me uiterst gering.

Daarna installeren ze de drivers.

Daarna controleren ze met ibstat of de kaart een link ziet. Prima als je dat wilt doen, maar je kunt ook gewoon kijken of de kabel erin zit.

Opensm starten is gelijk alsop Linux.

En daarna werkt het voor hen. Kortom, anders dan dat ze een firmwareupgrade doen en drivers installeren (op Linux niet nodig), zie ik weinig verschil.

Wel één opmerking als je met Windows aan de slag wilt: Koop infinibandkaarten van Mellanox. Voor infinibandkaarten van Intel (voorheen Qlogic) bestaan geen Windows-drivers.

[Reactie gewijzigd door dmantione op 16 april 2016 09:22]

Wow, inderdaad verbazend simpel.
Zit toch al een tijd te overwegen om mijn netwerk eens flink op te schroeven, infiniband lijkt zeker het overwegen waard.
Infiniband is 2e hands inderdaad bijzonder betaalbaar en schaalt nog verder dan 10GbE. Daarnaast heeft het ook nog andere voordelen bijvoorbeeld RDMA (memory2memory) communicatie en andere zaken.

Zelf heb ik ook een configuratie draaien: Infiniband VMware config. Tis zoals het plaatje al zegt een beetje overkill, maar hey we blijven tweakers :Y) . In het plaatje zijn 2 links te zien, een 40Gb point-2-point verbinding en een 10Gb connectie naar een Cisco SFS7000 switch (switch doet "maar" 10Gb maar is op bijv. ebay redelijk betaalbaar).

De opensmd is dmantione aangeeft is de Subnet Manager, daar is er overigens maar 1 van nodig per "fabric" en zit veelal ingebakken in een switch als je die hebt. Op een point-2-point zal er per link 1 aanwezig moeten zijn.

In dat op zicht moet ik gerelateerd aan dit artikel zeggen dat Infiniband een in mijn ogen een schikter medium voor communicatie is dan bijv. 10GbE als je van plan bent om dit soort kaarten te gaan gebruiken. Tuurlijk zijn er ook andere oplossingen als 40GbE of 100GbE of zelfs het bundelen van 10GbE kanalen maar dan kom je toch al gauw op een TCO die helemaal niet meer interessant is en dan hevige concurrentie van Infiniband heeft.
Doet niemand SRP voor echte performance?
SRP is SCSI bovenop RDMA en wordt vooral ingezet als je een FibreChannel SAN eruit trekt en vervangt door infiniband. Het gebruik ervan valt een beetje tegen, omdat SAN's en Fibre Channel vooral nog gebruikt worden in omgevingen waar men zeer conservatief is.

Voor geheel nieuwe storage op basis van infiniband wordt vaak geen SAN meer ingezet, maar een parallel bestandsysteem zoals GPFS van IBM. En ja, daarmee kan je echt hoge prestaties halen.
Als je je eigen servers kan opzetten is infiniband niet het struikelblok. Voor een gewone gebruiker die wat wil internetten en een filmpje kijken is het overkill in het kwadraat.
Ja, maar zo'n gebruiker zou ik ook niet direct voorstellen een SSD die 2GB/s kan doen aan te schaffen. ;)
Ik zie het nut van 10 gb op zich wel zitten.

Nas die ik nu heb werkt op 1 gb, dat komt neer op 100 mb per seconde, terwijl een ssd dus al veel meer kan. Zou ik de ssd snelheid in een nas of server optimaal willen gebruiken dan is 10 gb best handig. Veel mensen hebben als cat 6 kabel waar 10 gb overheen kan.

Bij zware bestanden heeft het dus zeker zin, het moet alleen qua prijs nog betaalbaarder worden. Over een paar jaar zal het wel standaard zijn.
Infiniband is ook behoorlijke duur, want server-grade. Je kunt het idd op eBay tweedehands kopen en dan is het betaalbaarder, maar ik moet zeggen dat ik 400,- voor een switch nog behoorlijk prijzig vindt voor consumenten. Helemaal als het voor afgedankte server hardware is. Bovendien heb ik met IB natuurlijk weinig aan mijn volledig Cat7-bedrade infrastructuur :+

Het is heel jammer dat de draadloze race de ontwikkelingen in bedraad netwerk voor consumenten / prosumers nogal op een laag pitje gezet heeft. Terwiijl het zo veel prettiger, sneller en betrouwbaarder werkt.

[Reactie gewijzigd door MadEgg op 15 april 2016 19:15]

Infiniband is server-grade, maar is jarenlang goedkoper geweest dan 10-gigabps ethernet, en geen klein beetje ook. Dat is nu niet meer het geval wegens eindelijk dalende prijzen op ethernetgebied, maar nog altijd kan een 40-gigabps infinibandkaart kwa prijs goed concurreren met een 10-gigabps ethernetkaartje.

De reden dat het op Ebay nog goedkoper is, is dat 40-gigabps voor infiniband al oude koek is, nieuwe infinibandkaarten doen 100-gigabps. En de geschiedenis herhaalt zich: Vele malen goedkoper dan 100-gigabps ethernet.

[Reactie gewijzigd door dmantione op 15 april 2016 20:41]

Als je CAT-7a er weer uit moet is ook niet gratis. Die doet theoretisch 40GB/s op 50m. Kwestie van switchen vervangen zodra die betaalbaar worden.
Zo te zien ondersteunt de huidige passieve koperbekabeling voor CXP tot 120GB/s (IEEE 802.3ba) QDR (12x10GB/s) en FDR (12x14GB/s) maar ik kan de kabeldimensie niet vinden. Als ik het goed lees is koper goed voor 30 meter.
Optische kabel lijkt me lastig om pijnloos door je trekgoten heen te krijgen. Of ben ik te pessimistisch?
Een flink lagere latency zal je computer nog weer veel sneller maken. Ik zit regelmatig te wachten tot mijn computer iets heeft uitgevoerd terwijl noch er een cpu core 100% belast wordt noch de SSD maximaal belast wordt. Je staat dan op latency te wachten.
Dus jij kan milliseconden merken? Je cpu niet 100% belasten betekend niet dat ie niet tot zn maxbezig is. Als iets single threaded ia zal een thread continu de takrn moeten doen, naar ramm sturen, nieuwe info fetchen en het riedeltje begint van voor af aan. Dat ga jij echt niet merken :+
De ping van mijn internetverbinding is recent omlaag gegaan van 20 ms naar 10 ms. Dat merk je echt wel, terwijl het bij een webpagina een keer om 20~100 requests gaat. Als je een programma opstart heb je veel meer dan 100 data-requests, bij een zware applicatie loopt dat in de duizenden. Dus ja, dat gaan we merken, stel je eens voor dat photoshop instant geladen is, of je favoriete spel in plaats van 30 seconden laad het in 10 seconden laad.

De max transfer-speed van de SSD wordt nu vaak niet gehaald, en dat komt o.a. doordat de CPU niet weet wat hij moet doen omdat hij staat te wachten totdat de data van de SSD is ingeladen. Latency omlaag -> effectieve transfer speed omhoog.

[Reactie gewijzigd door SpiceWorm op 17 april 2016 13:10]

Je hebt er nu misschien niets aan maar vroeger dacht men ook dat 640Kb genoeg was ;)
Dat dacht niemand. Er zwerft wel een onechte quote van Bill Gates rond die iets in die richting verteld.

En je kunt zeker wat aan meer snelheid hebben, maar je moet wel kijken waar de huidige bottleneck ligt.
Van 850 ssd naar 850 ssd haal ik op mijn NUC i5 stabiel 400 mb/sec.

Desalniettemin indrukwekkend, benieuwd naar de max iops van deze technologie en de prijs in relatie tot nand.
Maar dat is voor bestanden kleiner dan de cache vermoed ik? Voor grote bestanden (zoals 25GB), is je cache niet groot genoeg en zie je meestal de prestatie na een tijd sterk terugvallen, net zoals je ziet bij de SSD in het begin van het filmpje.
Deze intel SSD uit de pricewatch pricewatch: Intel SSD DC P3608 4TB heeft een leessnelheid van 5GB/s en schrijfsnelheid van 3GB/s. Hij bestaat al een tijdje, mis ik iets?

[Reactie gewijzigd door morris123 op 15 april 2016 18:48]

Daar kakt de snelheid op ten duur van in, wat nu opgelost is zover ik heb begrepen
Is die niet ook gewoon gebouwd met nand-geheugen? Als je maar genoeg modules tegelijk aan kan sturen dan schiet de snelheid wel omhoog, moet je nagaan wat er dus gebeurd als het 3d x-point modules waren.
Het filmpje is zeer indrukwekkend :)
Het jammere vind ik altijd bij de SSD's van nu, is dat het cache geheugen zo snel vol loopt, en dat dat heel veel effect heeft op de prestaties. Zo zie je na enkele honderden MB's dat de snelheid een beetje in kakt.

Wel een érg interessante video die elke tweaker aan het kwijlen maakt :9~ :P.

[Reactie gewijzigd door AnonymousWP op 15 april 2016 18:19]

Voor wie is straks deze ssd? Ik zie namelijk veel technieken en verschillende ssd-schijven voorbij komen, maar vaak gaat het om een dure zakelijke variant. Ik ben het idee dat de gewone consumenten schijven helemaal niet zoveel sneller zijn in de afgelopen jaren.
Ik zag eerst Gb/s en dacht eigenlijk "ja en?". Nog een keer lezen en zag een grote B staan... :9~

Afhankelijk van de prijs is dit vergelijkbaar met HDD->SSD. Ik vraag me af wat de random IO prestaties zijn.

[Reactie gewijzigd door Bonobo op 15 april 2016 20:23]

Zag je ook een grote B? ;) ;)
Dat is best wel snel!
Hmmm een 6bpbs ssd die maar 283MB/s gaat. HEEEEL APART.
2GB is 283Mb/s? 2Gb misschien maar GB is toch echt iets meer ;)
Voor video knippen en plakken is een snelle ssd best ok. Een archief en project kan niet snel genoeg gaan, scheelt tijd. Inderdaad nu het netwerk nog opschalen.
Want een video knippen en plakken kan wel snel genoeg gaan? Ik heb genoeg video's gemonteerd met meer dan 50GB aan brondata, dan is een beetje extra snelheid toch echt wel fijn hoor ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True