Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gebruikers

- Reviews

Prijs
Specificaties 400GB (PCI-e 3.0 x4) @ 2.200/900MB/s - Bekijk alle specificaties
Productuitvoering
  Vergelijk
Bekijk alle reviews

Intel 750 SSD Half Height PCIe 3.0 x4 400GB Review

+2
Shaken!stirred 3 januari 2016, laatste update op 3 januari 2016, 3.742 views

Intel 750 SSD Half Height PCIe 3.0 x4 400GB

Goede prestaties voor een acceptabele prijs.

Pluspunten

  • Hoge random IOPS
  • Hoge sequentiŽle doorvoer snelheid

Minpunten

  • Random read latency had lager gemogen
  • Opgegeven endurance vrij laag

Eindoordeel

Score: 4Per criterium
Compatibiliteit Score: 5
Ondersteuning Score: 5
Betrouwbaarheid Score: 4
Prijs Score: 4
Prestaties Score: 4
Ik was op zoek naar een vervanger voor de 256 GB Samsung 830 SSD in mijn Linux server. De Samsung SSD beviel op zich prima, maar ik had behoefte aan net wat meer ruimte.
Ik heb gekozen voor de 400 GB Intel SSD 750 Series. Er zijn natuurlijk voldoende goedkopere opties, maar ik was ook nieuwsgierig naar NVMe in het algemeen, en NVMe in Linux in het bijzonder.
Heb de SSD nu ruim 7 maanden in gebruik.

Compatibiliteit

Ik gebruik deze SSD met een Asus P9D-C/4L moederbord (met firmware versie 1404). Dit bord gebruikt een C224 chipset. Intel noemt een Z97 of X99 chipset als een vereiste noemt voor booten van een NVMe SSD, maar booten vanaf deze NVMe SSD gaat probleemloos op dit bord.

Linux Ondersteuning

De Linux kernel bevat sinds versie 3.3 een NVMe driver.
Ik draai Debian Linux 8.2 (Jessie), met kernel versie 4.1.15. Voor zover ik kan zien is the NVMe driver met ingang van kernel 3.19 een blk-mq (multi queue) driver. Bovendien bevat 3.19 ook heel wat NVMe fixes. Een 3.19+ kernel lijkt dus beter geschikt voor gebruik met een NVMe SSD als de 3.16 kernel die standaard met Debian Jessie komt. Maar ik heb niet met deze 3.16 kernel getest. Het zou ook prima kunnen werken.

Ik vind dat Intel veel gedaan heeft voor de NVMe ondersteuning op Linux. De NVMe driver is zo te zien door Intel werknemers geschreven. Verder is er ook de opensource nvme-cli tool, die oorspronkelijk door Keith Busch van Intel geschreven is. Deze tool kan gebruikt worden om logs uit te lezen, NVMe name-spaces te creŽren (“formatteren”), etc: https://github.com/linux-nvme/nvme-cli
Intel stelt ook de closed source isdct (Intel SSD Data Center Tool) tool ter beschikking voor Linux. Deze tool kan gebuikt worden om firmware updates uit te voeren, logs uit te lezen, instellingen te wijzigen, etc: https://downloadcenter.in...te-Drive-Data-Center-Tool
Ik heb deze tool gebruikt om de SSD te updaten naar firmware versie 8EV10174.
Al met al zit het dus wel goed met de Linux ondersteuning.

Prestaties

Ik heb FIO gebruikt om benchmarks te draaien die overeenkomen met de tests die Intel beschrijft in de performance paragraaf van het specs document: http://www.intel.com/cont...ications/ssd-750-spec.pdf
Allereerst is de drive tweemaal gevuld met 4KiB random data. Daarna zijn 4KiB random lees- en schrijftests uitgevoerd. Vervolgens is de drive gevuld met 128 KiB sequentiŽle data, waarna 128 KiB lees- en schrijftests zijn uitgevoerd.
4 KiB random leestest over een 8 GiB gebied met queue depth 1:
  • IOPS: 12885
  • Doorvoer: 52.8 MB/s
  • gem. latency: 76 usec
  • max. latency: 2881 usec
Op zich niet slecht. Intel noemt een 120 microseconden latency for 4 KiB random reads, dus 76 usec was rapper als verwacht. Het is een beetje jammer dat ťťn van de grote voordelen van NVMe, een lagere latency vergeleken met AHCI en SAS niet echt uitgebuit worden. De 750 is natuurlijk op consumenten gericht, maar de data centre NVMe SSDs van Intel, zoals de DC P3700 Series, hebben dezelfde latency specs. Waarschijnlijk zou duur SLC NAND nodig zijn voor een significant lagere latency, en hebben te weinig mensen de lagere latency hard genoeg nodig om de hogere kosten van zo'n drive te rechtvaardigen.
Een max latency van 2.8 milliseconden vind ik wat hoog. Het is wel zo dat 99% van de leesopdrachten binnen 334 usec afgehandeld werden. Ik heb ook niet geprobeerd te achterhalen of de pieken in latency door de drive zelf veroorzaakt werden of door het OS.
4 KiB random leestest over een 8 GiB gebied met queue depth 128 (4 threads, queue depth 32 per thread):
  • IOPS: 445231
  • Doorvoer: 1824 MB/s
  • gem. latency: 285 usec
  • max. latency: 4049 usec
Dit vind ik indrukwekkend. De prestaties schalen heel erg goed. Dat de latency tijdens een test met 128 gelijktijdige lees opdrachten niet hoger oploopt dan 4 milliseconden vind ik uitzonderlijk goed. Een potentieel voordeel van NVMe is het grote aantal command queues, en grote aantal commandos per queue. Dit aspect kan klaarblijkelijk wel goed uitgebuit worden met deze drive. Intel geeft 430K IOPS op, dus met zo’n 445K IOPS zijn de resultaten ook iets beter als verwacht.
Op mijn server zal zo’n I/O workload in de praktijk waarschijnlijk nooit gegenereerd worden, maar dat doet er niet toe. Wat de drive hier laat zien is awesome :-)
128 KiB sequentiŽle leestest met queue depth 1:
  • IOPS: 9627
  • Doorvoer: 1261 MB/s
  • gem. latency: 97.3 usec
  • max. latency: 2490 usec
128 KiB sequentiŽle leestest met queue depth 128:
  • IOPS: 18174
  • Doorvoer: 2382 MB/s
  • gem. latency: 7030 usec
  • max. latency: 17591 usec
De 2200 MB/s die Intel belooft wordt dus ruimschoots gehaald met een grote queue depth.
4 KiB random schrijftest over een 8 GiB gebied met queue depth 1:
  • IOPS: 95199
  • Doorvoer: 389.9 MB/s
  • gem. latency: 8.66 usec
  • max. latency: 5994 usec
Op zich prima prestaties. De piek latency van bijna 6 milliseconden vind ik erg hoog, maar dit was een uitzondering aangezien 99% van de opdrachten binnen 18 microseconden werden afgehandeld.
4 KiB random schrijftest over een 8 GiB gebied met queue depth 128 (4 threads, queue depth 32 per thread):
  • IOPS: 238807
  • Doorvoer: 978.2 MB/s
  • gem. latency: 532.32 usec
  • max. latency: 8026 usec
De 230000 IOPS die Intel opgeeft wordt gehaald.
128 KiB sequentiŽle schrijftest met queue depth 128:
  • IOPS: 7507
  • Doorvoer: 984 MB/s
  • gem. latency: 17023 usec
  • max. latency: 67390 usec
De 900 MB/s uit de specs wordt dus met gemak gehaald.

Prestaties in de praktijk

De maximale doorvoer snelheden die behaald worden in de sequentiŽle lees- en schrijftests, kunnen in de praktijk ook gehaald worden bij lees- en schrijfacties via het filesysteem, zij het met een klein beetje tuning. Met mijn kernel is de standaard read ahead op block devices 128 KiB. Als je bedenkt dat deze 128 KiB binnen in 55 microseconden wordt overgedragen op de maximale doorvoersnelheid van 2382 MB/s, lijkt dit wel erg weinig.
Met deze read ahead van 128 KiB werd op een XFS FS een lees doorvoersnelheid gehaald van zo’n 720 MB/s, op een Ext4 FS 1100 MB/s.
Met een read ahead van 2048 KiB, werd zowel op XFS als Ext4 een doorvoersnelheid van ruim 2200 MB/s gehaald.
Met filesystemen op een LV in plaats van een partitie kon ik met XFS geen doorvoersnelheid halen hoger als zo’n 1200 MB/s onafhankelijk van de read ahead grootte op de LV. Met Ext4 kon ik wel 2200 MB/s halen als de read ahead op het LV verhoogd werd naar 2048 KiB.

Conclusie

Ik ben erg tevreden met deze drive. De prestaties zijn prima, en de ondersteuning op Linux is prima. Ik vind de opgegeven endurance van 72 TBW (Terabytes Written) wel wat laag, maar het is dan ook een op consumenten gericht product. Ter vergelijking, voor de 400 GB DC P3700 geeft Intel een endurance op van 7.3 PBW.
Ik vind de prijs redelijk gezien het gebodene.

FIO rapporten

4 KiB random leestest over een 8 GiB gebied met queue depth 1:
job1: (g=0): rw=read, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=1
fio-2.1.11
Starting 1 thread
Jobs: 1 (f=1): [R(1)] [100.0% done] [51828KB/0KB/0KB /s] [12.1K/0/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=1): err= 0: pid=29697: Wed Dec 30 12:31:52 2015
read : io=8192.0MB, bw=51544KB/s, iops=12885, runt=162748msec
clat (usec): min=0, max=2881, avg=75.61, stdev=83.04
clat percentiles (usec):
| 1.00th=[ 7], 5.00th=[ 7], 10.00th=[ 8], 20.00th=[ 10],
| 30.00th=[ 36], 40.00th=[ 37], 50.00th=[ 62], 60.00th=[ 75],
| 70.00th=[ 89], 80.00th=[ 109], 90.00th=[ 175], 95.00th=[ 219],
| 99.00th=[ 334], 99.50th=[ 414], 99.90th=[ 564], 99.95th=[ 852],
| 99.99th=[ 2480]
lat (usec) : 2=0.01%, 4=0.01%, 10=19.44%, 20=4.19%, 50=23.02%
lat (usec) : 100=30.36%, 250=20.11%, 500=2.66%, 750=0.15%, 1000=0.02%
lat (msec) : 2=0.01%, 4=0.03%
cpu : usr=2.61%, sys=4.51%, ctx=2096655, majf=0, minf=2
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=2097152/w=0/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
READ: io=8192.0MB, aggrb=51543KB/s, minb=51543KB/s, maxb=51543KB/s, mint=162748msec, maxt=162748msec

Disk stats (read/write):
nvme0n1: ios=2096904/0, merge=0/0, ticks=155364/0, in_queue=155288, util=95.43%
4 KiB random leestest over een 8 GiB gebied met queue depth 128 (4 threads, queue depth 32 per thread):
job1: (g=0): rw=read, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=32
...
fio-2.1.11
Starting 4 threads
Jobs: 4 (f=4): [R(4)] [100.0% done] [1740MB/0KB/0KB /s] [445K/0/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=4): err= 0: pid=30073: Wed Dec 30 12:52:53 2015
read : io=32768MB, bw=1739.2MB/s, iops=445231, runt= 18841msec
clat (usec): min=35, max=4049, avg=285.06, stdev=198.99
clat percentiles (usec):
| 1.00th=[ 99], 5.00th=[ 121], 10.00th=[ 137], 20.00th=[ 163],
| 30.00th=[ 187], 40.00th=[ 211], 50.00th=[ 237], 60.00th=[ 266],
| 70.00th=[ 306], 80.00th=[ 358], 90.00th=[ 466], 95.00th=[ 596],
| 99.00th=[ 1064], 99.50th=[ 1400], 99.90th=[ 2352], 99.95th=[ 2512],
| 99.99th=[ 2800]
lat (usec) : 50=0.01%, 100=1.05%, 250=53.56%, 500=37.22%, 750=5.51%
lat (usec) : 1000=1.45%
lat (msec) : 2=1.02%, 4=0.20%, 10=0.01%
cpu : usr=13.98%, sys=28.96%, ctx=3399505, majf=0, minf=132
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued : total=r=8388608/w=0/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
READ: io=32768MB, aggrb=1739.2MB/s, minb=1739.2MB/s, maxb=1739.2MB/s, mint=18841msec, maxt=18841msec

Disk stats (read/write):
nvme0n1: ios=8302368/0, merge=0/0, ticks=2329824/0, in_queue=2355400, util=100.00%
128 KiB sequentiŽle leestest met queue depth 1:
job1: (g=0): rw=read, bs=128K-128K/128K-128K/128K-128K, ioengine=libaio, iodepth=1
fio-2.1.11
Starting 1 thread
Jobs: 1 (f=1): [R(1)] [100.0% done] [1205MB/0KB/0KB /s] [9641/0/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=1): err= 0: pid=30353: Wed Dec 30 13:07:51 2015
read : io=8192.0MB, bw=1203.5MB/s, iops=9627, runt= 6807msec
clat (usec): min=43, max=2490, avg=97.30, stdev=83.72
clat percentiles (usec):
| 1.00th=[ 51], 5.00th=[ 52], 10.00th=[ 52], 20.00th=[ 52],
| 30.00th=[ 52], 40.00th=[ 52], 50.00th=[ 52], 60.00th=[ 53],
| 70.00th=[ 71], 80.00th=[ 179], 90.00th=[ 211], 95.00th=[ 270],
| 99.00th=[ 358], 99.50th=[ 370], 99.90th=[ 398], 99.95th=[ 402],
| 99.99th=[ 2096]
lat (usec) : 50=0.01%, 100=74.15%, 250=20.43%, 500=5.38%, 750=0.01%
lat (usec) : 1000=0.01%
lat (msec) : 2=0.02%, 4=0.01%
cpu : usr=1.23%, sys=7.64%, ctx=65537, majf=0, minf=33
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=65536/w=0/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
READ: io=8192.0MB, aggrb=1203.5MB/s, minb=1203.5MB/s, maxb=1203.5MB/s, mint=6807msec, maxt=6807msec

Disk stats (read/write):
nvme0n1: ios=63944/0, merge=0/0, ticks=6236/0, in_queue=6240, util=92.69%
128 KiB sequentiŽle leestest met queue depth 128:
job1: (g=0): rw=read, bs=128K-128K/128K-128K/128K-128K, ioengine=libaio, iodepth=128
fio-2.1.11
Starting 1 thread
Jobs: 1 (f=1): [R(1)] [100.0% done] [2276MB/0KB/0KB /s] [18.3K/0/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=1): err= 0: pid=30361: Wed Dec 30 13:08:25 2015
read : io=8192.0MB, bw=2271.8MB/s, iops=18174, runt= 3606msec
clat (usec): min=1723, max=17591, avg=7030.68, stdev=562.99
clat percentiles (usec):
| 1.00th=[ 6048], 5.00th=[ 6368], 10.00th=[ 6496], 20.00th=[ 6688],
| 30.00th=[ 6816], 40.00th=[ 6880], 50.00th=[ 7008], 60.00th=[ 7072],
| 70.00th=[ 7200], 80.00th=[ 7328], 90.00th=[ 7584], 95.00th=[ 7968],
| 99.00th=[ 8384], 99.50th=[ 8640], 99.90th=[12224], 99.95th=[13888],
| 99.99th=[16768]
lat (msec) : 2=0.02%, 4=0.15%, 10=99.67%, 20=0.16%
cpu : usr=2.66%, sys=15.53%, ctx=53112, majf=0, minf=4097
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=99.9%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.1%
issued : total=r=65536/w=0/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=128

Run status group 0 (all jobs):
READ: io=8192.0MB, aggrb=2271.8MB/s, minb=2271.8MB/s, maxb=2271.8MB/s, mint=3606msec, maxt=3606msec

Disk stats (read/write):
nvme0n1: ios=61570/0, merge=0/0, ticks=431936/0, in_queue=432740, util=97.30%
4 KiB random schrijftest over een 8 GiB gebied met queue depth 1:
job1: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=1
fio-2.1.11
Starting 1 thread
Jobs: 1 (f=1): [w(1)] [100.0% done] [0KB/373.9MB/0KB /s] [0/95.8K/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=1): err= 0: pid=20998: Tue Dec 29 20:47:43 2015
write: io=8192.0MB, bw=380798KB/s, iops=95199, runt= 22029msec
clat (usec): min=0, max=5994, avg= 8.66, stdev=17.12
clat percentiles (usec):
| 1.00th=[ 7], 5.00th=[ 7], 10.00th=[ 8], 20.00th=[ 8],
| 30.00th=[ 8], 40.00th=[ 8], 50.00th=[ 8], 60.00th=[ 8],
| 70.00th=[ 8], 80.00th=[ 9], 90.00th=[ 9], 95.00th=[ 12],
| 99.00th=[ 18], 99.50th=[ 19], 99.90th=[ 27], 99.95th=[ 48],
| 99.99th=[ 74]
lat (usec) : 2=0.01%, 4=0.01%, 10=92.32%, 20=7.19%, 50=0.44%
lat (usec) : 100=0.04%, 250=0.01%, 500=0.01%, 750=0.01%
lat (msec) : 2=0.01%, 4=0.01%, 10=0.01%
cpu : usr=16.67%, sys=20.63%, ctx=2096950, majf=0, minf=1
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=2097152/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
WRITE: io=8192.0MB, aggrb=380798KB/s, minb=380798KB/s, maxb=380798KB/s, mint=22029msec, maxt=22029msec

Disk stats (read/write):
nvme0n1: ios=0/2085594, merge=0/0, ticks=0/15868, in_queue=15800, util=71.87%
4 KiB random schrijftest over een 8 GiB gebied met queue depth 128 (4 threads, queue depth 32 per thread):
job1: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=32
...
fio-2.1.11
Starting 4 threads
Jobs: 4 (f=4): [w(4)] [100.0% done] [0KB/946.1MB/0KB /s] [0/242K/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=4): err= 0: pid=21057: Tue Dec 29 20:51:18 2015
write: io=32768MB, bw=955232KB/s, iops=238807, runt= 35127msec
clat (usec): min=0, max=8026, avg=532.32, stdev=633.70
clat percentiles (usec):
| 1.00th=[ 10], 5.00th=[ 15], 10.00th=[ 20], 20.00th=[ 33],
| 30.00th=[ 68], 40.00th=[ 229], 50.00th=[ 402], 60.00th=[ 482],
| 70.00th=[ 556], 80.00th=[ 764], 90.00th=[ 1576], 95.00th=[ 2008],
| 99.00th=[ 2320], 99.50th=[ 2480], 99.90th=[ 5280], 99.95th=[ 5856],
| 99.99th=[ 6816]
lat (usec) : 2=0.01%, 4=0.01%, 10=0.88%, 20=8.47%, 50=17.33%
lat (usec) : 100=6.02%, 250=8.45%, 500=21.62%, 750=16.96%, 1000=4.12%
lat (msec) : 2=11.05%, 4=4.92%, 10=0.18%
cpu : usr=9.00%, sys=18.53%, ctx=2500074, majf=0, minf=4
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=8388608/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
WRITE: io=32768MB, aggrb=955231KB/s, minb=955231KB/s, maxb=955231KB/s, mint=35127msec, maxt=35127msec

Disk stats (read/write):
nvme0n1: ios=0/8340267, merge=0/0, ticks=0/4380052, in_queue=4434144, util=100.00%
128 KiB sequentiŽle schrijftest met queue depth 128:
job1: (g=0): rw=write, bs=128K-128K/128K-128K/128K-128K, ioengine=libaio, iodepth=128
fio-2.1.11
Starting 1 thread
Jobs: 1 (f=1): [W(1)] [100.0% done] [0KB/949.0MB/0KB /s] [0/7592/0 iops] [eta 00m:00s]
job1: (groupid=0, jobs=1): err= 0: pid=22276: Tue Dec 29 21:03:38 2015
write: io=8192.0MB, bw=961004KB/s, iops=7507, runt= 8729msec
clat (usec): min=1, max=67390, avg=17023.88, stdev=14431.04
clat percentiles (usec):
| 1.00th=[ 54], 5.00th=[ 58], 10.00th=[ 79], 20.00th=[ 548],
| 30.00th=[ 2192], 40.00th=[ 7392], 50.00th=[16320], 60.00th=[26752],
| 70.00th=[31104], 80.00th=[32640], 90.00th=[34048], 95.00th=[35072],
| 99.00th=[40192], 99.50th=[41728], 99.90th=[49920], 99.95th=[59648],
| 99.99th=[66048]
lat (usec) : 2=0.01%, 20=0.01%, 50=0.02%, 100=12.82%, 250=3.41%
lat (usec) : 500=3.24%, 750=2.65%, 1000=2.12%
lat (msec) : 2=4.91%, 4=6.36%, 10=6.59%, 20=10.63%, 50=47.16%
lat (msec) : 100=0.10%
cpu : usr=5.59%, sys=13.06%, ctx=57098, majf=0, minf=1
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=99.9%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.1%
issued : total=r=0/w=65536/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=128

Run status group 0 (all jobs):
WRITE: io=8192.0MB, aggrb=961004KB/s, minb=961004KB/s, maxb=961004KB/s, mint=8729msec, maxt=8729msec

Disk stats (read/write):
nvme0n1: ios=0/64861, merge=0/0, ticks=0/1099756, in_queue=1101716, util=98.84%

Gebruikt in combinatie met:

Heb jij ook een Intel 750 SSD Half Height PCIe 3.0 x4 400GB?

Deel je ervaringen en help andere tweakers!

Schrijf review

Vraag & aanbod

Reacties (9)

Wijzig sortering
Was je testmachine tijdens de tests nog iets anders aan het doen qua CPU, of zijn dit representatieve waardes voor de test?

Kan je ook nog iets zeggen over de boot tijd?

[Reactie gewijzigd door FireDrunk op 4 januari 2016 07:34]

Ik kan niets zeggen over de boot tijd. De SSD zit in een machine die 24/7 draait. De enkele keer dat ik hem reboot let ik niet zo op hoe lang het duurt.
Ik weet niet of je vooral doelt op de tijd die het duurt voor de drive geinitaliseerd is, of hoe snel de OS boot afgehandeld wordt als de drive eenmaal geinitialiseerd is, maar in de specs noemt Intel een tijd tussen power on en eerste I/O completion van 10 seconden.

Voor de tests heb ik de BOINC client gestopt, maar verder alles laten draaien. Er was echter niet veel achtergrond load tijdens de tests, dus ik denk dat de CPU load waardes representatief zijn.
Ik doelde inderdaad vooral op de Initialisatie tijd van de kaart zelf.
Verder leuke review!
Ik heb deze kaart zelf in mijn eigen PC zitten op een GA-Z97X-UD7-TH board met EFI.
De kaart wordt meteen opgepakt door de EFI initialisatie en het OS (Windows 10 in mijn geval) daarna meteen geboot. Er is geen controller of kaart BIOS waarbij je de initialisatie nog moet wachten.
Met alle zogeheten Quick BIOS opties die tegenwoordig op ieder EFI ondersteund bord zitten, start mijn PC met deze PCI-e 750 SSD dus sneller op dan met mijn vorige SSD RAID en Intel onboard RAID controller.
Een frisse/sobere Windows 10 installatie start dan in om en nabij 8 (!) seconden (maarja, hoe belangrijk is dat tegenwoordig nu nog wanneer alle moderne bordjes prima S3/S4 states ondersteunen).

[Reactie gewijzigd door Da_maniaC op 6 januari 2016 13:38]

Dank je wel! Hartstikke nuttige review -- ik zit nogal te dubben over de storage voor een volgende onder-mn-bureau server die vms en package building gaat doen, en ergens een combinatie van m2 nvme en pciex4 nvme lijkt me het hoogst haalbare met een non-x99 bord (met x99 is 3x pciex4 ook practisch uitvoerbaar).
Het is een mooie kaart. Ik heb zelf de 1.2TB versie in mijn workstation zitten.
@Rolfie, welke workstation als ik vragen mag?
Ik zit te denken om de 400GB versie in mijn HP Z820 te zetten maar officieel wordt dat niet ondersteund.
Natuurlijk... Ik heb een HP Workstation "Z440 MT (G1X59ET)". De 750 wordt er niet officieel in ondersteund en standaard zat er een "MZHPV256HDGL" in, welke op AHCI werkt.
Maar de 750 werkt met NVMe wat officeel wel ondersteund is/wordt op dit werkstation.

En alles werkt goed en het is een bakbeest van een machine geworden.

Als ik snel kijk naar Z820 NVMe, dan zie ik dat HP het inderdaad niet ondersteund, maar ik vind ook wel documenten terug op Internet, dan gebruikers dit wel werkend gekregen hebben.
Precies! Ik ga het maar eens proberen. Gister toch besloten om de Samsung 950 Pro aan te schaffen, een centenkwestie... Wordt een leuk experiment!


Om te kunnen reageren moet je ingelogd zijn



Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*