Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Micron introduceert sata-ssd met capaciteit van 8TB

Door , 82 reacties, submitter: JS1982

Micron heeft drie nieuwe lijnen ssd's voor enterprisegebruik geÔntroduceerd. Ze komen in 2,5"- en m2-formaten en maken gebruik van een sata-aansluiting. Ze beschikken over opslagcapaciteiten tussen 240GB en 8TB.

De verschillende lijnen zijn de 5100 Eco, 5100 Pro en 5100 Max. De Eco-lijn is in 7mm dik 2,5"-formaat te krijgen met capaciteiten tussen 480GB en 7680GB, waar de m2-variant niet in een groter formaat dan 1920GB beschikbaar is. De Pro-lijn is ook zowel in 2,5"- als m2-formaat te verkrijgen, met capaciteiten tussen 240GB en 3840GB op 2,5"- en 240GB tot 1920GB op m2-format. De Max-versie bestaat alleen in een 2,5"-formaat, met capaciteiten tussen 240GB en 1920GB.

Alle ssd's maken gebruik van 384Gbit 3d-tlc-nandchips met 32 lagen en een Marvell 88SS1074-controller. Ze bieden allen een leessnelheid van maximaal 540MB/s en een random read van maximaal 93.000 iops. Schrijfsnelheden liggen tussen de 250 en 520MB/s, afhankelijk van het formaat van de ssd, schrijft StorageReview.

De belangrijkste verschillen tussen de drie lijnen zijn de random-write-snelheden en de maximale hoeveelheid data waarmee ze beschreven kunnen worden, voordat ze mogelijk kapot gaan. De Eco-lijn haalt snelheden tussen 9000 en 31.000 iops, de Pro-lijn tussen 26.000 en 43.000 iops en de Max-lijn tussen 48.000 en 74.000 iops. Afhankelijk van het formaat halen de ssd's in de Eco-lijn 0,45 tot 8,5PB voordat ze versleten zijn. Bij de Pro-lijn liggen deze cijfers tussen 0,65PB en 17,6PB en bij de Max-lijn is het tussen 2,2PB en 17,6PB.

Het zijn niet de eerste ssd's die dergelijke formaten hebben. Seagate had voor datacentra al 60TB-ssd's in 3,5"-formaat geïntroduceerd. Samsung heeft al een 32TB-model getoond en een 16TB-model te koop staan. Dit zijn echter modellen met een sas-aansluiting, die bedoeld zijn voor gebruik in datacentra en niet zomaar op een 'normale' computer kunnen worden aangesloten. Het bedrijf Novachips heeft echter al langer 8TB sata-ssd's in het aanbod.

Exacte prijzen voor de ssd's zijn nog niet bekend, maar Micron geeft wel een idee van de prijzen die het bedrijf per gigabyte aan capaciteit wil vragen. Dit is tussen 45 en 55 dollarcent bij de Eco-lijn, tussen 55 en 65 dollarcent bij de Pro-lijn en bij de Max-versie is dit 65 tot 75 dollarcent per gigabyte. Aannemend dat grotere capaciteiten per gigabyte gemiddeld goedkoper zijn, krijgt de Eco-ssd met een 7680GB-capaciteit vermoedelijk een prijs van 3456 dollar, wat omgerekend en met btw 3882 euro is.

  5100 ECO 5100 PRO 5100 MAX
Capaciteit op 2,5"-formaat 480GB, 960GB, 1920GB, 3840GB, 7680GB 240GB, 480GB, 960GB, 1920GB, 3840GB 240GB, 480GB, 960GB, 1920GB
Capaciteit op m.2-formaat 480GB, 960GB, 1920GB 240GB, 480GB, 960GB, 1920GB N.v.t.
Controller Marvell 88SS1074 Marvell 88SS1074 Marvell 88SS1074
Interface Sata 600 Sata 600 Sata 600
NAND Micron 384Gb 32-laags 3d-tlc Micron 384Gb 32-laags 3d-tlc Micron 384Gb 32-laags 3d-tlc
Sequentiële leessnelheid 540 MB/s 540 MB/s 540 MB/s
Sequentiële schrijfsnelheid 380–520 MB/s 250–520 MB/s 310–520 MB/s
4KB Random Read (QD32) 93k iops 78k–93k iops 93k iops
4KB Random Write (QD32) 9k–31k iops 26k–43k iops 48k–74k iops
Maximale hoeveelheid schrijfacties 0.45–8.4PB 0.65–17.6PB 2.2–17.6PB
Adviesprijs $0,45-0,55/GB $0,55-0,65/GB $0,65-0,75/GB

Reacties (82)

Wijzig sortering
Jammer dat ze niet voor NVME / PCI-E zijn gegaan, SATA kan het inmiddels niet meer bijbenen en is een aardige bottleneck.

[Reactie gewijzigd door Navi op 6 december 2016 10:35]

Het zou alleen jammer zijn wanneer de SSD ook daadwerkelijk sneller is. De snelheden van deze SSD kunnen makkelijk gehaald worden met SATA. Ook zijn SATA aansluitingen nog in veel bestaande apparaten aanwezig, dus ik vind het geen vreemde keuze.
Ze bieden allen een leessnelheid van maximaal 540MB/s en een random read van maximaal 93.000 iops. Schrijfsnelheden liggen tussen de 250 en 520MB/s
De snelheden van deze SSD's is gelimiteerd door SATA.
Maximaal 520MBps, maar SATA moet tot 600MBps kunnen. Dus de limiet zit in de drives.
Sata 3 doet 6Gbit/s. We weten allemaal dat 8 bit is 1 byte, but... er wordt gebruik gemaakt van 8b/10b encoding voor pariteit zodat de 8bits goed "overkomen". Daarnaast zit er nog wat extra error correction en flow control op de lijn en dat zorgt er voor dat je vrijwel noojt boven de 550MBps uit komt.

Dus hoewel het theoretisch maximum van Sata3 bruto 750MB/s is,zijn er een aantal extraatjes om data integriteit te garanderen die de boel met ongeveer 25% vertraagd naar ~540-550 MBps.

Overigens is NVME over PCIe totaal niet ineressant voor dit soort schijven aangezien deze aansluitingen in datacenters vrijwel niet aanwezig zijn. Hier wordt gewerkt met SAS controllers die via breakout cables meerdere SATA poorten kunnen aansturen.
Sorry wat? Er zijn genoeg backplanes / racks nu te krijgen met native NVMe support. Supermicro heeft zelfs een 24x NVMe behuizing...

Al dat is al een jaar of twee zo..
SATA is ontzettend dood. Plus dit zijn geen datacenter schijven.

[Reactie gewijzigd door MMaster23 op 6 december 2016 13:31]

Micron heeft drie nieuwe lijnen ssd's voor enterprisegebruik geÔntroduceerd
Eerste regel in het artikel.

Daarnaast zijn NVME oplossingen alleen interessant als het echt gaat om HPC toepassingen. Voor grote data verzamelingen is SAS 3.0 snel genoeg. Zeker icm deze SSD's. De supermicro chassis specs gaan uit van losse drivespeed en die is voor database toepassingen op afstand al heel erg snel. Zelfs met een glasvezel verbinding is dat geen merkbaar verschil. Supermicro geeft zelf ook aan dat het juist voordelen heeft met 3D modelling en in de oliebussiness (enorme datasets met vraag/aanbod modellering, verscheping, disributie en pompaansturingen en zo) bijvoorbeeld.
Enterprise schijven zijn nog geen datacenter schijven. Soms is dat hetzelfde, niet altijd. Ik vind ze niet echt hoge write gehaltes hebben voor DC schijven. 1000 tot 9400x herschrijven. Een DC kan dat met gemak binnen korte tijd doen. Gooi deze in een VDI farm en je kunt ze weggooien.
Ik zit in de HPC. Interesse genoeg, maar de verkoopteller staat nog altijd op een miserablele 0 stuks. Voor vrijwel iedereen is het gebrek aan RAID uiteindelijk een dooddoener en de als je het gaat uitrekenen dan kom je bij de gewenste verhouding tussen snelheid en capaciteit heel vaak bij magnetische schijven. Vrijwel alle storagesystemen in clusters worden nog met magnetische schijven gebouwd. Wel zo gebouwd dat er tientallen gigabytes per seconde gepompt kunnen worden. SSD's zie je vooral bij metadata en als schijfje voor het Linuxbesturingssysteem in rekennodes.
Inderdaad, is bij ons ook zo. Ssd voor Vmware fault tolerance en/of Stratus Everrun. Hier is redundantie zeer belangrijk, waarvoor ssd als redundantie cache word gebruikt. De rest draait op sas hdd's.
Supermicro investeert inderdaad flink in NVMe, ze zijn de enige. De markt laat NVMe in servers vooralsnog links liggen. Redenen zijn gebrek aan hardwarematige RAID en failover. De SATA- en zeker SAS-SSD is niet voldoende een flessehals om daar betrouwbaarheid voor op te geven.
Okay, 550MBps, dus als een drive 520MBps is, dan gaat een snellere interface niet helpen.

Bovendien, voor servers is er idd SAS, en die zijn 12Gb, wat dus ook niet gaat helpen. Gelukkig kun je wel een SATA-schijf op een SAS-controller aansluiten.
Jawel hoor. De gebruikte controller is namelijk ook ahankelijk van de interface. Deze snelheids beperking van 520 is niet door de flash chips maar doordat de controller dusdanig gebouwd is dat hij de interface goed kan gebruiken. Een PCIE versie heeft ook een andere controller met andere en meer pathways richting de flash chips en dus meer bandbreedte.
SATA heeft -+10% aan overhead voor onder andere error correction, flow control dus maximaal is rond de 540-550mb/sec
Theorie meneertje..

P-ATA haalde ook niet precies 100 en 133MB/s sustained....

[Reactie gewijzigd door Marctraider op 6 december 2016 12:41]

In praktijk is snelheid in Mbps gedeeld door 10 de snelheid in MBps, vanwege overhead. Anders zou ik wel 750MBps claimen. Meneertje.
In theorie zal dat wellicht zo zijn; en in een syntetische leef/schrijf test zal dat ook wel blijken.

In een praktijktest met 'echte' toepassingen is het verschil tussen een SATA SSD en de snelste NVME SSD echter verwaarloosbaar; kijk maar eens naar PCmark Storage Score.

[Reactie gewijzigd door !mark op 6 december 2016 11:09]

Op windows misschien. Ik merk het verschil wel degelijk in OS X. Ik kan gewoon veel meer zware porgrammas tegelijk draaien.
Inderdaad, bij dit prijsniveau verwacht je toch wel een NVME / PCI-E device.
Hoe stel jij je een PCI-E SAN voor in een datacenter?
Is toch niet rendabel ?
Heb hier een 2u kast staan kunnen 25 van deze schijven in, zit ik op 200tb.
En nog genoeg ruimte over voor pcie slots te vullen met netwerk
Dit kun je in iedere PC, laptop of NAS stoppen en dan werkt het. Met snelle response times en 500MB/s beide kanten op ben ik als particulier volledig tevreden hoor :)
(EDIT: het zijn alleen enterprise schijven blijkbaar...)

[Reactie gewijzigd door Pathogen op 6 december 2016 10:43]

Niets weerhoudt je ervan om die dingen in je machine thuis te gebruiken. Behalve de prijs.
Daar zal de prijs ook naar zijn.
Wellicht dat de IO veel belangrijker is dan ruwe throughput. Als ik kijk naar bv de DB servers bij ons op werk is dat voornamelijk hoge I/O en niet zo zeer hoge throughput.
Jammer dat ze niet voor NVME / PCI-E zijn gegaan, SATA kan het inmiddels niet meer bijbenen en is een aardige bottleneck.
SATA kan prima bijbenen voor alles wat geen sequentiŽle activiteiten zijn. En sequentiŽle activiteiten komen maar zelden voor.
Want M.2 heeft niks te maken met PCI-E/NVME? oh wacht...

Let er ook op dat als je zou kijken naar de doelmarkt voor de MAX-variant dat die vrij waarschijnlijk bij enterprise-omgevingen zou liggen. Daar heb je meestal geen servers met bergen pci-e slots over... sterker nog, om legio redenen zijn backplanes met SATA danwel SAS aansluiting veel handiger/flexibeler. HotSwap/redundantie zijn dan nog de makkelijkste voorwaarden.
Dat en het feit dat je voor NVMe geen hardware RAID kunt doen en dus volledig afhankelijk bent van software implementaties om redundantie over verschillende drives te krijgen. Voor nieuwe applicaties misschien niet zo'n issue maar voor legacy vaak wel

Verreweg de meeste ssd 's die ik in enterprise servers voorbij zie komen zijn sata. Voor random io is het verschil met bijvoorbeeld 12G SAS inderdaad klein. SAS zie ik dan ook nauwelijks voor SSD (wel voor 10K spinning) maar NVMe is wel aan een aardige opmars bezig.

[Reactie gewijzigd door Rctworld op 6 december 2016 12:10]

Je hebt SAS SSD's nodig voor failover: Systemen die door moeten werken zonder onderbrekeking als er een server uitvalt. Omdat SAS twee poorten heeft kan hij met twee servers tegelijk verbonden zijn. Secundair voor argument om voor SAS te kiezen is snelheid, twee poorten Š 12 gigabps geeft viermaal zoveel bandbreedte als SAS.

Maar op zich klopt het wat je zegt: Het leeuwedeel van de SSD's is SATA.
Dat gaat alleen op als je een dual-domain oplossing hebt, en dat zijn er buiten de enterprise storage oplossingen ook niet heel veel. Storage Spaces in 2012R2 deed het maar dat was ook niet echt een denderend succes ;)
Van storage spaces heb ik nooit gehoord, maar systemen op basis van GPFS en Lustre gaan als zoete broodjes over de toonbank. Als je 5 petabyte aan opslag hebt waar 10 servers voor verantwoordelijk zijn, wordt de kans dat een server er als dan niet gepland uit ligt groter. Daarom eist men voor de meeste van die systemen dat ze zonder single-point-of-failure zijn. Ook voor gewone NFS-servers is er een toename in de vraag naar failover. SAS-schijven en SSD's zijn in dat soort situaties verplichte kost.
Nice! Nu moeten ze alleen nog goed betaalbaar worden. Voor mij persoonlijk wordt het pas interessant om een nieuwe te kopen van minimaal 2TB.
Ik heb nu 2 usersystemen met elk een 256GB SSD van Crucial (M4) en Samsung (830)
Tot kort geleden had ik hier genoeg aan, maar door de steeds grotere spellen moet ik steeds vaker eerst verwijderen voor ik iets nieuws kan installeren
§540 voor de Crucial MX300 2TB. Valt mij hartstikke mee eigenlijk! Zijn genoeg mensen die zo'n bedrag aan een processor of videokaart uitgeven.
Haha ja, als je ziet dat 8TB 3700 euro kost. Wie betaald er nou 3700 euro voor een SSD?!?!? 8)7
Nou dat is opzich nog wel te doen hoor. 200TB met 25 schijven is een stuk goedkoper dan 200TB over 200 drives.

25 drives is namelijk in een 2U kast eenvoudig te doen, 200 wordt toch minimaal 10U. Dat is een stuk duurder in aanschaf en onderhoud. Je moet namelijk 5x dure chassis kopen, 5x rackspace huren 5x stroom aftikken, 5x raid apparatuur. Alles bij elkaar gaan de kosten per gig per aansluiting dan behoorlijk omhoog. En dan reken ik even met 2x 24 slot kasten van 2U. Met 48 per 2U moet je dus nog een 24 slots kast bij kopen voor de laatse 8 drives. 25 drives kunnen meestal wel in 1 2U rack.
Daar heb ik nu juist een 2e 250GB ssd voor bijgeprikt van uit een kannibaal systeem.
Ontzettend jammer dat ze voor de SATA-600 bus en het oude AHCI-protocol hebben gekozen. De geheugenchips zelf zijn verreweg het duurste, de controller kost bijna niks (paar procent bij meer dan 1TB). Voor een paar tientjes meer hadden ze deze SSD's met een PCIe 3.0 x4 interface ťn NVMe uit kunnen rusten, wat niks is op een SSD van duizenden euro's.

Aan de andere kant is het natuurlijk wel mooi dat er nu zulke grote 4TB en 8TB SSD's komen. Weer een stapje dichter bij het vervangen van harde schijven door SSD's.

[Reactie gewijzigd door Balance op 6 december 2016 10:53]

Dan passen er maar 8 ssd per server in plaats van 24-48 als sata variant.
In een server zou je eerder voor SAS willen kiezen, lijkt me. En SAS kan sneller dan SATA, en er kunnen meer apparaten per controller aangesloten worden.
Een SAS controller kan gewoon sata schijven aan hoor. Meestal kan je per sas poort zo'n 4 sata schijven kwijt.
_Thanatos_ doelt op het gebruik van een SAS-expander waarmee een 8-poort RAID-kaart honderden schijven aan kan sturen. In principe kun je ook in een dergelijke situatie SATA-schijven gebruiken, echter met twee kanttekeningen:
  • Failover is niet mogelijk als je SATA-schijven gebruikt
  • De SAS-expander moet in dat geval, omdat de verbinding tussen expander en RAID-kaart wel SAS is, het SATA Tunneling Protocol gebruiken, wat negatief uitwerkt op de te behalen snelheden
Dat ook :)

Ik doelde meer op het feit dat SAS een "generatie" voorloopt op SATA, en is dus 12Gbps. Daarop kun je dus snellere schijven dan deze aansluiten.
Binnen de SSD wereld is dat alleen handig als je enkele tientallen GB/s wil overzetten hoor. Voor random IO is sata snel genoeg.
Ttegen de tijd dat dat PCIe SSDs gewoongoed gaan worden, zijn er met chipsets de lanes uitgebreid tot 256.
Dat is zeker waar, maar er gaan nog heel veel servers verkocht worden voor dat zover is en daarom maken fabrikanten graag SSD's voor die servers.
De kans is groot dat ze er voor gekozen hebben om dat er gewoon een enorme serverpark staat wat daar wel mee overweg kan en met nieuwere aansluitingen niet (zonder alles dus opnieuw te vervangen). Ze zijn echt niet zo dom om niet eerst onderzoek te doen naar wat hun klanten willen.
Het lijkt nu nog duur, maar als we een paar jaar verder zijn heb je waarschijnlijk consumenten SSD's van een x aantal TB voor <200 euro. Ik ben erg benieuwd waar dit allemaal heen gaat. Zelf heb ik besloten om alleen SSD's in mijn desktop te stoppen.

Wat mij echter alleen nog niet duidelijk is zijn de zogenaamde IOPS voor een invloed hebben. Van wat ik kan vinden maakt het weinig verschil of je 20k of 40k IOPS hebt bij normaal gebruik, of heb ik dit mis? Ik ben niet zo heel erg bekend met de werking van SSD/HDD hardware. Misschien wordt het eens tijd mij er wat in te gaan verdiepen :+
Het lijkt nu nog duur, maar als we een paar jaar verder zijn heb je waarschijnlijk consumenten SSD's van een x aantal TB voor <200 euro.
Dat lijkt me voorlopig niet realistisch. Integendeel.
http://www.tomshardware.c...ge-nand-market,33112.html
:| ik wist niet dat de componenten schaars zijn op dit moment. Ik ging gewoon even uit van een rekensommetje in mijn hoofd, gezien de kosten en snelheid van ontwikkeling van andere componenten en dergelijke.

Maar mocht deze shortage opgelost worden, is het dan niet zo dat na verloop van tijd de prijzen flink gaan dalen omdat het ontwikkelproces beter wordt en dus goedkoper? (mits dus die shortage opgelost wordt)
Shortage of geen shortage maakt niet zoveel uit, in het verleden is er met RAM ook zo vaak een shortage geweest.

Dat gaat op en neer altijd en is maar tijdelijk.

Wanneer ze cellen ontwikkelen die 4 bits per cel kunnen opslaan en 96 lagen kunnen maken in plaats van de 48 lagen van nu dan kan de prijs weer omlaag.

Bovendien hebben sommige SSD fabrikanten al SSD's gemaakt zonder RAM, dat kan de prijs ook een beetje omlaag halen.

Met M.2 SSD's heb je ook geen behuizing nodig dus op termijn kan een M.2 SSD ook iets goedkoper dan een 2.5inch SSD.
Mede schuld van Samsung... Die vernietigd zo'n 1 EB aan SSD's inzake de in-de-fik-vliegende-Samsung's. I.p.v. dat ze componenten herbruiken. Da's klote, dat die smartphone's niet een beetje modulair gemaakt zijn. En slecht voor het milieu.
Samsung mobile moet gewoon netjes in de rij staan voor componenten bij Samsung components als elke andere afnemer (immers zijn er gewoon contracten die nagekomen moeten worden), het zijn allemaal losse bedrijfsonderdelen. dat lijkt menig tweaker nog wel eens te vergeten.
Dat gaat zelfs zover dat de rivaliserende Qualcomm SoC's door Samsung gemaakt worden. Dat moet ook wel, want er is niemand, maar dan ook niemand die Samsung kan beschuldigen van monopoly misbruik.
Samsung mobile moet gewoon netjes in de rij staan voor componenten bij Samsung components als elke andere afnemer...
En hoe meer er in de rij staan, hoe duurder het product wordt voor de eindgebruiker. Dus hoe meer telefoons met zo'n datadrager vernietigd, hoe duurder die datadragers zullen worden.
Juist het aantal (random) iops en de toegangstijd maken het grote verschil met de harde schijven. Voor sommige acties is sequentieel lezen en schijven handig en is de 3000/1500 MB/s van nvme SSD's lekker. Dus een photoshop die er op een i5 nog 10seconden (bij wijze) over doet om op te starten zal wel baat kunnen hebben bij nog veel snellere SSD's om tot onder de seconde te kunnen duiken (mits de rest snel genoeg is zoals cpu/cache/ram)
alles zal gaan veranderen de komende jaren. Alles is steeds afhankelijk geweest van de vraag en aanbod van alle hardware! De komende jaren zal er zeer zeker ook steeds meer geproduceerd gaan worden tot dat we weer op een punt van overproductie/capaciteit komen te zitten en de prijzen dusdanig /evenredig omlaag zullen gaan (kelderen!). Dus voor nu nog ff geduld hebben en wachten op de dag dat dit ook gaat gebeuren en we uiteindelijk alleen nog maar SSD's gaan kopen i.p.v. de normale HDD's. ;) 8-)
Dit zou je inderdaad verwachten, maar helaas gaat het er een beetje anders aan toe op dit moment waardoor jouw voorspelling in de nabije toekomst zeker niet gaat gebeuren; http://www.tomshardware.c...ge-nand-market,33112.html
Is dit ook het einde van de traditionele hardeschijf?
Waarom? Zo lang de prijs niet in buurt komt zullen harde schijven nog lang bestaan.
Kwestie van tijd totdat de prijzen gaan dalen.
Dat zeggen we al tien jaar.
Klopt, maar dat is uitgezonderd ondergelopen fabrieken, aardbevingen, brand en andere niet te voorspellen barrieres.
Dat heeft eerder een boost gegeven in de productie van ssd's en de prijsdaling. Want dit trof over het algemeen de HDD productie
In 10 jaar zijn de prijzen dan ook behoorlijk gedaald.

Tegenwoordig hebben zelfs budget laptops SSD's.
Gedaald wel ja, maar HDD's hebben ook niet stilgezeten. SSD's zijn per GB nog steeds zomaar 10x duurder dan HDD's.
Bij HDD's lopen we al wel tegen natuurkundige limieten aan doordat de magnetische punten niet veel kleiner meer kunnen. Seagate liep daar tegenaan met hun 10tb drives en overlappen nu de sectoren zodat er meer data op een platter kan. Hun 8TB drives zijn voorlopig de grootste drives die je daadwerkelijk als HDD kan gebruiken in bijvoorbeeld een desktop of server. De archive drives hebben een komplete rewrite nodig als je ergens een datapunt wijzigd. Na schrijven gebruik je deze drives dus het liefst read-only.
Harde schijven hebben in principe stilgezeten, er is echt heel weinig veranderd.

Net als toen LCD schermen populair werden, toen waren LCD schermen ook heel lang duurder dan CRT maar de prijs was geen obstakel voor mensen omdat de voordelen groot waren.

Dat gebeurt nu ook met SSD's, ondanks dat SSD's veel duurder zijn dan harde schijven zijn ze toch populair geworden omdat de voordelen groot zijn.
Las laatst op Tweakers dat de prijzen zelfs zouden gaan stijgen...
Maar een paar euro, dat is allemaal tijdelijk :)
Inderdaad. Maar die tijd kan ook nog 5 jaar zijn.
Dat is onjuist: De harde schijf komt pas in gevaar als de prijzen van SSD's harder dalen dan die van magnetische schijven. De verwachting van experts is dat de harde schijf minstens tot 2025 onder ons zal blijven.
Magnetische schrijven hebben het voordeel dat ze veel vaker beschreven kunnen worden.
Prijs per gigabyte bij HDDs is ongeveer 40 cent voor een 4 TB schijf. Komt al aardig in de buurt dus imo.
Je zit er een nulletje naast, kijk maar in de pricewatch:
categorie: Interne harde schijven
Een 4TB schijf zit tussen de 3 en 5 ct. per GB.
Verhip! Ik kon me nog duidelijk herinneren laatst een schijf voor ........41 euro/gb te hebben gekocht. Ging er, zonder te rekenen, van uit dat het 0.41 euro was, en niet 0.041...
Voor bijna §4000 voor 8TB koop ik toch liever een harde schijf voor opslag ;)

Het gaat wel de goede kant op, maar harde schijven blijven nog even nuttig.
@Navi

Voor grote capaciteiten heb je een 2.5" form factor(ff) nodig, de m2 ff is daar te klein voor. Maar dan heb je idd de beperking vd trage sata-poort. Om hogere snelheden te halen met een 2.5" ff heb je sata-express, maar ik geloof dat die niet zo wijd ingeburgerd is en ook niet zo handig omdat die twee sata-poorten in beslag neemt(althans op mijn mb is dat zo).

Ik denk dat fabrikanten toch eens een nieuwe poort gaan moeten ontwikkelen voor een 2.5" ff(dus niet voor pci-e insteekkaart of m2 ff) die handiger is en hogere snelheden kan halen. Ik verkies trouwens de 2.5" ff voor ssd's want een pci-e insteekkaart kan de airflow van je graf. kaart belemmeren en een m2 ff is te klein om grote capaciteiten toe te laten. Immers, hoe grotere capaciteiten fabrikanten kunnen uitbrengen, hoe rapper de prijs van ssd's gaat dalen.
Een 2.5-inch vorm voor PCI-E SSD's bestaat al. Supermicro is momenteel de enige fabrikant die er produkten voor heeft. ASUS gaat er medio 2017 mee komen.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*