Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Bedrijf begint met verkoop van 50TB-ssd in 3,5"-formaat

Door , 91 reacties, submitter: flippy.nl

Viking Technology is begonnen met het leveren van ssd's met een capaciteit van 25TB en 50TB. Het gaat om 3,5"-ssd's die bedoeld zijn voor datacenters, uitgerust zijn met een sas-interface en gebruikmaken van mlc-nandgeheugen. Prijzen zijn niet bekendgemaakt.

Het bedrijf plaatst de ssd's in zijn UHC-Silo-serie, waarbij de afkorting staat voor Ultra High Capacity. Volgens de makers kan het mlc-nandgeheugen, dat afkomstig is van SK Hynix, vijf jaar lang iedere dag volledig herschreven worden.

De ssd's zijn voorzien van een 6Gb/s-sas-aansluiting en hebben een maximale sequentiële leessnelheid van 500MB/s. Voor schrijven is dat 350MB/s. Verder specificeert de fabrikant 60.000iops voor willekeurige leesacties en 15.000iops bij willekeurige schrijfacties. Het verbruik onder load is maximaal 16 watt, terwijl de ssd's idle niet meer dan 10 watt verbruiken.

In theorie zouden fabrikanten 3,5"-ssd's met een nog veel hogere opslagcapaciteit kunnen maken. Viking Technology gebruikt voor zijn UHC-Silo-modellen mlc-nandgeheugen met twee bits per geheugencel, dat een minder hoge datadichtheid heeft dan tlc-geheugen of de nieuwe qlc-chips met respectievelijk drie en vier bits per cel.

De 50TB-ssd is volgens Viking Technology de ssd met de grootste opslagcapaciteit die nu verkrijgbaar is. Seagate toonde vorig jaar al een 3,5"-ssd met een capaciteit van 60TB, maar dat model is nog niet op de markt verschenen. Het prototype dat Seagate toonde maakte gebruik van 3d-tlc-nand.

Julian Huijbregts

Nieuwsredacteur

12 juli 2017 09:12

91 reacties

Submitter: flippy.nl

Linkedin Google+

Reacties (91)

Wijzig sortering
Vreemd lage specs voor een SAS drive, bestaand uit waarschijnlijk een flink aantal geheugenchips. Had best een SAS 12G disk kunnen zijn lijkt me? Ook het aantal IOPS vind ik verbazingwekkend laag. Maargoed, een paar van deze in een RAID of ZFS opstelling en je hebt wat heel leuks :) Ben wel benieuwd naar de rebuild tijd van zoiets mocht het falen...

[Reactie gewijzigd door Rataplan_ op 12 juli 2017 09:15]

Op volle snelheid is dat ongeveer 40 dagen. Maar zou wel van iets meer uitgaan aangezien z'n drive bijna nooit de geadviseerde snelheid volhoud over een langere periode.
De 6Gb/s interface verbaast mij ook. Ik stel me zo voor dat je deze met 12 of 24 op een expander backplane plaatst en dan is het gezien de prestaties toch wel prettig om 12Gb/s verbindingen te hebben. Zelfs 10k draaiende schijven zijn inmiddels van 12Gb/s poorten voorzien.

Zou het kunnen zijn dat de IOPS/verbruik expres anders is dan bij performance georiënteerde SSD's? De nu behaalde 0,83 IOPS/GB (100% read) is voor cold storage in principe voldoende en het stroomverbruik is misschien veel interessanter. Ik kan me voorstellen dat die twee aan elkaar gekoppeld zijn.
Valt wel mee, toch? Deze schijven worden niet per stuk ingezet, maar in grotere configuraties. Als er in een datacenter shelf 24 van deze schijven geplaatst worden (reken met 20 actief, rest overhead en spare) dan kan je een 100Gb netwerk interface volblazen. Hoeveel omgevingen met 100Gb ken jij?
Ja dat is ook wel zo, met 8 lanes naar de controller kom je dan nog maar op 48Gb/s per shelf overigens maar dat is voor de meeste cold storage toepassingen wellicht voldoende.
Cold storage op SSD's? De prijs zakt wel, maar cold storage is nog lang geen SSD gebied. HDD's blijven veel effectiever daarvoor.
Nee, HDD's doen nu 12TB in een 3,5" slot, deze SSD is dus 50TB. In hetzelfde rack kun je nu dus 4x meer storage kwijt welke ook nog eens veel sneller is dan de HDD die tegen zijn limiet aan het lopen is.

In een 42u rack kun je dus nu 10x een supermicro chassis met plaats voor 90 3,5" disks kwijt en een tweetal switches. Dan heb je 45PB per rack en met een rack heb je dan net genoeg ruimte om 1 dag verkeer van de ams-ix op te slaan. Bijzonder handig als je sinds vandaag ineens extra bevoegdheden hebt gekregen.

[Reactie gewijzigd door Kees op 12 juli 2017 22:57]

Dat kan beter, een Storinator van 4u kan 60 3.5 inch drives kwijt
En dat is beter dan 90x 3,5" in een 4u.. hoe?
60x 50tb x 10 = 30 PB per rack
of ik snap je 4,5 pb per rack niet

[Reactie gewijzigd door citegrene op 12 juli 2017 22:33]

das een factor 10 te klein, post aangepast. 90 * 50 * 10 = 45000 TB per rack inderdaad
:+ :Y)
Jep zelfs de eerste kamer heeft gecapituleerd ;( ;(
Ja, want het stroomverbruik en warmteontwikkeling (dus minder koeling nodig) is aanmerkelijk lager dan bij mechanische drives. Als je er racksmvol mee hangt kan dat een aardige kostenbesparing opleveren. En in het kader van groen, groener, groenst dus zeker een aanwinst.
Het hele idee van cold storage is nu net dat je't niet actief gebruikt. Dat is archief data. Het stroomverbruik van een idle HDD is vergelijkbaar met dat van een idle SSD, de controller heeft nog een paar mW nodig.
Het ligt aan de randvoorwaarden.. wijs mij maar een HDD aan die 50TB in 3,5" form factor propt :)
De 6Gb/s interface verbaast mij ook. Ik stel me zo voor dat je deze met 12 of 24 op een expander backplane plaatst en dan is het gezien de prestaties toch wel prettig om 12Gb/s verbindingen te hebben. Zelfs 10k draaiende schijven zijn inmiddels van 12Gb/s poorten voorzien.
[...]
Zou toch wel leuk zijn, 0.6 PB bruto in een 1U behuizing, met een 300 Watt voedinkje.
En 12x 6 gbps zit je toch nog op zo'n 70 Gbps bruto bandbreedte. Zal niet meevallen om dat via het netwerk te ontsluiten.
Dan zit je toch aan 40 gbps poortjes, of infiniband ofzo te denken, of gewoon een SAS bus naar bijv. een grote databaseserver.
Gewoon 100Gbit ethernet, niet zo speciaal meer.
Ik geloof ergens gelezen te hebben dat de nieuwe chips van Intel standaard een 100gbit nic ingebouwd gaan hebben.
Ik zit hier dagelijks in een omgeving waar men met redelijk high-end spul zit te spelen. Maar 100Gbps spul komt daarbij nog niet voor.
Max. wat ik hier zie is: 40/52 Gbps infiniband, 40 Gbps ethernet, 160x 10Gbps ethernet (in 1 meetapparaat), etc. Zelfs de 100 Gbps link naar Surfnet bestaat dan uit meerdere 10G/40G lijnen.
Kortom, zo speciaal lijkt dat nog steeds wel te zijn.
Daarnaast zijn switches met 100G ethernet toch een stukje meer onbetaalbaar dan die met 40G poortjes.
Helemaal niet onbetaalbaar.
Wij hebben ze ondertussen al een 6maand in gebruik.

Als ik me goed herinner om en bij de 10000euro voor een switch meh 12x 100gbit. Deze kan je ook opsplitsen in 24x 50gbit of 48x 10gbit.

http://www.mellanox.com/page/ethernet_switch_overview.

Super-materiaal en al helemaal als je het hebt over RDMA voor storage spaces direct

[Reactie gewijzigd door klakkie.57th op 12 juli 2017 15:24]

Apart inderdaad, 6Gbit SAS had ik niet verwacht.

De IOps zijn zeker laag, maar niet super laag. Ze zijn niet "langzaam" om het zo te stellen.

Ik snap alleen dit niet: "De ssd's zijn voorzien van twee 6Gb/s-sas-aansluitingen"

Twee aansluitingen?
Bij de meeste SAS disks heb je de mogelijkheid tot dual-port (ook wel dual-domain genoemd) zodat je een redundant pad hebt, mocht 1 van de sas loops een probleem hebben, dan gaat het verkeer via de andere SAS loop gewoon door.

http://h20564.www2.hpe.co...c/display?docId=c01451157
Met dual-port sas disks kan je de disk ook op 2 controllers aansluiten (mits je backplane dat ook kan natuurlijk) ... Op die manier kan je extra redundancy inbouwen, en zou je dus zelfs een controller kunnen restarten zonder verlies van toegang tot je storage.

Wordt vooral gebruikt in 'enterprise' storage systemen. .... Maar dat is dan ook mede het target voor deze 'disk'
Is toch alleen voor redunacy van je raid controller ? Of kunnen echt 2 systemen toegang krijgen
Ik heb @ werk van die storage systemen met 2 complete computers in 1 19" kast, beide systemen hebben eigen PSU en eigen SAS controller, en praten met de zelfde disks, via zo'n dual-attached sas disk dus.

Mooi spul.... kost wel een paar duiten
Ik was altijd al benieuwd hoe die supermicro twins dat deden. Gaaf
Die doen dat helaas niet... die hebben gewoon dedicated driveslots voor de verschillende nodes
Volgens mij is het niet mogelijk dat 2 controllers tegelijk op dezelfde drive schrijven, tenzij er reserveringen zijn gemaakt die overlap van de (fysieke) diskruimte uitsluiten. Ik me even lastig voorstellen waarom dit wel zou kunnen.
(het is net zoiets als een SAN via 2 kaarten parallel laten beschrijven. Dat kan ook niet (zonder speciale software of assignments).
Dual-port is al jaren standaard op SAS disken. Daarmee heb je twee paden naar de storage controller of controllerS, om wat extra redundancy te creëren. Zit overigens gewoon op dezelfde SAS connector, daar zitten alleen wat meer pins op aangesloten dan bij een single-port SAS disk.

[Reactie gewijzigd door Rataplan_ op 12 juli 2017 10:09]

Ik denk dat dit echt voor cold storage bedoeld is, waarbij performance niet zoveel uitmaakt. Ben wel benieuwd wat de prijs per GB uiteindelijk is.
Ja maar juist daarom; de prijs moet wel HEEL interessant zijn aangezien je voor cold storage ook bv 7x 10GB in een RAID6 oid kunt nemen voor ik ben bang een fractie van de prijs... Hoe dan ook, het gaat heel zeker de goeie kant op met storage :)
Density is belangrijk hier. Met HDD's krijg je geen 50tb in 3,5 inch. Stel je voor, een machine met 24 drive bays. Die kan met dergelijke drives 1,2 Petabyte bevatten. In één machine!
Nou, ruimte moet wel heel duur zijn willen de kosten om 50TB in SSD te doen opbrengen.
Wat dacht je van verbruik? Zo'n kast aan schijven, of 1 machine met een lading ssd's. Afhankelijk van hoe lang en hoe vaak het gebruikt wordt, kan zoiets wellicht zichzelf nog wel terug verdienen.
Het verbruik is een voordeel, maar het verschil in kosten is enorm, dus er zal naar verwachting binnen de economische levensduur geen omslagpunt komen.
bays zijn tegenwoordig ook beter geworden. zie de nieuwe vmax 3 bays:
https://encrypted-tbn0.gs...BscuIy-mcWKnfR04R4C3fbiaW
6 x 21 bays = 126 bays
126 x 50 TB = 6,3 Petabyte. :9~ :9~ :9~ :9~ :9~ :9~
Dat ga jij nooit vol krijgen met (nuttige) data. Ik zie hier heil in als het gaat om grote databases te beheren. Zoals we zien is dit prima geschikt voor databases welke geindexeerd moeten worden. Ook kan zo veel opslag nuttig zijn om grote indexes te beheren. Leuk voor datacenters, maar overbodig voor een consument tenzij je van plan bent om een heuse videotheek te archiveren. Ik denk dat deze units zeer geschikt kunnen zijn voor professionals. Keyword databases.
Joh. Ik was ook echt niet van plan er eentje te kopen hoor.
In dat geval moet je de rekensom maken, hoeveel plaats kost een normale hdd, stroom, kosten kast, ruimte enz. Dan kosten bij eventueel uitval. 5x10 gb of 1x 50 gb, kan op uitval bij 5x zal hoger zijn maar sneller te vervangen en te herbouwen.

Op dit moment twijfel ik of ssd goedkoper zal zijn voor cold storage maar het punt waarop het even duur zal zijn zal steeds dichterbij komen.
Eens, maar dat is toch 7 x stroomverbruik plus meer ruimte wat in dit geval dan gewoon 7 x 50 TB kan zijn. Maar inderdaad, de prijs zal de beslissende factor zijn.
Buiten de stroomverbruik heb je ook dat je meer servers moet inzetten en dus ook meer netwerkverkeer heb en uiteindelijk heb je dus meer apparatuur nodig om tot het totaal plaatje te komen.
Stroom, Koeling, Ruimte.
Het lijk een prima oplossing voor lange termijn storage, zoals veel objecten in S3. Die staan daar maar te staan, maar moeten wel per direct beschikbaar zijn.
In dit soort gevallen moet je nog steeds een raid opzetten al zal een mirror of raid 3 voldoende zijn met zoveel capaciteit. Maar in raid zal de totale performance ook weer omhoog schieten.
Vreemd lage specs voor een SAS drive, bestaand uit waarschijnlijk een flink aantal geheugenchips. Had best een SAS 12G disk kunnen zijn lijkt me? Ook het aantal IOPS vind ik verbazingwekkend laag. Maargoed, een paar van deze in een RAID of ZFS opstelling en je hebt wat heel leuks :) Ben wel benieuwd naar de rebuild tijd van zoiets mocht het falen...
.
.
Ik denk dat je volledig volledig voorbij gaat aan het doel van deze schijf.

Deze is zoals in de tekst ook al vermeld staat bedoeld voor datacentra.

Snelheid is daarbij van minder belang dan opslagcapaciteit.
Het feit dat het aantal IOPS laag is, is ook geen probleem gezien de grootte van de schijf.
Voordat je 50TB zo vaak hebt overschreven, ben je een heeeeeel eind verder.

Wanneer je deze in een een 24 bay NAS stopt heb je meer dan 1.2 Petabytes tot je beschikking.

Je moet dan dus even bedenken wat dat aan kosten bespaart in een een datacentrum voor wat betreft vloeroppervlak en door het lage energieverbruik ook nog eens aan de energierekening.

[Reactie gewijzigd door p0pster op 12 juli 2017 09:55]

Het feit dat het aantal IOPS laag is, is ook geen probleem gezien de grootte van de schijf.
Voordat je 50TB zo vaak hebt overschreven, ben je een heeeeeel eind verder.
Het aantal IOPS zegt niets over de levensduur, maar over de prestaties.(Input/Output Operations Per Second)
In 3U stop je nu ook al 70+ schijven. Dus de extra ruimte valt wel mee aangezien je in een standaard rack dus ook al makkelijk 5PB+ kunt stoppen.
Dus de datacenter kost van laten we zeggen 1000Euro per maand per rack is helemaal te verwaarlozen.
Ik zie geen 2x sas op de foto. 2x sas omdat één controller geen 50tb aankan? En waarom geen nvme versie? Maar als archiefdrive kan ik me wel toepassingen voorstellen. Als je bv alle email die langskomt moet archiveren van een groot bedrijf. Dan hoef je niet teveel tegelijk te schrijven.
De maat is niet de beperking maar de doorvoer.

KWa stroomverbruik tov een cluster HDs scheelt het op 5 jaar veel. Hoewel je met een set 10 tb schijven ook weer niet zoveel nodig hebt.
Je zit het niet omdat het in 1 fysieke connector word aangeboden (zoals op het plaatje)
De term zoals elder ook al genoemd is dualport, 1 connector voor power + 2* SAS.

En 2 * SAS voor de redundantie, dus max 2 controllers die de disk kunnen aansturen, meestal (altijd) active -passive

NVMe zou leuk zijn maar het aantal PCIe lanes wordt dan een dingetje.
Met een SAS HBA/RAID kaart + SAS expanders kan je veel meer drives aansturen dan dat je PCIe lanes tot je beschikking hebt.

[Reactie gewijzigd door SpamLame op 12 juli 2017 11:30]

[qIk zie geen 2x sas op de foto. [/q]Connectors zien er bijna het zelfde uit. Je zult dus niet 2 * een SAS aansluiting zien.
2x sas omdat één controller geen 50tb aankan?
Redudantie. Je kunt nu je harddisks aansluiten op 2 controllers eventueel verdeelt over 2 systemen.
En waarom geen nvme versie?
Waarom wel een nvme versie? Volgens mij loop je dan vrij snel tegen je hardware limitaties aan.
Nu kan je gerust 50 van deze SSD's aansluiten via SAS controllers. En er kunnen er nog veel meer aangesloten worden op een server als het SAS is. Grote storage arrays werken bijvoorbeeld altijd op dit soort technieken.
Daarnaast heeft nvme een limitatie dat je het device niet op 2 controllers kan aansluiten. Dus geen mogelijkheden tot hoogbeschikbaarheid.
Als je bv alle email die langskomt moet archiveren van een groot bedrijf. Dan hoef je niet teveel tegelijk te schrijven.
De maat is niet de beperking maar de doorvoer.
Juist bij archivering is size belangrijker dan snelheid.
Maar vaak zijn beide vaak van belang en neem je de midden weg.

[Reactie gewijzigd door Rolfie op 12 juli 2017 11:45]

Ik denk aan energie beheer. Het kan best zijn dat ze ook kleinere opslaglocaties gebruiken als indexeren waarbij snelheid belangrijk is. Zoiets komt niet in de primaire locatie te staan.
Ah...nog even en ik zit op de bank met een stok te zwaaien naar kinderen roepend "In mijn tijd waren harde schijven van 480 Mb groot en hadden we 3.5 Inch diskettes en waren we er blij mee!"

Dat gezegd hebbende vind ik het op zich geen probleem dat het een 3.5 inch SSD is aangezien dit 'vroeger' toch de standaard was (en is) voor veel HDD schijven. Ik denk dat het iig leuk is om deze SSD het te zien opnemen tegen de andere SSD's met veel opslagvermogen.

edit; Wij hadden ook nog heel vroeger een MSX 1 met tapedrive bij ons staan...maar ik was nog wat te jong om het volledig mee te krijgen. ;)

[Reactie gewijzigd door Auredium op 13 juli 2017 08:04]

<Zwaaithardermeteengroterestok>20MB; 5 1/4 inch!</kuchkuchkuch>
Lol, ja die tijd heb ik ook meegemaakt. Kreeg van mn pa een partitie van een whopping 20MB voor eigen gebruik. 'dat zal toch nooit vol raken' :-D
DEBUG
G C800:005
Jij ook al :D

Wel op stacker he :)
<zwaaimetoudversletenstokje>ponsband</zwaaimetoudversletenstokje>

[Reactie gewijzigd door tweazer op 12 juli 2017 09:37]

<baasbovenbaas>kleitablet met spijkerschrift</baasbovenbaas>
<waar-blijft-die-draaiorgel/>
<zwaait-met-doek-boven-vuur> ;)
480 Mb ,
Jij bent modern.
Ik heb hier een nog steeds werkende Kaypro 10
zelf ben ik begonnen achter een XT met 10 Mb HDD 5,25"dubbele hoogte MFM .

Daarna naar een packardbell 286 20 Mhz met 40 Mb Hdd ..
en toen in mijn ( 386 sla ik even over met enkel speed cd waarbij het gehele aparaat naar buiten kwam om een cd te wisselen ) in mijn 486 DX-2-66Mhz 1.2 Gb van WD.
Gekocht in ik meen 1996 of 1997 ergens ...
toen dacht je , die krijg je nooit vol... Zit je dan met je nas van 7 Tb .. te kijken naar andere opslag omdat het toch wel krap wordt...

Ja waarom zouden we de schijven niet gewoon 3,5" houden.
2,5"is natuurlijk wel ideaal om in je laptop te plempen.
je hoeft er niet bij na te denken en je "oude" ssd uit je pc kan mooi door naar de laptop bij wijze van.
wat te denken van een 2 en een 4 MB HDD.... ligt hier ook nog ergens in een lade.. ;)
Haha, geweldig, wat heb je erop staan, een halve foto?

Mijn oudste back-ups staan op schijven van 6,4 GB of zo, kan tenminste een hele DVD op :D
En iedere keer krijg je die clichézin te horen: "Dat krijg je nooit vol"

Over tien jaar... 50 TB? TB is toch Terabyte? Weet je zeker dat je geen PB bedoeld?
Gaaf spul, man. Daar ben ik ook mee begonnen, een Grundy 8200 CP/M systeem met 4MB in 5 1/4" full-height drive. Een disk controller bestaand uit twee grote printplaten, en booten vanaf een 8" floppy disk. Daar heb ik een hoop van geleerd. Formatting software schrijven in Z-80 machinetaal.

Toen ik mijn eerste 20MB harddisk kocht (SASI, Adaptec ACB4000 controller) moest ik de CP/M BIOS herschrijven, want CP/M kan maar 8MB op een file systeem aan. Dus drie partities. Toen al..

(waar is mijn foto album...)
Dit staaft niet. De tijd gaat voort en alle data dient een doel. Ze gebruiken niet voor niets MLC NAND. Het kan nuttig zijn bij exessieve zoelacties waarbij veel wordt geschreven.
Ha, een full rewrite per dag ga je met 350 MB/s niet eens halen: dat komt op zo'n 30 TB per dag, en dat is dan het maximum :)
Tja als ik dit lees voel ik mij ineens echt bejaard, heb nog 8" diskettes en tape reals gewerkt. Je weet wel wat je soms nog in films ziet lijken net bandrecorder tapes (oh shit zegt de helft ook niets) nou ja Google dan maar!
Ik verbaas hier serieus over wel super gave techniek 50 TB op 3,5"
vijf jaar lang iedere dag volledig herschreven worden.
365*5=1825 write cycles
50TB*365=18.250TB = 18,25 PB

Uit endurancetest blijkt dit makkelijk haalbaar, drives van samsung kwamen wel over de 3000 write cycles voordat ie de geest ging geven.

Overigens, met 350MB/s schrijven kan je de drive niet eens in een dag volschrijven. :)
"i want one " (bedroom voice)

Ik vrees alléén dat het prijskaartje wat hieraan hangt voor mij niet op te hoesten is...
In theorie zou het niet al te extreem mogen zijn. De prijs van SSD's is al geruime tijd gezakt dankzij hun populariteit en het feit dat de technologie al vrij lang uit is. En normaal is de regel, hoe groter het geheugen, hoe lager de kost per bit is.
In theorie zou het niet al te extreem mogen zijn.
Ik gok nog steeds iets van minstens ¤20.000-¤25.000, maar zou veel hoger kunnen zijn.
In een 3.5" HDD behuizing passen 6 Samsung 960 Pro 2TB's in de breedte, 10 in de hoogte en 1 in de lengte, dit is dan met marge genomen. Hierdoor passen er dus 60 960 Pro's in de behuizing van een 3.5" HDD. Houdt het ruimte van 1 of 2 960 Pro's over voor de communicatie interface en je zit al op 58 960 Pro's 2TB in een 3.5" HDD behuizing. Dat is maarliefst 116TB! Als je nu goedkope, lage capaciteit SSD's neemt, zoals de Samsung 850 Evo M.2 á 1TB á EU 334. Dan kom je uit op 58TB aan opslag en EU 19.372! Ik neem aan dat ze goedkopere SSD's nemen aangezien Viking's SSD's maar half zo snel zijn als een Samsung EVO SSD wat dus ook op de kosten bespaart. Waarschijnlijk nemen ze een winst van circa 30% procent per verkochte drive.
Vraagprijs geëxtrapoleerd: EU 25.000
Dan spreken we inderdaad van een gezonde winst.
Dan gaat je schijf meer gebruiken dan een gpu,

Pak micro sd kaartjes passen er nog meer van in
Ik ben benieuwd wat zo'n schijf mag gaan kosten. Is daar iets over bekend?
Quote uit het eerste kopje:
Prijzen zijn niet bekendgemaakt.
Mijn excuses. Niet waargenomen :o

Een korte zoektocht op het web levert ook weinig op. Het lijkt erop dat andere tech websites het persbericht van Viking Technology hebben gebruikt als bron. En daar wordt ook aangegeven dat er geen prijzen bekend zijn gemaakt. ''Conact a salesrep to get more information''

[Reactie gewijzigd door Neyluzz op 12 juli 2017 09:24]

Als je naar de prijs moet vragen... ;)
Zo dan
Heb je gelijk genoeg voor je nas :)
nah, ik wacht wel op 100Tb schijfjes. 50 is toch echt te klein :(
100Tb natuurlijk nodig voor de backups van 50 schijfjes.
96Tb hdds zijn er al , zie price watch onder 12TB,
100TB laat nog ff op zich wachten
Als je puur naar de betrouwbaarheid en levensduur kijkt, zou een drive met SLC-geheugen niet veel beter zijn voor een server ?
SLC is totaal niet rendabel en MLC heeft enorme sprongen gemaakt. Je komt SLC dan ook niet veel meer tegen. Voor algemeen gebruik (inclusief high performance 10DWPD schijven) voldoet MLC NAND (met overprovisioning / bufferruimte) uitstekend.

[Reactie gewijzigd door Bigs op 12 juli 2017 11:31]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*