Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

50TB-ssd van Viking Technology kost ongeveer 20.000 dollar

Door , 171 reacties

Viking Technology, het bedrijf dat is begonnen met de levering van 3,5"-ssd's met een capaciteit van 25 en 50TB, zegt zijn ssd's aan te bieden voor een prijs van zo'n 0,4 dollar per GB. De prijs voor het 50TB-model zou daarmee uitkomen op ongeveer 20.000 dollar.

AnandTech schrijft over de prijzen in een artikel met meer details over de ssd's. Viking Technology kondigde vorige week al de start van de verkoop aan, maar prijzen werden daarbij niet bekendgemaakt. De exacte prijs geeft het bedrijf nu ook niet, die hangt af van opties als protectie tegen stroomuitval, maar volgens de fabrikant is de prijs per gigabyte ongeveer 0,4 dollar.

De UHC-Silo-ssd's zijn daarmee goedkoper dan andere grote ssd's voor datacenters. Samsung heeft bijvoorbeeld een 15,36TB-model en dat staat bij een Amerikaanse aanbieder te koop voor 11.299 dollar. Daarmee komt de prijs per gigabyte op 0,73 dollar. Wel zijn de UHC-Silo-ssd's duurder dan 2,5"-ssd's voor consumenten. De laagste prijs per gigabyte is in de Pricewatch momenteel 0,26 euro, omgerekend ongeveer 0,3 dollar. In de ssd's van Viking Technology zit echter mlc-geheugen, in plaats van het goedkopere tlc-nand, dat in de voordeligste ssd's voor consumenten zit.

Viking Technology gebruikt mlc-nandgeheugen van SK Hynix, maar gebruikt een eigen package die ssd's met zeer hoge capaciteiten mogelijk maakt. De geheugenfabrikant levert zelf mlc-packages van 256GB, die ieder bestaan uit zestien lagen van 128Gbit-nand. Er zouden tweehonderd van die packages nodig zijn om een 50TB-ssd te maken en dat zouden er te veel zijn om in een 2,5"-ssd weg te werken. Viking Technology geeft echter geen informatie over de aangepaste packages of over de exacte opbouw van de ssd's.

Moderatie-faq Wijzig weergave

Reacties (171)

Reactiefilter:-11710165+1117+25+30Ongemodereerd25
Je zou verwachten dat hoe meer GB je in een SSD stopt je minder per GB betaald, dat gezegdhebbende vind ik 0,4 $/GB prijzig voor deze SSD.
Je moet dit niet vergelijken met consumenten versies. MLC is betrouwbaarder en ook veel duurder.
Een paar jaartjes terug betaalden we bij Dell nog 1000 euro voor een 100GB MLC ssd...

Dit is echt niet duur. Maar met zulke grote schijven heb je er wel een paar nodig voor redundancy. Maar 150TB aan opslag voor 60k, doe dat keer twee voor redundantie is grofweg 100TB Netto opslag voor 120.000. Ons huidige opslag systeem is veel duurder, voor minder opslag kan ik je vertellen. Performance laat ik even in het midden, dat is een stuk lastiger te vergelijken.
MLC is ook gewoon te vinden in consumenten-SSDs. De goedkoopste MLC SSD uit de pricewatch heeft een prijs/GB van 0,271 euro (https://tweakers.net/pric...omma-024tb/specificaties/). Om nu te zeggen dat deze opslag zoveel duurder is vanwege het gebruik van MLC vind ik dus niet terecht. SLC zou een heel ander verhaal zijn, dat heeft ook de langere levensduur en hogere betrouwbaarheid die je terecht aankaartte. Ik deel dus wel enigszins de verbazing van Jorissie87.
Verdere info hier

De prijs zal natuurlijk niet alleen maar om het MLC geheugen gaan , controller ( SAS ) die de boel aan moet sturen zal hier ook in de prijs verwerkt zijn.
Voor dit soort schalen moet je al ongeveer naar erasure coding toe gaan voor je redundancy, RAID rebuilds gaan hem dan echt niet worden.
Vind dat reuze meevallen. Zoals in het artikel staat, andere grote datacenter niveau SSDs kosten $0,7/GB en consumenten SSDs met lagere kwaliteit geheugen zijn bij de goedkoopste $0,3/GB.
Dan vind ik $0,4/GB heel erg netjes.
Maar de hoeveel fysieke ruimte die ingenomen word is al lang een belangrijk in een datacentrum. De datadichtheid per cm3 is erg hoog voor deze drive.
En minder kabels/enclosures/devices te beheren te X hoeveelheid dataopslag

Kan een TS809 een raid maken van 400Tb ? Mwaah, ik denk dat ik het antwoord al weet ... Als iemand wat geld teveel heeft wil ik het best wel als testje proberen :)
Naast de genoemde te verwachten betrouwbaarheid vanwege datacenter toepassingen, is het ook zo dat de hoeveel productie/afname van de chips bepalend is voor de prijs. Hoge ontwikkelkosten en een beperkte afname maken de prijs per GB hoger. De chips die nu in consumentendrives zitten, worden als massaproductie gemaakt en dat drukt de prijs aanzienlijk.
Dit zullen standaard chips zijn, alleen de controller is misschien anders.
[Nostalgie] Ik heb ooit eens in 1979 100.000ƒ betaald voor 300MB disk. (en daarvoor was het nog duurder). Dat is 40K¤ voor 300MB. -> 130K¤ voor 1GB.
Wat is prijzig? 0,4 $/GB of 130.000¤/GB
Hou eens op met jammeren over prijzen.
[/Nostagie]
had je beter cassetebandjes kunnen gebruiken die waren een stuk goedkoper en werkte perfect een paar jaar later op de commodore 64...
Cassette was ongeveer 1500 baud grofweg 150B/s = 9 KB/min 0,5MB /uur zonder foutcorrectie.
Dus 300MB disk backup = 600 uur (een week of 3).

Dus werkbaar? ..

Maar per MB is/was opslag op cassette wel goedkoper. Maar niet bruikbaar als online geheugen, dus nogmaals: DUS?
Dit is een nieuwe techniek op zo een kleine schaal en is daarom ook duurder, maar bij ssd heb je een standaard prijs en die verandert niet omdat je verschillende lagen hebt en die blijven even duur.
Nee, dichtheid en research heeft ook een prijs.
Daarnaast vraag/aanbod.

Maar consumenten SSD's gaan ook wel verder met dalen in prijs, mede door deze ontwikkelingen.
Ben benieuwd of dit nu daadwerkelijk goed verkopende SSDs worden voor in datacentra. Als een zo'n schijf faalt ben je toch een hoop kwijt / moet je toch een hoop herstellen.

[Reactie gewijzigd door Nycrea op 17 juli 2017 10:48]

Als er een faalt ben je veel kwijt Idd, maar ze leven langer dan HDD. Maar als je dezelfde hoeveelheid opslag in HDD schijven wilt doen moet je ze in RAID zetten en als er dan 1tje van die RAID faalt ben je gelijk bijna alles kwijt van die hele RAID

Dus dit is toch minder risicovol.
Een Raid6 configuratie heeft een redundantie van 2 schijven, dus pas bij een derde defect is er paniek. Dus één schijf die faalt (ook in Raid1 en Raid5) is geen directe ellende, maar wel het sein om per direct een vervangende schijf te plaatsen. In Raid0 (twee schijven acteren als één) is het WEL dramatisch als er één kapot gaat, dan ben je per direct de Sjaak.
Als er twee disken kapot zijn in een raid6 set, dan is er juist sprake van paniek.
Als er drie defect zijn, dan is er berusting....
En kan je je spullen pakken en naar huis,...of als je een backup hebt,...je backup terugzetten :o
Is bij RAID 5 en 6 het niet juist sneller om, zolang er een recente back-up beschikbaar is, de hele array te vernietigen en opnieuw aanmaken om dan de data van de back-up terug te zetten?

Voor zover ik begrepen/ervaring met RAID heb gebruik je RAID 0, 1 of 10 in een actieve omgeving, en 5 (met voorkeur 6) voor back-ups of long term storage.
Een raid configuratie is geen backup, (das les 1 van systeembeheerder).
Bij Raid 5 mag 1 disk stuk, deze even wisselen (rebuild op servers gaat automatisch, op je nas moet je m even aanklikken dat ie de repair moet starten).

Raid 6 mag je twee disken stuk hebben en dan is je data online en heb je geen verlies.

Gebruik je raid0 in je omgeving dien per direct ontslag te krijgen, of je moet een hele goede backup te hebben. Server omgeving laat je nooit raid 0 draaien, als er 1 disk defect gaat in je hele set (volume, lun, partitie naar de haaien en ben je alles kwijt.

Vroeger was t nog een heel ding met indelen van raid configuraties, raid 1 voor databases, raid 5 voor grote volumes, raid 5 is langzamer dan raid 1 (in het schrijven). Maar tegenwoordig is alles zo snel met cache of 12g 10k rpm sas disken of zelfs SSD's in raid dat ik eigenlijk alleen maar raid 5 gebruik. T voordeel vind ik, je kan klein beginnen met minimaal 3 disken, en je raid 5 set expanden on the fly. (duurt wel een halve tot hele dag). Dus bijna vol, disk erbij enz.

En ik heb Raid 5 configuraties van bijna 30tbyte, dat duurt een week kopieren over 1gbit, dus even een backup terug zetten is niet even... :+
Gebruik je raid0 in je omgeving dien per direct ontslag te krijgen, of je moet een hele goede backup te hebben. Server omgeving laat je nooit raid 0 draaien, als er 1 disk defect gaat in je hele set (volume, lun, partitie naar de haaien en ben je alles kwijt.
Welnee. Niks mis met een RAID-0 cache voor je tijdelijke bestanden. Lang niet alle files zijn van permanente waarde, en juist de kortlevende files wil je op snel geheugen hebben (=SSD). Ja, natuurlijk, idealiter heb je dat soort data in RAM, maar 50 TB RAM is niet betaalbaar.
Die keuze mag iedereen zelf maken :) ik vind dat de snelheidswinst niet in perspectief staat tot verlies van data of je volume. 1 disk failure is niet alleen je hele raid volume weg, het is ook simpelweg niet meer beschikbaar en kan je applicatie die naar dat volume schrijft niet meer schrijven/lezen en ligt je applicatie er dus uit...

vroeger was je snelheidswinst factor 2 op sata of scsi, tegenwoordig is dat nihiel omdat je bus snelheid of de array controller de beperking is niet je disk. (en al helemaal niet meer met ssd)
Is bij RAID 5 en 6 het niet juist sneller om, zolang er een recente back-up beschikbaar is, de hele array te vernietigen en opnieuw aanmaken om dan de data van de back-up terug te zetten?
Je kunt het zo uitgebreid maken als je zelf wilt. Los van de kosten. Voer het geheel (drie)dubbel uit en vervang bij problemen de ingestorte array dioor een nieuwe.
Dat kan ook voor de backups en uiteraard ook gecombineerd met raid 5 of 6 of 50 of 60 met hot spares.
Het is maar wat je ervoor wilt uitgeven. Duidelijk is dat de backup en redundancy beduidend meer schijven kost dan de werkelijke opslag in je productie/werkmachine.
Dat is dan niet best. Met twee defecte schijven is er reden tot flinke ongerustheid, paniek zorgt er alleen maar voor dat je je nog werkende set handmatig dan zelf ter ziele helpt op het moment dat je de twee nieuwe disks op wil nemen in je array. En dan - als dat goed gaat - volgt er nog een paar uur van geknepen billen...
Als er twee disken uitgevallen zijn, draai je dus praktisch gezien zonder raid op dat moment. Er hoeft nog maar 1 disk kapot te gaan en je omgeving ligt plat (tuurlijk is er een backup, maar als je raid6 draait is dat een omgeving die je eigenlijk wel in de lucht wilt houden).

En als er net 2 disken uitgevallen zijn, vrees ik voor de rest (want die zijn meestal van dezelfde serie (produktiefout?) en draaien in dezelfde server/rack/omgeving).

En ach, of je dat een panieksituatie wilt noemen, ach, dat is dan een bijkomstigheid. Maar ik denk niet dat ik dan rustig naar huis kan gaan.... ;)

Bedenk dat nieuwe schijven inprikken de boel niet direct oplost. Pas als de rebuild klaar is, draai je weer gerust verder. (Overigens draaien wij raid6 + hotspare, dus de eerste rebuild begint direct zodra er een schijf defect raakt).
Het is me al enige tijd bekend wat Raid5 / Raid6 is en hoe het werkt. Mijn Raid6 schijven komen zeker niet uit dezelfde batch EN ik monitor de SMART waarden op regelmatige basis. Dat is geen garantie uiteraard, maar net wel wat zekerder. Daarnaast vervang ik sowieso elke 3 jaar alle schijven uit voorzorg. Ik heb letterlijk nog nooit twee schijven tegelijk kapot gehad. Wel een keer door een dommigheid van mezelf - in een thuissituatie - een bestaande schijf om zeep geholpen toe ik de FS indeling van een werkende schijf wilde kopiëren naar de nieuwe, dat ging exact de andere kant op. Kwestie van niet goed lezen zeg maar. En dan draai je inderdaad even zonder zekerheid (behalve de wetenschap van de tweevoudige backup), maar dat duurde een paar uur. En nee, dat laat je natuurlijk niet liggen tot de volgende dag, dat los je zo vlot mogelijk op ja.
Dat is idd mooi aan raid 5 en 6, dat 1 respectievelijk 2 willekeurige schijven stuk kunnen gaan zonder dataverlies. Echter, dit heeft wel een enorme rebuild time tot gevolg, sinds de volledige schijf capaciteit (ook ongebruikte ruimte) van alle schijven bitwise met elkaar ge-XOR'd moeten worden om de missende schijf te reconstrueren. Dat heeft weer een intens schijfgebruik tot gevolg met het risico dat tijdens de rebuild daardoor een tweede schijf faalt...

Gebruikte zelf op een data servertje eerst ook een RAID5 van 5 2TB schijven, maar sinds ik een rebuild moest doen waarbij na een half uur 1 procent bereikt was...

Gebruik sindsdien RAID 10, of 1+0, of hoe je het ook wilt noemen. Een RAID0 van sets van 2 schijven in RAID1, daarmee kan je bij een kapotte schijf dus zijn kopie rechtstreeks naar een vervanger kopiëren zonder bitwise berekeningen en je hebt daarmee een fout tolerantie van minimaal 1 schijf en maximaal half de schijven van de array.

Een SSD is daar dan ook heel mooi mee, de hoge single schijf leessnelheid maakt rebuilden een kwestie van ongeveer een half uurtje bij capaciteiten tot 2TB per schijf. Bij 50TB zit je dan nog steeds aan meer dan een dag te denken, maar met een RAID5 of 6 zit je ruim op 2 weken non-stop als het je al lukt om de parity calculaties a 40MB/s te doen.

[Reactie gewijzigd door wild_dog op 17 juli 2017 12:07]

maar met een RAID5 of 6 zit je ruim op 2 weken non-stop als het je al lukt om de parity calculaties a 40MB/s te doen.
Met zwetende handjes, omdat er mogelijk 1 van de andere schijven in het array gedurende die tijd het loodje legt.
Dan heb je toch alsnog je backup, zo niet dan ben je een oelewapper..
Als de HDDs goedkoper zijn per GB houd je nog geld over voor redundancy om dat risico weer te dekken. Deze SSDs zullen ook ongetwijfeld in een vorm van RAID gebruikt worden, lijkt me.
Vergeet niet dat al zijn HDDs goedkoper, je hebt geen HDDs van 50 TB. Wat inhoudt dat je:
1) Meer HDDs nodig hebt voor hetzelfde aantal TB
2) Dus méér stroomverbruik hebt
3) Dus méér fysieke ruimte nodig hebt (lees: meer servers / SAN appliances / hardware)

Wat er uiteindelijk op neerkomt dat het duurder zou kunnen zijn, ondanks dat de ¤/GB voordeliger is bij de HDDs.
Energie kost geld, ruimte vaak ook, maar dit wint een SSD echt niet.

Je moet bedenken dat het energieverbruik van een schijf t.o.v. de aanschafprijs veel beter uitkomt dan bij een processor. Op een RAID-controller kunnen iets van 250 schijven, dus als je je server slim bouwt, is de prijs van de server niet significant hoger t.o.v. de schijven.
Ik neem aan dat je een raid controller op een svc storage laag bedoelt die disken over fcal multiplexed switchfabric aanstuurt ? 250 is wel een erg hoge aansluitfactor voor DAS. Een sas raid kaart met 16 kanalen en poort multipliers geeft 80 disken. Poort multipliers wil je eigenlijk niet (gedeelde bandbreedte) en een raid kaart controller met zoveel aansluitingen ken ik nog niet ?
Nee, geen fibre-channel nodig, maar behuizingen met SAS-expanders. Bijvoorbeeld een bak als deze:

https://www.supermicro.nl...4U/847/SC847E1C-R1K28JBOD

... aansluiten op een LSI 9380-8E RAID-kaart. Je kunt de behuizngen doorlussen dus zo een groot aantal schijven per kaart halen. Zo'n behuizing is relatief goedkoop is t.o.v. de schijven erin, dus als het om prijs per terabyte gaat een erg goed idee.

Inderdaad is de bandbreedte gedeeld, maar voor koude storage zal dat je een worst wezen, bovendien is een LSI 9380-8E zeker niet traag, die doet minstens 5GB/s, aanzienlijk meer dan de SSD waarover we het hier hebben. En het kan wel, maar het hoeft niet, zoveel schijven.

Als je een offerte wilt, neem maar contact op.
Als de HDDs goedkoper zijn per GB houd je nog geld over voor redundancy om dat risico weer te dekken.
Hangt allemaal van het totaalplaatje af. Wil je deze hoeveelheid data evenaren, met regulaire schijven, dan kom je al snel aan de beperking van je disk arrays, moet je meer storage controllers gaan gebruiken, heb je meer warmte ontwikkeling et cetera. Afhankelijk van de use case kan dit dus goedkoper zijn. Niet voor veel bedrijven natuurlijk, maar als je toch al een paar ton gaat uitgeven voor storage, dan kan dit een interessant alternatief zijn.
RAID is not backup. ;-)

Er zal gewerkt worden met RAID voor zowel redundancy als snelheid, maar er zal ook zeker een backup zijn met zoveel data.
RAID = redundant array of inexpensive/independent disks

Bij deze 50Tb lijkt mij de term inexpensive niet van toepassing 8-)
deze zullen idd in raid gebruikt worden, per SSD is de IOPS is enorm laag net zoals de snelheid.
ligt eraan welke raid je gebruikt, bij 0 gaat het dan wel fout
Daarvan weten we dan ook dat het geen raid zou moeten heten, qua redundancy.
Correct, als een drive faalt ben je de data kwijt, en dat geldt voor iedere drive.

Maar ik geloof niet dat de hersteltijd na uitval de enige factor is voor een datacentrum.
Anders zouden ze toch 1600 stuks 32 GB SSD's gebruiken ipv een enkele 50 TB :9~

EDIT: GB ipv MB anders zouden het wel erg veel devices worden :P

[Reactie gewijzigd door rsbroer op 17 juli 2017 19:01]

1600 * 32MB!= 50tb?
terabits ? Ook niet.
Vroegah gebruikte je raid ook wel om de disk i/o's te kunnen vergroten: meer physieke schijven maakt dat meerdere leeskoppen de gewenste data kunnen opzoeken. Bij de klm werden wel eens raid arrays gemaakt waarbij per disk maar max 10% werd geconfigureerd, juist om de kop 'dicht bij de data' te hebben.
Met SSD is dit gebruik volledig komen te vervallen, op de koppen is bezuinigd :)
Dat geld voor een HDD toch ook ? Over het algemeen zal een SSD minder last hebben van gebruik tijdens (lees: onderbreking van) een rebuild dan een HDD.
Daarnaast heeft een SSD als 'voordeel' dat eventuele fouten vaak bij het schrijven al naar voren komen, waar dat bij een HDD vaak pas bij het lezen is.
Daarnaast is er geen risico op mechanisch falen door opspinnen of het parkeren van de koppen. Mijn ervaring is dat schijven altijd sneuvelen bij het opspinnen of het uit parkeerstand halen van de koppen nadat ze enige tijd uit gestaan hebben. Iets dat bij cold storage natuurlijk aan de orde is.
Iets zegt me dat schijven in servers nauwelijks opspinnen (draaien gewoon 24/7).
Dat is ook vaak juist het probleem. Tijden probleemloos gedraaid en de eerste keer dat ze een keer offline gaan willen er naderhand gelijk en heel stel niet meer opspinnen. Zwaai je array maar fijn gedag dan.
Harde schijven zijn nu ook niet zó onbetrouwbaar. Ik heb mijn laptop harde schijf duizende keren opgespind en hij doet het nog steeds, dus ik denk niet dat na opspinnen meteen een heleboel harde schijven falen. Misschien 1 per 10.000.
Voor reguliere storage wel, maar is dat ook zo bij cold storage? De access time maakt niet zoveel uit, het betreft een archief dat zelden geraadpleegd wodt.
Cold storage bij het bedrijfsleven wordt vaak gedaan met WORM tapes; data backup voor legale doeleinden. Moet je alleen zoveel jaar na dato nog steeds die ene tape drive werkend hebben staan, de data is er meestal wel, de uitlezer ligt meestal versleten of verstoft in een hoekje.
Cold storage op optische media, niet doen, ook niet optische media beschrijven met balpen (jaja, praktijkvoorbeeld, die direkteuren kunnen er wat van !).
Tape blijft een kritisch medium. Vaak genoeg gezien dat (worm)tapes het prima deden totdat de drive werd vervangen. Ondanks de voorgeschreven reiniging (nou ja, eigenlijk is het de calibratie/head alignment van de kop, de kop is zelfreinigend). Dan kun je met je tape en drive naar een gespecialiseerd bedrijf dat alles zodanig inregelt dat de tape nog eenmaal gelezen kan worden. Dure hobby en dus niet even betrouwbaar.

Inderdaad is optische media niet de beste manier. Naast beschrijven is ook inwerking van (uv)licht, warmtewisselingen en veelal oxidatie van de optische laag funest.
Een SSD heeft 1 groot nadeel: bij een goede plotselinge stroomstoring/stroompieken kun je al je data kwijtraken. Een redelijke SSD en raid controller en disk cabinet heeft hier voorzieningen voor, maar het (minimale) risico blijft aanwezig. Bij een raid issue veroorzaakt door een spanningsprobleem dient vooral eerst daar de aandacht naar uit te gaan.

Bij een HDD kan door spanningsissues de controller print beschadigd raken, een stukje data, meer niet.

[Reactie gewijzigd door tweazer op 17 juli 2017 22:20]

Lijkt mij niet zo'n issue in een datacenter/enterprise omgeving. Hoe dan ook heb je voor dat soort dingen een backup.

Daarnaast bij een HDD heb je vaak ook een flink stuk read/write cache, een klein stukje corrupte/niet weggeschreven data kan alles al onbetrouwbaar maken.
Ja en nee, er zijn voorzieningen in een datacenter om powerloss tegen te gaan, maar ook daar wordt regelmatig aan stroomvoorzieningen gewerkt. Ik heb ooit bij qwest in denver een vlamboog aan de muur mogen zien, veroorzaakt bij 48 volt, 1.5 meter bij 30cm zwarte dikke streep aan de muur. Als daar een ssd'tje in de buurt had gezoemd weet ik niet wat de elektrische en magnetische invloeden zouden zijn geweest...
Niet anders dan bij een HDD. En nogmaals, 'disasters' kan je niet voorkomen, daar heb je backups voor.
Volgens mij gaat eigenlijk de prijs per GB omlaag als je meer GBs in een enkele chip stopt.
In deze SSDs zit een enorme lading chips, en waarschijnlijk ook nog cutting edge m.b.t. capaciteit per chip. Voor dat aantal chips heb je dan ook nog een complexere controller, en misschien wat thermische uitdagingen door het aantal chips op een kleine ruimte. Resultaat: iets minder vriendelijke prijs.
Daarom heb je in een datacenter ook redundancy. Die data staat niet alleen op 1 schijf, maar over meerdere gekopieerd/back-up'd.
(Niet alleen in datacentra overigens, ook (thuis-)servers ed.)
Als we op die manier dachten dan hadden we nu nog 20MB schijven...
Dit soort SSD's zijn vaak eerder stunts dan dat ze daadwerkelijk verkocht worden in servers. Voor 20000 dollar kun je een hoop harde schijven kopen en niemand hoeft 50TB tegelijk op hoge snelheid te benaderen, je moet echt een hele specifieke toepassing hebben wil je zoveel geld gaan betalen per TB. Voor deze orde van grootte worden harde schijven ingezet en als die niet snel genoeg zijn, SSD's voor alleen die data die sneller toegankelijk moet zijn.

Inderdaad heb je voor dataveiligheid nog een tweede SSD nodig en een RAID-controller. Ook hier is een groter aantal kleinere schijven (of SSD's) dan aantrekkelijker i.v.m. RAID6.

[Reactie gewijzigd door dmantione op 17 juli 2017 11:14]

Echt falen doen ze bijna nooit, het is meestal het schrijven wat niet meer werkt, of 99% werkt nog wel.
Het is dus ook mogelijk om parity in te bouwen op software-niveau.
Moet zeggen dat ik dat nog mee vind vallen, alleen zijn deze SSD's snel?
Valt wel mee hoe snel deze SSD's zijn, je kan ze aansluiten via SATA, dus sneller dan ongeveer 550 MB/s lezen en schrijven zal het niet worden, waar een NVME SSD snel boven de 2000MB/s zitten
Het is een SAS-SSD, vanwege beiden poorten dan de dubbele snelheid.
Volgens het artikel waarin ze werden aangekondigd:
De ssd's zijn voorzien van een 6Gb/s-sas-aansluiting en hebben een maximale sequentiële leessnelheid van 500MB/s. Voor schrijven is dat 350MB/s.
En dat is precies waarom ik niet begrijp waarom je zo'n ding zou willen toepassen.
SSD gebruik je voorlopig nog vooral als je snelheid nodig hebt. Dit ding levert heel veel capaciteit op een snelheid van een enkele, relatief trage, SSD. Ik zie de use case niet.
Snelheid is relatief. Hoeveel snelheid heb je nodig, en hoeveel snelheid levert deze SSD? Laten we het er over eens zijn dat deze SSD gebruikt gaat worden voor massaopslag, niet om snel vanaf te booten (voor zo ver dat gebeurd met een systeem waar deze SSD in geplaatst gaat worden). Voor een back-upsysteem waar misschien honderden computers aan hangen, heb je echt niet meer nodig dan dit. Er wordt niet door alle systemen 24/7 geschreven, maar het zijn misschien 50 documenten per uur
Ja, dit gaat om massaopslag, maar wel pakweg 10x zo duur als draaiend roest, en waarschijnlijk trager. Daar staan weliswaar voordelen als in volume en energieverbruik tegenover, maar daar moet je wel zware constraints op hebben wil je zulke prijzen kunnen verantwoorden. Denk aan een satelliet als voorbeeld. In meer gangbare scenario's zie ik de voordelen niet tegen de prijs opwegen.
In verhouding heb je met een SSD het voordeel dat je zoektijden veel lager zijn (er draait natuurlijk niets) en daarmee het gevoel van snelheid veel hoger is. Qua absolute leessnelheid zullen 10 harddisks niet trager zijn dan een van deze SSD's
Ietsjes sneller zou toch wel leuk zijn. Als deze schijf helemaal vol staat die diverse gebruikers moet voorzien van de aanwezige data lijkt me dat erg beperkt. 50 TB @ ca .500MB/s betekent dat 0.001% van de data gelijktijdig uitgelezen kan worden. Dat moeten dan gegevens zijn waar niemand op zit te wachten (of lang moet wachten beter gezegd :P )
Alles kan veel leuker, maar daar is deze SSD niet voor gemaakt. Dit is niet de sportwagen, maar vergelijkbaar met deze vrachtwagen. Niet snel, maar doet het werkt.
Leuke metafoor maar zo'n vrachtwagen is ook niet geschikt om her en der een paar kuub zand te bezorgen voor het ophogen van je tuintje. Een mega-supermarkt waar maximaal 2 klanten tegelijk naar binnen mogen zal weinig winst maken.
Met een bandbreedte van 500 MB/s lezen en 300 schrijven kom je eerder op 50 klanten per seconde.
Zeg: je hebt een Areca-array met 24x4TB, en je kunt die vervangen door 3 van deze in R5. Ik zou wel willen, al zul je waarschijnlijk snelheid inleveren. Want er is weinig wat zo'n array verslaat in snelheid, bij het alledaags gebruik.
als jij 3 van zulke dingen in raid 5 wenst te parkeren zou ik je niet graag in dienst hebben voor IT beheer werkzaamheden.

Raid 10 is het devies bij 6TB+/aansluiting :+
Ik ben dan ook niet in dienst, en kan als tweaker prive alle risico's nemen die ik lollig vind. Zakelijk zou de keuze natuurlijk een totaal andere zijn.
dan nog, enorm sterk af te raden ook maar te denken aan iets als raid 5 of 6 als je 3 a 4 (of meer) van dit soort disks samen voegt. De rebuild tijden zullen met huidige snelheden wekenlang gaan duren :+
Je bent nogal stellig. In de vele jaren dat ik met grote arrays werk moet ik er hooguit 1x per twee jaar 'ns eentje rebuilden. Het risico dat een rebuild fout gaat is nagenoeg 0. En wat dan nog, er vanuit gaande dat een array geen backup is. Intussen profiteer ik al die jaren van de hoge snelheid en de lage downtijd die een goed array eigen is. Ook dat wekenlang rebuilden is nogal overdreven. 48 uur voor 100TB, zoiets zal het zijn.
zeg 400MB/sec. wat al erg positief genomen is, dan ben je alsnog een krappe 70 uur bezig, dus 3 dagen non-stop. Tel daarbij actief gebruik van de betreffende array op en je snelheid zakt zeer hard, dus dan is die week ineens zo gek niet meer :+
Dus in de meest gunstige omstandigheden zou je meer dan 41 uur nodig hebben om hem vol te schrijven. Aangezien je dat nooit zal halen kan je er dus van uit gaan dat het je een week kost om deze ssd vol te schrijven als je onafgebroken door blijft schrijven.
Aangezien je dat nooit zal halen kan je er dus van uit gaan dat het je een week kost om deze ssd vol te schrijven als je onafgebroken door blijft schrijven.
Voor de particulier vind ik dat geen steekhoudend argument. Ja, nou en, dan schrijf je een week. Ik heb meer tijd dan geld. Allerhande acties die tijd kosten laat ik gewoon lopen.
Ooit is het klaar, of dat nou morgen is of vrijdag. Tijdsduur is vaak niet interessant.
DualPort SAS heeft niks met performance te maken, enkel met redundancy.
Dat is niet juist: Je kunt via beide poorten tegelijk op 6 gigabps met de schijf communiceren. Het oorspronkelijk doel is wellicht redundantie, maar het is wel degelijk sneller als je beide poorten gebruikt.
Ja, als de interface de bottleneck is. Dat is-ie hier niet.
Ik denk dat heir de lage accestijden een voordeel zijn tov een hdd van bv 50 TB?

en de zuinigheid ook.
Lage accesstijden, zuiniger, maar ook een veel hogere dichtheid dan reguliere HDDs, minder warmte ontwikkeling (dus minder koeling nodig, wat op het moment toch de hoogste kosten voor een DC zijn). Gezien de prijs gaat het absoluut om een niceproduct (niet heel veel bedrijven die 20k voor een enkele schijf kunnen betalen), maar dit formaat is zeker iets wat we in de toekomst veel meer gaan zien.
Ach uit mijn ervaring merk ja daar helemaal niets van.
Het verschil in 250 mb vs 500 mb is al lastig te merken.
Het voordeel van een ssd zit hem vooral in acces tijd van bestand naar bestand voor standaard gebruik.
Het lijkt windows of de game/software zelf die niet in staat is sneller geladen te worden die het nut van deze nieuwe ssd's tegenwerkt.
Maar dit is geen PC dingetje, het is een apparaat voor (zakelijke) bulk opslag. Daar maakt het wel uit: een backup die twee uur duurt ipv een uur kan een probleem zijn of worden.
Over het verschil tussen 250 en 500MB/s wil ik best discussiëren, maar het grote voordeel zit inderdaad in access-time en gerelateerd natuurlijk zoektijden. Ik heb het idee dat ondanks er ondanks de nvme-ssd niet veel tijdwinst zit qua boottijden. Ik heb laatst een laptop mogen testen met zo'n ssd, maar sneller dan 7 seconden redde ik niet. Met een reguliere ssd red je dat bijna.
Ik bedoelde te zeggen dat mijn HDD's een lees snelheid van 135 MBps aangeven en dat ook daadwerkelijk halen. Van al mijn SSD's die allen boven de 500/500 zitten haalt geen 1 er meer als 154 MBps zelfs niet van ssd naar ssd in raid.
Dus voor grote bestanden heb je er helemaal niets aan.

En ja ik draai nog gewoon een windows 7 die al sinds 2011 niet geupdate is en mijn windows laad tijden zijn 8 seconden (veel uit windows reript) maar de totale boot tijden zijn nog 34 seconden omdat de bios nog oud en traag is en er veel rand hardware geladen moet worden voor en na de bios.
Ik vraag me vooral af in hoeverre deze SSD's zich qua levensduur gaan verhouden tot traditionele HD's. De snelheid van de schijf lijkt me voor professioneel gebruik (datacenters) toch wat minder belangrijk dan de duurzaamheid?
Reliability: 1 DWPD of 5 jaar. Wat er eerst komt denk ik.

Ik denk wel dat SSD's over het algmeen betrouwbaarder zijn. Het gebrek aan mechanica zal de willkeurige uitval verminderen.
Dat is natuurlijk allemaal statistiek, als je er èèn koopt kan deze nog steeds kapot. Maar als je duizend ssd's en hdd's koopt zullen er meer ssd's werken na een bepaalde periode van gebruik.
1 DWPD of 5 jaar. Wat er eerst komt denk ik.
Nee, het hele ding 1x per dag van begin tot eind volschrijven, en dat 5 jaar lang :)

Als je aan 350 MB/sec iedere keer hetzelfde blokje beschrijft en de rest van de schijf staat ook vol (waardoor de effectiviteit van de wear levelling algoritmes flink wordt verminderd) dan houdt het op gegeven moment op, maar over het algemeen kun je dus helemaal los op die schijf en doet hij het (gemiddeld) na 5 jaar nog, want aan 350 MB/sec ben je ~20 uur aan het schrijven om die ene DW (disk write) te halen.
Hangt er van af wat je er mee doet. Een populaire usecase is een SAN vol SSDs en daar je volledige virtualizatie omgeving op draaien. Dan is snelheid toch echt wel de nummer 1 prioriteit. Mogelijk dat deze schijven wat trager zijn dan de snelsten die op het moment op de markt zijn, maar zelfs dan heb je een bijzonder mooi product voor warm (ipv hot) storage.

[Reactie gewijzigd door the_shadow op 17 juli 2017 10:54]

de grootste reguliere schijven zijn 12TB momenteel. dus bijna een kwart van de ruimte en hetzelfde verbruik van 1 schijf. voor datacenters die niet kunnen uitbreiden qua volume en betere IOPS willen halen is dit natuurlijk een heerlijke schijf.

de prijs valt hard mee als je vannuit enterprise ogen ernaar kijkt.
Even om te benadrukken hoe groot dit is: Als je de SATA interface zo goed als volledig benut, dan ben je met het vullen of uitlezen van deze schijf zo'n 25 uur bezig. Aan 550MB/s dus ;)

Ben je dus even met je backup/restore bezig ;)

[Reactie gewijzigd door kiang op 17 juli 2017 11:18]

Over 10 jaar zullen ze wel betaalbaar zijn voor iedereen. Dat is altijd met deze opslagtechnologie.
Gaat dit nu daadwerkelijk real life performance toevoegen binnen een datacenter?
Hoeveel merkt een gebruiker nu van deze snelheidstoename (t.o.v. traditionele oplossingen)?
En belangrijker nog hoeveel gaat dit de kosten van een dergelijk datacenter en gebruik hiervan omhoog stuwen, kortom is dit (op korte termijn) rendabel?

Off-topic: De naam Viking Technology deed mij direct denken aan Techno Viking :P
Wat gaat de rebuild tijd van zo'n SSD worden als je die in een 5+1 RAID5 opstelling gaat gebruiken?
En wat gaat de impact op de raid of storage controller worden daarbij?

Dit is 1 van de problemen van SAS disken van > 4 TB capaciteit. De rebuildtijden en de impact op de controller zijn niet erg leuk.
Voor welke doeleinden/publiek worden dit soort schijven eigenlijk gebruikt?
Deze zullen voor datacenters gebruikt worden. Hierbij vaak als cold storage, waardoor de snelheid minder van belang is.

Waar is echter nieuwsgierig naar ben, is de temperatuur van deze disks. Loopt deze door de compactheid niet erg op?
jonge er is bij de aankondiging een hele discussie ontstaan over deze ssd voor cold storrage,
laten we dat hier nou niet doen!, het is vrij duidelijk dat deze ssd daar niet voor bedoeld is,
en laten we hopen dat er ook nooit iemand zal zijn die van onze belasting centen deze ssd als cold storrage wilt gaan gebuiken.

50TB 3.5 inch 20.000,-
50TB hdd 3x 10TB 1200,-

nou ga jij me uitleggen hoe jij 18.000,- wilt besparen op 10 tot 15 watt meer verbruik per 50TB
2x 3.5 inch per 50TB extra.
2 SAS poorten meer per 50TB

kortom zie dit meer als vervanger van een 15K sas schijf bedoelt als snelle toenadering tot storrage
Dat las ik, Haan, maar daarom wist ik nog niet waarvoor deze juist gebruikt worden.

Bedankt, DYX!
zoals eerder gezegd voor in het datacenter. Leveranciers zoals EMC gaan nu langzaam afbouwen van de draaiende media (harde schijven). Overal komen ze met all flash varianten van bestaande producten. Zeker met de laatste technieken en prijsdalingen wordt het steeds rendabeler om SSD's te gebruiken ipv draaiende media.
Dat staat toch gewoon in het artikel, dit soort SSD's is bedoeld voor in datacenters.
Maar in een datacenter gebruik je meerdere types drives. Traag en betrouwbaar voor opslag tot aan supersnelle voor dataverwerking met van alles er tussen in. Ik weet niet voor welke taak deze drives bedoeld zijn dus de vraag is legitiem.


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*