Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung start productie van zakelijke ssd's met 30,72TB V-nand

Samsung heeft bekendgemaakt dat het is begonnen met de massaproductie van de PM1643, een serial attached scsi-ssd op basis van Samsungs vierde generatie V-nand met een opslagcapaciteit van 30,72TB.

Volgens Samsung is de 2,5"-ssd, genaamd PM1643, vooral bedoeld voor datacenters en heeft hij de grootste opslagcapaciteit tot nu toe. De 30,72TB-ssd maakt gebruik van een 512Gbit-chip en Samsungs vierde generatie V-nand, dat uit 64 lagen bestaat.

Samsung stelt dat de nieuwe ssd wat de prestaties betreft bijna twee keer zo snel is als de 15,36TB-ssd van de vorige generatie sas-ssd's, die het bedrijf in maart 2016 uitbracht. Op basis van een 12Gbit/s-sas-interface haalt de nieuwe ssd sequentiële lees- en schrijfsnelheden van respectievelijk 2.100MB/s en 1.700 MB/s. De random read bedraagt 400.000iops en de random write komt uit op 50.000iops.

Samsung zegt dat het de nieuwe capaciteit en prestaties onder andere heeft bereikt door het combineren van de negen controllers van de vorige generatie sas-ssd's. Ook heeft de fabrikant gebruikgemaakt van de tsv-technologie om 8Gbit-ddr4-chips met elkaar te verbinden om in totaal te komen tot tien exemplaren van 4GB-dram. Daarmee komt de totale capaciteit van het dram uit op 40GB. Volgens Samsung is het de eerste keer dat deze technologie is gebruikt in een ssd.

In januari is Samsung begonnen met de productie van de eerste hoeveelheden van de 30,72TB-ssd's. Later dit jaar wordt het aanbod uitgebreid met varianten met een capaciteit van 15,46TB, 7,68TB, 3,84TB, 1,92TB, 960GB en 800GB. Over de prijzen voor de ssd's heeft Samsung niets gezegd.

Door

Nieuwsredacteur

110 Linkedin Google+

Reacties (110)

Wijzig sortering
De 15TB-versie kost $11k, dus deze schijven zullen wel richting de $20k gaan.
Bij dit soort niche-produkten kun je beter exponentieel ipv lineair extrapoleren. Ik denk dat het meer in de richting van de 30K of 40K gaat.
Dit zijn geen niche produkten. Een ferrari is een niche produkt. Dit zijn schijven voor de zakelijke markt. Voor grote datacenters. Plekken waar warmte en stroomgebruik, snelheid en betrouwbaarheid van het grootste belang zijn. Neem het Azure datacenter in nederland waar een paar honder pétabyte aan storage staat te draaien, complete gangen enkel voor koeling dienen, het stroomverbruik dat van complete woonwijken overtreft (en dan nog eens bedenken wat voor backup voorzieningen daar getroffen moeten worden), en dit soort bedrijven toch nog hun best gaat doen om "groen" aan de slag te gaan.

Wanneer daar alle storage vervangen kan worden door zuinig, snel en koel SSD storage kan dat een gigantisch verschil maken! Daarnaast is dit het begin. Een fabrikant die komt met een belachelijk grote schijf om te laten zien wat er allemaal mogelijk is. Het is de aftrap naar ontzettend grote SSD's.

Lang verhaal kort: mooi om te zien:)
Mijn interpretatie van een lang verhaal kort: ram prijzen stijgen nóg meer omdat chipboeren liever dit soort producten maakt waar ze afgrijselijke marges op kunnen pakken (als ook nand chips voor mobieltjes) :+

Prachtig hoor, 30+TB in een enkele 3,5" behuizing! Maar ik ben geen datacenter.. ik ben een enthousiast/tweaker die een PC wil bouwen met 128gb DDR4 ram erin van mijn eigen geld. :/
Wat heeft jou 128Gb ram met een dataschijf te maken??

Hier zitten geen afgrijzelijke marges op, de ontwikkelkosten zijn immens en deze schijf schurkt op dit moment tegen de technologisch grenzen op. De prijs zal waarschijnlijk onder de 20k gaan liggen.
Hoeveel VM's ben je van plan te draaien dan? Dat is tien keer meer dan zelfs 90% van de tweakers nodig heeft :o
Ferrari is geen niche product, Bugatti wel.
Dat denk ik juist niet, meestal is het zo van hoe meer je neemt hoe goedkoper het word. In tegenstelling van dan een 15TB bijv.

[Reactie gewijzigd door GameZiseFX op 20 februari 2018 14:44]

In dit geval helaas wel. Het is een product waarmee ze weer grenzen opzoeken.
Leuk voor een thuisnas, stuk of acht naast elkaar. Mooi zuinig en stil :) Toch gaat dat moment komen, dat we geen conventionele disks meer kopen maar, ook thuis, een stapeltje ssd's in een nas fietsen.

Vraag me af wat een soorgelijke ssd zou moeten kosten, wanneer deze "low end" opgebouwd zou zijn, dus met goed maar relatief traag flash, puur voor opslag in een soho of private setting. Zuinig, stil, niet bijzonder snel, met een niet al te gekke soc om de boel aan te sturen....
ja leuk... totdat er één dood gaat en je moet hersilveren.
De kans dat er in die tijd nog één of twee sneuvelen is dan wel erg groot.
Dan zet je een backup terug of je accepteert het data verlies.

Hmm -1, zal wel aan mij liggen, het terugzetten van een backup is een valide strategie, zo ook het dataverlies accepteren

[Reactie gewijzigd door SpamLame op 20 februari 2018 15:15]

"Jamaar de RAID array in mijn NAS *is* de backup"

*Pets*! Lijfstraffen invoeren..
Idd de hordes thuisgebruikers die RAID gelijkstellen aan backup :N
Een beetje fatsoenlijke backup is natuurlijk een RAID systeem, ook al is RAID geen backup ;)

(Alhoewel de backup meestal wel een RAID-5 kan zijn, en RAID-1 niet nodig is.)
Het voordeel van RAID-1 is alleen dat je het in de meeste gevallen direct af kan lezen bij aansluiten van de schijf, waar bij RAID-5 met blocks gewerkt wordt.
...niet te hard slaan...

Ik heb twee 2TB schijven in raid staan als backup... maar das dus niet echt de bedoeling?
Een backup kan wel in een RAID-array zitten, maar een RAID-array is niet per definitie een backup.

Het is een kwestie van semantiek. Wat is een 'backup'? Een backup, imho, is het pas als je de originélen van die files ook ergens anders hebt staan. (Als je alle foto's die je wil bewaren op je PC én op je NAS hebt staan, is er sprake van een backup. Als je je NAS als primaire opslag gebruikt onder het motto 'het is een RAID array dús is het een backup' gaat die vlieger niet op; dán zijn het immers je originelen).
Dan zet je een backup terug of
of je zet je tweede NAS aan en in als primaire. En vervangt het nodige in de gesneuvelde variant.
Ja je kan echt beter een RAID setup van een rijtje 1/2TB schijven maken dan 1 schijf gebruiken. Het gaat ook lastig worden als je van die ene schijf elke keer een 30,72TB backup moet maken. :P

[Reactie gewijzigd door NotCYF op 20 februari 2018 13:55]

Bij zulke hoeveelheden data maak je geen backup meer maar staat je storagechasis zelf ook in raid. Bij voorkeur 3 chassis: productie uitwijk en backup (allen gemirrord)

[Reactie gewijzigd door SunnieNL op 20 februari 2018 14:28]

mwah, raid is nog steeds geen backup, gaat dus niet helpen tegen een typo, een bug in je software, een hacker, een domme collega, etc....
Bij zulke hoeveelheden data maak je geen backup meer maar staat je storagechasis zelf ook in raid.
Eigenlijk moet dat ook voor thuisgebruikers zo zijn als die niks kwijt willen en alles bewaren.
Eén schijf aan ruimte nodig hebben is er drie aanschaffen.
Een SSD is natuurlijk wel een heel stuk sneller dan een HDD. Het lijkt mij dat je een raid rebuild ook wel 5x zo snel afhandeld.
Ik zou ook niet gaan denken in termen van RAID imho.
Deze SSD's zijn voor de professionele markt en zullen niet zo snel kapot gaan. SSD's gaan zelden in één keer helemaal kapot. Meestal raken individuele cellen op den duur kapot. Hiervoor zal ongetwijfeld een buffer aanwezig zijn en de schijven zullen wel melden als die ook op dreigt te raken en de kans op dataverlies reëel gaat worden.
In een geoptimaliseerd systeem moet je dan een schijf bij kunnen plaatsen om de kapotte schijf te rebuilden, voordat die definitief uit het systeem wordt gehaald. Een rebuild is afhankelijk van de schrijfsnelheid van de nieuwe schijf en bij een professionele SSD ligt die een stuk hoger dan bij een (consumenten) HD. Rebuilds gaan dus een stuk sneller en de kans dat er tijdens dat proces nog een SSD sneuvelt lijkt me niet zo heel groot.
Een fatsoenlijke SSD faalt in read-only mode (max write count exceeded) en kan daarna gekopieerd worden. Daarvoor heb je strikt genomen niet eens RAID nodig. Toegegeven, oude RAID software voor HDD's gaat niet uit van die failure mode, en negeerde een gefaalde disk compleet. Maar hoe lang hebben we al SSD's? Als je RAID software nu nog uitgaat van full-disk read failures, dan is niet je hardware het probleem, maar je software.
Ik heb geen cijftertjes bij de hand, maar mij lijkt dat zelfs de meest trage SSD nog altijd sneller is dan de snelste HDD.
klopt, maar een rebuild met 5 HD schijven van 0,5 TB duurd meerdere dagen. stel ff op 2. deze ssd is tien keer sneller op doorvoer snelheid, en 60 keer groter. dus rebuild van 5 van deze ssd's duurd 60/10 = 6 keer langer dan 2 dagen.

Nee, traditionele raid is dood. Zelfs een ideale raid 1 rebuild zou 5 uur duren.
Tja, ik ben al een tijd opzoek naar een goede vervanging.

Ik draai nu op mijn "NAS" een product genaamd "FlexRaid", die pakt het iets anders aan. Je hebt dan je data drives en je parity drives. Als je 1 data drive uit je systeem haalt kan je alles wat er op staat gewoon lezen. Als je dus 2 parity drives hebt en 5 data drives, en 3 schijven gaan kapot, dan heb je nog kans dat je dingen kunt terug halen.

Maar goed, die software is een beetje brak :(

Zat al te kijken naar ZFS, maar dat vereist wat infra-aanpassingen (de server heeft nu geen ECC geheugen bijv. iets wat je toch wel erg graag wilt hebben voor ZFS).
ecc is niet perse nodig, zfs of geen zfs
Dat hangt af van de wensen van de gebruiker. Als er cruciale data op de nas staat is ECC bij ZFS zeer gewenst. Bitflips gebeuren nou eenmaal en daar is ZFS nogal gevoelig voor.
Als de data niet essentieel is niet, maakt het niet zo veel uit. Een nasje kan jaren zonder problemen draaien zonder ecc. Maar de kans dat het mis gaat blijft.

Zonder onderbouwing aangeven dat ecc niet perse nodig is lijkt me wat kort door de bocht. Hoewel je technisch gelijk hebt.

Uiteraard moet je alsnog een (offsite) backup hebben.

Edit: toevoeging
Edit: deze lezing is blijkbaar achterhaald :). Learned something today

[Reactie gewijzigd door Kriebelkous op 21 februari 2018 11:06]

Die post van loggedinasroot legt het redelijk goed uit dat het geen kont uit maakt (dat het toch wel heel vreemd moet lopen). Niet meer dan elk ander bestandssysteem. Met zelfs een referentie naar 1 van de makers van ZFS.
Dat klopt.
Het is echter maar net hoe voorzichtig je wilt zijn.
Van dezelfde quote van de maker van freenas "I would simply say: if you love your data, use ECC RAM. Additionally, use a filesystem that checksums your data, such as ZFS." http://arstechnica.com/ci...5679&p=26303271#p26303271
je komt vaak tegen dat ze het hebben over "scrub of death". en daarom dacht ik niet dat het perse nodig was, omdat die scrub of death eigenlijk niet gebeurt. maar als zfs gevoeliger is voor bitflips dan snap ik m wel
_/-\o_

Ik had die post dus gelezen op FreeNAS site en kwam de Scrub of Death dus tegen en iedereen die altijd maar zat te hameren op ECC geheugen. Nu ging ik dit waarschijnlijk regelen door een oude HP DL360 te gebruiken en dan van de huidige NAS een DAS maken.

Toch maar een keer gaan kijken hoe ik de zut kan converteren naar ZFS i.c.m. RAIDZ1 of Z2.
Als het om een G6+ gaat zijn de aan boord raid kaarten ook prima, de performance zal goed genoeg moeten zijn voor een NAS die aan een Gbit Verbinding hangt
Maar niet genoeg bays ;) Vandaar ;)
En dat is ook helemaal niet belangrijk in geval van een thuis NAS waar je af en toe eens een backup op zet of de filmpje van streamt. Belangrijker zijn kost/MB en daar zijn HDD nog altijd heer en meester in.
Deze SSDs zullen wel weer machtig duur worden gezien de hardware die er in zit
Per stuk wel, maar gezien de doelgroep gaat de berekening iets anders. Je moet namelijk de totale TCO (Total Cost of Ownership) berekenen. Stel je neemt deze 2.5" drives maal 12 in 1U (voor de nieuwkomers: servers plaats je in een rack met +/- 48 units in hoogte, 1 unit is zo hoog als een pizza doos). Dat betekend dat je ruwe storage om en nabij 368,64 per 1U is en per rack (uitgaande van twee topswitches en 46U resterend) ongeveer 16.5 ruwe storage.

Stel je neemt Double Sided storage van SuperMicro, dan kan je 11 van deze dozen met 72 van deze drives en 2 dozen met elk 12 drives kwijt. Dan kom je zelfs in één rack 816 disks kwijt, ofwel +/- 24.5 PB aan storage in één rack.

Daar zitten twee zijdes aan: voor een rack moet je maandelijks een bedrag neerleggen voor de ruimte, stroom en koeling. Hier kan je dus op besparen omdat de drives meer capaciteit hebben.

De andere zijde is dat je een kleinere hoeveelheid servers hoeft aan te schaffen, minder netwerkpoorten nodig hebt en dat je daarmee kan besparen in onderhoud en aanschaf prijs van de andere componenten.

Samsung is slim (net als vele andere fabrikanten). Ze verplaatsen het budget van de klant van de aanschaf van andere componenten, onderhoud en rack kosten naar de aanschaf van de harde schijven. Ze kunnen kiezen om het voor minder aan te bieden dan traditioneel draaiende schijven met dezelfde capaciteit, het voor eenzelfde bedrag aan te bieden of voor een hoger bedrag onder het mom dat het sneller is (al vind ik dat minder aannemelijk). Hierdoor hebben ze een hogere marge en winnen beide partijen.

Als consument zijnde moeten we helaas nog even wachten. Maar zakelijk gezien vind ik het een goede ontwikkeling.
In dit soort systemen is de winst nog veel extremer. https://www.backblaze.com...urce-data-storage-server/

Hier gaan 60 drives in een 4U rack systeem. Dus als je extreem gaat, en de single point of faillure voor lief neemt of een tweede systeem in een tweede DC hebt staan (nog veel beter), kun je in één rack 11 van dit soort apparaten kwijt. 660 * 30TB is 19.8PB! Het is dan een kwestie van bandbreedte om dit te kunnen benutten.

Ik ken overigens geen enkel NAS die dat aan zou kunnen. Maar die komen we vast wel.... WE hebben nu al ethernet switches die enorme hoeveelheid data aankunnen, dus waarom een zou een NAS niet zo kunnen groeien.
Backblaze is inderdaad ook een mooie oplossing maar mist helaas een eenvoudige hot-swap (het is gevoeliger). Daarbij komt dat het 60 bays heeft voor 3.5 inch drives t.o.v. de 72 2.5 inch bays met kwalitatief betere hot-swap. Als je dergelijke systemen gaat maken met deze SSDs, dan valt de meerprijs relatief gezien mee :-). Je kan prima draaien met Backblaze pods, maar ik zou toch kiezen voor een kwalitatief beter systeem als je toch deze bedragen gaat neertellen :)
Backblaze pods zijn dan ook specifiek voor Backblaze ontworpen. Hotswap is minder belangrijk daar.
Klopt, hun opzet maakt het ook mogelijk om het dusdanig uit te voeren. Ik vind het hele mooie systemen, maar omdat @Boner het als alternatief aanmerkt heb ik mijn reactie daar op geschreven. Als je dusdanig veel aan SSDs gaat uitgeven dan is het maar een klein percentage van het totaal bedrag om de juiste case te hebben :-)

Vind het Backblaze principe geweldig, zeker ook omdat je het zelf kan aanschaffen. Als je de juist use case hebt waarbij de beperkingen geen probleem zijn, go for it :-)
A op die manier.
Overigens vind ik die pods minder geschikt voor thuis, juist omdat het backblaze principe is de dataredundancy op applicatie nivo te regel. Ergo redundancy in het chassis is ondergeschikt, je kan dit goed zien in de V1 uitvoering (waarvan mijn werkgever er 2 had).
Ik heb ze zelf niet ingezet omdat ik de use case er niet voor heb, maar Linus Tech Tips zet het in met Unraid. Daar heb je gelijk ook de use case, thuis zal je dat niet zo snel nodig hebben.

Ik vraag mij alleen af wat de rebuild time zal zijn, maar als je in het design toe laat om 2 schijven uit te vallen dan is het al een kleiner risico. Ik ben overigens wel benieuwd naar de rebuild time van een 30 TB SSD. Eigenlijk zit je na een paar TB al op een punt waarbij je niet meer moet denken aan een RAID setup maar een SDS (Software Defined Storage) oplossing icm mirror ipv parity. Maar dat is een ander topic :-)

[Reactie gewijzigd door servicedb op 20 februari 2018 13:31]

2.5" drives (ook al zijn het er 60) in een chassis voor 3.5" is natuurlijk wel een verkwisting van fysieke ruimte waar een niet mals prijskaartje aan zit.
Welke chassis voor jouw het beste is hangt af van meerdere factoren.
Dan kan je er nog een schep bovenop doen door bijvoorbeeld de Dell EMC FX2 met 1x FC640 en 3x FD332 te kiezen. In de FC640 passen 2x 2,5" en per FD332 16x 2,5", dus totaal 50 drives in 2U, inclusief compute en eventueel redundante switches.

Als je dan uitgaat van 46U resterend (23 FX2's van 2U per stuk), kom je daarmee al uit op een bruto capaciteit van 2300 * 30TB is 69PB in een rack.

FX2: http://i.dell.com/sites/d...erEdge_FX2_Spec_Sheet.pdf
FC640: http://i.dell.com/sites/d...Edge-FC640-Spec-Sheet.pdf
FD332: https://i.dell.com/sites/...Edge-FD332-Spec-Sheet.pdf
Ik ken overigens geen enkel NAS die dat aan zou kunnen.
Ontap 8.2 Cluster schaalt tot 69Pbyte, dus je kunt drie racks vol aan je controller hangen. Paar SAS-switches er tussen en Bob is je oom.
Het alternatief voor die 816 disks is overigens deze andere SuperMicro. 32 disks in 1U, dus dat zijn er bijna 1500 in een full-height rack.

"Minder netwerkpoorten" is een iewat vreemde opmerking. Netwerkpoorten zijn de manier waarop je de data uit je array krijgt. De bandbreedte van 816 SSD's is enorm. Bezuinigen op netwerkpoorten is dan zonde, al je flash bandbreedte blijft dan ongebruikt.

Een ander probleem met dit soort NAS oplossingen is dat het HDD-denken blijft. Een NAS op basis van HDD's heeft geen latency-issues, want de netwerk overhead is te verwaarlozen ten opzichte van de mechanische latency. En de grote RAM buffers van een NAS kunnen die latency ook nog eens goed verbergen.

Een SSD daarentegen heeft een ontzettend lage latency, vaak 1000 keer lager. Als je dan een hele netwerk stack en NAS laag ertussen zet, dan kan de latency zomaar exploderen. Dat is ook waarom moderne SSD's gebruik maken van moederboard connectoren als PCIe en M2, in plaats van SATA kabels. De afstand tussen CPU en SSDs gaat tellen, en dan is centimeters beter dan decimeters. Een NAS oplossing is al gauw tientallen meters.
De vraag is of je de volledige - sequentiele - snelheid nodig hebt. Dat is volledig afhankelijk van je use case. Zoals je zelf aan geeft speelt latency meer een rol evenals het aantal IOPS. Infiniband en Fiber kan in bepaalde gevallen snel genoeg zijn. In dit geval maakt het ook niet uit omdat mijn vergelijking niet met dat soort oplossingen is.

Het komt wellicht niet duidelijk in mijn beschrijving naar voren, maar in mijn voorbeeld is het als vervanging van traditionele harde schijven met als doel meer opslag met minimale ruimte in het rack. In die gevallen hoef je niet persé de volledige sequentieële snelheid van de ssd te benutten. Daarmee heeft Samsung dan ook een goede reden om een hogere prijs te vragen omdat het voor de eigenaar op een andere manier wordt goed gemaakt.

Mocht je wel de volledige snelheid nodig hebben dan moet je het sowieso even goed bekijken hoe je het aanpakt. Als je dergelijke snelheden wilt gebruiken dan moet je een goede architectuur hebben en dan waren de tradionele harde schijven sowieso al geen optie.

Ps Ik zou het sowieso niet met een NAS vergelijken, eerder als het traditioneel moet met een SAN. Mijn use case zou extra latency ook toelaten, dus dan is een SDS ook nog een optie en dat is waar ik het mee zou vergelijken.

[Reactie gewijzigd door servicedb op 20 februari 2018 17:21]

Treu, en ben het er dan ook 100% mee eens.
Maar "Daar zitten twee zijdes aan: voor een rack moet je maandelijks een bedrag neerleggen voor de ruimte, stroom en koeling."

En tijdje geleden kwam ik deze racks tegen namelijk: klik = Icy Dock behuizing: MB996SP-6SB. En dit betreft een rack waar 1,5" HDD's/SSD's in gaan. Nu betreft het in dit geval ééntje waar maar zes van deze schijven in passen, maar toch, dat is wel op te schalen lijkt mij zo. En bespaart zo toch weer mooi wat extra ruimte. Dus vond het op zijn minst de moeite waard om hier gemeld te hebben.
Al vind ik die 1,5 inch wel een wat vreemde maat, aangezien 1,8 inch het kleinste is wat er te krijgen is voor zover ik kan zien/weet, maar goed.
;)

[Reactie gewijzigd door SSDtje op 20 februari 2018 13:07]

minder netwerkpoorten nodig hebt
Dat hoeft natuurlijk niet het geval te zijn, en is mede afhankelijk van de hoeveelheid data die je van en naar de storage wilt transporteren. Minder poorten betekend minder beschikbare netwerkbandbreedte, en dat kan een nadeel zijn.
Daar ben ik het niet helemaal mee eens. Als je namelijk 44 units aan wilt sluiten (let wel, redundant) en 10 Gbit als minimum nemen, dan kom je op 88 poorten uit. Daarbij wil je eigenlijk wel op elke machine IPMI of soortgelijks hebben, dan zit je al op 132 poorten. En dan heb je nog niet eens dezelfde opslagcapaciteit. Je hebt dan 1U over en zit met 3 switches opgescheept. Dit maakt het kabel management iets lastiger.

Als je 11 x 4U en 2 X 1U machines neemt met 2 keer 56 Gbit InfiniBand redundant, dan zit je op 26 poorten. Neem IPMI er bij en je hebt 37 poorten. Stel je verdubbeld het aantal InfiniBand poorten dan zit je nog steeds maar op 65 poorten.

Besparen op poorten hoeft natuurlijk niet het doel te zijn, maar het kan wel je management makkelijker en minder foutgevoelig maken. Dit geld ook voor stroom; immers wil je deze units wel redundant aangesloten hebben en dan is het 26 kabels vs 88 stroom kabels. Dat maakt het managen van een rack toch een stuk lastiger.

Ps mocht netwerk compatibiliteit een issue zijn, dan kan je ook naar QSFP+ achtige oplossingen gaan. Dan heb je twee keer 40 Gbit. Hoewel de SSDs meer sequentiële snelheid hebben betekend het niet dat je 40 Gbit in iedere situatie zal vol gooien (of 80 Gbit).
Hoe kan je >2GB/s halen over een 12Gbps link?

[edit]
opzich goed punt, ik zie maar een connector op de foto though ;)


[edit2]
Ok, jij wint :)

[Reactie gewijzigd door borft op 20 februari 2018 11:59]

Ze zeggen 12Gbps interface en die kan prima meerdere links hebben

[edit] geef één connector meerdere pinnetjes en je hebt ruimte voor meerdere links over dezelfde connector ;)

[Reactie gewijzigd door mvds op 20 februari 2018 11:35]

Het 1e waar ik aan dacht: Kijk eens hoeveel data je in 1 klap kan kwijtraken! :D Wat een capaciteit zeg, pfff. En dat op 2.5" formaat (al dan wel wat dikker dan laptop drives)

[Reactie gewijzigd door Gamebuster op 20 februari 2018 12:21]

Het 1e waar ik aan dacht: Kijk eens hoeveel data je in 1 klap kan kwijtraken! :D
Dat is een ouderwets idee. Het is meer 'kijk eens hoeveel ruimte ik moet regelen voor werkbare backups en daar weer backups van'. Je wilt geen 30TB kwijt, maar je wilde ooit ook geen 1000 MB kwijt.
Eigenlijk wil ik niks kwijt en dan heb je met deze elektronica nog een keus. Als mijn huis affikt ben ik meer kwijt.
Dat is natuurlijk waar... in deze klasse heb je altijd backups van backups (hoop ik). Of sterker nog, deze schijven bevatten de backups.
nog een paar jaar en dan is het ineens niet zoveel meer.
eerder kreeg je een paar mb al niet vol, nu hebben sommigen niet eens genoeg aan het 1.000.000 voudige
zijn dit volwaardige 2.5 inch SSD's? ze lijken dikker dan normaal
Ze zullen niet bijvoorbeeld in je laptop passen nee, maar in een server is dit 'normaal' 2,5". (SFF)
Yep, voor server max 15mm (precies zo groot als sas 2.5" hdd. De 2.5" schijven die je in je pc hebt zijn typisch sata en dan normaal 7 of 9mm dik.
"SATA" zegt niks over de schijf dimensies (fysiek), het beschrijft een interface.
De 2.5" schijven die consumenten kennen zijn inderdaad eerder de 7/9.5mm varianten dan andere en idd veelal SATA(eerst voornamelijk van laptops , later van de SSD die meestal in die vormfactor komen).

De dikste 2.5" SSD die ik gezien heb is 14mm, welke prima in een std HPE hotswap drivebay past.
Hier de specificaties, gevonden via link van Nyarlathotep: https://azerty.nl/product...solid-state-drive-7-68-tb.

Zelf even zoeken wordt zeer gewaardeerd voordat je vragen stelt.
Leuk, dat 1 disk 2100 mb/sec haalt maar in een disk cabinet zitten er doorgaans 24 of meer en hoe ga je die data naar buiten persen? SAS is max 22,5Gbit/sec dus 1 disk trekt de sas bus al vol.
SAS werkt zoals PCIe met lanes. In theorie kan je het aantal lanes gewoon uitbreiden en per extra lane heb je 12Gb/s extra bandbreedte (theoretisch).
Maar in praktijk zal het zo goed als nooit voorkomen dat je 24 disks allemaal tegelijkertijd sequentiële acties aan het doen zijn en dus nooit de bus zullen verzadigen.
ten eerste hebben de meeste controllers meerdere lanes, waarvan je er dus blijkbaar ook meer dan 1 naar een disk kunt assignen. Ten tweede is de doorvoer meestal niet de bottleneck, maar eerder random IO. In dat geval kan je het prima oplossen met port replicators (wat veel backplanes dus ook doen).
Mooi dat dit uitkomt, betekend dat de consumenten versies er ook aan gaan komen.
Vergeet het maar. Daar zijn deze disks veel te duur voor.
Nu wel ja. Je betaalde vroeger 2000 gulden voor 200MB.
Uiteindelijk zal een schijf van deze grootte vast naar de consumentenmarkt komen, maar niet in de komende jaren.
Het zal zeker even duren, maar het komt er wel aan. Over 10 jaar lachen we hierom denk ik!
En over diezelfde tien jaar lachen we ook om de kleine bestanden die we nu gebruiken....in de tijd van jouw 200mb HDD paste er nog meerdere foto's op een 720kb floppy.
hele games van 35 kilobyte in mijn tijd (commodore 64) Ok, de mooiere games haalden tussendoor wat van een floppy, kon je even een bakje koffie halen....
Toen ik voor het eerst een PC aanschafte was een 80GB HDD ook onbetaalbaar, zo gaat het natuurlijk altijd. :)
Toen ik voor het eerst een PC aanschafte was een 80GB HDD ook onbetaalbaar, zo gaat het natuurlijk altijd. :)
Wat lief, jij hebt de 80GB hdd's meegemaakt ;)

* FreshMaker heeft lang moeten sparen voor de 20MB van Seagate ...
En toen ging het naar de kl*ten, elke keer weer meer nodig, datahonger sloeg toe :+
Lol. Eerste HDD hier was een 5Mb MFM HDD. 5,25" en 2HE :)
Die zijn overgeslagen hier
De Amiga ging maar niet kapot ...
Lol. Het was in een amiga 2000, via een a2088 xt bridgeboard met een 8bit xt mfm controller.
Gouden tijden, ik kocht op de HCC een ram-opslag unit van 3 MB ( technisch gezien 4MB, maar klein defect )
Met een soldeerbrug die 4e uitgeschakeld ( dank jullie - hobbyruimte Hoogvliet)
Pfoe ik moest t nog zelf in steen uithakken }>
Lol. Eerste HDD hier
Dan had je tenminste nog een hdd. Dat geklooi met 5.25" floppy's was echt erg.
Dat was toen ik er zelf 1 aanschafte in 2004. In de jaren 90 deden mijn ouders dat. Ik heb echter geen idee wat daarvan de specs waren. Het enige wat ik weet was dat Knights & Merchants op 1FPS draaide met geluk :P
Ja ik herinner me nog dat ik een HDD kocht van 850 MB en mijn vader zei:"Ach die krijg je toch nooit vol" Kort daarna sloot ik een abonnement bij goldmine af (Wat nu na tich hernoemingen ziggo heet) en het duurde niet lang voor hij die weddenschap verloor :) Maar ja Ik begon nog met een 14k4 modem en daarna stapte ik over naar ISDN Wat een WOW effect had in snelheid echter de telefoonrekening had hetzelfde effect. Met always online was het een sport om de download zo hoog mogelijk te krijgen. 8-)
Goldmine, met die mooie lancity modems met de koelvinnen er op, die je zo prettig kon tweaken :D
Wat een WOW effect had in snelheid echter de telefoonrekening had hetzelfde effect.
Ja die telefoonrekeningen. Dan hebben we het nu beter. Zelfs met vaste lijn en mobiel op afbetaling.
Ik weet nog goed dat ik twee Maxtor 80GB HDD's haalde bij de MyCom voor 1000 gulden per stuk. De medewerkers zeiden nog: "jij hebt voorlopig opslagruimte genoeg". Maar dat was maar tijdelijk. Al snel daarna kocht ik 250GB en 320GB schijven.

Mijn allereerste schijf kocht ik voor mijn MSX en die was iets van 120MB. SCSI. Opgedeeld in 4 partities van 32MB per stuk, omdat het filesystem maar 12 bit was. En later nog 1 erbij met geklooi met jumpers voor het juiste SCSI ID en een terminator aan het eind van de kabel. Mooie tijd.
betekend dat de consumenten versies er ook aan gaan komen.
bron?
niet nodig, gebeurt toch wel. al zal dat nog wel even duren.
Het leuke is, over een jaartje of tien, of zelfs eerder, stoppen we dit zelf in onze PC's voor een Eurootje of 100.
Ik denk het niet want dat is nergens voor nodig. Streaming / cloud zal veel van de lokale opslag overbodig maken.
Zou kunnen. Neemt niet weg dat we het alsnog zouden kunnen kopen tegen die tijd als we zouden willen.
Op basis van een 12Gbit/s-sas-interface haalt de nieuwe ssd sequentiële lees- en schrijfsnelheden van respectievelijk 2.100MB/s en 1.700 MB/s.
Uhm.. 12Gb/s = 1,5GB/s.. hoe kunnen dan lees- en schrijfsnelheden van respectievelijk 2.100MB/s en 1.700 MB/s gehaald worden?
Een 12Gb/s SAS interface kan 12Gb/s per lane aan. Een enkele kabel/connector heeft 4 lanes en dus snel genoeg om voor deze SSD.
Het klinkt in mijn oren echt als gigantisch veel opslagruimte als ik de titel lees. Maar nu zie ik dit staan in de tekst op een nieuwssite: "enough to store 5,700 Full HD (1920x1080, or around 5GB) movies." Als je dan in UHD gaat denken en voor een Bluray schijfje laten we zeggen 50GB rekent, dan passen er 570 films op zo'n SSD. Klinkt toch wat "normaler" en is gewoon de kant die we op gaan. In de tijd dat je nog meer dan duizend gulden betaalde voor 80GB dacht men ook dat krijg je nooit vol :D

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*