Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties
Submitter: JS1982

Seagate introduceert de Nytro XP7200, een pcie-insteekmodule die is voorzien van vier nvme-ssd's met m2-aansluiting. De kaart moet doorvoersnelheden van 10GB/s mogelijk maken. Ook toont de fabrikant een 3,5"-ssd met een opslagcapaciteit van 60TB.

De komst van een pcie-ssd met snelheid van 10GB/s werd in maart al bekendgemaakt door Seagate. De fabrikant heeft nu op de Flash Memory Summit-conferentie het daadwerkelijke product aangekondigd. Het gaat om de Nytro XP7200, een pcie-insteekkaart die wordt voorzien van vier m2-ssd's. Om de snelheid van 10GB/s te bereiken, worden vier van de onlangs aangekondigde XM1440-m2-nvme-modules gebruikt met een capaciteit van 1920GB per stuk. De totale opslagruimte komt daarmee op zo'n 7,7TB. Ook komt er een uitvoering met een capaciteit van 3,8TB, die gebruikmaakt van vier 960GB-ssd's.

Om de geclaimde snelheden te bereiken moeten de vier nvme-ssd's in een raid 0-opstelling worden gebruikt met behulp van software. Volgens Seagate haalt de Nytro XP7200 dan een sequentiële leessnelheid van 10GB/s en een sequentiële schrijfsnelheid van 3,6GB/s. Bij willekeurige leesacties is dat 940.000 iops en bij schrijfacties 160.000 iops. De eerste samples worden in september verstuurd en in het vierde kwartaal moet de kaart op de markt komen.

Verder toont Seagate op de conferentie een sas-ssd in 3,5"-formaat met een capaciteit van 60TB. De ssd maakt gebruik van 3d-tlc-nand van Micron en een enkele controller. De sequentiële lees- en schrijfsnelheden zijn volgens de fabrikant 1500 en 1000MB/s. Willekeurig lezen gaat met 150.000 iops, aldus Seagate. Informatie over willekeurige schrijfacties is niet bekendgemaakt. Seagate heeft de 60TB-ssd nog geen productnaam gegeven en op dit moment betreft het enkel nog een demonstratie van wat mogelijk is.

Seagate Flash Memory SummitSeagate Flash Memory Summit

Moderatie-faq Wijzig weergave

Reacties (73)

Er komt een tijd dat ze dan de 1TB SSD's uit de servers gaan halen en voor een tientje op marktplaats gaan zetten om ruimte te maken voor deze 60TB versie's. Toch ?
Meestal gaan schijven door een shredder heen. Begrijpelijk, maar toch jammer. :)
Zou zonde zijn want bij SSD is dat niet nodig. Alles wissen, paar uur wachten en de garbage collection heeft alle data permanent verwijdert.

Dat is zelfs een 'nadeel' van SSD soms; er is weinig tot geen dataherstel mogelijk
Helaas is bij een SSD juist zo dat het niet altijd mogelijk is om 100% van de data te verwijderen door wearleveling reserve kopieŽn en je niet gewoon elke bit kunt overschrijven zoals bij een hardeschijf, omdat je als je het probeert te overschrijven, de fysieke locatie waar de pointer naar verwijst op de SSD kan veranderen: http://security.stackexch...ata-security-erase-on-ssd

[Reactie gewijzigd door Zagnome op 10 augustus 2016 03:31]

sommige schijven (zoals de Samsung EVO 850) bieden standaard de mogelijkheid alles te crypten. Dan is het enkel een kwestie van een nieuw key maken.
*en vetrouwen hebben in je ssd* Dat zullen bedrijven met echt kritische informatie toch niet doen, die shredden liever een SSD met een 2e hands waarde van 10k dan dat er 1 document met gevoelige info wat op die ssd staat/stond buiten de poort komt
En alles wissen, paar uur wachten, hopen dat het goed gegaan is is een stuk duurder dan voor 3,- per schijf de shreddervrachtwagen laten langskomen. Daarnaast is het ook nog mooi om te zien hoe alles door de shredder gaat.

Dus jammer, maar helaas. Te duur!
Ze kunnen ze beter in de oven leggen.

Tegen de tijd dat de pizza klaar is, is je SSD ook weer leeg. En die bierkoelkast is ook nodig om de SSD bij lage temperatuur te kunnen schrijven. :+
Mwa, in de regel zitten in 'fatsoenlijke' servers SAS schijven. Deze 3.5'' 60TB heeft ook een SAS interface. Daar kunnen de meesten thuis niks mee. Ik neem althans aan dat je niet voor je SQL database die dit nodig heeft je SSD's' op marktplaats koopt :)
SAS, okay, maar ze zitten toch op een pcie kaart, zit daar dan geen controller bij op?
Er worden 2 producten besproken. Een pcie kaart en een SAS schijf van 60TB.
Mja nu zijn er nearlines die wel nog een beetje achterlopen qua capaciteit, maar toch betaalbaar zijn. Vroeger zat je daar met je peperdure 4 x 74 GB SCSI raid5 array terwijl de gewone consumenten al goedkope 500GB schijven hadden.
Je kan altijd nog een pci sas raid kaart kopen niet dat ik het zou doen maar het is mogelijk
In een fatsoenlijke server zitten helemaal geen schijven maar halen ze de storageoplossingen van een storagenetwerk.

P.S. waarom is dit in godsnaam ongewenst?

[Reactie gewijzigd door toet-toet op 11 augustus 2016 00:59]

Dat is alweer achterhaald. Momenteel is het "hot' om iedere server weer zijn eigen storage te geven, en wordt dit tussen alle servers gedeeld als een storage cluster.
en wordt dit tussen alle servers gedeeld als een storage cluster.
Kan je dat wat meer verduidelijken. Hoe worden de lokale schijven precies gedeeld met elkaar. Heb je het hier over hypervisors in VMware clusters ?
Nee dat is denk ik ook achterhaald of voor een hele kleine hoeveelheid usecases. Je bedoeld bv ScaleIO? In een enterprise omgeving wil je geen decentrale storage oplossing. Met multiple 10Gbit koppelingen al dan niet converged naar het SAN is latency niet echt een issue mits de zaken dicht bij elkaar staan. Afhankelijk van de usecase kan dit natuurlijk best interessant zijn maar de markt van vandaag vraagt juist om enorme grote hoeveelheden data ipv enorm snelle beschikbaarheid van data. Je ziet een shift naar Object Storage waar performance niet zo belangrijk is maar gewoon de prijs per gigabyte telt en ook de applicaties worden hierop aangepast om juist object storage te gebruiken op basis van bv noSQL ipv trditioneel SQL met enorme IO requirements.
ik denk dat je wat achterloopt, met local SSD storage heb je vele malen lagere latency's dan met een SAN oplossing met tig spindles.

Al zie je wel dat alle local storage als een SAN gedeeld word tussen de verschillende servers om de capaciteit optimaal te kunnen benutten als 1 server minder nodig heeft dan de ander.
Al zie je wel dat alle local storage als een SAN gedeeld word tussen de verschillende servers om de capaciteit optimaal te kunnen benutten als 1 server minder nodig heeft dan de ander.
Puur uit interesse, hoe wordt deze software SAN gemaakt ? VMWare vSAN ?
Ik denk dat ze hier een CEPH cluster bedoelen.
Is dat dan al productieklaar voor block en file storage ? En gebruiken jullie middleware (SuSE, RH) ?
CEPH, ScaleIO, scala aan mogelijkheden.

Het komt neer op software defined storage. Je storage omgeving is in feite weinig meer dan een stukje software op een server. Op die server kun je naast je 'storage service' dan ook nog VMmetjes draaien of wat je dan ook wil.
Nou achterlopen valt wel mee. Je hebt ook al geruime tijd dynamic tearing waarbij afhankelijk van de IO requests de data ofwel op snelle SSD / SAS of SATA komt te staan. Dit alles mooi in 1 array oplossing (BV EMC VNX sinds 2011). Je kan zelfs besluiten alles op flash te zetten. En het allerbelangrijkste vergeet je aad. Door een centrale oplossing van je storage kan je ook je storage virtualiseren wat veel beter schaalt dan bij een decentrale oplossing.
In een converged netwerk heb je het latency probleem niet of beter gezegd veel minder dan een bezwaar zou zijn. In converged ethernet gebruikt men RDMA juist om de latency aan te pakken. Converged enclosures gebruiken wij al een jaar of 5 dus zo heel nieuw is het nu ook weer niet.
De meeste niet maar we zitten hier bij Tweakers :)
Die zijn dan letterlijk en figuurlijk afgeschreven :P Dat wil je niet meer in je productiemachine douwen.
Tientje...

Gemiddelde ISP schrijft tussen 3 en 5 jaar schijven af.

Wil jij een SSD die aan het eind van zijn leven zit ?

Bovendien is er geen betrouwbare manier op SSD te wissen, het enige wat ze kunnen doen encryptie aan zetten en alles trachten te overschrijven maar dan nog...

Dus veiligste manier is inderdaad shredder.
als je encryptie van tevoren al hebt aangezet is het een kwestie van de sleutel vernietigen.
Uit performance en beheer overweging zullen ze dat vooraf niet doen.
Bij sommige SSD's is het standaard. Als je niets instelt is wordt er toch al versleuteld met de sleutel zoals deze uit de fabriek komt. Bijvoorbeeld de Samsung EVO 850 (uiteraard is dit geen enterprise grade SSD).
Die is al hier. Weliswaar niet voor een tientje maar gebruikte enterprise ssd's worden regelmatig aangeboden op V&A
60TB, dat zal wel een lieve duit kosten. Aan de andere kant geeft het wel een hoop meer ruimte in de meterkast, als die NAS eruit kan.
Deze 13TB SSD kost §13.000. ( http://www.pcworld.com/ar...rst-13tb-ssd-is-here.html)

Dus als we het even ruw schatten, gaat dit ongeveer richting de §50.000.
Daar kan je een heel vol rack voor in je meterkast plaatsen. :Y)
Dacht je van een klein rijtjes huis kopen en als server park inrichten, heb je geen kast meer nodig. Deur dicht schroeven 🔩 en klaar is kees, ruimte zat.
Maar dit wordt toch wel heel gaaf. Mijn server is 32tb en heb ook elders een backup, dat nu op een schijfje, kom maar op. Met een aantal jaren kan je een nas bouwen met 50tb en 4watt energy gebruik. Tegen 1% van de kosten nu. §500/§50.000 👍
Als de prijs elke twee jaar halveert (wat niet het geval is), zit je pas over 14 jaar onder die 1%..
Ah verdorie, dan zijn WW3, de overstroming van 2025 en de hongerwinter van 2028 al geweest.
Dat is inclusief energiekosten over 20 jaar :P
voor de prijs daarvan kan je waarschijnlijk een nieuwe kamer aanbouwen voor je meterkast, dus ik zou niet al te snel op een buy now knop klikken als ik van jou was :+
Jeetje dat is bijna een petabyte per rack unit
Supermicro heeft 4U servers waarin 90 3,5" schijven kunnen, met SSD's zoals deze past er dus 5,4PB (Peta Byte) in ťťn server }> :9~
Wordt wel een stevige hypotheek voor zo'n 4U doosje ;)
Zelfs bill gates zal wel ff achter zn oren krabbe
640KB is enough for everyone ! :+
Tja maar dit is pce-e en denk niet dat die board zoveel pci-e sloten heeft.
voor de volledigheid, de 60TB ssd's zijn 3.5" inch met 12Gbps SAS. Past dus wel in zn storage chassis.
ik moet gelijk aan BlackBlaze denken die nu 8TB schijven gebruikt. Maar waar is trouwens de tussen stap? 60TB SSD is bijna van de zotte. (bijna :) )
Alles is relatief. Dus ook de prijs van zo'n ding.
Ik kocht in 1986 een harddisk van 40MB voor Fl.1000
Kijk wat je nu kan kopen aan opslag voor §450, toch wel een ietsie pietsie meer...
Dus de grote drives qua opslag zullen steeds betaalbaarder worden.
Kwestie van geduld.
Niet een echt goede vergelijking vanwege inflatie etc. Purchasing power telt, en dan krijg je dit:
fl 1 000.00 in the year 1986
has a "purchasing power" of
fl. 1 735.03 (§ 787.32) in the year 2015
http://www.iisg.nl/hpw/calculate.php

Maar toendertijd was 40 MB ook een grote disk..... Ik had in 1990 slechts 10 MB plus Bernouilli schijven van 10 MB.
Mijn ouders hadden in 1989 een PC met 40 MB nieuw gekocht en die hele machine kostte iets van §2000,- (toevallig kwamen we laatst nog de factuur tegen !)

Als je in oude bladen uit die tijd kijkt, zie je dat rond 1986 schijven van 20 - 40 MB gangbaar waren, met uitschieters naar 100+ MB en in 1990 gaan ze al richting de 100 - 200 MB met uitschieters naar 500+ MB.

Ik kocht mijn eerste eigen PC in 1994 met 420 MB, en kan me nog herinneren dat ~300 MB toen standaard was (ik had bewust wat meer geld uitgegeven voor een iets grotere disk)

*nostalgie*
Eigenlijk wel
Voor §800 koop je geen grotere schijf dan voor §458 op dit moment. Beide 10TB (dus 250.000 keer groter).

Leuk wordt het als je de snelheden van die disks naast elkaar zet.

Een floppy van 1,4MB inlezen duurde iets meer dan een minuut. Nu is er niemand die langer dan 3 seconden blijft wachten tot een homepage (~ 1.4MB) geladen is..

[Reactie gewijzigd door djwice op 10 augustus 2016 22:22]

Titel spreekt over 10Gbit, artikel spreekt over 10GB.
Voor dit soort dingen hebben we een feedback knop.
Als ik moeite moet doen om iemand op een fout te wijzen dan houd ik wel m'n mond en laat ik iemand anders er 10 minuten later achterkomen. Snap niet dat je omslachtig forum topics moet aanmaken voor een foutcorrectie van 3 letters.

EDIT: Okay, je moet dus kennelijk het topic voor tikfoutjes hebben. Nog altijd teveel kliks om de moeite te nemen. Foutjes in de comments dumpen is sneller. Wil je niet dat ik het hier doe, verzin iets snellers. :+ anders houd ik mijn mond wel.

[Reactie gewijzigd door Cilph op 9 augustus 2016 19:18]

Mee eens. Er staan logischerwijs regelmatig fouten in, maar op het forum posten zijn teveel handelingen. Je moet bv een URL kopieren voor de post waar het over gaat. De feedback knop is goed maar er zijn legio sites waar je vervolgens enkel het foute en het goede kunt aangeven en 'klik' ok.

Wie weet iets voor de toekomst dev team!
Wie weet iets voor de toekomst dev team!
Uitstekend idee. Misschien een soort javascript editor (ckeditor fork) maken waarbij we de fout visueel kunnen selecteren.
En niet 1 groot topic voor typefouten, maar een apart typefouten topic per artikel, zodat je minder hoeft te zoeken of iemand anders het de fout voor het bewuste artikel al heeft gemeld. En je niet hoeft te vermelden welk artikel het betreft.

Of gewoon reageren, en bij de reactie een aparte optie hebt dat dit een typefout betreft. En dan de gebruikers de mogelijkheid geven deze posts wel of niet te tonen.
dan heb je binnen no time honderden topics wat nog onoverzichtelijker word, gezien lang niet alle berichten fouten bevatten.

De oplossing van de buren (.info) is dan wat prettiger, die doet het als een PM naar de auteur sturen.
Je hoeft geen topic aan te maken, er is al een topic voor typefoutjes zoals dit, gewoon klikken op feedback, posten en klaar.

EDIT: als je 2 x klikken, wat intypen en nog 1 x te klikken teveel vindt, tja, dan houdt het op.

[Reactie gewijzigd door TTLCrazy op 9 augustus 2016 19:27]

Anno 2016 is dit teveel. Bedoel dat moet beter kunnen toch voor een site als tweakers. Beetje houtje touwtje zo met een apart topic.
de buren (.info) is het een PM naar de auteur meen ik te herinneren (klik -> bericht schrijven -> verzenden)
Whoops, en gefikst :)
> sequentiŽle schrijfsnelheid van 10GB/s en een sequentiŽle leessnelheid van 3,6GB/s
Dit moet omgekeerd (cfr slides).
Goeie zaak, dit, dat is al de volgende grote naam in de opslagmarkt die dit soort high capacity drives gaat uitbrengen. Nu wellicht wel voor de servermarkt, maar lijkt me dat we dan (sneller dan verwacht) binnen afzienbare tijd ook NVME SSD's met hoge capaciteit voor de consumentenmarkt (en dus betaalbaar(der)) zullen zien verschijnen.
Ik wil weten wat dit doet in een pc. Niet voor gemaakt maar toch. Als SSD noob wil ik dat weten. Iemand?
in een iets oudere pc krijg je dan verplaatsing van je bottleneck. Want de rest van je hardware kan het toch waarschijnlijk niet aan om op die snelheden te werken.
Naja ^ dat dus. Waarschijnlijk is je ram niet snel genoeg om het bij te houden, of je CPU niet snel genoeg om die bewerkingen te doen.
En Dan heb ik nog niet mee gerekend dat de bottle neck ook prima in je PCI lanes kan zitten Omdat je sloten de snelheid niet kunnen behappen :)

(Goed voorbeeld is een AHCI Samsung SM951 in een Mac Pro 2009 t/m 2011. De SSD kan tot 2GB/s lezen en 1,5GB/s schrijven, Maar de pci slots zijn nog 2.0 dus kunnen max 1.5GB/s lezen en schrijven. Hier is dus de pci slot de bottleneck)
Uiteindelijk heb je altijd wel bottlenecks, hoe je het ook went of keert. De ene keer is het het flash zelf, SSD controllers, de andere keer tussenliggende componenten, software (firmware, drivers, OS) wat mogelijk niet optimaal is geschreven of compatibel is etc. Je pc is zo snel als het langzaamste onderdeel, maar dat wil niet zeggen dat je oneindig moet upgraden of juist vertikt om iets te kopen. De balans zoek je zelf.

Ook in een retedure pc of laten we meteen maar supercomputer noemen heb je bottlenecks. Het is slechts de vraag of de eisen realistisch zijn bij het budget, naast wat Łberhaupt technisch mogelijk is.

Ondanks dat de Mac Pro in je voorbeeld dan wel een bottleneck zal leveren, zal hij er toch tig sneller van worden. Waarschijnlijk doet hij dat ook al met een oude 2e hands SATA SSD van 3 tientjes bij buurman Henk op de hoek. Minder bottleneck en vrij goedkope boost. Uiteindelijk draait het voor het gros vaak toch voor een groot deel om de 4K snelheden, ipv de sequentiŽle waar vermoedelijk de grootste bottleneck op zal zitten. Dus je helemaal lam focussen op die sequentiŽle die dan geknepen wordt is sowieso een beetje onzinnig, tenzij je heel iets specifieks gaat doen waarvoor het nuttig is (bijv. continu grote bestanden overpompen, etc).
Ze zijn niet de eerste:

http://www8.hp.com/us/en/workstations/z-turbo-drive-g3.html

exact het zelfde, behalve dat hp in hun model samsung ssd's nvm gebruikt.

[Reactie gewijzigd door mysterieworld op 9 augustus 2016 21:57]

7,7TB en 2 TB is toch best een verschil. Dan heb ik nog niet de snelheden vergeleken.
net genoeg voor battlefield :/
De naam Nytro XP7200 vind ik slecht gekozen. Ik leg meteen het verband tussen een vaak gebruikte RPM van 7200 voor HDD's. Als ik dus alleen de naam zie staan in een hele rij met SSD's dan sla ik deze misschien wel over omdat ik denk dat het om een HDD gaat.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True