Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung brengt 'fail-proof' pci-e 4.0-ssd's voor datacenters uit

Samsung brengt PM1733- en PM1735-ssd's voor datacenters uit, die snelheden tot 8GB/s halen. De pci-e 4.0-ssd's zijn voorzien van softwarefuncties om defecte nandgeheugenchips uit te schakelen en om een ssd op te delen in maximaal 64 virtuele ssd's.

Volgens Samsung zorgt de 'fail-in-place'-technologie van de ssd's ervoor dat servers niet uitgeschakeld hoeven te worden en ssd's niet vervangen hoeven te worden als er een nandgeheugenchip defect raakt. Als voorbeeld noemt Samsung een ssd van 30,72TB die is opgebouwd uit 512 nandchips; als een daarvan kapot gaat, detecteert de software dat en wordt de data naar andere delen van de ssd verplaatst.

Samsung voorziet de ssd's ook van virtualisatietechnologie waarmee de ssd's onderverdeeld kunnen worden in maximaal 64 virtuele ssd's. De fabrikant stelt dat de ssd's daarmee sommige virtualisatietaken kunnen wegnemen die normaal door server-cpu's worden uitgevoerd, zoals sr-iov.

De pci-e 4.0-ssd's voor datacenters zijn er in twee series. De PM1733-uitvoeringen met een capaciteit tot 30,72TB en de PM1735-uitvoeringen met de langere levensduur. Beide series zijn beschikbaar in 2,5"-u2-formfactor en als hhhl-insteekkaart. De insteekkaarten halen hogere snelheden tot maximaal 8000MB/s. Wat de ssd's kosten, is niet bekend.

PM1733 PM1735
Capaciteit 2,5"-u2-uitvoeringen 0,96TB, 1,92TB, 3,84TB, 7,68TB, 15,36TB, 30,72TB 0,8TB, 1,6TB, 3,2TB, 6,4TB, 12,8TB
Capaciteit hhhl-uitvoeringen 1,92TB, 3,84TB, 7,68TB, 15,36TB 1,6TB, 3,2TB, 6,4TB, 12,8TB
Levensduur
(drive writes per day)
1 dwpd, 5 jaar 3 dwpd, 5 jaar
Sequentiële lees- en schrijfsnelheid 2,5": 6400MB/s & 3800MB/s
Hhhl: 8000MB/s & 3800MB/s

Door Julian Huijbregts

Nieuwsredacteur

19-09-2019 • 08:33

51 Linkedin Google+

Reacties (51)

Wijzig sortering
Maar wat nou als er meerdere chips defect raken? Op een gegeven moment kan hij zijn data nergens anders meer kwijt omdat alle reserve op zijn.

Een raid systeem is ook niet oneindig.
dit type enterprise opslag heeft over het algemeen meer chips aan boord dan nodig voor de volledige capaciteit. Wat er gebeurd als er niet voldoende reserve chips meer zijn is dat de controller de disk in read-only verandert zodat de data veilig naar een nieuw opslag medium gekopieerd kan worden.

Dit gebeurd bij verschillende frabrikanten op wisselende manieren, bijvoorbeeld Intel Enterprise SSDs doen dit op basis van de TBW (Terabytes Written of Total Bytes Written) waarde, zelfs als er nog voldoende reserve chips beschikbaar zijn.
Ik denk dat je dit kan zien als onderhoud. Je weet op voorhand wanneer het component gaat falen. Dus je vervangt het component tijdig.
Wanneer het gaat falen, dat heb je inderdaad goed geformuleerd. Normaalgesproken is een onderhoudsinterval gebaseerd op "wanneer een component een grotere kans op falen ontwikkelt" en wordt het precieze moment door de gebruiker bepaald. Nu is het dus "wanneer een component gegarandeerd stukgaat (planned obsolescence)" en de gebruiker voor het blok zet. Dat betekent dat intel dus een vrij ruime marge moet aanhouden om te zorgen dat het ding ook echt niet eerder stukgaat. Dat betekent ook dat die schijf misschien nog wel een jaar langer meekan zonder te falen.

[Reactie gewijzigd door mae-t.net op 19 september 2019 13:54]

Ik twijfel aan de noodzaak van een "vrij ruime marge". Die marge kan relatief krap zijn, om wiskundig redenen.

Het punt hier is dat elk Flash block last heeft van slijtage; ze hebben allemaal een "Megabytes Written" limiet. Daar merk je als gebruiker niet direct iets van omdat de schijf met wear levelling de slijtage effectief kan verdelen. Zoals je al vermoed zit door random oorzaken een variatie in het daarwerkelijk te bereiken maximum. Maar waar het verwachte Terabytes Written de som is van de verwachte Megabytes Written, geldt dat niet voor de variatie in de Terabytes Written. Die groeit typisch maar met de wortel uit het aantal blokken. Met een miljoen blokken is de totale variatie dus maar duizend keer groter - Gigabytes, in plaats van Terabytes. Intel hoeft dus maar een paar Gigabyte extra te alloceren voor 99% zekerheid dat de Terabytes Written spec ook gehaald wordt.
In sommige toepassingen wil je dat: vliegtuigonderdelen worden ook vervangen na zoveel km.
Heb je liever dat onderdelen falen terwijl je in de lucht hangt?

Nee, liever zekerheid dan onveilige situaties
Dus een vliegtuig dat na x uur stopt met vliegen (terwijl het midden in de lucht hangt) omdat er periodiek onderhoud nodig is? Liever niet. Er is een reden dat dat door de gebruiker wordt gedaan en niet door het vliegtuig zelf. Er wordt soms zelfs al gereboot tijdens de vlucht, veel erger moet en kan het niet worden.

Edit: voor wie het niet snapt, de vliegtuiganalogie gaat niet op. Daar is het net als bij auto's, onderhoud dat door de gebruiker periodiek wordt gedaan. De gebruiker bepaalt aan de hand van fabrieksvoorscgriften, maar ook aan de hand van instanties die de veiligheid in de gaten houden, wat er precies wanneer gebeurt. Keiharde deadlines waarna onderdelen door de fabrikant vanzelf uitgeschakeld worden, komen niet voor. Je bent als gebruiker de eigenaar, dus ook degene die uiteindelijk bepaalt wat er precies wanneer moet gebeuren.

[Reactie gewijzigd door mae-t.net op 19 september 2019 17:50]

Dus wel. Het gaat namelijk allemaal om betrouwbaarheid. De onderdelen gaat dan misschien niet uit, maar de fabrikant geeft er geen garantie meer op, wat net zo erg is: ze kunnen er dan niet met aansprakelijk voor gesteld worden.

In sommige industrieën werken ze dan ook met onderhouds contracten, waarbij de fabrikant zelf langskomt om onderdelen te onderhouden en te vervangen.

Dit is net zoiets: de fabrikant schakelt preventief onbetrouwbare onderdelen uitschakelt. De belangrijke data raakt dan niet verloren maar wordt overgeplaatst naar een betrouwbaar onderdeel.
Dat dit automatisch gebeurd is alleen maar een pré: kan je voorstellen als de fabrikant dit steeds handmatig zou moeten checken?

Nee, voor toepassingen waar data echt niet verloren mag gaan is dit ideaal.
daarom worden ze ook geleverd met een gegarandeerde DWPD over de gehele garantie periode. Je krijgt netjes via SMART of via de controller de status van de gehele opslag en weet dus tijdig of deze aan vervanging toe is. Het gaat bij dit soort opslag om de zekerheid en betrouwbaarheid binnen de specificaties en daar hoort tijdig vervangen bij.
En als jouw röntgen foto's daar opstaan en het ding gaat kapot terwijl je er niet van op de hoogte bent dat de levensduur op 't eind is ... ? Nee, het is juist uitermate goed om dit weten.
ja maar ho even...begrijpen we elkaar wel?
t gaat niet om een waarschuwing he...als ik het goed begrijp zet dat ding zich in read only stand terwijl er in principe nog niets aan de hand hoeft te zijn.
Kijk..dat het ding waarschuwt als ie achteruit gaat (te weinig reservechips beschikbaar), dat zou ik normaal vinden en dat is een teken dat er onderhoud moet komen, maar om gewoon te zeggen 'ik heb al ...TB geschreven en hoewel ik nog hardstikke goed ben, ben ik het nu zat, dus ik ga maar s in read only modus' vind ik wel wat ver gaan.
Ik denk dat er wel wat override-mogelijkheden zijn om de boel te veranderen naar hoe je het wil hebben als je Samsung even contacteert, maar en principe is in deze sector voorkomen toch echt wel beter dan genezen, en het team van Samsung zal vast en zeker marktonderzoek hebben gedaan voordat deze SSD de conceptfase had verlaten.
Ja dat is hardstikke normaal in deze sector hoor. Na een x aantal terabyte geschreven te hebben is de kans op falen steeds groter. Vandaar dus dit soort safe mode.
mja voor een datacenter kan ik me nog voorstellen dat wordt ingecalculeerd dat na x periode de hele bups vervangen wordt (ook economisch en technisch afgeschreven), maar ik blijf het raar vinden om dat op deze manier te regelen. Het probleem ook is dat TBW niks zegt over de daadwerkelijke conditie van de ssd. Het kan zijn dat ie allang voordat de threshold TBW wordt bereikt, kapot is, maar het kan ook zijn dat ie nog een lang leven zou hebben.
Het lijkt me aan de datacenter beheerder om te bepalen of hij daarvoor al vervangen wordt. Ik kan me voorstellend dat kritieke systemen vaker vervangen worden, maar dat zo'n schijf nog prima tot e.o.l. ingezet zou kunnen worden als cache schijf o.i.d.
Zoals Samsung dat oplost is netjes (aan de hand van defecte chips - een falende schijf wil je niet blijven gebruiken). Zoals intel het oplost is belachelijk (aan de hand van teringbytes written - als de schijf nog in perfecte conditie is). Het hele idee is dat je als gebruiker, zeker met dure spullen, zelf een strategie uitzet om ze optimaal te gebruiken. Een schijf die nog wel een jaartje meekan, vervang je als hij mission critical is maar gebruik je tot hij stuk is als er voldoende redundantie is.
Men modereert je omlaag, maar je hebt volledig gelijk. Dit is dezelfde manier waarop inktcartridges verkocht worden, ook met het argument dat het slecht is voor de koppen als je hem helemaal leegprint.

Aan de ene kant is het aantal TBW waarschijnlijk een redelijk nauwkeurige schatting maar als je je redundancy en backups goed op orde hebt, is het alsnog economischer om door te gaan tot hij begint te falen. Ik mag hopen dat intel dat als configuratie-optie aanbiedt want juist systeembeheerders op dat niveau willen graag alles zelf in de hand hebben.
Nee dat kan je niet zelf bepalen, als je te laat bent heb je namelijk data corruption en daar kom je misschien pas veel te laat (en na je retentieperiode) achter. De SSD controller gooit niet zo maar geheugen weg, het gooit pas iets weg wanneer het inmiddels "bewezen" onbetrouwbaar is gebleken. Het heeft dan al een paar keer gefaald. https://searchstorage.tec...ition/NAND-flash-wear-out
Verschillende leveranciers zoals bijvoorbeeld HP sturen je ook netjes een nieuwe drive wanneer je onder je contractperiode een predicted failure hebt. Better safe then sorry.

[Reactie gewijzigd door xSNAKEX op 19 september 2019 23:17]

liever dat dan dat het ding onverwacht de geest geeft en al mijn data meeneemt
Dat is een standaard eigenschap van NAND flash geheugen ...... Het is dan gewoon opgebruikt.
https://www.ontrack.com/b...long-do-ssds-really-last/
Maar wat als een bom op valt?

Je kan uiteraard niet alles afvangen en hij zal via SMART gewoon aangeven dat er chips defect zijn en hoeveel. Je hebt daarmee genoeg tijd om eventueel in te grijpen.

Ook zitten er op het 30TB model 512 chips, dan mogen er heel wat uitvallen. Mag ook wel wat zo'n 30TB SSD zal behoorlijk prijzig zijn en het zou erg zonde zijn hem bij 1 defecte chip gelijk af te moeten schrijven.

EDIT: @iMars Dat is dus niet waar, je hoeft ze niet te vervangen bij 1 defecte chip, dat is juist het hele pluspunt van deze SSD's. Zie ook het persbericht.

Ik ben zelf wel benieuwd of deze SSD's ook AES encryptie ondersteunen.

[Reactie gewijzigd door Navi op 19 september 2019 08:55]

Ik neem aan dat je sowieso raid hebt dus als 1 schijf slechte chips heeft zal de data op diezelfde schijf in ander chips opgeslagen worden. De data staat echter nog steeds op een andere schijf.
Wil het misgaan moeten 2 chips op 2 schijven met dezelfde data vrijwel tegelijk kapot gaan.

Daarnaast als een schijf te veel kapotte chips heeft moet deze gewoon vervangen worden.
Net als bij een raid, zodra er een chip defect gaat gelijk vervangen. Als er meerdere tegelijkertijd kapot gaan, ja dan heb je (net als bij raid) pech ;)

Maar er staat ook: 'fail-proof' (tussen quotes ;) )

[Reactie gewijzigd door iMars op 19 september 2019 08:48]

Er staat immers fail-proof, geen fool-proof. Want als je een opslagmedium met teveel errors niet vervangt, ben je gewoon een fool
Luchtbakker is van een latere generatie:
When you make something foolproof, they keep making better fools... ;-)
Daarom moet je al aan meer opslagcapaciteit gaan denken als je op 60% van de totale ruimte zit. Mocht er meer defect raken, dan blijf je veilig.
Klopt maar bij bijvoorbeeld btfrs ( als het af is en goed werkt zoals de bedoeling is) Is er ook nog een journal. Dat valt dan uit te lezen en kun je daarmee merendeel van je data terug halen als het goed is. Ook daarvan zijn bij btrfs meerdere kopieën (dat was de bedoeling in iedergeval) En je hebt snapshots met btrfs.
Zelfde als met schijven. Bij een predictive error ga je vervangen. Eerder niet.
Indrukwekkende specs. 30TB SSD in een kleine formfactor. Daarmee de huidige 16TB HDD's dus gepasseerd. De levensduur is ook niet mis. 1 DWPD gedurende 5 jaar op 30TB, 54750 TB in totaal, bijna 55 petabyte. Voor data dat niet permanent opgeslagen is een indrukwekkend getal. Ik ben benieuwd wanneer de HDD definitief vaarwel gezegd zal gaan worden.
Ik ben benieuwd wanneer de HDD definitief vaarwel gezegd zal gaan worden.
Als het betaalbaar wordt :)
Je bedoeld denk ik vooral goedkoper dan een HDD want het is al jaren betaalbaar...
Een Ferrari is ook al jaren betaalbaar volgens die definitie. Sterker nog, alles waarvoor je met geld kunt betalen, is betaalbaar. In de context is heus wel duidelijk wat hier wordt bedoeld.

[Reactie gewijzigd door mae-t.net op 19 september 2019 14:01]

Een Ferrari is ook al jaren betaalbaar volgens die definitie. Sterker nog, alles waarvoor je met geld kunt betalen, is betaalbaar. In de context is heus wel duidelijk wat hier wordt bedoeld.
Je bent blijkbaar niet op de hoogte van de betekenis van het woord betaalbaar, en nee dat slaat niet op alles wat te koop is maar wat 'jan modaal' zou kunnen betalen. En dat is wel een SSD maar geen (nieuwe) Ferrari.

https://nl.m.wiktionary.org/wiki/betaalbaar
Zoals ik schrijf: in de context is het heus wel duidelijk (ik houd de woordenboekdefinitie ook aan). Jij probeert mensen te vertellen dat iets betaalbaar is, dat zij misschien helemaal niet kunnen of willen betalen, dus ik verkeerde in de veronderstelling dat jij niet de woordenboekdefinitie van betaalbaar aanhield.
Vergelijk maar eens wat bv. 10 TB aan HDD versus SSD kost... dan weet je meteen of "jan modaal" het kan betalen.
het bewijs dat ssd's een grotere opslagcapaciteit kunnen bieden dan HDD's.
Samsung levert al 3 jaar SSDs aan datacentra's die meer data kunnen bevatten dan HDD's. De vorige serie kon ook al 30TB hebben en de serie daarvoor was 15,36TB en toen had je max 12 TB HDD's.

[Reactie gewijzigd door Hakker op 19 september 2019 10:48]

Nimbus heeft al anderhalf jaar een SSD van 100TB, Seagate heeft er eentje van 60TB. 50TB is er al ruim twee jaar.

https://nimbusdata.com/pr...e-platform/scalable-ssds/

Het issue met die dingen is dat de eerste generatie 30TB Samsung SSDs iets van $12k kost(e)...
Wat is die connector aan de rechterkant van de 2.5" versie?
Dit soort disks kun je vaak redundant aansluiten, zodat hij via 2 paden naar de controller(s) kan.
En dit is nogal belangrijk, want de meest gebruikelijke failure bij SSD's lijkt toch de controller te zijn. NAND zelf is nogal simpel. Het slijt wel, maar dat gaat per megabyte, en het resultaat van slijtage is dat het read-only wordt.

Nog veiliger zou een backup controller zijn, niet alleen een tweede pad. Dat hoeft geen snelle quad-core controller te zijn, want je wil 'm alleen gebruiken om een defecte SSD in read-only mode te plaatsen en de data één keer over te zetten naar een nieuwe SSD.
Let wel, de controller op de SSD faalt meestal. Daar helpen redundante aansluitingen naar de externe controller dus niet tegen.
Ja, maar dan wordt de software, een defecte controller en/of de data lines weer een probleem. Ik heb nog nooit zoveel data errors gezien als bij RAID en failover oplossingen. Het zal vast mogelijk zijn om een full proof systeem te maken maar tot nu toe heb ik vooral problemen gezien.

Je hebt meer kabels, meer hardware nodig en die moet ook nog eens correct werken, of je detecteerd misschien niet eens de problemen. Een RAID kaart had slechte connecties met SCSI kabels en een slechte PCIe compatibiliteit. Nou, je kan je lol op.

En een reguliere SSD zal ook al defecte flash blocks herkennen en ze read-only maken. Want meestal gaat alleen het schrijven fout. Dat een complete chip kapot gaat... geen idee hoe vaak dat voor komt.
Samsung says the also has dual port capabilities to support high-availability storage arrays applications.
Levensduur:
(drive writes per day) 1 dwpd, 5 jaar
Zie ik dit nou fout..., of...?
Dat is toch verschrikkelijk weinig?
Met één write, wordt toch bedoeld, alles 1* op de gehele drive? :?
Het wil zeggen dat je alle 30TB overschrijft, elke dag. Dat is dus 30TB in 24 uur, 86400 seconde. Omgerekend is dat ongeveer 350 MB/s. Dat tempo kan de disk 5 jaar lang non-stop volhouden.
gemiddelde consumenten drive heeft een TBW ratio van rond de 500:1 (bijvoorbeeld de 970 EVO 1TB heeft een TBW waarde van 600). De PM1733 30.72TB heeft een TBW ratio van 1825:1 met een TBW waarde van ‭56064‬. De PM1735 van 12.8TB heeft een TBW ratio van ‭5475:1 oftewel ‭70,080‬TBW
Oh er wordt schrijfsnelheid mee weergegeven...?
ik dacht eerder de levensduur van de NAND Chips.
Maar ik kan het fout hebben.....,
mijn reactie op wat je zei:
Het wil zeggen dat je alle 30TB overschrijft, elke dag. Dat is dus 30TB in 24 uur, 86400 seconde. Omgerekend is dat ongeveer 350 MB/s. Dat tempo kan de disk 5 jaar lang non-stop volhouden.
Nice! Nou Samsung, kom maar op met de 980PRO met MLC's op PCI-E4.0.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True