Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Seagate kondigt IronWolf-ssd's voor nas-systemen aan

Seagate kondigt de IronWolf 510-serie aan, bestaande uit m2-nvme-ssd's die met name bedoeld zijn voor nas-systemen. De maximale opslagcapaciteit van de Seagate IronWolf 510 bedraagt 1,92 terabyte.

De IronWolf 510-reeks bestaat uit ssd's met een pci-e 3.0 x4-interface met nvme 1.3 in een m2 2280-formfactor. De serie omvat modellen met een capaciteit van 240GB, 480GB, 960GB en 1,92TB. De ssd's zijn opgebouwd uit tlc-flashgeheugen en moeten zich onderscheiden met hun endurance, oftewel lange werking bij gebruik.

Zo adverteert Seagate met een total bytes written van 3500 geschreven terabytes voor de IronWolf 510 van 1,92TB. De 960GB-versie van de m2-ssd heeft een uithoudingsvermogen van 1750 terabytes written. De ssd's zijn volgens Seagate 'binnenkort beschikbaar'. Het bedrijf meldt voorlopig alleen dollarprijzen.

Specificaties Seagate IronWolf 510
Capaciteit 1,92TB 960GB 480GB 240GB
Sequentieel lezen 3150MB/s 3150MB/s 2650MB/s 2450MB/s
Sequentieel schrijven 850MB/s 1000MB/s 600MB/s 290MB/s
Willekeurig lezen 270.000iops 345.000iops 193.000iops 100.000iops
Willekeurig schrijven 25.000iops 28.000iops 20.000iops 12.000iops
Willekeurig lezen 290.000iops 380.000iops 199.000iops 100.000iops
Willekeurig schrijven 27.000iops 29.00iops 21.000iops 13.000iops
Totaal geschreven bytes
(in terabytes written)
3500tbw 1750tbw 875tbw 435tbw
Prijzen $540 $320 $170 $120

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Olaf van Miltenburg

Nieuwscoördinator

18-03-2020 • 08:58

92 Linkedin

Reacties (92)

Wijzig sortering
In zie dit soort nas ssd's niet aanslaan in de consumentenmarkt.

Grootste probleem is dat je de normale voordelen van ssd's alleen nuttig zijn in normale systemen. Massa opslag heeft geen bizarre acces times en doorvoersbelheden nodig. De enige praktische voordelen zijn het lagere stroomverbruik en het gebrek aan geluid.

Maar alleen daarvoor gaat niemand zoveel meer betalen.

Dit soort ssd's gaat pas interessant worden als ze per GB in de buurt komen van traditionele nas schijven.
Iets verder kijken dan pure opslag ;) Als je als videobewerker (4k60 bijv) opslag gebruikt heb je juist veel aan hoge doorvoer en lage latency :)
De bottleneck bij de meeste NAS systemen ligt in de connectie naar de NAS toe, niet in de NAS zelf.
Dus tenzij je een 10GB of beter Fiberchannel connecties hebt, geeft deze SSD je niet veel meer voor veel meer geld.

En dus kom je weer op het punt wat @duderuud aangeeft. Misschien dat het aanslaat door marketing maar je hebt er weinig aan.
Afgaande van de hoogste cijfertjes welke eigenlijk meer een indicatie van maximaal zijn dan kunnen we wellicht concluderen dat dat iets is wat een systeem vereist welke ook daadwerkelijk 3 GB per seconde kan verplaatsen over de kabel.

MAAR de snelheden van het wegschrijven van data komt welzeker dichter in de buurt van 2.5Gb/s ethernet. Welke gewoon over CAT 5 kan lopen. Zie: https://www.youtube.com/watch?v=iBbcgqnFdIw

De enige bottleneck die je dan hebt is dat je NAS een 2.5Gb kaartje/poort moet hebben of hoger en eveneens voor de computer. Vaak naast een normale poort voor conventioneel gebruik. En als ik het mag geloven van de Amerikanen, dan is het blijkbaar vrij betaalbaar: categorie: Netwerkadapters
Je hoort dit wel vaker maar vergeet niet dat snelheid niet de enige metric (meetwaarde) is waar we mee te maken hebben. Ik heb jarenlang Netapp en HP SAN's en nassen weggezet. Iedere disk workload is anders en heeft andere vereisten. Voor opslag praat je altijd over:
  • Opslag snelheid (transfer speed)
  • Toegang snelheid (Latency)
  • Input/Output per seconde (IOPS).
Hierbij zijn IOPS ook nog eens volledig afhankelijk van de blockgrote die je wegschrijft en het bestandssysteem dat het beheert (voorbeeld). Dus dat moet ook op elkaar worden afgesteld. Erg lastig op een NAS/SAN.
Latency bij DAS is altijd het laagste. Dat is gewoon natuurkunde (kort kabeltje, geen translate naar andere protocol). Latency is daarnaast wat je over het algemeen echt merkt. Het is de responsiviteit. Dat een file copy 2 seconden langer duurt maakt niets uit. Als je een folder opent met 100.000 1KB bestanden en je moet 10 seconden wachten, dat maakt wel uit. Een SAS kabeltje heeft daarnaast een snelheid van 6GB. Daar kun je ook met een 2.5 of 5 GB netwerk kabel (TCP/IP is tevens erg langzaam) niet tegenaan.

Ik ben dol op mooie storage apparatuur maar voor de snelheid koopt je het niet. Shared access, beheersbaarheid, redundancy en consolidatie zijn redenen om centrale opslag te overwegen :)

[Reactie gewijzigd door dycell op 18 maart 2020 17:19]

Met het sequentieel wegschrijven van bestanden zoek je het limiet van een 2.5Gb netwerk kaart op. Dat je hier dan met willekeurig wegschrijven en een enkele 100.000x1KB inhoudende folder een keertje een back-up wilt maken is daar gelaten; de thread ging uit van thuis mogelijkheid. Met een 2.5 Gb kom je dan nog het goedkoopst uit. Gegeven dat dit dan schikt voor de computers waar je zo'n 40 euro kaartje in steekt, gegeven dat er ruimte is, en anders een simpele adapter voor USB 3 in plaats van (ook ~40). Uitgaande van wellicht 2 TV plekken; 1 met een HTPC en de ander een simpele streamingbox van de provider o.i.d. 3 PCs: Desktop of laptop. En dan een boel WiFi gebruikers, kom ik snel tot de conclusie dat er in totaal 5 adapters moeten komen en een switch. En dan voorzie je ALLES van de mogelijkheid voor die snelheden. De laptops zie ik al gauw deze mogelijkheid niet gebruiken want: waarom? Deze zouden prima kunnen werken op normale snelheden, daarnaast zul je ze liever op WiFi gebruiken vanwege mobiliteit en mogelijkheid tot aansluiten van. Helaas zal het dan alsnog aankomen op een switch die ook daadwerkelijk de 2.5Gb kan leveren aan meerdere apparaten, en daar kan ik er zo 123 niet 1 van vinden. Ook mogelijk om (telkens) de kabel te switchen in de NAS naar gebruik, tevens is een (goedkoop) tussen systeem gebruiken welke meerdere netwerk kaarten heeft om zo zelf een soort switch te fabriceren ook een prima oplossing. Naar verwachting ben je dan alsnog goedkoper uit dan een van de huidige switches te kopen met minstens 4 2.5Gb poorten.

Het punt is dat je met al een 2.5Gb upgrade een makkelijke verrijking van je netwerkstructuur kan verwerkelijken. Dan mag je nog zo graag de hele dag back-ups willen maken en opnieuw overschrijven maar voor simpel thuis gebruik wat je lekker snel wilt houden (denk aan films of lokale streaming) is het een prima oplossing.
USB 3.1 en Thunderbolt 1 zijn al 10Gbps, Thunderbolt 3 al zelfs 40Gbps. Als je dit soort snelheden echt kan gebruiken, dan ga jij je vanzelf niet laten beperken door een simpel Gbit netwerklijntje hoor. Dan kijk je wel wat er verder al beschikbaar is.
Lees even waar NAS voor staat: https://nl.wikipedia.org/wiki/Network-attached_storage
USB en Thunderbolt zijn geen netwerk protocolen. Je praat dan over DAS storage en dan kun beter gewoon een normale SSD in je computer stoppen.
Ik weet waar NAS voor staat, ik bedoelde ermee dat er voldoende alternatieven beschikbaar zijn voor het gigabit lijntje die de meeste mensen thuis hebben, thuis kan je ook al 10Gbit netwerk hebben en misschien zelfs nog hoger.
Dat kan. Maar dat betekend dat je een NAS moet hebben die een 10 gbit kaart heeft. En die dingen zijn al duur. Of je moet zelf een NAS bouwen en daar een 10 gbit kaart in stoppen.

Vervolgens moet je in je eigen PC een 10 gbit kaart hebben. En dan moet je netwerkstructuur naar de NAS ook nog eens 10 gbit aankunnen. Dus dat is icl 10 gbit switches die niet goedkoop zijn. En eventueel ook nog een een 10 gbit router als je ook buitenshuis met die snelheid data wil pakken. en ook dat is vrij duur. En dan moet je natuurlijk ook nog CAT 6E kabel hebben. Als dat er al niet ligt mag je ook nog een nieuwe rol netwerkkabel kopen + RF-netwerkstekkers.

Dus je wil dat allemaal aanleggen, en er +/- €1000 voor uitgeven, om een 10 gbit NAS te bouwen? En voor wie of wat wil je dat in godsnaam doen? Het voordeel van een NAS is dat je op elk apparaat binnen je huis bij de data kan. Maar op PC's die geen 10 gbit kaart hebben en alle wifi apparaten (ipads, telefoons en de laptop van jullie mam) hebben er letterlijk niks aan. Dus je wil dan die snelheid voor 1, misschien 2 PC's met een 10 gbit kaart?

Dan kan je beter een DAS oplossing gebruiken. Een NVME op Thunderbolt, ja daar kan je deze SSD voor gebruiken. Maar op het netwerk kan je het vergeten.

[Reactie gewijzigd door rickboy333 op 18 maart 2020 16:29]

Een lange uitgebreide reactie met inderdaad precies wat ik bedoel, dank ;)
throughput is niet altijd gelijk aan snelheid. SQL databases hebben geen 40gbit bandbreedte nodig maar wel lage latency. . Draaiende schijven hebben altijd een hoge latency vergeleken met SSD. zeker bij random data kun je enkele tientallen ms verwachten.
Dat weet ik, zie ook mijn reactie hierboven over de verschillende metrics van storage. Ik heb zelf meerdere SQL omgevingen 'gefixed' door data van SAN te verplaatsen naar DAS.
Dan heb je een waardeloze SAN storage als je naar DAS verhuist maar dat is alleen maar mijn professionele opinie.
Een professionele opinie neemt alle factoren in acht. Iets dat jij niet doet, je oordeelt enkel zonder situatie of omstandigheden te kennen. Dat is pas waardeloos.

Niet iedere SQL database moet 'maar' op SAN storage staan. Er zijn diverse mogelijkheden om redundante, veilige en snelle SQL omgevingen te bouwen. Dat is mijn professionele opinie.
Ik zeg niet dat je SQL altijd op SAN moet zetten maar je kunt je afvragen hoe het komt dat je liever DAS hebt dan SAN. SAN storage kan meer disken tegelijkertijd aanspreken, tegen lagere latency en met meer flexibiliteit en efficniency. Overigens is dat blockbased storage en deze SSD's zijn voor file based storage.. Terugkomend op waarom je SSD hebt in een NAS. latency en cache zijn goede redeenen om dit in je nas te stoppen. We gaan langzaam naar een flash only storage wereld. Zo heeft EMC tegenwoordig een full flash NAS in de vorm van Isilon. Petabytes storage in de vorm van een NAS. Het is een kwestie van tijd dat we alleen maar flash gebruiken.
hoe het komt dat je liever DAS hebt dan SAN.
In een vergelijkbare situatie heeft DAS altijd lager latency dan SAN/NAS storage. Dat is gewoon natuurkunde. De afstand is kleiner en daarnaast hoeft er geen translatie plaats te vinden naar communicatie protocollen zoals TCP/IP. Alle vertaalslagen zorgen voor vertraging, hoe klein dan ook. Tevens is het minder complex (simpel is altijd beter), minder componenten en heeft het minder beheer nodig.

SAN storage kan meer disken tegelijkertijd aanspreken,
Ik weet niet wat voor opzet je aan denkt maar een een beetje server heeft al snel ruimte voor 24 schijven.

tegen lagere latency en met meer flexibiliteit en efficiency.
De latency is niet correct. Draai maar eens een simpele disk benchmark tegen een lokale schijf en tegen een NAS of SAN. En dan ga je natuurlijk zeggen dat een SAN met 100GB infiniband minder latency heeft maar die oplossing kost minimaal 10.000x zo veel. Flexibiliteit betaal je weer flink voor t.o.v. DAS en efficiently is meer verkooppraat dan praktijk. Als je het hebt over dedup, dat kan ook prima met Linux of Windows.

Overigens is dat blockbased storage en deze SSD's zijn voor file based storage..
Waarom denk je dat een storage device specifiek bedoelt is voor filestorage? Dit staat nergens vermeld.

Terugkomend op waarom je SSD hebt in een NAS. latency en cache zijn goede redeenen om dit in je nas te stoppen.
De bottleneck bij de meeste NAS systemen ligt in de connectie naar de NAS toe, niet in de NAS zelf.
Dus tenzij je een 10GB of Fibre Channel connecties hebt, geeft deze SSD je niet veel meer voor veel meer geld. Als je een SSD in je lokale computer zet blaas je de meeste SAN's en NAS-en uit het water.

Het is een kwestie van tijd dat we alleen maar flash gebruiken.
Dat weet ik wel. Maar dat wil niet zeggen dat het beter is in alle gevallen. Zeker in deze specifieke use case met een SSD in een NAS terwijl de consumenten markt nog 100% op 1GB netwerken draait achter hun freecom routertje en hun WD my-cloud-home NAS. Je betaald premium zonder ooit de effecten ervan te vernemen.
Het is hetzelfde als dat we alleen nog maar 4K Tv's verkopen terwijl er bijna geen native 4K uitzendingen zijn.
TCP op SAN? probeer SCSI of NVME eens. heeft maar 2% overhead en is een stuk sneller en efficienter.
SAN kan afhankelijk van de array sub 100 microseconde (minder dan 0,1 ms). Daarnaast kan de bandbreedte veel hoger zijn dan van een DAS. Dell EMC heeft array's die 350 Gigabyte per sec aan kunnen. Dat ga je nooit halen in je DAS.Daarnaast spreekt de array tot 2500 SSD's tegelijkertijd aan. Je maakt namelijk gebruik van Pools waar je data extends in plaatst. Het hele concept met een RAID met X aantal disken is dan niet meer van toepassing. Zelfs de goedkopere array's kunnen gemakkelijk grotere sets van disken tegelijkertijd gebruiken om je data te schrijven en op te halen.

Het artikel heeft de titel: Seagate kondigt IronWolf-ssd's voor nas-systemen aan. daarom dus NAS, geen blockbased storage. Daarom denk ik dat deze SSD voor NAS is.

bij Random IO op je NAS met draaiende schijven loopt de delay al snel op. Als bij 10 IO's elke keer de head verplaatst moet worden op een SATA disk heb je elke keer al gouw 10 ms te pakken per keer. 10x10 ms is een delay die je nooit zult zien op je netwerk. Je disken zijn dan wel degelijk je bottleneck. Wanneer je op je NAS de volledige bandbreedte gebruikt zul je hoogstwaarschijnlijk over sequentiële reads hebben. Maar niet alles is sequenteel. In mijn voorbeeld heb ik het over random IO waar juist de SSD vele malen beter is. delay is de grootste boosdoener van performance problemen op storage, niet bandbreedte. Applicaties zijn traag omdat er delay komt door draaiende disken. SQL gebruikt bijvoorbeeld vrijwel geen bandbreedte. Je kijkt nog steeds naar de bandbreedte en niet naar de delay die bij draaiende schijven hebt.

Ik zie er wel degelijk voordeel bij het gebruik van NAS met SSD. Jaren lang heeft storage achter gelegen met doorvoersnelheden en vooral latency door draaiende disks en nu met SSD is de groei die je bij CPU's ziet gelijk aan de snelheid van de storage.

[Reactie gewijzigd door wvdburgt op 20 maart 2020 11:23]

SAN kan afhankelijk van de array sub 100 microseconde (minder dan 0,1 ms).
Wauw, mijn lokale SSD heeft dus nog een betere latency dan een SAN?

Dell EMC heeft array's die 350 Gigabyte per sec aan kunnen.
Lekker relevant ook voor de thuisgebruiker waar deze discussie over gaat.
Je gaat alleen maar offtopic over SANs die tienduizenden euro's kosten en niets te maken hebben met deze discussie: Ik zie dit soort nas ssd's niet aanslaan in de consumentenmarkt.

Het artikel heeft de titel: Seagate kondigt IronWolf-ssd's voor nas-systemen aan. daarom dus NAS, geen blockbased storage. Daarom denk ik dat deze SSD voor NAS is.
:?
Net of een NAS geen block-based storage aan kan bieden?
Succes met je SSD's in je thuis NAS! Je staat duidelijk niet open voor andere meningen of zelfs simpele logica dat al die systemen voor overhead (en dus vertraging) zorgen. Ik reageer niet meer.
In je gelinkte review zet je professionele SSD's (server grade SSD's) naast elkaar. Dan is mijn vergelijking met Powermax ineens niet relevant? Ik denk overigens nog steeds dat SAN storage beter is ondanks de misschien iets hogere latency. Een Powermax schaalt tot een aantal petabyte. Dat gaat je niet lukken met een paar SSD's in een server. De Powermax is dan misschien vrij duur maar ook de nieuwe Unity XT's hebben NVME SSD's.

Vergeet ook niet dat Synology hun NAS systemen ook voor bedrijven aanbiedt. VMware via NFS kan best interessant zijn met SSD's op een Synology. Daarnaast zijn concurrent file streams handiger met een SSD dan met draaiende disken. Ook consumenten kennen steeds activere datastreams die ook random kunnen zijn. Latency loopt snel op met draaiende disken dus zelfs voor alleen caching zie ik veel voordelen om een SSD in te bouwen. Al is het alleen al om niet elke keer die disken te hoeven op te spinnen.Het is een kwestie van tijd dat men geen draaiende disken verkoopt. SSD's kunnen nu al groter zijn , sneller en ook de prijzen zakken snel.
Mmmm, ik weet het niet - ik zit al een tijdje te kijken naar SSDs als storage voor thuis. Via m'n werk mag ik een paar Dell Unity SANs beheren, bestaande uit alleen maar flash-storage, en ik kan je zeggen dat dit bizar prettig vlot is.

Hoewel koeling noodzakelijk blijft (Deze schijven kunnen behoorlijk warm worden), lijkt het mij juist heel interessant. Geen mechanische onderdelen, dus de wear & tear speelt een kleinere rol. En omdat er geen draaiende schijven in zitten, is het ook weer mogelijk om de schijven te laten hibernaten wanneer er geen gebruik van wordt gemaakt - iets wat bij mechanische schijven niet gewenst is ivm spin-up en de impact op de onderdelen.

Daarnaast zou het goed mogelijk moeten zijn om er een kleinere behuizing om heen te bouwen. Hoewel een Synology of QNap prebuilt nou niet bijzonder groot is, heeft het toch een plekje nodig.

Voor nu is het nadeel uiteraard de prijs, maar 10 jaar geleden was een 256 GB SSD nog €300,-, dus ik denk niet dat het zo lang duurt voordat de betaalbare 4/6/8 TBs in zicht zijn.
Je Dell SAN is heel wat anders dan een NAS. Als je low latency storage wilt hebben zul je andere connecties moeten maken dan je standaard 1GB thuisnetwerk.

Als je echt de meest low-latency en snelle storage wilt hebben dan is er 1 oplossing altijd de beste: DAS (Direct Attached Storage). Je weet wel, gewoon een SSDtje in je lokale computer. Blaast alle SAN en NAS oplossingen uit het vergelijkbare water.
Precies, zonder 10 Gbit/s netwerk thuis is dat een zinloze actie en DAS dus de betere oplossing. De meeste harde schijven doen meer dan 100 Mbyte/s en dus snel genoeg voor een NAS/SAN voor thuis. Je kunt dan nog wat caching in een SSD doen (he, daar komt ZFS om de hoek kijken :)) en dan heb je ook geen last meer van opstartende spindels of zoek acties.
Nouja, een enterprise san met solidstate storage over een infiniband link wil ook best. multi 40gbit glas links gaan best vlot. Maar da's allemaal ver van waar dit artikel over gaat. :)
En hoeveel doorsnee consumenten hebben een NAS staan? Juist, geen enkele, die werken met een externe USB schijf, een NAS dat je via het netwerk moet benaderen is te complex voor hun, wees al blij als ze hun wifi code kennen.
Wat jij consumenten noemt zijn dus in werkelijkheid power users.

Aan de basis is dit een m2 met long endurance wat vooral interessant is voor interne storage waar geen OS op draait. Simpel gezegd, als je een m2 wilt dat vooral veel reads & writes kan doen.

Vergeet ook niet dat er nog een markt tussen consumer gericht NAS en Enterprise NAS bestaat, ik neem aan dat niemand thuis een Synology 2U Rackstation heeft staan (uitzondering daar gelaten) maar dit is ook geen Enterprise NAS systeem, zit er ergens tussen voor de kleine ondernemingen die wel oren en nood hebben aan dit soort producten, het is daar namelijk niet ongewoon dat flash storage door zijn read/write endurance tresshold gaat wat een gigantisch probleem is, immers draait het ding in Raid wat wilt zeggen dat de read/writes overal min of meer gelijk lopen, het is je hele raid storage die er plots gezamenlijk door zit al heb je daar nu wel specifieke Raid oplossingen voor zoals Raid F1
NAs etc is ancient technology, ik heb 8 jaar geleden alles al de deur uit gedaan, cloud storage met 100mbit glas en background sync werkt veel beter en minder zorgen.
Net zoals EV (nog) geen oplossing is voor iedereen is de cloud (nog) geen oplossing voor iedereen.
Wat als je een NAS nodig hebt om virtuele machines op te plaatsen? Wat als je dagelijks backups wilt doen waar jou 100Mbit glas lijntje een week voor nodig heeft?
Cloud is leuk maar dat wilt zeggen dat je internetverbinding even snel moet zijn als je intern netwerk wat in mijn geval neerkomt op 10Gbit en dan heb ik er nog steken met aggregated links dus 10Gbit is niet genoeg. Het is gewoon nog altijd véél goedkoper je NAS lokaal te houden van het moment snelheid een issue word omdat glas op die snelheden belachelijk duur is. Ik spreek hier wel professioneel gezien, thuis heb ik zelfs nooit een NAS gehad, nooit de noodzaak aan gehad.

Dat neemt niet weg dat als een 100Mbit link genoeg is dat de cloud ideaal is.

[Reactie gewijzigd door sprankel op 18 maart 2020 16:10]

Ik zie dit voor mij helemaal gaan werken. Zoals ik het voor me zie: een ondiepe 1he behuizing met 24 stuks 1,92tb ironwolf ssd's. Een energie efficiente soc erop (denverton oid), 16gb ddr4l erin. 2x 10gb ethernet. Vier stille papst fans. Mooie industrial quality psu erin (efficiente psu, redundant) alles samen luttele tientallen wattjes in verbruik.

En als ik de loterij win bestel ik hem meteen :) (kom op, een mens moet wat te dromen hebben ;) )
Tbw per wat? Dag? Maand? Jaar?
Na 3500 terabyte is hij versleten. Dus na een dikke 1800X overschrijven, is de disk op.
Edit:
"versleten" is een beetje kort door de bocht, het is wat de fabrikant garandeert wat de schijf aan kan.

[Reactie gewijzigd door Raymond op 18 maart 2020 09:16]

Nee, hij zou minimaal 3500TB moeten kunnen ontvangen als schrijfactie, dat is wat de fabrikant garandeerd. In de praktijk wordt vaak een veelvoud gehaald. En maar goed ook. Want dit cijfer houdt geen rekening met de zogenaamde Write Amplification Factor omdat die afhankelijk is van hoe exact je data wegschrijft. Gemiddeld zit je daar al snel op 2,5 a 3x waardoor je 3500TB al weer daalt naar onder de 1500TB.
Ik kan me herinneren dat de Intel X25-M destijds nog maar op een amplication factor van 1.1 zat, dus het lijkt me sterk dat we nu ineens een factor 2 write amplification zouden moeten zien. De SSD's zijn veel groter geworden waardoor er veel ruimte is voor garbage collection en wear levelling zonder verhoogde WA. Het zou me echt verbazen als je boven de 1.1 uitkomt dezer dagen.
Write amplification van "2,5 a 3x" lijkt mij ook niet logisch voor enterprice TLC. De IOPS zijn dermate laag dat je er vanuit kan gaan dat hij geen gebruik maakt van "SLC-write-caching" zoals consumenten schijfjes, maar dat hij vanuit zijn dram buffer naar het TLC schrijft.
Neem aan dat de module dan delen data die bijna nooit gewijzigd worden regelmatig van plaats laat veranderen om zo gelijkmatige slijtage te krijgen van de gehele module.
Maakt inderdaad deel uit van wat men wear leveling noemt. SSDs schrijven data in blokken. Als je dus 1 bit wil aanpassen, dan moet de SSD de volledige blok opnieuw schrijven. Maar dat blok wordt niet overschreven maar wordt ergens anders weggeschreven. En op regelmatige intervallen gebeurd er dan wear leveling en garbage collection waarbij de meest statische data wordt verplaatst naar locaties die al vaak beschreven zijn terwijl die vrijgekomen locaties dan weer gebruikt gaan worden voor meer veranderdlijke data.
Als je dus 1 bit wil aanpassen, dan moet de SSD de volledige blok opnieuw schrijven. Maar dat blok wordt niet overschreven maar wordt ergens anders weggeschreven.
Dat is niet helemaal waar, je schrijft weg per page en wist per block. Een gewist block kun je dus per page weer vol schrijven. Een veranderde bit betekent het remappen en ergens anders wegschrijven van 1 page.
Per levensduur van de module.
Levensduur, dus je moet minimaal dat geschreven kunnen hebben voordat de SSD problemen door slijtage mag gaan vertonen. Onafhankelijk van of je dat dus binnen een dag schrijft, of er 10 jaar over doet
Terabytes Written
Terabytes written per levensduur van de schijf.
Tbw per wat? Dag? Maand? Jaar?
Terabytes Written Is het weggeschreven aantal terabytes Wat een fabrikant garandeert binnen de garantie periode. Dus of je er nou 1 of 10 jaar over doet, de fabrikant geeft kwa schrijven een bepaalde levenaduur.

Het is een indicatie. Er zijn meer factoren afhankelijk. Maar weet jij binnen de garantieperiode meeR terabytes Dan opgegeven dan heb je geen garantie meer.

[Reactie gewijzigd door Luchtbakker op 18 maart 2020 13:24]

Ik begrijp het wel, maar vind ze echt heel erg duur.
Daarnaast lijkt het me qua hitte niet bevorderlijk?
Zelf zou ik eerder gaan voor zoiets, maar dan de SATA varianten. Nooit naar gekeken of dat er al is, maar mocht ik ooit over gaan, dan zou dat wellicht een keuze kunnen worden.
Denk dat ook de meeste voor hoeveelheid opslag gaan en niet de snelheid.
SATA zal je steeds minder vinden omdat die bus gewoon te traag is voor hedendaagse SSDs. En eventuele hitte problemen kunnen aangepakt worden met heatsinks.
Is die bus ook te traag voor een NAS ?
Kan iemand mij uitleggen wat het voordeel is van een hele snelle SSD in een NAS terwijl we nog steeds 1Gbit/s of nog niet goedkoop te krijgen 10Gbit/s netwerk hebben.
Meerdere gebruikers (processen) die zowel lezen als schrijven naar een volume. In dat scenario gaat een HDD hard onderuit qua doorvoer van data, maar bij een SSD is die daling een stuk minder, omdat daar veel minder tijd nodig is om tussen verschillende blokken te schakelen.
amigob2 had het niet over het voordeel van een SSD in een NAS tov een harddisk, maar een NVMe SSD tov een SATA SSD.
6Gbit/s SATA bus, waarbij je dus een 10Gbit/s netwerk nodig hebt om theoretisch die bus te overladen in je NAS.

Zelfs in een desktop levert een NVMe SSD weinig voordeel op tov een SATA SSD. Wel duidelijk te zien als je synthetische benchmarks draait natuurlijk.
Voordeel van een nvme SSD TOV een data SSD ga je pas zien bij heel hoge aantallen gebruikers cq processen, op je nas thuis idd geen voordeel te halen met een nvme SSD in de nas.
Het voordeel van een SSD is het grootst bij latency. Heel veel kleine bestandjes lezen gaat op een SSD zoveel sneller. Daarbij haal je zelfs met een SSD niet de Gbit.
Ben het verder met je eens dat de 10gbit netwerken maar eens wat betaalbaarder mogen worden :+
Daarbij haal je zelfs met een SSD niet de Gbit.
Tikfoutje?
Zelfs mijn WD RED 4TB schijf, die op 5400rpm draait, krijgt met gemak de 1Gbps verbinding dicht. Ik zou nog een kleine winst kunnen boeken op een 2.5Gbps netwerk.
https://www.storagereview..._main_128k_throughput.png

Deze SSD's kunnen in theorie 25Gbps aan en trekken dus met het allergrootste gemak een 10Gbps netwerk dicht.
Voorbeeld: 1 NAS met meerdere werkstations met veel data. Redelijk goedkoop te realiseren. Mellanox sfp+ kaarten + de mikrotik CSS305 10Gb switch.
ik heb een 2-tal wd's met msata in mijn nas. mijn nas ondersteunt geen nmve, maar wel msata. hierdoor heb ik in mijn qnap de keus uit cache of tiering. wat betreft latency is dat lekker, je hoeft niet te wachten tot de spindels op gang zijn. wat betreft warmte gaat dat al een maand of 3 a 4 goed.
Qua warmte werken ssd's zelfs het beste geloof ik rond de 40 graden.
kosten zitten mogelijk in de mogelijke zwaardere belastbaarheid kwa totale tb geschreven e.d.?
Denk dat ook de meeste voor hoeveelheid opslag gaan en niet de snelheid.
Hangt van het doel af. Als je ze als cache gebruikt is de snelheid volgens mij meer van belang dan de ruimte.
Misschien heb ik het mis en denk ik te kort door de bocht... maar zelfs als je een NAS hebt met een 10GBe aansluiting, waardoor de theoretische maximale netwerksnelheid ongeveer 1250MB/s is richting/van de NAS én de NAS een of meerdere M2-sloten heeft... Wat is de zin om dan nu dure M2-SSD's in te stoppen waarvan weliswaar met snelheden van boven de 2000MB/s gelezen kan worden, maar nooit door de netwerk-bandbreedte kan worden geleverd? (De theoretische schrijfsnelheden van de SSD's passen overigens wel binnen de bandbreedte van de 10GB bus.)
Throughput is niet alleen afhankelijk van schrijfsnelheid, maar ook van iops.

Zo kan je op een spinning disk tegenwoordig best 200MB/s aan throughput hebben, maar alleen met 1 enkele "thread" en met een optimale blocksize. Zo'n spinning disk zal namelijk nooit veel meer dan 100-150 iops per disk doen.

Een nvme zoals hier genoemd heeft vele malen hogere iops, waardoor de "sustained" read/write ook vele malen hoger zal blijven. Anders gezegd, zodra je met meerdere processen of gebruikers tegelijk aan de gang gaat op zo'n "schijf" blijft de throughput ook vele malen hoger.
Dat begrijp ik wel allemaal. Maar dat was niet helemaal de strekking van mijn verhaal. Natuurlijk is het mooi wanneer je de theoretische netwerk-throughput perfect uit nut. Dat verandert echter niks aan de maximale throughput, dat nog steeds vér onder de theoretische throughput van de disk(s) ligt. En als je een goedkopere maar absoluut niet slechte NAS zoals de Asustor AS4004T zou aanschaffen, is de throughput zelfs nóg lager.
Veel, maar niet alle IO verlaat de NAS. Denk bijvoorbeeld aan het maken van backups of snapshots binnen het ecosysteem van de NAS. Of bijvoorbeeld het uitpakken van grote gecomprimeerde bestanden, het verplaatsen van bestanden. Veel NAS'en kunnen tegenwoordig ook allerlei "apps" draaien. Tot slot is niet iedere NAS een synology, er zijn ook mensen die zelfbouw of unraid of whatever gebruiken als NAS functionaliteit.

Daarnaast zijn er nog andere voordelen die niets met snelheid te maken hebben: stroomverbruik en warmte ontwikkeling van SSD/nvme is vele malen lager. Het maakt minder geluid. Uiteindelijk wil een fabrikant wel een betrouwbaar product en kiest daarom wellicht voor chips die toevallig ook behoorlijk snel zijn.

De hier besproken ironwolf ssd's zijn overigens niet uitgesproken snel, zeker niet qua write.

Tot slot moet je er nog wel rekening mee houden dat er ook al NAS'en op de markt komen met meerdere 10Gbit interfaces die je bijvoorbeeld kan bonden. Dan kom je wel in de buurt van de throughput qua disk en netwerk.

[Reactie gewijzigd door EnigmA-X op 18 maart 2020 10:57]

VMs dockers parrenr/unrarren etc

Een NAS is meer als cold storage tegenwoordig (voor sommigen).
M.2 is niet in principe duurder dan een regulier 2.5/3.5" SSD, het is maar een formfactor. Maar het voordeel is dat het een heule kleine formfactor is, waardoor je deze mooi kunt wegwerken in een kleine ruimte.
Wat is het nut van een Ferrari als je maar 100km/u mag op de snelweg?
Tja... daar verschillen de meningen over. De ferrari betekent voor een boel mensen prestige of status. Wanneer een mooie wagen (kwestie van smaak) langsrijdt, kijken menigen ernaar. Op een of andere manier kan ik daar wel inkomen, hoewel ik persoonlijk elke dure wagen die minder praktisch is voor woonwerk-verkeer, familie-doeleinden en dergelijke niet zou aanschaffen. Ik vind het nu al zonde om mijn wagen van 30000 Euro dagelijks voor ongeveer 20 uur in een etmaal geparkeerd te hebben staan. Op het werk, parkeergarage of voor de deur thuis. Maar ja, het lijkt me in het begin uiteraard wel leuk om puur voor het rijden in een sportwagen te stappen.
Een privé NAS staat echter weggestopt ergens, in een meterkast, onder een buro, bedenk maar. Ik heb zelden iemand gezien met een netwerk-setup die puur voor estetische show in de huiskamer of zo staat zodat iedereen van de aanblik kan genieten. :) Hoewel ik vroeger wel een paar keer voor LAN-parties ben geweest bij een vriend/collega die wel in het hele huis servertjes, storageboxen, repeaters en routers had staan. Vond ik niet echt mooi... nee. :D

[Reactie gewijzigd door conces op 18 maart 2020 10:00]

Zijn er eigenlijk al NAS-behuizingen (A lá de Synology's en QNaps) waar M.2 modules worden gebruikt als opslag? Dus niet alleen voor het OS of als parity.

Uiteraard kun je zelf een systeem hiermee bouwen (Uitbreidingskaartje in een PCIe-slot stoppen en klaar).
Datzelfde zat ik me ook al af te vragen. Dat gaat een hele nieuwe markt open gooien. Kan me zo voorstellen dat dit ook gevolgen heeft voor het verbruik en dergelijke.
Ik heb Qnap TS-673 waarin twee m2-SSD in kunnen waarop ik gewoon opslag heb, de QNAP beschouwt het gewoon als een opslagpool.
Daarnaast heeft deze nas 2x PCIe 3.0 4x slot waarin ook nog eens uitbreidingskaart kan met NVME-SSD's voor opslag.
Lijkt mij dat dit soort NAS SSD's vooral bedoeld zijn voor cache mogelijkheden:

"SSD caches can achieve better performance on Synology NAS by leveraging the advantages of SSDs. By storing frequently accessed data on an SSD cache, you can reduce I/O latency and improve system performance of your Synology NAS."

Ik tel 33 Synology's welke een dergelijk type ondersteunen, waarvan 16 stuks geen 19" rack varianten zijn en de meeste werken met behulp van een M.2 SSD adapter card:

https://www.synology.com/en-global/knowledgebase/DSM/tutorial/Storage/Which_Synology_NAS_models_support_SSD_cache

[Reactie gewijzigd door r132546e op 18 maart 2020 10:44]

Met PCI-e 4 ondersteuning breder beschikbaar, waarom ondersteunen ze dat niet? Of is toch het verschil te verwaarlozen?
Dan moet er dus een chipset beschikbaar zijn voor NAS gebruik die PCI express 4 heeft. Daar zal het probleem wel zitten gok ik. De meeste NASsen gebruiken simpele Celeron/Pentium CPU's en die hebben geen gen 4 aan boord.
AMD Ryzen werkt prima als een SOC op blade-achtige servers. Kom maar op! Alhoewel, 70 euro...
blade servers hebben vaak actieve koeling, in een NAS ben je erg beperkt qua koeling. Desktop CPU's (waar de Ryzen ook onder valt) hebben weinig te zoeken in (thuis)NASsen. Of je moet richting de 19 inch rack oplossingen kijken.
En als ie underclocked draait? Dan is het toch meer als een laptop-processor. Bovendien draait steeds meer op een NAS. En als je die 10 GB wilt vullen...
Ah tuurlijk. Al is dit weer een kip en ei verhaal. Zonder SSD's geen chipset en zonder chipset geen SSD's
Klopt, en de gen 4 chipsets hebben nu ook nog actieve koeling nodig, iets wat je niet wilt hebben in een NAS :) Dus ze moeten ook nog een zuinige versie ontwikkelen van de chipset voordat ie toegepast kan gaan worden.
Ik neem aan omdat het geen verschil in snelheid zal opleveren. Bekijk het zo even, je hebt een wagen die maximaal 160km/h kan rijden. Maakt het dan uit of de weg 200 danwel 300km/h toestaat?
Ben ik de enige die niet enthousiast is over Seagate? Al hun spul op opslag gebied is bij mij kapot gegaan zoals hun HDD's of doet niet wat het belooft zoals hun SSHD. Ik vind hun ook erg duur.

Merken als Samsung, WD en Crucial steken in mijn ogen ver boven de concurrentie uit. Het is natuurlijk altijd een beetje geluk hebben, maar sommige schijven en SSD's/NVMe's heb ik al 5 jaar zonder problemen draaien, terwijl ik dus bij de rest wel allemaal dingen als corruptie en/of failures heb mogen meemaken.

Ik twijfel dan ook echt aan hun claims dat deze NVMe's echt lang meegaan. Het is wel een goede ontwikkeling als we eigenlijk deze type kunnen gebruiken als enig opslagmedium, maar vooralsnog zijn ze gewoonweg niet betaalbaar als je naar TB's gaat.
Welke serie gebruik je dan van seagate?
Seagate maakt echt van alles en onder meerdere namen. Ik heb zowel hun OEM-spul, IronWolf, Barracuda en FireCuda gehad, allemaal gingen ze binnen een hele korte tijd kapot. Ik ben hierin overigens niet de enige, de reviews liegen er meestal niet om.
Welke reviews ken jij waarin het IronWolf spul er slecht uit komt?

De reviews kijken meestal alleen naar hun budget spul.
Niet te vergeten Linus van LTT vind seagate {ironwolf/exos} een geweldig merk, en als iemand hardware van hun weet te slopen is hij het wel.

en er is nog geen episode gekomen van "i Finally switched sides WD red pro is ......................"

[Reactie gewijzigd door darknessblade op 18 maart 2020 11:51]

Jammer, heb alleen maar Seagate schijven en meen me te herinneren in het verre verleden dat er 1 is overleden. Dus ik ben wel een tevreden gebruiker.
Ik ook juist tevreden met Seagate. Met andere schijven veel meer problemen gehad. Ook wel eens met één Seagate maar dat zag ik aankomen (geluid) dus de data was goed te redden. Gebruik daardoor nu al meer dan 20 jaar Seagate disks.
Zijn er al NAS-sen op de markt die voorzien in pci-e? Ik kon het zo snel niet vinden in de Pricewatch, maar mogelijk had ik even iets verder moeten zoek dan mijn neus lang is?
Ik heb Qnap TS-673 waarin twee m2-SSD in kunnen waarop ik gewoon opslag heb, de QNAP beschouwt het gewoon als een opslagpool.
Daarnaast heeft deze nas 2x PCIe 3.0 4x slot waarin ook nog eens uitbreidingskaarten met NVME-SSD's voor opslag kunnen.
800USD, 4GB, 2 M2 SSD, snel bakkie 8-)
Video/audiobewerking?

[Reactie gewijzigd door OxWax op 18 maart 2020 10:46]

Nee eigenlijk gewoon opslag, wel heb ik foto's op de SSD's zoekt snel.
Binnenkort komt er 10GBE nic en mijn PC ook, het idee is dan geen lokale opslag meer in mijn PC. Waarbij de snelheid van deze nas voldoende is voor de komende jaren.
Mijn vorige NAS Readynas NV+ heb ik 10 jaar mee gedaan, dus wat dat betreft niet zo duur want ik was van plan een Netgear 526x te kopen die is nog duurder. Netgear readynas heb super goede ervaringen mee zeer lange ondersteuning van apparaten en gebouw als een tank.
Het is de Qnap geworden vanwege die iets lagere prijs tov Netgear en de sata M2 sloten, helaas moet ik daardoor wel 10Gbe missen.
O, nice!
Dank voor de reactie. Ik ga maar eens rondneuzen bij QNAP.
Best prijzig voor TLC. Daarnaast zie ik momenteel de meerwaarde niet voor ssd sata 6gbit +

Zal de de wet van de remmende voorsprong zijn :p
Best prijzig voor TLC. Daarnaast zie ik momenteel de meerwaarde niet voor ssd sata 6gbit +

Zal de de wet van de remmende voorsprong zijn :p
er zijn nog andere mensen buiten de grot, Plato ;)
Gek, dat de 1,92TB langzamer schrijft dan de 960GB ?

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True