Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Toshiba kondigt 16TB-hdd aan

Toshiba start eind deze maand met de levering van samples van een 16TB-hdd in zijn MG08-serie. De harde schijf heeft negen platters in zijn met helium gevulde behuizing. Ook Western Digital brengt dit jaar 16TB-hdd's uit, maar ook een 18TB-model.

De 16TB MG08 maakt nog gewoon gebruik van conventional magnetic recording, of cmr. Toshiba komt tot de opslaghoeveelheid door negen platters te plaatsen in een standaard 3,5"-behuizing die met helium is gevuld. De hdd doet zijn werk op 7200rpm, heeft een cachebuffer van 512MB en een geclaimde mttf van 2,5 miljoen uur. Toshiba richt zich met het product op de enterprisemarkt. Wanneer de MG08 op grote schaal geleverd gaat worden, wat de prijzen zijn en wanneer consumentenmodellen volgen, is niet bekend. In december vorig jaar begon de fabrikant met de levering van een 14TB-hdd voor consumenten.

Vorige week maakte concurrent Western Digital al bekend samples van 16TB-schijven te leveren. Die fabrikant maakt voor de modellen gebruik van microwave assisted magnetic recording, ofwel mamr. Deze techniek gebruikt microgolven die worden gegenereerd door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt. Dat levert een klein plaatselijk elektromagnetisch veld op waarmee gegevens met een veel hogere dichtheid kunnen worden weggeschreven.

Nog dit jaar moeten ook 18TB-schijven van Western Digital uitkomen. De fabrikant werkt eraan om twee actuators te integreren om de set schrijfkoppen aan te sturen voor hogere snelheden. De fabrikant zou dat vanaf 2020 willen doen, als er harde schijven van 20TB moeten verschijnen, maakte het bedrijf bekend op een investeerdersbijeenkomst.

Afbeeldingen afkomstig van WD, via AnandTech

Door Olaf van Miltenburg

Nieuwscoördinator

08-01-2019 • 15:40

110 Linkedin Google+

Reacties (110)

Wijzig sortering
Voor storage in datacenters of voor bedrijven is dit natuurlijk top. De consumenten modellen vind ik een beetje overdreven. Ok, er zijn zat mensen met een homelab, ik ben er 1 van, maar de meeste hebben of 1) geen 16TB OF 2) willen gen 16TB op 1 schijf, want als er 1 kapot gaat wil je backup redundantie hebben dmv raid. De mensen die dus zo'n storage bak hebben, zullen dan al snel voor minstens raid 5 ZFS gaan, dus minimaal 3 schijven. Dan zit je op ongeveer bruto 48TB en netto 32TB.
Nu ken ik zat mensen met een Plex server, echter maar weinig met zo veel storage. Qua prijs zal het ook niet heel aantrekkelijk zijn 3 16TB schijven in je server te stoppen.

Ach, wellicht is het leuk om toekomst bestendig te zijn voor de 4k films. Wel bedenk ik mij dat het handig is voor film editors, prive of professioneel. Youtubers hebben hier wellicht ook baat bij. Zulke opnames en bewerkte video's kunnen flink wat ruimte in beslag nemen.

Edit: ongewenst nog wel? Wat voor zure pruimen zitten hier dat een redelijk normale mening en zicht op een consumentenvariant van een product gelijk ongewenst is. Het is ontopic en ik zeik het product niet af. Rare mensen hier...?

edit 2: raid5

Edit 3: Voor iedereen die dacht dat ik met Backup een daadwerkelijke backup bedoelde, nee. Ik doelde op redundantie maar heb het verkeerd geformuleerd, mijn fout en aangepast :)

[Reactie gewijzigd door Qlusivenl op 9 januari 2019 08:35]

want als er 1 kapot gaat wil je een backup hebben in raid
Oef :X De gedachte dat RAID een backup is blijft een hardnekkig iets.

https://www.google.nl/search?q=raid+is+not+a+backup

Beter ga je gewoon voor die ene megaschijf van 16TB en gebruik je Carbonite of vergelijkbaar voor backup.

RAID is alleen maar voor uptime garantie. Shift delete of een blikseminslag gaat je niet redden daarmee.

[Reactie gewijzigd door Engineer op 9 januari 2019 01:40]

Geen wonder, want volgens mij is die gedachte gewoon correct, alleen de definitie van wat backup is verschilt.
In gewone mensentaal is RAID een backup, alleen computerlui stellen allerlei aanvullende voorwaarden om dat woord te mogen gebruiken, dat is ook iets hardnekkigs.
Zo is er ook nog de veel gehoorde opmerking dat 1 backup geen backup is. Ja, mooie gevatte oneliner, maar dat is een contradictio in terminis waar het niet duidelijker van wordt (al snap ikzelf wel wat er bedoeld wordt).

Maar wat de definitie ook is, RAID alleen is idd niet _voldoende_ backup wegens idd oa user error.

Om de zoveel jaar verliest onze NAS n schijf waarop dan alles kwijt is, dat is een zekerheid.
Dan kan ik op mn dooie gemak n nieuwe schijf regelen, uurtje klussen inplannen wanneer ik wil, en klaar (en idd, in de tussentijd gewoon doorwerken).
Om de zoveel jaar 16TB moeten herstellen vanaf internet en daarvoor moeten betalen, of zelfs USB, en dat moeten doen ook als het mss helemaal niet uitkomt, is vergeleken daarmee wel n hele kluif.

En los daarvan, data herstellen die door een andere oorzaak dan waar RAID tegen beschermt zijn verdwenen, heb ik maar zelden nodig. Maar daar hebben we andere backups voor :)
16TB downloaden met 12.5MB/s duurt +/- 15 uur. Een RAID array herstellen van dat formaat ben je meer dan 2 a 3 dagen mee bezig, met het risico dat je andere disk door de belasting van het herstellen ook ineens heengaat. En een NAS + meervoud aan 16TB disks kost ook meerdere Carbonite abonnementjaren aan geld.

Edit: De 15 uur moet 15 dagen zijn inderdaad. Ik zal teveel wijn op gehad hebben :z ;)

[Reactie gewijzigd door Engineer op 13 januari 2019 11:59]

16TB met 12,5MB/s duurt 15 dagen. Mijn ervaring met RAID1 rebuild is dat het vrij dicht bij maximum disk snelheid kan gaan, dus dat is >10x zo snel ofzo (al zijn de defaults in Linux lager).

Het risico dat tijdens rebuild de werkende disk stukgaat, is heus niet zo groot.
Groot genoeg dat je er rekening mee moet houden als je RAID hebt vanwege uptime, maar in dit voorbeeld is downtime dus geen ramp (als enkele disk die stukgaat ook acceptabel is).

Maar ja het is wel waar dat je dan alsnog kosten hebt voor de extra backup, en uiteraard de extra disk.
Mijn "cloud" backup gaat met 1MB/s naar n computer die schijfruimte over heeft. Retetraag, maar dat geeft niet want dat is alleen voor als de rest faalt (nog nooit voorgekomen) of user error (enkel bestandje hier en daar), en goedkoop. Vandaar dat ik voor elke paar jaar sneller herstel igv enkele disk, extra kosten voorzag voor Carbonite (en snellere verbinding). Maar dat geldt voor mij persoonlijk dus niet helemaal eerlijk :)

[Reactie gewijzigd door N8w8 op 13 januari 2019 08:46]

Ik heb het verkeerd geformuleerd. Uiteraard doelde ik niet op een backup, maar een backup schijf, redundantie. Dat als jij 1 16TB schijf koopt je lekker veel opslag hebt, maar alstie kapot is ben je zeg maar 16TB kwijt. Redundantie is een beter woord en dat had ik moeten gebruiken.
Je hebt m’n zin over Carbonite overgeslagen ;)
Het is geen backup nee maar een backup zonder raid is ook geen backup.
Een enkele schijf of dvd/ USB is de meest waardeloze vorm van opslag als je zeker wil zijn dat je data bewaard wordt. Wil je het goed doen moet je meerdere kopieën maken en hopen dat er een nog werkt als je het nodig heb.
Als je echter parity in de mix gooit kan je zelfs een "defecte" raid nieuw leven in blazen.
Beetje hetzelfde als "geld maakt niet gelukkig" behalve als je geen cent heb.
Een backup zonder RAID is een prima backup voor de thuisgebruiker. Je hebt alleen geen 100% uptime.
Je heb zeker nooit een USB stick of externe hdd/ssd gehad die spontaan na een lange offline periode niet meer wil werken.
Je kan het gebruiken als backup maar feit blijft dat je gewoon aan het gokken ben met een lage kans op succes en enige methode om dat kans te verhogen is meerdere kopieën maken maar wie gaat er nou elke backup in 3 voud maken terwijl je het geautomatiseerd kan instellen op echte backup services.
Als je data je lief is doe je het gewoon niet.
Zoals in m’n eerste reactie in deze thread staat gebruik ik Carbonite. Geen omkijken naar.

Disk dood? Nieuwe kopen, Carbonite app downloaden en inloggen, paar uur downloaden en weer verder.

Een USB disk gebruiken voor backup vereist een repeating item in je agenda, daar vertrouw ik niet in :) + Handmatig werk.

[Reactie gewijzigd door Engineer op 12 januari 2019 13:52]

Van de andere kant gaan andere kosten omlaag. Zo kun je bijvoorbeeld in een simpele ITX server thuis nu twee disks van 16 TB in RAID-1 zetten. Dan heb je geen dure RAID controller meer nodig, want je hebt dan geen complexe pariteit en dergelijke meer. Bovendien heb je zo met slechts 2 disks toch al 16 TB in RAID, dus ook geen dure behuizing meer nodig voor bijvoorbeeld 8 disks. Ik weet niet zeker of het uiteindelijk kostenbesparend is, maar het lijkt mij zeker wel interessant.
Ik denk niet dat je schijven van dit formaat in RAID5 wil hebben, dat is al een tijdje niet meer aan te raden.

Liever dan gewoon een raid mirror.
Daar heb je toch RAID-Z (ZFS) voor? ;)

[Reactie gewijzigd door LooneyTunes op 8 januari 2019 16:03]

RAID5 zorgt er voor dat je raid set niet direct uitvalt tegen minimaal opslagverlies.

Een RAID is geen backup. Niks mis met RAID5. Valt mn volledige set uit, heb ik een (volledige) backup. Valt een disk uit, gaat niet direct alles offline.
Er is met dit soort disken wel iets mis met raid5, de rebuild tijd is zo lang dat het gewoon te gevaarlijk is.
Om die reden heb je zaken als raid6 en draid oplossingen.
Niemand gaat met z'n gezonde verstand 8TB+ disken in raid 5 zetten, zelfs daaronder is het al tijfelachtig.
Het is toch niet erg als rebuilden mislukt? Waar komt de hele gedachte vandaan dat een rebuild per definitie moet slagen / voltooien.

Als er tussentijds een rebuild crashed doordat een andere hdd sterft, is dat vrij verelend. Maar daar heb je backups voor. RAID != backup
Het is toch niet erg als rebuilden mislukt? Waar komt de hele gedachte vandaan dat een rebuild per definitie moet slagen / voltooien.
Daar komt dat hele redundante verhaal van RAID natuurlijk wel op neer. Als je het niet erg vind dat je raid clusters falen kan je net zo goed RAID in zijn geheel achterwege laten.
Het hele idee van RAID is dat je kan doordraaien bij disk failures en het risico dat een rebuild niet lukt bij erg grote schrijven wordt bij RAID5 hoog.
Als er tussentijds een rebuild crashed doordat een andere hdd sterft, is dat vrij verelend. Maar daar heb je backups voor. RAID != backup
Dat kan je wel roepen, maar ongezonde raid configuraties bouwen omdat je een backup hebt slaat ook nergens op.
Een backup moet je gagarandeerd op terug kunnen vallen maar dat moet voor de rest van je infra niet het uigangspunt zijn, dat moet je gewoon opbouwen alsof die backup er niet is.

[Reactie gewijzigd door Koffiebarbaar op 8 januari 2019 17:08]

Als je altijd een recente backup hebt, is raid 5 niet per definitie een slechte keuze. Als het om een maximale capaciteit gaat, levert raid 5 gewoon meer storage-ruimte op.
Als je toch een goede backup hebt, zou ik bij een raid 5 configuraties overigens geen rebuild maken, maar de andere schijven ook eens formatteren en gewoon de backup op een schone raid-configuratie restoren.
Ideaal lijkt me raid 5 niet; Als het kan, is raid 10 een beter keuze. Je levert iets aan ruimte in, maar je wint behoorlijk wat snelheid.
Ik vind het bouwen van een RAID waar je op voorhand van weet dat deze relatief fragiel is altijd een slechte keuze, maar misschien is dat een persoonlijk standpunt.
Als de ruimte die met een deftige configuratie inlevert een ding is zou ik gewoon meer capaciteit begroten, zeker in een bedrijf met een beetje personeel is down time al snel duurder dan zelfs twee of drie extra schijven.

Backups wil ik ik eigenlijk twee dingen van, en dat is a: garanderen en dus het liefst dagelijks testen dat het werkt en b: dat hij nooit gebruikt wordt in reguliere productie.
Op het moment dat je RAID's gaat bouwen en met backups in je achterhoofd grotere risico's neemt betrek je m.i. je backups teveel bij je core infra.

[Reactie gewijzigd door Koffiebarbaar op 9 januari 2019 11:06]

Raid 5 geeft geen extra risico's tov het veiliger geachte raid 10. In beide gevallen ben je de sjaak als er een tweede schijf het begeeft. Dan is een raid 5 met elke paar uur een (differentiële) backup veiliger.
In een bedrijf zou ik geen raid 5 met grote schijven willen gebruiken, maar meer omwille van het prestatieverlies en de duur van een eventuele rebuild (inclusief de kans op fouten). Voor een thuisomgeving voldoet een raid 5 meestal aardig, terwijl backups meestal achterwege blijven.

Een backup is voor noodgevallen en gebruik je inderdaad liever niet, maar als je er een flinke prestatiewinst mee kan behalen, heb ik er geen moeite mee om een backup te gebruiken. Liefst wel gelijk alle schijven vervangen, dan heb je de gedeeltelijke raid setup als extra backup.
Je kiest voor raid om je beschikbaarheid te maximaliseren toch?
Doe je dat met raid 5 met een rebuild tijd die vele dagen kan duren? Nope.
Geloof mij, niemand die serieus met storage werkt gebruikt raid 5 met dit soort disken.
Hoe lang denk je dat het kost om een flink array te restoren met dit soort disken?
Dat kost je vele uren..dagen wellicht. Ja, je kan restoren maar een restore is iets waar je niet elke keer bij een disk failure tijdens een raid 5 failure op wilt terugvallen. De spare disk krijgt enorm op z'n donder bij een rebuild dus uitval tijdens de rebuild is aannemelijk. Ik heb het genoeg zien gebeuren.
Het is een afweging van stabiliteit en capiciteit (en snelheid).

Gezien we reageren op @Qlusivenl die stelt het over thuisgebruik gaat, kun je er vanuit gaan dat mensen thuis in de prive sfeer sneller kiezen voor meer capiciteit, minder stabiliteit mits er een backup is.

En zeg heel eerlijk, hoe vaak heb jij het in de privesfeer mee gemaakt dat 2 disks sterven op hetzelfde moment?

edit; typo

[Reactie gewijzigd door jaenster op 8 januari 2019 16:24]

>Het is een afweging van stabiliteit en capiciteit (en snelheid).

Meer beschikbaarheid tegen write performance in enterprise.
Je beschikbaarheid gaat omhoog met raid 6/draid maar je write performance gaat naar beneden door 2x parity berekenen en wegschrijven.
draid rebuildtijden zijn geweldig laag (relatief gezien) omdat je geen dedicated spare hebt maar spare capacity, een rebuild gaat dus naar alle resterende disken ipv naar 1.

>En zeg heel eerlijk, hoe vaak heb jij het in de privesfeer mee gemaakt dat 2 disks sterven op het zelfde moment?

Nooit, maar ook prive zou ik deze disken niet in raid 5 zetten, zeker omdat goedkope nasjes etc de hot spare waarschijnlijk nooit echt aanspreken tot het nodig is en dan is de kans op een total loss alleen maar groter.
Maar goed, het is mijn vakgebied dus als je het qua privegebruik gaat bekijken zal er enige beroepsdeformatie meespelen. O-)
Nooit, maar ook prive zou ik deze disken niet in raid 5 zetten, zeker omdat goedkope nasjes etc de hot spare waarschijnlijk nooit echt aanspreken tot het nodig is en dan is de kans op een total loss alleen maar groter.
Kom kom, de goedkope nasjes doen nu hetzelfde wat ik 20 jaar jaar lang professioneel heb gebruikt. Voor een home nas is een raid met spare nog altijd prima bruikbaar.
In de privesfeer niet, maar zakelijk zelf wel een keer. Vervang 1 disk in het SAN, hij start met rebuilden, en precies op dat moment gaat het oranje lampje van de 2e disk in de raidset branden. Dan ben je blij dat je naar een backup van een 10 minuten daarvoor terugkunt.

Ook een keer 2 disken tegelijk zien vertrekken uit een RAID6 array. Dan ben je blij met N+2.
RAID 6 betekent eigenlijk alleen dat je meer kans hebt om succesvol je array te rebuilden (de kans dat een extra disk failed is statisch groot, en met RAID5 mag je ook nog rekening houden met URE) in plaats van erop te vertrouwen dat je al je data kan terugzetten vanaf een back-up.

De kost van downtime is altijd groter dan een extra disk. En misschien loopt de restore van een backup ook wel mis. Dus zelfs voor thuissituaties is RAID6 voordeliger ten op zichte van RAID 5 als je alle risco afweegt.

[Reactie gewijzigd door KeiFront op 8 januari 2019 16:52]

En zeg heel eerlijk, hoe vaak heb jij het in de privesfeer mee gemaakt dat 2 disks sterven op hetzelfde moment?
Je hoeft helemaal niet twee simultaan compleet stervende disks te hebben voor een array failure.
Als je oude disks ook maar een béétje overmatig beginnen te erroren omdat er in één keer hard gewerkt moet door de spontane steiging in je workload klapt je RAID ook in elkaar en dat gebeurd vaker dan je zou denken.
Je hebt bij hoge capaciteit schijven gewoon meer failure tolerantie nodig dan één disk om een betrekkelijk betrouwbare RAID array te hebben.
Zelfs hotspares draaien gewoon mee en geven geregeld de pijp aan maarten ondanks dat ze niet "meewerken" in productie en nooit "echt gebruikt" zijn.

[Reactie gewijzigd door Koffiebarbaar op 8 januari 2019 17:19]

Afhankelijk van je oplossing is de data op een RAID5/6 systeem gewoon beschikbaar als je aan het rebuilden bent. De 'spare' is niet eerder gebruikt, dus die kan het best hebben om volledig vol te worden geschreven. RAID5/6 heeft geen dedicated schijf waar alle controle data op staat, voor een rebuild wordt de hele RAID set uitgelezen, alle schijven worden even zwaar belast. Tenzij je hele schijven collectie aan het einde van z'n latijn is zal dat niet horen te zorgen voor een extra failure, maar meestal check je eerst even de disk statussen van de andere schijven in de RAID array...

Persoonlijk gebruik ik nog RAID6 voor 9x6TB schijven. Ik heb echter nog geen idee wat ik ga doen als ik overstap naar 14TB schijven.

@R3m3d7 De 'spare' gooi ik eigenlijk nooit direct in de array, die gaat er pas in als er eentje failt, ben ik daar de enige in?

[Reactie gewijzigd door Cergorach op 8 januari 2019 17:03]

> De 'spare' is niet eerder gebruikt, dus die kan het best hebben om volledig vol te worden geschreven.

Dat is dus een denkfout, hij staat wel mee te draaien maar wordt niet getest doordat hij niet beschreven wordt. Ja, hij slijt minder dan een disk die vol in gebruik is maar als hij daarna in eens het doel is van enorm veel writes is mijn ervaring dat de kans op een failure op die disk gewoon best een groot is. Het is dus geen voordeel dat hij de hele tijd niets staat te doen. Ik spreek uit ervaring, ik heb het meerdere malen zien gebeuren.
Echt onzin, de hotspare, of indien niet aanwezig, de vervanger van de disk die heeft gefailed moet uiteraard weer volgeschreven worden. Als juist die disk failed is er nog steeds niks aan de hand. Andere schijf en weer nieuwe rebuild starten. De rest van de schijven doen voor het rebuilden alleen leesacties en je hoeft het niet eens een hoge prioriteit te geven. Je kan ook op 25% rebuilden om de set minder te stressen. En ja als er nog 1 andere failed in je set heb je wel een probleem, maar daar hebben we eventueel RAID6 voor uitgevonden. Ik heb persoonlijk al heel wat rebuilds meegemaakt zonder problemen. Het is gewoon overdreven om te stellen dat rebuilden zoveel meer kans geeft op nog een fout, want dat is statistisch gezien gewoon niet zo. Voor de disk set maakt het niks uit of ie nou aan het rebuilden is of data aanleveren voor de toepassingen die er op draaien. Het is voornamelijk het idee dat bij RAID5 je vangnet ff weg is tot de rebuild klaar is. Maarja, zoals al meer aangehaald, RAID is geen backup...
Eens dat de hotspare mag uitvallen tijdens een rebuild, daar heb je gelijk in.
Niet eens dat de kans op extra failures tijdens rebuilds niet groter is, althans, op basis van mijn ervaring, statistisch weet ik niet. De meeste nearline storage systemen doen geen duizenden IOP/s per seconde en worden bij onze klanten voor wat streaming, backup en deep archive toepassingen gebruikt.
Dan krijg zo'n omgeving een rebuild voor je kiezen en moet hij ineens best intenstief aan de slag, op volle snelheid ben je zo al 5+ dagen bezig met grotere disken. Mijn ervaring is dat de kans op uitval van additionele disken in deze periode groter is dan tijdens normale operationele momenten.
Je wilt echt niet voor disk failures moeten terugvallen op je backup, restores van bulk data naar nearline disken kost best veel tijd en is disruptief. Het is vele malen beter om een extra parity disk te gebruiken om die situatie te voorkomen, waarom mensen mij blijven vertellen dat raid geen backup is snap ik niet, ik suggereer dat ook helemaal nergens. Backups maken je als een laatste redmiddel, niet als vervanging van raid 6 tov raid 5 om 1 parity disk te besparen.
Doe je dat met raid 5 met een rebuild tijd die vele dagen kan duren? Nope.
Een dergelijke schijf geheel lezen of schrijven duurt naar verwachting minder dan een dag, met een wat conservatief gekozen snelheid van 200MB/s (de schijf is waarschijnlijk sneller). Een rebuild van 'vele dagen' klinkt meer als bangmakerij dan op feiten gebaseerd.
Als ik jou was zou ik mij, voordat je mij beschuldigd van bangmakerij, eerst even inlezen over de feiten van raid rebuild tijden van serieus grote nearline disken voordat je mij erop gaan aanspreken. Je maakt jezelf namelijk totaal belachelijk hier.
Ik weet prima wat de risico's zijn van grote raid-sets. Je moet alleen niet komen met verzinsels als rebuilds die vele dagen duren, want dat is gewoon niet het geval (of je hebt een bron die dat tegenspreekt, maar dan kan je die noemen in plaats van mij enkel voor gek verklaren).
Doe jij je ding maar lekker met raid 5 op 16TB disken, ik kies een andere route en ik wens je veel succes. Ik wordt hier niet betaald voor mijn advies of het overtuigen van iemand die mij niet geloofd en als jij denkt dat ik mijn claim moet onderbouwen terwijl elke leverancier die ik ken zegt dat je geen raid 5 moet gebruiken in dit soort setups wens. de enige reden daarvoor is trouwens de rebuild tijd want verder is raid 5 alleen maar sneller en efficienter qua netto ruimte dan raid 6 of draid.
Ik zeg letterlijk nergens dat het een goed idee is om raid5 te gaan doen met deze schijven. Ik zeg letterlijk nergens dat ik dat van plan ben. Ik zeg ook niet dat jij dat moet gaan doen. Ik zeg ook niet leveranciers raid5 aanraden met deze schijven. Het enige dat ik vraag is een onderbouwing van een rebuild-tijd van 'vele dagen', want daar kom ik met wat rekenwerk bij lange na niet aan. Maar blijkbaar is dat ingewikkeld en komt er een verhaal terug met allerlei zaken behalve dat...
Letterlijk 1 google, eerste hit, je hebt me zover....

https://www.networkcomput...raid-redefined/1994513662

"In the real world, where the rebuild process will run as a background process, rebuilding an 8 TB drive will take several days."
Dat artikel heeft echter wel een klein mankement, net als veel andere artikelen die zeggen dat raid5 niet meer mogelijk zou zijn met de huidige technologie: harde cijfers. Hoezeer ik het er ook mee eens ben dat raid5 niet meer de keuze moet zijn vandaag, wordt er maar matig met cijfers onderbouwd waarom raid5 ongeschikt is of zou moeten zijn.
Ik vertel hoe het zit en andere zijn het met mijn eens, niet goed genoeg.
Ik vertel dat ik jaren ervaring heb, niet goed genoeg.
Ik vertel je dat alle leveranciers van serieuze storage systemen je zullen vertellen dat je op met soort disken geen raid 5 moet draaien en WAAROM ze dat zeggen, niet goed genoeg.
Ik google 5 seconde en vind een stuk wat hetzelfde aangeeft en dat zijn nog maar 8TB disken, de disken waar we het hier over hebben zijn 2x zo groot en zeer zeker niet 2x zo snel want ze draaien hetzelfde toerental, verschillen zijn dan over het algemeen vrij klein.

Ik weet niet wat jij wil zien want harde cijfers zijn afhankelijk van de load op het systeem, de omvang van de disken, de snelheid van de controllers en de prio die je aan de rebuild geeft (welke weer afhankelijk is van de load en maximaal toegestaande latencies en of je dit uberhaupt wel kan instellen).
In de praktijk vertaald dit zich echter naar rebuilds die dagen duren...zoals in dat stuk staat.
Met 8TB is "several" (ik lees dat als mogelijk maar 2-3) nog aan de lage kant maar en is je systeem redelijk rustig verder. Als je gek genoeg bent om echt forse load op dit soort disken te zetten en met hoge read latencies te leven kan je rebuild zomaar 2x zo lang zijn.

Jij lijkt in je calcuaties geen rekening te houden dat het systeem niet stil staat tijdens een rebuild of dat een rebuild met gigantische performance loopt. Beide zijn helaas niet waar, je schrijft maar naar 1 disk en het is een terugrekenactie vanuit parity.
Ik weet ondertussen niet of je mij loopt te trollen, indien dat zo is, gefeliciteerd want ik hapte flink of dat je serieus niet weet hoe dit werkt maar ik ga er nu echt mee stoppen.
Ik vertel hoe het zit en andere zijn het met mijn eens, niet goed genoeg.
Je vertelt niet hoe het zit, je vertelt 'je moet dit doen', dat is niet hetzelfde.
Ik vertel dat ik jaren ervaring heb, niet goed genoeg.
Dan kan je met jouw jaren ervaring misschien meer vertellen dan alleen zeggen dat je ervaring hebt. Het is een drogreden.
Ik vertel je dat alle leveranciers van serieuze storage systemen je zullen vertellen dat je op met soort disken geen raid 5 moet draaien en WAAROM ze dat zeggen, niet goed genoeg.
Het waarom lijkt anders nog steeds te ontbreken in deze discussie. Er zijn blijkbaar mooie cijfers ergens, maar waar zijn die? Ik heb ze nog niet gevonden (en ik interesseer me ook al wel wat langer in storage dan vandaag).
Ik google 5 seconde en vind een stuk wat hetzelfde aangeeft en dat zijn nog maar 8TB disken, de disken waar we het hier over hebben zijn 2x zo groot en zeer zeker niet 2x zo snel want ze draaien hetzelfde toerental, verschillen zijn dan over het algemeen vrij klein.

Ik weet niet wat jij wil zien want harde cijfers zijn afhankelijk van de load op het systeem, de omvang van de disken, de snelheid van de controllers en de prio die je aan de rebuild geeft (welke weer afhankelijk is van de load en maximaal toegestaande latencies en of je dit uberhaupt wel kan instellen).
In de praktijk vertaald dit zich echter naar rebuilds die dagen duren...zoals in dat stuk staat.
Met 8TB is "several" (ik lees dat als mogelijk maar 2-3) nog aan de lage kant maar en is je systeem redelijk rustig verder. Als je gek genoeg bent om echt forse load op dit soort disken te zetten en met hoge read latencies te leven kan je rebuild zomaar 2x zo lang zijn.

Jij lijkt in je calcuaties geen rekening te houden dat het systeem niet stil staat tijdens een rebuild of dat een rebuild met gigantische performance loopt. Beide zijn helaas niet waar, je schrijft maar naar 1 disk en het is een terugrekenactie vanuit parity.
Ik weet ondertussen niet of je mij loopt te trollen, indien dat zo is, gefeliciteerd want ik hapte flink of dat je serieus niet weet hoe dit werkt maar ik ga er nu echt mee stoppen.
Waar ik heen zou willen met discussies als deze is iets als 'Je moet <x> (wel/niet) doen, want er is <y> gebleken uit dataset <z>'. Het blijft nu hangen op 'Om <y> te voorkomen moet je <x> (wel/niet) doen', en dataset <z> is nergens te bekennen. Het wil niet zo op dit onderwerp, en dat reken ik jou uiteraard niet persoonlijk aan. Wel zou ik jou net zo goed kunnen vragen of je mij aan het trollen bent, want volgens mij ben ik vrij consistent om cijfers aan het vragen en komen er van jou consistent verhalen terug zonder.

Onder aan de steep is het niets meer en niets minder dan risk management. Hoe groot is de kans dat het misgaat, en waar stel je de grens. In het ideale geval begin je met het stellen van de grens, kijk je daarna naar de kansen van de verschillende oplossingen en wordt aan de hand daarvan de implementatie gekozen. En de beslissing wordt beter als er meer onderdelen daarvan kwantificeerbaar zijn, en het risico op dataverlies zou wel een mooi cijfer zijn om te hebben bij de keuze voor een opslagsysteem.

Mijn ideale situatie met een rebuild van minder dan een dag is overigens gewoon correct. Je schrijft naar 1 schijf op volle snelheid (in mijn voorbeeld), en bij een raid5-configuratie met n schijven lezen de overige schijven met 1/(n-1) deel van die snelheid om dat aan te leveren (want die zijn striped). Rekenen aan parity is dusdanig eenvoudig dat het geen betekenis heeft, in raid5 is dat een xor van de data van de n schijven en dat kan zelfs een matige CPU sneller dan dat je nodig hebt.
Dan blijft nog de load over. Mijn inschatting is dat als iemand al overweegt om deze schijven in raid5 te gebruiken, dat performance niet de bepalende factor is maar de capaciteit. Daarmee zou de vertraging mee moeten vallen, maar blijft er uiteraard nog steeds een risicofactor over.
Jij wilt niet weten hoe het zit, jij wilt discussies winnen. Je weet inmiddels dat ik gelijk heb en dat het om meerdere dagen gaat maar nu wil je cijfers die van trveel variabelen afhankelijk zijn. Met niets te overtuigen want jij kan alles weerleggen, jij hebt je calculaties en die kloppen gewoon tot ik met de ultieme formule kom om het tegendeel te bewijzen. De definitie van iemand die niet wil leren van iemand uit de praktijk maar zn gelijk wil halen op basis van theorie. Ik vind het een kwalijke eigenschap. Je komt ermee weg zolang je niet de praktijk in hoeft en een beetje pech hebt.
Voor bedrijven zeker, helemaal gelijk. Maar als consument ga je geen film/serie collectie van 60 TB backuppen, dus dan pak je gewoon RAID6 (of meer) anders kun je als er tijdens het rebuilden nog een schijf crasht alles weer opnieuw gaan downloaden (of rippen).
Het hoogste wat ik ooit gedaan heb was 4 keer 3TB (12 TB waarvan je er 9TB kunt gebruiken) in RAID5 op een Areca 1222 1222 controller met 2 keer 3 TB as hotspare. (dus 6 schijven van 3TB in totaal). Dat was in 2014.

Daarna alleen nog ZFS.

[Reactie gewijzigd door Kain_niaK op 8 januari 2019 16:47]

Bij 3TB was raid 5 nog wel redelijk gebruikelijk inderdaad, sommige collega's van mij gebruikte het ook nog bij 4TB disken maar daarboven zou je met pek en veren het pand verlaten in enterprise als je dat nog zou voorstellen.
Ik werk in een DC met veel idiote klanten (opvoeden heeft geen zin) RAID5 met 8 x 4TB+ zie ik zo nooit verkeerd gaan. Dit verbaasd mij toch regelmatig al zo ik het zelf nooit doen.
Ik denk dat ik 3 keer een raidset verloren heb zien gaan tijdens een rebuild met raid 5, wellicht 5-7 keer als ik de verhalen van collega’s mee neem.
Zo’n 20 jaar werkzaam in de IT, dus het gebeurt niet vaak, maar de kans dat het gebeurt met raid 5 wordt elke generatie disk groter aangezien de rebuild alleen maar langer gaat duren....dus je gaat het vast een keer mee maken met zulke klanten, kwestie van geduld.
Rebuilden zonder eerst een backup te nemen is dan ook een slecht idee.
Ik moet er ondertussen wel een beetje om lachen, wie maakt er nou niet minimaal 1x per dag van alles backup. Wat een discussie is dit aan het worden zo.
Waarom 1x per dag? Gewoon even voor je gaat rebuilden.
Wij leven in andere werelden.
En daar gaan we weer,...ik pak mn zak chips en cola erbij... :+
Must....resist.... ;)
Met deze diskgrootte is het niet aan te raden. Maar het kan natuurlijk wel. Rebuilden duurt wel eventjes...

En nee, het is geen backup, wel een voorzorgsmaatregel :)
Goed punt. Dan wordt het wel snel al raid 10, want als ik 2 schijven koop op het zelfde moment van de zelfde batch, heb ik liever dat ik uit de volgende batch (of zelfs een ander merk met dezelfde specs) er nog 2 haal. De kans dat er 2 tegelijkertijd kapot gaan is klein, maar als ze uit de zelfde batch komen en zelfde moment gefabriceerd, is groter.
Ik heb nu 2x 8 Tb in raid 1 voor mijn NAS, die hebben de beste €/gb en die zijn vol. Ga binnenkort uitbreiden met 2x 10 Tb of meer, en die krijg ik ook makkelijk vol. Ben gewoon thuisgebruiker en heb de nas voor back-up en media streaming. (Verzorg meteen de back-up voor zowat mijn hele familie op moment).
Vergeet niet dat raid geen backup is. Als een virus of andere ongein zoals Wannacry op je systeem/netwerk komt te zitten dan ben je ook al je backups kwijt. Ook bij rampen zoals brand, overstroming of een zonnewind (of per ongeluk rm -rf / in de terminal typen 8)7) ben je al je data kwijt.

En zo te horen gebruik je nog ''gewone'' raid. Tja dan heb je datacorruptie er ook nog bij. Maak op z'n minst dan een ZFS pool ipv ouderwetse Raid.

Een echte backup zijn 2 losse HDD's (of Raidserver in combinatie met en een losse HDD). Een HDD die je zo af en toe update en een andere HDD die je zelden update en off-site ergens neerlegt zodat bijvoorbeeld brand of malware niet al je data naar de mallemoer helpt.

Zelf heb ik voor mijn backup alles gebackupt naar mijn fileserver op Z-raid 1-0 (ZFS raid dus) op minimale verkleining en deze update ik om de maand (en de ZFS pool word ook eens in de maand gescrubt). Verder heb ik nog een externe HDD die bij mijn ouders ligt met maximale verkleining en deze wordt +/- om het jaar geupdate.

[Reactie gewijzigd door rickboy333 op 8 januari 2019 17:31]

Heb een simpele Synology ds418 play op moment, heb gekeken voor freenas maar was het niet waard gezien ik veel features gewoon weg niet gebruik. ZFS/freenas is leuk maar de tijd en geld die ik daarin moet gaan investeren voordat je dat werkend heb voor mijn eisen is het simpelweg niet waard (back-up en streaming)
Heb een back-up van paar Tb bij mijn ouders van kritische bestanden die ik paar keer per jaar update. Media slurpt gewoon veel.
Je zou Open Media Vault eens kunnen proberen. Veel simpeler dan FreeNAS maar toch nog advanced genoeg om er leuke dingen mee te doen (gebaseerd op Debian). Bij Open Media Vault moet je ZFS wel apart installeren maar ook dat is vrij makkelijk.

Het belangrijkste is in elk geval dat je nog aparte backups op een andere locatie hebt liggen. Dan ben je tenminste niet al je data kwijt bij brand, defecten of een virus. Datacorruptie kan nog steeds voorkomen maar de kans is redelijk klein dat zowel je HHD als je PC als je fileserver tegelijk een filecorruptie krijgen. (maar hij bestaat wel). Alleen tape drives kunnen je dan nog redden (maar dat is super duur)

[Reactie gewijzigd door rickboy333 op 8 januari 2019 21:09]

Heb het allemaal overwogen en had de optie om een nas te bouwen met 6-8 sata poorten, 16 GB ECC en een quadcore voor dezelfde prijs als een Synology 4 bay, daar kom dan nog de dagen werk bij om alles draaiend te krijgen. Terwijl een ds418 plug en play was, had best wel een diy nas willen bouwen en voor €100 minder had ik dit ook gedaan.
Misschien iets voor de toekomst als ik met meer vms begin te spelen zodat mijn raspberrys het niet meer trekken.
Nou je hebt echt geen ECC memory nodig hoor :P En een quadcore ook niet.

Ik heb een 775 bordje met een undergeklockte (dus naar beneden) core 2 duo (of duo quad, dat weet ik niet meer), 8GB aan DDR2 geheugen, zo'n goedkoop Intel bordje met 8 sata poorten, een extra 1gbit kaartje voor de snelheid en een USB 3.0 kaartje uit China voor front USB 3.0 support, een micro ATX barrelkast waar 8 HDD's in konden een front fan om die dingen een beetje te koelen, en als laatste nog wel een nieuwe 80+ gold voeding gekocht omdat ik die extra investering zo hard terugverdiend.

Ik geloof dat ik destijds voor +/- €75 a €100 klaar was. (minus drives)

Maar als je Proxmox ofzo wil draaien heb je zeker een betere CPU nodig.
Ik vind mijn trouwe DroboPro nog steeds erg rustgevend. Geen megaschijven, gewoon 8 x 3TB waarvan ik netto 16TB over houd (waarvan ik net 2/3 gebruik). Raid en backup in dezelfde kast zal wel onverstandig zijn, maar zelfs toen tijdens een rebuild wegens gecrashte schijf nóg twee schijven de geest gaven bleef de data in leven. Ik heb nog een oude Drobo met vier schijven in een andere postcode waar de belangrijkste data eens per half jaar op bijgewerkt wordt. Of er 16TB schijven in die DroboPro kunnen is nauwelijks de vraag, als het zou kunnen is het onbetaalbaar en voor mij is 128TB storage onzin.
Gewone raid heeft evenveel kans op datacorruptie als een ZFS pool. En RAIDs kan je ook gewoon "scrubben".
RAID 5 is niet veilig meer met schijven van deze grootte. Rebuilds duren heel lang en de kans dat bij 1 kapotte disk een andere ook een fout heeft, is statistisch veel te groot. Je gebruikt beter een modern filesysteem zoals BTRFS of ZFS; of anders RAID 10.
Je gebruikt beter een modern filesysteem zoals BTRFS of ZFS; of anders RAID 10.
Is een rebuild van RAID 10 zoveel sneller?
Ja, je hebt niet te maken met parity. Raid 10 is Raid 1 + 0 of Raid 0 + 1. Je hoeft maar 1 schijf te synchroniseren.
Klopt, daar had ik even niet bij stil gestaan. ZFS dacht ik ook er bij te hebben benoemd, maar dat is niet het geval. raid Z is beter, maar rebuilden duurt daarbij ook lang met zulke schijven. Weet ik toevallig uit de praktijk met kleinere schijven.
Nee dit wil je juist niet in RAID hebben. RAID is puur voor uptime, geen backup. Een rebuild in RAID 5 dan wel 6 is ook lang genoeg om de moeite niet waard te zjin, om het nog maar niet te hebben op de kans op fouten tijdens een rebuild. Mensen die veel opslag nodig hebben kunnen net zo goed zo groot mogelijke drives nemen, dit is vrijwel altijd zo geweest. Of er nou 1 schijf met vele data uit klapt of 5 schijven met weinig data zou geen verschil hoeven te maken als een backup strategie enigszins reel is.
Ik heb dat reeds aangepast, mijn fout! goed dat er mensen opletten :)
Kan een ieder gebeuren, ik hoop dat je niet al te veel van deze reacties krijgt ;)
Ik denk dat de 16TB modellen er eerder voor gaan zorgen dat de HDDs met lagere capaciteit goedkoper worden en dat is dan wel weer interessant voor consumenten. Enne ... overdreven, voor iedere datahoarder is meer TBs altijd beter ;)
Ik ben zelf best een datahoarder, maar 16TB schijven zijn zelf voor mij nog wat te overdreven.

Ik ben het zeker wel met je eens dat de kleinere schijven goedkoper worden hierdoor. Daarnaast is de vooruitgang in dataopslag altijd goed, maar zie hier toch in eerste instantie een enterprise product.
Meestal is het gewoon een kwestie van tijd. Komt vanzelf een keer vol.
Geen idee waarom je een een -1 krijgt (mod systeem is geen like/dislike knop, mods mogen dat mening modden echt wat beter aanpakken).

Maar LTT heeft 1000TB aan storage in zijn server gepropt. En ik denk dat kleinere Youtubers dus ook vrij veel data zullen gebruiken. Daarbij moet je niet vergeten dat 2 16TB schijven minder energie gebruiken dan 4 4TB schijven. Dus stel een een MKB bedrijf heeft 32TB aan data nodig dan lijkt het me goedkoper om 4 van deze schijven in een Raid/ZFS pool 10 te zetten in een energiezuinige diskstation dan 16x 4TB schijven in een enorm serverbeest (dit is gewoon een voorbeeld, geen praktische stelling)

Daarbij word raid 5 bijna niet meer gebruikt en als er een ''5'' oplossing moet komen dan in elk geval in een ZFS pool.

Edit, dank Mvdam

[Reactie gewijzigd door rickboy333 op 8 januari 2019 17:05]

LTT heeft tegenwoordig al een server met 1000TB https://youtu.be/uykMPICGeqw ;)
Oh ja, ik bedoelde dat filmpje eigenlijk!
Ja, het mod systeem wordt daar inderdaad voor gebruikt. Ik ben onlangs op de vingers getikt door Tweakers omdat mijn moderatie opviel. Ik had enkele malen een +3 (spotlight) gegeven omdat ik daadwerkelijk van mening was dat dat de spotlight was. Dat dat afwijkt van andere mensen die wellicht een andere mening hebben kan ik weinig aan veranderen. Ik gaf toen ook al aan dat het mod systeem geen facebook like en dislike knopje is. Het is goed dat er op geacteerd wordt hoor, daar zal je mij niet over horen, er moet geen misbruik van worden gemaakt. Maar de manier waarop was voor mij een beetje facebook achtig.

Ach, offtopic achterwege gelaten! De Youtube content creator group was ik ook later opgekomen. Ik heb eens een aantal video's gekeken van youtubers die hun werkplek lieten zien en de specs. Ik maak zelf geen video's dus vergis mij al snel in de omvang van zulke bestanden.
Als je je reactie bewaard dan kan je het bij elke grotere HDD die gelanceerd wordt hergebruiken, je hoeft alleen de getallen aan te passen.
Dat is waar, maar het blijft indrukwekkend en is dan toch nieuws.
Tsja.. als je het zo bekijkt kunnen ze het artikel ook bewaren en de getalletjes aanpassen ;) Als we van zo'n instelling uit moeten gaan dan blijven de comments leeg en de artikelen schaars.
Dat is m.i. wat anders, omdat het nieuws (1) is dat er weer vooruitgang is en (2) dat daarvoor (veelal) nieuwe technologie ontwikkeld is. Een relevante discussie hier zou wmb bv gaan over die technologie.
Voor gebruik op een NAS kan ik het me wel voorstellen hoor. Ik heb nu 4 x 3TB in SHR (Synology Hybrid Raid) waardoor ik effectief circa 9TB tot mijn beschikking heb. Met schijven van 16, 18 of zelfs 20TB kan ik weer even vooruit. ;) Moeten de prijzen voor deze HDD's overigens wel weer richting de 100 à 150 euro gaan, alvorens dit echt interessant wordt.
Het ligt een beetje aan de prijs/capaciteit verhouding. Ik heb momenteel 5x12 TB HGST in m'n Plex server, 60 TB echter draai ik ZFS Raidz2 (RAID6) en ik heb dus netto slechts 36 TB tot m'n beschikking.

Nu kom ik van 4 x 10 TB en m'n server heeft max maar 10 slots, dus nu heb ik en meer capaciteit en altijd nog ruimte om verder uit te breiden. Als ik straks dus nieuwe storage ga halen weer en 16 TB is goed aan de prijs gaan die erin, maar 10-12 TB zal voorlopig nog wel een stuk interessanter blijven.
RAID en backup in 1 zin kan alleen maar om te benadrukken dat RAID geen backup is.
Je wilt sowieso geen helium-schijf als 1 schijf gebruiken, want data is veel moeilijker te herstellen bij helium--gevulde schijven dan lucht-gevulde schijven.
Als je 20 jaar terug in de tijd gaat zei men dat ook van 100GB schijven. Wie zou dat toch OOIT nodig hebben?

"640kb ought to be enough for everybody" of iets in die richting.

Het is van alle tijden ;)
Edit: ongewenst nog wel?
Vrijwel letterlijk onder elk nieuwsbericht over een nieuwe HDD staan dit soort comments..
Dus ja. ;)
Het is ontopic en ik zeik het product niet af.
Jammeren dat bijna niemand dit nodig heeft, heeft toch niemand wat aan?

[Reactie gewijzigd door Olaf van der Spek op 8 januari 2019 16:14]

Dan kunnen de comments bij alle artikelen beter worden uitgeschakeld. Elke maand staat er wel een artikel over een hdd die groter is of over een nieuwe telefoon die weer iets sneller is. Moeten ze die ook maar niet meer plaatsen?

Ik belicht gewoon even het gene wat iedereen denkt en breng het ter sprake. Discussie voeren is waarom we hier zijn en elkaar informeren, toelichten en beamen hoort daarbij. Als niemand meer wat zegt omdat dat toch al vaker wordt gezegd.... dan is het hek van de dam en zijn in weze 99% van de comments nutteloos.

Als jij dit ongewenst vind ben je wellicht op de verkeerde plek.
Vraag me tevens wel af hoe die HHD's met drukverscheel omgaan als er helium in die schijven zit. Bij gewone HHD's heb je die kleine gaatje en uitbolstickers. Maar dat gaat met helium natuurlijk niet.
Gas-gevulde hdd-s gaan eenvoudig met drukverschil om: dicht is dicht. Of het nu overdruk of onderdruk is maakt niet zo heel veel uit in het druk-bereik van de buitenlucht.

Als ze gemaakt worden met een serieuze overdruk of onderdruk dan kan ik me bij beide wat voorstellen. Details: Zie specs.
Ik weet tegenwoordig amper hoeveel harde schijfruimte ik heb. Vroeger was het fantastisch met je muziek of film collectie, om meer ruimte te hebben.. Tegenwoordig download je iets, en daarna verwijder je het weer.
Denk dat de gemiddelde consument op een gegeven moment weinig meer geeft om hoeveel schijfruimte ze hebben, zolang het maar genoeg is.
Deze disk is dan ook voor bedrijven.......
Goed nieuws aangezien ik het liefst schijven met capaciteit in machten van 2 koop, 2,4,8 en nu 16
Als die nog leuk geprijsd zijn, dan is dit zeker iets om naar uit te kijken!
Als die nog leuk geprijsd zijn, dan is dit zeker iets om naar uit te kijken!
Ja zeker, hele mooi back-up HDD, zo dat je alles van je NAS kan back-uppen, zo dat je nooit alles kwijt bent als wel je nas doorbrand of nat woord of ga maar zo door, en dan berg je de HDD gewoon gewoon ergens het netje op.
Ik zou er dan persoonlijk 2 willen die met zfs mirrored zijn, zodat je bitrot ook een beetje negate.
Aha ok ja, moest even opzoeken wat zfs is en bitrot, ja maar ik zet alles er op en dan doe ik er niks mee, dan kan er weinig mee gebeuren lijkt mij?
Dan heb je altijd nog kans op bitrot die een bit kan flippen, waardoor je dus issue kan krijgen. Het komt altijd neer op de vraag:"Hoeveel is je data waard?"
Ja ok, dat is waar, en ik moet ook nodig Back-up HDD kopen, voor het geval me NAS helemaal kapot gaat, heb al wel de temperatuur van me CPU opgelost in me Lenovo Iomega ix4-300d, hij werd 60c als je niks deed, en nu met een Enzotech SLF-1 is hij Idle 40c.

[Reactie gewijzigd door AmigaWolf op 9 januari 2019 09:36]

Zolang het een stabiele temperatuur is die nog binnen de perken van de datasheet ligt, zou ik mij er niet zo heel druk om maken. Variabele temperaturen leveren mechanische stress. Dus wat gebeurd er met de temperatuur wanneer je aanspraak op de NAS doet.

Maar OT: een NAS is idd geen backup. En wat bedoel je met helemaal kapot gaat?
Zolang het een stabiele temperatuur is die nog binnen de perken van de datasheet ligt, zou ik mij er niet zo heel druk om maken. Variabele temperaturen leveren mechanische stress. Dus wat gebeurd er met de temperatuur wanneer je aanspraak op de NAS doet.

Maar OT: een NAS is idd geen backup. En wat bedoel je met helemaal kapot gaat?
Als hij kortsluiting krijgt of zo iets en me hele NAS met all mijn HDD's dus helemaal stuk is.
Ahhh, ik dacht dat je bedoelde dat die van jou al kuren had.
Nee gelukkig niet, dat zou ellendig wezen, kost ontzettend veel tijd om zo veel TB over te kopiëren.
Ik doelde natuurlijk op goed geprijsd naar een normale 0,03 euro per gb, dus rond de 600 euro. Want toen de 12 TB varianten van WD uitkwamen waren die ook rond de 0.057 euro per gb.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True