Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 180 reacties

Seagate heeft drie harde schijven met een maximale capaciteit van 10TB voor consumenten geïntroduceerd. De hdd's maken deel uit van de Guardian-serie en staan bekend als Barracuda Pro, IronWolf en SkyHawk. De schijven draaien op een snelheid van 7200rpm.

De verschillende modellen hebben uiteenlopende toepassingen, zo is de Barracuda Pro gericht op gebruik in desktops. Dit model heeft een maximale schrijfsnelheid van 220MB/s en een cache van 256MB, naast een garantie voor vijf jaar. Het IronWolf-model is geschikt voor gebruik in een nas, haalt een snelheid tot 210MB/s, heeft eveneens 256MB cache, en wordt geleverd met een garantie voor drie jaar.

De SkyHawk-variant is gericht op toepassing in combinatie met bewakingscamera's, schrijft Seagate in een persbericht. Nadere informatie over dit model ontbreekt, omdat een gedeelte van de vernieuwde Seagate-site ontoegankelijk is. Alle modellen zijn beschikbaar in het standaard 3,5"-formaat en met verschillende opslaghoeveelheden. Volgens Anandtech zijn de 10TB-varianten net als de eerder uitgebrachte 10TB-hdd's voor datacenters voorzien van heliumvulling, deze informatie komt echter niet terug in de communicatie door Seagate.

De Barracuda Pro is in capaciteiten van 6TB, 8TB en 10TB te verkrijgen. De IronWolf beschikt over dezelfde capaciteiten en voegt daar varianten van 1TB, 2TB, 3TB en 4TB aan toe. De Barracuda Pro- en IronWolf-schijven zijn nu beschikbaar voor een adviesprijs van respectievelijk 535 dollar en 470 dollar voor de 10TB-uitvoeringen. Dat is omgerekend ongeveer 485 euro en 426 euro zonder btw. De SkyHawk is over een jaar te verkrijgen voor een prijs van 460 dollar, omgerekend ongeveer 417 euro.

Seagate komt ook met nieuwe sshdd's onder de naam FireCuda. In 2,5"-formaat is deze er met een maximale capaciteit van 1TB en in 3,5"-uitvoering is het model met een capaciteit van 2TB beschikbaar. De hardeschijvenfabrikant moest vorige week opnieuw banen schrappen en liet 6500 medewerkers vertrekken. Het bedrijf voert een herstructurering uit die het gevolg is van teruglopende verkoop.

seagte guardian-serie

Moderatie-faq Wijzig weergave

Reacties (180)

"HDD's voor consumenten"
"Dat is omgerekend ongeveer 485 euro en 426 euro zonder btw. De SkyHawk is over een jaar te verkrijgen voor een prijs van 460 dollar, omgerekend ongeveer 417 euro."


Gewone consumenten betalen BTW, dus:
485 => 587 euro
426 => 515 euro
417 => 505 euro

[Reactie gewijzigd door SmokingCrop op 19 juli 2016 16:40]

Grappig om te zien dat 2 jaar "extra" garantie (het verschil tussen de IronWolf en de Barracuda Pro) je 60¤ (ongeveer) kost :+

Afhankelijk van de levensduur van de schijven kan het dan toch de moeite lonen om in je zelfbouw server toch de Barracuda Pro's in te bouwen.

Edit: hopelijk zakken de prijzen ook vlotjes, want 0.058/GB is aan de hoge kant uiteraard :p

[Reactie gewijzigd door azerty op 19 juli 2016 16:42]

Het is het waard om een berekening te maken of een Synology 216 met 2x 10tb duurder is dan een synology 416 met 4x 4Tb :)

(of verander synology in server/nas xxx)
Dat weet je pas als je het hebt uitgerekend...

Coolblue:

416j met 16 TB: 1041¤
216j met 2x 10 TB (Ironwolf van hierboven) = 174,95¤ + 2x 515¤ = 1204,95¤

Performance kan daar ook een rol spelen, zeker omdat de NAS'sen RAID ondersteunen is 4x4 sneller dan 2x10.
Daarbij "mis" je 10TB vanwege de Mirroring RAID in een 216j opstelling en hou je effectief maar 10TB opslag over van de 20TB.
Met een 416j opstelling "mis" je maar 4TB van de 16TB.
Dus, met een 416j heb je meer snelheid, meer schijfruimte én is nog goedkoper ook.
En daarbij ziet een 416j er nog mooier uit (persoonlijke mening)
Wel meer stroomverbruik, met een apparaat wat 24/7 aanstaat kan dat nog wel een argument zijn.
Even een kleine berekening, bij Nuon betaal je 22 cent per KW/H (Kilowatt uur)
Laten we voor de makkelijkheid 12 uur aan, 12 uur slaapstand aanhouden.
De DS416j
Consumption
21.6 W (Access)
12.75 W (HDD Hibernation)
(Bron Synology)
12x 21.6 + 12x 12.75 = 259.2 + 153.0 = 412.2 watt per dag wat neer komt op 9,07 cent per dag aan stroom (¤2,72 per maand)

Nu de DS216j
Consumption
14.85 W (Access)
6.95 W (HDD Hibernation)
(Bron Synology)
12x 14.85 + 12x 6.95 = 178.2 + 83.4 = 261.6 watt per dag wat neer komt op 5,76 cent per dag aan stroom. (¤1,73 per maand)

Of die ene euro verschil per maand nou echt een argument is.....
En daarbij rekening houden met het prijsverschil in aanschaf, dan kan je de 4 bay NAS 164 maanden (13 jaar) laten draaien voordat het geld gaat kosten.

[Reactie gewijzigd door Goldwing1973 op 19 juli 2016 19:44]

Ik zou ook voor een DS416j gaan.
Nog een eventueel ding is je kan in de toekomst bv 1 van de 4 disken vervangen voor een 10Gb.
En dat elke keer als je weer wat gespaard heb nogmaals doen tot je 4 x 10GB hebt.
Je volume word zover ik weet elke keer geexpand in het begin niet de totale 10Gb maar naarmate je meer 10Gb hardisken hebt word het steeds groter.
Dat klopt, en ik spreek uit ervaring.
Ikzelf ben van een DS409+ met 4x1.5TB naar een DS415+ met 4x6TB gegaan.
Schijven van de 409 overgezet naar de 416, DSM opnieuw erop.
DSM back-up config terug gezet op de 415 en vervolgens één voor één de schijven vervangen voor de 6TB'S
Met iedere vervangen schijf kreeg ik meer bruikbare opslag

[Reactie gewijzigd door Goldwing1973 op 19 juli 2016 23:18]

Je volume word zover ik weet elke keer geexpand in het begin niet de totale 10Gb maar naarmate je meer 10Gb hardisken hebt word het steeds groter.
Heb je het over Synology's Hybrid Raid ? Synology doet dit door arrays te maken van partities en die dan weer samen te voegen met lvm tot 1 volume. Ik ben echter totaal niet zeker wat het zou doen als je iedere keer 1 schijf vervangt met een grotere en dan uitbreid. (https://www.synology.com/...me_diskgroup_what_is_raid).

Je zou dus misschien kunnen uitkomen op rare combinaties zoals:
LVM volume van raid1 (2 x 500 gb partitie op 1 schijf), raid1 (2 x 1000 gb partitie op 2 schijven) en raid 5 (4 x 2000 gb partities op 4 schijven). Met 2 schijven van 2 TB, en 1 van 3 TB en 4TB. Waarbij het falen van de 4TB schijf het verlies van al je data kan betekenen.
edit: raid5 van 3 ipv 4

[Reactie gewijzigd door goarilla op 20 juli 2016 13:16]

ik heb een paar zonnepanelen op mijn dak liggen. Ik kijk nu toch wel kritischer naar het verbruik van een apparaat. niet zozeer hoeveel het verbruikt, maar hoelang ik bezig ben om het met mijn panelen op te wekken. Dan kijk je toch iets anders tegen "een beetje stroom" aan.
Minor opmerking: een "Watt-uur" is niet watt per uur, maar watt vermenigvuldigd met uur. Je kunt dat ook terugzien in je berekening (die wel helemaal juist is). Watt is een eenheid voor hoe snel je energie gebruikt, en is gelijk aan Joule per seconde. De term "kWh" (3,6 miljoen Joule) wordt vooral gebruikt zodat je niet constant met vervelend grote getallen zit. De schijf gebruikt dan ook geen 412W per dag, maar 412Wh. Omdat hij 24 uur lang gemiddeld 17W gebruikt.

[Reactie gewijzigd door TimVdE op 20 juli 2016 09:35]

Leuke berekening (wist niet dat dat zo eenvoudig is).
Hoe kom je overigens aan die '153.0'?

Dank :)
Je kunt alsnog de keuze maken groener te willen doen en maar voor bv 2 schijven materiaal te verbruiken en stroom. Of het financieel aantrekkelijk is stel ik niet, maar dat is groen en milieubewust doen vaak sowieso niet.
Om nog ietsje meer off-topic te gaan, dat is niet hoe de E-energie wereld werkt. Kolen centrales zijn gewoon goedkoper dan veel minder milieubelastende alternatieven. Zonnepanelen worden al aardig goedkoop maar vergt een grote investering (net als een kolencentrale) maar je hebt er ook heel veel landoppervlakte voor nodig. Maar het belangrijkste is de energie opslag, wat doe je in de nacht als de zon niet schijnt? Wat in de winter als de zon niet genoeg schijnt?
Energiebedrijven boeit het totaal niet of het nou kolen of zon is, zolang het maar goedkoop is, want dan maken ze relatief meer winst.
Overigens, het kan niet gratis opgewekt worden. Er zit altijd een investering tegenover. Als die afbetaald is, dan is het niet ineens gratis. Je hebt dan gewoon de afbetaling te snel gedaan. Je hebt overigens altijd onderhoudskosten.
De afhankelijkheid van overheid en grote bedrijven heeft niets te maken met de 'vervuilendheid' van de opwekking. Over 50 jaar weten we niet anders dan zon, wind en waterkracht en dan zit daar ook gewoon belasting op hoor. Elektrisch rijden hetzelfde. Over 50 jaar rijd iedereen met een elektromotor, dan weten we niet anders en dan zit daar ook de belasting en bijtelling op zoals nu op de zwaarst vervuilende auto's zit.
Bezuinig je nu echt? Want het geld wat de overheid/energiemaatschappij nu mis loopt door je zonnepanelen op termijn wordt gewoon weer vertekend met een prijsstijging elders.
Hij is zeker niet sneller met 4 disks in raid 5. 4 disks in raid 5 is trager zelfs dan raid 1.

leessnelheid raid 1 = snelheid traagste disk
Schrijfsnelheid raid 1 = snelheid traagste disk

Leessnelheid raid 5 = snelheid traagste disk
Schrijfsnelheid raid 5 = leessnelheid van traagste disk in set minus schrijfsnelheid traagste diak.

Raid 5 schrijven is ongeveer 50% van traagste disk dus.
Onzin.
Alles is afhankelijk van de raid controller of gebruikte soft-raid en hardware.
Leessnelheid Raid1 kan in veel gevallen sneller zijn dan 1 disk, als de controller slim genoeg is, kan ie de bandbreedte verdelen over 2 disken.
Schijfsnelheid Raid1, afhankelijk van controller, kan trager zijn dan snelheid traagste disk, omdat data 2x weggeschreven moet worden.
Raid5 lezen, snelheid in striped volumes N-1, 4 disk raid5 kan totaan 3 disk stripe performance geven (dus bij 4 disken, 300% in een meest ideale situatie)
Raid5 schrijven, geheel afhankelijk van je controller, een goede controller kan gewoon busspeed parities calculeren, dus dan blijft je performance nog steeds als een striped volume.
En dat komt aardig overeen met mijn 8disk Raid5 volumes die 1GB/sec lezen en schrijven. (limiet controller)
Klopt, zat ff te slapen :~(

http://www.storagecraft.com/blog/raid-performance/

Even een indicatie (2x10TB in RAID-1):
Total Performance = 280 MB/s
Read Performance = 420 MB/s
Write Performance = 210 MB/s
RAID Type: RAID 1 (Mirror)
Reads 50%, Writes 50%
Number of RAID groups = 1
Number of drives per RAID group = 2
Total number of drives = 2
Single RAID group performance = 280 MB/s

Even een indicatie (4x4TB in RAID-5):
Total Performance = 336 MB/s
Write Performance = 210 MB/s
Read Performance = 840 MB/s
RAID Type: RAID 5 (Stripe set with parity)
Reads 50%, Writes 50%
Number of RAID groups = 1
Number of drives per RAID group = 4
Total number of drives = 4
Single RAID group performance = 336 MB/s (gemiddeld)
Sequentieel ja, met veel random I/O is write penalty op RAID5 aanzienlijk.

Kan je met cache afvangen uiteraard, als die niet battery of flash backed is komt dat met een aardig risico echter.
Sequentieel ja, met veel random I/O is write penalty op RAID5 aanzienlijk.

Kan je met cache afvangen uiteraard, als die niet battery of flash backed is komt dat met een aardig risico echter.
Zonder BBU wil je alle writes inderdaad pass-through hebben. En dan is de penalty aanzienlijk tijdens schrijven van random data.
Leessnelheid van RAID-5 = aantal schrijven x snelheid per disk. Een raid=5 array met 3 hdds is tot 3X sneller dan een RAID-1 array.
Plus dat je niet eeuwen op een rebuild hoeft te wachten als je eens een schijf vervangt. Altijd spannend als er geen enkele redundantie meer is tijdens zo'n proces :P
Ook met 4 TB schijven heb ik overigens liever gewoon dubbele redundantie, die paar rotcenten die ik betaal voor een extra schijf wegen wel op tegen het gebrek aan geklooi als er iets teveel kapot gaat. Sterker nog, dan ben ik alles wat ik opnieuw kan downloaden gewoon kwijt, want dat allemaal backuppen is niet praktisch meer als je kijkt naar de hoeveelheden aan data.

[Reactie gewijzigd door Sfynx op 19 juli 2016 19:12]

Om die reden heb ik ook een NAS bij m'n ouders gezet waar de belangrijkste data zoals foto's, documenten, scans enz... heen gemirrord word.
Of-site backup voor als er brand is of inbraak.

Films en muziek die ik op m'n NAS heb zijn vervangbaar, persoonlijke dingen niet.
Hoe doe je dat dan met de netwerkinstellingen? Dat die automatisch naar je ouders nas heen mirrord?
M'n ouders en ik hebben beide een Cisco ASA5505 als router voor de glasvezel verbinding.
Ik heb daar een permanente IP-SEC VPN in aangemaakt.
Maar je kan dit ook via een NFS verbinding doen gewoon via het internet, dat is alleen niet encrypted
4 x 4 is zo ie zo sneller dan 2 x 10TB.

Maar als het om capaciteit gaat: Waar heb je liever mee te maken in je Synology: Een rebuild van een 4TB disk of een 10TB disk?

Met 10TB disks moet je eigenlijk op z'n minst naar RAID10 of RAID6.
je kunt gewoon raid 1 doen in een 2bay modelletje, dan kan de ene schijf langzaam kopieren naar de ander terwijl jij er bijna niets van merkt (lees 's nachts).

Raid 5 is bij >2TB eigenlijk af te raden gezien hij tijdens het rebuilden de volgende schijf in error kan jagen, dan krijg je raid 6 wat langzaam ook begint te zweten. Zelf geef ik de voorkeur aan raid 10 oplossingen, echter is dat uiteraard ook geen garantie. Fysieke 2e nas als backup blijft toch het beste!
kan de ene schijf langzaam kopieren naar de ander [..] (lees 's nachts).
Zo werkt RAID nu eenmaal niet. Dat zou ik een nachtelijke back-up noemen. Kun je altijd nog 1 dag aan data kwijt raken.
2 schijven raid 1, rebuild? Hoe zie je het anders voor je? :+
Dat zijn allemaal zaken die je inderdaad kunt meenemen bij het bouwen van een nieuw systeem :)
4TB schijven in raid5? dan kun je ze beter gelijk in raid 0 zetten :+
En de dollar prijs in de VS is ook altijd zonder BTW, want elke staat heeft zijn eigen hoeveelheid BTW. "value added tax"

[Reactie gewijzigd door stewie op 19 juli 2016 16:34]

In de VS hebben ze nou juist geen "value added tax". Ze hanteren daar "sales tax".

https://en.m.wikipedia.org/wiki/Value-added_tax
Whatever de naam ook is, het is hetzelfde als BTW en het is per staat verschillend...

Je betaalt belasting punt uit..
:z

[Reactie gewijzigd door stewie op 19 juli 2016 19:29]

Niet alleen per staat, maar ook per gemeente/stad.
Ik vind het ook heel knap van de schrijver van het artikel dat hij nu al weet wat de koers van de dollar over een jaar gaat zijn. ;)
Dat wordt toch nergens beweerd? Er wordt enkel gezegd wat de prijs omgerekend in euro's is.
Voor een product dat over een jaar geintroduceert gaat worden. Als je die prijs NU gaat omrekenen moet je over behoorlijke gaven beschikken. :)
Zoiets is gewoon een voorspelling gebaseerd op resultaten uit het verleden... ;)
Weet iemand waarom de IronWolf (NAS model) drie jaar garantie krijgt en de Barracuda (Desktop) 5 jaar? Ik zou net zeggen dat een Desktop model in een minder stabiele omgeving zijn werk moet doen: Meer spin-ups en spin-downs, minder constante temperatuur,... Dit alles knabbelt toch aan de levensduur?

[Reactie gewijzigd door TimBee op 19 juli 2016 16:32]

Dit vraag ik me ook af het enige dat ik nog kan bedenken. Een Nas staat continu aan en daarbij draaien de schijven. Of de Nas zet zichzelf in soort stanby en zet de schijven stil. Dit laatste vinden veel schijven minder prettig. Vraag me ook af soms hoeveel voordeel het voor een standaard consument er in een Nas versie tegenover desktop versie zit. Diverse desktop modellen hebben meer dan 3 jaar garantie
Op Google gevonden (en door Google geschreven): Artikel dat o.a. de vergelijking maakt tussen power up en power downs VS de schijven 24/7 laten draaien en de impact op de levensduur:

http://static.googleuserc...archive/disk_failures.pdf

Quote:

Power Cycles.
The power cycles indicator counts the number of times a drive is powered up and down.
In a server-class deployment, in which drives are powered continuously, we do not expect to reach high enough power cycle counts to see any effects on failure rates.
Our results find that for drives aged up to two years, this is true, there is no significant correlation between failures and high power cycles count.
But for drives 3 years and older, higher power cycle counts can increase the absolute failure rate by over 2%.
We believe this is due more to our population mix than to aging effects. Moreover, this correlation could be the effect (not the cause) of troubled machines that require many repair iterations and thus many power cycles to be fixed.
Ik zou ook zeker het desktopmodel nemen met langere garantie en zorgen dat mijn NAS 24/7 blijft draaien, IMHO de beste situatie voor een HDD
Dat kan goed werken, maar de TLER zorgt er bij een NAS schijf wel voor dat slechts de schijf als dood verklaart wordt in plaats van de hele array.
Desktop schijven handelen error correctie bij bijv. bad sectors heel anders af wat meestal onwenselijk is in RAID opstellingen en RAID grade schijven zullen hierdoor sneller voor bad sectors voor garantie geretourneerd worden.

Even afgezien van de verwachting dat desktop schijven minder belast worden en maar 1/3de van de dag aan staan.
Vraag me af hoeveel thuis Nas systemen thuis bij mensen staan die in standby gaan. Bij menig standaard consument en Nas gaan de schijven automatisch na x aantal op standby. Dit gebeurt ook met veel harde schijven aan een router. Al is dat iets anders. Deel is wel zelfde. Veel Nas gebruikers die ik ken zijn overdag niet thuis (werk en hoeven niet via app bij hun thuis bestand jes). In de avond laat is het slaaptijd. De automatische backup als deze aanstaad duurt de eerste keer lang daarna vaak kort omdat er weinig veranderd is. Ik gok dan ook dat een schijf in dit soort gevallen best wel eens richting dezelfde aan uit percentages kan gaan als een desktop hardeschijf
Veel mensen gebruiken een NAS niet alleen als veredelde fileshare. Vaak draaien er torrent clients op, websites, DLNA, etc.
Dat is maar een heel klein deel. De meeste torrent bakjes die ik tegen kom zijn gewone computers. Websites draaien ze al helemaal niet erop.

Heb in mijn omgeving een stuk of 25 NASjes draaien en denk dat er zo 18 a 20 alleen als bestand opslag gebruiken.
Een NAS staat 24/7 aan, waardoor de schijf dus veel sneller het aantal uren maakt waarop ze garantie kunnen geven.
Beetje offtopic: Kleeft er überhaupt een nadeel aan het gebruik van NAS harde schijven in een desktop pc?
Ja, bij bad sectors zal je RAIDset voor veel langere periodes bevriezen met desktop schijven en minder snel of in sommige gevallen niet tot reparatie over gaan waar dat bij RAID schijven wel het geval is.

Dat is 1 van de voornaamste verschillen.
Well, in ieder geval 10 MB/s max doorvoersnelheid.
24/7 is toch juist beter voor een HDD? in elk geval dat zei mijn pa altijd, hij verving schijven in serverruimtes. Spin up en down en temperatuur verschillen is juist waaraan een schijf stuk gaat. Ik start elke dag mijn PC op, dus schijven in een desktop situatie slijten over het algemeen VEEL sneller. Dus is het inderdaad vreemd dat het desktopmodel een langere garantie krijgt. Je krijgt dan van die situaties waarin een server al 20 jaar zonder problemen 24/7 draait, zet hem 1x uit en de boel is stuk.

[Reactie gewijzigd door BruT@LysT op 19 juli 2016 17:55]

Dit klopt. Zo is het beter voor een schijf als die bijvoorbeeld 24/7 op 40'C draait dan dat die schommelt tussen 20-35 graden i.c.m. spindown en spin-up.
Eigenlijk zijn die NAS schijven, desktopschijven met andere firmware.

Hardwarematig zijn ze dezelfde.

Je heb trouwens 1 jaar garantie meer op je Iron Wolf. En je vergelijking is fout. De Bacarcudas hebben 2 jaar garantie. Enkel de Baracude Pro is 5 jaar. Deze PRO heeft wel een veel hogere non recoverable error rate dan dekstop schijven of de goedkopere "nas" schijven.

Hetzelfde bij WD. Enterprise drives hebben hogere Non recoverable error rate, 5j garantie. De REDs hebben 3 jaar. Lagere Non Rec.
De RED PRO's hebben dan weer wel een hogere Non Rec. en ook 5 jaar garantie.

Maar je betaald ook voor die extra, niet zozeer veel meer, maar ik vind dat beetje extra voor 5 jaar garantie wel mooi. Al moet ik zeggen dak mn WD RE schijven nog steeds draaien en 2 op 6 vervangen zijn en ouder dan 5 jaar zijn. Denk 7 jaar nu of meer, straks eens checken. Maar vele schijven zouden wel eens na 3 jaar kunnen falen en dus vind ik dat beetje extra voor een nieuwe schijf wel mooi.

[Reactie gewijzigd door Nees op 19 juli 2016 16:52]

Waarom zijn die 2 vervangen? Gewoon nieuwsgierigheid. Terwijl ik dit lees bedenk ik me dat ik nog nooit een defecte RE schijf in handen heb gehad. Nu zijn er nog 11 ingebruik. Meeste 5+ jaar. Nog wel tientallen andere defecte schijven liggen.
Eigenlijk is het er eentje die snel faalde, veel kapotte sectoren. De andere draaien nog steeds. Al geeft de SMART van een schijf elk week instant READ FAILURE. Dus die moet vervangen worden. Maar omdat die NAS als backup draait van een andere is dat niet prioritair. Maar die is toch al wel +5 jaar oud :) Het is een QNAP met 6 schijven.
Dat zou je wellicht denken maar dat is in dit geval juist niet aan de orde. Zie de inhoud van de limited warrenty:
Desktop
Load/Unload Cycles 300,000
Power-On Hours (per year) 8760
Workload Rate Limit (TB/year)2 300

De NAS Schijf:
Load/Unload Cycles3 600,000
Power-On Hours (per year) 8760
Workload Rate Limit (WRL) (TB/year) 180
Wat opvalt is dat beide schijven even lang kunnen draaien. De nas NAS schijf kan 2x zo vaak in/uit schakelen terwijl de Dekstop schijf 2x zoveel data kan verwerken op jaar basis.

Blijkbaar ligt de focus bij de desktopschijven op duurzaamheid en bij de NAS schijven op het aantal inschakelingen. Op zich is dat niet heel gek, tegenwoordig kunnen veel NAS apparaten ook gewoon in standby en hoeven je schijven helemaal niet meer 24/7 te draaien. Mijn eigen nas staat circa 12 uur per dag uit.
Je kunt het ook omdraaien:
De desktop variant krijgt 5jr omdat deze veel minder gebruikt wordt dan de NAS variant die waarschijnlijk continue draait ;)
Dus koop je de desktop-variant voor je NAS? Differentiatie voor doeleinden is doorgaans onzin. Je kunt kijken naar dingen als RPM, stroomverbruik en eventuele power saving opties, maar ook daar weer hangt het af hoe je je NAS wil inrichten welke je kiest. Ga je voor performance of voor zo laag mogelijk energieverbruik?

In dit geval is het een makkelijke keuze: ga voor het model met 5 jaar garantie, ook voor je NAS. Zelf heb ik mijn buik vol van Seagate na het 3TB-schijven-fiasco, dus ik zou sowieso voor een andere leverancier gaan, maar 3 jaar voor harde schijven is sowieso wel erg kort.

[Reactie gewijzigd door MadEgg op 19 juli 2016 16:51]

Ik zou in ieder geval voor de NAS niet alle schijven tegelijkertijd in de NAS stoppen als je voor de desktopschijven gaat. De kans dat ze allemaal rond hetzelfde punt er mee stoppen is wel redelijk aanwezig. (1x gehad en mijn bestelde nieuwe disk kwam net te laat binnen om de raidset weer op te bouwen)
En waarom zou niet exact hetzelfde gebeuren met de NAS schijven? Ik kan er niet omheen dat ik deze differentiatie gewoon ONZIN vind. Net zoiets als speciale shampoo voor haar met highlights, flikker toch op :D
Ligt aan het ontwerp.

Zelfs als de slijtage hoger ligt, het totaal aantal productie uren per dag zal veel lager liggen. Die nas schijf draait 24 uur per dag terwijl die desktop schijf misschien wel 8 uit of minder in gebruik is.
NAS schijven halen sneller lange schrijftijden (of oudemond rateltijden) waardoor ze sneller slijten.
Harde schijven zijn niet gemaakt om 24/7 te schrijven en daar houden ze wat meer rekening mee met NAS modellen.
Dat vroeg ik mij dus ook af. Wellicht komt het dat deze langer draaien en dus meer uren maken, maar met zekerheid kan ik dat niet zeggen. Ik heb daar een onderbuik-gevoel van, wat is gekomen na eerdere ervaringen met Seagate schijven.

Ik wacht de ervaringen wel even 2 jaar af, hoe goed deze serie is, want zit er niet op te wachten om een NAS schijf van 10TB binnen 3 jaar te vervangen (garantie of niet).
10TB is 9TB na formateren. Nog voor je begint heb je al 1TB verlies.
Niet waar. Bij harde schijven gaat 10TB uit van 1TB = 10^12 bytes. Besturingssystemen gaan uit van 1TB = 2^40 (met het idee 1 kilobyte = 1024 bytes, 1 megabyte is 1024 kilobytes, 1 gigabyte is 1024 megabytes en 1 terabyte is 1024 gigabytes).

Dat komt dan neer op 10 000 000 000 000 vs 10 995 116 277 760 bytes. De 10TB zal door je OS dus gezien worden als 9.09 TiB. Dat is geen verlies, dat is gewoon een andere notatie voor exact hetzelfde.

[Reactie gewijzigd door MadEgg op 19 juli 2016 17:10]

Voor mijn gevoel (als consument) wordt er dan toch zo'n kleine 10% gesjoemeld. Fabrikanten zouden eigenlijk moeten adverteren met de daadwerkelijke ruimte die overblijft na het formatteren, net zoals er bij smartphones gedoe is over het feit dat er van de interne opslag een heel deel door het systeem wordt opgeslokt en daardoor niet direct beschikbaar is voor de gebruiker.
Ach ja. Snelheden van internetverbindingen worden ook altijd geadverteerd als Mb. Strikt genomen klopt dat ook, maar in spraak hoor je het verschil tussen Mb en MB niet, en bovendien kun je van de meeste consumenten niet verwachten dat ze dat weten.

Marketing moet je gewoon doorheen prikken. Feitelijk adverteren ze met de grootte die overblijfy na formatteren (dat hele formatteren heeft er niets mee te maken, als je in het schijfbeheerprogramma kijkt zie je ook zonder formatteren een waarde die mogelijk een andere standaard gebruikt. Formatteren zelf reserveert een zeer beperkte hoeveelheid ruimte voor metadata, dat is nog niet eens 1 procent van de totale ruimte). Er zijn ook besturingssystemen die wel van MB ipv MiB uitgaan, of waar het configureerbaar is. Natuurlijk komt dit de schijffabrikanten goed uit, maar het klopt wel gewoon.
Voor mijn gevoel (als consument) wordt er dan toch zo'n kleine 10% gesjoemeld.
Dan ben je niet oud genoeg. In den beginne kon je harde schijven op verschillende manieren formatteren en dat moest je ook zelf doen.
Bruto werden ze verkocht en netto hield je uiteraard minder over. En dat is nooit veranderd, behalve dan dat de marges groter zijn geworden.

Maar ach, in mn bierflessen zit ook lucht terwijl daar bier had kunnen zitten.
Dit gaat enkel over je analogie; Op de bierfles staat niet de inhoud van het flesje (lucht, of maximale inhoud), maar de hoeveelheid bier.
M.i. geen goede analogie.

Verder ben ik het eens met de wijze waarop geadverteerd wordt. Er wordt daadwerkelijk de juiste hoeveelheid aangegeven. Dat dit ná het formateren resulteert in minder bruikbare ruimte is irrelevant.
Dat komt dan neer op 10 000 000 000 000 vs 10 995 116 277 760 bytes. De 10TB zal door je OS dus gezien worden als 9.09 TiB. Dat is geen verlies, dat is gewoon een andere notatie voor exact hetzelfde.
Nu kan je zeggen wat je wil maar je kan geen 10TB data op deze schijf krijgen. En dat is het enige wat telt.
Dat kan dus wel. Je kunt er alleen geen 10 TiB aan data opkrijgen.

10 TB = 10 000 000 000 000 bytes. Als je het file system buiten beschouwing laat krijg je er exact dat op. Gebruik je wel een file system (nogal logisch), dan is dat iets minder, maar dan heb je het over misschien 0.1% overhead. Niemand verplicht je tot het gebruik van een file system, en zeker de fabrikant van de schijf niet, maar dat is wel zo handig.
Nee, 10TB blijft 10TB (minus de data die wordt opgeslokt door metadata van het FS). Dat jouw OS er foutief 9TB van maakt ipv de correcte 9TiB is niet de schuld van de schijvenfabrikant.
Da's niet helemaal eerlijk. Vroegah, gingen schijffabrikanten uit van de binaire eenheden, veelvouden van 1024. Op een bepaald moment zijn ze overgegaan op veelvouden van 1000. Daar was destijds nog een boel ophef over. Daarna is pas de MiB, TiB notatie in het leven geroepen om duidelijkheid te verschaffen. Helaas worden ze nog steeds door elkaar gebruikt. Op schijven gaan ze uit van 1000, bij RAM van 1024, maar beide gebruiken ze GB.

Om het nog leuker te maken gaan ze bij SSD's weer wel vaak van 1024 uit...

[Reactie gewijzigd door MadEgg op 19 juli 2016 17:23]

Dat is simpel: bij chipgeheugen (flash, DRAM, SRAM, etc) worden binaire hoeveelheden gebruikt, bij al de rest (optisch, magnetisch, netwerk) worden decimale hoeveelheden gebruikt omdat het binaire karakter daar niet aanwezig is en decimaal de gulden standaard is.

Dus, nogmaals: dat de meeste besturingsstystemen de foute eenheid gebruiken wilt niet zeggen dat de schijffabrikanten schuldig zijn.

Edit: overigens durven SSD-fabrikanten een deel van het geheugen verbergen voor de gebruiker zodat er effectief maar een decimale hoeveelheid overblijft ipv de binaire.

[Reactie gewijzigd door IveGotARuddyGun op 19 juli 2016 19:03]

Er is geen goede of foute eenheid, ze zijn beide goed. Het is verwarrend dat ze niet overeenkomen tussen magnetische media en besturingssystemen. Voor de gebruiker gaat het erom dat het vergelijkbaar is, en dat is het zo niet zo eenvoudig.

Overigens is er op magnetische schijven net zo goed een binair karakter. Er worden daar net zo goed bits opgeslagen, een byte is nou eenmaal opgebouwd uit bits, binary digits. Ik heb hier nog een stokoude 16MiB schijf liggen. Op het etiket staat 16MB = 16777216 bytes. Destijds dachten ze er duidelijk nog anders over.

De ouderwetse 1.44MB magnetische diskettes bevatten ook 1.474.560 = 1440 x 1024 bytes, dus ook daar gold die notatie.
Er is geen goede of foute eenheid, ze zijn beide goed.
Goh, als ze rekenen met 2x1020 mogen ze dat geen 2 megabyte noemen, dat is 2 mibibyte. Daarentegen is 2.000.000,- byte gelijk aan 2MB, waarbij M de geldige SI-prefix uit het decimale stelsel is. Dus er is fout en juist afhankelijk van het gebruikte talstelsel.
Het is verwarrend dat ze niet overeenkomen tussen magnetische media en besturingssystemen.
Akkoord, maar Windows doet het gewoon fout: ze rekenen in machten van twee maar gebruiken de SI-prefixen van het decimale stelsel. Wat is het nu, decimaal of binair? Als je kiest voor een bepaald stelsel moet je de bijhorende prefixen ook gebruiken en niet beginnen wisselen.
Voor de gebruiker gaat het erom dat het vergelijkbaar is, en dat is het zo niet zo eenvoudig.
Tuurlijk is het eenvoudig: kijk naar de gemiddelde GNU-tool (zoals df) of een window manager in Linux of BSD, ze gebruiken hun eenheden meestal tot altijd correct, onlijk Windows.
Overigens is er op magnetische schijven net zo goed een binair karakter. Er worden daar net zo goed bits opgeslagen, een byte is nou eenmaal opgebouwd uit bits, binary digits.
Inderdaad, de sectoren zijn opgebouwd in veelvouden van twee ipv tien, maar die sectoren zijn tov de totale capaciteit verwaarloosbaar klein zodat het aantal sectoren willekeurig is ipv óók een veelvoud van twee, wat wél vaak het geval is bij chipgeheugen zoals RAM en flash: combinaties van twee, vier, acht of zestien keer een basischip die wordt gebruikt, om zo een totale capaciteit te leveren die dus ook weer een veelvoud van twee is.
Ik heb hier nog een stokoude 16MiB schijf liggen. Op het etiket staat 16MB = 16777216 bytes. Destijds dachten ze er duidelijk nog anders over.
Inderdaad, vroeger gebruikten ze nog de decimale prefix bij het binaire talstelsel, maar gelukkig zijn ze daarvan afgestapt om duidelijkheidsredenen (en eigenlijk vooral om de poen, ik geef het graag toe).
De ouderwetse 1.44MB magnetische diskettes bevatten ook 1.474.560 = 1440 x 1024 bytes, dus ook daar gold die notatie.
Inderdaad, geen idee hoe het komt dat men daarbij zo heeft gerekend. Hetzelfde geldt trouwens voor CD's: een deel binair en een deel decimaal, om zo tot 700 'MB' te komen.
Edit: blijkbaar zijn CD's effectief ~=700MiB, ik heb dus niks gezegd.

[Reactie gewijzigd door IveGotARuddyGun op 19 juli 2016 19:58]

Goh, als ze rekenen met 2x1020 mogen ze dat geen 2 megabyte noemen, dat is 2 mibibyte. Daarentegen is 2.000.000,- byte gelijk aan 2MB, waarbij M de geldige SI-prefix uit het decimale stelsel is. Dus er is fout en juist afhankelijk van het gebruikte talstelsel.
Op zich heb je gelijk, ware het niet dat die prefixen en afkortingen pas in het leven geroepen zijn nadat de HDD-fabrikanten plotseling begonnen om MB als 1 000 000 bytes te implementeren. Daarvoor was dat geheel niet nodig, en waren zowel schijfmakers als besturingssysteem-makers het erover eens dat 1 MB = 2^20 bytes.

Waarom Microsoft bijvoorbeeld weigert om na al die jaren GB eens een keer te vervangen door GiB zou ik niet weten. Maar het is niet zo zeer aan MS te danken dat de GB die zij nog steeds gebruiken ooit wel correct was en inmiddels niet meer. Dit zaait alleen nog maar meer verwarring, maar is in beginsel veroorzaakt door de HDD-fabrikanten.
Akkoord, maar Windows doet het gewoon fout: ze rekenen in machten van twee maar gebruiken de SI-prefixen van het decimale stelsel. Wat is het nu, decimaal of binair? Als je kiest voor een bepaald stelsel moet je de bijhorende prefixen ook gebruiken en niet beginnen wisselen.
Zie hierboven; lang geleden was het wel gewoon in overeenstemming. Maar het zou best eens gefikst mogen worden inderdaad.
Tuurlijk is het eenvoudig: kijk naar de gemiddelde GNU-tool (zoals df) of een window manager in Linux of BSD, ze gebruiken hun eenheden meestal tot altijd correct, onlijk Windows.
Linux \o/ Maar ja, de OSS community is doorgaans wat meer van correctheid, terwijl MS zich meer richt op wat men gewend is.

Voor de rest zijn we het wel met elkaar eens geloof ik; inmiddels zitten strikt genomen de schijfbouwers goed en Microsoft verkeerd met de terminologie. Toch blijft het bizar dat je een 10 TB schijf koopt en die vervolgens in de meeste besturingssystemen als 9,09 TiB (of foutief 9,09 TB) weergegeven wordt.
Op zich heb je gelijk, ware het niet dat die prefixen en afkortingen pas in het leven geroepen zijn nadat de HDD-fabrikanten plotseling begonnen om MB als 1 000 000 bytes te implementeren. Daarvoor was dat geheel niet nodig, en waren zowel schijfmakers als besturingssysteem-makers het erover eens dat 1 MB = 2^20 bytes.
Volgens het artikel over de binaire prefixen op de website van de Amerikaanse standaardenorganisatie lag het niet enkel aan de schijffabrikanten die een gemakkelijke slag zagen, maar ook omdat Personal Computing ineens veel breder werd omarmd binnen menselijke kringen, ook door mensen die niet vertrouwd waren met de riedel dat één kilobyte gelijk is aan 1024 bytes, maar wel met één kilogram = 1000 gram en één kilometer = 1000 meter.

Soit.
Waarom Microsoft bijvoorbeeld weigert om na al die jaren GB eens een keer te vervangen door GiB zou ik niet weten. Maar het is niet zo zeer aan MS te danken dat de GB die zij nog steeds gebruiken ooit wel correct was en inmiddels niet meer. Dit zaait alleen nog maar meer verwarring, maar is in beginsel veroorzaakt door de HDD-fabrikanten.
Goh ja, ik zou liever zeggen dat iedereen vroeger fout was door een geclaimde decimale SI-prefix te gebruiken voor een andere waarde dan de juiste, en dat de schijffabrikanten daar ondertussen zijn op teruggekomen, maar dat MS koppig blijft vasthouden aan zijn fout gebruik. Ondertussen bestaat de standaard voor binaire prefixen al bijna 18 jaar, maar MS is nog steeds niet van plan om er iets aan te doen en zijn gebruikers een beetje duidelijkheid te geven.
Voor de rest zijn we het wel met elkaar eens geloof ik
Akkoord!

Grappig trouwens hoe deze kwestie zo hard de gemoederen kan bespelen:
https://www.xkcd.com/394/
https://www.reddit.com/r/...ents/6bh71/xkcd_kilobyte/

TL;DR: stomme 'Muricans die kilo nooit gebruiken voor iets anders dan 'kilobyte' (dankzij hun middeleeuws Imperial Unit System) en graag de foutieve betekenis blijven gebruiken, ipv toe te geven dat 'kilo' in de beschaafde wereld (OH, SNAP!) al een andere betekenis had.

[Reactie gewijzigd door IveGotARuddyGun op 20 juli 2016 10:00]

Voor de grappen die MadEgg hierboven uitlegt zijn er trouwens meerdere rechtzaken geweest tegen de harde schijf fabrikanten.
https://en.wikipedia.org/wiki/Binary_prefix#Legal_disputes

[Reactie gewijzigd door goarilla op 19 juli 2016 19:20]

Lijkt me ook wel 'leuk' dat als je harde schijf uiteindelijk z'n geest geeft, je opeens 10 TB aan data kwijt bent. Of als je 10 TB dan wilt back-uppen, je ook wel even bezig bent... :o Dat lijkt me dan ook het directe nadeel van harde schijven die steeds groter en groter qua opslagcapaciteit worden. Ergens ben ik dus nog wel blij met m'n halve tera :+
Lijkt me ook wel 'leuk' dat als je harde schijf uiteindelijk z'n geest geeft
Heb dit nu al 2x gehad. 1x in een pc, en 1x in een nas met een JBOD config (2 disks in 1 keer weg). Sindsdien werk ik met 2 losse pc's die mekaar dagelijks mirroren.
JBOD is dan ook niks anders dan virtueel meerdere schijven achter elkaar plakken zonder striping of fancy dingen. Als er één schijf stuk gaat zal je de data op de tweede schijf nog gewoon hebben en ben je gewoon de helft van je data kwijt.

Dit soort schijven wil je dan ook wel in RAID hebben om dat soort dingen te voorkomen waar mogelijk. Al is een RAID natuurlijk geen vervanger voor goede backups.
Is dat wel echt waar ? Als je eerste schijf kapot gaat en die draagt het merendeel van je onderhoudsstructuren (MFT entries, inodes, ...). Dan moet je je data toch in elkaar proberen puzzelen met tools zoals photorec en/of diskdigger, recuva ?
Je kunt v.z.v.i.w. een JBOD array gewoon weer "uit elkaar" halen en de schijven apart benaderen. Of het voor kan komen dat bestanden twee schijven overbruggen (dus schijf 1 vol -> doorgaan op schijf 2 met het zelfde bestand) dat weet ik niet.
Ik ben curieus welke implementatie is dat ?
Dat staat er toch, JBOD?
Windows Spanned Volume, Linux LVM, Linux MD-linear, Hardware Raid (3ware, promise, LSI) ?
Ik heb geen JBOD array draaien (waarom zou je) en ik zei je al dat ik het niet zeker wist ;) Wat heeft doorvragen dan voor zin?

Het heeft meer zin om hier zelf onderzoek naar te doen of een topic daarvoor te openen in het forum als je meer wil weten.

Op het internet is hier ook weinig over te vinden wat er nu echt gebeurt en hoeveel er is terug te halen. Het kan zijn dat je alles kwijt bent (omdat de index dus kapot stuk is) of dat er een deel kwijt is. Zie bijv: http://www.tldp.org/LDP/EVMSUG/html/characraidlvls.html.

LVM is een stuk complexer en geef ik het een stuk minder kans dat je data terug kan halen.

Gewoon een windows spanned volume zou niet al te spannend moeten zijn, maar tjsa, ook daar geen idee.

Ik heb in het verleden twee of drie arrays gehad waar een schijf stuk ging en ik nog bij de data van de andere schijf kon.
Ik heb geen JBOD array draaien (waarom zou je) en ik zei je al dat ik het niet zeker wist ;) Wat heeft doorvragen dan voor zin?
Aah OK, dat heb ik dan niet echt opgevangen.
Gewoon een windows spanned volume zou niet al te spannend moeten zijn, maar tjsa, ook daar geen idee.
Goed idee, Ik denk dat ik dat dit weekend wel is ga testen.
Hij heeft een RAID1, enkel het zit niet in 1 systeem, ook dat is redudant :)
Heb dit nu al 2x gehad. 1x in een pc, en 1x in een nas met een JBOD config (2 disks in 1 keer weg).
Daar doelde ik op, niet op wat hij nu heeft. ;) Nu heeft hij gewoon een mirror inderdaad. Is echter niet het zelfde als RAID1.. Nu maakt hij een mirror van een andere PC, als die PC corrupt raakt dan raakt je mirror ook corrupt. Met RAID1 heb je hier minder kans op omdat de brondata naar twee schijven wordt geschreven in plaats van eerst naar schijf 1 en vervolgens van schijf 1 naar schijf 2. Je bron data moet dus al corrupt zijn bij RAID1 wil je problemen krijgen.

[Reactie gewijzigd door Ventieldopje op 19 juli 2016 18:36]

Lijkt me ook wel 'leuk' dat als je harde schijf uiteindelijk z'n geest geeft, je opeens 10 TB aan data kwijt bent. Of als je 10 TB dan wilt back-uppen, je ook wel even bezig bent... :o Dat lijkt me dan ook het directe nadeel van harde schijven die steeds groter en groter qua opslagcapaciteit worden. Ergens ben ik dus nog wel blij met m'n halve tera :+
Elke ... keer ... weer ....

Al sinds de HDD's aangekondigd worden met verdubbeling in opslag, elke keer weer dezelfde opmerkingen.

"te groot"
"te duur"
"te gevaarlijk"

Als er geen markt of vraag naar is, word het niet ontwikkeld, niet voor jou, voorlopig qua prijs niet voor mij, maar er zullen best gebruikers ijn die er WEL op wachten, de het wel op prijs stellen, en willen/kunnen betalen.

Vorige maand een 6x8TB NAS weggezet, ik denk dat die stiekem had gehoopt dat de 6x10 al mogelijk was, maar zijn 'oude' 4x6 is nu eenmaal vol.
Sommige mensen hebben nu eenmaal een verzameldrift.

* FreshMaker heeft vooralsnog genoeg aan de 4x4TB ( pff 2x4TB was ook al ruim )
Probleem is niet dat het te groot of te duur is, het grote probleem is te veel storage achter een behoorlijke bottleneck. Alle toegang tot die 10GB aan data moet door 1 SATA interface en maakt gebruik van 1 set lees/schrijf koppen.

Het is prima voor archivering, maar voor een RAID setup begint het al link te worden, niet omdat het te veel data is maar omdat het te traag is. Hierdoor duurt het resilveren van een 10TB HD erg lang en al die tijd ben in in RAID setup met 1 schijf redundancy niet veilig. Als dit een 10TB PCIe SSD was met 2000MB/s lees/schrijf snelheden dan was het een heel ander verhaal.

Ook voor een NAS in een bedrijfs situatie is het problematisch, op 10TB kan je de data van een hoop users kwijt, maar al die users moeten door diezelfde bottleneck. Met 5 schijven van 2TB heb je 5 keer zoveel I/O bandbreedte.

[Reactie gewijzigd door Aaargh! op 19 juli 2016 16:51]

1 disk redundancy is natuurlijk voor grote raidsets not done.
Meestal ga je voor een RAID 60, bestaande uit meerdere raid 6 sets en zet je dan nog een disk of 2 als hotspare.
Voor schijven met capaciteit boven 3 TB wordt nu zelfs triple mirroring aangeraden en die dan in een striped setup zetten. Maar enkel ZFS kan dat aan.
Voor een groot deel heb je natuurlijk gelijk, er is een punt dat de verzadiging optreedt.
Maar een consument zal ( in eerste instantie ) niet direct de 10TB gaan volzetten met 'nieuwe data'
Ga je dit wel doen, dan heb je inderdaad al vanaf de eerste minuut een 'probleem'
Zeker met het opbouwen van een raidset moet je rekening houden een hoop tijd'verlies'

Ik plaats regelmatig consumer/prosumer nas hardware, en moet meestal een 'handleiding' bijgeven, met do's en don'ts
Wat ik meestal wel afraadt, is om alles op dag één direct over te willen zetten, mits er geen noodzaak is.

De ( enige) zakelijke nas die ik plaatste heeft inderdaad ook 'maar' 5x2TB, maar wel een incremental netwerkbackup naar een 4x4TB.
De 4x4 is beduidend langzamer, maar die hoeft 'alleen' maar op te slaan ;)

Planning is btw wel om een ssd-cache in te gaan zetten, maar het spook 'budget' is er nog even ;)
Bij de hoeveelheid data die je moet backuppen is de hoeveelheid data die je hebt leidend, niet de capaciteit van de schijf waarop je dat doet. Als jij met een halve TB uitkan dan hoef je niet opeens meer te backuppen als je een 10TB schijf hebt. Het zou waarschijnlijk wel een miskoop zijn aangezien je schijnbaar niet zoveel data nodig hebt, maar dat geheel terzijde.

Bij hardwarefalen ben je wel in een klap meer data kwijt (als je de schijf vult), maar er is nooit een geldig excuus geweest om niet te backuppen. Belangrijke data moet je op twee of meer plekken opgeslagen hebben, bij voorkeur op andere locaties. Zelf heb ik belangrijke gegevens in RAID-1 staan en brandt ze periodiek op bluray-schijfjes die bij mijn ouders opgeslagen worden. Daarnaast draai ik nog backups naar een server in het datacentrum.

Ik zie het om mij heen zo vaak fout gaan, falende harde schijven. Ook bij 0,5 TB schijven. Altijd backups maken. Onafhankelijk van het formaat en het merk van de gebruikte opslag.

[Reactie gewijzigd door MadEgg op 19 juli 2016 16:47]

Zelf heb ik belangrijke gegevens in RAID-1 staan en brandt ze periodiek op bluray-schijfjes die bij mijn ouders opgeslagen worden.
Interessant, ik heb een paar vragen. Heb jij al M-discs gebruikt, dat zou in principe het levenscyclus beheer van de optische media quasi onnodig maken. Heb jij een dataset die op 1 bluray past of gebruik je een of ander label beheersysteem om je backups te vinden ? Encrypteer jij je (offsite) backups ?
Nope. Ook die schijfjes zou ik niet blind vertrouwen, ik wil sowieso meerdere backups. Ik heb dan ook geen M-discs maar gewone Verbatim DataLife schijfjes. In mijn ervaring blijven schijfjes zeker jaren goed als je ze donker bewaard, en aangzien het een van de meerdere backups is ben ik er niet zo bang voor dat er eentje stuk gaat.

Ik heb ongeveer 700 GB aan data op mijn NAS in RAID-1 staan, maar daarvan is +- 150 GB cruciaal, waaronder filmpjes en foto's. De rest kan ik wel zonder leven / opnieuw bemachtigen. Dat wordt dus ook niet op de schijfjes opgeslagen.

Backup-procedure is simpel: alle data van beperkte omvang (documenten) passen bij elkaar op één schijfje, ruimschoots. Foto's en video's zijn chronologisch geordend en komen dan ook op die wijze op de schijfjes terecht, totdat de schijf vol is. Zo brandt ik 2 keer per jaar 8 schijfjes vol. Voorlopig houdt ik het archief nog aan, zoveel ruimte neemt het niet in, maar over een paar jaar ga ik er vast een stuk of wat oude wegdoen.
Dat is geen nadeel van "grote HDD's" maar van "veel data".
Of als je 10 TB dan wilt back-uppen, je ook wel even bezig bent... :o
Back-uppen is, als je het goed doet, geautomatiseerd en dus een passieve bezigheid. Kost je dus geen tijd, hoe groot de databerg ook is.
Ditzelfde verhaal werd gezegd toen de 250MB harddisk uitkwam. Net als bij de 1TB, de 4TB, de 8TB en nu dus bij de 10TB.

Harde schijven worden steeds groter en mensen zetten er steeds meer data op. Ja, je bent veel kwijt als'ie kapot gaat. Maar bedenk wel: vroeger was het een filmpje van 320x240 van 20MB, nu is het een BR-rip van 40GB. Uiteindelijk ben je nog steeds maar één filmpje kwijt :)
Eigenlijk valt dat nog wel redelijk mee. 5 jaar geleden vond ik schijven van 2TB best betaalbaar, en kon ik met mijn internetlijn 3Mb/s uploaden. Ondertussen heb ik schijven van 5TB (die per TB overigens net zo duur zijn als de 2TB toen. Valt best tegen), maar is mijn internetlijn 5 keer zo snel geworden. Per saldo zal een back-up naar een offsite locatie me nu dus minder tijd kosten dan 5 jaar geleden, en tegen de tijd dat schijven van 10TB betaalbaar worden (ruim minder dan ¤200 per stuk ofzo) zal mn internetlijn wel weer ruim sneller zijn dan nu.
Lijkt me ook wel 'leuk' dat als je harde schijf uiteindelijk z'n geest geeft, je opeens 10 TB aan data kwijt bent.
Dat zei ik ook toen ik naar 1 gigabyte ging, vanaf 20 MB en nog wat ukkies.
Met 10tb disks gaat t voor rauwe opslag een goede kant op. Ben beniwud wanneer de grote jongens als dell deze standaard in het assortiment gooien.
Ben beniwud wanneer de grote jongens als dell deze standaard in het assortiment gooien.
Voor een consumenten/desktop machine kan ik 't me nog voorstellen, voor een server lijken me deze an de grote kant.
Als je 'n server hebt waar een aantal VM's op draaien is 10TB wel fijn hoor ;)
Niet als de toegang tot die 10TB via 1 SATA interface is.
In elke server die ik tot nu toe opengehad heb is elke HDD/SSD aangesloten op het moederboard met een eigen aansluiting. Maar goed, dat is voor multi-disk. Waarom is het een nadeel als je 1 10TB disk op 1 SATA poort zit?
Omdat de toegang tot die 10TB aan data via die ene SATA poort gaat.

Stel dat je een database van 10TB hebt op 5 schijven in RAID0, en de access is volledig random dan wordt de load voor het aanspreken van die 10TB over 5 controllers en schijven verdeeld. Als het 1 schijf is moet alles door 1 interface en afgehandeld door 1 schijf. Effectief heb je dus minder bandbreedte en iops tussen de CPU en die 10TB aan data.
Dat klopt. Als je veel throughput zoekt moet je aan RAID denken ja, maar goed, wie draait er dan ook VM's op 1 enkele disk? Dan is je disk inderdaad een hele dikke bottleneck.

Voor een paar servers die veel CPU load hebben maar weinig I/O kan het best op 1 SATA poort.
Dat klopt. Als je veel throughput zoekt moet je aan RAID denken ja, maar goed, wie draait er dan ook VM's op 1 enkele disk? Dan is je disk inderdaad een hele dikke bottleneck.
Hier ESXi met 16 vm's op 1 SSD, ze gaan als de brandweer.
Ja, no shit. Een ssd kan 100+ keer de random IOPs aan van een hardeschijf. Ze hadden het specifiek over hardeschijven en veel opslag. Leuk dat je voor 1400 een 4TB ssd kan halen, maar als je echt zo veel data hebt ben je met een aantal. Hdds flink goedkoper uit. En dan ben je bij de essentie van het verhaal hierboven. Een grote hdd VS meerdere kleine, en niet een ssd.
maar goed, wie draait er dan ook VM's op 1 enkele disk?
Da's precies mijn punt: je hebt niet zo veel aan die 10TB in 1 schijf als je niet al die ruimte kan gebruiken, en je kan niet al die ruimte gebruiken omdat het maar 1 schijf is.
Hoezo niet? Ik heb zo'n disk nu te leen voor backup doeleinden en mijn systeem ziet gewoon de complete 10TB hoor. Mijn reactie was meer bedoeld dat je 4 van deze disks aan je systeem hangt, er een MD10/RAID10 array van maakt en dáár je VM's op gooit (in verband met snelheid/veiligheid). Ik ben nog geen enkel (nieuw-ish, mijn bak hier is nu een jaar of 6 oud) systeem tegengekomen wat hikt met 10TB op 1 fysieke disk.
Tuurlijk ziet ie de schijf, maar 1 schijf is te traag voor 10TB aan VM's.
Valt mee hoor, ik krijg hier gewoon ~500mb/s lees/schrijf snelheid (getest met dd if=/dev/urandom of=/dev/sdg)
500mb/s lees/schrijfsnelheid totaal, niet per VM. Da's het probleem.

Als je VM's hebt van 100GB (lijkt me erg ruim voor de meeste toepassingen) dan kan je op die schijf 100 VM's kwijt, dat betekend 100 machines die 500mb/s aan I/O bandbreedte moeten delen, en dan hebben we het nog niet eens over iops.
Datzelfde probleem heb je op disks van 1, 2 of 5TB dan ook he, dus dat is een non-issue. Bovendien gaat geen enkele zichzelf respecterende beheerder 100 VM's op 1 disk stallen. Dat het kan, ok, maar dat wil niet zeggen dat het ook moet. Dit zijn backup disks als je VM's in een zakelijke setting draait; je VM's draaien op SSD clusters (in RAID) met deze schijven als fallback / big storage eronder/ernaast.

Voor wat ik doe werken deze disks prima. Ik heb niet meer dan 5 VM's, en die draaien niet allemaal tegelijk. Ook zijn dit VM's waar niet echt veel mee gedaan word, op één of twee na. Dus voor kleine setups zijn deze disks *prima*
bah hangt er nogal af van het gebruik.
Als Backup repository voor bv VEEAM is dit wel lekker.
Nu moet ik het nog doen met 150 x 6TB. 150 x 10TB is toch een behoorlijke verbetering en je hebt niet meer plek nodig in je datacenter. Daarenboven zal het stroomverbruik hoogstwaarschijnlijk gelijk blijven... enkel een mogelijke rebuild van je RAID set (indien je deze hebt) zal een tikkeltje langer duren.
Poeh; dat zijn een hoop dure woorden bij elkaar }> .
Ben beniwud wanneer de grote jongens als dell deze standaard in het assortiment gooien.
Die grote jongens doen nog steeds of 1TB al royaal is dus ik vermoed dat de 10 TB ergens na 2030 standaard wordt.
Die grote jongens vinden dat iedereen alles in de cloud moet zetten, prima maar dan wel mijn cloud aka owncloud.
ik denk dat de HP's , DELL EMC VMWARE, Fujitsu's van deze wereld een behoorlijke concurrent gaan hebben aan windows 2016 hyper-converged storage oplossingen.
ik kan niet wachten op de release om ermee aan de slag te gaan

Een Terrabyte Flash kost gewoon nog steeds belachelijk veel.
Dit is haast niet meer te verantwoorden aangezien de grote cloud providers haast allemaal op consumer hardware draaien.

[Reactie gewijzigd door klakkie.57th op 19 juli 2016 22:13]

1 TB is natuurlijk ook best royaal - voor de meesten van ons. Ik zat in 2004 al aan 1 TB en nu al aan de 10 TB. Zou ik daarmee 14 jaar voorop lopen? :-)
Consumenten gaan volgens mij liever voor 2x 5TB a ¤ 150 per stuk (USB 3.0 versie van Intenso). En 10TB voor de videosurveillance lijkt mij voor consumenten een beetje te veel van het goede.
2x 10TB in raid 1 zie ik wel zitten voor me camera systeem :-)
Vooral de rebuild tijd en de kans dat de ander ook ploft is ook een leuke toevoeging, RAID wordt alsmaar minder relevant met dit formaat harddisks.
Bedoel je niet navenant ipv relevant ? Ben jij van mening dat de toekomst te vinden is in software based redundancy op een hoger niveau dan de media dragers en volume management lagen ? All hail Ceph.
Raid minder relevant voor dit formaat harddisks ?
Ik vind dit een rare bewoording aangezien raid 1 niks te maken heeft met de totale schijf capaciteit.

Simpel voorbeeld: Ik ga op vakantie en mijn enige 10TB schijf klapt eruit..
Resultaat: geen beelden meer
Oplossing: Had ik alles in RAID staan dan kan het systeem gewoon verder recorden.
Dat heeft te maken dat de rebuild zo enorm lang wordt door dit formaat harddisks dat de kans is dat tijdens dit proces (nogal IO intensief) de andere disk ook ploft aangezien deze meestal tegelijk aan de RAID set is toegevoegd.
Kijk dat is een aanname.

Zodra ik erachter kom dat er iets aan de hand is met 1 van mijn raid schijven maak ik eerst een backup en plug dan een nieuwe schijf in.

Wanneer je schijven kapot gaan bij het rebuilden ben je als systeembeheerder toch echt niet alert op de stabiliteit en levensduur van je hardware.
Dat is geen aanname en deze discussie speelt al tijden in de enterprise storage markt.

Een backup is altijd van levensbelang maar dan ook volgens het 3-2-1-0 principe.

Hoe kan je invloed hebben op alle andere schijven tijdens een rebuild, deze kunnen falen dat is gewoon een feit en hoe meer data er gerebuild moet worden hoe langer deze duurt hoe groter de kans, lees onderstaande artikel maar eens door, RAID wordt minder relevant voor enterprise omgevingen.

http://www.enterprisestor...m/raid-disk-rebuild-times
'' Today we use at least 1TB disks and their sequential write rate has only gone up to around 115MBps, the same math is 1,000,000MB / 115MBps = approximately 8700 seconds which is nearly two and a half hours. If you are using 4TB disks then your rebuild time will be at least ten hours. '''

De berekening op de website klopt zowiezo al niet.
Wanneer ik 2TB wil rebuilden kost me dit ongeveer een anderhalf uur. (sas 15k schijven)
(maandje of 3 geleden nog nodig geweest)
Dat is oa afhankelijk van de RAID set die gebruikt is RAID controller, load op het SAN etc.
Maar het is gewoon een alsmaar groter risico aan het worden wat niet te ontkennen is.
hmm, ik heb niet al te lang geleden een RAID 10 (software raid; hardware raid heeft bijna geen voordelen meer) moeten rebuilden met 8x6TB disk, dat duurde ~120 minuten..

In het verleden, met een RAID kaart, duurde het inderdaad véél langer. Beperking van hardwarematige RAID misschien?
Toch jammer dat ze de consumenten SSHD's nog steeds met een cache van maar 8GB uitvoeren terwijl de enterprise SSHD's 32GB hebben. Zit trouwens voor enterprise gebruik iemand op SSHD's te wachten? Het lijkt me eerder dat je daar helemaal niet wil hebben dat een schijf zelf dingen in een flash cache op slaat?

PS

Voor gamers, groen logo, Cuda? Waar ken ik dat van...

[Reactie gewijzigd door Carni op 19 juli 2016 18:07]

Je moet je even de som maken dat je die cache volledig gebruikt. Dus je schrijft er á 300MB/s 1MB blokken in. Na 16 seconden val je terug op je disk IO maar ondertussen is er ook al (pak em beet) 150MB eruit weggeschreven naar je disk. Dus effectief heb je nu nog 4GB buffer á 300MB is dat een royale 12 seconden en dat betekend dat je al 28 seconden lang á 300MB hebben zitten wegschrijven, in totaal is dat al 8.4GB.

Je moet je dan ook bedenken dat die cache vooral is voor sub 64K disk I/O, je moet al een hele flinke applicatie (lees: ik kan er geen bedenken, enkel databases) hebben wil je 8.4GB aan sub 64K I/O genereren in een halve minuut. Nu toegeven zal je performance in sub 64K niet de 1MB blokken benaderen van hierboven maar you get the picture.

[Reactie gewijzigd door analog_ op 20 juli 2016 00:45]

Ik blijf toch wederom kiezen voor HGST of WD Red schijven voor mijn nas4free server.
Ik heb toch wel te veel Seagate schijven dood zien gaan bij andere gebruikers.
Dit wil niet zeggen natuurlijk dat dat met deze schijven ook wel zal zijn, maar mijn vertrouwen in dit merk staat daardoor wel fors lager.

10TB al weer, ik weet nog wel dat de eerste 1TB op de markt kwam, goh wat was dat groot dacht men toen. Op naar nog grotere schijven zal ik maar zeggen.
HGST schijven voor normale computer gebruik, beste wat we is.
Je moet er snel bij zijn als het er maar 3 zijn. ;)
Je zal maar de vierde in de rij zijn... :)
Op = Op
Het lijkt me dat je altijd het model koop met de langste garantie termijn. Vreemd dat dit onderling verschilt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True