Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

WD brengt Gold-hdd van 12TB uit voor 689 euro

Door , 115 reacties, submitter: JS1982

Western Digital heeft een 12TB-hdd toegevoegd aan zijn WD Gold-serie voor enterprise-toepassingen. De met helium gevulde sata-hdd is voorzien van 256MB cachegeheugen en heeft een toerental van 7200rpm.

WD bood al hdd's met capaciteiten tot 10TB aan in zijn Gold-serie, daar is nu een 12TB-variant aan toegevoegd. De hdd staat voor een prijs van 689 euro op de website van de fabrikant. De 3,5"-hdd's in de Gold-serie zijn bedoeld voor continu gebruik en hebben een mtbf van 2,5 miljoen uur. Bij de WD Red-hdd's die bedoeld zijn voor in nas-apparaten is dat bijvoorbeeld 1 miljoen uur.

De fabrikant geeft vijf jaar garantie op de WD Gold-hdd's. Net als andere harde schijven met een hoge capaciteit wordt er gebruikgemaakt van helium. Omdat helium een lagere dichtheid heeft dan lucht, hebben de platters en de koppen minder last van wrijving, waardoor er minder warmteontwikkeling optreedt. Dat maakt het gebruik van meer platters mogelijk.

Eind vorig jaar kondigde WD al een 12TB-hdd aan voor de zakelijke markt onder de HGST-merknaam. Ook Seagate heeft al 12TB-hdd's uitgebracht. Op dit moment zijn er geen hdd's met een opslagcapaciteit groter dan 12TB, maar zowel Toshiba, WD als Seagate hebben aangegeven met 14TB- of 16TB-hdd's te komen.

Door Julian Huijbregts

Nieuwsredacteur

13-09-2017 • 10:44

115 Linkedin Google+

Submitter: JS1982

Reacties (115)

Wijzig sortering
12Tb aan data kwijtraken omdat de schijf faalt...moet er niet aan denken! maarja dat zeiden we ooit ook over 1Tb...en nog eerder over 250Gb...enzovoort...ik hou het voorlopig bij 4x 3Tb in mn systeem! maar over een paar jaar vast 3x 12Tb! ;-)
Maar deze Gold disk zal grotendeels in grootzakelijke omgeving worden ingezet, dus in storage devices, waarin een RAID 5 of een RAID 6 gebruikelijker is. Disk kapot, disk vervangen, RAID array opnieuw opbouwen zonder data te verliezen.

Ik moet er ook niet aan denken, 1 enkele 12 TB disk in mijn desktop......
Rebuild times van dagen of weken... Impact op je performance tijdens de rebuild.
Grote backup arrays met een aantal spares zie ik dit nog wel werken.
Daarom kiezen bedrijven met schijven van dit soort groottes voor een mirrored vdev opstelling. Raid heeft zijn beste tijd gehad. Ook hardwarematige raid controllers zitten in een stevige 'decline'
Ben ik niet met je eens. Er word juist ook veel voor raid6(0) gekozen door de extra pairity disk heeft een defect niet snel inpakt op de prestaties en kan een hotspare het snel overnemen. mirror is best duur helemaal met zoveel data raid 10 word voornamelijk gekozen voor de snelheid. Grote disk arrays worden ook wel opgebouwd met meerdere disks combinaties en units. Bijv Equallogic boxen met een raid 10 en raid6 gecombineerd of nog een aantal variaties met bijv raid 6 sata 7200rpm disks voor redelijk statische data een box met ssd's voor de echte snelheid en dan nog een bix met bijv 10k of 15k sas. In raid 10/50/60

[Reactie gewijzigd door vavoem op 13 september 2017 11:40]

raid5 en 6 hebben geen parity disk. Zowel data als parity wordt gestriped over alle disks
Dat klopt de parity word verdeeld over de disks bij raid 5 en 6 maar netto verlies je 1 bij raid 5 en 2 disks bij raid 6 aan parity blokken op de schijven. Alleen als je niks van RAID weet is het makkelijker uit te leggen/begrijpen dat het 1 of 2 disks netto kost aan parity :). Raid 3 en 4 hebben wel een parity disk maar deze 2 worden naar mijn weten niet meer gebruikt (alleen RAID 0,1,5,6, 10, 50 en 60). De verdeling van de parity data zorgt dan ook voor de vertraging bij een defecte disk omdat op bassis van de data en parityblokken het missende word berekend. Raid 6 is pas interessant vanaf 5 disks. Het kan bij 4 maar kost dan 50% van je opslag dan is RAID1(0) efficiënter en sneller.
Bij RAID 6 kunnen twee willekeurige disks falen, RAID 10 geeft je slechts de garantie dat een enkele disk kan falen. Als voor vervanging van de eerste disk een tweede disk faalt in een RAID 10 en die tweede bevat mirror data van de eerst gefaalde disk dan is het al over. RAID 6 kan dus ondanks de performance impact zelfs bij 4 disks al wel verschil maken qua betrouwbaarheid.
Dat klopt dat raid 6 betrouwbaarder is omdat er 2 willekeurige stuk kunnen maar als je met 4 disks 2 tegelijk stuk heb, heb je wel erg veel pech of erg laks geweest toen de eerst een tijd eerder faalde. Bij een raid 10 kunnen er ook 2 stuk maar moeten ze wel van de zelfde stripe set zijn. Met 4 schijven zou ik dan toch eerder kiezen voor hogere prestaties. Bij mijn test EqualLogic heb ik in RAID6 voor hogere capaciteit voorheen kon je hem ook in raid 5 zetten maar dat kan niet meer na een update naar v7 was dat over. Het systeem bepaald zelf wat de config is bij de keuze voor RAID 6, 10, 50 of 60 en altijd 2 spares dus effectief 12 disks van de 16 SAS 15K disks. Met 16 disks in RAID 6 snel zat :).
Ik heb mijn fileserver soort gelijk opgebouwd
2 raid controllers met elks 15 schijven in RAID 6 + 1 hotspare. (sommige schijven zijn al 5 jaar oud)
deze volumes in mirror met refs erover heen voor bit rot tegen te gaan.

Rebuild merk ik niets/zeer weinig van afhangkelijk van waar en wat aan het rebuilden is.
Zeker! RAID-5 is eigenlijk al niet goed genoeg, RAID-6 is te betwijfelen.

Ik zou deze disks met ZFS in zetten in een RAID-Z3 setup, ofwel 3 parity disks. Vervolgens maximaal 10 disks samen in één vdev. Zo houdt je de rebuilds en performance nog een beetje in toom.
In zo geval 11 schijven, aangezien ZFS het beste presteer met telkens het verdubbelen van de schijven plus parity disks. Dus 1, 2, 4, 8, 16 enz plus 1, 2, 3 Party disks.

Zelf draai ik 11x4TB in Z3 wat neer kom op 8 plus 3 voor voor party.
Klopt! Ik zat half in mijn hoofd te rekenen met RAIDZ2, maar je hebt volkomen gelijk. Zo kunnen de stripes netjes opgeknipt worden over de disks.
Mjah, ik krijg hier weer nachtmerries bij als ik een raid5 moet rebuilden bij een klant omdat 1x 12TB kapot is gegaan.. raid6 is dan tegenwoordig wel weer een betere optie, maar dan alleen al vanwege de rebuild tijd :X :X

[Reactie gewijzigd door CasGas op 13 september 2017 11:51]

RAID 5 met 12TB disks, rebuild tijd van een maand of meer en tijdens de rebuild slechte performance, uiteraard valt er een tweede disk uit tijdens die rebuild en is alles weg :+
Denk dat dit meer voor archiving is met zoiets als Backblaze doet aan software om data automatisch over meerdere servers te verspreiden ipv op RAID volumes.
Maar inderdaad even 12TB aan data herstellen uit een backup omdat 1 schrijfje plat ging, lekker dan...
In een NAS boeit dat niet zo, want die schijven zijn doorgaans een mirror van elkaar.
Ik mag toch hopen dat als je met 12TB schijven in een NAS werkt, je RAID strategie iets beter is dan RAID 1 (mirror)
Ik gebruik zelf raid 5 met 4 schijven, maar als je slechts 2 schijven in je Nas hebt dan kan Raid 1 ook prima toch.
RAID5 is eigenlijk al jaren niet meer betrouwbaar te doen met de gigantische datadichtheid van moderne schijven. Als een schijf er uit klapt heb je een gigantische kans dat je tijdens het rebuilden van de array op een URE (unrecoverable read error) stuitert waarna de hele array naar de kloten gaat.

Leuk artikel hierover: http://www.zdnet.com/arti...-5-stops-working-in-2009/

RAID6 is hier minder gevoelig voor dankzij de dubbele parity, maar ook daar is de kans groot dat het mis gaat.

ZFS is momenteel je beste vriend voor zulke hoeveelheden data tenzij je ten alle tijden >=50% van je opslagcapaciteit wil wegmieteren aan een mirrored array.

[Reactie gewijzigd door D4NG3R op 13 september 2017 13:13]

Gerbuik al jaren RAID6 precies om die reden, maar zit me af te vragen wanneer we een RAID variant kunnen verwachten met "Block-level striping with tripple distributed parity". Mijn huidige RAID 6 array van 8x6TB wil ik nog uitbreiden naar 12 disks (NAS vol), maar voor de 12 disk expansie unit wordt netjes een nieuwe array gemaakt. En met 8-10TB schijven zit ik kleinere arrays te overwegen (6 disks) of hot spares toevoegen.
Alleen is ZFS voor professionals en is voor de (net-)boven-gemiddelde pc/it gebruiker niet geschikt.

Ik ben er zo een en zie RAID5 of 6 als een goed begrijpelijk alternatief wat niet al teveel tijd en kennis vereist om het toch te laten werken.
De gemiddelde consument heeft uberhaupt al geen storage bak van > 6TB laat staan een RAID configuratie buiten die standaard al op een eventuele NAS draait.
Hoezo? Weet jij een RAID strategie die meer redundantie biedt?
Raid 5 of 6 is denk ik handiger.
Staat te bezien. Volgens het 'Specblad' heeft deze schijf een 'Non-recoverable read errors per
bits read' van < 1 in 1015.
De schijf heeft 12*1012 * 8 bits, dat is ongeveer 1014. Oftewel, bij het volledig lezen van een disk zegt de spec dat je kans op een read error maximaal 10% is.

Bij een 2 disk RAID1, waarbij een disk vervangen moet worden is de kans dat je dat lukt zonder dat de 2e disk ook uit de array wordt gegooid minimaal 90%.
Bij een 4 disk RAID5 neemt dat al af naar 73%, en een bij een 10 disk RAID5 nog maar 35%.

Bij RAID6 is het allemaal wat gunstiger, maar niet zoveel. Eigenlijk moet je bij schijven van dit formaat helemaal geen ouderwetse RAID gebruiken.
Klopt hardware raid is al jaren dood, ZFS is vele male betrouwbaarder. Gebruik je dan Z2 of Z3 dan is de kans veel groter dat je de rebuild overleef dan met mirror. Mede omdat met meerdere schijven in een array de schijven minder in verhouding belast worden om één schijf te rebuilden dan bij een mirror setup.
Hoe verschilt dat van bv raid6? ZFS is echt niet zoveel anders hoor, het is een kwestie van striping en checksumming, precies wat raid5 en raid6 ook doen.
De manier van schrijven in ZFS is wel degelijk anders er zit namelijk een controle mechanisme in.
De volledige technische uitleg is wat veel om in een respons te zetten .
https://nl.wikipedia.org/wiki/ZFS
Lees copy on write gedeelte bv en andere papers die je kan googlen.
ZFS gaat enkel data recoveren een raid moet de hele schijf repairen. Dus als de z2 failt op 99,% heb je toch nog 99% van je data terug bij een hw raid heb je niks.
Het verschil is dat hardware raid een harde schijf er uit knalt als het te lang duurt door dat bijvoorbeeld een paar sectoren slecht te lezen is. Daar door zou die zelfs de hele array kunnen laten vallen. ZFS (software raid) die wacht rustig af en slaat uiteindelijk de slechte sectoren over en repareer de data die beschadigd geraakt is.
Een beetje competente RAID controller weet wel beter dan een tweede disk uit een array te gooien vanwege een enkele non-recoverable error. In het domme geval ben je 100% van je array kwijt, in het andere geval ben je 1 sector = 4kB/12TB = 0.00000003% van je array kwijt. En dat is dus 0.00000003% van je array, niet 0.00000003% van je data - het kan ook een lege sector zijn.
Als je mazzel hebt...
RAID is niet meer de beste strategie bij schijven van deze grootte. De rebuild duurt te lang en de kans is heel groot dat tijdens de rebuild een andere schijf faalt.

Er wordt nu voor mirrored vdev's gekozen als beste strategie bij groottes van schijven van zeg 4TB+
Kwestie van meer party disks toevoegen, vdev is eigenlijk niet veel anders.
Een RAID5 met 12TB schijven, moet er niet aan denken! De rebuild tijden worden met 12TB schijven zo ontzettend lang dat de kans op een failure met een tweede schijf tijdens rebuild veel en veel te groot wordt. En dan is dus wel alle data pleite.
Nope, maar met zijn 4x3TB heeft ie wel maar 1 schijf van 9TB nodig voor een offline backup. Hij kan zelfs naar 4x4TB gaan.
RAID6 heeft niet meer redundantie dan RAID1. De kleinst mogelijke RAID6 array heeft 3 schijven. 1x data, en 2x pariteit. Dat levert me een redundantie van 200%. Dezelfde 3 schijven in RAID1 leveren me ook 200% redundantie.
Met 1 schijf meer heeft RAID6 nog 100% redundantie , terwijl ik met RAID1 de keus heb uit 300% redundantie (1x4 schijven) of 100% (2x2 schijven).
Met 5 schijven is de redundantie van RAID6 gezakt naar 66%, terwijl RAID1 niet onder de 100% kan.

Uiteraard geeft vanaf 5 schijven RAID6 me meer netto opslag, maar dat was de vraag niet.
Bij RAID 6 kunnen twee willekeurige disks falen, RAID 1 als 1:1 mirror met 100% redundantie geeft je slechts de garantie dat een enkele disk kan falen. Als nog voor de vervanging van de eerste disk een tweede disk faalt in een RAID 1 en die tweede disk bevat mirror data van de eerst gefaalde disk dan is het al over. Ik zou gegeven een goede controller en (een veelvoud van) 6 of 8 schijven kiezen voor RAID 6 in 4+2 of zelfs 6+2 configuratie in plaats van RAID 1 arrays bouwen met diezelfde schijven.
RAID 1 als 1:1 mirror met 100% redundantie geeft je slechts de garantie dat een enkele disk kan falen.
Er is niets dat je tegenhoud om 3 disks in RAID1 te zetten. Dan mogen er 2 disks falen.
Eens, maar dan houd je echt nog maar nauwelijks opslagruimte over, namelijk een derde van waar je mee begon. Een RAID 6 configuratie van 4+2 biedt al tweederde van de capaciteit, 6+2 zelfs driekwart. Oftewel je kunt met hetzelfde totaal aantal schijven maar liefst twee arrays al dan niet op twee locaties voorzien beide RAID 6 met een kopie van je data versus die enkele RAID 1. Tweemaal RAID 6 is al minimaal 4 disk failures. Met 6+2 heb je dan alsnog meer opslagcapaciteit. Meerdere copies in RAID 1 is echt een niche toepassing lijkt me?

[Reactie gewijzigd door OruBLMsFrl op 13 september 2017 22:36]

Ongeacht wat je RAID (of RAIDZ) strategie is: RAID heb je voor beschikbaarheid, voor de veiligheid heb je twee backups waarvan 1 off-site.
Tuurlijk, maar 12TB van je backup trekken omdat 1 schrijfje dood is wordt je niet blij van, met 12TB zit er sowieso wel wat tussen wat je NU nodig hebt ipv over anderhalve dag :+
Het zou inderdaad dom zijn als je schijven van deze grootte niet in RAID zet.
Ja dit soort schijven moet je niet in JBOD zetten... vragen om data verlies!
Over 10 jaar lach je over je opmerking. Kom op zeg telkens als er weer een grote disk uit komt hoor ik deze opmerking. Zelfs al toen bij de 1 TB disken.
Backup backup backup. (raidis geen backup!!)
tja dat meld ik toch ook zelf al???

@de rest; ik heb het over thuis...tuurlijk hebben grote bedrijven raid opstellingen...maar daar heb ik het niet over...;-)
Snap echt niet hoe sommige mensen het idee hebben dat het hun niet gebeurd.
Ik heb misschien zelf overdreven veel backups, maar ben iig verzekerd dat ik mijn data blijf behouden.
Toen ik nu studeerde zijn mijn werk disk en mijn backup disk in een week tijd allebei kapot gegaan, en ik realiseer met echt hoe snel het mis kan gaan.

Huidige setup:
-Werkserver met daarop alles gemirrord of met parity.
-5x per dag backup naar 2e schijf die aan een andere computer zit.
-Backup naar crashplan die constant aanstaat.
-1x per +- 2 maanden backup naar een externe hdd die bij mijn moeder ligt.
Zo extreem veel is het niet. De stap van 5x per dag naar de 2e schijf misschien een beetje wel :)
en hoevaak test je je backup met een restore?
daarom heb je raid om je data operationeel te houden en draai je backups als het echt fout gaat. ;)
Dit is ook bedoeld voor datacenters en hosting bedrijven, niet voor de doorsnee particulieren.
Bedrijven hebben vrijwel altijd raid 5 of 10 configs, dus als er een schijfje uitklapt heb je nergens last van. Particulieren raid 1 met een doorsnee nas.
Zou je die schijf in een keer kunnen formateren?kan het ntfs file systeem zo een grote schijven aan, of zou je verplicht zijn meerdere partities te maken?Maarja wie heeft nou zoveel ruimte nodig.
ik dacht meteen aan webservers of grote databases waar dit ding op zijn plaats is.

edit Wikipedia

Maximale volumegrootteIn theorie is de maximale volumegrootte in NTFS 264-1 clusters. In Windows XP Professional is dit echter in de praktijk maar 232-1 clusters. Met standaard 4 kB-clusters geeft dit een maximale grootte van 16 terabytes per volume.
Dus 16 terabite per volume je kan dus deze schijf in een keer formateren.
256TB is het huidige limiet.

8ZB met LBA64.

leesvoer: https://blogs.technet.mic...limit-in-windows-storage/
12Tb aan data kwijtraken omdat de schijf faalt...moet er niet aan denken!
Ik gebruik nu een 10 Tb als backup medium (gaat offline als ie niet gebruikt word). Voor dat soort toepassingen is een dergelijk drive natuurlijk prima.
12Tb aan data kwijtraken omdat de schijf faalt...moet er niet aan denken! maarja dat zeiden we ooit ook over 1Tb...en nog eerder over 250Gb...enzovoort...ik hou het voorlopig bij 4x 3Tb in mn systeem! maar over een paar jaar vast 3x 12Tb! ;-)
Bij 3TB schijven moet ik altijd denken aan die Seagate schijven met die capaciteit.
Van het uitvalspercentage van die krengen krijg je pas koude rillingen ;)
samsung heeft vorige maand al een 128TB ssd aangekondigd die dit jaar nog komt:

http://www.tomshardware.c...-memory-summit,35180.html

dat lijkt me een veel beter oplossing dan 20 kilo aan traag ronddraaiend ijzer.

[Reactie gewijzigd door flippy.nl op 13 september 2017 10:53]

dat lijkt me een veel beter oplossing dan 20 kilo aan traag ronddraaiend ijzer.
Lijkt me ook een veel duurdere oplossing. Maar idd wel mooi dat flash tech zo snel gaat.

[Reactie gewijzigd door R4gnax op 13 september 2017 11:01]

valt hard mee als je de voordelen bekijkt: VEEL minder ruimte, veel minder stroomverbruikt en hitte, langere levensduur en veel sneller dan reguliere schijven.

al deze dingen zijn kosten die enorm op kunnen lopen voor bedrijven die de rekening van het datacenter moeten betalen. 10+ schijven, 4U rack, controller die de schijven aankan plus software voor raid. extra onderhoudskosten en al met al meer "gezeik" dan een 1U rackje met een 2 of 3 ssd's dei een fractie verbruiken en geen extra ondersteunende hardware nodig hebben.
Met de SSD ben je daarna wel ontzettend beperkt in ugrade opties, even een extra HDD in het enclosure schuiven is simpel, een tweede server kopen om daar 1 extra SSD in te steken is behoorlijk duur in aanschaf, ruimte, stroom en manuren...
Verder grote kans dat de PCIe SSD nog meer verbruikt dan de HDD trouwens...
Als grootste struikelblok van je plan heb je geen enkel bedrijf wat met hobby oplossingen/zelf in elkaar geprutste 'zooi' gaat werken, dan valt de boel een keer uit en magmoet je het zelf oplossen ipv dat je met HP/Dell/etc. even belt en binnen 4 uur hun oplossing hebt.
Als jij dan met jouw PCIe SSD's een dag zit te 'prutsen' om het werkend te krijgen is de HDD oplossing al zoveel keer goedkoper aangezien het personeel niet stil zit.
Wasrom kan je geen ssd erbij drukken en bij een reguliere schijf wel? De meeste ssd zijn 2.5", daar kan je er veel meer in kwijt per U hoogte dan een 3.5".
Je bent momenteel erg aan het zoeken naar dingen om het argument onderuit te halen zoals pcie ssd's op gelijke lijn te trekken als reguliere schijven. Dat is een onzinvergelijking op zijn zachts gezegt.

[Reactie gewijzigd door flippy.nl op 13 september 2017 13:31]

Zodra je een PCIe SSD op een 2.5" Sata formaat kan aansluiten zou je makkelijk kunnen uitbreiden ja ;)
Tot die tijd is een moederbord gewoon beperkt en wil een bedrijf niet zijn bestaan riskeren op hobby servers.
(Overigens zijn er ook gewoon 2.5" HDD's ;))
Voor het eigen gebruik hartstikke leuk om daarmee te spelen maar voor een bedrijf kost een uur downtime gewoon duizenden euro's.
Verder gaat het hier over normale HDD's (veel TB's maar de schrijf zelf is weinig nieuw) tegenover high-end PCIe SSD's dus dan zou de vergelijking toch daarover moeten gaan?
Echt zoeken naar argumenten om hobby servers onderuit te halen hoeft dus niet, de industrie laat duidelijk zien dat daar geen markt voor is.
Het is niet als of een server een enkel PCI express slot heeft. Met een klein aantal sloten als bijvoorbeeld 4 heb je al meer capaciteit dan in vrijwel iedere storage box. Voor PCI express kun je ook best enclosures maken, hotpluggen zal geen zuivere business zijn maar dat is ook niet zo relevant als je werkt met 4 drives versus 40. Verbruik is hoogst waarschijnlijk onwaar als je de dichtheid vergelijkt, per GB ben je minder kwijt.
Het hobby argument raakt kant nog wal, bij een server boer kun je dit soort SSDs net zo goed kopen.
"langere levensduur" staat een beetje ter discussie. het zal er voornamelijk vanaf hangen hoeveel er op geschreven wordt.
Met 128TB aan ruimte is dat verwaarloosbaar. Je schrijft constant op andere chips and de firmware enigszins realistisch is. Ik neem ook aan dat er flash in gaat wat een tandje boven USB stick niveau is.

Zelfs op zeer kleine SSDs die eigenlijk als cache gebruikt worden is de levensduur geen zeer sterk probleem. Om nog maar niet te vergeten dat iedere workload waar mee je een SSD de nek om kan draaien niet eens mogelijk is op een trage HDD.
Stroomverbruik scheelt 7 Watt. Over 5 jaar genomen is dat ongeveer 75 euro. Ruimte en de rest van de zaken die je benoemd maken ook geen heel groot verschil in kosten. Als je een SSD 12 TB hebt voor 1.000 euro is het overwegen waard, anders niet. Het kan om totaal andere redenen wel interessant zijn, maar niet om de redenen die je noemt.
Nou de 16TB schijf van ze kost slechts $11.000. Ik ga er even snel vanuit dat 8x zo hoog met een 5x prijs dus een slordige $55.000 voor zo'n dingetje en dan zet ik waarschijnlijk aardig laag in. Tegenover de $7000 voor een setje ronddraaiend ijzer. Ik denk niet dat je die $48.000 terug verdient in 5 jaar tijd (wat trouwens best lang is in server wereld voor een schijf).
Vraag me ook af hoe lang de HDD het nog vol gaat houden.
Voor de lange opslag wordt nog steeds vertrouwd op tapes.
Voor thuis/NAS gebruik nog best wel lang denk ik.
Als dat nog keurig in een 3,5 inch format past, doe mij die dan maar 20 in een mooi fiber SAN. Flink wat storage, flink wat snelheid, weinig latency.
Dat kan een mooie VMware omgeving worden.

Moet ik alleen nog wat budget zien los te peuteren (wat het moeilijkst zal worden van het gehele verhaal).

[Reactie gewijzigd door walteij op 13 september 2017 11:02]

nimbus verkoopt momenteel al 50TB ssd's in standaard 3,5" SAS.

http://nimbusdata.com/pro...latform/intelligent-ssds/
Ze zetten de prijs er wijselijk niet bij :P Ik denk dat als je ernaar moet vragen het niet voor jou is. Niet dat ik wil weten wat een mooie RAID6 van 100 TB kost... (maar ik denk in beide gevallen dat je richting 6 cijfers mag denken)
Met gewone hdd's moet je ruwweg rekenen met een ton per PetaByte, als je alle kosten meerekent.
Het kan wel voordeliger, tot ruwweg 70k per PB incl. alle overige zaken als behuizingen, raid controllers, etc., maar dan heb je meer werk om het in te richten.
Is dan trouwens wel netto storage met fatsoenlijke schijven en overige hardware.
En de toegang tot die 128TB moet allemaal door de bottleneck van 1 SAS poort ?
1 SAS poort is tegenwoordig 12Gbit/s met binnenkort 20Gbit/s...
Dus echt bottlenecking is het niet zo.
De PCIe bus aansluiting voor de SAS controller wordt dan weer belangrijk.
AMD Threadripper/EPYC met 128 PCIe lanes komen dan goed van pas voor een dikke storage server..
1 SAS poort is tegenwoordig 12Gbit/s met binnenkort 20Gbit/s...
Aantal iops wat een enkele schijf aan kan is van groter belang dan rauwe bandbreedte.
Dat is heel erg afhankelijk van de toepassing.
Als jij metingen wilt opslaan die ettelijke GB's per file zijn, dan is ruwe bandbreedte toch interessanter en dan is 12 Gbps toch echt wel een beperkende factor. Maar dat is 128 TB dan ook ;)
Wellicht mooi als Tweakers eens een artikel wijdt aan de risico's van raid met dit soort grootte van schijven.

Lees ook eens: http://jrs-s.net/2015/02/...e-mirror-vdevs-not-raidz/

Voor degene die gelijk de samenvatting wil:

What’s all this boil down to?

- don’t be greedy. 50% storage efficiency is plenty.
- for a given number of disks, a pool of mirrors will significantly outperform a RAIDZ stripe.
- a degraded pool of mirrors will severely outperform a degraded RAIDZ stripe.
- a degraded pool of mirrors will rebuild tremendously faster than a degraded RAIDZ stripe.
- a pool of mirrors is easier to manage, maintain, live with, and upgrade than a RAIDZ stripe.


Admin-edit:Spelfouten, nieuwstips en/of ander commentaar m.b.t. nieuwsposts horen thuis in
Geachte Redactie.

[Reactie gewijzigd door Bor op 13 september 2017 19:00]

Voor zulke omvangrijke schijven kan je best al triple mirroring overwegen. Dan daalt je efficiency wel naar 33,33% maar voor een zakelijke omgeving zeker te overwegen.
Voor zakelijke omgevingen ga je sowieso niet meer naar RAID kijken (op RAID-1 na), maar naar oplossingen die Erasure-code ondersteunen.
Rebuild-tijden voor RAID zijn namelijk enorm en de kans op leesfouten ook.
En een rebuild met RAID heeft behoorlijke impact op de snelheid van het volume.
Voor grote oplossingen is de kans op dataverlies met Erasure code technieken aanzienlijk kleiner, doordat het vrijwel niet uitmaakt welke combinatie van schijven defect raakt.

Voorbeelden van Erasure Code zijn:
  • Ceph (software laag)
  • Dynamic Disk Pool (Dell/Netapp)
  • HGST Active Archive
Vooral die laatste heeft erg hoge betrouwbaarheid als het gaat op het aantal 9-ens.
Daar drukken ze de kans op dataverlies uit in 11 - 18x een 9 (N.B. 99.9999% is 6x een 9) en dat is vaak ook zelf in te stellen door de erasure code level in te stellen.
Dat ligt er denk ik net hoe je "zakelijk" interpreteert.

Een ZZP'er is ook zakelijk. Wij maken hier gebruik van Netapp, maar ik werk dan ook in een bedrijf met 700 man en een up to date netwerk.

Lijkt mij dat als je thuis jouw administratie e.d. moet bijhouden een Raid oplossing een prima oplossing kan zijn. Ondanks dat dit thuis is, is het toch "zakelijk ".

[Reactie gewijzigd door Mit-46 op 13 september 2017 16:44]

Dus moet je ongeacht de grote van je harddisk rekenen dat je maar 1/3 daarvan kan gebruiken als je het veilig wil houden
Ik gebruik thuis een unRAID setup met twee parity disks. Geen lange rebuild times. Wel ook geen bit rot correction (wel detection als je btrfs gebruikt).
En je kunt met unraid verschillende type/ grootte harddisks door elkaar heen gebruiken.
Beter om dan ZFS te gaan gebruiken in raidz3, je hebt wel minstens 5 schijven nodig dan, je hebt dan 3 parity disks.
Zie FreeBSD, FreeNAS en NAS4Free oplossingen.

RAID-Z1 should have 3, 5, or 9 disks in each vdev.
RAID-Z2 should have 4, 6, or 10 disks in each vdev.
RAID-Z3 should have 5, 7, or 11 disks in each vdev.

[Reactie gewijzigd door zoon01 op 13 september 2017 14:10]

2,5 Miljoen uur MTBF, ik moest het even omrekenen maar dat is 285 jaar (!!). Ik ben benieuwd met welke sample grootte ze getest hebben om dat vast te kunnen stellen?

[Reactie gewijzigd door T!M op 13 september 2017 10:48]

Dergelijke cijfers zuigen ze compleet uit hun duim.
Ze kunnen natuurlijk nooit lang genoeg getest hebben om dat naar een gemiddelde levensduur van 285 jaar te kunnen extrapoleren.
Alleen al de gasvulling garandeert al dat geen enkele het na 285 jaar nog doet.
Je denkt dat dat MTBF iets te maken heeft met levensduur? Wie heeft dat je wijsgemaakt? Als je een miljoen van deze disks in gebruik hebt faalt er gemiddeld iedere 2.5 uur eentje, dat is wat MTBF omschrijft.
Dus als van een miljoen disks er iedere 2,5 uur eentje uitvalt, heb je er na 100 jaar nog 650.000 over die werken. Dat is natuurlijk niet het geval, dus is de MTBF niet 2.500.000 uur.
MTBF en levensduur zijn verschillende dingen.

Volgens de fabrikant hebben ze een levensduur van vijf jaar, want zolang is de garantie. Een disk zou langer mee kunnen gaan, maar dat is mazzel. En in die vijf jaar gaat minder dan 1.5% stuk. Dat is wat MTBF en AFR je vertellen.
Het is een MEAN time between failure, zoals je al zegt. Je hoeft daarvoor niet alle disks te testen totdat ze sneuvelen. Wat je concreet mag verwachten (en dat is te testen) is dat na 5 jaar 5/285 = 1/57 = 1.8% van de disks overleden is.
Die methode gaat uit van een test van enkele weken(?) en extrapoleert dat linear naar de uitval over jaren.
"Zuigen ze uit hun duim" is een best fors verwijt. Deze waardes zullen wel degelijk gemeten zijn. Stop 1000 disks een maand in een gecontrolleerde omgeving en meet hoeveel er stuk gaan. 30 dagen bevat 720 uur, al gaat er 1 disk stuk is dat een MTBF van 720,000 uur (immers hebben de 1000 disks 720k uren gedraaid).

Het zijn theoretische waarden die met sample size n=1 geen strekking hebben naar praktijk. Bovendien gaan fabrikanten er ook van uit dat je hard disks elke 5 jaar blijft vervangen, omdat in princiepe elektronische apparaten vaak een bathtub curve volgen. MTBF gaat er van uit dat de failure rate min of meer lineair is, wat natuurlijk in begin en einde van daadwerkelijke levensduur niet zo is.
Niettemin helpen deze getallen grote klanten wel om inschattingen te geven hoeveel failures ze kunnen verwachten, hoeveel redundantie en onderhoud mogelijk nodig is, etc. Bvb als je 1000 servers hebt draaien met elk 30 van deze disks kan je verwachten dat er elke week een schijf uit gaat vallen.
Fors verwijt?
Vergelijk maar eens de daadwerkelijke failure cijfers met de geclaimde MTBF van hun eerdere modellen.
Hoe kan je garanderen dat een 3rd party exact binnen de specificaties van de MTBF blijven gedurende hun real-world test? Denk aan temperatuur, vochtigheid, trillingen, power cycles, lees/schrijf activiteit, number of head parkings, enz. Al zouden alle engineering data 1 dimensionaal zijn heb je er geen wetenschappelijke studie voor nodig.

Niettemin ben ik er van bewust dat er een grote variatie zit in uitvalrates met sommige schijven die hogere MTBF claimen; maar zie mijn vorig argument.
Er zijn wel een paar RMA cijfers van distributeurs te vinden. Deze gaan over duizenden schijven bij honderden klanten. De MTBF wordt niet slechts een beetje overdreven, het zit in een heel andere orde van grootte dan wat de fabrikanten claimen. Western Digital heeft met de meeste modellen ook nog eens hogere failure rate dan andere merken.
En tja, als het gemiddelde real world gebruik van honderden verschillende partijen zodanig afwijkt van de specs van de MBTF testen van de fabrikanten, dan zijn die gewoon misleidend bezig.
Je kan ook wel afleiden dat het nattevingerwerk is aan de plausible aantallen en doorlooptijd van hun tests, en de hele mooie ronde MTBF's die er uitkomen. Toevallig is het bijna altijd 1.000.000 of 2.500.000 uur.
MTBF is een totaal zinloos getal, ik kijk gewoon naar hoe lang ze garantie durven geven, en hoe makkelijk ze zijn bij failures. Als ze niet hoger gaan dan 3 jaar, is het snel over met die dingen ;)
Seagate:
"AFR is similar to MTBF and differs only in units. While MTBF is the probable average number of service hours between failures, AFR is the probable percent of failures per year, based on the manufacturer's total number of installed units of similar type. AFR is an estimate of the percentage of products that will fail in the field due to a supplier cause in one year. Seagate has transitioned from average measures to percentage measures.

MTBF quantifies the probability of failure for a product, however, when a product is first introduced: this rate is often a predicted number, and only after a substantial amount of testing or extensive use in the field can a manufacturer provide demonstrated or actual MTBF measurements. AFR will better allow service plans and spare unit strategies to be set."

http://knowledge.seagate....Q/174791en?language=en_US
Een mooie ontwikkeling op storage gebied dat de getallen zo hoog gaan worden voor een relatief lage prijs. Met 4 van deze schijven in een RAID10 oplossing heb je veel opslag met performance, iets wat jaren geleden meer schijven en geld zou kosten.
Een normale 3tb kost nu ¤0,025 / gb.
Deze 12 tb kost ¤0,0574 / gb.
Ruim twee keer duurder dus.

De gold 6 tb komt op ¤0,039 / gb.
Nog steeds anderhalf keer zo duur, wel een psu- en sata-aansluiting minder.

[Reactie gewijzigd door S0epkip op 13 september 2017 12:26]

die ga ik zeker kopen :)
Ongelooflijk hoeveel data ze tegenwoordig kunnen proppen op kleinere media. En dit is bijlange nog niet het einde van de rit. Leve de technologie!
12TB aan data kwijt raken lijkt me inderdaad een nachtmerrie.
Voor me zelf ben ik bezig een Freenas http://www.freenas.org systeemje te bouwen wat gebruik maakt van RAID-Z aka ZFS aka Zettabyte FileSystem.
Dit omdat redundancy voor mij een heel hoog prio heeft.
en welke hardware setup gebruik je hiervoor ? case etc.. ?
Case: HP Proliant Microserver N54L
Planning voor de Config: 4x4TB HDD (waarschijnlijk WD Red's)
Ram 16GB ECC

Ik ben nieuw met dit fenomeen dus de HP Proliant Microserver N54L word me test build
Grappig dat op het label op de foto de contactinfo in Nederland is, nog niet eerder gezien.
"WD NL B.V. Taurusavenue 5, 2132 LS Hoofddorp NL"
Je doet je naam eer aan. :) Spits gezien.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*