Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 120 reacties
Submitter: -ION-

Seagate is begonnen met het verstrekken van harde schijven met een capaciteit van 8TB aan bedrijven die interesse hebben in het gebruik ervan. Klanten krijgen de mogelijkheid om de harde schijven te testen, aldus de fabrikant.

Steve Luczo, ceo bij Seagate, gaf tijdens een conference call met investeerders en analisten aan dat zijn bedrijf is begonnen met het verstrekken van samples van harde schijven met 8TB aan opslagruimte, zo merkte Guru 3D op. Seagate heeft zogenaamde customer development units gestuurd naar grote klanten en aanbieders van cloudopslagdiensten, al is niet duidelijk om welke bedrijven het precies gaat. Zij krijgen de komende tijd de mogelijkheid om de 8TB-hdd's te testen.

Verder liet Seagate niet weten wanneer het zijn harde schijven met 8TB opslag uit wil brengen en voor welke prijs deze op de markt komen. Ook is er nog niets bekendgemaakt over de precieze specificaties van de harde schijf, zoals de lees- en schrijfsnelheden.

Eerder op maandag maakte Western Digital bekend dat het met nieuwe harde schijven in de Red-serie komt die een opslagcapaciteit van 5TB en 6TB hebben. Ook Seagate verkoopt harde schijven met een dergelijke capaciteit.

Moderatie-faq Wijzig weergave

Reacties (120)

Tsja, gaat er eentje kapot ben je 8TB aan data kwijt. Zou je niet liever meerdere kleine hdd's willen als je zoveel data hebt?
Nee, je wil een goede backup, of je nou 1,10 of 100TB schijven hebt.
nee, dat is maar gedeeltelijk waar. Tegenwoordig hebben we erg veel data, maar willen het vaak ook 100% van de tijd beschikbaar hebben. Restore is dus meer een disaster oplossing. Als je 8TB disken in raid oplossingen gebruikt heb je echter veel data te reconstructen als een deel van je redundantie uitvalt door een defect disk. Dus toch liever wat meer kleinere disken.
Ja, RAID is een deel van de oplossing, maar RAID is geen backup. Het biedt totaal geen bescherming tegen onsite calamiteiten zoals brand, overstroming en noem het maar op. Van je (il)legale mediacollectie ga je natuurlijk geen offsite backups maken, dat is te duur. Belangrijke bestandem moet je eigenlijk altijd een offsite backup van hebben!
Volgens mij valt de werkelijke opslag behoeft echt veel mee. Ik denk zelfs dat het minder dan 500GB is.

Hoeveel data heb je nou echt dat je niet kwijt wil? Films en games kan je opnieuw downloaden. Foto's en documenten wil je bewaren. Als ik kijk wat ik daadwerkelijk heb aan data die ik niet kwijt wil kom ik nog niet eens op 100GB.

grote schijven zijn voornamelijk in gebruik voor de opslag van films en games etc en veel voor de cloud opslag. niet direct voor de opslag van gegevens die je echt niet kwijt wilt.
Dat jij, of de gemiddelde consument die bij de Mediamarkt een pc koopt, geen behoefte heeft aan veel opslag betekent niet dat er geen vraag voor is. Ik heb een Plex server draaien met daarop een groot aantal series (tegen de 100), alles waar mogelijk in 1080p (of anders 720p) en heel wat films in 1080p/bluray kwaliteit. Dit aangezien ik mijn content overal wil kunnen bekijken (pc, tv, telefoon, ongeacht locatie), Netflix nog niet beschikbaar was in Nederland toen ik actief series ging volgen (alleen via VPN uit de VS), heel wat van die series nog altijd niet/te laat op Netflix staan en nog tal van andere kleine redenen.
Ik kan je zeggen dat je in zo'n geval, zeker als je nog iets van RAID en/of backup wilt inbouwen, je heel wat terabytes aan opslagruimte nodig hebt.

En het hoeven niet alleen films/series te zijn. Natuurlijk, games en dergelijk kun je installeren en deïnstalleren wanneer je ze speelt, maar als ik zin heb om een spel te spelen heb ik weinig zin om nog 20 minuten te wachten voordat ik hem weer gedownload heb via Steam. Ik heb op dit moment net de helft van al mijn Steam games geïnstalleerd staan en toch neemt het al 209GB in beslag. Hetzelfde geldt voor mijn muziek verzameling welke door de jaren heen tot ver over de 200GB is gegroeid. Natuurlijk kan ik net zo goed Youtube aanzetten en het daar beluisteren, maar vaak genoeg scroll ik even door wat oude mappen en kom ik daar ineens geweldig nummers van weleer tegen.

Dit zijn dan ook nog alleen de meer consumenten doeleinden van veel opslag. Zakelijk gezien is de behoefte er nog meer. Toegegeven, zakelijke gebruikers zullen waarschijnlijk geen standaard Seagate Barracuda drives gebruiken, maar hun behoefte voor veel opslag is er wel. Grote databases met 1 of meerdere backup cycles per dag en eventuele bewaarplicht, changelogs, materiaal van bewakingscamera's en opgenomen telefoongesprekken, al die zaken vreten aan opslagruimte. Als wij onze telefonieservers op het werk letterlijk alles laten loggen (plain text) krijgen we logs van tientallen GB's per dag, per server (en we hebben er nogal wat). Reken hierbij dat er een bepaalde bewaarplicht is de daadwerkelijk audio-opnames (voor eventuele klachten e.d.) en je hebt binnen een paar dagen terabytes en terabytes vol zitten.
Nou, vergis je niet. Een muziek- of filmbibilitheek kan jaren kosten en moeilijk vindbare films/versies bevatten. Hoewel ik liever mijn medialibrary kwijtraak dan al mijn foto's, ben ik toch echt wel bereid om een paar honderd euro te betalen voor een betrouwbare opslag die een schijfcrash of corruption overleeft..
Deels heb je gelijk maar als ik mijn originele CD/LP/MAXI collectie opnieuw moet gaan rippen !?
Dat zijn maanden en maanden werk.
Ook originel video opnames zijn vaak erg groot en die kan je ook niet zo maar effe opnieuw downloaden.
Dat is inderdaad waar maar mensen willen gewoonweg het proces van hun
data doorzoeken en de rommel wegsmijten zolang mogelijk vermijden. En sommige kunnen het zelfs helemaal niet.
Heb je gelijk in denk ik. Maar het is met data net als met allerlei materiële dingen. Menigeen wil steeds meer. Wat mensen uiteindelijk daadwerkelijk doen met al die data en dingen? Minder dan menigeen wel toe zou willen geven.
RAID != backup. Backuppen houdt in dat je de data meervoudig hebt op een andere, losse drive, het liefst in een andere omgeving (b.v. origineel thuis, kopie op het werk). RAID, zoals RAID 1, 5 of 6 beschermt je hooguit tegen een hardware falen van een schijf. Het beschermt je echter niet tegen virussen of menselijke fouten (zelf dingen deleten) en ook niet tegen de (gelukkig) wat minder vaak voorkomende problemen als diefstal, brand enzovoorts.

Back ontopic: ik vind het toch wel interessant dat we de laatste tijd (het afgelopen jaar) ineens weer meer horen over ontwikkelingen in de HDD business. Ik kreeg daarbij het gevoel dat het wellicht nog maar een paar jaar zou duren voordat HDD's vrijwel (voor 95% van de private consumenten) zinloos zouden zijn geworden, met de steeds groter en goedkoper wordende SSD's (1TB gaat al voor zo'n ¤350). Lange tijd was dan ook 3TB, of met een enkele uitzondering 4TB, de absolute max qua capaciteit, maar nu zien we 5, 6 en bij deze dus 8TB schijven voorbij komen.

Ik vind het, als iemand die veel storage gebruikt, wel fijn als de disks groter worden. Met zo'n 20+ TB aan 3TB schijven in mijn server (in een Define R4) begint het toch krap te worden, zowel qua ruimte om de schijven te plaatsen, als ook qua connectors (SATA en power).
HD's zullen ook zinloos worden.

Dat punt zal steeds sneller dichterbij komen.

Het kan zelfs zijn dat wanneer een SSD van 2TB betaalbaar wordt Harddisk verkoop zal instorten omdat 80% van de mensen er tkch genoeg aan heeft en de verkoop van 8TB harddisks niet remdabel genoeg is om onderzoek te doen naar nieuwere methodes voor meer opslag.

LCD monitoren zijn ook altijd duurder geweest dan CRT monitoren maar omdat mensen toch liever een dunnere monitor wilde is de markt voor CRT ingestort ondanks dat het goedkoper was en zelfs kwa beeldkwaliteit beter was dan LCD op veel punten.
Ik denk ook dat HDD's, in hun huidige vorm, op den duur "zinloos" worden. Echter had ik 1 jaar geleden verwacht dat dit punt veel sneller zou komen, aangezien het leek alsof er nauwelijks nog vooruitgang werd geboekt op het enige echt voordeel: opslagruimte. Prijs, of prijs/GB, noem ik hier specifiek niet, omdat op dat gebied de laatste 2 jaar al enorme vooruitgang is geboekt bij SSD's; waar ik destijds nog tegen de 150 euro heb betaald voor een 128GB Crucial M4 krijg je tegenwoordig bijna 512GB voor die prijs (de 512GB Crucial MX100 staat op ¤173).

Met deze flinke stap voorwaarts qua opslagruimte op HDD's denk ik dat er een gekke twee-splitsing kan gaan komen. Voor de gemiddelde (non-Tweaker) zal een pc met alleen SSD storage perfect zijn, waar juist de meer technologische aangelegde mensen de grote HDD's erbij blijven gebruiken (voor opslag van massa's aan films/series/muziek/foto's/etc). Dit is het tegenovergestelde van tijdens de introductie van SSD's, waar het juist de tech enthousiastelingen diegenen waren die het eerst naar de SSD's grepen.
Dan kies je eerder om files op meerdere disks en meerdere nodes te zetten, die in een failover cluster zitten dan om RAID op een enkele server te gebruiken.
Failover cluster is zeker geen backup.sterker nog, als een node door wat voor reden vuil doen gaat en je zonder het te weten de andere node op komt met een rollback op je database en mensen werken verder dan heb je toch een probleem. Daarnaast is data corruptie op een failover cluster corruptie op het hele cluster, dus beide nodes.
Ik zeg ook nergens dat een failover cluster gelijkstaat aan een backup. Alleen dat bij dergelijke requirements het inzetten van (alleen) RAID niet realistisch is.
Zelfs zonder RAID kun je goede backups hebben. Er zijn verschillende producten op de markt (en zelfs in Windows ingebouwd) die backups kunnen maken, plus je kunt bestanden op je harde schijf/schijven laten syncen met een aantal programma's. Genoeg mogelijkheden.
Een RAID setup is niet hetzelfde dan een backup...
Ligt er sterk aan hoe je hem instelt ;)
Je kan hem voor backup doeleinden gebruiken, voor extra opslag en beide.
Je kan een RAID setup niet voor backup doeleinden inzetten, wel voor redundancy doeleinden.

Een backup moet fysiek op een andere locatie worden opgeslagen. Dit om te voorkomen dat de data alsnog weg is als de boel in brand vliegt, er waterschade is, of als de computer gestolen wordt.

[Reactie gewijzigd door DutchStoner op 21 juli 2014 19:06]

Backups kun je ook gewoon in je computer laten zitten. Redundancy en backups komen zo goed als op hetzelfde neer; een kopie van je data hebben als er iets stuk gaat.

Het is waar dat je backups beter op een andere plek kunt hebben.
Redundancy beschermd niet tegen corrupt geworden files of gebruikers die bestanden perongeluk weg gooien, backup's wel.

Een backup is een compleet ander iets dan redundancy en ze dienen voor compleet andere doelen. Het feit dat als er een schijf stukgaat je je data kan rebuilden ipv terugzetten van een backup is puur een extra bonus.
Het is maar wat een persoon verstaat onder het woord.

Dat kan voor iedereen anders zijn, er is geen vastgelegde definitie van wat precies een backup is.
"Een back-up of reservekopie is een kopie van gegevens die zich op een gegevensdrager of binnen een applicatie bevinden om deze te kunnen herstellen moesten ze beschadigd raken."

@starlite een raid kan wel beschermen als je een corrupte bestand hebt aangezien zulke features ingebouwd worden in de controller genaamd consistancy check of bij zfs scrubben.

Wanneer je een backup schrijft kan je ook corrupte bestanden krijgen omdat het eenmaal kan gebeuren met opslag.

Het is niet mogelijk om gebruikers fouten te herstellen bijv. Corruptie, weggegooid, verkeerd opgeslagen of een virus heeft er iets mee gedaan. Daarom zijn backups handig aangezien ze naar het schrijven niks meer te maken heeft met je bestaande data, daarom kan je dingen herstellen naar de backup dat op die datum gemaakt is.

Sorry voor de foutjes, snel op telefoon getyped :)
redundancy is om uitval tegen te gaan, backup om verlies. Dat is het grote, maar toch heel simpele verschil.
Backup mag best in je computer, maar niet als RAID: als ik een file per ongeluk wis helpt RAID helemaal niets. Een backup wel.
Redundantie en backups zijn dus compleet anders. Leuk zo'n redundant array, maar als iemand de delete knop indrukt ben je de lul. Zelfde dus met een virus of datacorruptie. In dat geval heb je gewoon een backup nodig. Redundantie heeft uptime als doel, heeft weinig met backups te maken.
Bij een back-up is het de bedoeling dat de data niet wijzigt (hiervoor maak je periodiek een nieuwe back-up), bij RAID 1(+0) veranderd de data zowel op de eerste RAID 0 set als de tweede RAID 0 set.
Dus maak je een cruciale fout in de data, dan heb je geen back-up bij RAID.

Ik zou het perfect vinden om 4x 8TB in RAID 10 te hebben, voor thuisgebruik zit je dan redelijk safe qua opslagcapaciteit en ook nog eens qua snelheid, redundancy en de downtime is ook non-existent bij een falende schijf.

De NAS'jes van 4 bays zijn daarbij ook nog eens flink goedkoper dan een 8 bay bijv.

Oja en vergeet niet dat de data dichtheid bij grotere schijven kleiner is, waardoor de latency lager wordt en de snelheid dus hoger :)
Dat is waar. Maar daarom moet je ook meervoudige backups hebben van belangrijke data :)
Ja, eens. Ik zeg ook absoluut niet dat je zonder backup kan. Als je geen downtijd wilt is het ook aannemelijk dat je absoluut geen dataverlies wilt. Ik zeg dat je misschien geen downtijd wilt (data, webserver, applicatie, enz) tijdens het restoren van die backup. Voorkomen van dataverlies is dan, als je een hoge beschikbaarheid wenst, beter inzetten op je backup/restore. Het weer opbouwen van je parity van je raid na het uitvallen van een disk kan dan wel eens een te groot risico zijn, met name als het zo lang duurt omdat je 8TB disken gebruikt.
Er bestaan toch raid-configuraties die bestand zijn tegen het uitvallen van 1 disk? Ik snap niet goed waarover je je druk maakt....
En het is toch de totale grootte van de raid die moet heropgebouwd worden?
Er bestaan zelfs raid configuraties die je beschermen tegen uitval van 2disks, of zelfs de helft van al je disks.. Maar naarmate de schijven groter worden, wordt ook het risico bij een raid configuratie hoger.. Immers grotere datasets vergen een langere reconstructie tijd. Zo kost een raid 5 van drie 4TB disks (1 parity disk) al zo'n twaalf uur (afhankelijk van o.a. Cpu). Verdubbel je de capaciteit, verdubbel je de reconstructie tijd. Ergo meer kans dat er nóg een disk uitvalt.

Dat is slechts 1 van de redenen waarom je ook een backup op z.g.n cold storage wilt.
Aan de andere kant, je kunt ook niet deze schijven gebruiken en met de oude vertrouwde 2 GB TB schijven blijven werken.

Daarmee verhoog je je risico net zo goed. Om toch aan de eisen van je gebruikers te voldoen heb je meer schijven nodig, wat de kans alleen maar verhoogt dat er ééntje de geest geeft. Wanneer bereik je daar het omslagpunt in - dus dat de kans op het falen van een kleine schijf groter wordt dan de kans dat je langer bezig bent met het herstellen van een grote schijf?

De overige kosten komen er dan ook nog bij. In plaats van één 8 TB schijf, heb jij er vier nodig. Dat houdt ook in dat jij eerder je controller vol hebt zitten, want je hebt vier keer zoveel schijven om aan te sluiten... Nou is dat maar een deel van de kosten natuurlijk, maar toch, tegenwoordig telt elke cent.

Dat moesten uiteraard TB's zijn. |:(

[Reactie gewijzigd door Seal64 op 22 juli 2014 18:46]

Alleen jammer dat je niet eens 1 film kwijt kunt op een 2 GB schijf, dus dan heb je er nogal wat nodig in een RAID array.
Afgelopen weekend een RAID6 array van 6x4TB mogen rebuilden. Dik 3 dagen degraded gedraaid.
RAID5 met zulke schijven wil je niet, de tijd dat je onbeveiligd bent is veel te groot en de kans dat je tegen een bad sector in een van de andere disks aanloopt is ook ruim aanwezig.
Raid is geen backup . Kritische data zou nooit aleen op 1 enkel raid configuratie mogen staan.
Data wordt gebackupt, maar als dit je fileserver met hot data is wil je dat ding gewoon beschikbaar houden. 16TB restoren uit backup doe je ook niet in een uurtje.
Voila, my point exactly.
Als data dan zo cruciaal is, waarom dan niet een 2e server hot standby laten draaien? Als je al zoveel geld aan schijven spendeerd, kan dat er ook wel vanaf toch..
Je vergeet dat de rekenkracht van de controllers ook steeds groter word. 10 jaar geleden deed je misschien een paar uur over het rebuilden van 100GB. Tegenwoordig 10 minuten.
Ik denk dat rekenkracht niet de bottleneck is, maar de lijn snelheid zoals SATA e.d.
Ik denk dat rekenkracht niet de bottleneck is, maar de lijn snelheid zoals SATA e.d.
Niet in dit geval. HIj behaald een reconstructiesnelheid van ~185 MB/s. Wat dus een "lijnsnelheid" van 61.6 MB/s per schijf nodig heeft. Dit verzadigt zelfs geen SATA 150. Afgaande op deze snelheden vermoed ik dat analogworm over een high end atom of low-end celeron NAS beschikt. En hoe meer schijven hoe sneller de controller of CPU de bottleneck vormt.

[Reactie gewijzigd door goarilla op 21 juli 2014 22:18]

Je kan die 8TB ook gebruiken voor offline backups van verschillende computers: je stopt de schijf bv in een Usb-dock (of snellere interface), die is aangesloten op een computer die via nfs-shares aan alle data op bv 10 pc's kan. Met usbmount zorg je dat vanaf dat die schijf wordt aangesloten, er automatisch via een scriptje rdiff-backup, duplicity ofzo wordt aangeroepen.
Denk dat dit geen standaard s-ata schijf voor een consumentje is.
Eerder sas of iets dergenlijks.
Voor datacenters en clouddiensten is dit juist een klein maatje :-)
Denk petabytes en meer..
Is die 8TB schijven in RAID-1 backup genoeg? O-)

[Reactie gewijzigd door BJ_Berg op 22 juli 2014 09:24]

1980: Tsja, gaat er eentje kapot ben je 8MB aan data kwijt. Zou je niet liever meerdere kleine hdd's willen als je zoveel data hebt?

1990: Tsja, gaat er eentje kapot ben je 800MB aan data kwijt. Zou je niet liever meerdere kleine hdd's willen als je zoveel data hebt?

2000: Tsja, gaat er eentje kapot ben je 80GB aan data kwijt. Zou je niet liever meerdere kleine hdd's willen als je zoveel data hebt?

2010: Tsja, gaat er eentje kapot ben je 800GB aan data kwijt. Zou je niet liever meerdere kleine hdd's willen als je zoveel data hebt?

Ja, dan ben je zoveel kwijt. Daarom hebben ze zoiets uitgevonden als backups ;)
Hoewel ik het eens ben met je argumenten is de reden dat mensen huiverig zijn voor nieuwe groottes is dat de bussen niet meegroeien en de maximale lees en schrijf snelheden ook niet veranderen.

SATA is een limiterende factor en word niet snel genoeg door ontwikkeld

de lees en schrijfsnelheden worden beperkt door de rpm van de HDD.

beide factoren worden momenteel niet aangepakt waardoor een schijf restoren met raid, of een backup terug zetten (en maken), steeds langer duurt
sata is geen limiterende factor niet voor hdd's en niet voor ssd's. De snelste ssd's halen nog niet de halve snelheid van een sata 600 poort.

Al die 540 mb schijven zijn leuk maar dat is alleen burst en alleen uncompressed data in werkelijkheid halen ze de 150 constant vaak niet eens,
Pssst.. in 1993 kocht ik een 255MB harddisk van WD :P In 1990 was dat nog 40MB. In 1995 was het 1.6GB en in 1997 8GB. Maar je punt is duidelijk ;)
Hoe meer disks hoe groter de kans op data verlies. Maar als je 8x2TB in raid 10 of 2x8TB in raid 1. Misschien zijn die 2TBs sneller maar ook fout gevoeliger door het aantal. Het is lood om oud ijzer eigenlijk.
Probleem is als je zo redeneerd je nog evengoed 100MB disks kunt zitten gebruiken.

Feit is dat we meer en meer data willen neerzetten. 8TB klinkt veel, net zoals 500GB ooit onoemelijk veel was. Maar ondertussen krijg je die 500GB echt wel nog gemakkelijk vol als consument. Games durven gemakkelijk over de 20GB vragen per game + wat media + 100GB aan foto/video materiaal (ja ok, dat is ook omdat men foto's trekt aan 4MB de foto).

Maar heel mijn punt is dat 8TB niet te groot is, het is gewoon de volgende logische stap.
Tevens is het zo dat een klassieke HD sneller word naarmate er meer data op kan. Dit komt omdat de datadichtheid vergroot, er passeert gewoon meer data langs de leeskop met dezelfde rotatiesnelheid. Weliswaar blijf je met het klassieke probleem van de vertraging als de kop zich moet verplaatsen.

Overigens als je ze in raid zet heb je al wat minder zorgen maar een deftig backup plan, inclusief off-site backup is gewoon iets wat je standaard moet hebben. Ik weet het, voor veel mensen is het jaja je hebt gelijk maar voor de rest is het een oor in ander oor uit. Tot er wat gebeurd en men alle data kwijt is, beginnen ze eerst te wenen en vervolgens is het nog mijn schuld ook. Ik zou niet hard genoeg gepusht hebben zodat ze effectief een deftig backup plan uitvoerden. Niet dat ik het persoonlijk neem, zit gewoon in de fase van protest (na fase van ontkenning).

Overigens heb ik al meegemaakt dat men een kind verliest in een brand en men niet eens een foto voor op het doodsprentje had. Een geluk dat de zwart geblakkerde HD nog in vrij goede staat was gezien wat ze meegemaakt had.

Punt is dat mensen blijkbaar maar niet willen snappen wat de gevolgen zijn en denken dat het hun niet zal overkomen. Brand en diefstal zijn mogelijk niet de meest voor de handliggende redenen van dataverlies maar het komt voor. Een deftig backup plan is de enigste remedie. En of je dan HD's hebt van 1,2, 8 of voor mijn part 100TB maakt geen verschil.


Wel merk ik vanuit persoonlijke ervaring dat de HD's met de grootste opslagcapaciteit op de markt het gevoeligst zijn voor storingen. Waarschijnlijk omdat de kinderziekten er nog niet uit zijn?
Tsja, gaat er eentje kapot ben je 8TB aan data kwijt.
Dat argument speelt telkens weer. Mijn eerste 1,2 Gigabyte was me ook heilig. En nog steeds is men huiverig voor nieuwe groottes. Ik vrees dat het hebben van minstens 1 backup belangrijker wordt met de belangrijkheid van de data.

Overigens geldt dat alleen maar (of vooral) bij electronische data voor de meeste mensen. Ik heb geen reserve vrouw, huis, eerste drukken van boeken, platen, ceedees etc..
[...]
Overigens geldt dat alleen maar (of vooral) bij elektronische data voor de meeste mensen. Ik heb geen reserve vrouw, huis, eerste drukken van boeken, platen, ceedees etc..
Veiligheid is een keuze, Als je mijn 'backups' prive gaat bekijken, zijn alleen mijn foto's en wat elektronische documentatie redelijk veilig gesteld.
Ik heb een externe USBschijf, en Bittorrentsync maakt een copy op mijn NAS en op die van een collega extern.

De rest staat op dezelfde NAS, video en muziek zijn allemaal relatief snel terug te 'vinden' en games en opslag daarvan zijn imo niet zo belangrijk ( hier )

Ik 'wil' uiteraard ook zo'n mooie glanzende grote schijf, maar vooralsnog functioneren de 2TB's al zo'n 5 jaar zonder problemen.
Binnenkort zullen de 4TB's omlaag gaan, en dan kan ik de 2TB's uitfaseren voor ze écht uitvallen.
als je toevallig net 8tb nodig hebt is het handiger om 2 schijven van 8 tb mirror te draaien, dan 5 keer 4 tb schijven in een gecombineerde raid.

[Reactie gewijzigd door yousql op 21 juli 2014 18:15]

@yousql en waarschijnlijk nog goedkoper ook.
En sneller gezien de datadichtheid hoger is
2 x 4Tb mirror is nog steeds 4 Tb....
Het zou wél veilig zijn om 2 x 8Tb in mirror (RAID 1) te draaien

Of bedoelde je te zeggen dat 2 x 4 Tb in RAID 0 veiliger was als 1 x 8Tb? (wat overigens níet het geval is...)
Dat is niet noodzakelijk waar. Bij 5x 4TB kan je met 2 redundant schijven hebben, en alsnog meer ruimte over houden dan 2x 8TB met 1 redundant schijf. Natuurlijk heb je ook meer schijven die kapot kunnen gaan, maar de kans dat spontaan beide 8TB schijven kapot gaan, lijkt me groter dan de kans dat spontaan 3 van de 5 4TB schijven kapot gaan.

Natuurlijk zijn er ook veel argumenten om wel liever 2x 8TB te hebben (minder ruimte, energieverbruik, simpelere setup), maar zo zwart wit valt dit niet te stellen.
Met steeds groter wordende data is dat steeds minder een probleem. Een filmpje is al snel 12Gb tegenwoordig. Tegenover de maximale 4.7Gb (het moest op een DVD passen) van een aantal jaar geleden.

Netto ben je dus net zo veel data kwijt. Ik ben het echter wel met je eens dat als je kritische opslag gebruikt je het beter kan verdelen. Maar dan ook nog liever over meerdere locaties, niet in1 servertje/PCtje. Overigens zie je in kritische gegevens ook niet snel enorme grote SAS schijven. Ik ben ze nog niet van 1Tb of groter tegengekomen.
Bij verlies ben je dus net zo veel informatie kwijt. De hoeveelheid verloren data zal natuurlijk wel een stuk groter zijn bij het kapot gaan van een grotere schijf.
En die van seagate gaan nogal eens stuk! Bij mij drie in een maand waarvan 2 in 48 uur! Nooit meer dus...
Mijn ervaring is dat het voornamelijk af hangt van het type en in welke batch het gemaakt is. Van elk merk heb ik wel uitval gehad de afgelopen 20 jaar. Er zijn er ook die het ruim 10 jaar volgehouden hebben.
Kwestie van de temperatuur goed bijhouden en zorgen dat als de schijven niet gebruikt worden ze uit gaan. (Daar heb je immers SSD voor tegenwoordig.)

Nadeel van 8Tb schijven is dat het inderdaad lastig backuppen is. Niet vanwege de grootte maar meer vanwege de tijd die het duurt om zoveel data te backuppen.
> zorgen dat als de schijven niet gebruikt worden ze uit gaan.

Dit dus. Mijn harde schijven zijn alleen voor storage en zet ik alleen een paar minuten aan om iets ernaar toe te schrijven of vanaf te plukken. pricewatch: Sharkoon QuickPort XT USB 2.0 Zwart
Op deze manier gaan die HD's tientallen jaren mee aangezien ze minder last hebben van slijtage of hoge temperaturen

[Reactie gewijzigd door Slashdotter op 22 juli 2014 00:54]

Ik had hetzelfde voor met de WD Green 3 TB's van een tijdje terug. Of de WD Mybooks hun bagger encryptiekaartje.
Voor massa-opslag wordt veelal RAID gebruikt om dataverlies bij het uitvallen van een schijf te voorkomen. Het is dan doorgaans een kwestie van de disk vervangen en klaar.

Daarnaast is het natuurlijk altijd verstandig om een backup te hebben van belangrijke data.
Datzelfde verhaal kwam naar voren toen de 4TB harddisks geïntroduceerd werden. Daarvoor bij de 2TB, de 1TB, ik kan zelfs nog herinneren dat ik me afvroeg of ik die 850MB (!) harddisk wel moest kopen omdat er zoveel informatie op kwam te staan...

Conclusie: bij de introductie lijkt het veel, maar over één tot twee jaar zeg je hetzelfde over de 12TB disks die er dan zijn (of groter).
Als je data zo belangrijk is, heb je natuurlijk een RAID met 2 redundancy schijven.
Je data is ook in grootte toegenomen. Dus het zal wel meevallen.
Tenzij je de schijf vol zet bedrijfsadministratie, maar daar heb je vast geen 8TB van :P
Als je 1 schijf gebruikt voor je back-up dan maak je geen back-up maar verplaats je het probleem. Dat hoor ik veel klanten bij mij ook zeggen.

Het is daarom ook echt alleen maar interessant voor mensen die deze schijven in een raidopstelling zetten, waarbij je dus bij defecten geen dataverlies hebt.

Handig voor online bedrijven en nas systemen. (en zo nog tig andere toepassingen)
Na 100 stappen in harddisk vergroting is dit die ene waarbij de nieuwe grootte een onacceptabel risico van dataverlies meebrengt? Waar was je toen we van 20 naar 40 Mb gingen? Lol
tja, dat zeiden we vroeger ook van een 100MB schijf..........
Nee, want als ik 8TB aan data heb ik dan heb ik liever 2x 8TB in RAID1 dan 5x4 TB in RAID5
8TB? Jaja, zeker met 6 platters van 1.33/1,33TB elk? :? (geen woord daarover, erg jammer)
Hoe zit het met de betrouwbaarheid (MTBF?)?
Dat lijkt mij een steeds belangrijker punt naarmate de opslagcapaciteit stijgt...
Pas op met het vertrouwen van MTBF cijfers, neem deze met een goede snuif zout.
http://storagemojo.com/20...now-about-disks-is-wrong/
Het betekend ook niet wat de meeste mensen denken dat het betekend: MTBF is niet gemiddelde levensduur van een schijf zie http://www.netapp.com/us/....aspx?m=tr-3437.pdf&cc=us
En ik quote:
MEAN TIME BETWEEN FAILURES
MTBF is the least accurate measure of reliability. MTBF is commonly misunderstood to be the useful life of a hardware device. Since hardware manufacturers can’t reasonably test devices for their entire expected life before release, they test many devices in an attempt to extract what the failure rate should be during the expected life of the device. The formula most commonly used is as follows:

test duration * # of drives tested / # of drives failed during testing = MTBF
Als je de groei van harddisks bekijkt dan is deze feitelijk te laat.
2005: 500GB
2007: 1TB
2009: 2TB
2011: 4TB
2013 2014: 8TB

Een teken aan de wand dat de capaciteiten in de toekomst niet zo hard meer zullen groeien??
Misschien wordt meer aandacht besteed aan ssd tegenwoordig. Daarnaast is er niet zo heel veel materiaal meer wat zoveel nodig heeft. Met HD 3D video moet je al aardig wat hebben staan om 2TB vol te krijgen. En dan heb je nog streaming diensten, die maken behoeften om zooi massaal te downloaden en op te slaan.

Aan de andere kant willen bedrijven natuurlijk steeds meer en meer opslaan. Dus op die manier spreek ik mijn verhaal weer mooi tegen.
in het illegale circuit is 2TB toch echt niet zo heel erg veel meer.
Gemiddelde bluray film is 25GB/30GB en 1 aflevering van een willekeurige serie in 1080P is ook al rond de 2GB

dan kan het dus heel snel gaan met 2TB
dit probleem had ik met mijn tv-opnamen via een tv kaart
ik zette de files gewoon om naaf mp4, bespaarde me meer dan de helft van de oorspronkelijke gebruikte ruimte.
(btw: ik heb 12tb aan ruimte beschikbaar waarvan al ongeveer 2-4 tb gebruikt is)
kan je doen maar ik wil de oorspronkelijke files behouden. RAW
Wil ik ze daarna nog een keertje bewerken begin ik gewoon opnieuw van het origineel.
Het vergroten van de huidige opslagcapciteit vergt veel onderzoek en dus tijd en geld. Ze kondigen geen 8TB HDD aan omdat een concurrent een 6TB HDD heeft aangekondigd.

Er is waarschijnlijk ergens een technologiebeurs gaande waar beide berichten wereldkundig zijn gemaakt. Het is m.i. dus "geen reactie op" een bericht van een concurrent.

[Reactie gewijzigd door ariekanari op 21 juli 2014 18:15]

Wat ik altijd zo leuk van ICT-ers vindt is dat er vaak 1-dimensionaal naar beschikbaarheid gekeken wordt. Het gaat er niet alleen om dat je - in geval van nood - terug kunt naar een "veilige situatie", maar ook dat je een manier hebt om de reden van verandering te kunnen analyseren.
Of je nu RAID op twintig disks doet en 10 backups per nacht draait, als je een logische error in je software of database hebt, dan copieert de HW deze vrolijk mee. Het blijkt dan nog altijd lastig om met rollbacks en analyse te achterhalen wat de nu precies de oorzaak is geweest van de gecrashte omgeving. Food for thought!
Er wordt in de IT-wereld wel degelijk nagedacht over bit-rot hoor. En waarom spreek je over ICT alsof je erzelf niet bijhoort. Ooh, meneer de verheven "Enterprise architect" :D.
In alle bovenstaande commentaren staat alleen maar geneuzel over RIAD en backups. Niets over logische fouten. En welke oplossingen bestaan er dan? Ik ben altijd bereid om te leren ;-)
Ze trachten bit rot gedeeltelijke op te lossen door checksums in de filesystems (ZFS en btrfs) en regelmatige pool scrubbing (automatisch en manueel). Daarenboven kan je ECC geheugen gebruiken - om het nog iets minder aan het toeval over te laten. Het is zo een beetje de nachtmerrie van iedereen met een beetje storage. Ikzelf heb er al last van gehad door het gebruik van XFS op baggere externe usb schijven - stille corruptie op ~5 % van mijn video data. Een opgelost probleem is het jammergenoeg allesbehalve.
Ik dacht meer aan logische fouten in software. Veel software - zoals je ongetwijfeld weet - wordt natuurlijk nooit op alle (on)mogelijkheden getest. De omstandigheden (context) van de software als de software zelf, kan in de loop van de tijd resulteren in foutieve situaties. Dat kan op alle vlakken liggen: de logica van de software zelf, de uitgangspunten van de omgeving (input, output) en de opslag in databases of andere datastructuren. Tot nu toe, zie ik, bij het constateren van dergelijke problemen, er heel veel bloed zweet en tranen voor nodig zijn, om deze problemen überhaupt eerst maar eens te (her/er)kennen, om vervolgens de mensen te vinden die je kunnen helpen om het probleem op te lossen.
Is dat niet eerder een softwarekwaliteitsprobleem ? Niet gevalideerde software, slechte unit-tests, etc ... Het is inderdaad wel zo dat we de meeste output van software als heilig aanzien, maar software verandert zo snel ... dat dit wel te begrijpen is, vind ik.
Natuurlijk, je kunt alle software wetenschappelijke volgens de predicatenlogica geheel bewijzen dat ze zonder fouten zitten. Probleem alleen is dat je idioot lang bezig bent om alle code die er geschreven wordt om deze wijze te toetsen. Alle methoden die thans gebruikt worden zijn allemaal manieren om de grootste fouten er uit te halen en dat blijkt in de praktijk al een klus te zijn, omdat veel software bedrijven onder commerciele druk, steeds sneller functionaliteiten naar buiten willen brengen. Tevens is er een hele industrie rondom patches ontstaan, die zichzelf ook graag in stand houdt.
Het zou de software industrrie als geheel sieren als ze samen met de wetenschappelijke wereld de handen ineen slaan en tools gaan ontwikkelen die de predicatenlogica gaan gebruiken om software daadwerkelijk foutvrij te maken.
Ik heb zelf sinds een jaar een 3TB schijf. Van die 3TB heb ik 510GB in gebruik, waarvan 90% van 10 jaar aan vorige hdd's kwam. Ik zou niet weten hoe ik binnen nu en 10 jaar de resterende 2,5TB vol ga krijgen. Zonder 35000 full-hd films voor Jan Doedel te gaan bewaren tenminste.

Naar mijn idee schieten de HDD groottes nu de verzadiging in (en anders wel over een jaar als 20TB oid op de markt komt).

[Reactie gewijzigd door Engineer op 21 juli 2014 19:02]

Het hangt er vanaf wat je wilt opslaan, jij kiest ervoor films niet op te slaan, ik doe dat wel (niet voor jan doedel, er zit wel een gedachte achter). Tevens download ik zon 10 gb muziek per maand. Professioneel genereer ik ook veel data, programma's als COMSOL kunnen makkelijk projecten van 10 gb genereren. In de vier jaar dat ik een iPhone 4 heb, heb ik ook voor 50 a 60 GB aan foto's en videos gemaakt. Als de iPhone 6 uit is (en ik die bezit) zal dat nog wel harder gaan.

Dan heb ik van alles dat ik doe en digitaal bezit een back-up in een andere stad liggen (bij brand wil ik niet al mijn data verliezen). Ook mijn laptop zelf is gebackupt zowel thuis als in een ander pand.

Laat die extra terra bytes maar komen.
Als men 10 GB aan muziek download per maand krijg ik toch een jan doedel gevoel. OK, jij als superman bent in staat om dit ook echt af te luisteren in die maand tijd, maar wat doe je met januari tot en met juni? Dan heb ik het niet eens over de jaren er voor. Oh ja, je slaat ook films op met een gedachte! Je kijkt ze naast het luisteren naar muziek?

Wat ik probeer aan te geven, de poster waar jij op reageert waarschijnlijk ook, is dat er een verzadiging komt in het hebben van films/muziek (en dus data). Ja, we kunnen 10 PB aan films opslaan als consument, maar krijgen gedurende ons leven nooit de tijd om dat allemaal te bekijken.
Precies! Het idee van het aanleggen van inmense hoeveelheden data op opslagmedia zonder dat daar veel mee wordt gedaan lijkt op verzamelzucht: http://nl.wikipedia.org/wiki/Verzamelzucht

Het gaat er niet zozeer om wat je hebt (aan data en/of spullen) maar wat je er mee doet. Met die grote opslagcapaciteiten van tegenwoordig zal menig opslagmedium er uit gaan zien als wat je bij de navolgende zoekopdracht bij Google ziet: https://www.google.nl/sea...CCEQsAQ&biw=1137&bih=1095
Overdrijven is ook een kunst natuurlijk.

Eigen gemaakt fotos (JPG/RAW) + Video = 2TB
Legale muziekcollectie = 350GB.
Legale Bluray films = 2TB.
Virtuele Machines + Isos van software allerhande= 2TB.
Backups van verschillende computers 6TB

Das al ongeveer 13TB Legaal spul.
En dan hebben we ook nog de minder legale dingen :)

wel ben ik er sterk over aan het nadenken om mijn synology te vervangen door een Windows2012 R2 server omwille van de deduplication en storage tiering en zo kan ik ook makkelijker een 2dehands LTO drive aanschaffen als backup

[Reactie gewijzigd door klakkie.57th op 21 juli 2014 20:31]

...vervangen door een Windows2012 R2 server omwille van de deduplication
Dat helpt enkel als er iets te dedupliceren valt. Wellicht enkel je 6 TB aan backups en dan nog maar ten dele. Dus hou die Synology, 2012R2 is overigens een pak duurder.
Ik heb zo'n LTO drive.

Leek aanvankelijk goed idee maar na paar jaar is de prijs per gigabyte van zo'n lto tape gewoon te veel t.o.v. nieuwe harde schijf.

Verder: die LTO streamers maken een teringherrie. Echt totale teringherrie.

LTO is alleen interessant voor professionele bedrijven die een taperobot hebben en STEVIG wat tapes. Dus niet 1 noch 10, maar echt heel wat meer BETROUWBARE backup setjes nodig hebben die jarenlang bewaard worden als backup set van datum X.

Je hebt dan wel goede software nodig.
Met de hand tapes wisselen wat ik hier doe is maar geklungel.

Een robot ervoor bouwen helemaal niet zo simpel daar het inschuiven van zo'n tape op gevoel gaat. Dat lukt beter met de speciale taperobot drives, die vaak stuk duurder zijn.

Belangrijkste probleem is de teringherrie en de prijs per gigabyte op den duur en dat je betrouwbare software nodig hebt om te backuppen. Legaal is er eigenlijk alleen bacula (gescript wordt die ook ingezet vaak voor bedrijven met tape robots), maar tenzij je een nerd bent krijg je die dus niet aan de praat. Dat kostte me echt veel tijd om die werkend te krijgen...

Voor windows is de spoeling best wel dun. Je wilt de zaak tenslotte er betrouwbaar opgeschreven worden. De default windows tools zijn hopeloos, idemdito default linux tools (bacula daarvoor - kan ook vanuit windows overigens backuppen richting je linux backup server over 't netwerk). EMC2 heeft wel aardige software daar - maar da's middleware dus niet goedkoop.

In alle opzichten winnen de harde schijven 't dus prijstechnisch.

Harde schijven winnen het voor consumenten als backup simpelweg wegens de supergoedkope prijs per gigabyte, terwijl backuppen simpel met hand kan.
Als je een tool nodig hebt om je tape robot te besturen, onder Windows, Linux of iets exotisch, stuur me dan een PM. Ik heb de afgelopen jaren al heel wat spul geschreven voor tape drives en libraries.
bedankt om je ervaring neer te pennen.
De herrie is geen probleem alles staat netjes in de kelder, dus daar heeft niemand echt last van :)
Het is niet de bedoeling om heel vaak backups te nemen op tape maar zo eens om de 6/9 maand en dan kan de vorige backup weer weggegooid worden.

ik zou deze software eens willen proberen.
http://www.iperiusbackup.com/tape-backup-software.aspx
Als het je puur om dedup gaat, dan is daar een klein linux tooltje voor dat hetzelfde doet. Dat kun je ook wel op je Synology draaien, en doet vermoeddelijk precies wat jij wil:

http://en.wikipedia.org/wiki/Fdupes
bedankt voor de info.
Ik heb al 2 maal corruptie gehad op een synology nas, dus dat is eigenlijk de belangrijkste reden om over te stappen.
Vooral de storage tiering heeft min interesse. een 1TB snelle SSD + een hoop SATAs moet volgens mij wonderen doen voor mijn virtuele machines.
De Licenties van bv Windows heb ik sowieso omdat een ik MSDN abonnement heb.
De enige reden waarom ik nog twijel is het stroomverbruik.
Als de Seagate HDD van 6TB voor ongeveer ¤480,- te koop is (aldus pricewatch), zou deze 8TB omgerekend denk ik ergens in de buurt van de ¤640,- gaan kosten.
Lijkt me niet waarschijnlijk dat die prijzen gehandhaafd blijven, gezien de veel lagere introductieprijzen van de WD Red-serie in 5TB- en 6TB-variant (respectievelijk 239 en 289 euro) :)
Bij het zoeken naar een HDD voor mijn nieuwe PC kwam ik langs dit artikel. Daar komt Seagate er niet bepaald goed uit. Kan iemand me vertellen hoe valide zo'n artikel is? Ik had namelijk nogal wat kritiek gelezen op dit artikel en de testmethodes.
Dat artikel vertelt dat enkele modellen helemaal niet geschikt zijn voor hun omgeving en sommigen beter voldoen dan anderen. Als je een gelijksoortige omgeving hebt (racks vol met HDD's die in een RAID set de hele dag data wegschrijven en met pakweg 50 andere HDD's in één doos zitten) dan kun je hun ervaring gebruiken als richtlijn. Gebruik je jouw HDD's niet op die manier dan kunnen hun resultaten niet zomaar op jouw situatie worden toegepast.
Met deze Seagate heb ik jammer genoeg ervaring, zowel thuis als 42 stuks in een rack.
Zowel thuis als in het Rack zijn ze na ongeveer 1400 uur poweron, aan vervanging toe zijn, errors nemen toe.

[Reactie gewijzigd door wica op 21 juli 2014 20:19]

Neem voortaan drives die geschikt zijn voor raid dan.

Natuurlijk jammer dat de Chinezen (Seagate) en de Thai (Western Digital) die duurder verkopen, maar ze zouden stuk minder last moeten hebben in raid arrays van failures.

Deze bijvoorbeeld:

pricewatch: Seagate SV 35.5 ST3000VX000, 3TB

Dus de 'vx' versie.
Die heeft een failure raite van < 1% (claimt Seagate) na een miljoen uur nonstop draaien.
Wij hebben ook erg slechte ervaringen met Seagate drives in RAID situaties. En dat gaat dan om "Enterprise SAS" schijven. Ze komen (zeker in verhouding tot de WD's die we nu gebruiken) absurd vaak met CRC errors (bad sectors die "gerepaired" zijn).

Daarnaast is de garantie afhandeling van Seagate bedroevend. Ze sturen "Certified repaired HDDs" op, die vaak nog stukker zijn dan de schijf die ik heb opgestuurd. 9 van de 10 "certified repaired" HDDs gaat binnen een maand weer terug naar Seagate. Dat was zo dramatisch dat we Seagate's niet meer terugsturen, omdat je gewoon een defecte schijf retour krijgt.

Nu gewoon overal WD's in (WDX001BKHG), en dat gaat uitstekend. Nog maar 1 failure (DOA) gehad bij een paar honderd schijven. Alleen bij de WD4001FYYG (4TB Nearline SAS) uit eind 2013 relatief veel DOA's, maar dan krijg je bij WD in ieder geval gewoon een nieuwe schijf toegestuurd.
Yep, zelfde ervaring. WD halen mits niet DOA meestal wel 3000+ poweron uren of wel 3 jaar.
Mooie ontwikkeling al die TB's in 1 doosje, goed inzetbaar voor cloud opslag lijkt mij!
Hopelijk drukken dit soort schijven de kosten daarvoor een beetje.

Zit persoonlijk te springen om goedkope cloudstorage om minimaal 4TB aan data te kunnen opslaan/archiveren. Tot nu toe is dat namelijk nog niet voordeliger dan thuis maar schijven bij te blijven kopen.
Voor thuis zit ik eigenlijk niet te wachten op deze hoeveelheden + redundantie. Laat een cloudprovider dat maar voor mij doen, maar dan wel tegen een voordeliger tarief.
Lijkt me toch sterk dat een cloudprovider dit voordeliger kan.Dit soort harddisks kost al haast niets meer.
Daarenboven heb je een supersnelle / synchrone / Low latency fiber verbinding zonder datalimieten nodig wil je hier "optimaal" gebruik van blijven maken. Ga maar eens een backup maken met een upload van 10Mbps.
mooi! op naar de 20 TB schijf!
Op naar een nagenoeg oneindige hoeveelheid dataopslag in een kunstmatig zwart gat. :+
uitlezen gaat wel een probleem worden, want dat is WOM
Volgensmij blijft alle informatie (entropy) bewaard en leesbaar buiten het zwarte gat. Ik weet hier heel weinig van moet ik zeggen, maar ik meende dat wat je er ingooit is op de een of andere manier 'zichtbaar' op het oppervlak van het zwarte gat omdat de entropy in een geisoleerd systeem nooit afneemt (tweede wet thermodynamica).
http://en.wikipedia.org/w...dynamics#The_Second_Law_2
Gewoon alles wegschrijven naar /dev/null, ik heb m nog niet vol gekregen!
/dev/null is your friend 8)7
Alleen lastig om je data terug te lezen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True