Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 195 reacties

Seagate heeft de eerste harde schijf met een capaciteit van 8 terabyte geïntroduceerd. De schijf is vooral bedoeld voor de zakelijke markt, zoals aanbieders van webopslag en bedrijven die backups willen maken.

SeagateHet gaat om een harde schijf met een grootte van 3,5 inch. Veel specificaties van de schijf ontbreken nog; Seagate wil enkel kwijt dat het apparaat een 6Gbit/s-sata-interface heeft. Welke lees- en schrijfsnelheden daadwerkelijk kunnen worden gehaald, is onduidelijk.

Ook is nog niet bekend wat de schijf gaat kosten, al biedt de schijf volgens Seagate de laagste prijs per aantal terabytes. De 8TB-schijf, die volgens Seagate vooral bedoeld is voor zakelijke gebruikers, is voor een select aantal klanten nu al beschikbaar; in het begin van de herfst moet hij voor iedereen te bestellen zijn. Eind juli begon Seagate al met het uitleveren van testmodellen aan geïnteresseerde klanten.

Moderatie-faq Wijzig weergave

Reacties (195)

Ik dacht dat professionele HD's meestal een SAS interface hadden?
Backblaze.com heeft, naar eigen zeggen, de hoogste storage-density per rack-unit en gebruikt enkel & alleen SATA-disks om de kosten laag te houden.

SAS is niet per definitie sneller; ook deze zijn gewoon leverbaar in 3Gbit, 6Gbit en 12Gbit snelheden waarbij je in het wild eigenlijk nog steeds vaak de 6Gbit-units het meest ziet voorbij komen. De interface is dus even snel als SATA-600.
Wellicht dat de interface in veel gevallen even snel is; de SAS schijven zijn meestal uitgerust met meer cache geheugen 128 MB - 512 MB tegenover 8 - 32 MB van sata schijven en hebben een snellere rotatie snelheid 10.000 RPM - 15.000 RPM tegenover 5400 RPM - 7200 RPM dus wat dat betreft zijn SAS schijven eigenlijk altijd sneller dan de sata schijven die je kunt kopen. er zal vast ergens een uitzondering te vinden zijn maar ik doel op de mainstream.
Dat is een beetje l#lkoek. Spindelsnelheden klopt, maar cachegeheugen is absoluut een nonargument. SAS disken heb je zelden standalone draaien, maar nagenoeg altijd in een RAID omgeving. En wanneer je je drives in een RAID set hebt zitten wordt de fysieke cache van de schijf niet gebruikt. DIe is immers niet beveiligd bij stroomuitval, waar de controller zelf wel een batterij heeft. De cache zit op de RAID controller, niet op de disken. Ik kom ooit wel eens setups tegen waar ze de cache op de disken toch hebben aangezet, dat is echt een doodzonde en doet het hele idee achter RAID teniet zogauw er een power outage is geweest of er een disk gewoon uitklapt.
hmm.. dus jij bent van mening dat harddisks kunnen functioneren zonder cache geheugen op de schijf? (of om exact aan te geven op het interface bord) Dan moet ik je teleurstellen. Dat een RAID systeem cache heeft klopt; deze cache wordt echter gebruikt om de geheugen buffer te vormen van de controller zelf.

ik kan je dit wel uitleggen: Je kunt je voorstellen dat als je een RAID kaart hebt waar bijvoorbeeld 16 schijven aan hangen dat de controller kaart bij moet houden wat waar wordt weggeschreven. Om dit te doen is RAID cache nodig. Dit heeft niets te maken met de hoeveelheid cache geheugen aanwezig op de schijf zelf. deze wordt gebruikt door het interface board van de Harddisk.

De batterij (BBWC) Backup Battery With Cache zorgt er voor dat er bij stroom uitval hetgeen wat er in die cache staat nog beschikbaar blijft om de te schrijven data niet te verliezen. zodra de Controller weer een O.K. heeft for operation en de schijven ook allemaal weer opgespinned zijn wordt deze data alsnog weggeschreven.

Wat betreft het cache geheugen op de HDD zelf: Het interface board van een HDD is zo gemaakt dat hij alle protocollen die binnen SAS worden gebruikt kan vertalen naar lees en schrijf acties richting de fysieke schijf en de lees / schrijf koppen. Gezien de snelheid waarmee hij die data binnen krijgt kunnen de chips dit niet realtime verwerken aangezien je naar een magneet schijf gaat wegschrijven die nog; relatief trage; koppen heeft die fysiek over de schijf heen gaan. Om de vertraging in de conversie op te vangen wordt cache geheugen gebruikt.

in die context kun je je voorstellen dat als ik meer cache beschikbaar heb dat het interface board meer data aan kan nemen en dus meet in die cache kan bufferen dan bij minder cache geheugen.
Ik heb nergens beweerd dat een schijf kan werken ZONDER zn cache (ik zou hem er niet afsolderen...), feit is dat die cache uit staat in fatsoenlijke raid systemen. Een fatsoenlijke raid controller heeft zelf cache + batterij en die beschermd alleen de cache van de controller. Niet die van fysieke schijven. Wanneer schrijfcache van een fysieke schijf aanstaat wordt naar het OS (in dit geval de RAID conrtoller) een serie writes al 'als klaar' afgemeld terwijl die in werkelijkheid nog geschreven moeten worden. Dat is precies wat WriteBack caching doet. Wanneer je in een RAID array de writeback cache aan laat staan op een disk, en de stroom valt weg, en er staat nog een aantal MB weg te schrijven data in de cache van een fysieke disk, heeft de RAID controller daar geen weet meer van en is het weg data. Dat is dan ook weer de reden waarom enterprise SSD's en tegenwoordig ook consumentenSSD's powercaps hebben, zodat die writes toch nog afgemaakt kunnen worden. Bij mijn weten zijn er nog nooit fysieke disken met een batterij geweest die hem de writes laten afmaken bij een powerloss. Zal zeker te maken hebben met het feit dat fysieke spindels laten draaien 'nogal wat accu' nodig zou hebben.

Dat die fysieke disk-cache mogelijk nog in write-through mode staat zou best kunnen, maar als write-back aanstaat op je fysieke schijven in een RAID array kan je net zogoed geen RAID aanmaken (althans niet als je het over data-beveiliging hebt).

[Reactie gewijzigd door Rataplan_ op 27 augustus 2014 11:58]

Je geeft in bovenstaand bericht het argument: "feit is dat die cache uit staat in fatsoenlijke raid systemen." heb je een link voor mij waar dit staat of beschreven staat? Want van alle systemen waar ik met mijn handen aan gezeten heb (3PAR, EMC+, NETapp) om er enkele te noemen kan de RAID controller in geen geval bepalen wat het interface board van de HDD doet.

Ik wil graag verlicht worden. :D
Nogmaals, wanneer een fysieke schijf gaat cachen heeft de controller daar geen weet van bij uitval (ik heb het over schrijfacties hier). Net als je RAID controller door zn cache naar het client OS al aangeeft 'jip, write actie klaar' terwijl die onder water nog op de schijven staat te krassen, doet een fysieke drive dat ook. In Windows device manager krijg je ook niet voor niks een melding als je die aanzet; zorg voor een UPS want stroomuitval is data weg.

Vandaar dat een fatsoenlijke raidcontroller opties heeft om die uit te zetten, sterker nog op een fatsoenlijke controller staat die standaard ook uit. Screenshotjes van een p410i en een Perc6:

HP:
http://s29.postimg.org/v52khvfyf/image.png

Dell:
http://s30.postimg.org/4vnxi14sw/Dell.jpg

Bij HP is het de Physical Drive Cache, bij Dell heet het de 'Disk cache policy'. Lees er de help van je RAID controller maar eens op na. Bij Dell staat bij SATA schijven (die je ook op een Perc kan prikken) de fysieke cache standaard aan, bij SAS uit. Bij HP staat hij in elk geval op SAS schijven standaard uit, sata ben ik niet zeker van, heb eigenlijk niks meer met sata. In onze SAN's zit die optie niet, omdat je op een SAN die keuze ook niet eens wil hebben.

[Reactie gewijzigd door Rataplan_ op 28 augustus 2014 14:10]

Duidelijk; ik ben zelf nooit tegen gekomen dat je het uit kunt schakelen (normaal wacht de controller gewoon tot hij een O.K. krijgt van de schijf dat de boel goed weggeschreven is en ledigt dan ook de betreffende data uit zijn eigen cache) wellicht dat dit overigens niet voor alle Raid controllers zo is natuurlijk...

Ik vond nog een mooi document met verdere uitleg echter wordt daar in aangegeven dat het uitschakelen van de Disk cache wel nadelig is voor de performance.

Onderstaand een link naar het HP document met betrekking tot de P410i waar je over sprak.

http://h20565.www2.hp.com...k=com.vignette.cachetoken
Sorry dat ik je aanval maar: Pricewatch vermeld geen enkele combinatie van SAS 2.0 + 10KRPM & 128MB cache of meer. Het grappige hieraan is meteen dat juist Seagate wel een enorme hoeveel Constellation-drives aanbiedt met SATA-600, 7200rpm & 128MB cache.

De conclusie dat SAS eigenlijk altijd sneller is, is niet terug te vinden op basis van de cijfers die je roept noch wordt gestaafd door Pricewatch.

Neemt niet weg dat er optimalisaties zijn in bepaalde SAS-disks die daadwerkelijk ervoor zorgen dat data sneller kan worden aangeleverd.
Ik draai nu ook een storage server (Dell PE2950) met 6x 500GB Desktop schijven. Het ding vliegt door de opdrachten heen alsof er niets aan de hand is.

SAS schijven zijn schreeuwend duur, maar dat komt denk ik meer door de betrouwbaarheid in vergelijking die ze met 'normale' desktop schijven hebben/hadden.
Voor de rest zijn ze natuurlijk wat sneller omdat ze vaak, zoals hier ook al genoemd werd, een snelheid hebben van 10k of 15k RPM.

Vervolgens heeft SAS ook nog een 2e 'lane' op z'n interface. De SAS connector heeft dus 2 SATA 'lanes' en kan dus 2 taken tergelijk verwerken. Een doodnormale SATA schijf, of dit nou 500GB of 8TB is, kan dit niet.
Dit maakt een SAS schijf ook behoorlijk snel, vanwege de dubbele dataoverdracht.

Dat betekend, ongeacht de groote van de cache, dat de schijf ALTIJD sneller blijft dan een SATA schijf. Mocht SATA ooit 2 lanes op de interface krijgen... Is het dan nog SATA of wordt het dan SAS?

De betrouwbaarheid van de schijven ligt ook een stukje hoger, door fabrikant speciaal en accuraat geschreven software/firmware in de chip. De fabrikanten zoals HP en Dell krijgen de schijven aangeleverd van Seagate (of andere merken) en gooien daar vervolgens hun software in. Deze software is geoptimaliseerd voor hardwarematige RAID Controllers van HP of Dell zelf.

Dit is echter niet het geval bij normale desktop schijven. Die software is geschreven om in principe in elk systeem te werken en is ook vrij grof in wat er allemaal inzit. Allemaal van die leuke trucjes zoals WD's Intellipower en in de WD Green's de automatische rotatiesnelheid.
Dit hebben SAS schijven niet. Daar zit precisie geschreven software in zonder non-sense.


Even aan RAID zelf denken:
Natuurlijk denk ik nu ook aan RAID-herbouwtijden. Als je een RAID 6 set hebt met een totaal aan 10 schijven (om makkeljik te denken voor mij), dan verlies je er 2 door de RAID configuratie.
Omdat RAID 6 zeker niet de snelste is, duurt het met 10k of 15k schijven ook best lang als je de defecte schijven vervangt.
Stel je hebt 10x 8TB in RAID 6 die bijna vol staat... Hoe lang gaat dat duren denk je? Bijna een hele week zit ik zo te denken.

[Reactie gewijzigd door SilentDecode op 27 augustus 2014 14:18]

Volgens mij werkt SAS Dual Port alleen maar voor controller redundancy (een disk kan met 2 controllers tegelijk verbonden zijn).
Een disk is echt niet zomaar 2 keer zo snel... We zitten in HDD land echt niet tegen het limiet van de interface aan, maar gewoon tegen het limiet van de mechanische onderdelen (vooral seek times en error reduction, we kunnen wel sneller lezen, maar niet zonder fouten...).

Zeggen dat een SAS schijf dus altijd sneller is dan een reguliere SATA schijf is dus onzin, want intern zitten ze nog steeds op dezelfde manier gebonden aan mechnische en natuurkundige limieten.

Wel is het zo dat SAS vaak sneller is omdat ze gewoonweg sneller draaien (10k/15k RPM)
Als ik kijk naar storage systemen als EMC en 3PAR; de enterprise storage waar ik in mijn post op doel; dan kun je deze schijven wel degelijk kopen. uiteraard zijn deze niet tot nauwelijks beschikbaar voor de consument; schijven kosten zomaar 800-900 euro per stuk.

Kijk eens op: https://en.wikipedia.org/wiki/Serial_attached_SCSI
Hier zie je dat er meer technologie wordt gebruikt dan de zaken door mij eerder genoemd. Ik heb ook slechts aangegeven dat dit enkele factoren zijn.
http://h20195.www2.hp.com/V2/GetPDF.aspx%2F4AA4-9411ENW.pdf (PDFje van HP); daar halen ze mooi 3.5GB/s doorvoer op een 160-disk StoreServ 7400, omgerekend nog geen 20MB/s per disk op SAS 15K-disks.

Ik zeg niet dat dit representatief is voor alle SAS-enclosures maar voor mensen die prijs & performance afwegen, lijkt het erop dat de goedkopere SAN-oplossingen, die gebruik maken van SATA (al dan niet in hybrid oplossing) en/of nearline storage gebruiken, toch een mooiere doorvoer leveren. Zeker als je bij Seagate of Western Digital mooie 6TB SATA-disks kan aanschaffen voor grofweg 400 Euro ten opzichte van 6 x 1TB SAS voor een kleine 6000 Euro.

Zoals ik eerder al aangaf; er zijn inderdaad bepaalde zaken waarin SAS uitblinkt en dat ontken ik ook niet. Alleen de beargumentering om te kiezen voor het SAS-verhaal is voor veel mensen een ver-van-mijn-bed-show.
Je praat hier over een systeem dat bedoeld is voor zogenaamde " Slow Storage" of " Enterprise Storage" dat houd in dat daarop archieven e.d worden geplaatst en geen bestanden of bijvoorbeeld Databases die een hoge I/O nodig hebben. Vandaar in deze setup ook ruimte voor 160 schijven met een "relatief" trage doorvoersnelheid. dat ze RAID hebben is dan meer uit redundancy oogpunt dan uit snelheid oogpunt.

Als je kijkt naar de "fast storage" systemen als 3PAR (StoreServ 10000), NETapp of EMC+ dan zie je dat er heel andere doorvoersnelheden zijn. Daar zijn namelijk ook configuraties mogelijk waarbij je een "super fast" cage maakt met daarin 16x 1TB SSD. welke te mixen is met een cage van bijvoorbeeld 36x 4TB SAS. het systeem bepaalt dan zelf welke I/O intensieve zaken op het SSD deel komen en welke zaken op het SAS deel komen.

Als ik dit in detail uit moet gaan leggen dan krijg je nog 16 kantjes dus als het je interesseert dan beveel ik je aan eens naar bijvoorbeeld 3PAR of NETapp te kijken; daar is veel info over beschikbaar.

bronnen:
3par: http://www8.hp.com/us/en/...ml?oid=5157544#!tab=specs

NETapp: http://www.netapp.com/us/
Maar dat heeft niks met de interface te maken. Ik kan ook een IDE schijf op de markt brengen met 1GB cache geheugen... Net als SAS vaak wordt gebruikt als synoniem met betrouwbaarheid, dat is ook echt te kort door de bocht.
Als ik kijk naar mijn eigen ervaring met SAS; en dat is enterprise storage; dan zie ik bij sas dat de doorvoersnelheden een factor 3 zijn van sata schijven. Dit heeft wel degelijk met bovenstaande factoren te maken. Het "moederbord" van een SAS schijf is factor één en de rotatiesnelheid en cache geheugen is factor twee. kijk eens naar het moederbord van je PC; als je daar 512 MB op prikt dan zie je ook dat hij trager is dan wanneer je er 8 GB of zelfs 16 GB op prikt. uiteraard is dit fenomeen eindig aangezien er een punt komt waarop het inderdaad niet meer uitmaakt omdat de rest van de hardware het geheugen bijvoorbeeld niet meer kan aanspreken.

Ik zou zeggen: kijk eens op sites als toms hardware. daar doen ze veel tests en zijn ook in de forums veel discussies te vinden over SATA vs SAS.
Je zou dus ook gewoon een SATA schijf kunnen uitbrengen met precies dezelfde rotatie snelheid en hoeveelheid cache en deze zal nauwelijks minder presteren dan de SAS schijf.
Dat is helaas niet zo. SAS is een geheel andere technologie. Kijk eens op: https://en.wikipedia.org/wiki/Serial_attached_SCSI
Hier zie je dat er meer technologie wordt gebruikt dan de zaken door mij eerder genoemd.
Dat is helaas niet zo.
Dan haal je daarmee haal je eigen argument onderuit.
Wellicht had ik me anders uit moeten drukken. De SAS interface board gebruikt ook nog een aantal optimalisatie protocollen en andere (betere, snellere) componenten die de doorvoersnelheid ook nog eens flink verhogen. het is natuurlijk ook een premium enterprise onderdeel wat naast snelheid ook nog eens lang mee dient te gaan.

Dus van een SATA drive het cache geheugen verhogen en rotatie snelheid zal zeker helpen (denk aan een 10-20% snelheidswinst) maar je zal nooit op SAS niveau uitkomen.
Je bevestigt dus precies wat ik zeg: de interface an sich heeft er niks mee te maken, maar zaken als rotatiesnelheid, cache en algemene bouwkwaliteit.
Dan heb ik je verkeerd begrepen. :*)
Backblaze is trouwens recent begonnen met het inzetten van 6TB schijven ipv de huidige 4TB voor hun Storage Pods: Why Now is the Time for Backblaze to Build a 270 TB Storage Pod. Test periode is nu gaande en in de komende weken zullen ze ook actief ingezet worden.

De 4TB schijven zitten aan een redelijk stabiele prijs en zakken haast niet meer, een evolutie die je nu ook zit als je kijkt naar de prijs historiek van bv. pricewatch: Seagate Desktop HDD, 4TB . Prijs/GB momenteel aan 0.032 ¤ waar de pricewatch: WD Red SATA 6 Gb/s WD60EFRX, 6TB dan toch toch nog op 0.040 ¤ zit.

[Reactie gewijzigd door Ravefiend op 27 augustus 2014 10:01]

Dank!! Die eerste link naar BlackBlaze is niet alleen interessant v.w.b. harde schijfruimte. Maar vooral ook omdat het heel mooi inzichtelijk maakt hoe BlackBlaze belangrijke strategische (investerings-)beslissingen neemt. Kleine samenvatting:

Ze willen best investeren (als early adopter) in een eigenlijk te dure setup. Het argument dat ze gebruiken is dat op het moment dat de schijven widely available worden, ze genoeg stats over uitval, verbruik en snelheid hebben vergaard om te weten welke ze in bulk moeten inslaan.

Daarnaast laten ze ook nog zien hoe ze nu al weten wanneer dat moment komt, omdat ze de kosten voor hun setup uitzetten tegen de prijs per gigabyte. Dat vertalen ze dan weer naar de diskprijs. In hun geval, als de prijs onder de $250 per disk (voor 6TB) valt.

[Reactie gewijzigd door Smen op 27 augustus 2014 11:07]

Sneller misschien niet, maar de SAS interface specificatie is een stuk stricter dan die van SATA. Incompatibiliteit tussen SAS schijven en controllers zul je daarom niet snel zien. Incompatibiliteit tussen controllers en SATA schijven is heel goed mogelijk. Vooral Areca controllers zijn erg gevoelig voor het type schijf dat aangesloten wordt.

Daarnaast biedt SAS zaken als dual port interfaces, zodat 2 controllers de disk kunnen aanspreken (over 1 fysieke poort), t.b.v. controller redundantie.

SAS biedt dus wel een aantal voordelen die een "webopslag" bedrijf wellicht wel zou willen hebben.
SAS is niet per definitie sneller; ook deze zijn gewoon leverbaar in 3Gbit, 6Gbit en 12Gbit snelheden waarbij je in het wild eigenlijk nog steeds vaak de 6Gbit-units het meest ziet voorbij komen. De interface is dus even snel als SATA-600.
Fout, een SATA 6Gbit interface is een pak trager dan een SAS 6Gbit interface.

Een van de redenen is dat een SAS interface Full Duplex is en dus 6Gbit/s in beide richtingen kan sturen. Een SATA interface is Half-Duplex en kan slechts 6Gbit/s in 1 enkele richting sturen.
Wellicht dat er meer op de zakelijke markt gericht wordt ivm de grootte. De gemiddelde consument heeft (nog) geen 8TB opslag nodig. Leuk als je veel download en je slecht bent in weggooien, maar verder is 8TB redelijk onzinnig voor de doorsnee consument.

Deze schijven zullen het wellicht goed doen in QNAP of Synology NAS systemen. Twee 8TB schijfjes er in en je hebt voor relatief weinig geld een redelijk betrouwbare storage.

Ik zie liever een eenvoudige en betrouwbare backup faciliteit voor consumenten (zoiets als een Apple Time Capsule, maar dan op Windows). Hoe vaak ik al wel niet mensen heb moeten helpen om data te recoveren. Nog meer on-site opslag en het probleem wordt alleen maar groter.

[Reactie gewijzigd door BugBoy op 27 augustus 2014 09:21]

Wellicht dat er meer op de zakelijke markt gericht wordt ivm de grootte. De gemiddelde consument heeft (nog) geen 8TB opslag nodig. Leuk als je veel download en je slecht bent in weggooien, maar verder is 8TB redelijk onzinnig voor de doorsnee consument.

Deze schijven zullen het wellicht goed doen in QNAP of Synology NAS systemen. Twee 8TB schijfjes er in en je hebt voor relatief weinig geld een redelijk betrouwbare storage.
1. even realistisch gezien, ALS het niet nuttig was, dan had seagate ze vast niet uitgebracht

2. een 'gemiddelde' consument is hier niet op tweakers te vinden.

3. een 'gemiddelde' consument weet net aan het verschil tussen MB/GB ZEKER de oudere generatie, die nog van commodore 64 aflopen. 'dus wtf is een TB?!' in hun ogen

4. 'voor servertjes enzo is het best leuk, en als je veel download' misschien over 1-2 jaar zijn ze goedkoper, en dan word het leuk om data storage aan te bieden? back up servers te draaien voor mensen in je buurt. oh je hebt dit/dat/zus/zo op je pc en wil m ff opnieuw installeren. stuur maar op dan zet ik t wel voor (voer x bedrag in) weg voor je versleuteld en wel, tot je het weer nodig hebt. leuke markt voor thuis gebruikers van (Doorsnee consumenten) die 'even 100 GB aan data kwijt moeten'

5. hoef je eindelijk niet meer te kiezen of je 720 of 1080p download, want of je nou 1, zoveel of 4, zoveel GB download je hebt toch plek zat!

dus al met al, is het voor de iets minder 'doorsnee' consument tochwel een leuk iets over pak hem beet 2-3 jaar ALS ze betaalbaar worden, kunnen game devolopers ook weer rustig doorkachelen met hun game design's die 40 GB (JAWEL 40 GB!) ruimte innemen (wolfenstein the new order is een steam EN torrent download van 40 gb!)

goed bezig!


Ter aanvulling: De gemiddelde consument, heeft in zijn huis tuin en keuken computertje van 500-700 euro ook gewoon 6-8 GB werkgeheugen draaien, en een Intel Core i5, WAAR heb je dat dan voor nodig als ik vragen mag? ook nergens, aangezien je ongeveer op 2-3 GB (als je 6 hebt) draaid met AL je denkbare applicaties.

[Reactie gewijzigd door tigermonk op 27 augustus 2014 10:48]

3. een 'gemiddelde' consument weet net aan het verschil tussen MB/GB ZEKER de oudere generatie, die nog van commodore 64 aflopen. 'dus wtf is een TB?!' in hun ogen
Waar haal je die onzin vandaan, die generatie weet juist veel beter wat een een bit, byte, KB, MB, GB en TB is, want die generatie had veel en veel meer te maken met de hardware dan de huidige.

Met de huidige generatie heeft bijna alleen maar met de UI te maken, vooral de gene die een laptop kopen ipv een desktop
4. 'voor servertjes enzo is het best leuk, en als je veel download' misschien over 1-2 jaar zijn ze goedkoper
Een grote HDD met een hogere prijs/GB verhouding, kan toch goedkoper per GB zijn als de TCO berekent.

Zeer versimpeld voorbeeld:
Server A
PC kosten 400 euro.
6x WD RED 3GB ¤0,034 = 606 euro
Totaal kosten 1006 euro

Server B
PC kosten 400 euro.
3x WD RED 6GB ¤0,04 = 714 euro
Totaal kosten 1114 euro

Nu lijkt server A de duidelijke winnaar, en dat klopt, zelfs als je de +/-10~20 euro per jaar aan extra stroomkosten mee rekent, afhankelijk hoe je server gebruikt en vooral bouwt

Maar alleen als je later niet meer wilt uitbreiden, en elke server wil je later uitbreiden, want je heb nooit genoeg opslag.

Op server A zijn alle sata poorten in gebruik, dus moet je een losse kaart kopen, die op zijn minst 100 euro kost, maar eerder rond de 200~250 euro, als je ook raid wilt.

Bij server B zijn er nog steeds 3 sata sloten vrij voor nieuwe extra HDDs.

Daarnaast gaat server A zware problemen hebben met het plaatsen van al die HDDs, terwijl B nog plaats zat heeft.

Voor servers wachten tot de prijs/GB verhouding zakt is niet altijd zo slim, meestal is het goedkoper om meteen grote HDDs te nemen zodra ze redelijk betaalbaar worden, dat is voor een thuis server.
Zeer versimpeld voorbeeld:
Server A
PC kosten 400 euro.
6x WD RED 3GB ¤0,034 = 606 euro
Totaal kosten 1006 euro

Server B
PC kosten 400 euro.
3x WD RED 6GB ¤0,04 = 714 euro
Totaal kosten 1114 euro
Volgens mij vergis je je een beetje tussen GB en TB... Ik vind namelijk 714 euro wel erg veel voor 24GB opslag..
Datzelfde geldt voor server A.
108 euro meer voor 3x 6TB HDDs ipv 6x 3TB, wat heb ik fout berekend dan?

EN we hebben het hier over WD RED series, en niet de Green series, die zijn al wat duurder.
6x WD RED 3GB ¤0,034 = 606 euro
en
3x WD RED 6GB ¤0,04 = 714 euro
Het gaat hier inderdaad over RED series, dat zie ik.
Maar het formaat is wat aan de kleine kant..

[Reactie gewijzigd door SilentDecode op 27 augustus 2014 14:24]

vind het wel mooi dat je menselijk reactie geeft door ALLEEN maar de 'foute' in jou opzicht punten te benoemen maar de rest links te laten liggen.

wat ik met punt 3 duidelijk wil maken, heb je vast niet begrepen, weet net aan het verschil tussen MB/GB NET-AAN.

met andere woorden. die mensen als het ze niet word uitgelegt door een mediamarkt medewerker die 1+2+3+4=7 aan ze kan uitleggen. dan zouden ze het principe van Terabyte niet snappen. al is het alleen maar om het idee dat ze het 'niet nodig' hebben dus het ook niet hoeven weten.

in een tijd als de 21ste eeuw is informatie een KEY FEATURE. hoef je het niet te weten omdat het je gewoonweg niet kan boeien dat je 1000 GIGABYTE in je pc hebt hangen omdat je toch maar 100 GB gebruikt.. waarom zou je de term dan willen kennen?

en wat ik ook mooi vind, is dat je WD schijven noemt I.P.V. Seagate, (waar dit HELE artikel toevallig over gaat!)

je servers.. tja
Nu lijkt server A de duidelijke winnaar, en dat klopt, zelfs als je de +/-10~20 euro per jaar aan extra stroomkosten mee rekent, afhankelijk hoe je server gebruikt en vooral bouwt

Maar alleen als je later niet meer wilt uitbreiden, en elke server wil je later uitbreiden, want je heb nooit genoeg opslag.

Op server A zijn alle sata poorten in gebruik, dus moet je een losse kaart kopen, die op zijn minst 100 euro kost, maar eerder rond de 200~250 euro, als je ook raid wilt.

Bij server B zijn er nog steeds 3 sata sloten vrij voor nieuwe extra HDDs.

Daarnaast gaat server A zware problemen hebben met het plaatsen van al die HDDs, terwijl B nog plaats zat heeft.
ik kan ook een appel en een ei vergelijken, daaruit de conclussie trekken dat een grote appel meer plek heeft als een klein ei.

doe je een vergelijking over geld/money/centen/poen tot verhouding in HDD's. zorg dan wel eerst even dat je GELIJKE systemen neemt die beide evenveel sata sloten e.d. hebben.

zou toch wat zijn hey 'tweakers:

bedrijf A brengt zus en zo uit.. is ZO duur.
bedrijf B brengt zus en zo uit.. MAAR die heeft dit en dit en dit en dit extra!
DUS... bedrijf B is beter.. ja HAHA.. dat lijkt me duidelijk..

tweakers pakt toch altijd pricewatch idee van: ongeveer 500 euro (willekeurig bedrag)

dan krijg je bij AMD componenten (lijstje)
en dan krijg je bij Intel componenten (lijstje)
en bij gigabyte krijg je (lijstje)
en bij Asus krigj je (lijstje)

dit alles voor ROND (marge van 4 tientjes max.) 500 euro

jou marge is over de 100 euro. voor 100 euro kan je op zn minst after market cooler extra installeren waardoor alles beter koelt. bedoel maar ff

vergelijk in t vervolg appels met appels en peren met peren alsjeblieft!
Even puntsgewijs wat antwoorden, want ik begrijp eigenlijk niet waarom je post een +2 krijgt...

1. Ik stel nergens dat de schijf niet nuttig zijn. Ik stel alleen dat deze voor de doorsnee consument nog niet nuttig is. Juist voor zakelijke toepassingen waar je relatief goedkoop meer storage wil hebben zie ik het nut. Seagate blijkbaar ook, want die positioneert die schijf ook als zodanig.

2. Die zullen er ook komen, maar er zitten vooral veel personen die (denken) veel van computers te weten.

3. Ik snap niet wat leeftijd te maken heeft met het weten wat MB/GB inhoudt. Sterker nog... Mijn eerste computer waar ik op programmeerde was een Commodore-64. Ik ben juist van mening dat programmeurs die hiermee opgegroeit zijn vaak efficienter programmeren dan de huidige generatie, omdat die bewuster zijn van limieten.

4. Jij wilt data storage aanbieden voor consumenten? Zie ik nu niet iets als een bezigheid voor doorsnee consumenten, maar als dienstverlening. Moet je ook niet als enkele persoon willen doen. Levert amper wat op en als iemand een gecrashde schijf heeft mag je voor een appel en ei opdraven (tenzij je vrienden/kennissen de hoofdprijs wilt laten betalen).

5. Ik denk niet dat de meeste mensen nu een 1080p downloaden. Als je een 720p download doe je dat nu al vanwege aanbod of beperkte downloadcapaciteit. Opslag is vrijwel nooit het issue (op een 1TB schijf past al zo'n 50-100 films op 1080p resolutie).

RAM geheugen in PC's is heel logisch te verklaren. Het kost relatief weinig en het staat lekker op de spec-sheet. Liever een 4GB met 240GB SSD dan een 8GB met een 1TB HDD (maar dat laatste staat beter in de winkel). Overigens is een beetje extra geheugen wel fijn. Overtollig geheugen wordt vaak gebruikt als disk-cache en als je flink wat tabjes in je browser open hebt staan komt het ook van pas. De trend bij een aantal systemen is ook dat je systeemgeheugen achteraf niet kunt uitbreiden en dan zou ik voor die paar tientjes ook op safe gaan en wat extra geheugen bijplaatsen, zodat je over 3 jaar ook nog wat kunt met het apparaat.

Alles wat jij aangeeft is juist niet voor doorsnee consumenten. Ik heb zelf al een paar jaar een 10TB NAS server (FreeBSD met ZFS) draaien. Het gebruik daarvan neemt eigenlijk alleen maar af. Sinds er diensten als Netflix, Spotify, ... zijn draai ik steeds meer vanuit de cloud. Een flinke internetbandbreedte is daarom denk ik naar de toekomst een belangrijkere verbetering dan meer lokale storage.

Al die steam-caches, gedownloade films, ... is eigenlijk niets anders dan een flinke lokale cache. Veel liever heb je dat niet allemaal lokaal staan, maar betrouwbaar en snel beschikbaar vanuit de cloud. Voor privégegevens is het een ander verhaal, maar daar heb je geen 10TB voor nodig (tenzij je alle video uncompressed wilt opslaan).
nahja dat zijn allemaal jou meningen, al eens gevraagt aan naaste familie? en je punt twee :) laten we het daar maar niet over hebben, is namelijk redelijk glad ijs.. krijg je discussies van, dit is tweakers, niet de tweede kamer.

je punt 4. agh voor de mensen is het altijd wel handig als je ergens een back upje hebt draaien.. hoeven ze het niet op een 1 tb WD of welke externe schijf dan ook te doen.

verder is het allemaal eigen mening wat je hier verkondigt. is je goedrecht. alleen het feit dat je de logica van een +2 niet snapt omdat in mijn posts allemaal bewezen feiten staan tegenover de 'gemiddelde' huis tuin en keuken gebruiker.
3. Ik snap niet wat leeftijd te maken heeft met het weten wat MB/GB inhoudt. Sterker nog... Mijn eerste computer waar ik op programmeerde was een Commodore-64. Ik ben juist van mening dat programmeurs die hiermee opgegroeit zijn vaak efficienter programmeren dan de huidige generatie, omdat die bewuster zijn van limieten.
is totaal niet logisch. want 'je bewust zijn van ruimte' is totaal niet relevant op 8 TB schijven als je er toch (zoals jij zegt) geen opslag of grote servers van maakt voor bijvoorbeeld games.
Overtollig geheugen wordt vaak gebruikt als disk-cache en als je flink wat tabjes in je browser open hebt staan
de mensen van in de 50, die chrome ofzo gebruiken of IE.. in mijn kringen en klant bestand... die openen gewoon elke keer een nieuwe browser als ze met iets klaar zijn, enige wat dat doet is cookies opbouwen, die je met goede instellingen zo weer kwijt bent.

dus ook je geheugen vretende tabbladen navenant RAM geheugen zijn irrelevant dus ook voor jou zal ik maar even zeggen: vergelijk appels met appels en peren met peren beste man ;)
Ik vind het nogal bijzonder dat je jouw mening als "bewezen feiten" benoemt. Bewezen feiten zijn onweerlegbaar en dat is bij jouw uitspraken nogal discutabel.

Ergens een backup-je hebben staan is wellicht beter dan helemaal niks, maar je wilt liever een up-to-date backup zonder afhankelijk te zijn van een kennis. Alleen al ivm met privacy zou ik mijn backup niet bij een kennis willen hebben staan. Dat kan natuurlijk allemaal encrypted, maar dat is niet te controleren door die persoon. Een on-site backup oplossing (zoals bijv. een time capsule) zou voor veel mensen een uitkomst zijn. Eén keer instellen en daarna nooit meer omkijken na.

Al heb je 8TB storage, dan is het toch handig om daar een beetje handig mee om te gaan. Alleen al voor het overzicht en om spullen terug te vinden. En waarom voor 8TB betalen als je aan 2TB genoeg hebt.

Ik ben het wel met je eens dat tegenwoordig een instap PC voor de meeste mensen voldoet qua prestaties. Met 4GB RAM kom je al prima weg, tenzij je zware toepassingen wilt draaien.

Wat me tegenstaat is dat je gebruikers op hun leeftijd beoordeelt. Mijn nichtje van in de 20 gebruikt een computer een stuk beroerder dan mijn pa van bijna 70.
Voor kleine bedrijfjes en KMOs zijn deze schijven zeer interessant om op te backuppen . Een LTO6 tapedrive (6TB) met wat tapes is voor deze markt te duur en meestal ook overkill .

Voor in NAS systemen zijn deze 8TB (en ook 6TB) schijven totnogtoe niet betrouwbaar genoeg . De kans op uitval is veel groter dan 2-3TB disken bijvoorbeeld .
Eerst zeg je dat de schijven interessant zijn als backup medium om vervolgens aan te geven dat ze niet betrouwbaar genoeg zijn (voor o.a. gebruik in een NAS). Dat spreekt elkaar nogal tegen.

Juist voor een backup wil je een heel erg betrouwbaar medium. Dat is een losse harddisk imho niet. Daarnaast wil je een backup offline (en offsite) bewaren dus je kunt je afvragen hoe geschikt een harddisk daarvoor is.
Hoewel er nog weinig over deze HDD bekend is ben ik er toch van overtuigd dat deze getest is voor 24/7 gebruikt, gezien het doel waarvoor deze HDD beoogd is.

Zie hier: Seagate Ships World's First 8TB Hard Drives
zie ook geen probleem. Waarom zou deze 8tb minder betrouwbaar zijn dan een 100 gb van 8 jaar geleden.

Zaak is dat je gewoon dubbel moet werken. dus in raid in je server en daarnaast 1 of 2 losse schijven om de boel te backupen. 1 losse schijf neem je mee zodat bij brand je nog een backup hebt.
Bitrot. En zelfs als dat niet toe zou nemen met grotere volumes (wat het wel doet en aanzienlijk ook) is het nog vrij simpel. Als de kans dat hij uitvalt 10% per jaar is, is de kans uitval per MB vele malen hoger op een 8TB schijf dan op een 100MB schijf.

En laten we maar niet spreken over RAID rebuild times van een 8TB disk...
Met de huidige prijs/GB ga je toch niet moeilijk doen en neem je toch gewoon een RAID 1???

Ik heb nu in mijn NAS (voor niet boeiende zaken) een 3 , 2 en 1 TB schijf zitten. Dit zou ik met deze schijf in één keer kunnen vervangen 8-) . Ook al maak ik er Raid 1 van, dan nog bespaar ik stroom.
Raid1 is niet voor data security, maar voor read performance en uptime.
Maak een backup, dat is de enige veilige manier om je data niet te verliezen.
Raid1 is niet voor data security, maar voor read performance en uptime.
Maak een backup, dat is de enige veilige manier om je data niet te verliezen.
Het read voordeel van raid 1 is natuurlijk onzinnig ;). Raid 1 doet niets significants voor je reads. Met raid 0 kun je reads verdubbelen mocht je dat willen.

Uit de oude doos Raid 1 / Raid 0 read performance:
http://img.tomshardware.c...aling_charts/image004.png

mbt het nut van 8 TB in combinatie met raid 1:

Stel je hebt een hele berg data.. Bijvoorbeeld een kopie/backup van je steam library (500GB), alle seizoenen van 24 (300GB), enz. Dan praat je over data die je uit gemak bewaart. Je kunt het opnieuw downloaden alleen zelfs met 10 MB/s ben je nog wel even bezig om 4000GB+ te downloaden. Maar het is zeker niet zo dat je deze data bij Player-X in zijn brandkluis gaat leggen.

Dan kun je dus zoals hierboven een raid5 of iets dergelijks gebruiken. Maar dan ben je bij een defect dus uren en uren aan het rebuilden. Wat mij betreft kun je dan beter een raid 1 array pakken.

[Reactie gewijzigd door sdk1985 op 27 augustus 2014 17:07]

de rebuild time is alleen van belang als je bang bent dat er een tweede schijf uit je raid set knalt. Ook met een kapotte schijf kan je gewoon je raid 5 opslag gebruiken. Tijdens een rebuild is het misschien wat langzamer, dat niet mij niet genoeg om geen raid te gebruiken, raid 6 in mijn geval
Volgens mij komen veel van jullie RAID ervaringen niet verder dan het NAS thuis. Dit ging over betrouwbaarheid - voor mij enigszins enterprise gerelateerd waar ze de schijf dus niet voor aanbevelen.

Wat opmerkingen/kanttekeningen:

* RAID-1 kan wel degelijk de read performance verhogen, ligt voornamelijk aan de implementatie. Het heeft 2* zoveel writes als RAID-0 - vrij logisch - en kan uiteraard net als RAID-0 z'n reads gewoon stripen
* RAID-5 - LOL. Met 8TB duurt een sync/check van je RAID dagen. Als er een schijf klapt is de kans dat je bitrot tegen komt op 1 v/d andere schijven en/of bad sectors aanzienlijk groot (maak het meermaals per jaar mee). Dit zal of resulteren in het afbreken van je RAID rebuild of tot corruptie lijden die je vaak pas veel te laat ontdekt - als het al gebeurt. 8TB backups ga je liever niet terug zetten, kost ook aanzienlijk tijd en dan hebben we het in dit geval dus over slechts 1 disk van je waarschijnlijk dus veel grotere RAID set die in het geheel teruggezet moet worden in het ergste geval. Met aanzienlijke downtime dus.

@bbob1970 - betrouwbaarder? Hogere disk densities lijden tot hogere bitrot risico's. Ze hebben wel 4k checksums nu veelal ipv 512b wat het probleem enigszins beter maakt en de motors van dergelijke schijven zijn wellicht betrouwbaarder - de opslag zelf niet. Magnetische volumes zijn nu eenmaal gevoelig voor van alles en nog wat.

Dergelijke bitrot is 1 van de voornaamste redenen voor opkomende checksumming filesystems (ZFS, BTRFS en vermoed ook ReFS (moet me nog inlezen op ReFS)).
Je mist het belangrijkste punt, back up. Als je raid controller doorfikt zijn beide disken stuk. Als je per ongeluk iets delete en overschrijft ben je het kwijt. Who cares om steam en series te backuppen??
Zeuren kan altijd. en als je niet wil zeuren kun je dus beter 1000 100mb schijven nemen want dat is veiliger volgens freaky.

Hij vergeet de techniek wordt beter, betrouwbaarder en vooral goedkoper.
Heb jij cijfers dat failrates op HDDs lager zijn? Zelfde techniek, vaker made in China dus ik geen verbetering.
Nou, ik heb laatst nog in 1 maand 4 seagate barracuda's zien overlijden (ruim binnen de garantietermijn, dat dan wel) dus ik zou een beetje oppassen met seagate in je nasje.... De laatste twee crashes vonden binnen 36 uur na elkaar plaats en ik had de laatste nog niet vervangen en met RAID5 was het dus weg data. Alles terug moeten zetten van een backup...
Doet me denken aan die keer dat ik een koplamp van mijn auto verwisselde en op net dat moment de andere kant het licht ook uitging. :)

Als je HDs 24/7 laat draaien en ze worden niet goed gekoeld dan leven ze niet bijster lang. Als je dat toch wilt dan zijn raid oplossingen al weer nodig. En zeker als je een RAID5 hebt hoor je er altijd wel een of twee spare HD bij te hebben liggen.
In jouw geval is het misschien handig om eens goed naar de airflow (nog eens) te kijken en misschien wat fans erbij te plakken.
Daarom vervang je koplampen ook altijd in setjes - dan is ook je lichtopbrengst aan beide kanten weer gelijk...
Klopt, staat ook vermeld in de handleiding als er een stuk gaat moet je ook de andere vervangen. Idem voor batterijen.
Zelf houd ik mij niet aan dit advies. :D
Probleem is denk niet da ze 24/7 draaien maar dat wanneer ze na lange tijd een keer uit gaan niet meer willen opstarten. iig had je daar vroeger nog wel eens last van.
En nu nog, althans met aardig wat externe HDD types van seagate, iets dat sinds de usb3 uitvoeringen nog toenam !
Een verhoging in capaciteit doen ze in eerste instantie door meer platters te gebruiken . Eerste 4TB disken waren bijvoorbeeld met 5 platters , pas daarna komen ze uit met 4platters van 1TB .
Hoe meer platters , hoe hoger de kans op uitval . Dacht dat dit ondertussen alom bekend was onder tweakers .
Juist voor een backup wil je een heel erg betrouwbaar medium. Dat is een losse harddisk imho niet. Daarnaast wil je een backup offline (en offsite) bewaren dus je kunt je afvragen hoe geschikt een harddisk daarvoor is.
Dat is allemaal afhankelijk hoe belangrijk je data is en hoeveel redundantie je in je back-up systeem heb toe gepast, maar ben het met je eens om nu te zeggen dat grote schijven onbetrouwbaarder zijn dan kleine dat is onzin, dat ligt gewoon helemaal aan het file systeem dat je gebruikt.

Zelf gebruik ik voor mijn belangrijke data (prive foto's, video's en documenten), viervoudige redundantie, Raid 6 array op mijn server, maandelijkse USB HDD back-up, RAIDZ3 op mijn offline server, en offsite online back-up.
  • Op mijn server heb ik de origineel files.
  • Maandelijkse back-up op een USB drive van belangrijke files, die in de brandkluis wordt gelegt, waarschuwing om te back-uppen, event notificatie op mijn server.
  • De RAIDZ3 array is mijn oude main array van 16x 750GB HDDs, die nu als offline back-up werkt, die in een geaarde metalen kast staat, samen met een oude UPS die als bliksem afscherming moet dienen voor de stroom en de netwerkkabel, de back-up wordt dagelijks automatisch gestart via de BIOS om 4 uur in de morgen.
  • Voor de offsite back-up gebruik ik de gratis BuddyBackup, waar ik samen met een aantal vrienden online back-up's bij elkaar maken, de software is heel gemakkelijk, en je zegt gewoon bij wie en waar je back-up moet worden gezet.
Want je baby filmpjes en dergelijke zonder back-up op een HDD zetten is gewoon dom, dat is net zo iets als steeds je hele huis vol met kaarsen zetten, en dan weggaan, en hopen dat het wel goed zal gaan.

[Reactie gewijzigd door player-x op 27 augustus 2014 10:55]

Raid oplossingen lijken hardstikke mooi tegen uitval, in de praktijk is het echter wel minder handig aan het worden, de rebuild tijd van een parity based raid oplossing is met dit soort grote schijven enorm, zeker op een druk systeem kan dat dagen duren. Probleem is dat het systeem ook nog eens bizar langzaam wordt aangezien alle stripes moeten worden aangevuld vanuit parity blokken. Raid 6 geeft dan wel iets betere bescherming maar is in de praktijk ook nog langzamer.

Voor grote hoeveelheden data zie je dat men steeds meer overgaat op distributed replicated storage, voorbeelden daarvan zijn ceph, glusterfs, orangefs etc... Daar kan een complete node met storage uitvallen en is er nog weinig aan de hand. Een single disk is al helemaal geen probleem.
Voor grote hoeveelheden data zie je dat men steeds meer overgaat op distributed replicated storage, voorbeelden daarvan zijn ceph, glusterfs, orangefs etc... Daar kan een complete node met storage uitvallen en is er nog weinig aan de hand. Een single disk is al helemaal geen probleem.
Die nodes draaien meestal ook een RAID hoor. Dit is een En-En verhaal.
Dat is dus niet met alle filesystemen meer zo, een disk wordt gewoon gezien als het kleinst mogelijke opslag object. Het filesysteem zorgt zelf voor redundantie door middel van replicatie op een slimme manier.
Raid 1 of 10 hebben geen last van grote rebuild tijden of zware systeem belasting. Raid 1 is daarnaast ook nog eens controller onafhankelijk, op beide schijven staat dezelfde informatie en kan je zo in een willekeurig ander systeem hangen.

In nas, thuisserver of kleine zakelijke omgeving zou ik nooit meer raid 5 of 6 gebruiken, terwijl raid 1 toch wel fijn is om het OS en belangrijke data om tegen schijfuitval te beschermen. (KISS)

De 8Tb zorgt voor een verdubbeling van de maximale opslagcapaciteit zonder dat je meer drivebays nodig hebt en vermoedelijk geen of een minimaal hoger stroomverbruik.
Ik had het ook niet over Raid 1/10, ik had het specifiek over parity based versies voor wat betreft het performance verhaal. Overigens gaat in een drukke omgeving ook Raid 1/10 wel even duren voor de array rebuilded is met 8TB disken.
Ik heb het hier puur over voor thuis gebruik, voor zakelijke oplossingen zijn er andere oplossingen, en met hele andere prijzen.

Want zelfs als tijdens een rebuild mijn max doorvoer van mijn array instort met 80%, dan nog is hij snel genoeg om mijn Gbit volledig te belasten.
Voor het backuppen van data wil je een betrouwbare totaaloplossing. Dat kan best gepaard gaan met relatief onbetrouwbare media zolang je deze onbetrouwbaarheid ingecalculeerd hebt. Kans op uitval is natuurlijk zeker aanwezig maar met moderne filesystems en de juiste redundantie kan je hier goed mee om gaan. Je kan immers diverse vormen van pariteit introduceren en diverse backup locaties inschakelen die parallel draaien waardoor de kans op gehele uitval zo goed als weg is.
Zeker met moderne filesystems zoals ZFS kan je dit soort schijven prima gebruiken zowel als live storage als backup storage. Zet bijvoorbeeld een aantal van deze schijven in RAIDZ3, gebruik ECC geheugen en je hebt een vrij betrouwbare onsite storage oplossing voor je initiële backup en recovery scenario's. Vervolgens kan je een offsite backup gebruiken als failsafe. Mocht er iets mis gaan kan je snel recoveren van je onsite oplossing en mocht er echt een groot incident zijn kan je je langzamere offsite backup gebruiken.

[Reactie gewijzigd door Tsurany op 27 augustus 2014 09:50]

Klopt, dit soort schijven zijn waarschijnlijk wel betrouwbaar genoeg voor een backup (want dan heb je normaal het orgineel OOK nog).

Maar voor een life omgeving kan zo'n grote nieuwe schijf altijd wat meer problemen geven dan een technologie die al jaren op de markt is. Ik gebruik nog 2TB disks en ben aan het overschakkelen naar de 4TB disks. Vergeet niet dat grotere en eventuele snellere disks altijd iets complexer zijn. Neem nu SSD's bijvoorbeeld. Geen mechanische slijtage en dus zou het een betrouwbaarder medium kunnen zijn dan een HDD. Helaas heb je de afgelopen jaren meer kans op uitval gehad met SSD's dan met HDD. Omdat de HDD aan het eind van zijn leven zit en er veel mensen te goedkope SSD's hebben gekocht die problemen gaven (of nog gaan geven).

Ik vraag me af wat de HDD voorbij gaat streven in terme van opslag capaciteit. SSD's zie ik dat niet doen. Misschien write once read only holodisks waarbij je in principe elke bit tegelijk kunt uitlezen en een 1 op 1 copy kunt maken met een veel hogere bandbreedte dan zelfs de snelste SSD. Alleen voor backup doeleinden natuurlijk.
Ik weet niet of ik zoiets in een NAS / SAN zou willen hebben zitten. Nou heeft backup niet zoveel performance nodig misschien in bepaalde omgevingen, maar stel je hebt 6 van die dingen in RAID5, 40GB met 6 spindels... dat schiet echt voor geen meter op, zeker niet als je nog iets van deduplicatie (dus veel random IO) hebt...
Verder lijkt me de rebuild tijd van zo'n disk in dagen te tellen ipv in uren. In een van onze SAN's zitten een setje van 6x 1TB disken voor backup (wel SAS) en daarvan duurt een rebuild al een uur of 8. En dat zijn heel deftige RAID controllers die daarin zitten...

Kortom ik weet eigenlijk niet wat ik hiermee zou moeten. In een zakelijke NAS/SAN/RAID lijkt het me gewoon te groot en in een desktop heb je het ook niet nodig normaal gezien. Misschien nog in zo'n meterkast-nasje van Synology ofzo, daar maakt performance in weze echt neit uit. Wel erg mooie prestatie weer, de rek is er dus nog niet uit!

[Reactie gewijzigd door Rataplan_ op 27 augustus 2014 10:04]

Toekomst is wel meer in de richting van ZFS systemen en zo. In principe kunnen hele grote harde schijven in combinatie met snellere SSD's en veel RAM voor cache met een ZFS systeem veel betrouwbaarder zijn dan de huidige RAID systemen die iedereen gebruikt. En in sommige gevallen ook betere prestaties.
Maar wanneer data niet in de cahce staat moet hij toch van de disken afkomen :) Dus ja, er zijn systemen met caching (al dan niet ssd) die onder bepaalde omstandigheden beter performen dan reguliere RAID, maar je weet niet altijd van te voren welke data er nodig is.
Waarom zouden deze minder betrouwbaar zijn dan 2-3TB disks?
Het gaat hier deels om de hoeveelheid platters en leeskoppen.

Hier zitten gewoon een hoger aantal gevoelige onderdelen in en je loopt dus de kans dat er een onderdeel faalt.

Pas op het moment dat de data density van de platter omlaag gaat en er dus minder discs draaien lopen de kansen in je voordeel.

Dat was een tijdje ook het geval met 2 en 3 platter seagate drives bijvoorbeeld.

Ook heb je te maken met een iets hoger energie verbruik en warmte.

Liever 2 platters dan 3 etc.

-

Je hebt die nieuwe technologie first adopter problemen.

Stel ik zou voor iemand anders een nu een nieuwe pc moeten bouwen en ik had de mogelijkheid om voor hetzelfde geld 2x 4TB of 1x 8TB in te bouwen dan zou ik liever voor de meer beproefde 4TB gaan (iets wat nu al langer op de markt is) dan deze nieuwe technologie.

Voor mijn huidige PC ook voor een 2TB gekozen terwijl ik eerder overwoog een 3TB of hoger te nemen.
Deze schijven zijn inderdaad erg interessant. Helaas heb ik de boel nog niet zo goed voor mekaar dat ik deze schijven al aan gaan kopen.

Voor grotere bedrijven is dit inderdaad interessant.
Hopelijk kan ik binnenkort mijn storage uitbreiden :P
ik heb zelf al meer dan 8 tb aan hdd's in mijn pc.
ongeveer 1/3 hiervan is al gebruik

als ik mijn data van mijn externe hdd's zal overzetten
word dit al 4tb aan data

dus op lange termijn zal dit wel voor mij handig zijn
ik denk als je er genoeg in een array in een SAN plakt, dat het met de snelheid wel mee gaat vallen...

misschien dat de idee is: veel opslag voor weinig (dus voor je statische data?)
Probleem blijft het aantal spindels tov de hoeveelheid data. Een 3.5'' 7200rpm schijf doet ongeveer 150 - 180 iops als je geluk hebt. Maar op 8TB data is dat heel weinig. M.a.w. voor statische data zoals je aangeeft helemaal prima en een economische oplossing, maar voor online content ala youtube oid, lijtk me die niet handig (nou werken die wel met caching mechanismen maar het idee is duidelijk). Een array met 100TB data op pakweg 14 spindels met een max van tussen de 2100 en 2500 IOPS, nee daar hoef je niet veel van te verwachten bij random IO.
Jij hebt het hier wel over het vormen van arrays voor performance (raid 10,raid50). Als het gaat over bulk storage (raid5,raid6,...) dan heb je toch maar het aantal IO's (schrijf) van 1 enkele schijf. En als je toch IOPS nodig hebt ... daar zijn SSD's nu voor :D.

[Reactie gewijzigd door goarilla op 27 augustus 2014 11:20]

8TB disk aan enterprise SSD's? Succes :) Maar idd een aantal SSD's voor caching helpt enorm. Trouwens wat een kul dat je bij RAID5/6 de IOPS van 1 schijf maar overhoudt? Waar haal je die 'wijsheid' vanaf? Of begrijp ik je verkeerd? Afhankelijk van de caching van de RAID controller houd je practisch gezien vaak zelfs meer over dan N-paritydisken*iops-per-disk. Echt 1:1 gezien zal je per disk misschien wat IOPS inleveren aan overhead (ook ivm de parity) maar je houdt wel degelijk nagenoeg je aantal iops per disk over. Let wel ik heb het hier over een fatsoenlijke hardware raid controller, niet van die software dingen.

[Reactie gewijzigd door Rataplan_ op 27 augustus 2014 11:46]

Trouwens wat een kul dat je bij RAID5/6 de IOPS van 1 schijf maar overhoudt? Waar haal je die 'wijsheid' vanaf? Of begrijp ik je verkeerd?
Ik maak een onderscheid tussen schrijf en lees IOPS. Ik kan natuurlijk compleet verkeerd zijn maar ik denk dat het zo zit.
Voor een RAID5 array met n aantal disken en m als avg IOPS/drive. Lees IOPS is (n-1)*m, maar schrijf IOS is +- m sinds je voor iedere block dat je schrijft op alle schijven schrijft en voor 1 zelfs parity berekent en dan pas schrijft.
Is dit niet juist ?
Als je naar hele kleine IO's kijkt ter grootte van de stripe size heb je gelijk. Een RAID set heeft altijd een bepaalde stripe-size, bv 64K. De full-strip size is dan n-1 (bij RAID5). Met 9 schijven zou dat dan 512K zijn. Data wordt in blokken van 64K weggeschreven naar de disken, maar de full-stripe-size is 512K en dat is dan de grootte waarmee er 'per write' gewerkt wordt op array niveau gezien. Wanneer je 64K zou wegschrijven naar zo'n set wordt er in theorie evengoed 512K geschreven. Daarvoor wordt dan op 1 disk de data gewijzigd + de parity. Theoretisch gezien moet daarvoor van de rest van de schijven de data gelezen worden om zo de parity te kunnen berekenen.
Schrijf je echter meer data (stripe size of groter) dan hebben alle schijven alsnog maar 1 IO voor die hele 512KB, de controller schrijft niet voor elk blokje van 64K opnieuw de parity, maar doet dat op basis van de full-stripe. Als je dus 512K schrijft heb je n-1*iops per disk over.

Nou denk ik (maar ben niet zeker) dat een RAID controller in geval van RAID5 nog wat slimmer zal werken, als je namelijk de parity weet, + de veranderde data hoef je denk ik de niet-gewijzigde data niet opnieuw te lezen om de nieuwe parity te berekenen.
Dat dus. Bovendien zijn SATA schijven relatief goedkoop dus al gaan ze sneller stuk, het blijft goedkoper.
Niet noodzakelijk. Lijkt me dat je in bepaalde gevallen genoeg hebt aan de goedkopere SATA interface wanneer snelheid wat minder belangrijk is. Drukt de kostprijs ook weer wat.
Ik denk niet altijd. Ik denk dat de huidige professionele gebruiker meer behoefte heeft aan meer opslag dan "snelheid" (voor discussie vatbaar). De verhouding in prijs tussen SAS en SATA schijven zijn veel te groot. Waardoor ook veel zakelijke gebruiker naar SATA overstapt als ze de performance niet nodig hebt. En moogd ze toch snelheid willen, denk dat ze eerder naar SSD overgaat en de SAS overslaan

aanvulling : ik ben wel benieuwd naar de rebuild tijd voor zo'n grote schijf, als je bij 4TB al ongeveer 2 dagen nodig hebt voor rebuild, dan loop je wel op een hoge risico als de schijf 4 dagen nodig heeft om te rebuilden O_O

[Reactie gewijzigd door destiny_aya op 27 augustus 2014 09:28]

Voor bulk opslag is dat te duur.
Ik dacht dat professionele HD's meestal een SAS interface hadden?
Vaak wel, maar dat is als het naast capaciteit vooral snelheid moet hebben, maar niet zoveel snelheid als SSD. (prijs/snelheid offset).

Dit soort schijven zijn handig als je wel veel capaciteit nodig hebt, maar snelheid niet direct een prioriteit is. (staging voor backups bijvoorbeeld, waarbij de backup naar disksafe wordt gezet, voor het doorgespoold wordt naar het nog veel tragere tape medium)
Echt niet! Dat hangt namelijk helemaal van het gebruik af.
Een usenetplatform uitrusten met SAS-schijven zou de abonnementen onbetaalbaar maken, om maar iets te noemen.
Alle snelle SAS-schijven zijn immers voorzien van 2.5" platters, dus de prijf per GB ligt daar een factor tig hoger. SAS is alleen interessant wanneer SSD te duur is en SATA te traag.
SATA wordt in datacenters ook veel gebruikt voor minder performante data. Zo hebben we veel Netapp shelves met SATA schijven (ook een aantal waarbij 2x4TB achter elkaar geplaatst wordt). Hogere performance is SAS, maar die hebben weer minder ruimte. SSD is uiteraard helemaal snel, maar die zijn dan ook het kleinst qua ruimte.
Ligt eraan in welke zin professioneel. Professioneel als in server-hdd's: ja, meestal SAS. Maar SATA werkt op zich ook prima - de schijf wordt er niet inherent minder betrouwbaar van ofzo.

Maar in werkstations waar deze schijf als enkele losse schijf wordt gebruikt, is het niet erg zinnig om SAS te hebben, de voordelen zijn te klein.

[Reactie gewijzigd door _Thanatos_ op 28 augustus 2014 11:04]

Seagate 8TB-HDs? Dan kun je nog meer meer data kwijtraken voor hetzelfde geld.

Na twee dode 3TB HDs in 4 maanden tijd blijf ik ver uit de buurt van dit merk. Ik ben veel te veel boeken en films kwijtgeraakt om ooit nog iets van hun in huis te halen.
Die opmerking heeft iedereen over een bepaald merk.
Niets mis met Seagate, en je bent een speld in een hooiberg.
Anderen hadden dat met Maxtor (wat nu overigens van Seagate is).

Soms heb je pech.
Ikzelf heb bijvoorbeeld wel een paar moederborden zien sterven, maar nog nooit een harde schijf.
Er is absoluut iets mis met Seagate. Zie http://www.extremetech.co...most-reliable-hard-drives

De 1.5 en 3TB gingen hadden een uitvalpercentage dat vier tot vijf keer hoger lag dan bij de concurrentie. Na 18 maanden gaat de betrouwbaarheid van een Seagate-drive snel omlaag.
Seagate drives are not very reliable at all. As you can see in the second graph below, Seagate drives are fine for the first year, but failures quickly start building up after 18 months. By the end of the third year, just 73.5% of Backblaze’s Seagate drives are still running. This equates to an annual failure rate of 8-9%.
Nou dat vind ik nou niet echt schokkend eigenlijk.
Ik heb hier een Toshiba 2 TB die na 88 dagen draaitijd al stuk ging.
18 maanden zou ik mooi vinden, al is na twee jaar wel vervelend ivm garantie.
Het maakt ook niet veel uit, niemand vertrouwt een enkele schijf.
Join the club ;) Ik draai zelf 8x 3TB (ST3000DM001) in RAID-6, en ben momenteel bezig met mijn 2e rebuild in 3 maanden tijd (heb nu circa 18k draaiuren op de oudste schijven). Voordien circa 25 seagates zonder problemen gehad, nu 2 fails op 3 maanden tijd.
ST3000DM001 heeft inderdaad slechte serie's tussenzitten die helaas niet goed funktioneren in een NAS.
Heb er nu 4 laten omruilen en sindsdien totaal geen problemen meer.
Het waren idd ST3000DM001-HDs.

Die gingen bij bosjes dood. Die serie is waarschijnlijk grotendeels verantwoordelijk voor dit artikek: http://www.extremetech.co...most-reliable-hard-drives
Ze draaien inderdaad in een NAS bij mij, en helaas zag ik dit al een beetje aankomen. Ik heb echter mijn NAS gekocht nog voordat WD met de red serie kwam, en helaas betekent dit ook dat al mijn schijven net uit garantie zijn (gekocht in mei 2012) :s
Om goed te zijn zou je al je schijven moeten vervangen om de 2/3 jaar. Dus dat zijn zowiezo
2-3 schijven per jaar. En als je linux gebruikt (tweak je dev.raid.speed_limit_min en dev.raid.speed_limit_max sysctl setting want die staan heel conservatief ingesteld (10 Mb/s min en 200 Mb/s max)) zodat rebuilds vooruit gaan.

[Reactie gewijzigd door goarilla op 27 augustus 2014 09:51]

In het verleden ook erg veel problemen gehad met dit merk, sinds dien overgestapt naar WD een nooit spijt van gehad.

Durf niet zo één, twee, drie dit merk weer aan (ondanks dat ze al weer sinds lange tijd over zijn genomen).

[Reactie gewijzigd door MrBreaker op 28 augustus 2014 19:36]

(ondanks dat ze al weer sinds lange tijd over zijn genomen
Dat klopt niet helemaal.
Seagate is nooit overgenomen. Ze doen zelf wel veel overnames, en middels een vage constructie van aandeelhouders heeft Veritas wat software onderdelen van Seagate in handen.

Maar Seagate is gewoon een moederbedrijf, met vele bedrijfjes in de buidel.
En ze maken goed spul.
Uit archief van Tweakers blijkt wel degelijk dat ze een keer overgenomen zijn al is dit door een investerings maatschappij.

bron: nieuws: Seagate overgenomen door Veritas Software
Dat artikel wat in dat artikel werd aangehaald is heel onnauwkeurig en slecht geschreven.

Een groep van investeringsbedrijven heeft Seagate gekocht, niet Veritas.
Veritas heeft slechts wat software-spul in handen gekregen toendertijd.
Seagate is gewoon in huidige vorm verder gegaan.
Ok, van eigenaar veranderd, maar niet een onderdeel van een andere fabrikant of zo.
Hier hetzelfde; 5x 3TB seagate in een synology - "volume crashed" binnen een jaar - ik kan je verklappen dat zo'n moment je hart even doet stoppen. En dan eens al je disken eens checken op problemen, smart-thresholds waren nog niet gehaald, maar alle 5 hadden bad-sectors en plus andere errors.

Alle 5 direct (althans na een lange rebuild) vervangen door WD reds. Dure grap maar WD's zijn veel betrouwbaarder.
Draai jij je disks dan niet in RAID, ofzo?
RAID /= backup

had eerst =/= gebruikt maar volgens mij klopt die niet.

[Reactie gewijzigd door DrBashir op 27 augustus 2014 09:41]

RAID /= backup
Klopt, maar redundancy (via bijvoorbeeld RAID 1) geeft je wel meer zekerheid.
[...]
Klopt, maar redundancy (via bijvoorbeeld RAID 1) geeft je wel meer zekerheid.
De redundancy die RAID1 biedt is alleen echt nuttig als uptime essentieel is, bijvoorbeeld in een zakelijke omgeving. Voor thuisgebruik zal het zelden voorkomen dat het uitvallen van een harddisk echt voor problemen zorgt zolang er een backup beschikbaar is. Bovendien gebeurt het niet vaak dat een harddisk zonder waarschuwing van gezond naar volledig onbruikbaar gaat. Vaak is dit een geleidelijk proces dat gepaard gaat met extra geluidjes en corrupte sectoren. Dit geeft je dus genoeg tijd om migratie te regelen.

In zo'n geval ben je een stuk beter af door in je systeem slechts 1 disk te gebruiken en de 2e disk in een NAS of andersoortig apparaat stoppen en dagelijks syncen. Dan ben je nog steeds goed beschermd tegen uitval van 1 van de disks, maar heb je het voordeel dat je meer bescherming hebt tegen dingen als cryptolocker of foutief verwijderde bestanden. Als de disk in je hoofdsysteem uitvalt, vervang je deze simpelweg door je backup disk. Kost je een heel klein beetje downtime, maar dat lijkt me geen probleem voor reguliere gebruikers.
OT: =/= klopt wel hoor de 'is gelijk aan' teken is doorgestreept dus 'is niet gelijk aan'

Overigens helemaal met jou eens en zelf aan de lijve ondervonden dat raid geen backup is!
OT: Dat dacht ik ook, totdat ik het probeerde op te zoeken op internet. Lastig zoeken overigens want google ea kunnen niet op die string zoeken. Toen ik operators zocht, kon ik voor programeer talen alleen als vervanging van ≠ deze vinden: /=, dus niet =/=. bron: Wikipedia
Van data die maar op één plek staat weet je zeker dat je die op termijn kwijt raakt. Altijd zorgen voor een bescherming tegen hardware failures (bijv. RAID 5/6 storage) en een bescherming tegen eigen fouten (per ongeluk deleten) door middel van een regelmatige backup.

Helaas hebben de consumenten OS systemen (Windows en OS X) geen fatsoenlijke ondersteuning voor geavanceerde filesystemen (zoals ZFS of BTRFS) waarmee je dit in het OS al netjes kunt oplossen. Nu ben je afhankelijk van gare backup oplossingen.

In een NAS oplossing gaan schijven vaak kort na elkaar kapot. Schijven worden vaak tegelijk aangeschaft (zelfde batch) en draaien onder exact dezelfde omstandigheden. Als er één schjif gaar begint te worden, dan is het zaak om die snel te vervangen. Als er nog eentje gaat ben je alsnog alles kwijt (RAID-5 of RAID-1). Zorg dus ook voor SMART monitoring in je NAS zodat je op tijd ziet dat er schijven kapot aan het gaan zijn.

Let ook op de temperatuur van je NAS. Ik zie maar al te vaak dat die in een te krappe kast worden geplaatst, waardoor ze amper kunnen ventileren. Dan kun je er op wachten dat een schijf de geest gaat geven. Natuurlijk kun je ook gewoon pech hebben :-)
En wat dacht je van de raid controller zelf. Op de een of andere manier is raid 5 niet overal hetzelfde.
Best lullig als je raid controller ermee kapt en je op zoek moet naar een EXACT hetzelde exemplaar.
Ik zou als consument ook niet gauw kiezen voor hardware-gebaseerde RAID-5. Ik gebruik zelf een NAS-server op basis met FreeBSD en gebruik daar ZFS voor. Je hebt dan ook automatisch snapshotting wat ideaal is om accidental deletes het hoofd te bieden.

Voor zakelijke systemen met RAID-5 verwacht ik dat de leverancier toch een behoorlijke tijd de controllers kan aan blijven bieden.
ZFS herbouwt ook enkel "used blocks". Dat scheelt wel wat tijdens een rebuild. Op linux kan je bitmaps zetten op je Raid maar als je een schijf wisselt zal er ook gewoon een volledige rebuild worden gedaan.
Tja, de eerste 6 maanden zijn gekend als de "infant mortality" periode. Ik heb al heel veel 3 TB WD Green's zien falen overigens.
Over die 3 TB versies heb ik wel meer gehoord ja.
De 2 TB versies schijnen dan weer redelijk betrouwbaar te zijn. Al moet ik bekennen dat er bij mij wel 1 binnen een maand mee kapte... En dat was netjes binnen de 'indraai periode'.
Hier hetzelfde, tijd terug (voor het betaalbare ssd tijdperk) een seagate barracuda schijf kwijtgeraakt in een raid 0 configuratie.
Heb echt al hele zwik hdd's gehad maar dit was dus de eerste en laatste keer seagate voor mij.
Gek genoeg met de deathstar schijven nooit problemen gehad. :)

Maar misschien dat deze schijven betrouwbaarder zijn aangezien ze op de zakelijke markt gericht zijn.
Ik heb twee seagates die al 8 jaar trouw dienst doen. Misschien waren ze in die tijd beter van kwaliteit?
Na twee dode 3TB HDs in 4 maanden tijd blijf ik ver uit de buurt van dit merk. Ik ben veel te veel boeken en films kwijtgeraakt om ooit nog iets van hun in huis te halen.
Altijd oppassen met een N=1 (waarbij N niet het aantal disken is, maar jouw gehele situatie). Dat jij problemen hebt en het niet meer vertrouwd zegt niets over de kwaliteit van alle harde schijven van één merk. Er zijn enorm veel factoren met betrekking tot de omgeving en de schijven zelf die meespelen.

En met belangrijke data moet je natuurlijk rekening houden met redundantie in het systeem om de beschikbaarheid te verhogen. Koop een paar reserve disken en hou die op de plank. Vervang disken wanneer nodig en voer de garantieprocedure uit met de kapotte disken, indien nog geldig.

Daarnaast heb je natuurlijk je offline en/of off-site backups voor wanneer het echt fout gaat.

[Reactie gewijzigd door The Zep Man op 27 augustus 2014 09:38]

Na twee dode 3TB HDs in 4 maanden tijd blijf ik ver uit de buurt van dit merk.
Doet me denken aan de 3,5" 320GB Seagate disks die ik gehad heb; allemaal binnen 2 jaar kapot.

Soms is de S.M.A.R.T. melding op tijd, en soms komt 'ie wat later, als de disk zichzelf al read-only heeft gemaakt. Tot dusver ben ik gelukkig altijd in staat geweest om al m'n data naar een andere disk te kopiëren/clonen voordat de schijf er definitief mee uitscheed.
Je hebt hier helaas wel een valide punt inderdaad. Wij gebruiken de Seagate SAS schijven veelvuldig, maar wij zijn ook geswitched naar WD. De 300/600 GB SAS schijven vallen soms met meerdere per week uit, terwijl we bij WD alleen incidenteel DOA's hebben (uitval binnen de 1e week).

Dat is nog niet zo'n probleem, alles kan kapot. Maar Seagate heeft ook een waardeloze RMA procedure. Bij WD krijgen we vrijwel altijd nieuwe schijven retour of ons geld terug. Bij Seagate krijg je die "Recertified" drives, en die zijn gewoon kapot af fabriek. Die recertified disken sterven hier vaak binnen de array rebuild alweer.

Dit werd zo dramatisch dat wij Seagate's onder garantie niet meer opsturen, maar gewoon vervangen met WD's.

Overigens hebben we ook 4 160 GB SAS schijven, en die draaien al 7 jaar zonder problemen. Het is blijkbaar wel model specifiek.
Best je disks uit verschillende productieruns nemen, dus niet ineens 2 3TB disks bij zelfde winkel nemen, want dan is de kans dat die dezelfde productiedatum hebben nogal groot.
Dit kan ik ook alleen maar beamen. Mijn 3TB Seagate ging na 11 maanden defect. Vervolgens nog eens twee DOA's ontvangen na RMA. Hierna omgewisseld voor een WD Green en alles draait weer als een zonnetje. Dit lijkt wel pas een probleem van de laatste jaren bij Seagate. Overigens hulde aan Azerty voor het snelle handelen bij elke RMA _/-\o_
Ik zie aanbieders van webopslag anders niet deze schijven gaan gebruiken. Van zakelijke opslag misschien maar aanbieders van consumenten opslag die hebben de financiële ruimte niet voor deze dingen, dan maar een paar racks meer wegzetten.
Waarom? De kosten per GB zijn lager dan kleinere schijven, er is minder omringende hardware nodig per GB, er is minder stroom nodig per GB. Alleen de I/Os/sec en bandbreedte per GB is lager dan bijv. 2x 4GB. Ik zie eigenlijk alleen maar voordelen, ook voor consumenten-webopslag.
Ik zie anders nog geen prijzen genoemd in dit artikel en de regel is dat grotere schijven de eerste paar jaren per GB niet goedkoper zijn.

Daarnaast ook nog eens het issue van beschikbaarheid.
Uit het bericht:

"Ook is nog niet bekend wat de schijf gaat kosten, al biedt de schijf volgens Seagate de laagste prijs per aantal terabytes."
Die gebruiken juist wel dit soort SATA schijven, relatief goedkoop, makkelijk te vervangen en een hoge dichtheid.
Ik merk zelf dat des te groter de capaciteit van mijn HDD is, des te meer zooi die ik eigenlijk nooit gebruik/bekijk ik erop laat staan.
Ik zit nu met een schijf van "slechts" 1TB en ik dacht toch echt dat ik die nooit vol zou krijgen.

Ok, je ruimt wat minder vaak op, maar de tijd die het opruimen kost, als hij eenmaal wel aan de volle kant begint te raken is er dan wel naar.
Moet er niet aan denken om een 8TB schijf in mijn PC te hangen.
De voorjaarsschoonmaak duurt dan op de PC langer dan in het huis zelf. :P
Ik bewaar altijd alle ISO images die ik heb van CD/DVD discs, voor het geval dat de disc een keer kapot gaat. Heb daar al bijna 600GB van, en dan heb ik nog niet eens alle images ook bij elkaar op dezelfde (hard)disk staan. Ook heb ik complete filmseries, en die tikken ook aan; Star Trek: Voyager, bijvoorbeeld, weegt meer dan 50GB.

Voor een (hard)disk die ik als archiefkast gebruik, kan een terabyte of 8 wel wat futureproofing bieden. Al helemaal als er op z'n minst een tweede aanwezig is voor RAID.
Same here. ST TNG, DS9, VOY. Dat zijn de dingen die ik vroeger niet bewaarde, en nu wel.
Maar dat is niet wat ik met opruimen bedoel, want die blijven er toch echt opstaan. :)

Bijvoorbeeld films die ik echt goed vond toen ik ze de eerste keer gezien had, of van lang geleden die liet ik er tot voor kort ook opstaan.
Maar dan als de schijf vol begint te raken, kom je erachter dat je dsie films hoogstwaarschijnlijk nooit nog een keer zal gaan bekijken. Eraf ermee. :)

Images zijn inderdaad ook ruimtevreters. Dat probeer ik te minimaliseren.
Slechts OS en essentiele software om online te komen na verse OS instyall en zo. De rest kan dan weer ge-dl't worden.
Die verzameldrang heb ik al een hele tijd niet meer.
Dat is met de behoorlijke bandbreedte tegenwoordig ook niet meer nodig.
Wat ik nodig heb download ik wel.
Herkenbaar. Nu is mijn PC aan het dichtslibben met film en muziek ondanks de vele TB's maar die kan ik momenteel ook niet meer anders indelen dan ik een paar jaar terug heb gedaan.

Games nemen ook gigantisch veel ruimte in beslag immers anno 2014, dus de 1TB die ik daarvoor had zit al vol zonder dat ze allemaal erop staan.
Ik vind dit toch een veiligere gedachte dan een Cloud. Maar uiteindelijk komen ze overal bij. Wel een goede ontwikkeling dit!
hangt er echt van af wat je veilig noemt imho. 8TB is dan weer iets moeilijker om thuis zomaar even te backuppen terwijl bij een goede cloud provider die data wel veilig staat tegen crashes.
Dat argument snap ik nooit zo. Elke grootte van opslag is prima te backuppen door het in tweevoud (of drievoud) aan te schaffen.

Ik koop altijd harde schijven met de beste EUR/GB prijs. De nieuwe schijf wordt of de primaire schijf of de backup schijf in m'n server (al naar gelang welke de kleinste is) en de schijf die eruit gaat wordt een offline backup schijf. Zo groeien je backups dus gewoon mee :)
ofwel je backup schijf is dan per defenitie altijd kleiner dan je main...handig?
tenzij je niet meer gebruikt dan de grootte van je backup schijf, maar klinkt niet efficient...
Als iemand die momenteel 14 TB (2.7 miljoen files) moet dumpen en restoren. Zorg dat je
ondersteunende media hebt voor wanneer het noodlot toeslaat ! Het moeten verspreiden over verschillende systemen, schijven, ... is enorm verwarrend.
Mjah, maar dan moet je natuurlijk wel even 8TB uploaden naar je cloud provider zonder fouten.
Als je drie schijven van 4TB in RAID5 hebt, ben je wrs goedkoper uit dan 2x8TB in RAID1, het is sneller, en het is praktisch evengoed bestand tegen crashes.

Nou staat RAID natuurlijk niet gelijk aan een backup, maar om de gevolgen van crashes te helpen voorkomen, kun je RAID en gewone backups aan elkaar gelijkstellen. Voor andere preventies zijn ze 200% verschillend natuurlijk.
Veiliger? Niet per se, een gejatte HD is immers lastig terugkrijgen.
Prettiger en betrouwbaarder? In mijn ogen wel.

Ik ben nog ouderwets en autistisch genoeg om altijd lokale opslag te willen en niet afhankelijk te willen zijn van wel/geen verbinding (ook al is dat in praktijk nooit een probleem, ik heb een periode van 2 maanden zonder internet mogen zitten omdat ziggo na verhuizing een zooitje maakte, en dan ben je blij met een collectie films en muziek ipv Netflix).
Het liefst gooi ik een NAS in huis neer maar wacht wel even tot eind dit jaar ivm prijsdalingen.
Een gejatte HD is natuurlijk ut, maar een dief in je huis gaat geen harddisk meenemen. Daarbij, een dief die een datacenter binnendringt, komt juist niét voor geld, maar voor spullen. Plus dat je bij een doorsnee cloudprovider totaal geen idee hebt over hoe ze hun fysieke beveiliging hebben geregeld.
Ik heb in mijn NAS nu 12 TB aan opslag zitten, allemaal 4TB schijfjes.
Natuurlijk geconfugureerd in raid5. Met 1 extra schijf als "hotspare".
Natuurlijk is het zo dat, hoe groter je oplag capaciteit is, hoe meer rotzooi je bewaard.
Wat echt belangrijk is, moet op een losse HDD gebackupt worden, want zoals iedereen weet een Raid5 is geen backup ;) .
Hoe fijn is het dat je hiervoor 1 losse schijf van 8 Tb kunt gebruiken (effectief 7,44 TB).
Daarbij is het zo, dat je overige schijven met een lagere capaciteit waarschijnlijk wel in prijs zullen gaan zakken. Alleen maar voordelen lijkt me.
Seagate is niet per definitie slechter dan andere merken, lees dit maar eens..
http://computertotaal.nl/...trouwbare-fabrikant-62484

ediit: kleine taalvoutjes..

[Reactie gewijzigd door Bunzz op 27 augustus 2014 10:04]

Raid 5 is echt zowat de slechtste keuze die je kan maken. De kans dat nog een schijf uitvalt bij een rebuild is gewoon veel te groot. Dell adviseert al zijn klanten om RAID 5 niet meer te gebruiken.
http://www.reddit.com/r/s...nger_recommended_for_any/
Misschien heb je gelijk. (buiten het feit dat dit offtopic is), er staat: "Dell "RAID 5 is no longer recommended for any business critical information on any drive type. RAID 50 is no longer recommended for business critical information on Class 2 7200 RPM drives of 1TB and higher capacity."
Ik ben maar een eenvoudige thuis knutselaar, en mijn NAS staat zeker geen 24/7/52 aan.
Dus raid5 met een extra hotspare is voor mij een prima keus.. :)
Dus raid5 met een extra hotspare is voor mij een prima keus.. :)
Zo wel, maar aangezien je al een extra harde schijf hebt liggen is er geen enkele reden om geen RAID6 of RAIDZ2 te draaien. Nu is nog maar de vraag of hij zijn dienst kan bewijzen, mocht tijdens het rebuilden een van de andere schijven alsnog onderuit gaan. Als je je hot-spare gewoon onderdeel van je array maakt (en dan dus niet als live hot-spare), dan biedt hij continue extra veiligheid en is de kans op falen tijdens een rebuild heel veel minder geworden.

Een andere reden om de schijf niet in te zetten zou een gebrek aan ruimte kunnen zijn.

[Reactie gewijzigd door CurlyMo op 27 augustus 2014 11:02]

Jammer dat het een non-artikel is. Ik zie geen enkele vermelding van de gemiddelde belasting op deze schijven. Het enige wat in het artikel staat is dat ze in productie gebruikt zijn.
Het gaat om een hardeschijf met een grootte van 3,5 inch, een standaardgrootte voor hardeschijven en ssd's.

De meeste SSD's zijn volgens mij toch echt 2.5"?

Verder een mooie ontwikkeling. Mensen willen steeds meer data opslaan, ondanks dat Seagate aangeeft dat het voornamelijk voor de zakelijke markt is vermoed ik dat ook steeds meer consumenten hier op over zullen stappen mits de schijven betaalbaar zijn.

Alles word steeds beter (TV's, camera's, etc) maar een plek om deze data op op te slaan blijft steeds uit. Op dit moment zijn de 4TB schijven een beetje betaalbaar, deze ontwikkeling gaat er uit eindelijk voor zorgen dat de schijven steeds goedkoper zullen gaan worden.

Zelf ben ik ook benieuwd wat de specificaties zijn en de garantie die Seagate hanteert. Steeds meer schijven komen met een verbeterd garantie plan:)
De meeste SSD's zijn volgens mij toch echt 2.5"?
Nee hoor, de form-factor (dit is het keyword) voor SATA-devices is 3.5" en daar vallen SSD's ook onder. Neemt niet weg dat SSD's vaker worden geleverd in 2.5" uitvoering maar ook te krijgen zijn in 1.8", mSATA, M.2 en PCI-Express uitvoeringen.

[Reactie gewijzigd door MAX3400 op 27 augustus 2014 09:31]

De meeste zijn 2,5 ja. Maar er zijn ook 3,5" SSD's geweest.
HDD's zijn er volop in 3,5" maar ook in 2,5" echter haal je dan 1 a 2 TB ipv 8.

In de zakelijke markt zit het meeste geld. Dus daar worden ze als eerste uit gebracht. Maar ik vermoed dat er in de loop van het jaar of begin volgend jaar ook wel een consumenten versie uit zal komen.

En over dat garantie plan. Hopelijk gaat dat weer iets omhoog. In het verleden had je 5 jaar garantie. Later werd dat voor goedkopere HDD's 3 en seagate heeft nu volgens mij zelfs 2. En dat is wel erg kort. Maar aan de andere kant betaal je wel aardig wat minder. Bij WD betaal je meer maar dan kun je met de RED of Black line gewoon 5 jaar garantie krijgen.
Terwijl de meeste consumenten ook naar de garantie kijken. Ik zelf geef liever ¤10/¤15 meer uit voor die extra garantie.

Vind het wel appart omdat mensen tegenwoordig verwachten dat een product langer mee gaat als vroeger omdat ze 'technologie' is verbeterd maar niets blijkt minderwaar. Het moet steeds beter, sneller, groter (of kleiner;)) en dan moet je ergens op gaan inleveren.

Werk zelf in een winkel en als klanten bij mij wat kopen dan ben ik eerlijk, sommige merken hebben meer problemen dan de ander en als mensen bereid zijn iets meer uit te geven dan krijg je een kwalitatief beter product er voor terug. Het is niet meer zoals vroeger.

Daarom zou het ook alleen maar goed zijn als bedrijven nou eens gaan inzien dat de producten gewoond kwalitatief minder zijn geworden en eens gaan nadenken dat niet iedereen voor een dubbeltje op de eerste rij wilt zitten.

Tegenwoordig is dekt de garantie vaak al niet eens een smart error meer, een eerste teken dat een HDD op overlijden staat. Hierdoor verliest de klant steeds meer het vertrouwen in een product en omdat de verkopende partij hier dan geen garantie meer op kan leveren is het de winkel die de lul is en die winkel word dan tegenwoordig vaak op internet helemaal afgezeken.

Misschien schiet ik iets door, maar het internet staat vol met boze verhalen over het feit dat de winkel op bepaalde dingen geen garantie levert. Krijg er dagelijks mee te maken, helaas. Als winkel ben je echt niet blij als je een klant ontevreden de winkel ziet verlaten maar wij kunnen echt niet alles oplossen.

Voor iedereen die dit dan ook leest, begrijp de situatie van de winkel eens, als die geen credit vanuit de fabrikant kunnen krijgen dan houdt het op. Natuurlijk kan de winkel alsnog een artikel gaan opruimen en dan is de service top, helaas kan een winkel dan binnen een jaar zijn deuren sluiten omdat het alleen maar verliezers maakt. Mocht je met dit soort situaties te maken krijgen, probeer dan ten alle tijden het verhaal op papier te zetten en te versturen aan de winkel in plaats van het internet vol gooien met slechte reviews en verhalen.

Mijn drank is groot!
Tja misschien kort door de bocht maar dan verkoop je die producten toch gewoon niet meer? Als jij als winkel kwaliteit wilt leveren kan je er ook voor kiezen alleen de betere en wellicht wat duurdere producten te verkopen.

Maar dan loop je het risico dat de voor een dubbeltje op de eerste rijnklanten je winkel massaal link laten liggen. En voor mijn gevoel zijn dat er tegenwoordig best veel als niet de meerderheid. Maar ik kan het verkeerd hebben.
Ik merk dat mensen zelfs hoge eigen hebben over gratis dingen. Bv roms en software voor telefoons. Devs worden helemaal afgezeken voor iets wat ze gratis in hun vrije tijd maken. Een hele kwalijke zaak. Die devs stoppen vervolgens omdat het voor hun niet leuk meer Is.
Daar zal wel een leuk prijskaartje aan zitten? Wel leuk voor in je NAS, 16 TB, dan kan ik voorlopig weer vooruit...
"al biedt de schijf volgens Seagate de laagste prijs per aantal terabytes."

Uiteindelijk gaat het om gb/cent toch :)
Inflatie in zowel de data-eenheid als de geld-eenheid? :P
Laat ik toch plek hebben voor 4 van die dingen... Alleen, hoe ga ik in vredesnaam 32TB vol krijgen?

Misschien ga ik zo'n disk kopen, in een externe behuizing plaatsen, en dan aan m'n Xbox One hangen, en steek ik 4x 4TB Western Digital NAS disks in m'n thuisserver. Dilemma's, dilemma's.
RAID 6 draaien :) heb je maar 16TB beschikbaar :p maar kun je wel tot 2 schijven wegvallen.
Persoonlijk zou ik gaan voor RAID 10, al is het dan wel hopen dat je niet twee disks aan dezelfde kant van de array kwijtraakt.
En dus daarom is raid 6 beter dan raid 10.
Als je betrouwbaarheid zoekt. Als snelheid ook van belang is is RAID10 een betere optie, in ruil voor iets inboeten op betrouwbaarheid.
Dat dacht ik vroeger ook toen ik mijn eerste 80 MB schijf kocht. (Seagate SCSI)
Met een ST01 controller voor in mijn 8086....
Herkenbaar, herkenbaar ;)
Als ze beloven dat de prijs/GB het laagste is, en je wilt VEEL opslag, zou dit (als we Seagate even voor het gemak geloven) de beste keus in termen van geld moeten zijn. Maar ik ben wel benieuwd wat er ingeleverd is om die prijs te kunnen halen.
Dit is wel mooi. Voor mijn gevoel zijn we te lang bij 3-4 TB blijven steken. In eens wordt de stap naar 5-6 gemaakt en nu komt Seagate vrij snel daar na al met een 8TB. Dan kunnen we voorlopig nog even vooruit.

Voor NAS gebruik is dit nog steeds erg interessant. Al worden SSD's wel steeds goedkoper. Ik denk dat het nog jaren gaat duren voordat de prijs gelijk zal zijn. (prijs per gb)
voor doorsnee thuis gebruiker zie ik best grote gevaar in, stel dat je thuis een simpele nas heb (die 8tb ondersteun) en 1 van de 2 schijven valt uit. Dan wordt toch wel even zweten voor 4 dagen tot dat de nas heeft rebuild ;(
Ligt er aan hoe snel je nas is. Maar het is altijd een risico.
Mijn nas doet er 24 uur over om een 4x3TB Raid 5 te herbouwen. Maar dat is maar een ARM Nas. Ik gok dat die ATOM's dat wel wat sneller doen.

Een NAS met raid is ook nooit de vervanging van een goede backup. Het helpt wel voor de betrouwbaarheid.
Mijn nas doet er 24 uur over om een 4x3TB Raid 5 te herbouwen. Maar dat is maar een ARM Nas. Ik gok dat die ATOM's dat wel wat sneller doen.
Dat is 104 MB/s als m'n wiskunde goed ligt, dat is toch zeer behoorlijk. Zeker voor een ARM. Wat heb je eigenlijk precies ?
Het is een Qnap 412 niet echt krachtig.
Je berekening klopt inderdaad wel. Lijkt me wel erg snel inderdaad. Wellicht dat hij er effectief wat langer over deed dan de inschatting.

Ik weet wel dat ik bij het uitbreiden ik elke dag een nieuwe disk kon plaatsen. Al was dat wel van een 6 TB naar een 9TB array.

Ik zal eens kijken of ik het nog terug kan vinden hoe lang hij over de laatste rebuild gedaan heeft begin toch te denken dat dit eerder anderhalve dag hoort te zijn. Al kunnen de disk's wel 104MB/s aan.
Over het netwerk lezen gaat met ongeveer 85-90mb/s
8TB lijkt veel, maar als 4k content gaat downloaden / opslaan kan het hard gaan. Hopelijk worden de 5/6 TB schijven nu goedkooper
Is er dan al 4k content te downloaden?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True