Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 70, views: 18.902 •

De nieuwe Barracuda-lijn harde schijven van Seagate bestaat alleen nog maar uit 7200rpm-modellen. Er komen 3,5-inch-schijven met 1-terabyte-platters in de nieuwe Barracuda XT-serie, waarvan het grootste model een 3-terabyteschijf is.

De komst van de nieuwe generatie Barracuda XT-schijven markeert het einde van de Barracuda LP, waarbij LP voor low power staat. Die schijven roteerden op 5400rpm, maar zijn slechts een fractie zuiniger met energie, zegt David Burks tegen Computerworld, die bij Seagate verantwoordelijk is voor productmarketing. Volgens Burks leverde het verschil in energiegebruik de consument slechts enkele tientallen centen per jaar op. "Tegelijk presteert een 7200rpm-hdd 30 tot 33 procent beter dan een 5400rpm-drive".

Seagate gaat de nieuwe lijn leveren met capaciteiten van 250GB tot en met 3TB. De 1TB- tot en met 3TB-modellen beschikken over 64MB cache, kleinere exemplaren moeten het doen met 16MB. De schijven beschikken over sata 600-interfaces en zijn voorzien van Seagates OptiCache-, AcuTrak- en SmartAlign-technologie. Dankzij deze laatste functionaliteit kunnen de schijven goed met 4kB-sectoren overweg. Met OptiCache kunnen de schijven de volledige cache-hoeveelheid gebruiken, waarbij van ddr2 in plaats van ddr1 is gebruikgemaakt.

StorageReview legde het nieuwe 3TB-model op de pijnbank en constateerde dat de schijf wat sequentiële lees- en schrijfsnelheden betreft 30 procent beter presteert dan het voorgaande 3TB-model, dat over vijf 600GB-platters beschikt. Ook op het gebied van energiegebruik scoort de hdd goed. Alleen bij de gamebenchmarks moet het nieuwe exemplaar zijn voorganger vreemd genoeg voorlaten.

Seagate Barracuda XT 3TB

Reacties (70)

Mooi te zien dat hier nog vooruitgang in zit, ook al zijn de HDD fabrikanten natuurlijk getroffen door de overstromingen, waardoor het waarschijnlijk een stuk lastiger gaat worden om dit soort schijven te slijten. Ik denk dat de vraag naar 3TBs een stuk kleiner wordt, omdat de prijzen zo hoog zijn. Misschien dat ze met dit soort modellen wat kunnen zakken omdat er minder platters nodig zijn.
Vooruitgang wil ik toch een kanttekening bij plaatsen. De Samsung F4EG 2TB die 666GB platters heeft op 5400rpm doet zo'n 140MB/s sequential I/O. Deze schijf doet met 1000GB platters op 7200rpm zo'n 165MB/s. Dat vind ik een vrij teleurstellende performance.

Theoretisch zou je kunnen zeggen:
5400rpm -> 7200rpm = 25% winst dus 140MB/s -> 175MB/s
666GB -> 1000GB platter = 50% winst dus 175MB/s -> 260MB/s

De Samsung F4EG is ook al een lange tijd uit, en dit is dan de nieuwe generatie. Dan kun je wel stellen dat de performance van hardeschijven bijna tot een stilstand is gekomen vergelijken met de relatief grote stappen van vroeger.

Het zou prima kunnen dat men moeite heeft om performance te schalen met de hogere datadichtheid, of dat de SoC-chip de hogere snelheden niet kan bijbenen.

Dit gekoppeld met het feit dat NAND qua prijs relatief veel sneller zakt dan hardeschijven, geeft mogelijk aan dat het einde van het hardeschijf-tijdperk in zicht is. Je ziet dat bedrijven (Samsung en Hitachi) opgekocht worden en er maar 2 grote spelers overbiljven, dat innovaties lang niet de gewenste performanceschaling krijgen en de prijs van gigabyte-per-euro is ook al enige tijd stabiel tot de overstroming pas geleden. Kortom, de beste dagen van de hardeschijf liggen misschien wel achter ons. Een écht waardige opvolger van de Samsung F4EG krijgen we wellicht voorlopig nog niet.
666GB -> 1000GB platter = 50% winst dus 175MB/s -> 260MB/s
Nee, er zitten 50% meer bitjes per oppervlakte. Dit werkt dus twee kanten op: er zijn meer tracks (meer banen met bitjes), en meer bitjes per track. Ik denk dat we veilig kunnen aannemen dat dit allebei even sterk meer wordt.
Er komen daardoor de wortel van 1,5 =~ 1,22 zoveel bitjes per omwenteling voorbij (en zijn ~1,22 meer tracks). Het zou dus gaan om 175 -> 214 MB/s.
Hee interessant, dat wist ik nog niet. :)
En je hebt gelijk volgens Wikipedia:
While areal density advances by increasing both the number of tracks across the disk and the number of sectors per track, only the latter will increase the data transfer rate for a given rpm. Since data transfer rate performance only tracks one of the two components of areal density, its performance improves at a lower rate.
Rest bij mij nog wel de vraag of de hoeveelheid tracks en sectors per track gelijk optrekken, of dat een hogere datadichtheid ook kan betekenen vooral meer sectors per track ipv meer tracks.

Dit betekent ook gelijk dat hardeschijven maar nauwelijks schalen in performance. IOps kunnen ze fundamenteel niet schalen omdat je niet eindeloos de RPM kunt verhogen en full stroke seeks zullen altijd traag blijven. Sequential I/O kan wel verbeterd worden maar dat gebeurt op zo'n langzaam niveau dat het voldoet aan de (mijn) verwachtingen. Daarnaast heb je nog het probleem van uBER; de Bit-Error-Rate die constant blijft maar de capaciteit toeneemt dus in absolute zin krijg je steeds meer last van onleesbare sectoren.

Kijkende naar NAND zie je dat de prijs-per-gigabyte veel sneller daalt dan de prijzen van hardeschijven (per gigabyte), en dat NAND ook veel beter schaalt in performance omdat je vrijwel eindeloos RAID0 ofwel interleaving kunt gebruiken om de performance te verbeteren. Een 64-kanaals SSD die 4GB/s doet is theoretisch mogelijk en dit kwartaal zou Intel de 720 PCI-express SSD op de markt brengen die 2GB/s doet en een shitload aan IOps.

De vraag is dus, wanneer komt het einde van hardeschijven in zicht. De productievolumes voor desktopschijven daalt al een tijd, terwijl alleen de notebookschijven nog stijgen qua winst en qua productievolume. Dat lijkt een trend die als je 10 jaar extrapoleert je zou kunnen zeggen dat we de laatste fase van het hardeschijf-tijdperk ingaan. Misschien is de laatste innovatie nog HAMR (Heat-Assisted Magnetic Recording) en daarna is het voorbij en worden HDDs vervangen door Solid State technieken als NAND en PCM.

[Reactie gewijzigd door CiPHER op 1 november 2011 12:44]

Ik ben eigenlijk niet zo zeker van het einde van het HDD tijdperk. Zo heb ik een paar weken terug een HDD array geïnstalleerd zonder SSDs maar die toch de meeste SSDs wegblaast. En dan ook nog met een beperkte hoeveelheid schijven. De truc: simpel RAM met een batterij. Sneller dan SSD, kost weinig en perfect als cache. Dit RAM geeft de controller de tijd om je random schrijfacties om te vormen tot sequentieel schrijfacties en je leesacties te verminderen (want in de cache).

Ik geloof dat de komende paar jaar HDDs met grote caches nog interessanter blijven dan SSDs Uiteindelijk zal SSD wel doorbreken maar ik denk dat "de laatste fase van het harde schijf tijdperk" nog lang niet bereikt is. Zelfs magnetische tape bestaat nog. En dat is tientallen jaren nadat de HDD de tape als standaard opslag verdrongen heeft. Zover is het nog lang niet.
Hardware RAID is ook uit de gratie. Intel onboard RAID met RST drivers hebben een 'Volume write-back cache' optie, die je RAM gebruikt als write-back. Dat is nog sneller dan de onboard NVRAM op je Hardware RAID controller.

Hardware RAID kent ook bottlenecks die je met host-based RAID niet hebt, met name SSDs hebben te lijden onder de bottlenecks van Hardware RAID.

Technieken als Intel SRT caching zijn ook erg interessant om SSDs met HDDs te combineren zodat ze elkaars zwakke punten opheffen. De SSD heeft een beperkte capaciteit maar is heel sterk in random I/O, terwijl de HDD een hoge capaciteit heeft en goed is in sequential I/O. Met Intel SRT caching benut je de beste eigenschappen van beide technieken.

Je hebt wel gelijk dat als je voornamelijk sequential I/O performance wilt, hardeschijven nu nog het beste zijn. Maar dat is vooral omdat Serial ATA nog een grote bottleneck vormt voor SSDs. De opvolger, SATA Express, zal de losse SATA AHCI controller opheffen en SSDs feitelijk direct aan PCI-express koppelen; de SSD speelt dan een eigen controller en dat scheelt dus een hele laag die er tussenuit wordt geknipt. In plaats van PCI-express -> AHCI controller -> NAND controller krijg je dan dus PCI-express -> NAND controller.

@MSalters: het in sync houden van metadata (inclusief journal) en data gebeurt met BUFFER FLUSH requests, die pas voltooid worden als de buffer naar disk is geschreven. Zo waarborgen filesystems zoals NTFS en Ext3 de integriteit en voorkomen een journal overflow. Dit principe werkt ook voor write-back van de HDD buffercache, die elke hardeschijf heeft. Hardware RAID heeft als voordeel dat ze deze flush commando's kunnen negeren, maar alleen als ze over een Battery Backup Unit beschikken. Intel RST kan deze commando's ook negeren, maar dan loop je dus wel risico omdat het RAM volatile is en je NTFS metadata dan corrupt kan raken. Dat doe je dus niet als filesystem integriteit belangrijk is.

[Reactie gewijzigd door CiPHER op 1 november 2011 14:31]

Volatile RAM werkt een stuk minder goed dan NVRAM. Met journaled filesystems als NTFS en Ext3 zijn een heleboel writes die niet reordered mogen worden, wat betekent dat de RAID controller het OS niet mag vertellen dat ze completed zijn als ze in volatile RAM zijn bewaard. Writes naar NVRAM mag je wel als completed melden.

Dit heeft grote gevolgen voor de non-reordered write throughput. Als een write naar NVRAM 0.001 ms kost, en via RAM naar disk 15 ms, dan kun je dus 15000 keer zoveel journal writes doen. Zoiets merk je als je bijvoorbeeld een sourcetree untarred.
klopt, maar Humbug heeft wel een punt, het ram is tegenwoordig zo goedkoop dat een buffer van 8GB niet eens zo duur is, daar een paar schijven van een paar TB achter en je hebt een zeer mooie installatie
een equivalente installatie met SSD's kost voorlopig een veelvoud meer en dat zal nog wel een tijdje blijven
Je houd jezelf voor de gek als je alleen met sequential I/O rekening houd.
Dat werkt alleen als alles het enige wat je doet het kopieren van *Groote* Bestanden naar een andere HD is.
Voor het gevoel van snelheid bij dagelijks gebruik (programma's/windows opstarten, downloaden) ben je veel meer afhankelijk van de acces-tijd, en die is practisch volkomen gelinkt aan de rotatiesnelheid van de HD.
Je houdt jezelf voor de gek als je alleen met sequential I/O rekening houdt.
Het punt is dat hardeschijven extreem traag zijn met alles wat niet sequential is. Hardeschijven zuigen met random access performance. Dat was altijd zo en zal ook altijd zo blijven, hybride technieken niet meegerekend.

De truc is juist om een hardeschijf te gebruiken waar hij goed in is: opslag van grote bestanden. Terwijl je SSDs gebruikt waar zij goed in zijn: opslag van bestanden die middels random access worden aangesproken. Dus besturingssysteem en geïnstalleerde programma's. Daarin is een SSD ijzersterk en extreem veel sneller dan hardeschijven.

Een SSD is maar 0,5 tot 5 keer zo snel met sequential I/O, maar 100 tot 1000 keer zo snel met random access (4K random read t/m 512B random read full stroke). Daarnaast geldt dat grote bestanden veelal sequential worden aangesproken en OS/app bestanden vaak heel beperkt zijn zodat het prima op een 64GB SSD past. Zo kom je dus tot de conclusie dat SSDs veel beter voor OS+apps te gebruiken zijn en HDDs juist voor de opslag van grote bestanden.

De SRT techniek zoals ik hierboven heb besproken gaat ook juist op die gedachte in: de hardeschijf doet de sequential I/O terwijl de SSD de random I/O doet.
En zo is het cirkeltje rond. Ik schets het in een verhalend stukje:

Anno 2000: "We moeten de rotatiesnelheid verhogen van schijven, dan worden ze sneller en sneller is beter."
10 jaar later: "Als we nu harde schijven langzamer gaan laten draaien, verbruiken ze minder. De throughput zakt wel, maar nu kunnen we er tenminste een Green label op plakken."
Weer 1 jaar later: "We gaan de consument vertellen dat ze weer 7200rpm schijven moeten kopen en vertellen ze erbij dat je van Green schijven eigenlijk geen ruk terugziet op je energierekening."

Leuk zeg marketing. Ik ben overigens wel blij met deze trend, en hoop dat 7200rpm schijven nu weer betaalbaar worden. 30% vind ik een heel prettige verbetering voor een paar watts meer.

Antwoord op de post van CiPHER:

Afgezien van het feit dat je performance niet lineair schaalt met de grootte van de platters zoals Kuhlie aantekent moet je je ook bedenken dat een schijf genoeg componenten bevat die niet sneller geworden zijn. Zo is de buffer niet noodzakelijk vergroot en zal zeker niet veel sneller geheugen bevatten.

Verder is de naald is nog steeds onderhevig aan dezelfde natuurkundige limitaties en kost het opspinnen van harde schijven ook tijd, en zal het in de praktijk altijd langer duren voordat een 7200rpm schijf op toeren is tov een 5400rpm.

Het idee is dan ook dat als je alle componenten x% sneller maakt, het resultaat ook gewoon x% sneller wordt, en niet meer dan dat. Als je een component 50% sneller maakt maar een hele hoop componenten even snel laat zul je dan ook geen 50% verbetering zien in performance.
Bij het meten van de sequentiele doorvoersnelheid maakt het echter weinig uit hoe snel je buffer is of hoe snel je kop (naald?! het is geen platenspeler hoor) heen en weer kan bewegen. Je meet immers hoe vlot de HD data door kan sluizen die allemaal netjes achter elkaar staan. Je gebruikt dan niet de cache want het is teveel data voor de cache en je kop hoeft niet meer te bewegen dan elke rotatie een spoor opschuiven.

Verder vind ik zelf het grote voordeel van 5400 rpm schijven niet zozeer het feit dat ze een tikkie zuiniger zijn, maar meer dat ze niet zo'n takkeherrie maken. Vooral aangezien SSD's steeds betaalbaarder worden en je daar dus je IO-heavy spul op kunt zetten maakt het in de meeste gebruiksscenario's helemaal niet zoveel meer uit hoe snel je massa opslag is.

Maar goed, Seagate was toch al niet mijn favoriete HD fabrikant...
De tijd van harddisks zal nog wel even blijven. Voor grote bulkopslag is de harddisk nog steeds heer en meester, zowel qua beschikbare capaciteit als de prijs daarvan.

De punten waar de harddisk gewoon zal verdwijnen is op de performance punten. Seagate kapt halverwege volgend jaar bijvoorbeeld met het verkopen van de 3.5" 15K SAS Cheetah's. Ondertussen zetten ze vol in op SSDs en hybrid drives die beter presteren dan die heethoofden die actief gekoeld moeten worden.
Ik ben wel benieuwd waar het dan aan ligt als deze 'betere' schijf minder presteert bij gamebenchmarks.
Iemand een idee? IO's?
Minder platters dus minder simultaneous random read snelheid? (als dat zo werkt bij harde schijven, ik doe maar een wilde gok). Sequentiële read is weer hoger door betere datadichtheid en 7200rpm.
De hoeveelheid platters heeft hier niets mee te maken; performance wordt er niet beter op bij meerdere platters.

Wat wel van invloed is, is het feit dat deze schijf 4K sectoren gebruikt. Dat betekent dat games die blokken van bijvoorbeeld 6.5K en andere non-4K aligned I/O uitvoeren, een performancepenalty krijgen. Met name kleinere writes die niet 4K-aligned zijn krijgen een zware penalty.

Dat geldt voor bijna alle recente schijven; alleen oudere sommige nieuwe schijven gebruiken nog traditioneel 512-byte sectoren.

Daarbij mag gezegd worden dat hardeschijven vooral goed zijn in het verwerken van grote bestanden, en dat je voor games en andere random access juist SSDs wilt gebruiken. Ook het door de SSD accelereren van een HDD zoals Intel SRT caching is duidelijk de toekomst als het gaat om HDD performance. Alle hardeschijven zijn namelijk heel slecht in random access en bij SSDs is het eigenlijk juist andersom. Reden genoeg om beide te gebruiken om elkaars nadelen op te heffen.

@dasiro: grotere schijf met minder heads dan verander je dus de plattercapaciteit. Als je uitgaat van bijvoorbeeld 1000GB platters en je hebt een schijf met 2 heads = 1000GB capaciteit of een met 6 heads (3000GB capaciteit) dan is de gemiddelde seektime gelijk. Alle heads bewegen tegelijk want er is maar één actuator; de heads kunnen dus niet afzonderlijk van elkaar bewegen. Ook is het niet altijd zo dat je per platter 2 heads hebt, zoals bijvoorbeeld de Samsung F4 320GB. Deze beschikt over één 666GB platter met slechts één head, waardoor maar de helft van de platter gebruikt wordt.

[Reactie gewijzigd door CiPHER op 1 november 2011 13:06]

de hoeveelheid platters heeft er wel mee te maken. Per platter heb je 2 heads. De tijd die je nodig hebt om een bepaalde bit uit te lezen zal kleiner zijn als je meer heads hebt, omdat de kans dat je huidige bit dichter bij een head zal liggen dan bij een grotere schijf met minder heads.
Vergeet jij niet dat de heads allemaal aan elkaar hangen op dezelfde as? Ze kunnen volgens mij niet individueel bewegen.
Met 3 heads kun je 3 keer zoveel data tegelijkertijd inlezen als 1 head, dus het aantal platters + heads heeft wel degelijk invloed op de leessnelheid.
Leuk bedacht, maar zo werkt het natuurlijk niet.

De andere heads zitten namelijk op een andere plek (LBA). Je haalt dus alleen snelheidswinst met meerdere heads als je tegelijk op precies de juiste LBA leest. In de praktijk werkt dit niet en kan een HDD dus maar op één plek tegelijk lezen. Hoeveel heads je hebt maakt dus in principe niets uit qua performance.

Wel kun je stellen dat een grotere hardeschijf betere random I/O performance heeft in de praktijk. Neem bijvoorbeeld een 80GB hardeschijf waar Windows 7 op staat van 30GB. Voor de random access die Windows veroorzaakt zal de hardeschijf dus bijna de helft van de schijf moeten afleggen. Neem nu een 2TB schijf en die 30GB is maar een fractie van de totale capaciteit. Dat betekent ook dat de gemiddelde seektijden sterk dalen omdat de zoekafstanden veel kleiner zijn geworden. Dit werkt uiteraard alleen als er geen fragmentatie of gelijktijdige I/O plaatsvindt op andere LBA.

Je kunt het voordeel van bovenstaand principe ook kunstmatig forceren door short stroking. Dit is een techniek waarbij je op een 2TB schijf bijvoorbeeld een 200GB partitie maakt waarop windows staat, en je de rest niet of alleen passief gebruikt zoals voor backups. Dit zorgt dat je schijf alleen de eerste 200GB actief gebruikt en de zoekafstanden dus automatisch heel klein zijn. Dit zorgt ervoor dat de seektimes maar zelden hoger zijn dan dat van de gemiddelde rotational delay (rpm).
Is dat niet te vergelijke met een soort van interne raid? als je 32 bytes lees of schrijf dan zal dat toch verdeeld worden over de verschillende platters? 4 heads zal dan toch sneller lezen/schrijven (4x 8bytes) dan 3 heads (3x10.666)?
en goed gezegd "zoek afstand" de fysieke afstand. alles dichter op elkaar proppen hoef je inderdaad minder ver te zoeken.
Ja, leuk: je kunt dus random clusters uit een andere file lezen. Hoe groot is de kans dat die andere kop nou net boven een andere file hangt die je toevallig ook nodig hebt?
4KB sectoren zijn irrelevant. Elk modern filesysteem ondersteunt geen disk access op kleiner nivo. Bovendien staan de sectoren achter elkaar, wat betekent dat de tijd om 8 sectoren van 512 bytes te lezen gedomineerd wordt door de eenmalige seek time: 15 ms + 8 * 0.01 ms = 15.08 ms. Als je dan maar 2.5 K wil lezen kost je dat 15 + 5*0.01 = 15.05 ms, een besparing van 0.2% (als het OS dit zou toelaten).
Mooi hoop dat dit het begin is van goedkopere hardeschijven met een grote opslagcapaciteit.
het voorgaande 3TB-model, dat over vijf 600GB-platters beschikt
Is het dan niet mogelijk dat ze 4 of zelfs 6 van deze 1TB platters in een harde schijf doen. Neem aan dat er zat vraag naar is, zelfs als hij maar op 5.4K draait.
Iets met uitmelken en zo langzaam mogelijk upgraden in zoveel mogelijk geld te verdienen.

Vaak speelt ook warmte een probleem. 6 platters in 3.5" word (zelfs bij 5400rpm) redelijk warm.
Als ze het aantal "unrecoverable read errors" tot een minimum weten te beperken wel, want dat maakt toepassing in Raid anders wel erg risky. Aan de andere kant: met 6 van deze platters heb je ook niet veel meer dan raid1 nodig :P

Wat mij betreft mogen ze komen met 6TB-schijven hoor, dat is wat ik nu met 5 1,5TB schijven haal, ik overweeg die te vervangen door 3x3TB, maar door die enorme prijsstijgingen ineens ga ik dat toch maar niet doen voorlopig :/
Tijd voor RAID 55 dan: 4x4x3TB is, eh, netto nog steeds best wel veel. En dan mag je 1+1+1+4 schijven verliezen.
Ik zit dan nu eerder te wachten op de 1TB schijven met een enkele platter.
Minder platters, minder warmte, minder stroom, en bij Seagate ook vaak een heel platte behuizing voor de schijf. Ideaal voor mij.
Als ik het artikel zo lees dan kunnen er maximaal 5 platters in een 3.5" behuizing geplaatst worden. Waarom brengen ze dan geen 4TB en 5TB-schijven uit? Een beetje jammer.
Waarschijnlijk omdat ze eerst nog even willen cashen met de 3TB modellen. Het is commercieel veel interessanter om kleine stapjes te nemen, dan in 1 keer een flink groter model uit te brengen.
tenzij je de enige bent die een dergelijke schijf introduceert... dan ben je weer uniek :+
Ik vermoed dat er een andere reden is om geen 4TB+ disks uit te brengen.
Ja, maar dan druk je je eigen 1, 2 en 3TB disks weer uit de markt. En dat wil je natuurlijk ook weer niet. Want als je die 4TB heel duur maakt, dan wordt het ding ook niet verkocht.
Is ook niet handig, want dan krijg je weer de remmende voorsprong.
Dan lopen ze te ver op de markt vooruit. Volgend jaar zullen ze wel 4TB schijven introduceren.
ik denk dat dat te maken heeft met kosten/betrouwbaarheid (meer platters met hogere dichtheid betekent grotere kans bij defect dat je veel meer kwijt bent, denk niet dat men daar op zit te wachten)
ik denk dat dat te maken heeft met kosten/betrouwbaarheid (meer platters met hogere dichtheid betekent grotere kans bij defect dat je veel meer kwijt bent, denk niet dat men daar op zit te wachten)
Het heeft de industrie nooit weerhouden grotere disks te ontwikkelen, terwijl ik indertijd ook al opzag tegen het verlies de data van een schijf van 1 Gigbyte
half offtopic
:) best raar om te horen "bij defect dat je veel meer kwijt ben". maar als we belasting betalen mogelijk maken op internet is het ineens handig :P. maar goed, we leven in de bits en bytes tijdperk, ook backups maken is nog mogelijk.
Marketingtechnisch misschien wat minder handig. Liever 2x 3TB verkopen dan 1x een 5TB schijf.

Als andere fabrikenten voorbij gaan met grotere schijven, dan hebben we nog de ruimte om eenvoudig bij te schalen. Als ze weer op nieuwe techniek moeten 'wachten' dan kunnen ze achter gaan lopen.

[Reactie gewijzigd door Fairy op 1 november 2011 12:00]

Ik lees ook dat de lijn begint met HDD's van 250MB. Hoe maken ze die dan met 1TB platters ???

Als je slechts een kwart platter plaatst dan slingerd de schijf nogal :+
Nu is het toch zo dat over het algemeen 5400rpm schijven ook minder snel zullen slijten en stiller zijn dan een 7200rpm? Dus alleen om die paar centen hoef je het inderdaad niet te doen. Toch voor media players lijkt mij een 5400rpm toch de voorkeur hebben en voor opslag van grote hoeveel data, die je niet zo 'snel' nodig hebt.
Ik heb vijf 5400rpm-schijven in mijn NAS zitten en de netwerkkaart (Gbit) is de beperkende factor in de aanvoer van data. Van mij hoeft die 7200rpm ook niet zo nodig, zeker niet als dat extra warmte, lawaai en slijtage met zich meebrengt.
mwah, moet je es iets gaan draaien dat veel random i/o doet. Dan halen die schijfjes opeens niet meer dan 1 MB/s ;)
waarbij LP voor low power staat. Die schijven roteerden op 5400rpm, maar zijn slechts een fractie zuiniger met energie
De Barracuda LP schijven draaiden op 5900RPM.

De Seagates waren van alle energiezuinige schijven (WD Green, Samsung EcoGreen, etc) inderdaad het minst zuinig, maar ze waren alsnog een goede 2-4W zuiniger als de 7200RPM varianten.

Vreemd dat ze er toch mee stoppen, want vooral als je een aantal schijven in je systeem hebt dan tikt die paar watt per schijf toch aan. Voor m'n server zou dat een verschil van 30+W zijn (hoewel daar nooit meer Seagates in gaan).

[Reactie gewijzigd door knirfie244 op 1 november 2011 12:05]

Is al bekend wanneer ze op de markt komen en wat de prijs zal zijn?
5 platte van 600 gb?

5 platters van 1 tb ... hi; de nieuwe 5 tb schijf is geboren.
Zelf ben ik niet van de über size schijven. Mijn limiet is toch echt wel 1 TB. Dit omdat, als de schijf chrashed, 1 TB dataverlies nog te overzien is.

Langzaam maar zeker faseer ik de < 1tb schijven uit, en vervang ik de kleinere dus met de 1 TB's. Liever 10 x 1 TB in m'n systeem, dan 5x 2TB...

Iemand een beter idee? Raid hoeft van mij niet zo...
1TB is meerdere vlakken de betere keuze.
Zo ook de betrouwbaarheid van de disk zelf.
Onlangs is de betrouwbaarheid vergeleken bij een grote Franse webshop, dus verkochte exemplaren vergeleken met diegene die terug komen.
De cijfers spreken boekdelen.
Uiteraard backups maken! En daarnaast toch een raidconfig gebruiken, want dat beschermt je data tegen het uitvallen van een schijf, waar jij het over hebt.
6x 2TB in raid 5, waardoor je alsnog 10 bruikbare TB over hebt.
Waarom wachten met een nieuwe schijf kopen tot er een is overleden en je je data kwijt bent? Doe het van tevoren en zet de schijven in raid 5.
Backups op een andere fysieke locatie blijven belangrijk, en het verbaast me altijd hoe weinig mensen dit doen. Als in de buurt de bliksem inslaat en al je schijven worden hierdoor gefried, ben je alles kwijt, ondanks je mooie raid 5 of raid 1 config...
Als je echt bang bent voor data verlies is RAID (of een goede backup strategie) toch juist de oplossing. 3 van deze 3 TB schijven in RAID 5 en je bent beschermt tegen uitval van 1 schijf en je hebt zat schijfruimte om alles op te slaan. Of ben je bang dat er meerdere schrijven tegelijk uitvallen?
Of je raid controller gaat stuk...
Dat is niet van toepassing als je software-RAID gebruikt of een ZFS-bases server.
Ik quote jou maar even;

Raid 5, brengt dat ook prestatie winst? of is het puur en alleen backup security? In november wil ik een nieuw systeem samenstellen (SB-E, lga2011), en als ik dit zo lees, ga ik toch maar eens nadenken over een raid 5 array.

Verder niet bang dat er meerdere tegelijk uit vallen. Af en toe (eens per jaar, ander half ongeveer) koop ik een 1TB hdd. De kans dat er 2 tegelijk uitvallen is dus nihil. Momenteel hangen deze schijven erin:

3x 1 TB, 1x 500, 2x raptor 74 (1 effectief ivm geen sata meer vrij), en een ssd.
RAID is de slechtste manier om je te beschermen tegen dataverlies. Sterker nog, met RAID verhoog je alleen maar je exposure op risicofactoren voor dataverlies.

RAID is er enkel en alleen voor om
1) in het geval van RAID-0 je sequentiële snelheden omhoog te krikken of
2) grotere volumes aan te maken dan mogelijk is met enkele harde schijven of
3) downtime van een systeem te beperken bij het uitvallen van een schijf

Dat is alles. Het is een hardnekkig misverstand dat RAID nuttig is voor het beschermen van je data. In werkelijkheid is het risico op een enkele hdd-failure veel kleiner dan risico's die al je harde schijven aangaan, zoals het stukgaan van een ander onderdeel in je computer (die invloed heeft op je data-integriteit) en menselijke fouten. Sterker nog, je maakt het alleen maar erger door een hoop extra onderdelen toe te voegen, je computer warmer te maken en meer energie te gebruiken. Dat geld dat naar de energiemaatschappij en hdd-fabrikant gaat kun je beter steken in een automatische, off-site backup.
Geef jij maar een betere oplossing voor mijn probleem.

ik heb 6TB aan fotos (RAW & JPG)
moet regelmatig wat terug zoeken (op bestandsnaam)
of mapnaam (daar staat dan wel datum en tijd in)

uiteindelijk vorige week 2 x een QNAP NAS station gekocht.
om zo 2x4 disks met Raid 5 te voorzien.
Zelf ben ik niet van de über size schijven. Mijn limiet is toch echt wel 1 TB. Dit omdat, als de schijf chrashed, 1 TB dataverlies nog te overzien is.
Tenzij de data niet kritiek is. Ik wacht met smart op 4 of 5TB schijven als backupschijf in een Linux servertje voor m'n Apple-spul en XP laptop. 2x 2TB in RAID0 zal sneller de geest geven dan 1 enkele 4TB schijf.
De hele schijf misschien wel, maar er bestaat ook nog zoiets als bitrot en URE.

http://subnetmask255x4.wo...nd-how-that-impacts-raid/
Ik ben geen RAID-expert, maar elk artikel dat ik lees over URE en RAID is gebaseerd op die ene blogpost op ZDnet waar ook het artikel waar jij naar linkt zich op baseert (of op een ander artikel van dezelfde auteur). Ik heb nog nooit iemand onafhankelijk dit horen bevestigen. Op GoT zitten ook behoorlijk wat users die een 10TB+ systeem hebben gebouwd met 'slechts' RAID5. Hebben die dan allemaal geen enkel verstand van zaken? Dat lijkt me toch sterk. Ik zou wel eens willen weten hoe het écht zit.

[Reactie gewijzigd door Cocytus op 1 november 2011 14:05]

Dat heb je met wiskunde. Iedereen verwijst ook nog steeds naar Pythagoras, en die knul is al 25 eeuwen dood.

Feit is dat een 10TB, RAID 5 systeem met 512 bytes sectoren een 1/e kans (36.8%) kans heeft om een rebuild te falen. Nu is de vraag, hoeveel tweakers op GoT hebben een disk failure in zo'n array gehad?

Sowieso is dat artikel gebaseerd op de oude 512 bytes sector disks. De nieuwe 4KB sector disks gebruiken Error Correction Codes over 4KB blokken. Dit verlaagt de URE kans. Een verlaging van 1E-14 naar 1E-15 betekent al dat de grens van 10TB naar 100TB arrays verschuift.

(blijkbaar zijn deze nieuwe Barracuda's nog steeds 512 bytes intern, en doen ze alleen alsof het 4KB schijven zijn op de SATA interface: de URE is nog steeds 1E-14. Verklaart wel de "SmartAlign" technologie, da's dan een dont-care. )

[Reactie gewijzigd door MSalters op 1 november 2011 14:43]

Heel grappig, maar de vergelijking met Pythagoras slaat als een tang op een varken. De stelling van Pythagoras kan ik zelfs nog wiskundig bewijzen. Dit hele verhaal staat of valt met de stelling dat één read error tijdens het rebuilden de hele rebuild sloopt én daarmee leidt tot het verlies van alle data. Dat is voor mij niet direct logisch en ik heb het ook niemand horen verkondigen, behalve mensen die deze kerel napagegaaien. Ik hoor het jou nu weer zeggen maar waar je je op baseert blijft voor mij onduidelijk.
Kijk, dat er bij een URE tijdens een rebuild een zekere mate van dataloss optreedt is mij wel duidelijk en is ook logisch. Ik snap alleen niet waarom dat zou leiden tot het verlies van alle data en niet slechts de data in enkele sectoren.

Edit:
In een commentaar op het oorspronkelijke ZDnet artikel staat het volgende:
Very smart RAID algorithms know how to “mark” a stripe as bad (and even mark which sectors in the stripe are bad) when an URE is encountered during rebuild. […] So, if you have a very smart RAID-5 controller, you can get a URE during rebuild and not fail the entire volume. Only the URE sector and the corresponding rebuilt sector on the replacement drive will be corrupted.
Als dat zo is, dan is de vraag dus hoe de controller omgaat met een URE tijdens rebuild. Eén corrupte sector op 10TB aan data is (voor mij) overkomelijk.

[Reactie gewijzigd door Cocytus op 1 november 2011 20:24]

Mooie nieuwe serie schijven. En wordt het nu mogelijk om 5TB schijven te maken met 5x 1TB platters?

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013