Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties
Bron: AnandTech

AnandTech heeft een review gepubliceerd over de Hitachi Deskstar 7K1000, de eerste harde schijf met een capaciteit van één terabyte. Deze schijf werd begin dit jaar geïntroduceerd en is voorlopig exclusief verkrijgbaar via Dell.

Hitachi Deskstar 7K1000De Deskstar 7K1000 is de eerste perpendiculaire harde schijf van Hitachi en maakt gebruik van vijf platters met een capaciteit van 200GB per stuk waarmee de magische terabytegrens wordt aangetikt. De schijf heeft verder een toerental van 7200rpm, een serial ata-aansluiting, ondersteuning voor ncq en 32MB cachegeheugen. AnandTech vergelijkt de schijf met de Seagate Barracuda 7200.10 750GB en de Western Digital Raptor 150GB. De Seagate Barracuda was tot voor kort de grootste hd en de Western Digital Raptor is één van de snelste hd's met een toerental van 10.000rpm.

Uit de tests van AnandTech komt de Deskstar 7K1000 bijzonder goed uit de bus. De lees- en schrijfprestaties van de schijf komen in de buurt van de Raptor. Tegelijkertijd produceert de Deskstar 7K1000 het minste geluid van alle geteste schijven en blijft de schijf - ondanks de aanwezigheid van vijf platters - koel. Verder heeft de schijf een concurrerende prijsstelling met een adviesprijs van 399 dollar. Dankzij de goede prijs, sterke prestaties en de hoge capaciteit betitelt AnandTech de Deskstar 7K1000 als de beste 7200rpm-schijf die ze tot nu toe in handen hebben gehad. Het enige minpunt dat aangestipt wordt zijn de zwakke prestaties bij het kopiëren van grote bestanden.

Moderatie-faq Wijzig weergave

Reacties (109)

Het enige minpunt dat aangestipt wordt zijn de zwakke prestaties bij het kopiëren van grote bestanden.
Ach, wie heeft u nu grote bestanden op een hdd van 1TB?
Wat er overigens niet bij wordt verteld bij het stuk geschreven door T.net is dat het probleem alleen optreed bij grote bestanden in een niet-sequentiele volgorde. De transfer bij sequentiele reads/writes daarin tegen is prima!
Dat haal ik toch niet uit het bronartikel:
The Deskstar 7K1000 is not without faults. We did find in our Nero Recode tests and to some degree in our Winstone tests that the drive does not perform as well as expected in handling large block sizes of data in sequential order. The Achilles heal of the Seagate 750GB drive was its inability to handle large files in non-sequential order. Hitachi has overcome this for this most part with a large 32 MB cache and from all apparent indications firmware that is tuned with operational balance in mind or even favoring non-sequential read/writes
Hieruit maak ik op dat de 750 GB versie problemen had met niet-sequentieel werken, en dat dit nu in de 1 TB versie gecorrigeerd is, maar dit dan wel ten kostte van de sequentiële snelheden.
Je zegt het dus net andersom.
Samenzwering met defragmentatieprogramma's? :7
Ik heb hier behoorlijk wat bestanden van 4 - 20 GB (video-capturing en DVD-iso's) en met dergelijke files zou ik graag een TB schijf willen hebben.
Alleen zou ik er dan wel 2 of 3 willen hebben, want tijdens het werken doe ik dat zoveel mogelijk door het inlezen van de ene schijf en het schrijven naar de andere, dus dan is dit nadeel eigenlijk helemaal geen issue.
Sowieso lijkt het me een slim idee er minstens 2 in raid1 te draaien. Je bent toch 1TB kwijt als dit juweeltje crasht :X

Maar snap je de ironie niet in de reactie van Aikon? :D
RAID is geen alternatief voor backups. RAID beschermt je alleen maar tegen stukke hardware. Tegen stukke software doet het niets, en met een rot filesystem ben je op beide schijven alles kwijt.
En zoals altijd is Hitachi weer het eerste met een innovatieve schijf
Seagate is anders zeer lange tijd de enige geweest met een 750 gbyte schijf en ze staan op het punt ook een 1 tbyte schijf te introduceren.
Wat versta je onder een rot filesystem?

Eigenlijk zal je deze schijf ook in een "kit of 2" moeten kunnen komen aangezien 1TB aan data toch redelijk veel is om kwijt te raken aangezien alle moderborden van tegenwoordig toch uitgerust zijn met een chipset die RAID ondersteund.

En zoals altijd is Hitachi weer het eerste met een innovatieve schijf de andere komen meestal vele maanden later met zoiets op de proppen en dna is de Hitachi nog steeds een conncurent ondanks dat die dan al wat ouder is.
Wat versta je onder een rot filesystem?
Lolbroeken modus:

NTFS

/lolbroek
Die Dekstar is relatief zwak bij grote bestanden... Maar is dat werkelijk erg?

Het gevoel van een langzame harddisk krijg je toch meestal bij kleine of zwaar gefragmenteerde bestanden. Situaties waarbij de effectieve transferrate tot enkele MB/s daalt. (Opstarten van Photoshop om maar eens zo'n typische worst-case scenario te nemen...)

Wanneer de harddisk op > 50MB/s bezig is, dan zul je je i.h.a. weinig om bekommeren of het 60 of 80MB/s is.
Ik ben pas nog tegen dit grapje aangelopen bij het imagen van een raid array van 4TB. De performance van de standaard image bakkers zakt als een kaartenhuis in elkaar zo rond de 150GB, heel het systeem gaat op z'n knieen, valt niet meer mee te werken.

Uiteindelijk ben ik er uitgekomen via een hex editor, die had er geen problemen mee en maakte disk images van 400 gieg in 2-3 uurtjes.
Met een adviesprijs van 400 dollar word deze schijf ongeveer 2 keer zo duur als een 150 GB Raptor, en hij is bijna net zo snel. ( We houden even de dollar=euro gewoonte aan )
Als deze werkelijk 400 dollar gaat kosten verwacht ik een prijzenoorlog in het high end segment van harde schijven.
Kwa accestime kunnen deze schijven nog niet aan de Raptor tippen hoor. 14.1 miliseconde in vergelijking met 8.4 voor de raptor. Dit speelt natuurlijk ook mee bij een gevoelsmatige snelheid. :)
Maarja wat heb je aan zo'n snelle accestime, als je deze schijf voor opslag gebruikt. Meestal gebruik je een hele snelle kleinere schijf voor je OS, of in iedergeval voor je programma's waar je veel gebruik van maakt..
Je kunt ook opslag willen en snelle access tijden...veel SAN array's worden tegenwoordig ook uit sata disks opgebouwd en dan wil je toch graag vlotte access times.
True maar ik heb nog nooit zo'n goed presterende HD gezien. Dus misschien moet ik toch maar eens twee van deze HD's kopen als ze iets betaalbaarder zijn.
KLinkt zeker intressesant! maar geef toch liever de voorkeur aan 2 hardeschijven van 500GB met het snelle toerental
Er zijn geen 500 gbyte schijven met een hoger toerental.
Ook niet in SCSI land?
Nee. 300 gbyte max IIRC.
De vraag is, wanneer komt ie in de winkel (en dus niet Dell) te liggen?
De nieuwste MSI P6N ondersteunt 'slechts' 750GB per HDD, wss dus de 680i chipset van Nvidia

Dus zo'n Terabyte zou al 250GB verliezen op dit moederbord
Als je de review leest kun je zien dat ze dit hebben getest op een MSI K8N Diamond Plus. Deze ondersteunt dat dus blijkbaar wel?

@ Gaming247: Als je de review leest, had je in deze foto kunnen zien dat er weldegelijk 1000GB werd herkend.
De nieuwste MSI P6N ondersteunt 'slechts' 750GB per HDD, wss dus de 680i chipset van Nvidia
Dat moet je meer lezen als: we hebben niet met meer dan 750 gbyte getest. Dat betekent dus niet dat meer niet werkt.
Die TB grens, of de 750 GB grens is helemaal geen bekende grens, zoals 540 MB, 2 , 8.4 , 32 en 128 GB. in het verleden was.
Dus als het al een probleem zou zijn met dergelijke mainboards, dan is dat met een BIOS-update wel te verhelpen.
http://www.msi-computer.d..._idx_view.php?Prod_id=658

Als je kijkt bij "Technische Details" dan zien je staan:

max. Festplattengröße 750GB
Is het gewoon niet zo dat dat er staat omdat er toen nog geen 1 TB schijven bestonden, aangezien deze schijf de eerste is...
Ja en alle informatie klopt ook. :z

Waarschijnlijk hebben ze dus gewoon tot de 750GB getest (Seagate 7200.10 750GB).
Jammer dat je maar zo'n 930GB geformatteerd kunt gebruiken. Het is dus wachten op de echte eerste schijf die wel meer dan een TB aan data kan huisvesten. ;)
Deze schijf heeft wel degelijk 1 Terabyte capaciteit.
Wat jij wilt is 1 Tebibyte ;)

http://en.wikipedia.org/wiki/Tebibyte
Wat ijl jij? Dat ding heb gewoon 1TB. Dat Windows daar 930GiB van maakt is niet het probleem van Hitachi. Jij dient gewoon het verschil te kennen tussen GB en GiB...
Windows? Vrijwel alle software bedoel je.
HDD producenten zijn een van de kleine minderheden die ervoor kiezen van de dé factor standaard af te wijken en toch voor GB in plaats van GiB te kiezen.
En daar begint dezelfde zinloze discussie weer.

Software gebruikt helemaal niet sinds het begin 1024 in de berekening.
Software heeft sinds het begin zowel 1000 als 1024 gebruikt, en zelfs de combinatie daarvan.
(1,44 MB floppies gebruiken 1000*1024)


De officiele standaard is de standaard zoals die door de standaarden organisaties is vastgelegd. Je weet wel IEEE etc. En daar is het al vele VELE jaren 1000!


En laat gebruikers ook maar beseffen dat er een verschil is tussen een kale harddisks, en een geformateerde disk met files.
Anders gaan mensen straks denken dat er op een 1000 GiB disk ook daadwerkelijk 1000 GiB aan data past. Want verrassing verrassing, dat gaat dus niet gebeuren! (slack space etc). Vervolgens gaat iemand dat dan ook weer georganiseerde oplichting noemen.
Wiens schuld is dat dan? De standaard is nog altijd terabyte, niet tebibyte. Alle software doet het gewoon anders (let wel, niet fout) en daar kan een HD fabrikant niks aan doen...

Overigens wordt de omvang van je data toch ook gemeten in mebibytes? MP3'tjes, filmpjes, documenten etc. Allemaal in datzelfde formaat. Dus wat is dan het probleem, hijs toch gewoon 1TB dan?
Wiens schuld is dat dan?
Van de HDD producenten natuurlijk.
De standaard is nog altijd terabyte,
Welke standaard? Software gebruikt al sinds het begin 1024 in de berekening.
en daar kan een HD fabrikant niks aan doen...
In de VS gaat een autofabrikant toch ook niet ineens adverteren met snelheden in km?
Behalve marketing (georganiseerde oplichting), is er een goede reden voor HDD producenten om GB in plaats van GiB te gebruiken?
Overigens wordt de omvang van je data toch ook gemeten in mebibytes?
Mebi ja, geen mega. Waarom moeten HDDs dan wel ineens mega gebruiken?
Wiens schuld is dat dan?
Van de HDD producenten natuurlijk.


Neen. Windows en andere software programma's zijn wel degelijk fout. Windows gebruikt SI prefixen om de grootte van een HDD weer te geven, maar rekent wel via het binair stelsel.

Dus 1 TB geeft hij weer als 930 GB!

En dat zou ofwel 1000 GB ofwel 930 GiB moeten zijn.
HDD fabricanten geven de grootte van hun HDD's perfect juist weer.
Natuurlijk is er een goede reden.

Kilo, mega, giga, terra, dat zijn internationale termen, al tientallen jaren vastgelegd in het SI-stelsel.

Het zijn vooral de geheugenfabrikanten die 1024 hebben afgerond naar 1000, omdat dat makkelijker is.

Waarom zouden de harddiskfabrikanten de geheugenfabrikanten moeten opvolgen om HUN AFWIJKENDE termen over te nemen?

Het is heel simpel.
Terra betekend 1000000000000, en deze harddisk heeft inderdaad zoveel bytes. Dus mogen ze zeggen dat er een terrabyte op staat.
Kilo, mega, giga, terra, dat zijn internationale termen, al tientallen jaren vastgelegd in het SI-stelsel.
Ki, Gi en Ti zijn tegenwoordig ook gewoon officiele standaarden, of ze SI zijn weet ik niet.
Dus ik zie nog steeds geen enkele reden om wel voor G te kiezen.
Het zijn vooral de geheugenfabrikanten die 1024 hebben afgerond naar 1000, omdat dat makkelijker is.
Oh ja? Een sector is toch 512 bytes, volgens mij vonden HDD fabrikanten die 1024 ook wel erg makkelijk.
Waarom zouden de harddiskfabrikanten de geheugenfabrikanten moeten opvolgen om HUN AFWIJKENDE termen over te nemen?
Omdat behalve de HDDs vrijwel iedereen de afwijkende termen gebruikt.
Ki, Gi en Ti zijn GEEN officiele standaarden!
Weet je wel wat officieel betekend?

En wat versta je onder vrijwel iedereen?

Wetensachappers, natuurkundigen, biologen, wiskundigen.. ze gebruiken allemaal het SI-stelsel. Wat zegt dat kilo 1000 is. En dat is al heeeeeel lang zo.

De reactie hieronder is ook een hele goede.
1 Terrabyte is 1 Terrabyte.
En dat sommigen nu al verlangen naar 1 Tebibyte, dat is weer een heel ander verhaal.

p.s.
Dat de harddisk fabrikanten de 1024 ook wel erg makkelijk vinden, dat is natuurlijk geen argument.
In een digitale wereld is het nu eenmaal erg makkelijk om in machten van 2 te werken. Maar dat betekend niet automatisch dat is welke onofficiele standaard dan ook hanteren! Want ze hebben die 1024 wat jij noemt nog NOOIT een kilo genoemd!
Ki, Gi en Ti zijn GEEN officiele standaarden!
Weet je wel wat officieel betekend?
http://en.wikipedia.org/wiki/Binary_prefix

In 1999, the International Electrotechnical Commission (IEC) published Amendment 2 to "IEC 60027-2: Letter symbols to be used in electrical technology — Part 2: Telecommunications and electronics". This standard, which was approved in 1998, introduced the prefixes kibi-, mebi-, gibi-, tebi-, pebi-, exbi-, to be used in specifying binary multiples of a quantity.

Of is de IEC niet officieel genoeg?
En wat versta je onder vrijwel iedereen?
Software, gebruikers, geheugen, flash.
Behalve marketing (georganiseerde oplichting), is er een goede reden voor HDD producenten om GB in plaats van GiB te gebruiken?

- omdat het bijzonder makkelijk rekenen os (1000 bestanden van 1 MB = 1 GB)
- omdat het een SI eenheid is
Gast, HD's gebruiken ook mega, kwa opslag verlies je er echt niks op hoor...
HDD fabricanten geven de grootte van hun HDD's perfect juist weer.
Behalve marketing (georganiseerde oplichting), is er een goede reden voor HDD producenten om GB in plaats van GiB te gebruiken?
Software heeft sinds het begin zowel 1000 als 1024 gebruikt, en zelfs de combinatie daarvan.
(1,44 MB floppies gebruiken 1000*1024)
Welke software gebruikt combinaties dan?
1,44 mb in tekst noemen vind ik iets anders dan in een berekening gebruiken.

En ik ben nog steeds op zoek naar "is er een goede reden voor HDD producenten om GB in plaats van GiB te gebruiken?"
Voorlopig is het een goeie oplossing om direkt intern een grote opslag capaciteit te hebben, daar waar we vroeger met PCI kaarten zaten te knoeien om maar meer uit te breiden. 2/4 van dit soort schijven in een raid in je systeem en je hebt qua kosten veel opslag.

Ik weet, het is nooit goed of het deugd niet, maar ga maar eens kijken voor een grote opslag extern, daar betaal je even iets meer voor. Kortom, voor thuisgebruik is het gunstig, zeker als je in ogenschouw neemt dat je veel minder harde schijven hoeft te gebruiken wat weer scheelt in het verbruik en de warmte :)
Dat is 'pas' bij 1100 miljard bytes. :(
Ga we weer... volgens het SI is T -> 1000G -> 1 miljoen M .. etc.. geen gezeur dus er passen 1 Terra bytes op die schijf, dat OS dat fout weer geven is niet de schuld van de HD fabrikanten
heeft niets met "verkeerd" weergeven te maken. Maar dat is hierboven al voldoende duidelijk gemaakt. lezen dus!
Jazeker is het wel degelijk verkeerd weergeven! Want Windows geeft het per slot van rekening nog steeds niet aan in MiB etc. Maar gewoon in Kb, Mb, etc.
Dus dat is verkeerd.

Het is niets anders als een afrondingsFOUT.

Ooit was het heel acceptabel om 1024 af te ronden naar 1 Kb.
Maar hoe verder je dat doorrekend naar de grotere getallen, hoe groter de fout is! En inmiddels is het al zover dat de fout enkele tientallen Gigabytes is!

Dus wie heeft er dan gelijk? Microsoft, of de harddisk fabrikanten die altijd het juiste formaat hebben opgegeven?
is het nou 1.000.000.000.000 bytes of 1TiB of 1000GiB of wat? Dat eerste noem ik geen TB, maar gewoon een biljoen bytes. Dat eerste is zelfs "maar" 930GB...
Wat betreft de standaarden:
k, M, G, T zijn officiele SI standaarden.
Ki, Mi, Gi, Ti zijn officiele IEEE standaarden.

Dus officieel:
1.000.000.000.000 bytes = 1 TB = 930 GiB

M.a.w. de harddisk fabrikanten houden zich aan de officiele standaarden.

GB beschouwen als 1024^3 bytes is geen standaard, en ook nog nooit geweest. Het is slechts 'algemeen geaccepteerd' bij computers.


De grote vraag.... waarom zouden we het een of het ander gebruiken.

Voordelen van 1024: eigenlijk alleen bij hardware design, programmeren, en bij aankoop van geheugen. Omdat je DAN in situaties bent waar de inherente factor 2 van computers soms naar voren komt.

Voordelen van 1000: In al het overige gebruik van de computer.


We weten al sinds een millenium dat 10-tallen voor mensen bij vrijwel alle situaties het handigst werkt. Andere systemen zijn alleen in bepaalde situaties handig. 12-tallig stelsel is handig voor kleine getallen, omdat het lekker deelbaar is. Voor dezelfde reden delen we een rechte hoek in 90 graden, en niet 100 graden op.

Maar voor de rest werkt een 10-tallig stelsel gewoon het handigst. En dat is bij computers niet anders.

Zeg nou zelf; wat is handiger in het gebruik:
600MB + 600MB = 1,2 GB
of:
600MB + 600MB = 1,171875 GB

Heb je nog meer reden nodig om gewoon 1000-tallen te gebruiken?
Het is wel degelijk een standaard om 2-machten te gebruiken, een ad-hoc standaard misschien, maar toch.

Met MiB = 600MiB + 600MiB nog steeds 1.2GiB, niet dan?

En waarom moeten we ineens een kilobyte een kibibyte noemen? Omdat het SI stelsel kilo vastlegt op 1000?

Mooi is dat, laten we het makkelijker maken door het nog ingewikkelder te maken. Eerst was een kilobyte altijd 1024 bytes, met uitzondering van floppies en harde schijven (die 1000 hanteerden). Nu moet je je maar afvragen of er kilobyte of kibibyte bedoeld is.

Zet maar weg, die macaroni. ;)
Kun je me dan ook es uitleggen waarom de verpakking van een CD doet vermoeden dat er 700MiB op past, en de verpakking van een DVD doet vermoeden dat er 4,7GiB op past, terwijl alleen de eerste de waarheid aangeeft? Of flashgeheugen dan, dat is evengoed opslag, toch is de capaciteit in MB eigenlijk in MiB. Zelfde geldt voor downloadsnelheden, dat zijn kibibytes per seconde.

Eigenlijk kan ik zo gauw geen situatie bedenken in de computerwereld waar er opzettelijk machten van 10 ipv macht van 2 gebruikt worden, behalve bij harddisks en dvd's.

Consequent kan ik het dus allerminst noemen, noch logisch.
Daar gaan we weer..... |:( . Sinds de prehistorie rekenen HDD fabrikanten vooral zichzelf rijk dus het lijkt me niet zo moeilijk te raden. "1 GB equals one billion bytes when referring to hard drive capacity; accessible capacity may be less." Staat zo ongeveer bij alle specsheets van HDD's die je kan vinden bij Hitachi.
Wordt tijd voor grotere usb stickjes als je iemand bent die je hd naar usbsticks backupped :)
Ja, want nu maak je wel makkelijk een backup van je 300GB HDD naar je pendrive |:(
Even één vraag over de review. Waarom is bij de ene test de random access time 18ms en bij de andere test (met hetzelfde programma!) weer 13ms?
Met Hitachi's Feature Tool kun je het geluid van de HD controleren. (Acoustic Management). Werkt bij mijn T7K250 erg goed.
Ik zal wel eens een raid 0 test willen zien van deze HDD.
We wachten af :9
Liever RAID 5. RAID 0 is imho een beetje te link met zulke grote schijven.
Spaar je nog ff mee?
Doe mij dan liever voor dat geld 2x 1TB onder R1 en 1x 150gb Raptor oid.

Zowiezo zou ik dit soort discs never nooit in hun eentje laten werken. ALS Ik het zou doen zouden het er 2 zijn op raid1.
900GB aan data in 1 klap kwijt kunnen raken laat ik mij niet gebeuren...
900GB aan data in 1 klap kwijt kunnen raken laat ik mij niet gebeuren...
Waarom niet?
Heb je nu ook RAID 1 dan in alle computers? Of is 900 gbyte een magische grens waarboven RAID 1 voor jou een vereiste is?

Of heb je hetzelfde gepost bij de 900 mbyte HDDs? :)
Ik heb mn spullen nu verdeeld onder 160, 160, 320. Tussen 160 kwijt of 900 kwijt zit nogal 'n verschil.

Je snapt wat ik bedoel.
Je snapt wat ik bedoel.
Nee, eigenlijk niet. Data is belangrijk of niet. De hoeveelheid maakt niet zoveel uit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True