Hitachi brengt zijn eerste harde schijven met 1TB-platters uit

Hitachi heeft drie schijven met platters van 1 terabyte aangekondigd. Het grootste model is een externe schijf die over vier platters, voor een totaal van 4TB, beschikt. De overige twee zijn 3,5"-schijven die over een enkele platter beschikken.

De G-Raid Storage Array van G-Technology by Hitachi bevat vier stuks van de nieuwe 1TB-platters van het Japanse bedrijf. De rotatiesnelheid bedraagt 7200rpm. Modellen van de externe harde schijf worden van een Thunderbolt-interface voorzien en daarmee bieden ze een theoretische doorvoersnelheid van 10Gbps. De schijf zou in oktober uitkomen, maar Thunderbolt-modellen komen pas later in het vierde kwartaal van 2011. Prijzen weet Storage Review nog niet te melden.

G-RAID Hitachi 4TB

Hitachi brengt ook de Deskstar 7K1000.D en 5K1000.B uit. Dit zijn 3,5"-schijven met 1TB-platters, die uitkomen in capaciteiten van 250, 320, 500, 750 en 1000GB. De 7K1000.D-modellen krijgen een rotatiesnelheid van 7200rpm, terwijl de 5K1000.B-schijven op 5400rpm roteren. De hdd's zijn van een sata600-interface voorzien. Overigens komt Hitachi ook met CinemaStar-varianten van de schijven, die geoptimaliseerd zijn voor het streamen van content.

Hitachi Deskstar 7K1000.D

Door Olaf van Miltenburg

Nieuwscoördinator

06-09-2011 • 12:50

70

Reacties (70)

70
69
46
5
0
7
Wijzig sortering
Het artikel is correct; dit zijn allemaal schijven met 1TB platters, als we naar dit artikel (het gelinkte artikel) kijken: http://eon.businesswire.c...rd-drive/highest-capacity.

Waarschijnlijk zijn de 250GB hdd en consorten mogelijk door low-level formatting, dat binnen de hdd gebeurt en niet door het OS. De hdd wordt dan namelijk in sectoren verdeeld met ieder een eigen unieke id. Via firmware aansturing e.d. weet de schijf dan hoe de koppen gepositioneerd moeten worden. Enkele sectoren onbenut laten is dan een optie. Hierdoor is waarschijnlijk een 500GB hdd mogelijk met een 1TB platter. Deze schijven hebben dus platters van 1TB, wat een enorm complexe structuur oplevert en zorgt voor een hoge data dichtheid (569 Gb/vierkante inch).

Het low-level formatting proces kan evt. door het bios gedaan worden (Calibrate) maar vanwege de complexe structuur van dit soort moderne drives kan de schijf hierdoor onbruikbaar worden. De fabrikanten schrijven hun eigen tooltjes voor de hdd's, op maat.

Dit zal dan waarschijnlijk ook de snelste 1TB sata harddisks opleveren. Minder platters betekent minder latency, minder hitte, hogere betrouwbaarheid en hogere data doorvoer. Nu nog de 4TB versie als OEM-versie beschikbaar stellen. Die zal theoretisch gezien een seq. read kunnen hebben van 170~200 MB/s...

[Reactie gewijzigd door Trishul op 23 juli 2024 07:03]

Dit zijn 3,5"-schijven met 1TB-platters, die uitkomen in capaciteiten van 250, 320, 500, 750 en 1000GB
dan moet je er best een stuk af vijlen
Dat viel mij ook al op inderdaad....

Ik vermoed dat ze bedoelen dat er meerdere schijven uitkomen met 1 platter...
Ik vermoed dat er gewoon twee persberichten samengevat zijn in één T.net-artikel:
Hitachi heeft drie schijven met platters van 1 terabyte aangekondigd. Het grootste model is een externe schijf die over vier platters, voor een totaal van 4TB, beschikt. De overige twee zijn 3,5"-schijven die over een enkele platter beschikken.
[..]
Hitachi brengt ook de Deskstar 7K1000.D en 5K1000.B uit. Dit zijn 3,5"-schijven met 1TB-platters, die uitkomen in capaciteiten van 250, 320, 500, 750 en 1000GB.
Vond het ook al vreemd, zijn eerder waardes die passen bij 250 of 500GB platters. Je verwacht eerder een leuke 1, 2, 3 en 4TB modelserie :)
Idd vrij vreemd, maar op zich heeft het wel voordelen, als je namelijk alleen het binnenste stukje van de platter gebruikt waar de datadichtheid het hoogst is, dan is je drive wel op z'n snelst.
Dan nog zou ik het eerder in een 2.5" formfactor verwachten voor bijv een 250GB variant, want dan gebruik je een groot deel van je platter gewoonweg niet, maar dit kan wel erg snelle drives beloven.

Ergens zou het me ook weinig verbazen als die dingen allemaal gelimiteerd zijn. Dus dat er gewoon een 1TB platter inzit, maar ze volgens de firmware maar 320GB groot zijn (en dan zou je in theorie die kunnen aanpassen, zodat je wel de volledige 1TB kunt gebruiken, mits eht natuurlijk een goede platter is). Om 4 verschillende platters te gebruiken is productietechnisch gezien nogal prijzig.
Het buitenste deel van een platter is iets sneller in zowel seek-times (omdat de leeskop proportioneel minder hoeft te bewegen) als sequentiële doorvoersnelheid (omdat bij gelijke data-dichtheid in 1 omwenteling het buitenste deel meer data overgeeft aan de leeskop dan het binnenste deel van de platter).

Let wel, bij moderne schijven is dit effect significant afgenomen, en is het uiteraard slechts bij HDDs met één enkele platter nog waar te nemen.

Ik geloof dat de verwarring is ontstaan doordat in veel defragmentatie-programmas de weergave van de schijf "van buiten naar binnen" is gedaan (dus de blokjes linksboven zijn de buitenkant) terwijl je gezond verstand er waarschijnlijk van uitgaat dat dit andersom is (althans, dat was bij mij het geval).
Datadichtheid is toch gewoon overal even hoog? Je krijgt alleen het effect wat je bij hardlopen ziet bij starten in de bocht!
Maar de data komt wel sneller voorbij de kop omdat de snelheid aan de binnenkant van de schijf hoger ligt dan aan de buitenkant. Dus je hebt effectief hogere lees- en schrijfsnelheden aan de binnenkant van de schijf.
Snelheid aan de binnenkant is net zo hoog, de afstand is alleen korter :Y)
Snelheid aan de buitenkant is hoger dan aan de binnenkant, snelheid is nl. afstand per tijdseenheid. Aangezien de rotatie net zo snel is overal op de schijf, maar de afstand die een bepaald punt aflegt grooter wordt naarmate je verder aan de buitenkant van de platter komt is dus de snelheid hoger.
Daardoor komen er meer dataplekken voorbij per seconden en is dus een schijf sneller als je aan de buitenkant schrijf/lees dan dat je dit aan de binnenkant doet.

Over het punt waarom 250, 320, 500, 750 en 1000GB uitbrengen op een 1TB platter.
Productie kosten. Het is goedkoper om maar 1 soort te produceren welke als laatste stap een andere firmware krijgen dan 5 verschillende HDD's te produceren.
Hmm, dus straks krijgen we een firmware flash waarbij je de volledige 1TB kan 'unlocken' net zoals bij videokaarten was (6800LE -> 6800Ultra bv.)?
Hmm, dus straks krijgen we een firmware flash waarbij je de volledige 1TB kan 'unlocken' net zoals bij videokaarten was (6800LE -> 6800Ultra bv.)?
Nee want je kan er geen koppen bijflashen
ja dat klopt, waardoor ze aan de buitenkant een hogere schrijf en lees snelheid zouden kunnen behalen mits de rest van de technologie dat aan kan.
Dat lijkt mij precies andersom, rotatie snelheid is in dit geval vast. Dus hoe verder naar buiten (grotere straal) hoe hoger de omloopsnelheid en dus hogere lees- en schrijfsnelheden
Nee, de snelheid ligt aan de buitenkant het hoogst. Per rondje komt daar veel meer data voorbij dan aan de binnenkant.

Data dus lekker aan de buitenkant zetten (als dat kan)
Neen, het is precies andersom. De tijd voor een rondje is precies even lang aan de binnenkant als de buitenkant. Aan de buitenkant leg je dus een grotere afstand af in dezelfde tijd, dus is je leessnelheid groter, aangenomen dat de datadichtheid even groot is over het gehele oppervlak.

Zie ook de reactie van 'flamingworm' hieronder.
Oplossing is simpel; SSD. Bij een moderne SSD maakt het geen klap uit waar de data staat en is performance-verlies door fragmentatie van bestanden te verwaarlozen. Data wordt elektronisch bij elkaar gesorteerd in plaats van mechanisch.

Ik denk dat de harde schijf zoals we deze nu kennen over 10 jaar is uitgestorven.
is dat zo? schrijfsnelheid is dan toch even hoog... lees en schrijf verhouding blijft gelijk dan? tenzij er op een lagere snelheid op geschreven is.


edit: Typo

[Reactie gewijzigd door rutgerdrum123 op 23 juli 2024 07:03]

Niet helemaal. De snelheid is gelijk; zowel aan de binnen- en buitenkant (5400 / 7200 RPM). Het verschil is de omtrek van de platter.

Aan de binnenkant van de platter is de omtrek kleiner, dus ook de hoeveelheid magnetisch materiaal wat gelezen / geschreven kan worden. Aan de buitenkant is de omtrek groter, dus méér magnetisch oppervlak.

Resultaat : In een enkele omwenteling (1 RPM) kan er aan de buitenkant méér gelezen / geschreven worden dan aan de binnenkant van de platter omdat er meer magnetisch oppervlak onder de lees/schrijfkop doorgaat.

Er zal aan de buitenkant van de platter wel een hogere doorvoersnelheid gehaald worden (in MB per seconde) maar dit staat los van het fysieke toerental van de schijf zelf.
@ Titan_Fox
Ik heb het idee dat veel mensen de verschillende snelheden door elkaar halen. De data-snelheid van een schijf is mede afhankelijk van de volgende fysieke factoren van een HDD:

1- Rotatiesnelheid (RPM):Rounds Per Minute; deze staat los van
2- Oppervlakte-snelheid: snelheid van een leeskop dat over de oppervlakte van een platter gaat; liniaire snelheid van bit A naar bit B ernaast. Deze is aan de rand veel hoger dan dicht bij het middelpunt (aan de binnenkant).
a- data-dichtheid van een platter: hoe dichter op elkaar hoe meer bits er gelezen kan worden per tijdseenheid. de data-dichtheid over de gehele platter is zelfde; overal dus.
b- aantal platters/leeskoppen: door het schrijf- en lees-algoritme van verschillende leeskoppen te combineren kan een schijf met meerdere leeskoppen/platters sneller zijn dan dezelfde type HDD met maar één platter/leeskop.
c- gewicht/snelheid van de leeskop die heen en weer gaat tussen middelpunt/rand.
d- gewicht vd platter(s): een platter met een theoretisch gewicht van NUL kan beter versnellen (sneller optrekken van nul naar volle snelheid) dan een zwaardere platter.

En dit zijn nog niét álle factoren die bepalend zijn voor de voor ons consumenten relevante data-snelheid een HDD. Wat mij opvalt is dat er nog tweakers zijn die denken dat de snelheid en/of data-dichtheid bij het middelpunt hoger is dan bij de rand van een platter.

edit: spelfout

[Reactie gewijzigd door vinnixx op 23 juli 2024 07:03]

'zoned bit recording'

De dichtheid is niet overal gelijk, tenzij je nog een hdd hebt van voor 1990.

[Reactie gewijzigd door kluyze op 23 juli 2024 07:03]

@ kluyze
Je leest je eigen link verkeerd:

Een track (soort ring) aan de buitenkant is groter(langer; grotere diameter) en heeft daarom meer sectors (gedeelte van dat ring waar een hoeveelheid bits op past) dan de track aan de binnenkant.
hier een doorlink van jouw link.

Dichtheid (bits per oppervlakte) is dus over de gehele platter gelijk.

Oudere floppy-drivers draaien het medium (floppy-disk) sneller bij de tracks aan de binnenkant, om de snelheid wat minder langzaam t.o.v. de buitentracks de houden. De trillingen aan de binnen-tracks zijn immers minder bij de zelfde rotatiesnelheid (bij floppy-disks) en dus nog steeds binnen de norm bij hogere snelheid.

edit: typo

[Reactie gewijzigd door vinnixx op 23 juli 2024 07:03]

Nee, als ZBR niet gebruikt wordt, zit er op elke track evenveel bits, dus is de dichtheid verschillend. Bij ZBR is de dichtheid overal ongeveer gelijk maar in een zone aan de buitenkant is de dichtheid nog een beetje verschillend als aan de binnenkant van een zone. Als elke zone uit 1 track zou bestaan dan zou de dichtheid overal gelijk zijn.
Dichtheid (bits per oppervlakte) is dus over de gehele platter ongeveer gelijk.
Ik bedoelde met dat laatste gedeelte eigenlijk dat ZBR gangbaar is sinds 1990 bij zowat elke HDD, die tenzij staat verkeerd, zo staat het er alsof voor 1990 de dichtheid wel gelijk was.
Die platters zijn gewoon 500GB per kant. Voor de <=500GB modellen ontbreekt er dus gewoon een kop. Blijkbaar is er nog vraag naar dergelijke kleine disks, voor Hitachi is het makkelijker om gewoon een beperkt aantal platters te produceren, als je nu nog 250GB platters bouwt gooi je gewoon geld weg.
datadichtheid is overal even groot uiteraard, en aangezien de lineaire snelheid op de buitenkant van de disk het grootst is, is de snelheid daar ook het grootst. een HDD met 500GB met een platter van 1TB gebruikt dus het buitenste van de platter. Dit geeft over de hele lijn een betere prestatie dan een schijf met 1 500GB platter.
Ergens zou het me ook weinig verbazen als die dingen allemaal gelimiteerd zijn. Dus dat er gewoon een 1TB platter inzit, maar ze volgens de firmware maar 320GB groot zijn (en dan zou je in theorie die kunnen aanpassen, zodat je wel de volledige 1TB kunt gebruiken, mits eht natuurlijk een goede platter is). Om 4 verschillende platters te gebruiken is productietechnisch gezien nogal prijzig.
Jij weet toch wel beter? :P

Zo'n terabyte platter heeft 500GB aan iedere kant. Dan moet er nog een kop zweven boven beide kanten van de platter om dat te benutten. De 500GB en kleinere modellen krijgen dus sowieso maar één kop.

Of je 320 dan kan upgraden naar 500.. Ik verwacht het niet, dit hebben we in het verleden ook nooit gezien.
Die platters zijn gewoon 500GB per kant. Voor de <=500GB modellen ontbreekt er dus gewoon een kop. Blijkbaar is er nog vraag naar dergelijke kleine disks, voor Hitachi is het makkelijker om gewoon een beperkt aantal platters te produceren, als je nu nog 250GB platters bouwt gooi je gewoon geld weg.
250GB platters zullen inderdaad wel extra kosten, maar een iets oudere machine die 500GB platters maakt laten draaien kan wel geld schelen. Zo heb je tenslotte meer tijd/productie om je machine en onderzoekskosten af te schrijven. En je kan de aanschaf van machines die terabyte platters maken nog even uitstellen.

En voor een 250GB schijf maakt het qua verkoopbaarheid toch weinig uit of er nu een 500GB of 1TB platter inzit.

Ik vraag me af wanneer de terabyte platters echt op de markt komen. Samsung showde de Spinpoint F6 in maart, Seagate beloofde eind 2010 al 1TB platters in externe schijven (waarvan onduidelijk is of die er nu inzitten), van WD horen we niets..

[Reactie gewijzigd door Mentalist op 23 juli 2024 07:03]

Het antwoord is simpel.

Waarom verschillende capaciteiten? YIELD.

De platters komen van de band rollen en allemaal hebben ze plekjes die niet bruikbaar zijn. Deze slechte plekjes worden per platter in kaart gebracht en in een aparte flashchip opgeslagen op de bijbehorende controllerprint van de HDD met die platter. De firmware leest deze uit en houdt er rekening mee bij het opslaan van gegevens. De platters met de meeste onbruikbare plekjes worden ingezet als 250 GB schijf, en de platters die nagenoeg perfect zijn worden ingezet als 1TB schijf. Verder zijn de schijven, of het nu 250GB of 1TB is, precies gelijk aan elkaar (dus ook gewoon alle koppen aanwezig)

Snappie?

De manier om zoveel mogelijk geld te verdienen is om zo weinig mogelijk weg te gooien en zoveel mogelijk te verkopen ;)

Houdt dus in dat het aanpassen van de firmware om meer capaciteit te krijgen ook risico's meebrengt; dat je die onbruikbare stukjes toch gaat gebruiken -> BAD.
NTFS ondersteund toch geen hardeschijven groter dan 3TB?
Had je op kunnen zoeken, maar met 4KB clusters ondersteunt NTFS gewoon tot 16TB, met 64KB clusters zelfs tot 256TB. Verder gebruikt niet iedereen NTFS voor storage servers, zat mensen die Ext3/4 of ZFS gebruiken op dit soort diskgroottes.
Dat zou me verbazen, aangezien de maximum bestandsgrootte voor ntfs 16TB is. Volgens wikipedia is de maximum schijfgrootte 256TB.

Jammer dat ze maar tot 1TB gaan. 3TB komt steeds meer voor, dus ik had eerder zo iets verwacht of zelfs groter (voor 3,5" dan toch)

[Reactie gewijzigd door MClaeys op 23 juli 2024 07:03]

Gewoon een GPT disk van maken, kan je disks tot boven de 3TB hebben.
Heeft dit niet iets met de dichtheid van de data vs snelheid te maken?
Ik kom dit ook niet tegen in het orginele artikel.
Er word melding gemaakt dat hitachy disken van 250 tm 1GB heeft, en dat 90% van de CE apparaten 250 of 500GB single platters heeft, en dat dat allemaal vanuit deze range gedaan zou kunnen worden, maar niet dat deze range deze grotes zal krijgen.
Mij zou het eerder deugd doen als er 2,5" schijven met dergelijke capaciteit uitkwamen. Daarbij, ik dacht dat Hitachi tegenwoordig Western Digital geworden is met de harde-schijf tak.

Ook vind ik dat fabrikanten eens op moeten houden met die onzinnige eco-mode die ervoor zorgt dat de schijf alle paar minuten op standby gaat. Ten eerste verlengt het de levensduur helemaal niet (juist het tegenovergestelde-), ten tweede spaart het amper stroom en ten derde veroorzaakt dat hele up- en downspinnen (dit gebeurt altijd op het foute moment-) een hoop ergernis.
Ik had verwacht dat er weinig ontwikkeling meer zou zitten in de HDD en dat alles richting de SSD zou gaan, Hitachi zet hier een product neer wat nog prima toekomstgericht is, met een Thunderbolt aansluiting.
Dit zijn 3,5"-schijven met 1TB-platters, die uitkomen in capaciteiten van 250, 320, 500, 750 en 1000GB.
Is dit hetzelfde idee als de triple-core's van AMD?
Het zijn eigenlijk allemaal 1TB schijven, maar dan met stukken uitgeschakeld?
Dat zal wel ja. Het zal op ten duur goedkoper zijn om 1 soort platter te produceren en geen 3.
Ik had verwacht dat er weinig ontwikkeling meer zou zitten in de HDD en dat alles richting de SSD zou gaan, Hitachi zet hier een product neer wat nog prima toekomstgericht is, met een Thunderbolt aansluiting.
SSDs zijn leuk, maar nog veel te duur voor opslag van meerdere TB's. En snelle storage is voor veel mensen nog lang niet nodig. Voor je OS disk wil je natuurlijk iets dat zo snel mogelijk is, ook voor de disk waar je veel gebruikte programma's op hebt staan.

Maar de TBs aan muziek, films, series en dergelijke hebben helemaal niet zulke hoge snelheden nodig. Een film doet iets van 40Mb/s, dat is 5MB/s, iets dat een schijf van 10 jaar geleden nog perfect bij kan benen. En daar zullen dit soort disks nog zeker heel veel voor gebruikt gaan worden.
Het is logisch dat HDD's verder ontwikkeld worden en nog wel voor een hele tijd. Wanneer je gewoon opslag nodig hebt is er niemand die zit te wachten op SSD's. Ze hebben misschien wel de voordelen van stilte, geen draaiende onderdelen maar ze zijn extreem duur als je pure storage nodig hebt. Random io is dan totaal niet belangrijk en met snelheden van 120MB+/s sequentieel die de huidige HDD's wel halen zijn HDD's gewoon niet te kloppen...

Ik zit meer te wachten op 4TB+ schijven voor een concurrentiële prijs dan op SSD's die ipv 400MB/s seq 550MB/s seq doen op met dubbel zoveel io. Dat is leuk als bootschijfje maar eens je zoveel beter doet dan HDD's ga je het heus niet merken tov 'tragere' SSD's. Dan spreek ik niet voor de mensen/toepassingen die echt hunkeren naar meer IO natuurlijk.

En volgens mij is het gewoon wat onduidelijk in het artikel. Die harde schijven kleiner dan 1TB gaan geen 1TB platters hebben lijkt me.

[Reactie gewijzigd door Wouter.S op 23 juli 2024 07:03]

Ik had verwacht dat er weinig ontwikkeling meer zou zitten in de HDD en dat alles richting de SSD zou gaan,
er valt bji HDD's nog veel meer te ontwikkelen al bij SSD's zelfs. hoewel de verdubbeling van de datadichtheid bij HDD's iets langzamer gaat als bij SSD (24maanden vs 18 maanden) hebben ze een dermate grote voorsprong met de prijs per GB dat ze nog heel lang rendabeler zullen blijven (een paar decennia als ze dit tempo aanhouden).

daarbij komt het einde van het verkleinen van chips ook in zicht (en of dat nu 11, 5 or 2nm is is niet zo heel belangrijk in dit geval), maar de dichtheid van HDD's nog lang niet aan zijn einde is gekomen.
Nee niet te vergelijken met uitgeschakelde cores.
Op de 500GB schijf zal gewoon 1 kop ontbreken.
Nu fabrikanten zulke hoeveelheden data op 1 platter krijgen zou ik het wel waarderen als er ipv 4 platters die samen een 4TB schijf vormen HDs op de markt komen met 4 platters van 1TB die hardwarematig in raid1 staan (capaciteit 2TB).
En dan?

Als ie crasht ben je alsnog genoodzaakt je schijf ergens heen te brengen om de data eraf te flippen.
Ik noem een klap krijgen, pcb doorgefikt, etc etc.
Het idee is niet verkeerd, maar dat zal meer voor bad sectors etc moeten gelden.
Denk dat t goedkoper zou zijn om 2 schijven in raid te zetten dan om zo'n schijf te produceren zegmaar :+
Precies, ik begrijp dat je nog steeds een raid volume zal moeten creëren om data integriteit te bewaken. Echter: ik maak me sterk dat de kans op lees en schrijffouten steeds groter wordt bij toenemende informatiedichtheid om de schrijf. Dubbel lezen en schrijven (overigens zonder enig verlies van snelheid, met 2 koppen die 1 op 1 hetzelfde lezen en schrijven) kan die problematiek gemakkelijk tackelen.
Je oplossing is dan nog steeds een tikje zinloos, de meeste redenen van schijffalen zijn motorisch/mechanisch.

Je gooit dan dus effectief 2TB aan capaciteit weg, voor nul toegevoegde waarde, want zoals je zelf al zegt: je moet nog steeds een RAID aanleggen met meerdere schijven om je data enigzinds veilig te stellen. (en daarbij moet je ook nog steeds backups maken, aangezien RAID geen vervaning is voor backups)
een schijf maken met 2 sata aansluitingen,dus bv. een 4TB schijf word dan 2*2 tb in een behuizing(betekent wel 1 platter/schijf stuk =hele schijf vervangen.
Dan moet je natuurlijk wel de platters van elkaar gaan afschermen. Als de crash van het kop-tegen-platter type is dan kunnen er namelijk deeltjes loskomen die extra schade anrichten. Als die dan tegen de andere platters vliegen is alsnog heel je schijf eraan.
Theoretisch wel mogelijk, maar in de praktijk dek je daar niet genoeg mee af. Je zult bij beschadigingen op een platter de gegevens wel van de platter erboven of eronder af kunnen lezen, maar als de koppen zelf stuk gaan door een crash, of als de elektronica doorfikt, heb je nog steeds een dode schijf met data waar je niet bij kunt.
Nee, backups blijven altijd nog noodzakelijk.
kun je ze dan via een hack weer aandoen of hoe zit dat?
bijna alle HDD series werken zo, met meer ruimte op de platter als dat er aangeboden wordt door de kleinere modelen.
en ik heb er nog nooit van gehoord dus het lijk me minder makkelijk als het unlocken van een extra core in je CPU of een extra cluster in je GPU.

edit: even wat gezocht. het zit niet in de firmware, die is voor alle grotes het zelfde, de informatie staat op de platters zelfs... op een deel waar je niet bij kunt.

[Reactie gewijzigd door Countess op 23 juli 2024 07:03]

Lijkt me sterk. Meeste disks hebben gewoon 1 fysiek lees/schrijf element, bij een CPU is dat meestal gewoon een rot deel op de chip (rot volgens de specs).

Dus aanzetten via firmware is een no go :)
Dit is een echte stap vooruit, nu hopen dat ze (hitachi) ook weer een 5-platter model uitbrengen zoals ze in het verleden wel eens gedaan hebben.
Good ol' memories: eerste 1 TB schijf welke ik ooit gekocht heb was van philips en had intern inderdaad een schijf van Hitachi (5x 200GB); de spin-up time was enorm (10 seconden), maar het ding werkt nog steeds _/-\o_
Waarom in vredesnaam meer platters? :?

Ik zit al een poosje te wachten op Hitachi 3TB schijven met 3 platters (1TB/platter) en a.u.b. geen 5 platters van een vreselijke 667GB grootte. Eerstgenoemde gaat leuk worden voor in een NAS: minder herrie, grotere datadichtheid, minder stroomverbruik.... doe maar, laat maar komen! Lijkt me een stuk beter dan de huidige 3TB HDD's uit de 7K3000 en 5K3000 serie. :)

[Reactie gewijzigd door Aardwolf op 23 juli 2024 07:03]

Ja dat dacht ik ook toen ik het las Erikje :P Ik gok op een prijs van rond de 250 euro voor 4 TB.

Ik vind dit ook wel een hele interessante ontwikkeling. Ik wilde dit artikel aan de redactie doorgeven maar heb geen idee hoe :$

http://www.physorg.com/ne...b-capable-tb-storage.html

Jammer dat de prijs wel vele malen hoger zal liggen.
4TB rond de € 250,00 is veels te hoog. Meest efficiënte op het moment is bijvoorbeeld 4x2TB in RAID-5, houd je 6TB netto over in fault tollerance voor minder dan € 250,00. Als je verder gaat kijken en je stopt 4x2TB in RAID-0 dan heb je a) meer snelheid, b) minder dan de helft van 2x4TB. Helaas geldt het zelfde ook voor de 3TB disks van het moment, te duur in verhouding tot de 2TB varianten. 3TB x 3 is vele malen duurder dan 2TB x 4 voor de zelfde netto capaciteit in een RAID 5 set. En als je performance wilt, dan is 3 x 2TB sneller en goedkoper dan 2 x 3TB.

Ergo, 3TB prijzen zijn pas interessant wanneer ze rond de € 84,00 zitten en 4TB prijzen pas interessant wanneer ze rond de € 120,00 zitten.
idd de goedkoopste 2 TB zit op € 0.028/GB en de goedkoopste 3 TB zit op € 0.038/GB(en dat zijn dan wd's die weer niet werken op mijn areca controler :( )
maar als 4 TB de top is , gaan de prijzen van de 3 TB (in de regel)sneller zakken.
moet wel snel gebeuren want mijn huidige raid set zit al bijna helamaal vol. :)
als de 3 TB op ~€ 0.030/GB zit ga ik ze pas kopen.
Dat kan je via http://tweakers.net/etc.dsp?Action=Newssubmit doen.

[Reactie gewijzigd door sloth op 23 juli 2024 07:03]

Anoniem: 134818 6 september 2011 13:09
5400 rpm? Ik dacht dat zij ook 5900 RPM gebruikten net als Seagate.
Ok, mierenneuken maar dit klinkt nogal raar
De schijf zou in oktober uitkomen, maar Thunderbolt-modellen komen pas in het vierde kwartaal van 2011.
Oktober is volgens mij namelijk ook gewoon het 4e kwartaal....

om het over dit
Hitachi brengt ook de Deskstar 7K1000.D en 5K1000.B uit. Dit zijn 3,5"-schijven met 1TB-platters, die uitkomen in capaciteiten van 250, 320, 500, 750 en 1000GB.
maar niet te hebben.

Een 250GB disk consumenten disk met 1TB platter. Wat gaan ze daarmee doen? Short-stroken?

[Reactie gewijzigd door humbug op 23 juli 2024 07:03]

Oktober is volgens mij namelijk ook gewoon het 4e kwartaal....
Als we het bij bedrijven over het 4e kwartaal hebben, kan het vaak ook betrekking hebben tot hun financieele boekjaar. En die kan heel anders lopen dan een kalenderjaar. Het kan best zijn dat bij Hitachi het 4e kwartaal van 2011 eindigt in Maart 2012.
Volgens mij heeft Hitachi de zelfde telling als wij bij WD. FY(Financial year) 12(2012) is 1juli begonnen bij ons.

Het zijn wel prachtige schijven.
Waar komt die mooie behuizing vandaan :)
Een kleine mouseover had je geleerd dat het een G-raid behuizing is. Hetgeen overigens ook nog in de tekst wordt genoemd.

Op dit item kan niet meer gereageerd worden.