Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 124 reacties
Bron: Bit-tech

Zowel Hitachi als Seagate hebben gisteren harde schijven met een opslagcapaciteit van een terabyte aangekondigd. De Hitachi-schijf zal vermoedelijk als eerste leverbaar worden.

Harddisk De Hitachi Deskstar 7K1000 zou ergens in het eerste kwartaal van dit jaar op de markt verschijnen. De 7200rpm-drive gaat volgens de fabrikant een adviesprijs van vierhonderd dollar meekrijgen. In ruil daarvoor krijgt de consument niet alleen vijf platters met elk 200GB tot zijn beschikking, maar mag hij ook nog eens kiezen uit een pata- of een sata-interface. De sata-versie van de schijf wordt met 32MB cachegeheugen uitgerust; pata-klanten zullen het met een kwart van die hoeveelheid moeten doen. Verder zou deze schijf extra energiezuinig en stil worden dankzij drie verschillende 'idle modes', terwijl de toegangstijd gemiddeld 8,7ms zou bedragen. Een 'klein' broertje met een capaciteit van 750GB zou later dit jaar volgen, net als een 'slaapkamerstille' 1TB-schijf voor multimediatoepassingen, die 'CinemaStar 7K1000' gaat heten. Opmerkelijk is dat de terabyteschijf Hitachi's eerste is die van perpendiculaire opslag gebruikmaakt.

De perpendiculaire techniek is hard nodig voor dergelijke hoeveelheden data: waar de 7K1000 een opslagdichtheid van 148Gb per vierkante inch heeft, kan de niet-perpendiculaire 500GB-disk van Hitachi amper 75 gigabit op dezelfde oppervlakte kwijt. Seagate paste al op zijn vorig jaar verschenen 750GB-model perpendiculaire techniek toe, en dat zal die fabrikant bij de nu aangekondigde 1TB-Barracuda opnieuw doen. Terwijl Hitachi zijn nieuwe producten op de CES zal tonen, heeft Seagate voorlopig alleen bekendgemaakt dat zijn terabyteschijf 'in de eerste helft van 2007' zal verschijnen. Daarmee lijkt Hitachi de winnaar van de race naar de terabytemijlpaal. De vorige keer dat een nieuw SI-voorvoegsel nodig was, was overigens in 1991, toen de eerste schijven met een gigabyte aan boord verschenen.

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (124)

Ik snap niet dat er niet meer concurrentie komt tegen de WD raptor. Ik zit meer te wachten op snelheid dan op de wat verouderde 7200rpm varianten.

Niet dat de ontwikkeling is gestopt bij deze (perpendicular is mooi) maar wanneer gaan de andere merken ook over naar 10k rpm?
Concurrentie tegen de wd raptor 10000rpm,s?
Het zou leuk zijn inderdaad als andere fabrikanten ook wat 10000rpm schijven uit zouden brengen.
In de meeste systemen is de hd toch de bottleneck.
Heb je een 8800gtx met dikke cpu moet je nog wachten op je 'trage' 7200rpm schijf.
De raptors zelf zijn al op diverse vlakken gepaseerd.
En wel door 7200rpm schijven.

Alle schijven 10drpm is uiteraad ook onzin maar voor de high end gebruikers is het leuk. als alle fabrikanten ook zoeens een 10drpm schijf uitbrachten. Ze zijn duur naar wat ze aan extra snelheid geven maar ja dat is sli met 2x 8800gtx ook.

Dat is uiteraad niet gek aangezien meerdere fabrikanten
continu nieuwe schijven uit brengen.
En aangezien alleen Wd de raptor heeft uitgebracht en deze pas 1x wat is vernieuwd.
Met accestime doen de raptors nog steeds het beste.
Maar verder zijn ze op veel vlakken ingehaald:

http://www23.tomshardware...1=280&model2=676&chart=31

Ik zou ook wel een 10rpm schijf willen voor windows + games maar ik vind de raptors te duur voor het aantal GB zeker nu 7200rpm schijven zoveel sneller zijn geworden.
Wat versta jij onder 'op veel vlakken ingehaald'?
De enige test waarin de raptor verslagen wordt is de interface bandwidth test waarna jij met je link naar verwijst. Lijkt me ook logisch aangezien dat sata2 disks zijn.

ALLE andere tests waaronder de write en read en I/O tests worden dik gewonnen door de raptors.
Kortom volgens mij zijn de raptors nog steeds in alle opzichten superieur aan de 7200 rpm'ers op de capaciteit na dan.

Of je het ervoor wilt betalen is een tweede discussie die hier buiten staat.
In de meeste systemen is de hd toch de bottleneck.
Hoe kom je daar nu bij? Wat betreft datacapaciteit is de harddisk absolute heer en meester, niets anders komt er bij in de buurt.

Ja, een harddisk is trager dan intern geheugen, maar dat mag ook, daarom heb je intern geheugen EN een harddisk.

De snelheid van hdd's drukt nauwelijks op de snelheid van het geheel, je harddisk staat 99.9% van zijn tijd niets te doen, er is niemand die gemiddeld meer dan 1MB/s nodig heeft de 60MB die een beetje harddisk tegenwoordig kan leveren is meer dan voldoende. Zelfs als de harde schijf net zo snel zou zijn als de processorcache, win je maar enkele seconden, veruit de meeste tijd is de pc kwijt aan het verwerken van de ingelezen data (en bij het opstarten het initialiseren van de hardware)

Pas als je laat zien dat een snellere processor, moederbord of grafisch kaart geen relevante prestatiewinst meer maakt, maar een snellere harddisk wel, wil ik je pas horen praten over dat de hdd de bottleneck is.
Als de HD vol aangesproken wordt is hij alsnog de bottleneck. Het feit dat hij daarnaast meestal niks doet, doet daar helemaal niks aan af.

Als hij nodig is; is hij meestal te traag. Daar gaat het om. Met name in het opstarten van dingen en het converteren van grote bestanden moet jij dat toch ook merken of niet?
Ik converteer zelden zo grote bestanden op een zo simpele manier dat de PC niet genoeg heeft aan MB/sec en het een snelheidswinst oplevert. Zelfs al zou ik een hele dvd kopieren (nul-transformatie) dan duurt dat nog maar 80 seconden.
Hoe vaak komt dat nou voor, hoe veel denk je dat er te winnen zou zijn en hoeveel mag dat kosten?

Natuurlijk is dat een bottleneck voor iemand die elke dag duizenden gigabytes moet kopieren, maar hoe realistisch is dat?

Je zit gewoon te vissen naar momenten waarop een harddisk niet snel genoeg zou zijn. In de praktijk is er geen enkele bottleneck te bespeuren.
Alle schijven naar 10k RPM, waarschijnlijk nooit. Voor er 1TB raptor schijven uitkomen, denk ik dat er nog wel wat water naar de zee gevloeid is.

Door de snelle draaisnelheid moeten de platters kleiner zijn, en verliezen we dus capaciteit. Voor gewone desktops ligt de winstmarge met een raptor rond de 3% gemiddeld btw, niet echt capaciteits & prijsverschil gerechtvaardigd toch?
Klopt zeker wat je daar zegt.

Maar daarom zou ik ook pleiten voor goedkopere 10k schijven. Om dit te bereiken hebben we de concurentie van de andere merken nodig.

Zoals hieronder ook wordt aangegeven:
Wat als je 1TB aan data verliest??

Met hoge andere opslagmedia zoals DL-DVD, HD-DVD en BR zou ik niet alles aan 1 disk toevertrouwen.

Ik heb momenteel 1 150Gb raptor en een 320Gb data disk. Voordat ik dit vol heb ben ik echt een hele tijd verder. Nu verzamel ik geen series/films/muziek of maak ik Gb vretende foto's/filmpjes en gooi ik alles wat ik niet gebruik of gezien heb meteen weg. Maar zoals mij zijn er denk ik veel meer mensen die geen TB's nodig hebben voorlopig.
Nu verzamel ik geen series/films/muziek of maak ik Gb vretende foto's/filmpjes en gooi ik alles wat ik niet gebruik of gezien heb meteen weg.
Wat doe je dan nog met 320 + 150 = 470GB (bijna een halve terrabyte dus!) aan opslagruimte. Als je echt niks van muziek/films/foto's ed verzameld kun je met een schijf van 40gig ook nog makkelijk af. Stel dat je wel veel games speelt, dan is 80-120gig nog een optie. Maar 470GB?
Behalve dat het de meest voordelige en 1 van de snelste 7200rpm'er was en de raptor simpelweg de snelste.
De 40 en 80Gb waren bijvoorbeeld gewoon trager en per Gb veel duurder dan de non-raptor die ik heb.

De raptor is effectief 138Gb en de andere is een Samsung 250Gb is effectief 233Gb kortom een correctie dat ik geen 320Gb heb (zat toen te twijfelen tussen WD320 en deze Samsung).

Ik heb dus een totaal van 371Gb i.p.v. 470 en heb momenteel nog 150Gb vrij. Ik speel veel games en heb nog wat series staan wat ruimte inneemt. Als ik ga opruimen kan ik totaal zo'n 200Gb vrij hebben.
Exact hetzelfde dacht iedereen in 1991 ook toen de 1Gb schijf kwam, wat moet je daarme, krijg je nooit vol! En moet je kijken waar we nu zijn. Een (heel) simpel spel neemt al zo'n btje 2 gig in (nieuwste zijn al weer rond de 10 aan t worden). Applicaties, films, muziek, OS, alles wordt steeds groter en groter.
Dan ben je een krent, vrijwel alle bordjes hebben tegenwoordig Raid 1 ondersteuning.
Dan moet je je eens voorstellen welke performance je krijgt wanneer iedereen weer efficiŽnt ging programmeren zonder van allerlei Gb grote libraries gebruik te maken.

Sommige programma's zijn zo klein en kunnen zo veel dat ik me wel eens afvvraag waarom iedereen niet zo efficiŽnt programmeert.

Dat het kan wordt regelmatig bewezen.
beetje off topic maar goed punt dat je daar maakt, reden dat we met zijn alle inefficient programmeren is omdat het gek genoeg goedkoop is.

tegenwoordig is het goedkoper om een extra schijf, computer of server neer te zetten dan meer tijd te investeren in goed/efficient te programmeren.

Men wil tegenwoordig dat software snel word gelanceerd tegen zo laag mogelijke productiekosten. Dat dit vaak resulteerd in hogere operationele kosten word helaas vaak vergeten.
Muziek/films/games/3d modelling
Efficient programmeren is niet perse duurder. Het is vooral moeilijker, minder schaalbaar en fout-gevoeliger.

Daarnaast is een kleiner programma niet perse sneller. In tegendeel juist. Snellere code, betekent code die meer gespecialiseerd is. Waar kleine routines overal ge-inlined worden om 1 jumpje hier en daar te voorkomen.

Een klein programma is klein omdat:

1. Het doet zo veel mogelijk zelf (het gebruikt zo min mogelijk 3rd party libraries). De nadelen voor stability, snelheid en maintainability lijken mij duidelijk. Je bent toch vaak beter af met een bewezen library. Denk ook de discussie tussen het gebruik van een database-engine (die toch lekker in de MB'tjes lopen) of het schrijven van je eigen data-routines. Rara wat sneller en stabieler is. Rara wat groter is en meer geheugen gebruikt.

2. Het is geschreven in een van nature gecompileerde taal. Een interpreter bevat vaak heel libraries voor zaken die een specifiek programma niet gebruikt. Maar ja, iemand anders misschien wel.

3. Voor de punch-line is de executable meestal compressed. Hierdoor start het zeg 200 ms langzamer op, maar hierdoor is het ook zo'n 30% tot 50% kleiner. Dat effect is puur psychologisch (als je een 200 kb bestand in het geheugen inleest, heeft de computer ookal minstens een mb gelezen vanwege de read-a-head caching)

Een snel programma is snel omdat:

1. Het is al 10 jaar in de ontwikkeling.
2. Het heeft in de loop van de 10 jaar meer dan 1000 bugfixes gekend.
3. De c/c++ broncode is relatief groot en complex voor iets wat je ook met handvol regels python/ruby/haskell/o´ caml kan doen. (Merk op dat ik hier geen Java neerzet. Java vereist net zo veel code als C++ maar doet er dan zo langzaam over als Python.)

Natuurlijk zijn er ook wel programma's die zowel klein als redelijk efficient lijken te zijn. Het is helaas beeldvorming en niks meer. Vaak zitten mensen dan appels met peren te vergelijken:

[i]Het afspelen van een mp3'tje door een 200 kb mp3-tool met amper een interface doet ie niet sneller of langzamer dan zeg WinAMP. WinAMP is alleen meer tijd en geheugen kwijt bij het handmatig optekenen van zijn eigen skin en toepassen van een equalizer. Het beheren van een playlist.
[i]

Het zijn keuzes. Of je auto rijdt heel licht en verbruikt heel weinig benzine. Of het heeft een goeie wegligging en duwt bij een botsing eerder iemand anders opzij, dan dat ie zelf de sloot in gaat.

Er zullen vast ook wel uitzonderingen zijn. Iemand zal vast roepen dat uTorrent een tiepische uitzondering is. uTorrent is dat _niet_. Het is wel snel en efficient, maar een torrent client is zo complex nog niet. Alleen wanneer het programma vooral bezig is met data, zoals een torrent client, dan doet programmeertaal er gewoon _enorm_ toe. Java is per byte ingelezen en weggeschreven gewoon 3 keer minder efficient dan C/C++. Python misschien wel 10 keer minder. Nog even los van het feit dat Java zijn eigen fucking interface libraries zit te laden. (naast die 50 mb die je al voor je windows/gnome/kde/mac interface-widgets zit te laden wanneer je PC opstart, komt daar dan ook nog een leuke 20-50 mb bij voor Swing ;-)

Maar goed. Klein en efficient IS NOT THE SAME THING.

En een programma wat zowel KLEIN als EFFICIENT is, doet gewoon veel minder dan een programma dat dat niet is. Appels, peren, pruimen, aardbeien.
je moet niet vergeten dat het door het gebruik van perpendicular techniek de bitjes dichter op elkaar kan leggen. Dit heeft wel niet zoveel voordelen voor seektimes maar de maximale doorvoersnelheid gaat wel degelijk omhoog!
Maximale doorvoersnelheden die zelden worden gehaalt bij dagelijks gebruik. De beste harddisk heeft niet perse de hoogste doorvoersnelheid; integendeel. Vaak zijn de andere prestaties veel belangrijker!
Zoals wat? dankzij (pre-) caching en defragmentatie zijn seektijden ook niet meer van invloed, behalve onder theoretisch stress-tests waarbij elke bite van een willekeurige positie van de schijf moet komen. In de praktijk staat gereleteerde informatie (zoals files) achter elkaar en dat is het wel handig als de data wat sneller langskomt. Of je dat nu perpendicular doet of door de rpm's op te voeren maakt dan niet uit, hooguit voor slijtage, warmte en geluid.
Voor snelheid moet je bij solid state disks zijn. Nog even (een jaartje) en voor de prijs van een Raptor heb je een 64 GB SSD met duizend keer lagere accesstijd en een veelvoud van de doorvoersnelheid. Mechanische schijven zullen echt niet kunnen volgen.
de overtreffende trap van raptor is natuurlijk tyrian, zo zal dus de snelle solid state schijf, disk, "opslag apparaat" van Western Digital gaan heten ;)
Ik kijk uit naar de volgende grote lanpartys :*)

Perpendiculair? Dit geeft weer eens de kans om deze mooie flash animatie te posten :)
http://www.hitachigst.com...rpendicularAnimation.html

EDIT:
Meer ruimte voor linux distros, wat dacht je dan? :+
Hitachi Storage heeft zo nog meer filmpjes online staan hoor:
http://www.hitachigst.com...2594a50299558fe7eac4f0a0/
Volgens dat filmpje zou je 10 keer zoveel kunnen opslaan, maar ik zie maar een 1 TB drive nog maar??
Dan zou je nu toch meteen kunnen doorstomen naar een drive van 5 TB, want 500 gig drive was er al.
Eerst gaan, dan lopen. Anders ga je gegarandeerd op je bek.

De industrie zit altijd een paar jaar achter op wat er in het labo mogelijk is.
En de 500GB schrijf was er ook al meteen bij de introductie van de toenmalige technologie, of kwam die ook pas na jaren van verfijning en perfectionering?
Wat, heeft Brein die nog niet verboden dan? :?

:+
Oud... Maar zo geweldig :')
mijn 8 poorts raid kaartje kreeg zojuist een harde poort :D

+3 interessant, volgens mij hebben tweakers een +3 interessant voorstellingsvermogen :9 :*)
Door z'n flinke jongen wil hij wel even in z'n poort genomen worden... :9~
Ik wacht nog even op de 1,2TB ~= 1TiB. Dan is de `echte' tera grens gehaald :P (dwz, dat je ook daadwerkelijk een TiB data op je schijf kwijt kan).
Kan al bij 1,1 TB die de fabrikanten opgeven.
1 werkelijke TB is 1099511627776 Bytes.
Wat dacht je van een hogere snelheid door een grotere platter ? Moet toch ook snelheidswinst gaan leveren ?
Omdat bij hoge toerentallen de afwijking van de platters een serieus probleem wordt.

Aangenomen dat de gemiddelde leefduur van een HD zo'n 3 jaar is (1000 dagen), kom je op een totaal van 1000x7200x86400 ~ 622 miljard omwentelingen.
Elke nanometer (ja, NANOmeter) afwijking in de vorm van de platters zorgt voor een exponentiele toename in de slijtage van de draaiende onderdelen.

Reguliere 3,5 inch "schijven" gebruiken daarom ook al jaren platters van hooguit 2 inch in diameter, om de rotationele afwijking zo veel mogelijk te beperken; met werkelijke 3,5 inch platters zou een snelheid van 7200 toeren ook al nauwelijks haalbaar zijn.

Just FYI, je ken :)
2 inch -> 3 inch. Dit was zo met de vorige generatie schijven, 146GB 10K's enzo. Weet niet hoe het nu zit
Of gewoon door een hogere dichtheid van informatie op dezelfde platters?
Bij dezelfde draaisnelheid komt er nu tenslotte zowat de dubbelle hoeveelheid data langs, zover ik begrijp.
De 150Gb raptor heeft een 16mb cache.
De 37 en 74 GB zijn onlangs ook te krijgen met 16Mb wat voorheen 8 was. De winst die hiermee gehaald wordt is niet enorm.

De 7200 rpm'ers zijn wel verder ontwikkeld en dus ook beter geworden maar ik snap niet waarom de stap naar 10k nog niet wordt gevolgd door andere.

De prijs zou 1 ding kunnen zijn samen met het marktaandeel van de raptors wat uiterst klein is om nog te wachten met 10k productie. Maar ik gebruik weinig Gb's en met mij zijn er meerdere die minder dan 400Gb al niet vol krijgen. Voor deze mensen zou de stap naar goedkopere kleinere maar snellere HDD's een logische zijn.

imho that is
:)
Niemand zegt dat je HDD vol moet zijn hoor. :+
Je kunt er trouwens donder op zeggen dat deze schijven sneller zijn als alles wat er nu al is op 7200rpm gebied (door de hogere platter dichtheid). Alleen de accesstijd zal niet omlaag gaan tov 10k.
Persoonlijk zit ik ook niet te wachten op snellere lawaaierige schijven dus zolang ze het idle geluidsniveau van een standaard 7200rpm (of een raptor) desktop schijf niet omlaag krijgen mogen ze alle rpm verhogingen achterwege laten van mij. Als je sneller wil dan koop je toch lekker een paar 15k SCSI/FC schijven, niemand die je tegen houd. (om die auto's er maar weer bij te roepen, boven middenklasse/sport = dokken!)
Het leek mij nou net een mooie ontwikkeling om m.b.v. concurentie, snellere betaalbare 10k schijven te krijgen waarbij je qua capaciteit wat inlevert.

Met een 15K scsi oplossing, gaat het 'betaalbare' er een beetje van af, niet? ;)
Ik gebruik:

@ Systeem partitie 1.15GB (1.75GB)
@ Swap partitie 1.75GB (2.00GB)
@ Temp partitie 0.25GB (0.25GB)
@ Prog partitie 1.8GB (7.00GB)

Aan docs heb ik aan 4.5GB voldoende

Dit gebruik ik, volledig als CAD bak ingericht en installeer alles volledig van te voren, dus niet als ik een prog nodig heb, ik alsnog iets moet installeren. Uiteraard ervaring alles zo klein als mogelijk te houden. Doe je dit niet, kom je hooguit op het driedubbele uit.

Uiteraard heb ik in mijn PC niet meer dan een 18GB harde schijf nodig. Uiteraard heb ik nog een fileserver, maar die krijg ik alleen vol met illegale bende als MP3, DivX etc.

Ik snap dan ook niet dat ze niet gaan investeren in kleinere schijven. Vandaag de dag moet 20.000rpm wel mogelijk zijn op 18GB 1.2 inch platter?

Misschien is een extra heffing boven de 100GB geen slecht plan, dan gaat het marktaandeel snel over., want dat zou een prikkeling zijn minder grote schijven af te nemen en de vraag te kantelen.
Wat voor Terabyte hebben we het hier dan over? Het artikel spreekt over 5x 200 GB platters, mag ik er dan van uitgaan dat het om 1000 'echte' gigabytes gaat, of zijn die gigabytes ook gigabytes voor op de reclamefolder?

Het verschil kan namelijk nogal oplopen:
1000000000000 bytes (een SI Terabyte)
1099511627776 byes (een computer Terabyte)

Uiteindelijk een verschil van bijna 10%. Iemand een idee?
Harde-schijf boeren hebben het altijd over de SI-eenheid.
Daar zijn zelfs rechtszaken over geweest in Amerika omdat consumenten zich bedonderd voelen, sindsdien zetten ze er (duidelijker) op dat het om de factor 1000 ip 1024 gaat.
en ze hebben nog gelijk ook

edit: nog meer dubbel-posts anders :P
wie hebben gelijk? De fabrikanten?

Daar ben ik het dus niet mee eens. Ik weet al sinds de 20mb harddisk dat 1mb 1.000.000 bytes is, dat staat immers al netjes op de disk gedrukt, ook op de disks van vandaag staat dat er op, en TOCH voel ik me besodemieterd als ik die hdd in mn pc zet en mn mooi 1TB disk maar als 900GB registreerd nadat ik hem geformateerd heb.

En als de fabrikanten dan heel zielig roepen, ja maar das de schuld van het OS/Filesysteem, kan ik me alleen maar kwader maken, want je hele PC werkt in machten van 2 zowat.

Moet je nagaan als je 128mb ram koopt en je krijgt er maar 100 want ja, we tellen het anders omdat het markttechnischer beter uit komt, want dat is het natuurlijk, 1TB staat beter dan 0.9GB op je doos niet dan.

Ben benieuwd welke fabrikant als eerste met 1TiB komt. Heb je wel leuke slogan, the first TRUE xxx GB disk, the only true xxx GB disk.

Maar ja, die marketing mannetjes weten dat natuurlijk allemaal beter dan de ITers.
Wie interesseert het nou dat je computer intern in machten van 2 werkt? JIJ werkt niet in machten van twee.

Waarom moet je gebruiker moeilijk gaan zitten doen, en rare omrekeningen gebruiken. Dat is iets wat de computer moet doen.

Hebben we duizend jaar geleden eindelijk de geneugden van het tientallig stelsel geleerd, gaan een stel IT onbenullen het omgooien. Heb je verdorie een rekenmachine nodig om te bepalen of een serie bestanden wel of niet op een DVD past! Te belachelijk voor woorden! En dat wordt dan nog normaal gevonden ook door sommige IT-ers!?!

Machten van twee zijn alleen handig voor het tellen van je hoeveelheid RAM, en soms bij het programmeren. Voor het normale computer gebruikt is het volslagen belachelijk om die te te gebruiken. Daar moet je gewoon ons normale 10-tallig stelsel gebruiken.

In dit geval weten de marketing mannetjes het inderdaad beter dan de ITers.
Eens!
Het enige wat feitelijk binair werkt is het geheugen. Daar is de aanduiding inderdaad een 2^x macht.
Voor de rest gewoon een SI eenheid, dus 10^x.

En waar ik trouwens niemand van die harddiskformaatklagers over hoor is dat z'n processor te traag loopt. Zo heb ik een 2,4 ghz modelletje, en die tikt gewoon 2400.000.000 per seconde. Diefstal! ;)
Juist nu moet je gaan omrekenen om te kijken of het allemaal wel past.

Computers werken altijd met machten van 2. Windows doet dat, Linux doet dat, de BIOS doet dat, alles doet dat. Alle formaten worden daarmee aangegeven. Dus is het onhandig dat de harde schijven machten van 10 gebruiken. DŠt geeft extra rekenwerk.

Als dat niet zo was, dan zou er ook niemand geklaagd hebben dat z'n harde schijf te klein was, of wel soms?

Het gaat er niet om of er nou met machten van 2 of machten van 10 gewerkt wordt, het gaat erom dat er een consistente eenheid gebruikt wordt. De consument wil niet het verschil hoeven weten tussen GB en GiB, TB en TiB. Aangezien machten van 2 het beste aansluiten bij de computer lijkt het me niet meer dan logisch dat die gebruikt worden. De consument hoeft het per slot van rekening nooit te weten en hoeft er zelf ook nooit mee te rekenen.
Natuurlijk hebben de fabrikanten gelijk, net zoals ze niet hoeven aan te geven hoeveel overhead je file system kost.
Het zou echter mooi zijn als ze (tussen haakjes ofzo) ook de GiB zouden vermelden. Maar ja, de gemiddelde consument is ws. niet snugger genoeg omdat weer te snappen. ;)
Deze schijf zal hoogstwaarschijnlijk niet 1 TiB zijn, maar slechts 1TB, dat is ongeveer:

1*10^15 / 2^30 = 931 GiB
Slechts 1 TB 8-)
Aangezien de meeste fabrikanten de decimale aanduiding hanteren, kun je er wel van uitgaan dat het 1.000.000.000 bytes zullen zijn.
Aangezien de meeste fabrikanten de decimale aanduiding hanteren, kun je er wel van uitgaan dat het 1.000.000.000 bytes zullen zijn.
Deze zogenaamde "terabyte" harde schijven zijn in werkelijkheid maar 1 Miljard bytes oftewel 1 Gigabyte groot?

Ik maak me normaal niet zo druk over dat gedoe met harde schijf formaat aanduiding, maar nu gaan ze wel erg ver! ;)
Hardeschijf fabrikanten werken in machten van 10. Als ze het over machten van 2 hebben dan heet het een tebibyte (TiB).
De grootste is nu 750GB. Mooi dat ze eindelijk es wat grotere stappen nemen. Laat de volgende nou gelijk 1.5TB zijn, en daarna 2TB, 3TB, 5TB, 7.5TB, 10TB, 15TB...

Anyway realiseren jullie wel dat dit eigenlijk helemaal geen terabyte is? Het is een biljoen bytes, dus met z'n capaciteit van ongeveer 930GiB wordt je een goeie 94GiB door je neus geboord :(
dat is een probleem die je op kan lossen met een 120 gig schijfje ;)

trouwens met ntfs ben je nog meer kwijt (filetabels en zo)
Lees maar eens wat over Sun's "ZFS" filesysteem. Scheelt ook een heleboel tijd om te formateren!
En ZFS werkt zeker ook in Windows?
wel terabyte geen tebibyte, maar dat stond er ook niet :Z
Bestaat er ook zoiets als een wet van Moore voor bits/inch2?

De afgelopen 15 jaar hebben ze toch een factor 1.6 per jaar op de plank weten te leggen.
Het kleinste wat ik me kan herinneren aan harde schijf is 10 MB, dat moet in 1986 ofzo geweest zijn? Weet niet hoe lang die toen al bestond :P
De factor 2 per 18 maand is al vrij lang een constante en komt ook prima uit als je kijkt naar de 1 GB in 1991.
Dat is dus 15 jaar, oftewel 10x anderhalf jaar en 2^10 is precies die verhouding tussen GB en TB.
Ik heb wel het idee dat het niet meer 10 jaar met diezelfde factor blijft toenemen.
Op een gegeven moment is er (voor de huidige toepassingen) geen noodzaak meer voor meer opslag in de thuismarkt.
Dus tenzij er een nieuwe killer-app komt die gigantisch veel ruimte vraagt, zal de vraag naar meer opslagruimte afnemen en de groei dus remmen.
Over 10 jaar zitten we -uitgaande van diezelfde groei- op 100 TB, wat dus 4000 HD-DVD's is van 25 GB/st. Dat is zelfs wat veel voor een media-center.
Ik kan me nog een Apricot computer herhinneren (idd rond 1986) met een 5 Mb harddisk. (en vol met fouten :) ).
Ik heb het even nagezocht en de eerste echte HD bestond in 1956, deze was maar liefst 5 MB. Volgens dit bericht was er in 1991 voor het eerst spraken van een 1GB HD. En in 2007 dus voor het eerst een 1TB HD. Interresant als je de jaartallen langs elkaar zet:

1956 - 5 MB
1991 - 1 GB
2007 - 1 TB

Laten we voor het gemak zeggen dat de HD in 1956 maar 1MB had. Het heeft toen 35 jaar geduurd tot er HD's waren met een capaciteit die een factor 1000 hoger was. Toen de 1 GB schijf er was duurde het nog maar 16 jaar voordat er een schijf kwam met 1TB! 16 jaar, deze periode was minder dan de heft van de periode van MB naar GB.

Ik zie deze ontwikkeling wel doorzetten. Als we voor het gemak dus steeds een halvering van de periode nemen. Hebben we over 8 jaar de eerste PB schijf! In 2015 dus al :D
Je vergeet alleen de grote sprong die de technologie van 1980 tot nu heeft gemaakt. En je vergeet dat het verhogen van de capaciteit naar verhouding steeds moeilijker/duurder wordt...
Ik zie deze ontwikkeling wel doorzetten. Als we voor het gemak dus steeds een halvering van de periode nemen. Hebben we over 8 jaar de eerste PB schijf! In 2015 dus al.

...

En volgens dezelfde redenering in 2024 een oneindig grote schijf?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True