Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties

Western Digital heeft woensdag een persbericht de deur uitgedaan waarin het bedrijf bericht 520Gbit op een vierkante inch te hebben opgeslagen, de hoogste capaciteit die tot nu toe behaald is.

Western Digital logo (nieuw)De aankondiging komt slechts enkele dagen nadat Hitachi berichtte dat het door een aanpassing van de leeskop schijven met een capaciteit van 4TB zou kunnen bouwen. De datadichtheid die Western Digital behaald heeft is goed voor een capaciteit van ‘slechts’ 3TB. Hier staat tegenover dat WD verwacht dat de eerste producten die gebruikmaken van de techniek in 2010 geïntroduceerd zullen worden terwijl Hitachi uitgaat van 2011.

De datadichtheid van 520Gbit/in² wist WD te behalen door het gebruik van de perpendiculaire opslagtechniek en tunneling magneto-resistive (TuMR) head-technologie. Deze combinatie resulteerde in een capaciteit die tweemaal zo groot is als de capaciteit van de huidige generatie platters die rond de 200Gb per vierkante inch ligt.

Moderatie-faq Wijzig weergave

Reacties (95)

Er bestaat een 'wet van Parkinson', welke zegt dat data altijd de beschikbare ruimte zal vullen. Ik heb de generatie van 40KB, 40MB en 40GB meegemaakt. Stel je nu voor dat er een disk komt met een ruimte van 4PB (PetaByte), dan zal deze dus ook vol gaan. Het veelgehoorde argument "zoveel ruimte heb je nooit nodig" is voor mij, de organisaties en mensen om me heen in ieder geval niet opgegaan: de wet van Parkinson wel.

Wat ik me alleen afvraag (filosofisch): stel je hebt oneindig veel opslagruimte. gaat deze wet dan ook op?
Wat ik me alleen afvraag (filosofisch): stel je hebt oneindig veel opslagruimte. gaat deze wet dan ook op?
Alleen als je oneindig veel data hebt. Anders is het niet mogelijk. Echter, het is ook niet theoretisch mogelijk een schijf te maken die oneindig veel opslag heeft.
Oneindig is zo absoluut :+

Google en de wetenschappelijke Grid computing groepjes hebben 1 ding gemeen, ze maken alle twee een infrastrctuur die onnoemelijk veel data opslag bezit. Op het grootste Grid infrastructuurtje (EGEE: http://www.eu-egee.org/) is momenteel officieel 5 PetaByte online. Maar dat wordt meer en is nu al officieus in de machines al veel meer, alleen niet voor gezamelijk gebruik toegankelijk. Volgend jaar is de LHC in Geneve flink bezig met zijn eerste grote data productie van 15 PetaByte per jaar en dat ongeveer 15 jaar lang. Deze data moet meerdere malen worden verwerkt en iedere keer worden opgeslagen.
Die disken komen ook wel vol, maar het is wel heftig om te zien wat je met virtueel oneindige data volumes kan doen.
Wat ik me alleen afvraag (filosofisch): stel je hebt oneindig veel opslagruimte. gaat deze wet dan ook op?
Definieer: oneindig veel opslagruimte. Lees eerst dit artikel maar eens door:

http://blogs.sun.com/dcb/entry/zfs_boils_the_ocean_consumes

Over Global Warming gesproken :D
@Levo

Ik denk dat dit een veilige assumtie is...

OT:

Ik dacht dat de Solid State disken helemaal de shit waren de laatste tijd? Grappig dat ze dit toch blijven uitontwikkelen.
Dit levert nu nog (veel) geld op, lijkt me logisch dat ze het dan ook blijven doen, je zag in de markt voor monitoren ook dat de CRT-fabrieken pas werden stopgezet op het moment dat LCD vrijwel de hele markt had overgenomen en er écht geen reden meer was om ze te blijven maken. Dat keerpunt voor de markt lijkt me nog lang niet in zicht eigenlijk, prijstechnisch gezien.
SSD's zijn nog absoluut niet betaalbaar (prijs per GB). En doordat ze harde schijven blijven door-ontwikkelen blijft dat nog wel even zo.
maar dat zal wel veranderen.

HDD's gaan toch nu langzaam naar hun plafond toe.
Tenzij we de HDD's fysiek gaan vergroten natuurlijk. Maar dat zal er niet inzitten.

SSD zal op langertermijn beter op de markt komen. Dit zal eerst in High end apparatuur worden geplaats vervolgens naar SANs en NASsen. om vervolgens betaalbar te zijn voor ons als consumenten...
Waarom niet de harddisks fysiek vergroten?
Vroeger kocht ik ook harddisks voor in de 5,25 bay, die 2 plaatsen in beslag nam. Ging goed, toch?

De reden is dat een grotere schijf moeilijker onder controle te houden is bij de hoge snelheden van 7200.
Maar niet iedereen heeft die 2 % effectieve snelheidswins nodig. Ik zie best wel markt voor fysiek grotere schijven.
3 x zoveel oppervlakte, en 4 x hogere drives, maar effectief 5 x zoveel layers inpassen, dan krijg je dus meteen al drives die 15 x groter zijn!
Kunnen ze nu al maken...
opzig wel mooie ontwikkeling maar gaat de snelheid van deze schijven ook stuk verder omhoog omdat de dichtheid ook groter word?

vraag me af hoe de systemen in de toekomst eruit zien

flash schijf als C schijf in een systeem en dat een normale hardeschijf als opslag...
want 4TB aan flash is ook niet het goedkoopste }:O
opzich wel mooie ontwikkeling maar gaat de snelheid van deze schijven ook stuk verder omhoog omdat de dichtheid ook groter word?
In principe gaat de doorvoersnelheid bij een verdubbeling van de capaciteit (per platter) met een factor 1,4 (wortel2) omhoog.
Dat hoeft niet waar te zijn, want de naastliggende info moet misschien worden overgeslagen omdat die te snel zou komen anders. Dan kan je een extra rotatie wachten, of de bits "om en om" plaatsen. In het laatste geval is je doorvoersnelheid weer identiek aan de situatie met half zoveel opslagcapaciteit.
Dat lijkt me sterk dat ze er geen koppen in kunnen zetten die data niet aankunnen WD maakt geen SCSI dus het gaat hier om 'normale' schijven. SCSI draaid een stuk harder 10/15k vs 7.2k(+ de raptor serie 10k) van de normale schijven en hebben dus ook een hogere doorvoersnelheid. (Waarom SCSI niet de bomb is voor desktop etc mag je opzoeken op wikipedia.)
Ik volg je niet?
Probleem is nu juist die doorvoersnelheid. Omdat de leeskop de data niet kwijt kan, moeten er "dataplekken" op de HD worden overgeslagen. IDE heeft daar, door de lagere doorvoersnelheid, juist meer last van dan SCSI.
Waarschijnlijk kan je met windows readyboost dan ook nog je computer versnellen. Ooit was het idee hybride-hardeschijven te maken, die heb combineren (een schijf is rond, dus je heb nog wat ruimte over ;)) maar die bleken tegen te vallen, en daarna heb k er nooit meer wat van gehoord.

Maar inderdaad, 64 GB SSD en 4 TB HD. Dat voldoet aan snelheid + opslagcapaciteit :D
seagate is net met een hybride schijf op de markt gegaan, maar alle verhalen wijzen er op dat hybride pas zin heeft met 4 gig of groter. Zodra de grotere ssd ruimte op een hybride aantrekkelijk word komen ze heus wel.
het helpt mijn laptopje ander vrij aardig hoor, snap noet waarom iedereen zo negatief is over hybrid...
Nu nog de techniek van WD en Hitachi zien te combineren en voila, een schijf van 8TB :)
Nu nog de techniek van WD en Hitachi zien te combineren en voila, een schijf van 8TB 7TB ;)
Ooit begonnen met een schijf van 40MB. Kwam toen helemaal een mannetje voor uit 's Hertogenbosch om deze om te ruilen toen ie kapot was. Kun je je nu niet meer voorstellen.
ligt er aan waar je woont en wat voor SLA je hebt ;)
Voor 2010 zulke SSD schijven weet ik niet, maar SSD's zullen de harde schijven wel inhalen waarschijnlijk. Je ziet dat bij hdd's de rek er nu wel uit is. Over 3, 4 jaar is er pas een verviervoudiging, welke bij flash-geheugen nog wel iets sneller gaat. Bij SSD is er dan ook nog genoeg ruimte, dus het zou eerder een kwestie van kosten zijn, dan technische capaciteit.(denk maar eens hoeveel 8GB micro SDHC kaartjes ruimtelijk in een 3,5"hdd zouden kunnen).

Wat bits en bytes betreft: Ik denk dat we gewoon allemaal genept worden. Fabrikanten weten al heel lang dat consumenten naar getallen kijken, en ze blijven binnen de grenzen van wat mag, om die getallen zo rooskleurig mogelijk te maken. Of dat nou netjes is of niet. Ook worden consumenten maar de helft van het verhaal verteld.
Vraag nou eens aan iemand van 40 jaar op straat wat hij/zij vindt van de ontwikkelingen op het gebied van HD-ready en Full-HD. Vraag ze dan eens wat het exact inhoudt.
Vraag jezelf eens af waarom de verversingsnelheden van LCD's in ms uitgedrukt worden van grijs naar grijs waarde(lager getal, prikkelt consument). Vraag eens wat een computer snel maakt, ze denken de processor, maar de hdd is een grotere bottleneck.
Wat heb je aan een snelle verbinding als de upload traag is? Wel een beetje, maaro ok niet alles.
Verschillende standaarden en het niet weten daarvan is het simpelweg bedriegen van de consument.
Pfff erg leuk allemaal, maar maak eerst eens wat snellere schijven. Ik zit meer te wachten op 15K RPM SATA disken dan disken van 4TB.
Fabrikanten geven het altijd zo postief mogenlijk aan (dus bite). Alleen hardeschijven worden wel altijd in bytes gegeven, maar dan doen ze weer kilobytes (1000 i.p.v. 1024 (kibibytes)) waardoor ze ook beter lijken.
Om van die discussie af te komen moeten ze het er beide opzetten: 500 GB (= 476 GiB). Iedereen tevreden.
Nee. Dat verhaal is gewoon een leesfout van de mensen. Als WD een schijf aflevert met 500GB dan kan daar ook 500GB op. Dat je OS dat leest als 465GiB is een fout van het OS, in windows zie ik bij de totale capaciteit toch nog steeds 500.000.000.000 bytes staan (meestal zelfs iets meer) waardoor het gewoon klopt. Hiervoor kun je echt de HD fabrikanten niet aankijken, zij doen het immers gewoon goed...
Dat is geen fout van het OS, dat is gewoon doordat je OS van 1024 uitgaat en de fabrikanten van 1000. Hierdoor ontstaat er verwarring omdat er dus in 500.000.000.000 bytes minder dan de verwachte 500GB gaan.

In mijn ogen is dit voor de standaard gebruiker nogal misleidend aangezien die in eerste instantie dit verschil niet kennen. Sowieso worden (nagenoeg) alle bestandsgroottes op het internet, en ook binnen je OS uitgerekend m.b.v. 1024, dus raak je als gebruiker gewoon gewend aan die orde van grootte. Dan is het gewoon niet intuitief als er plots met 1000en gerekend wordt.
Toch hebben ze gelijk als ze zeggen een 500 GB schijf te leveren. Dat er mensen zijn die dan 500 GiB verwachten, tja dat is hun probleem.

Tuurlijk maken ze misbruik van de verwarring en is het in hun voordeel, maar ze zitten geen onwaarheid te verkondigen. Giga is 1000^3. Voor 1024^3 bestaat een andere naam (gibi).
Nee, dat is het probleem van de software-makers.

Voorbeeld: Windows telt in GiB, maar gebruikt hiervoor de verkeerde afkorting, namelijk GB.

Grappig dat deze discussie bij ieder bericht over harde schijven weer opnieuw losbarst.

[Reactie gewijzigd door TheMajor op 18 oktober 2007 21:30]

1GB geheugen is 1024 MB (advertenties dell, HP, mediamarkt)
100 GB harde schijf is 100x1024MB? NEEEEE nu is het opeens 100x1000MB

GiB is later verzonnen om een rekenfout te corrigeren. Kijk terug naar DOS, kijk terug naar elke ander oud OS, die rekenen allemaal in 1024. Juist hardeschijf fabrikanten waren diegene die de boel flessen. Geheugen word namelijk WEL correct uitgerekent.

Geef 1 fabrikant gelijk en de andere snijd je in de vingers (geheugen versus harde schijf). Waar ligt het probleem? bij de softwaremaker? Dan zeg ik nu dat het probleem ligt bij de geheugenfabrikant. Praat DAT maar eens goed.

En als je dat goed gepraat hebt, gaan we door naar fabrikanten van flashkaarten, SSD's en elke andere techniek die wegens binaire beperkingen in eenheden van 8 moeten rekenen.
Dat is geen fout van het OS, dat is gewoon doordat je OS van 1024 uitgaat en de fabrikanten van 1000.
wat de fabrikanten aanduiden is ook nog eens niet geformateerde ruimte, terwijl het filesystem er ook nog eens wat overhead overheen legt.
WD houdt ten onrechte de wiskundige notatie aan. In de IT wordt gewerkt met het binaire stelsel waar kilo 2^10=1024 is. In de wiskunde is men een onderscheid gaan maken tussen de daar gebruikelijke decimale kilo (=10^3), k, en de binaire kilo, ki. Wiskundig heeft WD dus wel gelijk, maar "this is IT man". Vandaar dat op de drives ook altijd vermeld wordt dat 1GB 1000000000bytes is, WD weet dondersgoed dat ze de verkeerde grootheid gebruiken in de juiste context (of de juiste grootheid in de verkeerde context)

WD had ook kunnen zeggen dat een schijf 2354242.235 intergalactic pju groot is als ze er maar bij vermelden dat zij vinden dat 1 intergalactic pju 1699060.5 bits is, maar (ook) dan zijn ze gewoon irritant bezig.
Als je in Amerika tegen een amerikaan zegt dat je 50 rijdt, mag iedereen er vanuit gaan dat je het over miles/uur hebt, "tenzij anders vermeld"

Maar net als elke andere hoeveelheid binnen de IT, behoor je het binaire stelsel te gebruiken.
Wellicht vergeet je effe als IT-er dat er hele volksstammen zijn die niet eens weten wat het binaire stelsel is. IT-ers en gevorderde gebruikers weten zelf wel het verschil tussen GB en GiB, dus gebruik dan het stelsel dat bij de grootste groep gebruikers bekend is, nl. de decimale kilo. Ik vind dat de HD fabrikanten het goed doen en de OS-fabrikanten fout.
Wiskundig heeft WD dus wel gelijk, maar "this is IT man"
WD vermeld het correct. Het wordt tijd dat de OS-en het eens goed presenteren (dus ofwel bvb. 500 GB ofwel 465,7 GiB)

G blijft een miljard, of het nu wiskunde, fysica, biologie, it, ... betreft.

Vergeet niet dat bij netwerken wél in factoren van 1000 gerekend wordt. Daar klaagt dan ineens niemand meer over dat er geen factoren van 1024 gebruikt worden. This is also IT man. 8)7 Hetzelfde geld voor opslagmedia (een DVD is 4.7 GB maar wordt in OS-en foutief getoond).

Dus, zet alles maar in factoren van 1000, dat rekent véél gemakkelijker.

[Reactie gewijzigd door samvanbrussel op 19 oktober 2007 00:50]

In de wiskunde is men onderscheid aan maken?
Flauwekul.. in de wiskunde is maar EEN standaard! En dat is het decimale stelsel.

En WD behoort het binaire stelsel te gebruiken?
Volgens welke wet?

Ja.. WD had zijn eigen eenheden kunnen verzinnen, zoals pju. Maar dat doen ze niet. Wat ze gebruiken is een systeem wat internationaal officieel erkend is, nog voordat de homepc was uitgevonden!
En dat noem jij de verkeerde grootheid?
Ga toch koken.
En WD behoort het binaire stelsel te gebruiken?
Volgens welke wet?
Als je het over bit hebt dan heb je het per definitie over het binaire stelsel. Een bit is een binaire eenheid. Het verschil tussen een kilogram en een kilobit is dat een gram een meetbare eenheid is. Ik kan rustig 0,3 gram afwegen op een weegschaal. 0,3 bit afmeten wordt een beetje lastiger. Je raakt in de knoei met het door 2 delen van getallen als je niet het binaire stelsel hanteert. Als je zegt een kilobit is 1000 bit, en ik vraag je om een halve kilobit dan gaat dat nog lukken. Blijf ik die vraag herhalen (wat een (PC) computer per definitie zou moeten kunnen) dan zeg je op een gegeven moment dat 1/16de kilobit overeenkomt met 62,5 bit. Dan moet jij me maar eens uitleggen wat die halve bit dan is.
In de IT is er ook al acht jaar een nieuwe standaard die aangeeft dat k 1000 is en ki 1024. Het feit dat MS zich daar niet op aangepast heeft, betekent niet dat het niet zo is.
Als het zo is als jij het zegt, is dat zeker niet alleen WD maar geld dat voor alle harddisk fabrikanten. Helaas is het niet zoals jij omschrijft. Zoals gezegt doen alle harde schijf fabrikanten dit, dat maakt het dus zeer overzichtelijk. Van misleiding is dan ook geen sprake.

Het zou pas misleidend zijn als iedere fabrikant zijn eigen formule voor de opslagcapaciteit zou gebruiken!

Voor netwerksnelheden worden bits gebruikt, niks binairies. Voor geheugenbus snelheden idem-dito. Zo zijn er nog meer voorbeelden. Hoezo word elk ander hoeveelheid binnen de IT volgens het binaire stelsel gebruikt ?

Als je hier zegt dat je 50 rijdt, zijn dat kilometers. Hee, misleiding! Hier is 50 geen 50 in Amerika! Wie doet dat fout ?
Op mijn IT opleiding werd mij toch duidelijk eijs gemaakt dat een Kilo 1024 is :+

Je moet in de IT uitgaan van IT standaarden. Echter aangezien de computer hobists leuk vinden om beetje te puzzelen houden zij geen rekkening mee met de 1024 die door computers word gebruikt.
Terug naar school en beter opletten maar, dit keer.
Je zal geleerd hebben dat een kilobyte 1024 byte is.
Maar echt niet dat kilo 1024 is ;-)
Kilo betekend letterlijk 1000.
Klopt ook niet, want bij andere digitale zaken als netwerken wordt gewoon van 1000-vorm uitgegaan. Een 56k6 verbinding is een 56.600 bit/s verbinding, en 10 Mbit/s is ook altijd in alle standaarden netjes 10.000.000 bit/s geweest, geen 10 x 1024^2. Een 128 kbps mp3'tje heeft een datastream van 128.000 bit/s, niet 128x1024. Etc.

Alleen bij geheugen is historisch de gewoonte bij IT'ers gegroeid om 1024 als kilobyte te rekenen, omdat dat makkelijker rekent bij het programmeren (geheugenadressering). Eerst boeide die "slordigheid" van de IT'ers niet zo (afwijking was maar 2,4%) maar met het steeds verder uiteenlopen van de twee bij steeds grotere veelvouden moest er duidelijkheid komen en is er door ISO de kiB, GiB etc ook als officiele notatie voor binaire veelvouden ingevoerd.

[Reactie gewijzigd door Dreamvoid op 19 oktober 2007 16:02]

Die GiB is naderhand pas bedacht, om het binaire gereken een andere naam te kunnen geven. Leg je er nu maar bij neer dat dit gewoon historisch zo gegroeid is. Het enige wat mijns inziens nu afgesproken moet worden dat opslag en software beide maar in MiB, GiB en TiB gaat rekenen. Maar om zoiets voor elkaar te krijgen zal er wel druk moeten worden uitgeoefend vanuit de VS en/of Europa.

De GB's van intern geheugen en usb-sticks zijn ook GiB's overgens.
Klopt, maar reken je op het Gymnasium met het decimale stelsel of met het binaire stelsel?
De PC rekent namelijk met het binaire stelsel!
.... valt het kwartje?


edit: reactie op TheMajor.

[Reactie gewijzigd door DarkTemple op 19 oktober 2007 07:23]

Dan mis je op een 320GB schijf bijna 18GB :(
Vind dat het eigenlijk met de goede maat van 1024 KB inplaats van 1000 KB.
Heb je teminste echt het aantal GB wat je dan koopt.
Ja, dat klopt wel. Maar dat doen de fabrikanten natuurlijk niet. EN waarom zouden ze. Kilo, Mega, Giga, noem het maar op zijn gewoon 'wiskundige' getallen, tien tot de macht nogwat. De manier waarop de fabrikanten het weergeven is dus feitelijk gezien de beste manier.
Maar omdat het besturings systeem 1024 byte (kibibyte) als één kilobyte gebruikt, mis je nogal wat naarmate de schijfgrootte hoger is.

Een beetje flauw natuurlijk, maar de fabrikanten hebben geen enkele reden om 1024 als kilo te nemen.
Eerder misleidend, want een 250GB (GigaByte dus) is dan eigenlijk geen 250GB maar 250Gb (Gigabit).

Als ik het dan goed begrijp?
Dat zie je verkeerd, 1 byte is 8 bit(s)

het gaat hier om dat er gerekend wordt met een factor 1000 (kilo) ipv 1024
De computer rekend niet met GB maar met GiB, en dat is natuurlijk weer een wereld van verschil :)
De fabrikant rekent met GB, de term GiB (en alle overige iB's) is in het leven geroepen om om voor een OUDE factor een NIEUWE naam te geven.

Kilo was van oudsher in de computerindustrie 1024, en hardeschijf fabrikanten rekenden altijd in 1000, maar de rekenfouten waren klein en we snapte het (begrepen EN slikte het). Pas sinds enkele jaren is de iB term verzonnen omdat de rekenfouten te groot werden en de consumenten te dom.

Ik vind iB's nog steeds belachelijk, want bij geheugen krijg ik 1 GB geheugen en dat is opeens WEL 1024 MegaBytes. Het is dus maar net wat de fabrikant goed uitkomt. Geld beheerst de wereld niet anders. Vreet maar, wij duwen wel door. Tenzij je opeens Dell ziet adverteren met "NU met 1 gibbibyte aan geheugen"

Nog mooier "2 embee internet" is het nou 2Mb of 2MB? In advertenties staat 2MB, terwijl ze bedoelen 2Mb.

Trouwens Microsoft hanteert nog steeds GB ipv GiB, dus zolang MS het niet veranderd heeft bestaat de term niet (om als schaap te spreken). Trouwens de diverse linux tools gebruiken wel de iB terminologie :S
@Morphje:

Je hebt het verkeerd om.
De GiB etc. standaarden zijn gecreëerd om een onderscheid te maken tussen het oude, veel gebruikte Kilo voor 10^3, en de aanduiding voor 2^10 bytes (1024, of KiBi) etc.

Het ging er dus niet om om een oude factor een nieuwe naam te geven, maar een nieuwe naam voor een nieuwe factor.

Alleen omdat die namen belachelijk klinken heeft de computer industrie in het algemeen de oude namen van de reeds bestaande standaard (10^3) misbruikt om de nieuwe eenheden aan te duiden (2^10)..

Beide standaard benamingen bestaan echter al zeer zeer lang.
Véél langer dan bijvoorbeeld een Microsoft, die gewoon de algemeen meest voorkomende terminologie gebruikt, ook al weten ze dondersgoed dat ze daarmee niet aan de standaarden voldoen..
Mja, MS en standaarden<g>
Lijkt me toch duidelijk, ik bedoel, Gb == Gbite != GB == Gbyte ;)
Tis Gbit of Gbyte, maar ZEKER niet Gbite....
edit: misverstand, reactie verwijderd

[Reactie gewijzigd door Keybern op 20 oktober 2007 10:34]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True