Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties

Hitachi werkt samen met Japanse organisaties aan de volgende generatie harde schijven. Dankzij een techniek die het mogelijk maakt om grote hoeveelheden data op de platters te schrijven, zouden die tot 24TB opslagcapaciteit krijgen.

De techniek die de Japanners gezamenlijk ontwikkelden, zou datadichtheden tot 3,9 terabit per vierkante inch mogelijk maken. Harde schijven zouden dankzij die hoge dichtheid van bits opslagcapaciteiten tot 24TB en 8TB kunnen krijgen, voor respectievelijk 3,5"- en 2,5"-harde schijven. De huidige generatie harde schijven werkt met platters met dichtheden tot ongeveer 500Gb per vierkante inch. Tijdens een symposium van de Materials Research Society eind november doen de Japanners uit de doeken hoe de techniek werkt.

Hitachi ontwikkelde de opslagtechnologie samen met het Japanse onderzoeksinstituut New Energy and Industrial Technology Development Organization en verschillende universiteiten. Ze maakten gebruik van polymeren die spontaan een patroon vormen waaraan de magnetische domeinen zich kunnen hechten. De Japanners ontwikkelden zo zelfassemblerende polymeren, die traditionele lithografische technieken om de patronen te etsen vervangen.

Met de techniek werden al magnetische domeinen met een doorsnede van 13nm gerealiseerd. Dat levert theoretische dichtheden van 3,5Tb per vierkante inch op. Tijdens het symposium worden patronen met magnetische domeinen met doorsnedes van 12nm getoond. Dat zou 3,9Tb per vierkante inch mogelijk maken. Volgens de Japanners zouden de polymeren zelfs patronen met doorsnedes van 10nm kunnen vormen en zo nog hogere datadichtheden mogelijk maken. Wanneer de techniek daadwerkelijk inzetbaar wordt, maakten de onderzoekers niet bekend.

Hitachi polymeer-patterning voor harde schijven

Moderatie-faq Wijzig weergave

Reacties (106)

Heeft het systeem technisch wel zin om een 24TB schijf te fabriceren? Daarmee doel ik meer op het falen van een harde schijf. Ik weet dat de kans van een 24TB schijf t.o.v. een 3TB schijf even groot is, echter verlies je in dit voorbeeld tot 8x meer data. En dan heb ik het puur als ik kijk naar de schijf als opslag medium zijnde. Voor backups e.d. zal het wel geschikt zijn, maar ook daarmee loop je nog altijd risico. In een Raid 1 opstelling zou dit wat meer zekerheid moeten bieden gok ik, maar toch, bij falen is het verlies toch wel aanzienlijk.

Of zie ik dit nu verkeerd?
het ligt een beetje aan het doel... RAID is meestal gebruikt als je niet wil dat een systeem plat gaat als er een schijf kaduuk gaat.
Backups gebruik/maak je zodat als je data stuk gaat (bijvoorbeeld door een hacker of virus) je die data terug kan zetten.

RAID != Backup

voor het behoud van data zou ik eerder gaan voor 2 van deze jongens, en dan de 1e voor data, en de 2e voor backups van die data.
RAID != Backup

Is net zo iets als ik heb airbags dus hoef ik geen gordels :?

Ik gebruik zelf raid 6 als het een van de veiligste raid systemen is, maar nog steeds doe ik een back-up van al mijn belangrijke files (fotos/videos en belangrijke documenten)

Heel simpel gewoon automatisch via FTP naar een vriend zijn server en hij visa versa naar mijn server.
Op het moment dat je meer data moet opslaan dan je met een redundant aantal kleine schijven kan doen is het nuttig om grotere schijven te gebruiken.

Als je belangrijke data hebt (en dat is al gauw zo) moet je toch iets van zekerheid hebben, zeg RAID5 met 4 schijven. Met 2TB schijven kan daar ongeveer 6TB op. Als je dus 72TB wil opslaan, moet je (72/6)*4 = 48 schijven hebben, en heb je 1/4e redundantie (in dit geval kan de opstelling wel beter maar goed).

Je kan ook zeggen, neem schijven van 24TB. Dan heb je dus arrays van 72TB en heb je maar 4 schijven nodig, ook met 1/4e redundantie. De kans dat er 2 uit 4 falen is natuurlijk kleiner als de kans dat er 2 uit 48 falen, dus in feite kan dit zekerder zijn. Echter, falen er hier 2 dan ben je meteen al je data kwijt, en falen er daar 2 dan ben je of niks kwijt of 1/12e deel van je data.

In ieder geval is het een kosten/baten overweging. Minder maar grotere schijven zijn meestal goedkoper, maar in ernstige gevallen heb je dan groter dataverlies. Je weegt de kosten van de zekerheid op tegen de kosten van het reproduceren van de data en de kans op een ongeluk en neemt een besluit. Ergens er tussenin zal wel het meest effectieve zijn.

Bovendien groeit de vraag naar opslag nog steeds. Als je 20PB wil opslaan is een dataverlies van 24TB niks. Je hebt geen zin om over een paar jaar 50x zoveel data op te gaan slaan met dezelfde grootte schijven als nu, dus moeten die meegroeien.
Met die instelling zouden we nog steeds schijven van 400k hebben.
Hetzelfde risico werd aangekaart toen de eerste harde schijven de 1GB grens doorbraken. Maar bij verlies van data gaat het niet om hoeveelheden maar om hoe kritisch de data is. Ik heb hier honderden GB aan data die ik zonder veel problemen kan missen, maar ook bestanden die onmisbaar zijn en waarbij het verlies van 1KB dus al dramatisch is (natuurlijk heb ik die wel gebackupt).
zou je dat 10 jaar terug ook niet gedacht hebben over een 1TB schijf, toen je een 80 gig schijf had?
Ja en nee, het ligt vooral aan welke instellingen je gebruikt en hoeveel schijven. 1 schijf is niet zo handig nee, 2 in raid 1 levert al 50% meer kans op overleven van je data op. Heb je een serverparkje dan scheelt je dit waarschijnlijk behoorlijk wat ruimte en aangezien je dan de boel toch in een mooie raid oplossing hebt staan dat je ze gewoon kan hotswappen zal dat wel meevallen. De kosten van uitval zijn dan wel wat hoger uiteraard.
Nou ja... Of ik nou een diskcabinet heb met 500 3TB schijven of een diskcabinet heb met 62 schijven. Dat scheelt nogal in ruimte en stroomverbruik (voor bijvoorbeeld cloud-oplossingen)
Je verliest 8x meer data als een schijf van 24TB stuk gaat, maar je hebt 8x meer kans dat een van je acht 3TB schijven stuk gaat. Komt dus +- op hetzelfde neer.
Krijg je op deze manier met deze dichtheid niet gauw problemen met de betrouwbaarheid van je schijven? Lijkt mij dat als er zo veel info op zo weinig vierkante inch staat, er productieproces erg goed moet zijn om problemen te voorkomen.

Maar een 24TB schijf is wel een super oplossing om backups te maken. Zo kun je nog eens een boel data kwijt in een veel kleinere (en ongetwijfeld veel zuinigere) ruimte.

[Reactie gewijzigd door Animal Baars op 26 november 2010 11:01]

Animal Baars,

En 10 jaar geleden zeiden mensen exact hetzelfde over 500GB hdd's. De techniek gaat erop vooruit, dit artikel getuigt van deze stelling. Nu volgens mij is het als volgt;

Het grootste probleem van platters met een hogere datadichtheid is net de productie ervan, en laat dit net iets zijn waar de consument zich niets moet van aantrekken.

Zolang de data kan weerstaan aan de middelpuntzoekende kracht zal de hogere datadichtheid van de platters geen effect hebben op de betrouwbaarheid van de hdd's die je in handen krijgt in de winkel, het zal veeleer te maken hebben met fouten aan de mechaniek van de hdds of simpelweg slijtage/schokken.

M.a.w. zal de betrouwbaarheid van deze hdd's mogelijk slechter zijn, maar zal dit louter het gevolg zijn van de mechaniek om het uit te lezen. Vergeet echter ook niet dat ook deze techniek evolueert. Ik verwacht dus uiteindelijk geen verschil in betrouwbaarheid tussen 2TB en 24TB schijven, op voorbehoud van een verschil in betrouwbaarheid die positief uit zal vallen voor de nieuwe techniek.
Maar toch... Als jouw 24TB diskje crashed... Ben je wel erg veel data kwijt
Maar goed kan me niet voorstellen dat iemand 24TB aan belangrijke data heeft en als het wel belangrijk is behandel je het belangrijk (backups maken bijv.)...

Maarja vroegah toen er 800MB schijven waren aangekondigd kon je dezelfde opmerking maken omdat die ook 10x zo groot was als de gem. harde schijf van die tijd... En zelfs 500x zo groot als een floppy!!!

10x meer ruimte != 10 meer data, de data is veel complexer geworden waardoor het meer inneemt... Ik bedoel vergelijk een notepad bestandje met dezelfde data als een word bestand die is opgemaakt :) 10x zo groot maar dezelfde data aanwezig!

[Reactie gewijzigd door watercoolertje op 26 november 2010 11:04]

Ik snap dat je nu slechts een voorbeeld noemt met word bestanden, maar als ik er even over door mag gaan: Word is een enigszins slecht voorbeeld omdat het, het feit dat het meer ruimte inneemt ten spijt, het dat doet om een vekeerde reden: legacy. Er is geen performancewinst tov een simpel flat-file bestandje, en ik ken geen ziel die echt zal proberen zo'n bestandje handmatig door te ploegen zonder tussenkomst van een of ander office pakket. Ook zijn er in sommige gevallen uitwisselingsproblemen met andere officepakketten en is het, in het geval van OOXML, de ISO-ratificering ten spijt geen goede standaard, omdat er te veel ruimte voor interpretatie is.

Een beter voorbeeld is dan XML. Dat neemt ook meer ruimte in dan een flat-file data bestandje in .ini formaat, maar biedt sterke voordelen om de extra ingenomen ruimte te rechtvaardigen: het is robuuster, het is uitbreidbaar, de integriteit van zo'n bestandje is tot op zekere hoogte te waarborgen, en bovenal is het human-readable (perversies zoals binary data in een XML tag neerzetten daargelaten) waardoor je met een simpele teksteditor van t kaliber notepad nog de data in kan zien ipv dat je 1 of andere gespecialiseerde tool nodig hebt.

Verder ben ik het wel met je eens dat 10x meer ruimte niet gelijk is aan 10 meer data, dataconsumptie expandeert nl om de capaciteit te vullen.
Nou, eigenlijk is 10x meer ruimte juist wel hetzelfde als 10x meer data. Data zijn in dit geval gewoon de ruwe bitjes. Wat je bedoelt is dat er niet ook 10x zoveel informatie aanwezig is.
Notepad vs Word met dezelfde tekst geeft niet dezelfde data, maar voor de gebruiker wel dezelfde inhoud. :)
Dat ligt er natuurlijk aan hoeveel data je erop hebt staan.
Waarschijnlijk heb je als je 24TB vol kan schrijven ook wel ergens een backupje.
Dat ben je sowieso, ik moet er niet aan denken om de data op mijn 1TB schijfje kwijt te raken ;) Vaak zijn het ook documenten die het meest belangrijk zijn, en daar heb je geen 24TB voor nodig. Lijkt mij niet in van de grootste bezwaren voor zulke schijven
Inderdaad... En 24TB op DVD's backuppen is niet zo handig ;-)
(24000 GB / 5 GB = 4800 DVD's - Als ruwe schatting natuurlijk)
24 backupen 24/ 24 = 1 --> HUH??? of je koopt gewoon een 2e schijf stopt die in een hotswap-cage en stopt de schijf in een veilige 'kluis'
Of dat natuurlijk :)
Een goede tweaker heeft altijd backups toch ;).
je heb er natuurlijk 2 in hangen.. In mirror ofzo dus disk vervangen en alles is weer goed.
koop je er twee in raid 1 :D daarnaast heb ik dan nog wel een 1 en 2 tb schijfje liggen en een paar 320 gb schijfjes waar ik essentiŽle data op kan backuppen.
dat heb je ook als je 12 2 TB disks in raid hebt staan, dan kun je dus beter 2 24TB disks kopen en een mirror raid maken...
Je kunt gewoon een backup van die 24TB schijf maken, op een andere schijf. Helemaal geen probleem dus.

Verder is de technologie van een harddisk niet zo heel erg anders dan die van een tape... Tapes zullen dus gewoon mee evolueren.
Best wel interessant. Dit zal er voor gaan zorgen dat SSD's nog wat langer naast traditionele HD's gebruikt gaan worden. IPV dat ze de normale HD's compleet gaan vervangen.
ssd voor os, en dan een schrijf van 24 TB voor data, lijkt me wel wat!
Vooral voor de servers is dit een ideale combinatie.
Wel nee de meeste servers gebruiken echt niet meer dan een paar honderd GB aan data. Tenzij je een file server bedoelt maar ook die hebben veel al niet meer dan een paar TB aan data omdat je bedrijfs matig vrijwel nooit in een situatie terecht komt waar per persoon meer dan 1GB aan opslag nodig is.

Natuurlijk zijn er uitzonderingen zo als de grafische industrie en dan met name de 3D teken studio's en film studio's waar je nu eenmaal met enorme bestanden werkt en dus ook met belachelijk grote hoeveelheden opslag. Maar dat is echt zo'n uitzondering die de regel bevestigt over het algemeen is zo veel opslag gewoon niet nodig.

Natuurlijk zal ik zelf maar wat graag een nieuwe HDD kopen met 10TB of zelfs 20TB opslag capaciteit (de 24TB zal veel te duur zijn om te beginnen). Maar dat is meer omdat ik van verzamelen en films/series houd en dan heb je nog al eens wat extra opslag nodig. Maar dat is voor prive gebruik en alleen voor data waarvan ik het niet echt erg vind als ik het morgen allemaal kwijt ben.
Wel nee de meeste servers gebruiken echt niet meer dan een paar honderd GB aan data.
Er zijn wereldwijd duizenden bedrijven met een enorme honger naar storage hebben. Ruimte (fysieke ruimte van SANs..) is geld dus een hoge dichtheid is gewoon handel.

Daarbij was 10 jaar geleden een schijf van 2TB natuurlijk ook ondenkbaar, vergis je niet in de snelheid waarmee de behoefte naar storage groeit. Het lijkt wel of de ontwikkeling niet afhankelijk is van de behoefte, maar andersom.

[Reactie gewijzigd door enveekaa op 26 november 2010 11:52]

Bij alle bedrijven groeit de data behoefte voortdurend. Denk ook aan CAD/CAM of het opslaan van (medische) beelden. plus alle klanten informatie zodat je vantevoren weet waar hun belangstelling naar uitgaat. Ook al zal het misschien heel lang duren voordat in servers 24 TB schijven komen, het gaat erom dat er ontwikkeling in zit.
CAD/CAM valt wel mee hoor, een paar megabyte per ontwerp is al erg veel.
Eindige elementen pakketten als ansys gebruiken meer, afhankelijk van welke simulatie je doet natuurlijk.
Net niet.

Stel je voor dat je 15TB aan data moet backuppen vanaf 1 server...
Die heeft een troughput van misschien 4 GB (netwerktechnisch)
dan kun je beter 12 servers hebben met 2TB, dan kun je veel sneller backuppen.
en er zijn natuurlijk geen mogelijkheiden om 2 of meer optische verbindingen naar dezelfde san te sturen (want laten wel weten, dit soort hoeveelheden zul je als eerste tegenkomen in sans waar bijv databeesten hun data opslaan, neem een bedrijf als google, facebook (en misschien zelfs al hyves) om dit soort schijven nuttig te maken.
daarna zullen al heel snel 'kleinere' bedrijven hier ook gebruik van gaan maken.

denk daarbij wel, dat je met een paar schijven en 1 enkele server straks ineens gigantische hoeveelheden data kunt opslaan zoiets kan al snel bergen geld schelen (minder racks, minder stroom),
Ik geloof dat Google inmiddels een tactiek heeft van veel en goedkope servers ipv weinig, dure servers met hoge capaciteit.
Met cloud computing technieken, maakt het namelijk niets uit.
Niet 'inmiddels' overigens, dat was al vanaf het begin zo.
Ja het is inderdaad een stuk zuiniger maarja, als je dan over redundantie gaat hebben dan is het wel vervelend, je zou zulke schijven bijvoorbeeld maar eens in een RAID5 array moeten hebben als die schijven vol staan en eentje legt het loodje en je moet de array gaan rebuilden dan ben je voor de komende maanden nog niet klaar. Dat is het voordeel van meerdere kleine schijven die hebben minder gegevens en kunnen sneller gerebuild worden, het nadeel is echter wel natuurlijk dat de kans op een kapotte schijf veel groter is.

Puur voor backup doeleinden lijkt mij dit een stuk effectiever, of uiteraard van die data monsters zoals google waar de GB's of misschien wel TB's er door heen vliegen.

Al zie ik hun die duizenden racks echt niet zomaar omwisselen voor een paar racks met deze beesten waarschijnlijk komen deze er dan gewoon bij.
Dat ligt er net aan.
Als je een database hebt van 2TB die veel te doen heeft, is het misschien ook wel handig om die op snellere disks te zetten. (raid arrays van SSD's ofzo?) Dan ga je op een bepaald moment tegen de snelheid van je fibrechannels oplopen ;-)

Maar voor thuisgebruik is dat zeker wel een optie denk ik. (je foto's/backups op mechanische disks zetten)
met grote databases zul je denk ik nog steeds conventionele schijven willen gebruiken vanwege de kosten, ssd's zul je dan veel eerder gebruiken voor read en write cashen.
1. SSD gaat de harde schrijf nog jaren niet vervagen! ik bedoel, ze zijn duur.. hebben weinig opslag ruimte.

een harde schrijf is tegenwoordig goedkoop, voor 60euro heb je 1TB in huis..

en nouja, 24TB dat krijgt een normaal mens niet vol:$ tenzij je natuurlijk 2000blu-ray films op je pc hebt, 2000x10GB dan.
en ik betwijfel of dit te betalen word.
NB: een goede Blu-ray is toch echt gauw 30 Gb. :)
Ja een originele BR is +30GB
Inception 2010 BluRay 1080p VC1 DTS-HD MA5.1-CHDBits
11-22 14:21, Size 39.57 GiB, ULed by aoloffline
Heb ook een 5GB x264 rip en zie nauwelijks verschil op mijn nog geen 1j oude 50" plasma.

Maar heb nu wel 22TB aan opslag, maar nog steeds gebrek aan ruimte, maar dingen als de hele StarGate collectie is toch 200GB, dan heb je bv 24 en alle StarTrek en noem er nog maar een paar op, en opeens heb je TB vol :?
Dat ligt er natuurlijk aan hoe snel de SSD's gaan evolueren. Deze harde schijven zijn voorlopig nog niet op de markt, laat staan voor een betaalbare prijs. Genoeg tijd dus om een 2TB SSD op de markt te brengen voor een betaalbare prijs.
24TB op een hdd van 3,5" is super mooi, maar gaat dan niet de leessnelheid enorm omlaag omdat er "mogelijk" in 24TB aan opslagruimte moet worden gezocht??
Zal ook wel enorm duur worden in het begin.
Erg duur bij de introductie kan hij nooit zijn omdat het anders veel goedkoper is om een raid van 'mindere' disks te regelen waardoor het product geen markt heeft.

Als het file system traag zou doen met 24TB moet je eff meer dan 1 partitie maken. Dat is sowieso handig voor het later herordenen van je data en OS installatie.
De allergrootste schijven zijn soms wel een stukje duurder per GB dan de meest verkochte types. Het heeft dan vooral voordeel om de grotere te kopen als je veel opslag nodig hebt, anders moet je meer computers, cases, racks etc kopen en dat is ook duur.
Een harde schijf houdt bij waar alle data op de schijf staat. Het is dan alleen een kwestie van de leeskop daar neerzetten en lezen, er hoeft dus niks gezocht te worden of doorgespoeld zoals een tape.

Als je zelf tussen 24TB een bestand kwijt bent dan is het net zo lang zoeken als bij 24TB aan kleinere schijven :+

[Reactie gewijzigd door Jeroen op 26 november 2010 11:19]

Als de dichtheid toeneemt dan neemt ook de transfersnelheid daarmee toe, als ander factoren gelijk blijven. Uiteraard tot de grens van de huidige connector (SATA gaat nu tot 6 Gbit/sec).

Uiteraard kun je niet 12 schijven van 2 TB vervangen door 1 van 24 TB, dan loop je tegen IOPS bottleneck aan.


Prijs? De eerste die met de technologie komt verdient het vaak terug. Op het moment is het zo dat de 2 TB schijf de goedkoopste per gigabyte is. (terwijl de grootste SATA schijf net 3 TB is). Prijs per Gigabyte telt dan ook.
Een 8-voudige toename in de opslag-capaciteit is natuurlijk mooi, maar de echt essentiŽle informatie ontbreekt in dit artikel: Hoe lang nog voordat het in productie wordt genomen?
Reken maar lang. Ze hebben nu onderzoek gedaan, nu moeten ze het nog in theorie in de praktijk brengen, dan moeten ze de fabrieken nog bouwen en dan kunnen ze de eerste echte schijven gaan bouwen. Niemand weet precies hoe lang dat gaat duren omdat er vast nog allerlei bekende of nog niet bekende problemen zijn die moeten worden opgelost.

[Reactie gewijzigd door Jeroen op 26 november 2010 11:21]

de techniek met self-assembling polymeren is al eerder op tweakers geweest, paar jaar terug.
dit is de eerste praktische implementatie daarvan.

nu moet er worden uitgevonden hoe je dat geschikt maakt voor massa productie.
dat duurt nog wel een paar jaren

als het zich houdt aan de standaart HDD verdubbelings termijn van 2 jaar dan duurt dit 6 jaar. maar dat zou best wel eens eerder kunnen worden.
5 jaar. En over 5 jaar weer 5 jaar. En na die 5 jaar zeggen ze weer 5 jaar.

Get the point? ;)
24 TB is heel veel data! Maar ik ben wel benieuwd wat de lees en schrijf snelheden gaan doen als je de dichtheid van de platters 8x verkleint..
Er vanuitgaande dat je gewoon met een 7200 rpm schijf blijft werken, dan wordt de transferrate gewoon 8x hoger.
De accestime blijft uiteraard gelijk. (is alleen van de leeskop en toerental afhankelijk, en niet van de datadichtheid)
24TB??? Wat kan een consument in vredesnaam opslaan voordat deze schijf zijn max bereikt. Ik moet zeggen dat 1 of 2 TB al behoorlijk veel is. Het is handig als je al je blu-ray disks wil opslaan a 50gb per film.

Je hoeft je in elk geval niet druk te maken als je veel foto's maakt of je dan nog wel ruimte genoeg hebt. Enkel het sorteren en terug vinden zal dan een probleem worden volgens mij.
Mij lijkt het voor de consument misschien wel fijn, als hij zijn hele DVD/Blueray collectie kwijt zou kunnen op een mediacenter, zodat je de film kan uitzoeken zonder je bank te verlaten.

Verder heb ik graag alle games die ik via Steam heb aangeschaft allemaal op HD staan om met een druk op de knop te kunnen spelen. Mijn collectie van geinstalleerde games is nu al groter dan 1TB op mijn 2TB harde schijf waaronder meer dan 450 games alleen al in Steam. Dus even naar wat ik in de toekomst nog allemaal aanschaf kijk, en hoe groot de games nu vaak zijn, dan is voor de gamer deze ruimte handig.

Ik zou het zelfs handig vinden voor toekomstige consoles, alles online aanschaffen en downloaden naar een console zonder DVD/Blueray drive mits de dienst goede voorwaarden heeft. Fysieke doosjes nemen altijd te veel plaats in beslag.

En misschien is 24TB over 5 jaar normaal, of zelfs alweer te weinig.
Seagate was toch al bezig met een nieuwe techniek die tot 50 tb per vierkante inch ging? Dat is wel nog toekomstmuziek. nieuws: Seagate acht schijven van 100TB mogelijk met HAMR
wiki quote:

"As of early 2009 Seagate is still working on HAMR and has achieved 250 Gb per square inch. This is half of the current 2009 density achieved via perpendicular recording."
Wat nou 24 TB, ze hebben het over 24TB per platter. Harddisks kunnen best 4 platters hebben. Dus kan je schijven maken met 96TB. Dus.......
Met een paar exemplaren in RAID kun je een eindje vooruit en met dergelijke datadichtheden gaat de snelheid ook omhoog bij gelijke toeren tallen. Vooropgesteld dat de elektronika op de schijf het aan kan.
Nu hebben platters dacht ik max 750 GB (de nieuwe 3TB schijven). Dus 24 TB is 32 x zo groot als datadichtheid. Dus stel dat je PC nu 70MB -80 MB per seconde haalt (5400rpm?). Dan zou dat 2,25 GB /sec worden. Iets zegt me dat je PC dat dan weer niet aankan. Je huidige SATA 600 interface i.i.g. niet. Maar goed, tegen de tijd dat de schijf betaalbaar is, zijn de PC ook weer sneller nietwaar?
Wat nou 24 TB, ze hebben het over 24TB per platter. Harddisks kunnen best 4 platters hebben. Dus kan je schijven maken met 96TB.
Dat heb je, denk ik, verkeerd begrepen dan. In het artikel staat duidelijk dit:
Harde schijven zouden dankzij die hoge dichtheid van bits opslagcapaciteiten tot 24TB en 8TB kunnen krijgen, voor respectievelijk 3,5"- en 2,5"-harde schijven.
Het gaat dus wel degelijk over volledige schijven, niet de platters.

[Reactie gewijzigd door Waking_The_Dead op 26 november 2010 15:44]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True