Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 56, views: 26.865 •

Hitachi heeft in zijn HGST Labs een techniek ontwikkeld die de opslagcapaciteit van harde schijven zou kunnen verdubbelen. De hogere opslagcapaciteit is gebaseerd op twee nanotechnieken voor lithografie.

In Hitachi's lab werden twee technieken ontwikkeld die de opslagcapaciteit van harde schijven moeten vergroten, zonder de kosten navenant op te drijven. De technieken moeten nog dit decennium leiden tot harde schijven met de nieuwe opslagmethode aan boord. Hitachi maakt met de nanotechniek de magnetische eilandjes, of domeintjes, kleiner, zodat er meer op een vierkante centimeter passen. Elk domeintje kan, afhankelijk van de magnetische eigenschappen, een 1 of een 0 representeren.

De nanolithografie die Hitachi ontwikkelde, moet magnetische domeintjes met een doorsnede van slechts 10 nanometer opleveren. Met fotolithografische technieken zou dat duur en lastig realiseerbaar zijn. Daarom onderzocht het bedrijf zelfassemblage en nano-imprinting. Daarbij worden eerst de bouwstenen van polymeren samengevoegd, die zich spontaan assembleren tot rijen moleculen met een constante onderlinge afstand. Op die rijen worden vervolgens patronen aangebracht door middel van nano-imprinting.

De technieken lenen zich voor goedkope en schaalbare productie. Het betreft vooral chemische bewerkingen die zelfs nog kleinere magnetische domeintjes dan de gerealiseerde 10nm-structuren zouden kunnen opleveren. De geproduceerde bits bleken data tijdens lees- en schrijfacties goed vast te houden. Momenteel kunnen de onderzoekers platter-materiaal maken met een datadichtheid van ongeveer 1,2 terabit per vierkante inch.

HGST Labs: magnetische eilandjes

Reacties (56)

Heel knap natuurlijk, maar ik zou inmiddels liever twee keer zo snel zien, in plaats van twee keer zo groot.
Dat is wel inherent hier aan. Hogere datadichtheid zorgt ook voor hogere lees snelheden.
Dat is een deel van de snelheid, die je nu noemt. Harde schijven zijn traditioneel slecht in het vinden van een nieuw bestand, wat maximaal 1 rotatie in beslag kan nemen. Dan begrijp je dat als je duizenden kleine bestanden (of snippers) moet zoeken, dat je wel even bezig bent. SSD's zijn hier weer heel sterk in.

Dus mijn advies aan scsirob: als je snelheid wilt, ga voor SSD. Ik wil ook een medium met veel opslag, een hoge totale snelheid en lage kosten, maar dat bestaat niet. Tot die tijd zie ik liever SSD voor snelheid (OS + applicaties) en een HDD om data op te slaan.
Dat snap ik, SSD is wat dat betreft onverslaanbaar. Alleen zijn harddisks van 4TB nu al verkrijgbaar. Er wordt nu een nieuwe techniek geÔntroduceerd waarmee dit misschien wel 8TB op een enkele drive wordt. Met SSD is dat vooralsnog een dure grap.

De snelheid van harddisks is echter nauwelijks omhoog gegaan in de laatste 15 jaar. Toen hadden we ook al 7200rpm en 10krpm disks. Er wordt nauwelijks aandacht aan gegeven om dat te verbeteren. Het aantal I/Ops per GB is in feite gehalveerd met deze ontwikkeling.

Waarom niet meerdere armpjes die de helft van de disk bestrijken (halve average seek time) of die op meerdere plaatsen rond de disk geplaatst worden (halve rotational latency)? Het is eerder gedaan, maar altijd 'te duur' geweest. Maar misschien is dat wel de enige manier waarop harddisks op de langere termijn relevant kunnen blijven
Nou snap ik je punt wel maar:
http://www.streettech.com...ware/quantumFireball.html
It achieves speeds of 8-9 MB/s in sequential reads
Snelheid is best wel wat vooruit in 15 jaar :)
Alleen als je denkt dat sequentiele snelheid heel belangrijk is.

Random access tijden zijn veel minder verbeterd.
Misschien zijn er wel situaties waarin die sequentiŽle snelheid wel belangrijk is. Natuurlijk is voor gewoon desktop gebruik de random access tijd erg bepalend voor de snelheid.
Bah.. je moet het maar zo zien joh.. als we straks 10 of 20TB HDD schijven hebben voor een acceptabele prijs dan koop je er gewoon een stuk of 3 of 4, pleur je die allemaal in RAID1 en HOPPA 3x of 4x zo snelle lees snelheden. Schrijven gaat dan alleen niet sneller maarja dat vinden de meeste mensen denk ik niet zo erg.

Ik persoonlijk vind de leessnelheden van hedendaagse HDD's snel genoeg hoor, vooral als je kijkt dat de meeste 'heavy data usage' gebruikers toch wel een multi-disk opstelling gebruiken.
je begrijpt niet wat hij zegt, met een raid opstelling verhoog je de sequentiŽle data transmissie, maar vertraagt de acces tijd .
Dus grote clusters kan die snel verplaatsen/lezen, maar op het moment dat die schijf vele kleine bestandjes van her en der moet opzoeken heb je een traag bakbeest. En raid verergert dat alleen maar.
Wat je dus oplost met een onboard cache buffer, speciaal om die kleine files in op te slaan.
Volgens mij als je 4 schijven in Raid 1 hangt gaat de access tijd ook omlaag. Alle schijven bevatten identieke data, dus de kans dat je een lange headseek moet doen, of moet wachten op een bijna volledige platter rotation is een stuk kleiner.
De eerste schijf die bij de data kan, kan direct gaan lezen.

De twee Samsung 500GB schijven die in Raid 1 in de PC van mijn partner zitten zijn in alle read-benchmarks substantieel sneller dan de enkele identieke schijf die in mijn systeem zit. Zowel op sequential als random read.

Met Raid 0 gaan accesstijden inderdaad omhoog, omdat alle schijven in de stripe hun stukje van de data moeten opzoeken.

Maar goed als je echt snel wilt, met een behoorlijke opslag capaciteit, dan is een Raid set met een SSD als cache de beste oplossing. Alles wat je veel gebruikt komt vanzelf op de SSD en de rest staat veilig op de Raid set.
En met een goede controller hoeft het OS er helemaal niets van te zien of merken.
Bah beter nog, indien je je systeem lang aan hebt staan.. pleur gewoon dat kreng vol met ram en gebruik je ram als cache.

ram kost tegenwoordig toch geen drol meer en zelfs als je 'maar' 16gb in je systeem frot heb je toch al minstens 8gb die je toch niet gebruikt (doorgaans) welke je dus mooi kan gebruiken voor cache.

Er zijn genoeg cache mogelijkheden (ram, ssd) dus voor de echte power-users die perse hun bestandjes zo snel mogelijk willen laden is er echt wel iets te regelen.. zonder dat de snelheid van BULK opslag schijven omhoog hoeft.
Moet jij me toch eens uitleggen hoe je 8TB aan disk in een cache van 'maar' 16GB 'pleurt'..
scsirob moet jij mij toch maar eens uitleggen hoe jij/een gemiddelde gebruiker dagelijks meer dan 8GB aan verschillende bestanden opvraagt van je HDD.

En als jij niks anders doet dan de hele dag 1080p videos kijken met absurd hoge bitrate telt dat niet want zulke grote bestanden worden snel genoeg gelezen vanaf een HDD om zonder stotteren/bufferen afgespeeld te worden en daar is een RAM/SSD cache dus niet echt bepaald nuttig voor.

Niet bijdehand doen svp :+

[Reactie gewijzigd door Ayporos op 3 maart 2013 00:55]

scsirob moet jij mij toch maar eens uitleggen hoe jij/een gemiddelde gebruiker dagelijks meer dan 8GB aan verschillende bestanden opvraagt van je HDD.
8GiB is niets, alleen al na een cold boot ben je ettelijke honderden MiB verder.
Outlook opstarten om de mail en agenda op te halen, hop weer zo 100MiB.
Uurtje een mooie 3D game spelen, neem nog maar een paar GiB.
Film kijken in HD, 3GiB, makkelijk.
Nou dat is dan 8GiB. 8TiB is inderdaad een heel ander verhaal.

Overigens heb ik een voorkeur voor een SSD cache, omdat de cache dan ook bruikbaar is bij het booten.
Suspend to RAM is leuk, maar niet zo robuust als suspend to SSD. Bovendien is een RAM buffer zo weer gevuld vanaf een SSD.


@scsirob, waarom zou de cache even groot moeten zijn als de bulk opslag waar het de cache van is? Het is geen shadow-cache, alleen een groot uitgevallen read/write-cache voor een bulk opslag.
Met een 32GB of 64GB SSD als cache kom je best wel ver.
Snelheid is best wel wat vooruit in 15 jaar :)
Mijn eerste WD (400 MB) had < 10ms random acces tijden. (eerste MFM 80ms ;) )
Mijn laatste WD (2TB) komt ruim boven de 12 ms.
Oke, er wordt tegenwoordig meer data verstouwd en doorgevoerd, maar qua access tijden is er niet ťcht veel vooruitgang geboekt.
Een 7200RPM schijf van nu presteert beduidend beter dan een 7200RPM schijf van 15 jaar terug. Niet alleen is de data dichtheid hoger zodat de seriele transfer rate hoger ligt, ook is er het nodige verbetert aan de cache en zijn er zaken als NCQ geÔmplementeerd.

Daarnaast is IOPS per GB een beetje onzin. Niet alleen hangt dat dramatisch af van de grote van de I/O operatie, ook heb je nogal wat verschillende soorten IO operaties. Zoals verschillende enterprise storage oplossingen aantonen kun je met de juiste controller (lees: genoeg cache) met HDDs soortgelijke write-IOPS halen als met SSDs. De controller zorgt er in dat geval voor dat de HDDs in feite sequentieel aan het schrijven zijn. Met een raid array heb je dan al snel genoeg bandbreedte om een SSD overbodig te maken. De grote kracht van een SSD zit hem dus in het lezen van random bestanden. Maar dat is slechts "een" vorm van IOps.

Kortom, HDDs zijn wel degelijk flink vooruit gegaan ten opzichte van 15 jaar geleden en in veel gevallen, ook als snelheid belangrijk is, een betere keuze dan SSDs. Harddisks zullen voorlopig nog wel relevant blijven tenzij de kosten van SSDs flink gaan dalen.
Dan koop je een SSD.
Waaw schijven van 8TB :o is dit niet al de 2de grote ontwikkeling van Hitachi op hardeschijf gebied de laatste 10jaar?
De techniek moet dit decenium nog beschikbaar komen. Dus kan nog wel ff duren hoor ;)
De opslagcapaciteit die men nu in het lab haalt zijn al vele male groter. Uit het artikel:
Momenteel kunnen de onderzoekers platter-materiaal maken met een datadichtheid van ongeveer 1,2 terabit per vierkante inch
Ik heb geen exacte oppervlakte gegevens van een platter, maar een 3,5" platter is in werkelijkheid 3,74" wat neer komt op een straal van 1,87". Ik ga voor het gemak even uit van een verlies van 15% ivm het gat in de platter. De oppervlakte wordt dan iets in als het volgende,:

A= (π*(r*r))*0,85
(π*(1,87*1,87))*0,85=9,338"


Vermenig dit met de realiseerbare datacapaciteit per inch en je komt op 9,338*1,2=11,21 Terabit ofwel 1,4 Terabyte per zijde per platter. Huidige 4 Terabyte schijven gebruiken al 4 platters, de totale capaciteit zou dus kunnen worden:

1,4*2*4=11,2 Terabyte

EDIT:
Als reactie op Damic

[Reactie gewijzigd door NewDust op 1 maart 2013 20:52]

Je bedoelt 1,4*2*4=11,2 Terabyte? Als je tenminste nog steeds uitgaat van 4 platters. :)
Kunnen beide zijdes gebruikt worden?
Nope de ene zijde wordt gebruikt voor de data de andere beschikt enkel over de track. Zie die zijde maar als de groef van een lp waarbij de kop alleen maar het spoor volgt
@VOODOO_WILLIE

Heel scherp... Aangepast ;)
Des te triester ik het vind dat de fabrikanten 1,8" hdd's hebben verlaten. Met de laatste technologiŽn zou 750GB tot zelfs 1TB makkelijk moeten kunnen. Tel daarbij op dat ze lichter en kleiner zijn dan 2,5" schijfjes, en je kan misschien zelfs 2 stuks kwijt in de moderne ultrabook (1 SSD voor de snelheid, 1 HDD voor de opslag). ;)

Ook als externe hdd is het handzamer dan een 2,5", en kan het (zie bv. Samsung S1 Mini 250GB) vooralsnog meer opslag bieden dan een usbstick in dezelfde prijscategorie. :+
helaas klopt er niks van je berekening, je kunt op de buitenste tracks niet meer sectoren schrijven dan op de binnenste, ze zijn aan de buitenkant gewoon groter. Zoek maar eens op harddisk track en sector in google
Dat was lang geleden zo, totdat slimmere mensen bedachten dat er fysiek weldegelijk meer bits op de buitenste tracks passen dan op de binnenste. En toen ontdekte men variable sectors per track, en zoned bit recording. Google dat maar eens. :)
Vreemd dat ik dit niet heb opgeslagen tijdens de les, maar je hebt gelijk. Blijft overeind dat de berekening niet klopt.
Vergeet de ecc en reserveringen voor bad sectors etc. niet. Komt je toch weer rond de 8TB uit.
3TB meer wiiiiiiii
Het lijkt me dat in de laatste 10 jaar de fundamentele opslag-innovaties op HDD-gebied vooral van HGST komen. WD en Seagate verbeteren vooral in snelheid en zuinigheid.
HGST Labs is al wel vaker een trendsetter geweest in dit domein, zoals we ons uit 2005 herinneren met Get Perpendicular: http://www.youtube.com/watch?v=xb_PyKuI7II. Ben benieuwd of dit een evengroot succesverhaal zal worden. :)
Ik vind dat Hitachi zich wel eens mag gaan richten op het verbeteren van de levensduur van hun schijven.
Met name de 2.5" schijven van Hitachi zie ik altijd kapot gaan waarbij de uitvalswaarde van WD en Seagate veel lager is.
Dat is waarschijnlijk ook subjectief, het is maar net welk merk je meer verkoopt / meer ziet om dat te bepalen.

Ik zie zelf bij mij op het werk meer WD BLUE doodgaan dan anderen, dus denk het niet specifiek aan de kwaliteit ligt.
en bij mij lijken de Hitachi 3,5 schijven juist erg betrouwbaar- met perfecte Smart waarden( iit bv de goedkopere seagate 3TB schijven)
De uitvalspercentage's zijn volgens een halfjaarlijks onderzoek van hardeware.fr als volgt:
- Western 1,48% (tegenover 1,63% 6 maanden terug)
- Samsung 1,65% (tegenover 1,23% 6 maanden terug)
- Seagate 1,70% (tegenover 1,89% 6 maanden terug)
- Hitachi 3,77% (tegenover 3,95% 6 maanden terug)

Dus zoals Vinny1994 zegt is Hitachi niet geweldig bezig.
Tussen de 0,5% en de 2% is normaal te noemen voor de meeste PC componenten als je naar de rest van het onderzoek ziet.
Blijft natuurlijk de vraag hoe welke disk hoe wordt ingezet.
Door een occasionele gebruiker of 24/7 in RAID opstellingen met intensief gebruik.
Hoe zijn de schijven gekoeld of zelfs getransporteerd door de gebruiker.

Ik kan me best voorstellen (ok, is een veronderstelling) dat Hitachi's (want de enige die niet uit home RAID's worden gegooid) intensiever gebruikt worden dan WD greens.

Het blijft koffiedik kijken met enkel en alleen percentages.

En ik heb al met alle merken problemen gehad, elk merk heeft zijn hoogtepunten en dieptepunten.

[edit]
typo's aangepast.

[Reactie gewijzigd door terajunkie op 2 maart 2013 01:33]

Ach, als je een andere bron pakt krijg je weer hele andere cijfers.

Op het werk zien we bijvoorbeeld veel meer als 1,7% uitval bij Seagate, ik denk dat we zelfs qua DOA al over die 1,7% heen gaan, en uitval na een jaar is een stuk hoger, ergens rond de 5%. Zowel met WD als Hitachi zien we een uitval die inderdaad wel tussen de 1 en 2% zit.


Overigens vreemd dat ze Samsung schijven noemen, Samsung maakt al 1½ jaar geen hardeschijven meer.
hopen dat deze oplossing de hard schijf crisis een beetje in de geschiedenis boeken doet slaan

hard schijven zijn vandaag de dag nog gigantisch duur ,
vroeger had je voor 40 euro 2TB, nu betaal je daar het dubbele voor
40 euro voor 2TB zijn we nooit aan toe gekomen hoor, tenminste niet waar ik mijn harde schijven koop.
2TB was 75 euro, prijzen zijn nu bijna hetzelfde als 2 jaar geleden.
Tenzij mn geheugen me heel erg bedriegt heb ik in de goedkope tijd ooit 2TB voor plm. 60 euro gekocht.
Echt nederlands om te zeiken over DUUR.

In mijn ogen zijn harde schijven goedkoop, en zijn ze door de trammelant van paar jaar terug enkel wat minder goedkoop geworden.
@Pmf1971 een 4TB schijf mag anno2013 echt wel 80 euro kosten... (dat houdt de ontwikkeling voor grotere opslag ook in stand)

lagere prijzen = snellere ontwikkeling naar hogere opslag. (maarja 0.0% echte concurentie)
deze gehele sector stinkt al jaren naar prijsafspraak, maar dat mag je op tweakers niet zeggen want ze worden gesponsord door ze :+ (1-2-3 en weggemod)
Hitachi is erg goed bezig de laatste jaren, uit de commentaren bij het artikel nieuws: Seagate introduceert nieuwe Business Storage-serie nas-systemen bleek ook al dat onder (niet representatieve steekproef) tweakers het als erg betrouwbaar wordt gezien.

Persoonlijk vind ik dat vele male belangrijker dan snelheid. Dit zijn grote schijven voor opslag het (relatief) zeer beperkt stukje data wat ik dagelijk gebruik en wat snel gevonden wil hebben staat al jaren op SSD.

[Reactie gewijzigd door pakka680 op 1 maart 2013 20:34]

Totaal bizar die datadichtheid die ze elke keer weer weten te halen. Hoe meer ik mij er in verdiep, des te bizarder ik het vind dat het ook werkelijk werkt. tegen die tijd weten ze dus zo'n pak m beet 3 TB op een platter te stampen?

Dat zijn dus 26.388.279.066.624 nulletjes of eentjes op een klein rond metalen plaatje. Een plaatje wat in een seconde 120 rondjes maakt en dat dan ook nog eens uit te lezen en schrijven is met een minuscuul naaldje wat erboven zweeft... wtf

... en maar klagen als je ongecomprimeerde full HD filmpje een beetje hapert bij het afspelen :P
Hitachi heeft in zijn HGST Labs
Beetje slordige fout van tweakers, en niet de eerste keer dat ze die maken. De vormalige storage divisie van Hitachi is ondertussen alweer bijna een jaar in handen van Western Digital. Deze divisie heet voorals nog wel HGST (maar zeker geen Hitachi).

Zowel de titel als het bericht zou dus moeten spreken over Western Digital of over HGST, niet Hitachi...


Verder interessante techniek, het is alweer een poosje geleden dat er echt grote stappen gemaakt zijn in opslaggrootte van hardschijven.

[Reactie gewijzigd door knirfie244 op 2 maart 2013 17:34]

Voor mij liever geen HDD's meer. Heb in 3 maanden tijd 4 HDD's verloren zien gaan bij toeval. Iets teveel toeval als je het mij vraagt.

2x mijn Western Digital 1TB 3,5inch HDD's: 2 jaar oud
1x een Seagate 320gb HDD van 4 jaar oud
1x een oude schijf van 80GB uit 2006.

Alleen mijn SSD blijft tot nu toe nog heel. Ik werk nu dus alleen met 128GB :')
Tijd voor HDtune pro of een dergelijk programma lijkt mij. ;)

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Assassin's Creed UnityFIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013