Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Bron: X-bit labs

Seagate logoOp X-bit labs lezen we dat onderzoekers van Seagate een presentatie zullen geven over Heat-Assisted Magnetic Recording (HAMR) op een bijeenkomst van de American Physical Society. De onderzoeksafdeling van Seagate zal daar hun vorderingen in het onderzoek naar HAMR, waarover we eerder al meer schreven, presenteren. Deze techniek maakt het mogelijk veel grotere datadichtheden te bereiken dan die op dit moment mogelijk zijn. Op termijn worden dichtheden van 50 terabit per vierkante inch mogelijk geacht. Op één platter van 3,5 inch past dan zo'n 100TB, ruim 250 maal zo groot als de grootste harde schijf van dit moment. De onderzoekers van Seagate werken sinds 1998 aan het project; de verwachting is dat rond 2010 de eerste producten op basis van HAMR hun weg naar de markt zullen vinden. De datadichtheid bij deze eerste producten zal rond de 1Tb per vierkante inch liggen.

Moderatie-faq Wijzig weergave

Reacties (56)

Ik denk eerder dat we in 2010 al solid state memory schijven gebruiken, grote modules worden steeds goedkoper.

En draaiende onderdelen zullen die tijd wel totaal verouderd zijn, de HD is nog steeds het onderdeel wat het meest achterligt. Het zal me dus niks verbazen als ze over 2 jaar met een compleet nieuwe techniek komen die dit alles weer teniet doet.

Toch is 100TB wel interessant als backup media als het betrouwbaar is :)
Een beetje meer respect voor schijftechnologie alsjeblieft. De harde schijven volgen dezelfde groeicurve als de chiptechnologie. Dat betekend een verdubbelling van opslag capaciteit elke 18 maanden ofzo. Als je uitgaat van 250GB voor 1 disk, dan kom je in 2010 op zon 4TB. Deze techniek zou dan dus 50 keer zoveel op kunnen slaan. Dat is echt een geweldige sprong vooruit. Die komt dan nog bovenop de enorme groei die er gemaakt wordt op de chip industrie voo rte blijven. Het valt nog maar te zien of de solid state geheugens de concurrentie van schijfgeheugens kunnen volhouden, want de chip industrie toont tekenen van het loslaten van de exponentiele groei.
Er staat in het berichtje dat de eerste produkten gebaseerd op HAMR in 2010 met een 2TB schijf op de markt komen. Dat ligt dus aardig in de buurt van de 4TB die jij noemt.

Die 100TB is volgens Seagate haalbaar met de techniek. Maar dat zul je de eerste generatie dus niet zien. Dit bericht geeft enkel aan dat het einde van de groei voorlopig nog niet in zicht komt.
Ik ben het hier zeker niet mee eens. het oudste onderdeel van de pc, welke de minste veranderingen is ondergaan, en eigenlijk nog volgens dezelfde techniek werkt als 20 jaar geleden is het toetsenbord. En deze bevat ook bewegende onderdelen.
En in die twintig jaar had er best iemand op het idee kunnen komen om het aandrijfmotortje verwisselbaar te maken. Belachelijk toch dat je nog steeds een dure harde schijf moet weggooien alleen omdat het motortje kapot gaat?
Ik vind jouw argumentatie wat te eenvoudig.

Het is nu eenmaal geen eenvoudig elektromotortje. Het uitlijnen van de platters komt zeer nauw. De geringste afwijking zorgt ervoor dat de kop de platter raakt bij elke omwenteling; Dat is bij de huidige afstand van de kop tot de platter al bij heel kleine afwijkingen het geval. Daarnaast is het motortje meestal intact; Het lager gaat eerder stuk.

Daarnaast ga je voorbij aan het feit dat het vervangen van zo'n motortje op die manier een compleet oneconomische aangelegenheid wordt.
mhh blij mee zijn?
ja en nee, tuurlijk wel leuk al die ruimte,
maar ik denk ook wel dat er dan nog meer verviuling komt. (software vervuiling bedoel ik dan he, foute code. overbodige dingen. teveel skins luie programeurs enz)
want je gaat geen HD van 100 TB kopen als je maar 5% gebruikt.

dus dan worden de proggies nog grooter terwijl dat misschien wel helemaal neit nodig is.
(een "handige" wizard voor alles, nog mooiere plaatjes, omdat het toch allemaal niet uit maakt)
mhhz...
verder wel leuk hoor.
tsja,

Groter is niet altijd beter maar meer wizards, betere plaatjes enz enz die een programma groter maken zijn ook weer niet per definitie slecht.

Ik denk niet dat er nu nog veel in pure assembler geprogrammeerd wordt. Toch is dat het snelste en neemt het de minste ruimte in. Het gebruik van assembler is vaak simpelweg te duur. Dan koop de gebruiker maar 128 MB intern geheugen extra. Als een zakelijke klant de keuze moet maken tussen nu in elke PC 512MB extra te stoppen of een half jaar wachten voordat het programma goed werkt met minder geheugen kiezen de meeste toch voor gewoon geheugen bijsteken. Extra ontwikkelwerk kost (meestal) veel meer.
Voor de PC kan dat inderdaad best wel, maar je blijft gewoon devices houden waarbij elke MB meer gewoon erg duur is.
Ik denk aan mobieltjes, firmware van een digitale camera, etc.
Verkijk je er dus niet op hoe vaak er nog in efficiente machine-code geprogrammeert moet worden.
Vaak kan een enkele routine in machine-code net dat verschil zijn waardoor een goedkopere, langzamere cpu ook gebruikt kan worden.
Bij bedrijven en particulieren is geheugen bij steken inderdaad de goedkoopste optie, maar bij wetenschappelijke rekentaken speelt de efficientie van de code wel degelijk een rol. Het bijsteken van geheugen of upgraden van de gehele computer is daar vaak duurder dan het verbeteren van de code.

Voor wetenschappelijke taken is het overigens wel handig dat er grotere schijven komen. Hier gaan namelijk vaak grote hoeveelheden data in om. Dan wordt het ook mogelijk om nog complexere / grotere problemen op te lossen.
w00t das een hoop data, ben benieuwd hoe OS-en en biossen hiermee omgaan... krijgen we dan weer bootmanagers omdat anders de PC en/of het OS er niet (goed) mee om kan gaan ?
het (theoretische) maximum van NTFS is 16 EXAbyte.

Das veul meer dan 100TB.

het kan nu dus al.
LOL :+
Bij SARA (www.sara.nl) hebben ze een Tape-Robot waarvan ze een capaciteit van 100 TB hebben in een kast zogroot als mijn kamer die aan Teras hangt (een Super).
Voor de snelheid heeft die een Cache met een zwik raid-controllers en idem aan disken.

Het liedje herhaald zich weer in een bekende beat. Stuff dat nu the best is, wordt huis-tuin-keuken techniek :Y)
De maximum size van een NTFS partitie is never nooit niet 16 exabyte, ik dacht zelf 4 TB, maar deze site beweert dat het er slechts 2 zijn.

Even je cijfers staven aub.
Hoho, 8 TB is voor FAT32 en 2GB voor FAT16 :)
NTFS kan prima tot 16 exabyte.

http://gathering.tweakers.net/forum/list_messages/649273#ntfsvsfat32

Met dank aan ons aller geliefde BalusC overigens ;)
Dan mag jij me gaan uitleggen hoe MSSQL server dan met "gemak" een database van 20TB kunnen serveren :)
Ongeacht wie er gelijk heeft, is dit niet een juist argument. SQL Server 2000 kan een database verdelen over verschillende files en over verschillende schijven. Dus zelfs als NTFS een beperking heeft, kan deze database sever met gemak over het limiet van het filesysteem heen!

Dit is ook een manier om de perfomance van grote databases te verbeteren door de schijfkoppen van 1 schijf niet telkens tussen tegelijk gebruikte tabellen te laten schakelen (wat veel latency kost). Zelfs bij kleine databases is het zo dat een log het beste op een aparte schijf geplaatst kan worden, aangezien het log altijd tergelijkerteid met mutaties op de werkelijke database beschreven wordt.
in 2010? wees maar zeker dat de OSsen dat dan wel aankunnen.
Mogelijk dat er dan geen BIOSSEN zijn meer, maar zeker niet hoe we het zijn gewend van een BIOS
:? jij doet je nick eer aan :P
Niet helemaal ...............

Poosje geleden werd er namelijk hier op tweakers gemeld, dat het einde van de 'traditionele' BIOS in zicht is. Hiervoor moet een geavanceerder sysyteem in de plaats komen, dat meer weg heeft van een mini OS.

Dus het kan best een BIOS zijn, maar niet zoals je hem nu kent. Zoals Captian Kirk al zei : "It's life Jim, but not as we know it"
It's life Jim, but not as we know it
dat zei spock. Jim T. Kirk was wel raar maar praatte zelden tegen zichzelf.
Off-Topic
Ach ja, laat ik als oude man maar de juiste correctie toevoegen. :Z
It's life Jim, but not as we know it
Is natuurlijk een uitspraak van Dr Bones, de goede vriend van James T. Kirk.

* 786562 Protec69
Het is meer in de wereld van disken dan filesystems.

Hoewel filesystems nu tot 16 Exabyte addresseren (64bit), kan Bijvoorbeeld scsi-3 ( Iscsi, Fibrechannel (FCP) , U160/U320) Maar 32bit LBA`s addresseren.
De limiet is op dit moment 2TB (32bit x 0.5KB) . Pas als dit wordt verhoogt (is al een draft), zijn grotere logische disken mogelijk. Natuurlijk zou je meerdere logische disken kunnen groepen als 1 filesystem.
wou intel of ms de bios niet helemaal afschaffen? dat probleem zal er dus niet zijn...
'k mag hopen dat die dingen al voorgeformateerd zijn als ik ze koop.
120 GB duurt al langer dan 2 uur
Met de tools die veel fabrikanten meeleveren (MaxBlast van Maxtor bv.) duurt ook het fomatteren van een grote HD niet lang meer. Minuutje of 10 met partitioneren.
En doe je het met windows zelf of met partition magic dan is het maar een seconde of 10.

En dan kan het zelfs nog sneller want wanneer ik op de xbox een 120GB HDD partitioneer en formatteer is hij binnen 5 seconden klaar.
250gb in 12 sec ;) Maar een xbox format tool checked niet elke sector ;) Dos format wel. Is ook niet echt nodig eigenlijk, ik heb de laatste tijd maar 2 slechte 40gb maxtors gezien, de rest was gewoon goed.
format c:/q (/s voor boot)
zo lang duurt dat toch niet? paar minuutjes en mn ext3 of reiserfs partitie is klaar
De datahoeveelheden worden zo groot, dat downloaden te lang gaat duren. Zo dadelijk gaan mensen weer hun muziek en film gewoon kopen! :)
Dat de opslagcapaciteit zoveel groeit wil nog niet zeggen dat hetzelfde geldt voor de content.
Wie zegt dat we in 2010 geen geavanceerde flash geheugen hebben in onze pc;s ? IDE en of SATA is dan verdwenen en pluggen we gewoon opslag modules in een slot. Net zoals we het met RAM doen.
IDE gaat nu ook al een jaaaren mee (10-15 of nog langer?). En SATA is nog in opkomst, dus ik denk dat SATA nog heel wat jaren heeft te gaan - ondanks dat er concurrentie is van andere opslagmethoden, blijft een harddisk voorlopig het goedkoopst.
nou dan mogen ze nog wel even om de tafel gaan zitten om een betere stroom-aansluiting te maken, wil Sata nog wat jaren mee gaan.
Of misschien gaan ze juist meer aandacht geven aan kwaliteit aangezien ze met schijfruimte geen rekening meer moeten houden.
Als het geheugen ook zo gaat groeien dan hebben we zometeen geen eens meer een hardeschijf nodig slaan we alles in ons geheugen op :Y)

maar heel vroeger waren er hardeschijven van 300 mb en zat ik te denken hoe je een 1 GB hd vol kreeg tot ik 4x120 GB hd's nodig had.
Dus die TB's hebben we zeker nodig als we willen door groeien, maar zeker ook een nieuwe techniek want ik vind die hardeschijven maar nix :r :Z
Op één platter van 3,5 inch past dan zo'n 100TB, ruim 250 maal zo groot als de grootste harde schijf van dit moment.
Ik mag aan nemen dat er in die tijd nog altijd een stuk of 4 platter in een schijf zitten ? ;)
Op termijn worden dichtheden van 50 terabit per vierkante inch mogelijk geacht. Op één platter van 3,5 inch past dan zo'n 100TB.
De verwachting is dat rond 2010 de eerste producten op basis van HAMR hun weg naar de markt zullen vinden. De datadichtheid bij deze eerste producten zal rond de 1Tb per vierkante inch liggen.
En dus zullen HD's gebaseerd op deze techniek tijdens de introductie in 2010 ongeveer 2TeraByte aan ruimte bevatten. Valt op zich nog wel mee, da's over 6 jaar en dan is het nog maar 4-5 keer zo veel dan de grootste harde schijven van nu.
Ola, zeker van je berekening, ik kom namelijk iets anders uit:
(3,14 * 1,5 ^ 2) - (3,14 * 0,5 ^ 2) | (pie * straal van de plaat ^ 2) - (pie * straal van het midden, waar de plaat of is gemonteerd ^ 2) = 6,28 vierkante inch per LAAG.
Dus, 6,28 sqr inch * 1 Tb / sqr inch = 6,28 Tb = 0.785 TB.
Goed, volgens het artikel worden laserstralen gebruikt om het materiaal te verwarmen zodat het magnetisme op die plaats veranderd. Nu is de vraag of harde schijven dan nog meerdere platen gaan gebruiken. Anders, bv een standaard harde schijf met 3 platen en 2 lagen per plaat = 4.71 TB.

[edit]
Ok, ff wat bijlezen; er worden lasers gebruikt om de plaat op te warem zodat deze makkelijker en preciezer door een magnetische kop kunnen worden beschreven. Mss kunnen ze dan zo 2 kanten van een plaat gebruiken of nog meer.
[/edit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True