Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: Seagate, submitter: GameFreak

Seagate meldt dat onderzoekers van het bedrijf een harddisk hebben gedemonstreerd met een data-dichtheid van meer dan 100 gigabit per vierkante inch. Om dit te bereiken werd gebruik gemaakt van een opslagtechniek die magnetische bits zowel horizontaal als verticaal achter elkaar rangschikt. Met deze techniek, ook wel perpendicular recording genoemd, kunnen in de toekomst dichtheden tot een terabit per vierkante inch bereikt worden, zo stelt het bedrijf. Dit staat gelijk aan een terabyte op een schijf van drie inch.

SeagateDoordat de lees- en schrijfkop op één plek meerdere bits kan lezen en schrijven, neemt ook de data rate flink toe. Een demonstratiemodel van Seagate liet een gegevensstroom tot 125MB per seconde toe bij een dichtheid van 60 gigabit per vierkante inch. Deze snelheid is wel eens eerder bereikt, maar niet bij zo'n hoge dichtheid. Wellicht komt het bedrijf al in 2004 met producten die gebaseerd zijn op de nieuwe technologie.

Moderatie-faq Wijzig weergave

Reacties (45)

En hoe zit het dan met warmte en slijtage ?? :?
Ook al krijg je in de toekomst een HD van 1 terabyte, hoe lang moet het dan duren voordat je het gedefragmenteerd hebt ?
Wel tof dat je best wel veel partitities erop kan maken ! :D :P

Ach ja de tijd zal ons leren wat wij nog niet weten ! ;)
Je kan nu ook wel heel veel partities maken hoor... gewoon zorgen dat ze niet te groot worden :+

Ik ben benieuwd met welke groottes deze schijven hun debuut maken.
[quote]Ook al krijg je in de toekomst een HD van 1 terabyte, hoe lang moet het dan duren voordat je het gedefragmenteerd hebt ?[/qoute]

Voorkomen is beter dan genezen, dus door een filesystem te gebruiken dat weinig last heeft van fragmentatie, zoals bijv. ntfs en ufs(ffs).
nouja, ntfs kan ook behoorlijk fragmenteren, draai maar eens defrag na een half jaar intensief schijfgebruik...
Ook al krijg je in de toekomst een HD van 1 terabyte, hoe lang moet het dan duren voordat je het gedefragmenteerd hebt ?
gebruik een 'intelligent' filesystem als ext2/3

dat is zo ontworpen dat het praktisch niet defragmenteerd

wellicht gaat het FS waar MS mee bezig is dat ook bevatten (niet dat mij dat boeit }>)
Ik heb liever een FS dat niet fragmenteert.
Als je een beetje nadenkt weet je dat ieder FS fragmenteert, daar is gewoon geen ontkomen aan. Ik heb eigenlijk geen zin om uit te leggen hoe fragmentatie ontstaat, maar als je dat effect kent, weet je waarom het onontkombaar is.

nu ff ontopic:
Je moest es weten hoeveel mensen er zijn die tientallen gigs aan films (backups van dvds ;)) op schijf hebben staan. Je moest es weten hoeveel fileservers er zijn voor bedrijven die aan multimedia-verwerking doen. Bij dat soort dingen is er geen man overboord als de schijf kapot gaat. En als wel, dan heb je nog altijd raid.
Om veel partities te maken heb je toch geen grote HDD nodig?
Maar meer dan 24 partities actief wordt wel errug moeilijk. En dan hoef je je CD/DVDspelertje al geeneens meer aan te sluiten... ;)
In DOS en windows is dat waar, maar in Linux en andere Unix-achtigen kan je veel verder gaan. Daar zegt men hda1 tegen master harddisk op primaire controller en de 1ste partitie... Je kan een eindje verder gaan dan 24 partities.
Ik kan me vergissen maar volgens mij kan je bij Windows 2000 na A t/m Z doorgaan met AA t/m ZZ?

Wat ik zeker weet is dat je in windows 2000 ook een partitie als een map op een andere schijf kan laten fungeren.
Klinkt nu wel leuk, maar ik hoop er een beetje op dat anno 2004 er wat revolutionairdere technieken zich op de markt beginnen te begeven.

* 786562 zion
Dat ben ik nou helemaal met je eens, we moeten af van al die apparatuur met bewegende onderdelen. Dat is niet alleen traag maar brengt ook veel slijtage en geluid met zich mee.
Als het flash geheugen nog verder doorontwikkeld wordt zodat het bruikbaar is als HDD dan kunnen we beter daar op overstappen.
Ik ben eigenlijk juist wel blij dat weer eens van een innovatie in dataopslag horen waarbij we niet hoeven te wachten tot 2050 voordat het uberhaupt mogelijk is.. (geld ook voor andere technieken zoals transistors van 1 atoom, quantum computing, etc.)

Het lijkt erop dat de harde schijfjes voorlopig weer door kunnen blijven groeien...
Een harde schrijf is net zoals een kast, hoe meer ruimte, hoe meer rommel je gaat bewaren die toch niet nodig heb ;)
Zie het al voor me,
2 ata2 hardeschijven van 1000 gig
aan een raid controler.
(dat krijg je zelfs met een flinke divx collectie nog niet vol ;) )

Ben wel benieuwd hoeveel toeren dat ding heeft moeten maken om 125MB/s te halen.
Normaal gesproken gaat de snelheid omhoog bij een grotere dichtheid.

Het zou mooi zijn als de toeren omlaag gaan, dat is bevorderend voor de levensduur, en maakt een stuk minder geluid.
het stond juist in het stukje dat door de hogere datadichtheid juist de snelheid omhoog was gegaan.
Deze nieuwspost verdraait de feiten: er wordt nergens gezegd dat er bits horizontaal en verticaal opgeslagen worden en dat deze parallel uitgelezen worden, dat is onzin.

Huidige HD's hebben de richting van magnetisatie parallel aan het oppervlak. Een stukje magnetisch materiaal heeft een bepaalde minimale oppervlakte nodig om niet instabiel te zijn, dit is de superparamagnetische limiet. Omdat deze dus parallel aan het oppervlak ligt is de bitdichtheid daar zeer van afhankelijk.

De nieuwe techniek magnetiseert de bits in de verticale richting, waardoor ze in verticale richting lang kunnen worden, maar horizontaal erg dun. Er passen meer naast elkaar en zo wordt de bitdichtheid groter.

Maar deze technologie zit over een paar jaar ook aan zijn grens. Daarna krijg je probe recording, dat is echt heel stoer.

http://utep.el.utwente.nl/smi/views/Research/Media/Perpendicular/
Hoe hoger de datadichtheid, hoe hoger de onbetrouwbaarheid. Dat is nu toch wel gebleken de laatste jaren. Schijven sterven nog teveel bij bosjes. En is een terabyte nou echt zo nodig? Voorlopig is 100 Gieg voor de thuisgebruiker toch wel ruim voldoende. En dat dat niet te backupen is, is ook niet waar. Men neme gewoon een tweede, zelfde, schijf en met Ghost ben je in notime klaar. Niks geen gekloot met teepjes. Juist om deze reden moet een schijf ook niet te groot worden. Door meerdere kleine(re) schijven te gebruiken, spreid je juist het risico op dataverlies en is backuppen makkelijker.
Liever zie ik dat de fabrikanten wat meer aandacht aan betrouwbaarheid, snelheid, geluids- en warmteproductie zouden gaan geven.
Kweenie of de technologie gepushed wordt door de thuisgebruiker. Er zijn bedrijven zat die al jaren databeesjes van tig TERAbytes groot hebben/beheren,
dus dat vanuit die hoek gewenst wordt eens een fiks formaat HD te ontwikkelen lijkt me onvermijdelijk. De neiging van die databeesjes is dat ze steeds maar groeien ...
100 Gieg voor de thuisgebruiker toch wel ruim voldoende
En waar moet ik al die DVD images dan kwijt :? De bedoeling van vooruitgang is dat het steeds meer wordt. Het valt mij eigenlijk tegen dat Harde schijf fabrikanten er niet meer aan doen om applicaties te maken die grote HD's nodig hebben. Denk hierbij aan Harddisk recording en andere video toepassingen b.v. video bewaking op high res 24 uur per dag. Mischien zelfs High quality ongecomprimeerde audio voor de audio freaks.

Intel doet b.v. wel zijn best met de processor door spraakherkeningstechnologie te verbeteren met meer processor power.
meeste mensen hebben 2 of 3 hardeschijven in hun pc zitten en komen nu al het probleem tegen om hun hdtje vol te maken met software ( 200-300 gig )

[Mijnmening]

komt er in 2004 de 1 terabyte dan raak je in principe gewoon je software kwijt op je hd ;)

het is dan meer om uit te sloven van "ik heb lekker een 1 TB hd"

[/Mijnmening]
laten we zeggen dat ik per gig 1 film kwijt ben (overdreven maar goed) dan kan ik op zo'n schijfJE van slechts 1TB maar 1000 films kwijt. In rauwe DVD formaat zouden het slechts ongeveer 250 zijn... sorry hoor maar dan raak ik mijn films nog niet kwijt :)
* 786562 Martijn
Zal de hoge dichtheid niet erg moeilijk zijn te produceren, iets wat de prijs als een raket de lucht in schiet meestal ;)
EINDELIJK een ontwikkeling wat de overdracht-snelheid omhoog zal helpen. Want dat S-ATA 150 of binnenkort zelfs 300, is wel leuk maar je HD moet dat wel aan kunnen. Nu wordt het pas echt interresant. :) Is USB3.0 ook ineens een stuk realistischer. ;)

En de mobo`s zullen ook veel sneller moeten worden. Want een paar PCItjes van 133MB, RAID Sata van 150, USB2 en FireWire, dat vraagt nogal wat van de Southbridge. >1GB/s is dan toch wel lekker.
Damn wat gaat die technologie toch snel... (te snel, niet bij te houden :( )
Ik denk niet dat er in 2004 ineens spectaculair grotere betere snellere hd's op de markt zullen komen. Als Seagate echt een grote technologische voorsprong heeft, zullen ze dat stapje voor stapje uitmelken.
Vertikaal? Is dat als in multi-layer?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True