Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: TG Daily

Fujitsu beweert dat het de capaciteit van harddisks met een factor vijf kan vergroten dankzij de 'patterned media'-technologie. In theorie zou een verhonderdvoudiging ook mogelijk zijn, maar wanneer de technologie op de markt komt is nog onbekend.

Schematische voorstelling 'patterned media' Het nadeel van de huidige harde schijven is dat de magnetische laag, waarop data wordt opgeslagen, één geheel is. Daardoor kan het gebied waarin een databit wordt opgeslagen, vrij eenvoudig invloed uitoefenen op andere gebiedjes. Als de afstand tussen twee bits te klein wordt, kan overspraak optreden, wat tot dataverlies leidt. Dit fenomeen staat bekend als de 'superparamagnetische limiet'. Met perpendiculaire opslag kunnen bits dichter opeen geplaatst worden, maar ook die techniek heeft last van de superparamagnetische begrenzing. Bij patterned media zijn er echter fysiek gescheiden eilandjes waarop de data wordt opgeslagen, en dat maakt een radicale vergroting van de maximale opslagcapaciteit mogelijk.

Antieke 20MB-schijf Het huidige opslagrecord is in handen van Seagate, dat ruim vierhonderd gigabit op een vierkante inch kwijtkan - dat is ruim tweemaal zoveel als de dichtheid van commercieel verkrijgbare harde schijven. Wetenschappers denken dat de limiet van perpendiculaire opslag ongeveer een terabit per vierkante inch is, maar met patterned media zou een informatiedichtheid van maar liefst 20 tot 40 terabit op dezelfde oppervlakte kunnen worden behaald. Fujitsu zou de nieuwe technologie momenteel kunnen gebruiken voor 1Tb per vierkante inch, wat neerkomt op harde schijven van een terabyte of vijf. Op notebookschijven met een diameter van 1,8" zou met deze informatiedichtheid nog altijd een halve terabyte opslag kunnen worden geboden. Hoewel er nog met geen woord over een eventuele marktintroductie wordt gesproken, lijkt Bill Gates met zijn stelling dat blu-ray en hd-dvd mede dankzij hardeschijfopslag geen opvolgers zullen kennen, dicht bij de waarheid te zitten.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (62)

en ze blijven de opslag maar vergroten, ik heb liever dat ze met goedkopere hd's komen die lekker snel zijn want nu is nog steeds de hd de traagste factor in een pc
Goedkoop, snel of betrouwbaar. Kies een willekeurige combinatie van 2 van deze eigenschappen en verlies steevast de 3e. Oftwel, wie wil niet voor een dubbeltje op de eerste rang zitten, maar wie het onderste uit de kan wil krijgt zijn lid op zijn neus.

Oftewel, de meeste dromen zijn bedrog. Doe mij maar een grote dure schijf die nooit stukgaat, en voor de snelheid wat extra RAM.

@friend & @dreamvoid: Je moet geen appels met peren vergelijken, die dure harddisk van 20 jaar geleden die om de haverklap crashte, was betrouwbaarder dan zijn iets goedkopere variant, natuurlijk kan je die niet met een huidige schijf vergelijken. Als je nu een single platter/single head consumentenschijfje koopt, dan moet je op 3 tot 5 jaar rekenen bij normaal gebruik. Die is dan goedkoop, middelmatig snel en middelmatig betrouwbaar. Geef je 2 keer zoveel geld uit voor een half zo grote SCSI schijf, dan heb je een schijf die niet goedkoop is, maar wel erg snel en het 5 jaar of meer doet onder zwaar continugebruik.
Dan heb je het tijdperk van de XT computers nog niet meegemaakt (of kijk je door een wel heel nostalgische roze bril): 6000+ gulden voor een PC met een glorieuze 4.77 MHz processor, en betrouwbaarheid, nou...harddisks crashten bij het leven (even tegen de tafel stoten was al voldoende), (backup) floppies liepen om de haverklap vast met een fraai schurend geluid, de coax netwerken waren continu in staat van reparatie (1 draadbreuk en je hele netwerk lag plat, hoera) en de monochrome beeldschermen werden na een jaar al te wazig om op te werken.

Het enige goede aan die dingen waren de behuizingen (kilo's staal) en de toetsenborden (idem).
Dat toetsenbord gebruik ik dan ook nog steeds. Geen XT in dit geval, maar PS/2 IBM model M keyboad uit 1989 (heb er nog 3 aangesloten staan). Ik zou dat met die harddisks uit die tijd niet meer doen.
Sweet memories:

- Die 5,25 inch floppies gingen eigenlijk nooit kapot, al was iedereen daar vaak wel bang voor.
- De monochrome beeldschermen hielden het best lang vol, langer dan veel kleurenschermen.
- Harde schijven, ja daar was wel het een en ander mee. Maar je kon de show stelen door een niet startende schijf met een schroevendraaier een zetje te geven tegen het asje.

Er was wel een groot verschil in de kwaliteit van componenten. En inderdaad ik heb ook nog twee originele IBM toetsenborden met klikje - de beste die er ooit zijn gemaakt.
De originele groene IBM schermen waren anders oerdegelijk, hooguit dat ze nog wel eens wilden inbranden. Dus zou de rest misschien ook wat overdreven zijn? En ja, ik heb nog gewerkt op IBM 5150 PC's met 256KB RAM, 1 5,25" 360KB FDD en een 5153 CGA monitor erbovenop. En ja, dat was hardstikke duur spul, maar wel ongeveer het beste dat er toen was in die categorie.
@Jwvirtual:
Een klikje op een toetsenbord is totaal overdreven.
Alsof je vingers niet voelen of je de toets indrukt...
Onzin om die drie aan elkaar te koppelen. Misschien geldt het op 1 tijdstip, maar in de loop der tijd worden voortdurend nieuwe materialen, technieken en productiemethodes ontwikkeld die betrouwbaardere producten opleveren en toch goedkoper zijn dan het oudere product. Meer betrouwbaarheid en betere technieken resulteert meestal ook in minder uitval bij productie, en afhankelijk van de materialen, ook goedkoper produceren (natuurlijk meestal niet al aan het begin van het ontwikkeltraject, maar bij volledige in productie). Er zijn genoeg voorbeelden te vinden van 10 jaar geleden (waaronder de harddisk zelf) waarbij nu meer capaciteit/snelheid, hogere betrouwbaarheid voor een lagere prijs geleverd wordt.
Als de datadichtheid wordt vergroot met een factor vijf en de rotatie snelheid gelijk blijft, dan neemt ook de doorvoersnelheid met een factor vijf toe.
Het probleem is echter dat data verspreid over de schijf staat en dat er meestal meerdere omwentelingen nodig zijn om één bestand te openen. Door het toerental te verhogen, wordt de zoektijd terug gebracht. Een combinatie van data dichtheid + rotatiesnelheid verhogen zal dus tot aanzienlijk snellere schijven tot gevolg hebben.
Dit is goed te zien bij de laatste SAS server harddisks van HP. Deze schijven zijn er in 3,5" en in 2,5" waarbij de 2,5" bij gelijke capaciteit een hogere doorvoersnelheid heeft, een lagere zoektijd en minder energie verbruik heeft.
Een nadeel is echter dat er nog niet veel meer dan 146GB op één schijf past bij 10.000rpm.
Een ander voordeel is wel weer dat er nu 8 in plaats van 6 schijven in een 2U rackmount server passen en er dus een 2 disk raid 1 array + een 6 disk raid 5 array gemaakt kan worden of dat er een 8 disk Raid 1+0 array gemaakt wordt met een capaciteit van een halve TB. Zeer snel met lezen én schrijven en ook nog redundant.

Door de nieuwe technologie zullen ook deze 2,5" schijven naar 300GB, 500GB of nog groter gebracht kunnen worden met behoud van toerental en dit is een echt plus punt.
De doorvoersnelheid neemt dan met wortel 5 toe aangezien de dichtheid vergroot wordt zowel in de leesrichting als loodrecht hierop.
het opvoeren van de rpm heeft GEEN invloed op de seektime, enkel op de access time
integendeel, als de deeltjes alsmaar kleiner worden, wordt het moeilijker om de lees/schrijfkop juist te positioneren en kan de seektime dus verhogen
Wie zegt dat de lees snelheid van de leeskoppen de bottleneck is?? :)
Idd!

Ik zie het al volledig voor mij, een server met Windows home server in de kelder met daarin een raid 5. Glasvezel tot in huis en dan alles simpelweg streamen. Met IPv6 zou iedereen in staat moeten zijn een eigen IP adres te krijgen waardoor ftp server en dergelijke op gebruikersniveau toegankelijk is.

Geen MP3 spelers met eigen hd meer , gewoon MP" speler met soort van wifi connectie, stremaen maar!

Bij een vriend thuis film willen zien via zijn media center, geen probleem, even connecteren met je home server thuis en streamen maar! Natuurlijk zal drm het grootste struikelblok zijn na die glasvezelverbinding.

Maar het zou techniesch allesinds mogelijk moeten zijn.
Er zijn technisch zoveel dingen mogelijk. Dat is waarschijnlijk het minst moeilijk te overbruggen probleem.
Waar je vervolgens het geld vandaan haalt is een tweede.
Het hoeft niet duur te zijn.

Ik heb voor 150 euro een paar jaar geleden een Pinacle Show center gekocht die d.m.v. WiFi aan mijn net werkt hang en alle media bestanden van mijn PC afspeelt ik kan dus op mijn TV/DVD/Surround set Films kijken muziek luisteren (Radio en mp3) en zelfs surfen al doe ik dat liever gewoon op mijn Pc...

Dus het was al een paar jaar mogelijk
Hoe hoger de datadichtheid hoe hoger de doervoersnelheid is van een harde schijf.

Toegangstijd verkort je er niet door maar vergelijk maar eens een 7200 RPM schijf van 5 jaar geleden met een moderne.
want nu is nog steeds de hd de traagste factor in een pc
Wat een onzin. Er is niet een bepaalde bottleneck in PCs. Verhoog voor de grap de snelheid van je HDD met een factor 2. Kun jij dan twee keer zoveel werk uitvoeren op die PC?
Uiteraard is de gebruiker nog trager. Maar die zit dan ook niet in de pc :)
Ik denk dat hij bedoelt dat je dan veel minder naar laad- en opstart schermpjes zit te kijken, en dat scheelt wel degelijk. Dus - in sommige gevallen - wel minder tijd en dus meer rendement.
Het liefst een harde schijf in de vorm van deze magnetische schijf en dan een array van koppen die stationair boven de bits hangen, geen draaiende onderdelen meer, geen accestime (elke kop hangt boven een bit).
Zal technisch moeilijk of onmogelijk zijn, maar waarom niet eens concentreren op iets anders als capaciteit...
@GH45T:
Een kop boven elk bitje lijkt me niet logisch, maar een kop boven elke cirkel van bitjes wel (middels een array). Dan moet je uiteraard aan veel kleinere koppen denken. De schijf draait dan nog wel, maar de koppen hoeven niet heen en weer.
Dan kun je beter meteen flash geheugen gebruiken.

zie je het al voor je, voor elke bit een kop op je harddisk. Dat is toch hardstikke onrendabel. Ten eerste past er dan bijna niets meer op je harddisk en ten tweede is dat enorm duur.

Flash geheugenchipjes, intern door middel van een soort RAID techniek aan elkaar koppelen en je hebt lage toegangstijden en hoge data doorvoer zonder bewegende delen.
Flashgeheugen is nu nog duurder dan gewone hardeschijven qua opslag.
Dit is als het ware verdubbelen. meer = sneller... Natuurlijk werkt het. maar dit is een signaal dat je tegen het maximale van de techniek zit... Ik zit meer te denken aan 3D opslag waarbij iedere molecuul 1 bit is.... :9
Als we dan na het Blu Ray/HD DVD tijdperk alles moeten gaan downloaden hebben we wel een heel stuk snellere internet verbinding nodig.
Dit maakt natuurlijk niets uit. Data die nu op een dvd wordt aangeleverd wordt straks gewoon op een HD en / of flash media aangeleverd. De kosten hiervan zullen ook drastisch dalen.
Dat zou wel heel mooi zijn, koop je een film, houd je een hd over als je ehm niet meer wil kijken, maar dan komt er vast wel weer een idioot die een hd tegen schrijven probeert te beveiliggen>.<
Waarom zouden de kosten van HDDs dalen? Ik weet vrij zeker dat ze nooit zo goedkoop zullen worden als de productiekosten van een DVD. Voor Flash geldt waarschijnlijk hetzelfde.
Gelukkig worden er tegenwoordig glasvezels tot in de huizen gelegd, dus dat is er tegen die tijd ook wel.

En dus is er dan ook weer vraag naar dit soort schijven. :Y)
als je kijkt naar de huidige ontwikkelingen lijkt het er op dat tegen die tijd iedereen glasvezel heeft.... met n paar verbeteringen kun je met 100mbit wel hd-tv streamen schat ik...
HD's zijn al spotgoedkoop. En zoals iedere keer bij dit soort berichten gezegd: als de dichtheid hoger wordt, wordt de snelheid ook hoger. Er komen meer bitjes per omwenteling langs, dus hogere doorvoer. En de schijven kunnen relatief klein blijven, dus lagere gemiddelde seektime.

Zouden dit soort schijven nou eindelijk de nekslag voor tapes worden?

@Force: tapes hebben al nauwelijks nog een voordeel in datadichtheid, en met de ontwikkelingssnelheid van HD vs tape zal dat laatste beetje snel verdwijnen. Er is niets wat je weerhoudt je (hot-pluggable) HD's off-site op te slaan. Wat voor voordelen blijven er dan nog over voor tapes?
De nekslag voor tapes?

Leuk dat je je data kan backuppen naar een andere HD, maar ik vind het toch altijd wel prettig om een tape buiten het bedrijfspand/huis te hebben. Want dan heb je bij brand bv. in iedergeval nog een backup. De tape zal daardoor denk ik voorlopig nog niet verdwijnen.

De tape backup industrie zal echter wel weer met een ontwikkeling moeten komen. Want waar ga ik een schijf van 5TB op backuppen ?
Ik, als prive persoon, draai backups over mijn netwerk.
De backup PC staat in een andere ruimte dus al wat veiliger dan op 1 locatie.
De backups pc heeft extrene HDs.
Ik rouleer die externe HDs.
De backups worden in een andere woning bewaard.
Dus daarvoor heb je echt geen tapes nodig.
Wij backuppen normaliter naar een NAS server in het datacentre....die backups worden echter 's nachts ook weer naar een externe lokatie gesynched....dus lokaal de backups voor het makkelijk en snel restoren en extern voor de veiligheid...maar wel allemaal op disk...Tape is in ons geval gewoonweg niet in staat om alle data op te slaan....in elk geval niet zonder dure tape robots etc.
Hoeveel data gaat het hier om?
De meeste grotere bedrijven met laten we zeggen, 500 tot 1500 werkplekken, zitten tegenwoordig (afhankelijk van het soort bedrijf) met 1 tot 5 TB aan data.
Backup van 1 full naar disk + 5 incrementals is nog wel te doen naar goedkope storage, maar een grandfather, father, son backup, dus een dagelijke, wekelijkse, maandelijkse en jaarlijkse backup wordt dan erg duur.
Je moet een appart SAN neerzetten om je backup's op op te slaan, want een NAS is te klein en te traag.
1 tot 5 TB repliceren naar een andere locatie kan wel als er minimaal 1GB Ethernet of FC tussen ligt. Via deze verbinding duurt het minimaal 2,5 tot 3 uur voordat 1TB gerepliceerd is. 5 TB repliceren duurt dus 12,5 tot 15uur en dan moet je die lijn nergens anders voor gebruiken, anders gaat het nog veel langer duren.
Ik denk dat een tapelibrary met 1 of 2 LTO2 of zelfs LTO3 drives in jullie geval wel eens goedkoper kan zijn dan wat je nu doet en zeker meer betrouwbaarheid biedt. De library rechtstreeks aan de NAS en dan naar tape.
Op een andere schijf ?
Zo mogen ook wel wat aan de betrouwbaarheid doen, als je ineens bijv. 5TB verliest is dat toch ongelooflijk veel.
De hoeveelheid maakt niet uit.
Dan gebruik je toch RAID?
patterned
Zou daar ook zo´n grappig filmpje van zijn?
Want ik snap de tekening niet.
Mooi. Nog meer ruimte per inch, dus nog snellere schijven.
Wanneer beginnen ze? :7
voor volledig hoge definitie te streamen met hoge kwaliteit (vergelijkbaar met hd-dvd/blueray) is 2,2 gbit/s nodig. Haal dat maar eens via internet, niet de komende paar jaar.
Dat is niet waar. Film’s op HD-DVD en Blu-ray zijn maar 25-35 Mbit/sec. Uncompressed 1080p video haalt nog niet eens de 2,2Gbit/sec.
Nou volgens deze site komen ze wel aardig in de buurt:

Television studios aswell as production and distribution facilities, use HD-SDI SMPTE 292M interconnect standard (a nominally 1.485 Gbit/s, 75-ohm serial digital interface) to route uncompressed HDTV signals.
En hoe zit het met de snelheid van die schijven?
Ze kunnen wel lekker de grootte op blijven schalen,
maar als de snelheid niet parallel mee ontwikkeld, dan
loop je op een gegeven moment tegen het probleem
dat het kopieeren van data weel heel erg lang gaat duren.

Eigenlijk is dat nu al een probleem. Doe maar eens een
flinke defragmentatie job op een 500GB schijf. Daar moet
je dus wel even wat tijd voor uit gaan trekken.
Met veel linux based filesystems hoeft al helemaal niet meer gedefragmenteerd te worden. Ik neem aan dat MS ook niet al te lang op zich zal laten wachten met een verbeterde nfts die ook helemaal niet meer gedefragmenteerd te worden.
sinds wanneer zijn er linux based filesystems?

Je doelt op filesystems die ook onder Linux draaien.

Als het echt gaat om revolutionaire filesystems moet je richting MS gaan met zijn nog steeds niet verschenen WinFS of het reeds beschikbare ZFS van SUN. ( hoewel nog niet uitontwikkeld)
De fragmentatie op FAT en NTFS heeft alles met legacy en thuisgebruik te maken. Toen microsoft met FAT kwam waren de hardeschrijven erg klein en zeer duur. Alle inodes moesten dus worden benut. De oplossing hiervoor is bestanden over meerdere locaties wegschrijven.

Dit betekend dat als je een bestand hebt wat 6 inodes nodig heeft, het bestand over 4 + 2 inodes kan wegschrijven. Bestands systemen zoals reiserfs, ext2, etc zoeken naar een positie waar achter elkaar de 6 inodes weggeschreven kunnen worden. In de praktijk betekend dat eigenlijk dat je eigenlijk niet je harddisk voor 100% kunt benuten. Mocht je schrijf bijna vol zijn, er zijn slechts 1 + 2 + 1 + 2 inodes beschikbaar, dan zal ntfs de 4 locaties gebruiker, terwijl ext2 zal aangeven dat de paritie vol is.

Echter tegenwoordig zijn de hardeschrijven zo groot, dat deze effectiviteit van de beschikbare ruimte niet meer echt nodig is en bestanden als opeenvolgende inodes weggeschreven kunnen worden. Overgens bestaan er voor ext2 en dergelijke bestands systemen wel 'defragmentatie' tools, maar deze zetten eigenlijk alle bestanden achter elkaar.

Dit soort 'defragmentaties' zal in de toekomst ook steeds minder nut hebben, omdat harddisk steeds slimmer worden en zelf al de data verdeeld over de schrijf zetten zodat de harddisk zelf langer meegaat (minder corrupte inodes).

WinFS zal het defragmentatie probleem niet oplossen omdat WinFS een combinatie van SQL2005 (metadata) + ntfs (fysieke opslag) is.

Wel heb ik al een aantal geruchten gehoort van een aantal Microsoft developers (Ami Vora en Mark Jewett) dat WinFS een uitbreiding vergelijkbaar met Fuse zal krijgen, wat zou beteken dat alles een filesystem kan worden. Dit is (helaas) nog niet bevestigd door officiele bronnen.
Tenzij je de hardeschijf indeelt.

Dan hoef je namelijk alleen dat gedeelde te defragmenteren dat nodig is.

Bijvoorbeeld:

D: Muziek
E: Video
F: Backup
G: Software
..lijkt Bill Gates met zijn stelling dat blu-ray en hd-dvd mede dankzij hardeschijfopslag geen opvolgers zullen kennen, dicht bij de waarheid te zitten
LOL, Geloof ik niks van. Er wordt veel te veel geld verdient op losse media zoals de DVD en straks de HD versies. Ik denk dat deze vervangen zullen worden door holografische schijven, en dat HD's nog steeds voor vaste apparatuur gebruikt gaat worden. Want zolang er een koppie over de HD platter zweeft zal het nooit geschikt zijn voor portable devices die moeten functioneren terwijl ze in beweging zijn.
Onderschat solid state en flash niet. Ik voorzie zelf ook het einde van optische schijfjes. Dikke internetpijp en grote harde schijven, veel makkelijker. Draai zelf ook alles al vanaf images zoveel mogelijk. Mijn volgende pc krijg echt geen optische drive meer hoor...
weet je waar veel geld mee verdiend wordt? Met die
gammele hardeschijven. HDD's blijven het meest kwetsbare
onderdeel van ieder systeem, die dan ook het vaakst en het
snelst kapot gaan. Ik durf zo te beweren dat HDD's de
meest verkochte computer onderdelen zijn.
Eigenlijk is het diep triest dat we vandaag de dag nog steeds
met schijven lopen te kloten. We zouden allang een andere
manier van data oplsaan moeten hebben. Maar wat dat
betreft hoef je van de fabrikanten geen ontwikkelingen te
verwachten. De huidige gang van zaken brengt ze veels
te veel geld in het laatje. En dat willen ze lekker houden zo.

Ik bedoel, het is toch eigenlijk belachelijk dat we met
oplossingen als RAID-5 en RAID-6 moeten werken en
alvast een paar reserve schijven op de plank hebben
liggen voor als er weer een schijf uitflikkert! Want je weet
gewoon dat dat gaat gebeuren. Voor zover ik weet
hebben de meeste ICTers alleen schijven reserve. Maar
verder niks. Geen reserve geheugen of netwerkkaarten.
want die gaan haast toch nooit stuk (de uitzonderingen
daar gelaten, natuurlijk)

Nee, de huidige gang van zaken is |:( :r imho.
Dit idee om een patroon te maken op de magnetisch laag is helemaal niet nieuw. Dat heb ik 5 jaar geleden al op de UT gezien. Het enige nieuwe zou zijn als Fujitsu het dusdanig vervolmaakt heeft, dat het het ook inderdaad nu op de markt brengt. Maar daar wordt met geen woord over gerept...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True