Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties

Seagate heeft een nieuwe opnametechniek voor harde schijven in de steigers staan. Wanneer de huidige perpendiculaire techniek zijn grenzen bereikt, zou een opnametechniek met warmte alsnog grotere capaciteiten mogelijk maken.

Seagates mogelijke opvolger van de perpendiculaire opnametechniek heet heat-assisted magnetic recording. De 'hamr'-techniek kwam in 1998 in handen van Seagate, toen het het bedrijf Quinta overnam. Seagate gebruikt een normale lees- en schrijfkop voor zijn hamr-schijven en verhit daar kleine ijzer-platinadomeinen mee. De hamr-techniek zou over enkele jaren gereed zijn om de pmr-techniek op te volgen.

Pmr zou nog enkele generaties meegaan, zo vertelt Mark Re, een van Seagates topmannen op het gebied van opnametechnieken, aan website ConceivablyTech. Over drie tot vijf jaar kan de opslagdichtheid echter niet verder worden vergroot. Bij de introductie van pmr, rond 2005, werd voorspeld dat een dichtheid van ruim 1Tb per vierkante inch haalbaar zou zijn. De huidige drives zitten rond de 500Gb per vierkante inch; het bedrijf kondigde recent een schijf met een dichtheid van 700Gb/inch² aan. De nieuwe hamr-techniek zou dichtheden van tientallen Tb's per vierkante inch mogelijk maken, wat de opslagcapaciteit van harde schijven tot honderden terabytes zou opdrijven.

Er wordt ook aan andere technieken gewerkt die de datadichtheid kunnen vergroten. Een kanshebber is de patterned-mediatechnologie. Die techniek zou volgens Re een goede kans maken om hamr op te volgen; patterned media in combinatie met hamr, zou vervolgens de opslagdichtheid tot voorbij de 50Tb/inch² kunnen opvoeren.

Seagate hdd

Reacties (95)

Reactiefilter:-195094+165+21+30
Moderatie-faq Wijzig weergave
Bovendien dist die man van Seagate in het bronartikel ssd's nog even door te zeggen dat er niet genoeg flash-geheugen op de wereld is om de huidige harde schijven te vervangen. Goed punt wel :)

@hieronder
Met al die datadichtheid wordt de betrouwbaarheid er vast niet beter op...
Inderdaad. Ik vind het dan ook wel bijzonder dat een topman van Seagate zegt:
we should not expect hard drives to improve their reliability in hardware. Instead, Seagate is pushing software innovation and is telling users to back up their data regularly.
|:(

[Reactie gewijzigd door woekele op 11 augustus 2010 10:19]

Ja, maar daar ga je het op den duur ook niet mee redden. Momenteel word je al niet vrolijk van de rebuild-tijden van een kapotte 2TB disk in een raid-5 of raid-6 array, en dat wordt in de toekomst alleen maar erger. En zelfs met triple-parity raid haal je alleen een lapmiddel in huis.

Ik denk dat de traditionele harddisk verbannen gaat worden tot backup disk, in systemen waar de disks niet vaak hoeven op te spinnen (ook weer voor het "green" idee), en dat de primaire opslag toch naar SSD's gaat. Want hoewel de grens voor de grootte van harddisks nog lang niet bereikt is, gaat de snelheid niet navenant omhoog.
Harddisks zullen voor de komende tijd blijven als mass-storage devices.

Je kan binnen redelijke tijd hiŽrarchisch opslag oplossingen binnen de consumenten branch verwachten. SSD worden goedkoper dus een combo aantrekkelijk.

HiŽrarchische opslag is een transparant systeem die data opslaat zonder dat de gebruiker/applicatie weet waar de data opgeslagen is. De primaire opslag is dan SSD, met een HDD/internet opslag als secondair opslag. Veel gebruikte data is dan snel beschikbaar. Minder vaak gebruikte of 'bulk' data zit op de HDD en wordt direct ingelezen en/of 'gecached' naar de SSD. Het opslaan van bestanden zal dan snel op de SSD gebeuren en op de achtergrond naar de HDD opgeslagen worden.
Er zijn vele combinaties mogelijk binnen hiŽrarchische opslag. Binnen enterprise oplossingen gebruikt je natuurlijke grote RAID-6 arrays met raptor of ssd primaries. Maar binnen de consumenten branch verwacht ik ssd met enkele HDD en automatische opslag op internet als backup. Geheel transparant.

Hetzelfde 'principe' zie je al in een paar 'ssd cache' oplossingen die een ssd gebruiken als cache voor een harddisk via een pci-e kaartje.
De hiŽrarchische structuur is dan een volatile ram cache, involatile ssd cache en involatile HDD mass-storage.
Seagate is hdds met ingebouwde ssd aan het maken. Dan kan de HDD vaker idle en dus energiezuiniger zijn en gaat langer mee.

Voor nu is hiŽrarchische opslag het domein van IBM en consorten, maar dat gaat wel veranderen.

[Reactie gewijzigd door DFyNt2U op 11 augustus 2010 11:14]

Alhoewel je leuke concepten aanhaalt en deze verschuivingen in de toekomst ook wel plaats zullen vinden heb ik toch wel een paar puntjes van kritiek hoor.

HiŽrarchische opslag heeft op zich niets met de techniek te maken, puur met een software/hardware laag die kiest waar welke informatie wordt opgeslagen. Bijna alle bedrijven gebruiken nu al een vorm van hiŽrarchische opslag: denk maar aan je normale SAN (voor de snelle toegang) en je tape (voor de duurzaamheid en bulk) opslag.

IBM heeft hele mooie geÔntegreerde omgevingen die dit doen, maar EMC en zelfs Dell hebben dit ook. Om nog maar niet van de software oplossingen hiervoor te spreken :)

En de meeste bedrijven gebruiken uiteraard geen raptor schijven, het merendeel heeft gewoon 10 of 15k schijven sneller en betrouwbaarder dan raptors. SSD wordt nog maar heel mondjesmaat gebruikt, voornamelijk door de imbeciel hoge kosten voor een bedrijfsomgeving (betrouwbaarheid, support).

En automatische opslag op internet als backup is er wel al en wordt ook gebruikt. Toch durf ik te betwijfelen of dit ooit dť backup oplossing gaat worden. Technisch gezien geen probleem. Maar qua beveiliging is alleen het gevoťl dat jou data niet meer 100% bij jou in beheer is al genoeg om veel bedrijven en particulieren tegen te houden, wat mij betreft met recht.
Als dit soort toepassingen beter in het OS worden geÔntegreerd kan de ontwikkeling heel hard gaan.

Als bij de ontwikkeling van software beter wordt nagedacht over of de data snel toegankelijk moet zijn, vaak veranderd of extern toegankelijk moet zijn, kan het combineren van SSD en HDD i.c.m. Online of Offside storage heel aantrekkelijk zijn.

OS en Software op SSD, Media op HDD en Backup Offside.
Offside kan dan ook encrypted bij vrienden, familie of hosting provider.

Daarnaast een duidelijke scheiding tussen PC voor gebruikers imput en visualisatie en een Server voor de data en software welke ook van buiten af te benaderen is door de PC.
wat jij aanhaalt is Unified Storage zoals het momenteel al geÔmplementeerd is Windows Phone 7.

*edit* moest als reactie op DFyNt2U zijn

[Reactie gewijzigd door dasiro op 11 augustus 2010 12:06]

Gewoon dat wat Linux al jaren heeft dus, en BSD/Solaris met ZFS ook al een stuk langer beter doet.

[Reactie gewijzigd door johnkeates op 11 augustus 2010 14:57]

Je hebt gelijk dat HiŽrarchische opslag in principe een software/hardware laag is. Waarom ik de methode aandroeg was omdat Anton stelde dat HDD uiteindelijk slechts als backups gebruikt gaan worden, wat naar mijn idee niet gaat gebeuren aangezien HDD een 'middel' rol spelen in HiŽrarchische opslag.

Tuurlijk is IBM niet de enigste, maar m'n punt was dat het gaat om enterprise oplossingen. Wat ik graag wil is dat het mainstream is.

hmm, ja, database servers kunnen beter RAMSAN-achtige oplossingen gebruiken ipv SSD aangezien zulke servers backup-voedingen hebben en RAMSAN veel hogere performance heeft (maar duurder is dan SSD). Je wilt toch echt dat zodra data de cache verlaat dat het 'echt' weggeschreven is. Bij consumenten valt de voeding nog wel eens weg.
Even een voorbeeldje met wat aannames, stel dat ik als consument een storage-controller met cache, ssd en hdd als gelaagde opslag heb. een hdd kan niet vanaf een nood-condensator draaien, ssd kortstondig wel. De cache ook. Dus als m'n voeding uitvalt kan de controller kort nog de cache in de ssd dumpen en al m'n data is veilig. (Het gaat hier niet om filesystem-cache).
De enterprise oplossing is vanzelfsprekend niet geschikt voor consumenten maar hetzelfde principe maakt van de technieken ťťn geheel.

Internetopslag, ik zelf zou er niet aan beginnen tenzij ik er persoonlijk een AES-256 overheen kan zetten, maar met al die cloud-hypes zullen we het wel vaker zien. In feite zie je het al in embedded oplossingen (blackberry bv). Of het hťt gaat worden is denk afhankelijk van toekomstige politieke besluiten aangaande het internet.

@ajakkes: Microsoft heeft dat soort zaken al in z'n server oplossingen, het is dus een kwestie van wachten. Ook op linux is men bezig, ook al ben ik nog niets 'mature' tegengekomen. Ik geef toe dat ik al een tijdje niet gecheckt heb, maar heel hard zal het niet gaan omdat sommige zaken beschermd zijn door patenten. :(

@dasiro: Je hebt het over dit nieuwsbericht? Dat klinkt meer als een layered filesystem. In linux heb je dat soort dingen veel op live-cds en mini-distros (bv. unionfs). Maar ik in vmware snapshot, Sandboxie, thinapps, enz enz.
Data op de microsd blijft ongewijzigd. Het OS slaat wijzigingen op in een apart geheugen. Ook Symbian gebruikt het om wijzigingen in RAM op te slaan met ROM als basis. Dit is verschillend dan HiŽrarchische opslag welke data tussen de verschillende media heen en weer verplaatst. Laat me weten als ik het verkeerd heb.
Zo heb ik het nog nooit echt bekeken, maar dat is misschien wel het beste dat we kunnen doen met zon SSD.

i.p.v. het rijtje L1, L2, L3, Ram, HDD.
wordt het dan L1, L2, L3, Ram, SSD, HDD.

In principe is dat ook nodig, want alles wordt sneller, zowel alle caches en het RAM, alleen de HDD die blijft achter, dus komt er een groter gat tussen het RAM en de HDD dat opgevult moet worden. Daar zal de SSD nog wel van pas komen.
Dit is precies wat ZFS al (sinds 2008) heeft met L2ARC: http://blogs.sun.com/brendan/entry/test

Ze gebruiken een snelle SSD als "Level 2" cache. In RAM wordt de "Level 1" cache bijgehouden.

Op Solaris en FreeBSD kan je dit nu al gebruiken.
Precies, maar om dat al die neppe *ict-ers* dat nooit mee zullen maken in de gesloten windows wereld denken ze dat het nog niet bestaat.
automatische opslag op internet als backup.
Daar zijn toch ook weer extra Hard Disks (in servers) voor nodig. Dus het doorgaan van de capaciteits vergroting blijft welkom.
Want hoewel de grens voor de grootte van harddisks nog lang niet bereikt is, gaat de snelheid niet navenant omhoog.
Zeker wel. Sure, seek times blijven gelijk, maar hoe groter de datadichtheid hoe sneller de bits binnenkomen bij een gelijkwaardig toerental.
Toch niet, en wel om de volgende reden:

Als je schijf 4x zo groot is, betekent dat dat de bits 2x zo klein zijn (in 2 dimensies). Dat betekent dat er slechts 2x zoveel bits per seconde voorbij je head komen. Hierdoor heb je dus bij elke dichtheid verdubbeling een snelheidstoename van wortel twee. Het zal dus steeds langer duren om je schijf vol te schrijven of helemaal te lezen.
Ik bedoelde ook niet evenredig, maar ik zie nu dat Anton dat wťl bedoelde. Mijn fout. Even over het woordje "navenant" heengelezen.

[Reactie gewijzigd door .oisyn op 11 augustus 2010 11:59]

Je moet het van 2 kanten zien.

Massaopslag zal nog steeds op hdd's gebeuren. Foto's vooral raw bestanden nemen aardig wat plaats in. Neem je verzameling home make hd films ook aardig wat.

Natuurlijk zullen ssd's steeds goedkoper worden en marktaandeel pakken. Je opstart schrijf in je pc zal over een paar jaar standaard ssd zijn en een hdd voor massaopslag.

In serverracks zie je nu nog steeds hdd's maar ss'd komen al en zijn bijv ideal voor database server vanwege hun snelle toegangstijd.

Er treed dus zeker een verschuiving op en langzaam zal het marktaandeel van de hdd minder worden.

Blijft natuurlijk wel dat we steeds meer data krijgen en een hdd is dan een goedkoop opslagmedium. Ik heb nu in mijn pc een 1,5 tb schijf en 2 idem extern als backup.
Daar sla je de spijker op zijn kop... capaciteit genoeg maar een disk blijft gevoelig voor schokken van buitenaf.

Ik zie vaak dat externe disken en laptop hdd's stuk gaan doordat ze verhuist worden terwijl deze aan staan.

Maar de vraag is hoe betrouwbaar zijn ssd's mbt. herstellen bij beschadiging van de geheugen blokken?
De data die op de ouderwetse hdd's staan zijn vaak nog te herstellen bij het constateren van bad clusters.

De gehele markt moet inzetten op ssd's, in mijn optiek bied het velen voordelen tov. de ouderwetse hdd's.
dan moeten die ssd's eerst maar es value for money gaan bieden. Ik kan voor minder geld een good old hd kopen die sneller is dan een ssd die duurder is. wij gebruiken 15K rpm, 2.5" SAS disks in ons database cluster, en die schijven zijn sneller en goedkoper dan wat er aan ssd te krijgen is.
Ik betwijfel dat je hdd's meer dan 100MB/s op 4KB random writes/reads kunnen halen...
Een hedendaagse SSD kan makkelijk 10 keer sneller zijn in een database omgeving, jij denkt vast nog aan de eerste SSD's met trage controllers.
wij gebruiken 15K rpm, 2.5" SAS disks in ons database cluster, en die schijven zijn sneller en goedkoper dan wat er aan ssd te krijgen is.

kan je die statement eventjes onderbouwen, met nadruk op het sneller gedeelte? O-)

(ps: ik geef de voorkeur aan benchmarks die zijn gedaan met 15k schijven en SSD's in dezelfde setup.)

[Reactie gewijzigd door flippy.nl op 11 augustus 2010 15:01]

De schijf is alleen gevoelig voor schokken als die aan staat, als deze uitstaat dan staan de lees/schrijfarmen in rust stand en bevinden zich dan niet boven de platters.
En een HDD gaat echt niet zomaar kapot hoor.

Een voorbeeld, ik heb een 40GB schijfje(2.5 inch). Ik heb dat ding al jaren en die is in die tijd vaak genoeg gevallen desondanks geen getik of data verlies dus om zo'n ding kapot te krijgen moet je toch flink smijten of uit een raam op 3 hoog laten vallen hoor.
Overigens als je een SSD laat vallen dan is de kans op schaden ook nog steeds aanwezig. Verbogen frame of gescheurde printplaat als die net op de punt valt.
De schijf is alleen gevoelig voor schokken als die aan staat, als deze uitstaat dan staan de lees/schrijfarmen in rust stand en bevinden zich dan niet boven de platters.
En een HDD gaat echt niet zomaar kapot hoor.
Toch wel, vele HD's hebben de rustpositie van de koppen boven de platters.
volgens mij is dat echt al heel heel heel oud.
toen had je nog een schakelaar op je HDD waarmee je de koppen kon vast zetten als je hem verplaatste.
[...]
Toch wel, vele HD's hebben de rustpositie van de koppen boven de platters.
Jawel, maar op een plek waar geen data beschadigen kan. Vroeger kon je met een apart 'park' commando de koppen daarheen verplaatsen.
Wij hebben een tijd SSD's geplaatst op schepen maar door het vele trillen gingen deze peperdure industriele SSD's veel vaker en sneller stuk als welke harde schijf dan ook!
Dat lijkt me een prestatie, volgens mij zitten er geen bewegende delen in een SSD, dus is er ook niets om stuk te gaan?
Stel dat de solderingen op het pcb zeer fijntjes en dus fragiel zijn zouden deze wel eens kunnen loskomen door zware trillingen.
Dat een harde schijf het dan wel blijft doen lijkt mij ook sterk.

[Reactie gewijzigd door peke op 11 augustus 2010 12:11]

Schokdempertjes eronder leggen, misschien is dat een oplossing?
Niet de data die op de bad clusters zelf staat over het algemeen. Al kunnen ze het lezen, bevat het meestal fouten.

Ben geen HDD expert, maar denk dat de quote die hierboven aangehaald wordt
we should not expect hard drives to improve their reliability in hardware
nog een redelijke understatement is. Het zal niet verbeteren, maar alleen verslechteren. Afhankelijk van hoe je er tegen aan kijkt in de ene opzet wat meer dan de andere, maar toch (bijv reliability per GB on disk of reliability in MTBF (gebruikstijd)).
Tja ik houd je niet tegen als jij compleet wil overschakelen naar SSDs, maar harde schijven bieden voorlopig gewoon heel veel meer opslag vergeleken met SSDs, en redelijke kans dat dat nog een hele tijd zo blijft.

Wat ik wel verwacht is dat het toch redelijk snel zal gaan gebeuren (laten we zeggen 5 jaar ofzo) dat het mainstream wordt om een SSD te gebruiken voor OS + programmas, en een normale harde schijf voor overige data. Al was het maar omdat je niet aan de gemiddelde consument kan uitleggen waarom hij een computer zou moeten kopen waar een 200GB schijf in zit als hij een stuk goedkoper er eentje kan kopen waar 2000GB in zit.
Inderdaad. Ik vind het dan ook wel bijzonder dat een topman van Seagate zegt:
we should not expect hard drives to improve their reliability in hardware. Instead, Seagate is pushing software innovation and is telling users to back up their data regularly.
Ik denk dat deze meneer van Seagate bedoelt dat hoe meer data je op een schijf zet hoe waarschijnlijker is dat delen van deze data verloren zullen gaan door beschadigingen. Simpel weg door dat bijvoorbeeld kleinere elementen om uit te lezen te gebruiken kun je meer elementen kwijt op een schijf meer elementen verhoogt de kans dat er 1 net niet helemaal lekker op 1 of 0 terecht gekomen is dan wel omvalt van 1 naar 0, met alle vervelende resultaten van dien.
Ik denk niet dat hij bedoelt de nieuwe technieken leveren minder betrouwbare schijven op maar wel meer kans dat er iets mis gaat gewoon omdat er meer onderdelen zijn waar iets mis mee zou kunnen gaan.

Dat SSD verhaal is trouwens helemaal waar. De hoeveelheid data op HDD's op deze planeet is zo groot dat het onmogelijk is dat er in de komende tien tallen jaren genoeg flash geproduceerd zal worden om dit allemaal te vervangen. En zeker als het ze echt lukt om enkele tientallen TB's in een 3.5" package te stoppen met een HDD dan is het wat capaciteit betreft voorlopig een gelopen strijd...
Maar het is niet ondenkbaar dat er ook op flash gebied een doorbraak gaat plaats vinden. Er wordt immers genoeg onderzoek gedaan nar dingen als biologische data opslag en andere methode om enorme hoeveelheden data op een zeer klein oppervlak op te slaan. Alleen staat veel van dit onderzoek in verhouding tot de HDD markt echt nog in de kinderschoenen.
Beetje vreemde opmerking IMHO van die Seagate gast.

Natuurlijk ligt er op dit moment niet genoeg flash geheugen op de plank om alle conventionele harddisks te vervangen, dat is een geleidelijk process.
heel geleidelijk want de hdd capacitijd per euro word bijna even snel groter als bij ssd's.
Inderdaad een bijzondere uitspraak. Schijven worden al steeds gevoeliger voor invloeden van buitenaf:
http://www.youtube.com/watch?v=tDacjrSCeq4
Bovendien dist die man van Seagate in het bronartikel ssd's nog even door te zeggen dat er niet genoeg flash-geheugen op de wereld is om de huidige harde schijven te vervangen. Goed punt wel :)
En dat zegt?... helemaal niets!

Net of het niet meer geproduceerd wordt, haha.

Net zoals er niet genoeg disken zijn straks met de 'hamr'-techniek om alle hard disken te vervangen, lol

[Reactie gewijzigd door DarkTemple op 11 augustus 2010 13:07]

Wat moet je toch met al die opslag, niemand download films, muziek en games want dat is illegaal. Ik kan me niet voorstellen dat een thuis gebruiker met een 50mb verbinding hier wat aan heeft, dat krijgen ze toch nooit vol? windows partitie van 30gb + data partitie van 250gb is meer dan genoeg voor een gebruiker die een paar spellen speelt en filmpjes van zijn camera over zet.
Ik weet dat het semi-sarcastisch bedoeld was, maar ga bijvoorbeeld eens met een (amateur-)fotograaf praten, met de digitale camera's van tegenwoordig nemen de raws van een dagje kiekjes schieten al snel tientallen GB's in, zo niet honderdtallen...dan gaat het hard hoor :)
hier is zo'n semiprof fotograaf die per vakantie over de 100GB vol weet te schieten.
Een gemiddelde bruiloft wordt er ook niet kleiner op met giegje of 50.
En met 6TB opslag kan ik dan wel weer ff vooruit, maar toch...

6TB is lastig te managen en te backuppen moet ik zeggen.
Het is niet binnen 5 minuten gebeurd om backups te maken van bepaalde shoots.
Werk jij bij Brein of zoiets? Oh en ik werd net gebeld door het jaar 2002, ze zijn je kwijt.

Maar On-topic: Ik ben blij met dit nieuws; ik zat me al af te vragen of de schijven nog veel groter zouden worden. 2TB is voor sommigen nu misschien veel maar ik zou erg blij zijn met een 10TB disk over een tijdje ;) Aangezien Seagate nu voorop loopt met zijn 3TB externe schijven ben ik erg benieuwd waar we over bijvoorbeeld 2-3 jaar qua capaciteit zitten.

[Reactie gewijzigd door BlueLed op 11 augustus 2010 11:35]

De meeste consumentencamera's nemen tegenwoordig full HD op met een datarate van 25 mbit/s. Maar als je dat soepel wil bewerken moet je het omzetten naar een formaat met minder sterke compressie. Dan krijg je bestanden met 90 mbit/s tot 300 mbit/s. Het is niet ongewoon om een uur video van 70 GB te hebben, met paar huis-tuin-en-keuken video zit je al snel aan 100 GB, en als je een beetje fanatiek bent maak je er iedere maand een paar.
Wat moet je toch met al die opslag, niemand download films, muziek en games
Misschien moet je niet als thuisgebruikte denken.. Misschien maakt men die opslag voor bedrijven, banken, schiphol, providers en zo ?
Software downloaden is illegaal, films en muziek niet al gaan we dan niet op moreel in. En ja als je het zo ziet dan kan iedereen met een 4Mbit lijntje uit de weg he :P

Overigens 250GB voor games en docs genoeg? Denk het niet zeker niet met die spellen van tegenwoordig. Spellen van tegenwoordig zijn al snel 10GB en die worden echt niet kleiner hoor. Voeg een paar mods toe aan een spel en je zit al tegen de 15-20GB aan voor een spel. Volgens mij zit je met bijvoorbeeld WOW al tegen de 30-40GB aan, plus nog eens toekomstige updates en add-ons.

640K is Enough For Anyone... |:(

[Reactie gewijzigd door Bjornmeijer935 op 11 augustus 2010 11:28]

Probeer jij maar eens op 30GB de sims3 en alle uitbreidingen te installeren. En als je ook je vakantie filmt in full HD, is die 250GB ook vlug vol.
Waarom bestaan er eigenlijk geen schijven die 2 of 3 leeskoppen hebben? onder, midden, boven. Je hebt toch ook meerder platters. Dan gaat het volschrijven van een disk een stuk rapper lijkt mij. 1 punt zou zijn dat de schijf wat groter wordt, maarja wat nou als ik daar niet mee zit? 3x 2.5 inch in een 3.5inch behuizing moet wel te realiseren zijn lijkt mij. En het verbruik maakt mij ook niets uit want het gaat mij om performance.
Euhm, alle schijven hebben vandaag al 2x het aantal platters aan leeshoofden. Klik
Of bedoel je meerdere koppen per arm? Want dan begin je moeilijk te doen doordat je arm niet recht maar in een hoek over je schijf beweegt. En als ze samen moeten werken verlies je ook zeer veel ruimte wanneer enkel kleine bestandjes worden weggeschreven.

Er zijn vele manieren om harde schijven beter te maken maar ze zijn te 'ingewikkeld'. Het moet iets zijn dat de fabrieken allemaal snel en makkelijk kunnen aanpassen.
die schijven hebben bestaan, ik neem tenminste aan dat je bedoelt dat er meerdere actuatoren zijn (meer armen).

leesvoer
Waarom bestaan er eigenlijk geen schijven die 2 of 3 leeskoppen hebben?
Heb je daar een bron van dat die schijven niet bestaan ? ;) Er bestaan wel al platenspelers met meerdere armen en koppen, dus dan wordt het inderdaad tijd dat harddiskfabrikanten ook gaan innoveren. Bel ze eens, zou ik zeggen..
De vraag die bij mij meteen opkomt, zal dit het verbruik weer heel erg verhogen? We hebben nu mooie "green" schijfjes enzo, en die verbruiken maar 5-6w. Gaan we dat straks naar de 20w per schijf?
De datadichtheid op de platters heeft volgens mij geen negatief effect op het 'groen' zijn van een schijf. Sterker nog, als je de datadichtheid opvoert zodat je met een platter minder kan, heeft dat een positief effect op het stroomverbruik (gaat dus omlaag). Ook hoef je voor dezelfde hoge transfer rates, de platters niet zo hard te draaien wat ook een positief effect heeft. Dit is het principe wat wordt toegepast in de huidige 'green' drives. Dus als latency geen issue is, kan de snelheid misschien hiermee nog wel verder omlaag, en worden ze schijven nog groener!

[EDIT]: Even wat beter opschrijven... en beter leren typen...

[Reactie gewijzigd door Peregrine op 11 augustus 2010 10:29]

Ja maar het gene waar ik meer op doel is de H in hamr. HEAT. Die moet worden opgewekt. En als je het mij vraagt is warmte meestal verspilde energie. (ok het word gebruikt, maar daarna moet het ook weer worden afgevoerd)
Warmte is juist goede energie!

In alkmaar, worden bedrijven en huizen door warmte van energie/verwarming voorzien, dmv warmte uit de huisvuilcentrale. Niks verspilde energie!
De warmte wordt heel gecontroleerd toegevoegd met een laser. Dit is al jaren geen probleem voor CD/DVD/BlueRay-spelers, en aangezien de harde schijf alleen werkt door het toevoegen van de warmte is er geen sprake van 'verspilde energie'!
Misschien in het begin wel ja, maar dan komt de volgende uitdaging, het wederom groen maken van die hdd's.
Met al die datadichtheid wordt de betrouwbaarheid er vast niet beter op...
Feiten a.u.b.! Waarom neem je aan dat een 2TB schijf van vandaag de dag minder betrouwbaar is dan een 500MB schijf van 15 jaar geleden? :)
Als je kijkt naar de uitval percentage van Hardeschijven tegenwoordig naar "oude" 20MB hardeschijven.. ik heb nog 100 hardeschijven van 20-250 mb die nog allemaal werken..
Maar veel meer zooi van 160 GB hardeschijven die het lootje hebben gelegd
En dat bewijst wat? Dat het komt door de datadichtheid? Helemaal niet dus ...
Want?

De data dichtheid van schijven is nu veel hoger dan van laten we zeggen 10 jaar geleden. Ik heb niet echt het idee dat betrouwbaarheid achteruit gegaan is.
Tja als je gaat vergelijken wat de datadichtheid van een 20MB harddisk vroegah was en wat die van een 2TB harddisk nu is, dan denk ik dat ze vroeger ook zouden zeggen dat grotere harddisks onbetrouwbaarder zouden zijn. Het is natuurlijk wel zo dat je meteen meer data kwijt bent als een grote HD crasht, maar van de andere kant, door uitontwikkelen van de techniek denk ik dat moderne HDs zelfs betrouwbaarder zijn dan modellen van een paar jaar geleden.
vroeger was je met 700MB 1 film kwijt. tegenwoordig ben je met 4GB een film kwijt.
Meer bestanden(data) verlies je dus niet doordat veel bestanden ook groter zijn geworden.
Je bent meer pixels kwijt
Waarom? Zijn de schijven van tegenwoordig minder betrouwbaar dan die van 10 jaar geleden?

Voordat iemand direct zegt "mijn 1GB schijf werkt al 10 jaar", wellicht kun je dat over 10 jaar ook over je 1TB schijf zeggen. Ik zie in ieder geval geen af- of toename in de levensduur van mijn schijven: redelijk grote kans dat 'ie na 3 jaar intensief gebruik er de brui aan geeft. Net als vroeger.
Wil je betrouwbaarheid? Plaatje marmer, hamer en beitel, veel betrouwbaarder dan dat kun je niet gaan (veel langzamer en beperkter ook niet overigens volgens mij) 8)7
Mischien, mischien ook niet. Maar de lees/schrijf snelheden gaan wel omhoog.
Ik dacht dat de grootte van harde schijven over de afgelopen jaren met een behoorlijke regelmaat verdubbelde (zeg een verdubbeling elk jaar of elke 2 jaar?!?)....betekend bovenstaand bericht dat we deze vooruitgang nu gaan doorbreken en inneens hele grote stappen gaan nemen of kunnen we uit bovenstaand bericht halen dat de huidige technieken naar hun max beginnen te gaan?

En waarom worden de standaarden van schijven niet veranderd? Maak een 3,5 inch schijf dubbel zo dik en ga met 4 tot 6 platters werken in plaats van 2 of 3. Dan ben je er toch ook? De schijf hoeft hierdoor niet dubbel zoveel te verbuiken (alleen meer koppen maar er blijf maar 1 motor in zitten) en de capaciteit word dubbel zo groot.
Dit zijn technieken die worden ontwikkeld om de huidige(n) te vervangen. Als ze als uit het theoritische stadium zijn, dan duurt het nog wel even voordat dit commercieel interessant wordt. Ik schat dat het huidige tempo in de toekomst hiermee gehandhaafd kan worden.

Daarnaast, meer platters staat wel degelijk voor meer verbruik. Voorbeelden genoeg van huidige schijven die met een platter minder kunnen als hun grotere broer (/ zus) en daarmee ook minder verbruiken.
De technieken die ontwikkeld worden moeten ook terugverdient worden; het zou best wel eens zo kunnen zijn dat het commercieel nog niet interessant is om een nieuwe hd uit te brengen.

Er is een reden waarom de opslag capaciteit van hds zo geleidelijk oploopt over het jaar. Zonder winstoogmerk zou het met veel grotere sprongen gaan.
Dat blijft koffiedik kijken, ik herinner me een harde schijf in een nieuwe PC in 1997 met wel 4, 7 gigabyte aan opslag. Volgens mij was die dezelfde grootte als die van de huidige schijven, waarschijnlijk minder platters. Maar de betrouwbaarheid is volgens mij alleen maar toe genomen want vroeger hoorde je over veel meer uitval van schijven dan tegenwoordig.
Weer een stapje vooruit om onze groter wordende bestanden en meer info op te slaan.
2Tb is voor mij nog ruim voldoende voor m'n foto collectie en andere bestanden, maar voor bedrijven kan ik me indenken dat snel grotere schijven nodig zijn. Niet voor backup, maar voor directe toegang. SSD zal snel (<3 jaar) de plaats innemen van de HDD op de mobiele apparaten (laptop/netbook/etc) en ook de desktop/server. Voor de desktop/server zijn schokken niet echt een issue, behalve als je in een aardbeving gevoelig gebied woont. In auto's is daar wat aan te doen door brackets, dus...
Het slechte aan grote hardschijven is dat je lui wordt als het om opruimen gaat. Als je iets uitpakt, laat je de rar files nog op je schijf staan terwijl het niet meer nodig is :P
je kan ook torrents gaan downloaden, heb je helemaal geen gezeik met rar's ;)
Er zijn genoeg torrent bestanden die dan ook weer gezipt zijn, zodat het sneller gedownload kan worden;)
Een beetje tweaker zorgt ervoor dat zijn download programma de rars automatisch uitpakt en dan delete.
Doen mensen dat uitpakken handmatig ?? Slachten die ook zelf ?
Wat is er inmiddels geworden van die ene techiek waarbij de platter stilstaat en er een grid van een hoop koppen boven aan het bewegen is? Wat zo ongeveer de throughput en access time van een SSD had, maar niet de nadelen van flash cells.
Ik kan de link alleen niet terugvinden...

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 edge Apple Watch Project CARS Nest Learning Thermostat Google

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True