Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 95, views: 18.145 •

Seagate heeft een nieuwe opnametechniek voor harde schijven in de steigers staan. Wanneer de huidige perpendiculaire techniek zijn grenzen bereikt, zou een opnametechniek met warmte alsnog grotere capaciteiten mogelijk maken.

Seagates mogelijke opvolger van de perpendiculaire opnametechniek heet heat-assisted magnetic recording. De 'hamr'-techniek kwam in 1998 in handen van Seagate, toen het het bedrijf Quinta overnam. Seagate gebruikt een normale lees- en schrijfkop voor zijn hamr-schijven en verhit daar kleine ijzer-platinadomeinen mee. De hamr-techniek zou over enkele jaren gereed zijn om de pmr-techniek op te volgen.

Pmr zou nog enkele generaties meegaan, zo vertelt Mark Re, een van Seagates topmannen op het gebied van opnametechnieken, aan website ConceivablyTech. Over drie tot vijf jaar kan de opslagdichtheid echter niet verder worden vergroot. Bij de introductie van pmr, rond 2005, werd voorspeld dat een dichtheid van ruim 1Tb per vierkante inch haalbaar zou zijn. De huidige drives zitten rond de 500Gb per vierkante inch; het bedrijf kondigde recent een schijf met een dichtheid van 700Gb/inch² aan. De nieuwe hamr-techniek zou dichtheden van tientallen Tb's per vierkante inch mogelijk maken, wat de opslagcapaciteit van harde schijven tot honderden terabytes zou opdrijven.

Er wordt ook aan andere technieken gewerkt die de datadichtheid kunnen vergroten. Een kanshebber is de patterned-mediatechnologie. Die techniek zou volgens Re een goede kans maken om hamr op te volgen; patterned media in combinatie met hamr, zou vervolgens de opslagdichtheid tot voorbij de 50Tb/inch² kunnen opvoeren.

Seagate hdd

Reacties (95)

Bovendien dist die man van Seagate in het bronartikel ssd's nog even door te zeggen dat er niet genoeg flash-geheugen op de wereld is om de huidige harde schijven te vervangen. Goed punt wel :)

@hieronder
Met al die datadichtheid wordt de betrouwbaarheid er vast niet beter op...
Inderdaad. Ik vind het dan ook wel bijzonder dat een topman van Seagate zegt:
we should not expect hard drives to improve their reliability in hardware. Instead, Seagate is pushing software innovation and is telling users to back up their data regularly.
|:(

[Reactie gewijzigd door woekele op 11 augustus 2010 10:19]

Ja, maar daar ga je het op den duur ook niet mee redden. Momenteel word je al niet vrolijk van de rebuild-tijden van een kapotte 2TB disk in een raid-5 of raid-6 array, en dat wordt in de toekomst alleen maar erger. En zelfs met triple-parity raid haal je alleen een lapmiddel in huis.

Ik denk dat de traditionele harddisk verbannen gaat worden tot backup disk, in systemen waar de disks niet vaak hoeven op te spinnen (ook weer voor het "green" idee), en dat de primaire opslag toch naar SSD's gaat. Want hoewel de grens voor de grootte van harddisks nog lang niet bereikt is, gaat de snelheid niet navenant omhoog.
Harddisks zullen voor de komende tijd blijven als mass-storage devices.

Je kan binnen redelijke tijd hiërarchisch opslag oplossingen binnen de consumenten branch verwachten. SSD worden goedkoper dus een combo aantrekkelijk.

Hiërarchische opslag is een transparant systeem die data opslaat zonder dat de gebruiker/applicatie weet waar de data opgeslagen is. De primaire opslag is dan SSD, met een HDD/internet opslag als secondair opslag. Veel gebruikte data is dan snel beschikbaar. Minder vaak gebruikte of 'bulk' data zit op de HDD en wordt direct ingelezen en/of 'gecached' naar de SSD. Het opslaan van bestanden zal dan snel op de SSD gebeuren en op de achtergrond naar de HDD opgeslagen worden.
Er zijn vele combinaties mogelijk binnen hiërarchische opslag. Binnen enterprise oplossingen gebruikt je natuurlijke grote RAID-6 arrays met raptor of ssd primaries. Maar binnen de consumenten branch verwacht ik ssd met enkele HDD en automatische opslag op internet als backup. Geheel transparant.

Hetzelfde 'principe' zie je al in een paar 'ssd cache' oplossingen die een ssd gebruiken als cache voor een harddisk via een pci-e kaartje.
De hiërarchische structuur is dan een volatile ram cache, involatile ssd cache en involatile HDD mass-storage.
Seagate is hdds met ingebouwde ssd aan het maken. Dan kan de HDD vaker idle en dus energiezuiniger zijn en gaat langer mee.

Voor nu is hiërarchische opslag het domein van IBM en consorten, maar dat gaat wel veranderen.

[Reactie gewijzigd door DFyNt2U op 11 augustus 2010 11:14]

Alhoewel je leuke concepten aanhaalt en deze verschuivingen in de toekomst ook wel plaats zullen vinden heb ik toch wel een paar puntjes van kritiek hoor.

Hiërarchische opslag heeft op zich niets met de techniek te maken, puur met een software/hardware laag die kiest waar welke informatie wordt opgeslagen. Bijna alle bedrijven gebruiken nu al een vorm van hiërarchische opslag: denk maar aan je normale SAN (voor de snelle toegang) en je tape (voor de duurzaamheid en bulk) opslag.

IBM heeft hele mooie geïntegreerde omgevingen die dit doen, maar EMC en zelfs Dell hebben dit ook. Om nog maar niet van de software oplossingen hiervoor te spreken :)

En de meeste bedrijven gebruiken uiteraard geen raptor schijven, het merendeel heeft gewoon 10 of 15k schijven sneller en betrouwbaarder dan raptors. SSD wordt nog maar heel mondjesmaat gebruikt, voornamelijk door de imbeciel hoge kosten voor een bedrijfsomgeving (betrouwbaarheid, support).

En automatische opslag op internet als backup is er wel al en wordt ook gebruikt. Toch durf ik te betwijfelen of dit ooit dé backup oplossing gaat worden. Technisch gezien geen probleem. Maar qua beveiliging is alleen het gevoél dat jou data niet meer 100% bij jou in beheer is al genoeg om veel bedrijven en particulieren tegen te houden, wat mij betreft met recht.
Als dit soort toepassingen beter in het OS worden geïntegreerd kan de ontwikkeling heel hard gaan.

Als bij de ontwikkeling van software beter wordt nagedacht over of de data snel toegankelijk moet zijn, vaak veranderd of extern toegankelijk moet zijn, kan het combineren van SSD en HDD i.c.m. Online of Offside storage heel aantrekkelijk zijn.

OS en Software op SSD, Media op HDD en Backup Offside.
Offside kan dan ook encrypted bij vrienden, familie of hosting provider.

Daarnaast een duidelijke scheiding tussen PC voor gebruikers imput en visualisatie en een Server voor de data en software welke ook van buiten af te benaderen is door de PC.
wat jij aanhaalt is Unified Storage zoals het momenteel al geïmplementeerd is Windows Phone 7.

*edit* moest als reactie op DFyNt2U zijn

[Reactie gewijzigd door dasiro op 11 augustus 2010 12:06]

Gewoon dat wat Linux al jaren heeft dus, en BSD/Solaris met ZFS ook al een stuk langer beter doet.

[Reactie gewijzigd door johnkeates op 11 augustus 2010 14:57]

Je hebt gelijk dat Hiërarchische opslag in principe een software/hardware laag is. Waarom ik de methode aandroeg was omdat Anton stelde dat HDD uiteindelijk slechts als backups gebruikt gaan worden, wat naar mijn idee niet gaat gebeuren aangezien HDD een 'middel' rol spelen in Hiërarchische opslag.

Tuurlijk is IBM niet de enigste, maar m'n punt was dat het gaat om enterprise oplossingen. Wat ik graag wil is dat het mainstream is.

hmm, ja, database servers kunnen beter RAMSAN-achtige oplossingen gebruiken ipv SSD aangezien zulke servers backup-voedingen hebben en RAMSAN veel hogere performance heeft (maar duurder is dan SSD). Je wilt toch echt dat zodra data de cache verlaat dat het 'echt' weggeschreven is. Bij consumenten valt de voeding nog wel eens weg.
Even een voorbeeldje met wat aannames, stel dat ik als consument een storage-controller met cache, ssd en hdd als gelaagde opslag heb. een hdd kan niet vanaf een nood-condensator draaien, ssd kortstondig wel. De cache ook. Dus als m'n voeding uitvalt kan de controller kort nog de cache in de ssd dumpen en al m'n data is veilig. (Het gaat hier niet om filesystem-cache).
De enterprise oplossing is vanzelfsprekend niet geschikt voor consumenten maar hetzelfde principe maakt van de technieken één geheel.

Internetopslag, ik zelf zou er niet aan beginnen tenzij ik er persoonlijk een AES-256 overheen kan zetten, maar met al die cloud-hypes zullen we het wel vaker zien. In feite zie je het al in embedded oplossingen (blackberry bv). Of het hét gaat worden is denk afhankelijk van toekomstige politieke besluiten aangaande het internet.

@ajakkes: Microsoft heeft dat soort zaken al in z'n server oplossingen, het is dus een kwestie van wachten. Ook op linux is men bezig, ook al ben ik nog niets 'mature' tegengekomen. Ik geef toe dat ik al een tijdje niet gecheckt heb, maar heel hard zal het niet gaan omdat sommige zaken beschermd zijn door patenten. :(

@dasiro: Je hebt het over dit nieuwsbericht? Dat klinkt meer als een layered filesystem. In linux heb je dat soort dingen veel op live-cds en mini-distros (bv. unionfs). Maar ik in vmware snapshot, Sandboxie, thinapps, enz enz.
Data op de microsd blijft ongewijzigd. Het OS slaat wijzigingen op in een apart geheugen. Ook Symbian gebruikt het om wijzigingen in RAM op te slaan met ROM als basis. Dit is verschillend dan Hiërarchische opslag welke data tussen de verschillende media heen en weer verplaatst. Laat me weten als ik het verkeerd heb.
automatische opslag op internet als backup.
Daar zijn toch ook weer extra Hard Disks (in servers) voor nodig. Dus het doorgaan van de capaciteits vergroting blijft welkom.
Zo heb ik het nog nooit echt bekeken, maar dat is misschien wel het beste dat we kunnen doen met zon SSD.

i.p.v. het rijtje L1, L2, L3, Ram, HDD.
wordt het dan L1, L2, L3, Ram, SSD, HDD.

In principe is dat ook nodig, want alles wordt sneller, zowel alle caches en het RAM, alleen de HDD die blijft achter, dus komt er een groter gat tussen het RAM en de HDD dat opgevult moet worden. Daar zal de SSD nog wel van pas komen.
Dit is precies wat ZFS al (sinds 2008) heeft met L2ARC: http://blogs.sun.com/brendan/entry/test

Ze gebruiken een snelle SSD als "Level 2" cache. In RAM wordt de "Level 1" cache bijgehouden.

Op Solaris en FreeBSD kan je dit nu al gebruiken.
Precies, maar om dat al die neppe *ict-ers* dat nooit mee zullen maken in de gesloten windows wereld denken ze dat het nog niet bestaat.
Want hoewel de grens voor de grootte van harddisks nog lang niet bereikt is, gaat de snelheid niet navenant omhoog.
Zeker wel. Sure, seek times blijven gelijk, maar hoe groter de datadichtheid hoe sneller de bits binnenkomen bij een gelijkwaardig toerental.
Toch niet, en wel om de volgende reden:

Als je schijf 4x zo groot is, betekent dat dat de bits 2x zo klein zijn (in 2 dimensies). Dat betekent dat er slechts 2x zoveel bits per seconde voorbij je head komen. Hierdoor heb je dus bij elke dichtheid verdubbeling een snelheidstoename van wortel twee. Het zal dus steeds langer duren om je schijf vol te schrijven of helemaal te lezen.
Ik bedoelde ook niet evenredig, maar ik zie nu dat Anton dat wél bedoelde. Mijn fout. Even over het woordje "navenant" heengelezen.

[Reactie gewijzigd door .oisyn op 11 augustus 2010 11:59]

Je moet het van 2 kanten zien.

Massaopslag zal nog steeds op hdd's gebeuren. Foto's vooral raw bestanden nemen aardig wat plaats in. Neem je verzameling home make hd films ook aardig wat.

Natuurlijk zullen ssd's steeds goedkoper worden en marktaandeel pakken. Je opstart schrijf in je pc zal over een paar jaar standaard ssd zijn en een hdd voor massaopslag.

In serverracks zie je nu nog steeds hdd's maar ss'd komen al en zijn bijv ideal voor database server vanwege hun snelle toegangstijd.

Er treed dus zeker een verschuiving op en langzaam zal het marktaandeel van de hdd minder worden.

Blijft natuurlijk wel dat we steeds meer data krijgen en een hdd is dan een goedkoop opslagmedium. Ik heb nu in mijn pc een 1,5 tb schijf en 2 idem extern als backup.
Daar sla je de spijker op zijn kop... capaciteit genoeg maar een disk blijft gevoelig voor schokken van buitenaf.

Ik zie vaak dat externe disken en laptop hdd's stuk gaan doordat ze verhuist worden terwijl deze aan staan.

Maar de vraag is hoe betrouwbaar zijn ssd's mbt. herstellen bij beschadiging van de geheugen blokken?
De data die op de ouderwetse hdd's staan zijn vaak nog te herstellen bij het constateren van bad clusters.

De gehele markt moet inzetten op ssd's, in mijn optiek bied het velen voordelen tov. de ouderwetse hdd's.
Niet de data die op de bad clusters zelf staat over het algemeen. Al kunnen ze het lezen, bevat het meestal fouten.

Ben geen HDD expert, maar denk dat de quote die hierboven aangehaald wordt
we should not expect hard drives to improve their reliability in hardware
nog een redelijke understatement is. Het zal niet verbeteren, maar alleen verslechteren. Afhankelijk van hoe je er tegen aan kijkt in de ene opzet wat meer dan de andere, maar toch (bijv reliability per GB on disk of reliability in MTBF (gebruikstijd)).
Tja ik houd je niet tegen als jij compleet wil overschakelen naar SSDs, maar harde schijven bieden voorlopig gewoon heel veel meer opslag vergeleken met SSDs, en redelijke kans dat dat nog een hele tijd zo blijft.

Wat ik wel verwacht is dat het toch redelijk snel zal gaan gebeuren (laten we zeggen 5 jaar ofzo) dat het mainstream wordt om een SSD te gebruiken voor OS + programmas, en een normale harde schijf voor overige data. Al was het maar omdat je niet aan de gemiddelde consument kan uitleggen waarom hij een computer zou moeten kopen waar een 200GB schijf in zit als hij een stuk goedkoper er eentje kan kopen waar 2000GB in zit.
Wij hebben een tijd SSD's geplaatst op schepen maar door het vele trillen gingen deze peperdure industriele SSD's veel vaker en sneller stuk als welke harde schijf dan ook!
Dat lijkt me een prestatie, volgens mij zitten er geen bewegende delen in een SSD, dus is er ook niets om stuk te gaan?
Stel dat de solderingen op het pcb zeer fijntjes en dus fragiel zijn zouden deze wel eens kunnen loskomen door zware trillingen.
Dat een harde schijf het dan wel blijft doen lijkt mij ook sterk.

[Reactie gewijzigd door peke op 11 augustus 2010 12:11]

Schokdempertjes eronder leggen, misschien is dat een oplossing?
De schijf is alleen gevoelig voor schokken als die aan staat, als deze uitstaat dan staan de lees/schrijfarmen in rust stand en bevinden zich dan niet boven de platters.
En een HDD gaat echt niet zomaar kapot hoor.

Een voorbeeld, ik heb een 40GB schijfje(2.5 inch). Ik heb dat ding al jaren en die is in die tijd vaak genoeg gevallen desondanks geen getik of data verlies dus om zo'n ding kapot te krijgen moet je toch flink smijten of uit een raam op 3 hoog laten vallen hoor.
Overigens als je een SSD laat vallen dan is de kans op schaden ook nog steeds aanwezig. Verbogen frame of gescheurde printplaat als die net op de punt valt.
De schijf is alleen gevoelig voor schokken als die aan staat, als deze uitstaat dan staan de lees/schrijfarmen in rust stand en bevinden zich dan niet boven de platters.
En een HDD gaat echt niet zomaar kapot hoor.
Toch wel, vele HD's hebben de rustpositie van de koppen boven de platters.
volgens mij is dat echt al heel heel heel oud.
toen had je nog een schakelaar op je HDD waarmee je de koppen kon vast zetten als je hem verplaatste.
[...]
Toch wel, vele HD's hebben de rustpositie van de koppen boven de platters.
Jawel, maar op een plek waar geen data beschadigen kan. Vroeger kon je met een apart 'park' commando de koppen daarheen verplaatsen.
dan moeten die ssd's eerst maar es value for money gaan bieden. Ik kan voor minder geld een good old hd kopen die sneller is dan een ssd die duurder is. wij gebruiken 15K rpm, 2.5" SAS disks in ons database cluster, en die schijven zijn sneller en goedkoper dan wat er aan ssd te krijgen is.
Ik betwijfel dat je hdd's meer dan 100MB/s op 4KB random writes/reads kunnen halen...
Een hedendaagse SSD kan makkelijk 10 keer sneller zijn in een database omgeving, jij denkt vast nog aan de eerste SSD's met trage controllers.
wij gebruiken 15K rpm, 2.5" SAS disks in ons database cluster, en die schijven zijn sneller en goedkoper dan wat er aan ssd te krijgen is.

kan je die statement eventjes onderbouwen, met nadruk op het sneller gedeelte? O-)

(ps: ik geef de voorkeur aan benchmarks die zijn gedaan met 15k schijven en SSD's in dezelfde setup.)

[Reactie gewijzigd door flippy.nl op 11 augustus 2010 15:01]

Beetje vreemde opmerking IMHO van die Seagate gast.

Natuurlijk ligt er op dit moment niet genoeg flash geheugen op de plank om alle conventionele harddisks te vervangen, dat is een geleidelijk process.
heel geleidelijk want de hdd capacitijd per euro word bijna even snel groter als bij ssd's.
Inderdaad een bijzondere uitspraak. Schijven worden al steeds gevoeliger voor invloeden van buitenaf:
http://www.youtube.com/watch?v=tDacjrSCeq4
Inderdaad. Ik vind het dan ook wel bijzonder dat een topman van Seagate zegt:
we should not expect hard drives to improve their reliability in hardware. Instead, Seagate is pushing software innovation and is telling users to back up their data regularly.
Ik denk dat deze meneer van Seagate bedoelt dat hoe meer data je op een schijf zet hoe waarschijnlijker is dat delen van deze data verloren zullen gaan door beschadigingen. Simpel weg door dat bijvoorbeeld kleinere elementen om uit te lezen te gebruiken kun je meer elementen kwijt op een schijf meer elementen verhoogt de kans dat er 1 net niet helemaal lekker op 1 of 0 terecht gekomen is dan wel omvalt van 1 naar 0, met alle vervelende resultaten van dien.
Ik denk niet dat hij bedoelt de nieuwe technieken leveren minder betrouwbare schijven op maar wel meer kans dat er iets mis gaat gewoon omdat er meer onderdelen zijn waar iets mis mee zou kunnen gaan.

Dat SSD verhaal is trouwens helemaal waar. De hoeveelheid data op HDD's op deze planeet is zo groot dat het onmogelijk is dat er in de komende tien tallen jaren genoeg flash geproduceerd zal worden om dit allemaal te vervangen. En zeker als het ze echt lukt om enkele tientallen TB's in een 3.5" package te stoppen met een HDD dan is het wat capaciteit betreft voorlopig een gelopen strijd...
Maar het is niet ondenkbaar dat er ook op flash gebied een doorbraak gaat plaats vinden. Er wordt immers genoeg onderzoek gedaan nar dingen als biologische data opslag en andere methode om enorme hoeveelheden data op een zeer klein oppervlak op te slaan. Alleen staat veel van dit onderzoek in verhouding tot de HDD markt echt nog in de kinderschoenen.
Bovendien dist die man van Seagate in het bronartikel ssd's nog even door te zeggen dat er niet genoeg flash-geheugen op de wereld is om de huidige harde schijven te vervangen. Goed punt wel :)
En dat zegt?... helemaal niets!

Net of het niet meer geproduceerd wordt, haha.

Net zoals er niet genoeg disken zijn straks met de 'hamr'-techniek om alle hard disken te vervangen, lol

[Reactie gewijzigd door DarkTemple op 11 augustus 2010 13:07]

Met al die datadichtheid wordt de betrouwbaarheid er vast niet beter op...
Want?

De data dichtheid van schijven is nu veel hoger dan van laten we zeggen 10 jaar geleden. Ik heb niet echt het idee dat betrouwbaarheid achteruit gegaan is.
Feiten a.u.b.! Waarom neem je aan dat een 2TB schijf van vandaag de dag minder betrouwbaar is dan een 500MB schijf van 15 jaar geleden? :)
Als je kijkt naar de uitval percentage van Hardeschijven tegenwoordig naar "oude" 20MB hardeschijven.. ik heb nog 100 hardeschijven van 20-250 mb die nog allemaal werken..
Maar veel meer zooi van 160 GB hardeschijven die het lootje hebben gelegd
En dat bewijst wat? Dat het komt door de datadichtheid? Helemaal niet dus ...
Tja als je gaat vergelijken wat de datadichtheid van een 20MB harddisk vroegah was en wat die van een 2TB harddisk nu is, dan denk ik dat ze vroeger ook zouden zeggen dat grotere harddisks onbetrouwbaarder zouden zijn. Het is natuurlijk wel zo dat je meteen meer data kwijt bent als een grote HD crasht, maar van de andere kant, door uitontwikkelen van de techniek denk ik dat moderne HDs zelfs betrouwbaarder zijn dan modellen van een paar jaar geleden.
vroeger was je met 700MB 1 film kwijt. tegenwoordig ben je met 4GB een film kwijt.
Meer bestanden(data) verlies je dus niet doordat veel bestanden ook groter zijn geworden.
Je bent meer pixels kwijt
Mischien, mischien ook niet. Maar de lees/schrijf snelheden gaan wel omhoog.
Waarom? Zijn de schijven van tegenwoordig minder betrouwbaar dan die van 10 jaar geleden?

Voordat iemand direct zegt "mijn 1GB schijf werkt al 10 jaar", wellicht kun je dat over 10 jaar ook over je 1TB schijf zeggen. Ik zie in ieder geval geen af- of toename in de levensduur van mijn schijven: redelijk grote kans dat 'ie na 3 jaar intensief gebruik er de brui aan geeft. Net als vroeger.
Wil je betrouwbaarheid? Plaatje marmer, hamer en beitel, veel betrouwbaarder dan dat kun je niet gaan (veel langzamer en beperkter ook niet overigens volgens mij) 8)7
ben benieuwd wat dan de lees/schrijf snelheden worden....
De vraag die bij mij meteen opkomt, zal dit het verbruik weer heel erg verhogen? We hebben nu mooie "green" schijfjes enzo, en die verbruiken maar 5-6w. Gaan we dat straks naar de 20w per schijf?
Misschien in het begin wel ja, maar dan komt de volgende uitdaging, het wederom groen maken van die hdd's.
De datadichtheid op de platters heeft volgens mij geen negatief effect op het 'groen' zijn van een schijf. Sterker nog, als je de datadichtheid opvoert zodat je met een platter minder kan, heeft dat een positief effect op het stroomverbruik (gaat dus omlaag). Ook hoef je voor dezelfde hoge transfer rates, de platters niet zo hard te draaien wat ook een positief effect heeft. Dit is het principe wat wordt toegepast in de huidige 'green' drives. Dus als latency geen issue is, kan de snelheid misschien hiermee nog wel verder omlaag, en worden ze schijven nog groener!

[EDIT]: Even wat beter opschrijven... en beter leren typen...

[Reactie gewijzigd door Peregrine op 11 augustus 2010 10:29]

Ja maar het gene waar ik meer op doel is de H in hamr. HEAT. Die moet worden opgewekt. En als je het mij vraagt is warmte meestal verspilde energie. (ok het word gebruikt, maar daarna moet het ook weer worden afgevoerd)
Warmte is juist goede energie!

In alkmaar, worden bedrijven en huizen door warmte van energie/verwarming voorzien, dmv warmte uit de huisvuilcentrale. Niks verspilde energie!
De warmte wordt heel gecontroleerd toegevoegd met een laser. Dit is al jaren geen probleem voor CD/DVD/BlueRay-spelers, en aangezien de harde schijf alleen werkt door het toevoegen van de warmte is er geen sprake van 'verspilde energie'!
meer dan 50Tb//inch².... Hier kan ik alleen nog maar van dromen.. En dan ben je tegenwoordig nog best wel trots als je 3,2TB opslag ruimte hebt 8)7
Dat dacht ik ook toen ik een paar maanden terug een 2TB media speler kocht. Probleem is alleen als je veel ruimte hebt, ga je ook veel opslaan. Helaas heb ik nog maar 180 GB vrij van de 2TB ;)
Absoluut waar.
Eerder was je opstart schijf zeg maar 80Gb op een IDE schijf en ernaast zou je een 160Gb voor opslag kunnen hebben. Nu SATA uitgekomen is/was, lijkt het wel dat je altijd op je vrij ruimte moet letten :D
Dat blijft koffiedik kijken, ik herinner me een harde schijf in een nieuwe PC in 1997 met wel 4, 7 gigabyte aan opslag. Volgens mij was die dezelfde grootte als die van de huidige schijven, waarschijnlijk minder platters. Maar de betrouwbaarheid is volgens mij alleen maar toe genomen want vroeger hoorde je over veel meer uitval van schijven dan tegenwoordig.
Groter is niet altijd beter.....(erm..)
Mijn vraag is eigenlijk hoe snel de schijven zullen zijn en hebben we straks standaard een koeler nodig voor harde schijven?

/Edit: Waarom mijn 'score 0' ?
Is het nou zo'n rare vraag om te stellen?
We hebben of we moeten nu koelers op videokaarten en processors hebben, maar er zijn versies dat het niet noodzakelijk is of zelfs niet meegeleverd word. Ik zou het niet gek vinden mocht dat noodzakelijk is bij nieuws generaties. Hetzelfde voorbeeld is te noemen als men een processor overclocked of beter gekoeld moeten hebben d.m.v. air or waterkoeling.

[Reactie gewijzigd door Modest71 op 11 augustus 2010 11:15]

ja inderdaad, hitachi desk(death)star series ring a bell?? :)
Lol Hitachi DeathStar, maar anyways ik heb er zelf 2 en daar is niks mis mee. 1 van 80GB IDE (Antiek) en eentje van 640GB SATAII geen van beiden worden warmer dan iedere andere schijf hoor.
Dan heb jij de 60GXP series niet meegemaakt dus :)
Ach ja iedereen heeft wel is een slechte dag, maarja dat is wel heel zwart wit natuurlijk om op één slechte serie gelijk alles van hun af te kraken.
Ik dacht dat de grootte van harde schijven over de afgelopen jaren met een behoorlijke regelmaat verdubbelde (zeg een verdubbeling elk jaar of elke 2 jaar?!?)....betekend bovenstaand bericht dat we deze vooruitgang nu gaan doorbreken en inneens hele grote stappen gaan nemen of kunnen we uit bovenstaand bericht halen dat de huidige technieken naar hun max beginnen te gaan?

En waarom worden de standaarden van schijven niet veranderd? Maak een 3,5 inch schijf dubbel zo dik en ga met 4 tot 6 platters werken in plaats van 2 of 3. Dan ben je er toch ook? De schijf hoeft hierdoor niet dubbel zoveel te verbuiken (alleen meer koppen maar er blijf maar 1 motor in zitten) en de capaciteit word dubbel zo groot.
Dit zijn technieken die worden ontwikkeld om de huidige(n) te vervangen. Als ze als uit het theoritische stadium zijn, dan duurt het nog wel even voordat dit commercieel interessant wordt. Ik schat dat het huidige tempo in de toekomst hiermee gehandhaafd kan worden.

Daarnaast, meer platters staat wel degelijk voor meer verbruik. Voorbeelden genoeg van huidige schijven die met een platter minder kunnen als hun grotere broer (/ zus) en daarmee ook minder verbruiken.
De technieken die ontwikkeld worden moeten ook terugverdient worden; het zou best wel eens zo kunnen zijn dat het commercieel nog niet interessant is om een nieuwe hd uit te brengen.

Er is een reden waarom de opslag capaciteit van hds zo geleidelijk oploopt over het jaar. Zonder winstoogmerk zou het met veel grotere sprongen gaan.
Zolang hun nieuwe opslagtechniek vergezeld wordt door een informatief promofilmpje met catchy muziek ben ik er volledig voor te vinden :)

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013