Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties

Onderzoekers van de Radboud-universiteit in Nijmegen en enkele andere onderzoeksinstituten hebben achterhaald hoe magneten op het kleinste niveau functioneren. Hun onderzoek zou gevolgen voor magnetische data-opslag hebben.

Magnetische spinOp basis van een nieuwe theorie lijkt een nieuw materiaal zeer bruikbaar voor snellere magnetische dataopslag. Vooralsnog werd aangenomen dat alle elementen in een magnetisch domein zich identiek gedragen: de spins, of elementaire magneetjes, zouden volgens de geldende theorie tegelijk, en identiek, veranderen. De theorie bleek echter in de praktijk niet houdbaar, maar een nieuwe theorie over de werking van magneten geeft wel voorspellingen die met waarnemingen overeen komen. Deze nieuwe theorie werd ontwikkeld door onderzoekers van de Radboud-universiteit in Nijmegen, de Uppsala-universiteit in Zweden en onderszoeksinstituten in Italië en de Oekraïne.

De theorie, die gepubliceerd wordt onder de naam Ultrafast Spin Dynamics in Multisublattice Magnets, beschrijft hoe de spins in een magneet veranderen op een zeer korte tijdschaal. Anders dan tot nog toe werd aangenomen bewegen spins zich dus niet uniform en gelijktijdig, maar bovendien zijn de karakteristieken van de spins sterk afhankelijk van het materiaal.

Belangrijk gevolg is dat de theorie een verklaring geeft voor experimenten met antiferromagnetische materialen die kortstondig magnetisch lijken wanneer het magneetveld wordt omgekeerd. Antiferromagnetisch materiaal zou nu een belangrijke rol kunnen spelen bij het ontwikkelen van technologie voor snellere gegevensopslag, denken de onderzoekers. De toepasbaarheid van dit materiaal voor de ontwikkeling van snellere harde schijven zou dermate groot zijn, dat een patent op de techniek werd aangevraagd.

Moderatie-faq Wijzig weergave

Reacties (63)

Zoal ik het lees beschrijft deze theorie (beter) hoe de magneetveldjes op een hdd omgekeerd kunnen worden (een 1 in een 0 en v.v.). Volgens deze theorie is het mogelijk deze omschakeling in andere materialen te sneller te laten plaatsvinden. Sneller wisselen van een 1 naar 0 en v.v. betekent natuurlijk dat je deze schijven in theorie veel sneller kan beschrijven/uitlezen. Dit vertaalt zich vrij makkelijk naar veel hogere sequentiele snelheden.

Echter is de grootste beperking van de huidige hdd's niet de sequentiele snelheid maar de random read/write operaties. Deze worden vooral beperkt door de tijd die het kost om een harde schijfkop te verplaatsen. Ik verwacht daarom niet dat deze toekomstige hdd's snel kunnen concurreren tegen ssd's. Maar waarschijnlijk is er wel een niche markt voor harde schijven met extreem hoge sequentiele snelheden.

Chapeau voor de onderzoekers die hiermee de wetenschap weer een stukje vooruit hebben geholpen.
Misschien dat ik eroverheen lees.. Maar kan iemand kort uitleggen waarom dit dan een hardeschijf sneller kan maken?
Er is een bepaalde tijd nodig om op de schijf het magnetisch veld te wisselen.
Als de tijd die die schijf op die positie onder de kop moet hangen om correct te kunnen schijven korter kan, dan kunnen de afzonderlijke bitjes natuurlijk dichter achter elkaar staan, waardoor je meer bitjes per omwenteling langs ziet vliegen.
hierdoor gaat de sequentieele snelheid omhoog. natuurlijk blijft de seektime hoog in vergelijking met een SSD.

Op naar de hybride schijven, met op elke schijf een batery backuped ram buffer van 256MB bovenop een SSD cache van 40GB.
Erg snel schrijven, zonder de SSD te slopen, en je meest gebruikte bestanden op de SSD
Dat niet alleen: hoe realistisch is de kans dat we hiervan binnen X jaar gaan profiteren? Ik lees nog vooral veel over theorien en "mogelijk dat"- en "denken dat"-aannames.

Het klinkt allemaal wel mooi, maar dat is allemaal nog weinig concreets over een consumentenimplementatie. De ontwikkeling van SSD's is ook in volle gang. Wat is er eerder: zo'n heel snelle traditionele HDD, of een snelle 5 TB SSD?

[Reactie gewijzigd door Eagle Creek op 2 februari 2012 17:04]

Zo als je neem ik aan weet is een harde schijf in principe niets meer dan een plaat waarop een materiaal is aangebracht dat je lokaal magnetisch (noord of zuid) kan maken. Noord is 1 en zuid is 0 en 8 van die punten en je hebt een byte, 8192 en je hebt een KB en als je er 8.796.093.022.208 op een plaatje stampt heb je 1TB. Nu is het nog al lastig om zo iets in een rechte lijn te doen dus plaats je ze in een cirkel net als op een CD of DVD, geef er een draai aan en je kunt ze allemaal bereiken door alleen de kop die het uitlezen/schrijven doet op en neer te bewegen. Plak er een stuk of 3 a 4 in een behuizing bij elkaar en je hebt een 3 of 4TB schijf.

Nu zijn er wat problemen de schijf draait en de kop beweegt om bijvoorbeeld 1MB uit te lezen moet je ~8,3 miljoen van die puntjes uitlezen nu heb je maar een beperkte tijd om dat te doen natuurlijk want het schijfje draait. Maar goed dat is nog wel te doen als het materiaal dat het magneet veld op de plaat ontdekt maar snel genoeg is in dat extreem kleine puntje detecteren voor dat het volgende puntje zich aandient.
Schrijven is nog een stuk lastiger je moet nu immers niet passief detecteren wat de staat van het puntje is maar je moet het puntje overtuigen dat het een staat een bepaalde staat aan moet nemen. Hoe beter je begrijpt hoe het materiaal werkt op de extreem kleine schaal waar je mee met werken als je 1TB of meer op zo'n schijfje wil proppen hoe, relatief natuurlijk, makkelijker het is om dit te berijken voor dat het volgende puntje zich aan dient.

De grote vraag is hoeveel sneller kan ik die puntjes schakelen en hoe veel kleiner kan ik ze maken. Dat is een erg lastig iets om nu te voorspellen, maar als je bedenkt dat men tot op heden met een beperkte kennis van zaken werkte en dan toch al zulke enorme hoeveelheden aan data op zo'n kleine ruimte wist te proppen en die dan ook nog eens zo snel wist uit te lezen dan kun je er van uitgaan dat men nu flink verder kan gaan in de verkleining van de puntjes en dus in de data dichtheid, iets dat over het algemeen de snelheid van uitlezen en schrijven ook ten goede kwam in het verleden.

Op dit moment kijkt de industrie serieus naar schijven met ~10TB als ultiem punt waar men met de huidige kennis nog naar toe kan werken daar na heeft men op dit moment nog geen idee. Dit onderzoek zal waarschijnlijk deze grens verleggen naar...
De eerste schijven van 10TB kun je zo rond 2015 verwachten schijven die gebruikmaken van de kennis opgedaan in dit onderzoek wie weet ik neem aan dat dat waarschijnlijk rond de zelfde tijd zal gaan komen maar dat hangt er erg van af hoe makkelijk, betrouwbaar en goedkoop de resultaten van dit en toekomstig onderzoek gebaseerd hierop zijn toe te passen.

Voor als nog zou ik zeggen het beste dat je kunt verwachten is dat HDD's voorlopig nog niet dood zijn en de SSD nog een lange weg te gaan heeft om de HDD echt te verslaan, al konden toekomstige overstromingen in Thailand nog wel eens roet in het eten gooien.
Tegen de tijd dat er betaalbare 5TB SSD's zijn zullen er ook al 15TB HDD's zijn. Naar mijn idee zullen deze twee altijd naast elkaar bestaan. SSD voor je OS, applicaties en games; de HDD voor je bulk data.
Nee. Natuurlijk niet. Het is al lang zo dat de HDD de zwakste schakel is in elk systeem. Op termijn gaan die uit de consumentenelectronica volledig verdwijnen. Er komt een omslagmoment waarop de productie van SSD goedkoper gaat worden dan die van HDD.
.
Er komt een omslagmoment waarop de productie van SSD goedkoper gaat worden dan die van HDD.
ja, ja, bron graag.

SSD's zijn al jaren op de markt en de prijsverhouding t.o.v. HDD's is exact hetzelfde gebleven. M.a.w. HDD's zijn in hetzelfde tempo goedkoper geworden.

SSD's worden overigens gemaakt van NAND geheugen, en de markt voor dat geheugen is enorm, schaalvergroting gaat extreem weinig opleveren m.b.t. prijs.

Als SDD's inderdaad de volledige markt naar zich toetrekken dan zal dat zijn omdat we simpelweg de tig keer grotere capaciteit van HDD's niet meer nodig hebben.
Voor consumenten idd. Maar in professionele toepassingen met extreem veel data (megaupload had er 160 in Amsterdam staan) weet ik het zo net niet. Het principe bij opslag is dat je iets opslaat dat je weinig nodig hebt, je voor goedkopere media moet kiezen (SATA ipv Fiber bv). Dus ik die de HDD nog wel even bestaan, maar ik denk uiteindelijk niet meer in de consumenten PC en aanverwanten, hooguit nog een local SAN.

En waarom moeten HDD 3,5"" blijven en de huidige dikte houden? In een serverpark kan groter en kleiner ook; wellicht is daar nog iets te behalen.

[Reactie gewijzigd door Jol65 op 2 februari 2012 19:09]

En een SSD kan niet kapot? Het ontbreken van mechanische onderdelen betekend niet dat de levensduur oneindig is. Ook met een SDD zul je het risico blijven houden dat door defecten in de geheugencellen of de controller je data plotseling verdwenen is.
Op een bepaald moment kan de platter van een SATA niet meer kleiner. Zelfde als processors, nu zitten ze op het 28nm procede maar ze kunnen niet negatief worden. Met andere woorden, het houdt een keer op... Ik denk dat inderdaad de SSD ontwikkeling gewoon gaat doorzetten en de huidige SATA's ophouden met bestaan. En dan praat ik over 10 jaar...
Je weet ook dat de eenheid nm (nanometer) kan worden opgedeeld in pm (picometer)? Dus negatief nm hoeft niet, er wordt gewoon aan een kleinere schaal gerefereerd.

28nm == 28000pm dus de volgende generatie CPU's wordt gewoon 280pm

Maar terug komend op de HDD, daar is een aantal jaar terug ook een nieuwe techniek ontwikkeld waarbij de bitjes dichter op elkaar staan. Dus dat de platter niet meer kleiner kan is een onzin statement. De techniek die nu bescheven wordt is er om te zorgen dat de HDD sneller wordt, over een aantal jaar komt er weer een techniek dat een verdubbeling is van de platter capaciteit. Dat heet ontwikkeling, en die staat nooit stil.

[Reactie gewijzigd door Fealine op 2 februari 2012 17:16]

1 nm = 10 (ngstrm). En 1 is ongeveer de schaal waarop atomen worden uitgedrukt (die varieren tussen ongeveer 1 en 3 ). Dat betekent dus dat je zo rond de 1 2 nm wel zo'n beetje klaar bent met miniaturisatie. Aan moleculaire magneten wordt hard gewerkt maar die zitten dus op ongeveer die schaal, dat betekent dat 15 TB HDD's waarschijnlijk wel tot de mogelijkheden behoren maar er komt een punt waar je je af moet vragen in hoeverre het nog de moeite waard is om met een oude technologie door te gaan.
Dit verhaal geldt ook voor SSDs, en die hebben complexere basiselementen. Het zal wel even duren voordat de datadichtheid van een SSD even hoog is als die van een HDD, laat staan voor een vergelijkbare prijs.
De dichtheid van een SSD is vele malen hoger dan van een harde schijf.

Het is alleen duur, jij haalt de prijs en dichtheid door elkaar.

Kijk maar naar een MicroSD kaart, die kunnen ze met de huidige techniek maken in 64 of zelfs 128GB.
[citation needed]

Inderdaad, voor de allerkleinste drives is flashgeheugen in het voordeel. Voor bulk storage zijn magnetische drives ruim in het voordeel.
De techniek is al veel verder, een disk van 100Tb en groter is theoretisch mogelijk.

Alleen de commerciele toepassing (kosten van) is een probleem. De investeringen op de bestaande productie omgevingen willen de grote hd jongens ook nog even terugverdienen/uitmelken natuurlijk

hier nog wat meer leuke info http://en.wikipedia.org/wiki/Hard_disk_drive
Schaal/snelheid is niet het enige dat telt. Ook al bereiken hdd's op een gegeven moment een maximale dichtheid, zolang ze orden van grootte goedkoper blijven dan ssd's blijft er een markt voor. Tapes waren vijftien jaar geleden al old skool, maar worden nog steeds op grote schaal gebruikt.
Wat je zegt klopt niet.

Het kan namelijk nog kleiner dan atomen, en kleiner dan dat. Nu is daar alleen nog niks van mogelijk omdat er geen manieren en gereedschappen voor zijn,
Theoretisch kun je eindeloos doorgaan ja. Maar als ik een a4-tje blijf vouwen, dan kan ik op een bepaald moment niet meer vouwen. Als ik dan ga fitnessen om sterker te worden dan zou ik hem misschien nog een paar keer kunnen vouwen. Maar op een bepaald moment kan ik ook niet meer sterker worden...
Je kan iets maar 7 keer vouwen, daarna wordt het buigen.
Je kan iets maar 7 keer vouwen, daarna wordt het buigen.
Helaas, maar dat is slechts een urban myth. Dit hangt helemaal van je materiaal/dikte/formaat van je velletje af.

Zie ook Mythbusters:
http://www.youtube.com/watch?v=kRAEBbotuIE
Het begon toch aardig te vouwen.

Nu we toch Mythes in de discussie aan het gooien zijn, kunnen ze http://nl.wikipedia.org/wiki/Jan_Sloot zijn systeem niet ook even opslaan op de boot-record :P
Op een bepaald moment kan de platter van een SATA niet meer kleiner. Zelfde als processors, nu zitten ze op het 28nm procede maar ze kunnen niet negatief worden. Met andere woorden, het houdt een keer op... Ik denk dat inderdaad de SSD ontwikkeling gewoon gaat doorzetten en de huidige SATA's ophouden met bestaan.
Bij ssd's zit men ook al op 25nm dus op een vergelijkbare schaal als hdd's. Wat was je punt nou eigenlijk? :P

En zoals Fealine al zei, je kan (hypothetisch in elk geval, praktijk zien we vanzelf of het kan) best kleiner dan nanometers. Een nanometer is weer op te delen in duizend picometer, een picometer in duizend femtometer en een femtometer bestaat weer uit duizend attometer. Het kan altijd kleiner, het is alleen een kwestie van een nieuwe naam verzinnen voor de eenheid :)

[Reactie gewijzigd door Bonez0r op 2 februari 2012 23:10]

de vraag is hoeveel moleculen je minimaal nodig hebt om een transistor te bouwen. als je dat weet kun je uitrekenen hoe klein je kunt gaan. echter het materiaal waar het mee gemaakt wordt moet minstens zo klein zijn om het te bouwen. zoals al eerder gezegd... het houdt een keer op. echter vraag ik me af waar iedereen zich druk om maakt. hoeveel sd kaartjes van 32 gb passen er in de massa van een 3,5 inch hdd? voorlopig nog meer dan genoeg...

ik heb me altijd afgevraagd waarom cpu's steeds maar kleiner gemaakt worden er passen toch makkelijk 4 cpus op een moederboard? het is alleen de techniek aanpassen. er iz nog genoeg ruimte in een computer kast. ik maak me geen zorgen.
De reden waarom het *toch kleiner wordt gemaakt is omdat het dan minder energie verbruikt, ook zijn kleinere componomenten makkelijker koelbaar (dat geldt dan vooral voor de CPU's).
de vraag is hoeveel moleculen je minimaal nodig hebt om een transistor te bouwen. als je dat weet kun je uitrekenen hoe klein je kunt gaan. echter het materiaal waar het mee gemaakt wordt moet minstens zo klein zijn om het te bouwen. zoals al eerder gezegd... het houdt een keer op.
Dan sta je niet erg open voor nieuwe mogelijkheden imo. Op dit moment zouden we theoretisch tot op atomaire schaal kunnen bouwen, maar wie zegt dat we daarna niet iets ontdekken om nog meer informatie in minder ruimte op te slaan? De theoretische natuurkunde zit vol met allerlei exotische mogelijkheden. Wat vandaag science fiction is kan morgen science fact zijn.
De platter wil je niet kleiner hebben eerder groter ala IBM Bigfoots :Y)
Eum het verkleinen van iets gebeurd relatief (deling) en niet absoluut (aftrekking). Het zal dan ook nooit of te nooit negatief worden zelfs al zou je eeuwig blijven verkleinen.

Je kan wel degelijk blijven halveren zolang het fysisch mogelijk is (lees in theorie tot aan 1 atoom groot), negatief zal het nooit worden.
Na het abstract even doorgelezen te hebben:
Hun theorie verklaard slechts al waargenomen fenomenen. Het is niet alsof ze iets heel abstracts hebben bedacht.
Wat ze gevonden hebben is dat de spins tijdens het flippen (en dus ook tijdens het relaxeren?) een geheel onverwachte interactie met naburige spins dan tot noch toe werd aangenomen ((anti-)feromagnetische coupling met de buren ... ik heb ook geen tijd om het hele abstract door te lezen ;) ). Door deze theorie zouden ze nieuwe legeringen kunnen maken die sneller schakelen.

Wellicht heb ik het verkeerd, maar wat ik hier uit concludeer is dat met het toepassen van hun theorie bijvoorbeeld SSD's sneller kunnen schrijven.
SSD's zijn niet magnetisch, dus dat heeft hier weinig mee te maken. Een HDD maakt wl gebruik van magnetisme. Wat ik eruit begrijp is dat je met deze nieuwe inzichten materialen zou kunnen maken waar je magnetische velden sneller kunt laten omslaan - met als gevolg dat je schrijfkop minder tijd nodig heeft om een bitje op een schijf te zetten.
Dat heeft dan weer als gevolg dat je een schijf theoretisch sneller kan laten draaien, of de dichtheid kan verhogen, omdat je nu bitjes sneller kan schrijven dan voorheen. Daar zitten uiteraard ook limieten aan, want hoewel het heel snel gaat, heeft een schrijfkop wel degelijk tijd nodig om een bitje op een schijf te zetten. Er zit dus een theoretisch maximum aan dichtheid/rotatiesnelheid, en met deze vinding kun je die weer wat opschroeven.
Ter aanvulling om het misschien toch wat duidelijker te maken. En helemaal nieuw is deze gedachte ook niet in 2004 werd hier al over bericht.

Bron 2004:
http://www.fom.nl/live/ni...el.pag?objectnumber=27432

Bron over antiferromagnetische:
http://nl.wikipedia.org/wiki/Antiferromagnetisme

Bron over de expirimenten:
http://www.ru.nl/wetensch...707/doorbraak_magnetisme/
Wat is er eerder: zo'n heel snelle traditionele HDD, of een snelle 5 TB SSD?
Racetrack memory? http://en.wikipedia.org/wiki/Racetrack_memory
Racetrack memory combines the benefits of magnetic hard drives and solid-state memory to overcome challenges of growing memory demands and shrinking devices.
Proving this type of memory is feasible, today IBM researchers are detailing the first Racetrack memory device integrated with CMOS technology on 200mm wafers, culminating seven years of physics research.
The researchers demonstrated both read and write functionality on an array of 256 in-plane, magnetized horizontal racetracks. This development lays the foundation for further improving Racetrack memory’s density and reliability using perpendicular magnetized racetracks and three-dimensional architectures.
This breakthrough could lead to a new type of data-centric computing that allows massive amounts of stored information to be accessed in less than a billionth of a second.
Als ik het goed begrijp zou volgens dit artikel een magneet gemaakt kunnen worden die sneller van pool wisselt waardoor we sneller bits kunnen wegschrijven en daardoor de snelheid van harde schijven verhoogt kan worden
"De theorie, die gepubliceerd wordt onder de naam Ultrafast Spin Dynamics in Multisublattice Magnets, beschrijft hoe de spins in een magneet veranderen op een zeer korte tijdschaal. Anders dan tot nog toe werd aangenomen bewegen spins zich dus niet uniform en gelijktijdig, maar bovendien zijn de karakteristieken van de spins sterk afhankelijk van het materiaal."

Doordat die spins zich dus blijkbaar net standaard uniform en gelijktijdig bewegen - in tegenstelling tot wat gedacht werd - zijn ze, denk ik, gemakkelijker manipuleerbaar (tweerichtings ipv eenrichtingsverkeer, bij wijze van). Gokje althans, aan de hand van wat er in het artikel staat, haha. Ben alleen ook wel benieuwd naar hoe dat dan precies in de praktijk wordt gedaan, maar dat is waarschijnlijk een beetje teveel van het goede om even zo 123 aan ons uit te leggen.

Vind het leuk om te zien dat er de laatste periode zoveel ontwikkeling is in 'hardeschijven-land'. Ben dan ook erg nieuwsgierig naar hoeveel sneller (en hopelijk ook hoeveel goedkoper :P) de schijven binnen een paar jaar zijn!

EDIT: de mensen hierboven waren me voor :P

[Reactie gewijzigd door Gilraen op 2 februari 2012 17:09]

Beetje aan de late kant. met een jaar of 2 is iedereen al wel over op ssd.
Wel goed dat er onderzoek is maar krijg een beetje het gevoel van een 10 jaar oude auto een nieuwe motor geven zodat deze (iets) sneller is.......
Het is fundamenteel onderzoek..

Die harde schijf van nu maakt hem niets uit, dat is iets wat de media graag ziet. Het artikel op zich is het resultaat.

Snap niet waarom hierdoor in eens een HDD/SSD discussie lost barst..

[Reactie gewijzigd door meneerlaurens op 2 februari 2012 18:04]

Denk het niet, ik heb expres nog gewone schijven omdat data opslag op SSD's gewoonweg niet betaalbaar is. Ook kunnen ze niet erg best tegen heel veel schrijf/lees acties. Als je zulke dingen in een server stopt zijn ze binnen een paar jaar zo ver heen dat je gedag kan zeggen tegen je data.
Maar is dit dan ook beter dan een SSD? het lijkt me dat de SSD op het moment in elk opzicht boven de HDD geplaatst kan worden, behalve dan met levensduur en prijs, maar de ontwikkeling is nog in volle gang...
Zolang er bewegende onderdelen in een hardeschijf zitten, zal deze altijd op termijn minder betrouwbaar blijken dan bijvoorbeeld een SSD. Qua levensduur heeft een SSD veel meer potentie in ieder geval, hoewel dit in de praktijk nu misschien nog niet helemaal tot zijn recht komt.

Bewegende onderdelen = slijten = uiteindelijk failiure.
Alleen wel jammer dat SSDs een hoge wisspanning nodig hebben, en daardoor ook "slijten".
zodra dat probleem onder de knie is, heb je inderdaad helemaal gelijk.
Ik denk (eigen aanname) dat de SSD altijd sneller zal blijven dan de traditionele hardeschijf. Heel simpel omdat in een hardeschijf bewegende onderdelen zetten, en hoe snel/soepel ze ook gaan, er zal daar altijd iets tijdsverlies zijn, en bij digitale opslag (de SSD) is het alleen de beperking van hoe snel de chip iets kan opzoeken in het flashgeheugen.
"De toepasbaarheid van dit materiaal voor de ontwikkeling van snellere harde schijven zou dermate groot zijn, dat een patent op de techniek werd aangevraagd."
Zouden ze ook rekening hebben gehouden met de mogelijkheid dat misschien tegen de tijd dat het toepasbaar is en ze de nieuwe schijven op de markt kunnen brengen, dat SSD technologie het misschien wel helemaal overbodig maakt?
(Ok, dat risico heb je natuurlijk altijd, maar in dit geval is 't misschien wel redelijk te voorspellen als je een prognose kunt maken wanneer de eerste schijven waarbij dit toegepast is, op z'n vroegst de markt zullen raken. Daar ben ik dan ook wel benieuwd naar eigenlijk..)

[Reactie gewijzigd door Da-WiZZy0n op 2 februari 2012 17:33]

Ik denk dat ze er meer op rekenen dat voorlopig de HDD nog helemaal nergens heen gaat. Er wordt al jaren geroepen dat de HDD achterhaald is en dat de SSD het helemaal gaat maken, maar we wachten nog steeds. En voor veel toepassingen is een SSD ook helemaal niet interessant (simpele data storage, bijvoorbeeld, waar snelle access/seektimes niet zo boeiend zijn), dus daar zal een snellere HDD populairder zijn als een SSD.
Alles wat je noemt komt neer op de duurdere prijs per GB samenhangend met de lagere datacapaciteit per disk. De SSD is het zeker aan het maken op vlakken waar keiharde performance nodig is en dus de hogere prijs opweegt tegen het tekort aan snelheid. Maar hoe lang gaat het duren voordat de HDD en SSD op hetzelfde prijs- en capaciteitsniveau komen?

[Reactie gewijzigd door Da-WiZZy0n op 2 februari 2012 18:10]

misschien heb ik het verkeerd, maar het is een beetje als een nieuwe technologie verhoogt efficiency ringkerngeheugen.

Met de enorme snelheid waarmee SSD wordt ontwikkeld, groeit in capaciteit en daalt in prijs is het een ontwikkeling in een vergane technologie.

WEL KNAP! maar too much too late.
SSD heeft nog steeds een flinke inhaalslag nodig om te kunnen concureren met de prijs/capaciteit ratio van een HDD. Voorlopig zal de normale HDD nog niet verdwenen zijn en zal deze nog vaak naast een SSD worden gebruikt voor de bulk data.
Nieuwe theorie voor snelle harde schijven
Je bedoelt een hogere sustained transfer rate? Want aan access / seek times gaat dit niks veranderen. Helaas.
Jammer dat ze net bedacht hebben hoe ze met losse moleculen geheugen maken, waardoor schijven (zoals ze nu zijn, met discs) 100x zoveel data kunnen bevatten, en chips (ssd etc) tot wel 400x!!!
Misschien handig als je ook een bron vermeld? Dit zou natuurlijk heel erg interessant zijn!
http://news.yahoo.com/blo...hard-drive-223951544.html
Ik had de originele IBM link (die ik even niet kan vinden) gesubmit, maar op dat moment was de CES bezig, dus het bericht is ondergesneeuwd.
dus als je op je platter zo'n anti ferromagnetisch materiaal plaatst bij een bit kan je een reactie kunnen starten in plaats van een locatie langdurig van de gewenste magnetische richting te voorzien? het andere materiaal switcht snel maar behoud kort zijn magnetisch veld en neemt de bit mee, daardoor zou je dus met kortere pulsen dingen wegschrijven?
Klinkt leuk.
Ik denk dat ze hier individuele atomaire spins willen beinvloeden, dat leidt tot een theoretische max van 1x10^16 enen en nullen per vierkante cm als atomen een onderlinge afstand van 1 angstrom hebben op het oppervlak. Dat is 10.000.000.000.000.000 bits, ofwel 1250 TB per cm2. Toch?

Misschien niet snel te lezen maar wel veel!

[Reactie gewijzigd door Duckhamster op 3 februari 2012 05:04]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True