Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties
Submitter: Destralak

Een nieuw type geheugen op basis van nanodraden is in staat computerdata honderdduizend jaar te bewaren en gegevens duizend keer sneller tevoorschijn te toveren dan flashgeheugen.

NanodradenBovendien kan de nieuwe technologie tot aanzienlijk kleinere geheugenmodules leiden en die ook nog veel minder energie verbruiken, aldus de universiteit van Pennsylvania. Een team van wetenschappers maakte voor hun vinding gebruik van nanodraden van germanium antimoontellurium, een materiaal dat van fase verandert en tussen amorfe en kristallijne structuur wisselt.

Bij de fabricage van het geheugen vertrouwden de wetenschappers niet op lithografie, maar op zelf-assemblage, dat ervoor zorgde dat er spontaan draadjes met een diameter van 30 a 50 nanometer en een lengte van 10 micrometer ontstonden. Vervolgens werd het resultaat op een siliciumsubstraat aangebracht.

Bij het testen van de nieuwe geheugentechnologie kwam een extreem laag energieverbruik, 0,7mW per bit, naar voren dat benodigd was voor het encoderen van data. Ook werd duidelijk dat lezen, schrijven en terughalen van gegevens vijftig nanoseconden kostte, grofweg duizend keer zo snel als flashgeheugen. Verder zou data zelfs na 100.000 jaar gebruik niet verloren gaan.

Volgens Ritesh Agarwal van het onderzoeksteam kan de technologie voor een revolutie zorgen op geheugengebied: 'Stel je voor dat je honderden films in hoge resolutie kunt opslaan op een kleine schijf en dat je ze kunt afspelen zonder dat je tijd verliest aan bufferen. Of stel je voor dat je laptop in een paar seconden opstart.' De wetenschappers verwachten dat over acht tot tien jaar de techniek in de praktijk kan worden toegepast.

Moderatie-faq Wijzig weergave

Reacties (98)

0,7mW voor het schrijven van een bit? dus het schrijven van 1 Gigabyte kost kost 8,000,000,000 bits * 0,0007W = 5,600,000 Watt lijkt me niet erg zuinig of mis ik nu iets.

edit:

Ik weet al wat ik mis., de tijdsfactor , je schrijft niet al die bits tegelijk. Stel dat die 0,7mW gedurende 50nano sec is dan is het verbuik dus 5,600,000Watt * 0,000000050 sec /3600 = 0,0000778 W/uur. Een AA batterij heeft al 1.2V*2,5A/uur = 3W/uur aan energie, genoeg om zo'n 38 Terabyte te schrijven.

[Reactie gewijzigd door PuzzleSolver op 19 september 2007 15:44]

Duh, je schrijft per databus-breedte tegelijk, 16,32,64 of 128 bits. Dus hooguit 0,7*128 mW momenteel. Sequentieel dus, niet alle bits tegelijk... :)
Zowiezo zou je denken dat het in Wh moet en niet in W.

Misschien kost het continue 0.7mW om een bit op de uitgang te toveren, en doet het er niet toe hoevaak je schakelt welk bit je wilt zien? Dus als je een 1kbit verbinding tussen geheugen en rest van je systeem hebt, je geheugen een verbruik heeft van 0.7W continue?
Ik zou denken dat het gewoon totaal 0.7mW kost om de bit weg te schrijven in 50 nS
Waarschijnlijk heb ik het mis, maar dat is dan circa 9.7 femto Whatt uur om een bitje uit te lezen?
de eenheid van de Watt is Joule per seconde (J/s), oftewel als je over continue vermogen praat dan heb je het over Watt, wanneer je het hebt over hoeveel energie je gebruikt gedurende een bepaalde tijd (bijvoorbeeld 50 nano seconde) dan heb je het over J (of eventueel Wh => 3,6 KJ). dus 1 bit wegschrijven kost dan waarschijnlijk
0.7*10^-3 * 50*10^-9 J = 35*10^-12 J
In woorden is dat dus 35 Pico Joule. Ter vergelijking, we zouden 35.000 TB kunnen wegschrijven op zo'n dingetje in 1 seconde en dan "trekken" we 35 W.
Dat is echt extreem weinig! 8-)
Als je dat nu zou doen op 'hobby' spullen zou je 70.000 500Gb schijven moeten draaien ... voordat die Łberhaupt opgespint zijn ben je al even bezig, en voordat ze vol zitten ben je ook nog wel even zoet!!!
Niet om het negatief doen maarre... hoeveel van dit soort berichten hebben we al gezien...
Het lijkt wel of er elke dag revolutionaire technieken bedacht worden maar er geeneen uiteindelijk een weg vindt naar het publiek.
geheugen middels: phase-change, kristal, suiker, nano-tubes etc etc. Toevallig zijn solid state disks sinds kort redelijk verkrijgbaar maar laten we niet vergeten dat dit gebasseerd op (jaren 80) flash technologie... Hebben bedrijven als WD, Hitachi, Seagate geen behoefte aan een dergelijk medium (=investeringskans misschien?).

ps... deze techniek is 1000x sneller dan huidige technieken... ze doen er alleen 10 jaar over om door te ontwikkelen... weet iemand nog hoe traag de computers 10 jaar geleden (ongeveer pentium II) waren? misschien zo'n 1000x trager dan nu? 8)7

[Reactie gewijzigd door kalechinees op 19 september 2007 15:44]

Ik denk dat het geen factor 1000 scheelt, al zijn we tegenwoordig natuurlijk wel sneller. Hoe dan ook, door deze ontwikkeling kan die snelheidsgroei doorzetten in plaats van dat we stilstand in de ontwikkeling krijgen.

[Reactie gewijzigd door Carpento op 19 september 2007 15:45]

Als je praat over aantal bewerkingen per seconde, dan zijn we daar zeker een factor 1000 mee opgeschoten ten opzichte van 10 jaar terug.
Ik zal proberen even wat bronnen op te sporen...
Het lijkt wel of er elke dag revolutionaire technieken bedacht worden maar er geeneen uiteindelijk een weg vindt naar het publiek.
*UCHE UCHE*
Wii is mischien een goed voorbeeld van een extreeme verandering de laatste tijd, iets compleet nieuws bij de consument.
Verder komen er steeds weer nieuwe dingen bij, denk bijv aan Q6600, nieuwe Xeon, nieuwe grafische kaarten, alles gaat steeds verder vooruit. waarom dit dan niet?
Wii is gebasseerd op een iets geavanceerde positieberekening middels infra-rood leds... niet echt hyper modern wel 8)7 ...
Ook alle processoreren zijn gebasserd op silicium technieken van bijna 40 jaar oud. Bluetooth is een gepimpte radio... ga zo maar door.

Het enige revolutionaire techniek van afgelopen 10 jaar is volgens mij uitvinding van de LCD / plasma, glasvezel en digitale image sensor (camera's, webcam etc)...
Noem jij er nog eens 3? Vooruitgang is niet datgene wat de marketingafdelingen je wijsmaken...
Het komt er dus op neer dat ze gebruik maken van een fase wisseling in de nanodraden ("een materiaal dat van fase verandert en tussen amorfe en kristallijne structuur wisselt"), maar hoe schrijven ze dan data weg naar de nanodraden? Gaat dat dan nog steeds met magnetisme?
aangezien het vergeeleken wordt met flash (en dus niet hdd's) vermoed ik dat magnetisme met het hele product niks te maken heeft ;)
ik denk dat de vergelijking met flash vooral gemaakt wordt door het non-volatile karakter van de opslagmethode en het feit dat er geen bewegende delen zijn.
Belangrijkste ontbrekende stukje informatie lijkt mij toch wel *hoeveel* van die draadjes ze kunnen beschrijven, c.q. hoe dicht die bij elkaar kunnen zitten.

Uit alles wat hier -en in de bron- beschreven wordt, kun je niet meer afleiden dan dat ze 1 of hooguit enkele bits geschreven hebben. Leuk dat die heel klein is, en er -theoretisch, geextrapoleerd- Terabytes in een SDkaartje passen.

Maar voor een praktische toepassing is dat natuurlijk nog zinloos. Stop er veel dicht bij elkaar, en je krijgt allerlei nieuwe problemen. Overspraak bij het schrijven? Kun je 2 naast elkaar gelegen bitten eigenlijk uberhaupt een verschillende waarde schrijven? Uitleesmechanisme - hoe doen we dat? Is ook wel handig. Anders hebben ze een WOM gemaakt (Write only memory). Etc etc etc. Eerst zien, dan geloven.
De wetenschappers verwachten dat over acht tot tien jaar de techniek in de praktijk kan worden toegepast.
Yup... maar waarschijnlijk zal het nooit in de praktijk worden toegepast en wordt er gekozen voor een minder exotische materialen en een minder exotische constructiemethode.

Het onder controle krijgen van zelf-assemblage staat nog in de kinderschoenen en metalen als germanium, antimoon en tellurium liggen ook niet bepaald voor het oprapen. De zonnecellen die voor de ruimtevaart worden gebruikt zijn ook een stuk efficienter dan huis- , tuin- en keukenzonnepanelen, maar die zijn ook nog steeds niet voor thuisgebruik gecommercialiseerd vanwege de zeldzaamheid van de materialen. Het kan gewoon niet goedkoop genoeg gemaakt worden.
Heel mooie ontwikkeling , maar ook hier weer het probleem van de interconnects. Er een paar honderd miljoen random van maken zie ik niet als onmogelijk, maar het spul van connecties voorzien op die schaal zodat het met mekaar en overige hardware kan communiceren in combinatie met het rangschikken van die tubes lijkt me de grootste moeilijkheid...
10.000 jaar bruikbaar... lijkt op het eerste zicht enkel voordelen te hebben. Alleen hoop ik dat er niet teveel nadelen aan verbonden zijn voor het milieu of de mens. Zijn de deeltjes toxisch (vb. bij inademen omdat ze zo klein zijn), te recycleren of te vernietigen zonder dat ze eeuwen lang in ons ecosysteem blijven ronddolen? Want als iets 10.000 jaar meegaat, dan lijkt de kans me groter dat dat eventuele problemen geeft qua afval... Nu, onderzoek zal het wel uitwijzen...

hier een interessant artikel over een debat over nanotechnologie (universiteit Nijmegen): http://www.lux-nijmegen.n...chnologie_vslg_dudok.html
Kleiner, Sneller, Zuiniger. Zeer interessant!

Ik hoop dat ze de verwachtingen ook waar gaan maken, een computer die binnen een aantal seconde opstart, een bestand verplaatsen in enkele seconde, een spel start binnen een ookwenk op, betrouwbare opslag op miliscul formaat!
Dit is ook mooi nieuws voor laptops, opslag media dat minder stroom gebruikt en sneller is en nog eens kleiner is ook!
Klinkt zeer interessant en revolutionair.
Verder zou data zelfs na 100.000 jaar gebruik niet verloren gaan.
Ik vraag me toch af hoe zit dit onderzocht hebben! :+
ik denk dat ze naar het verval tijd van de nanodradenkijken.
Ik denk niet dat we ons illusies moeten voorhouden dat pc's tegen die tijd op een paar seconden opstarten. Je mag niet vergeten dat de software zich ook verder ontwikkeld en steeds zwaarder wordt. Het inladen zal mss iets sneller zijn maar ik verwacht niet dat het verschil grandioos gaat zijn.
De pc's zijn nu ook al stukken sneller dan in de tijd van windows 3.x maar het opstarten gaat nog steeds even "snel".

Verder is het wel een leuke technologie, vooral naar permanente opslag is 100.000 niet slecht, al is het maar 1/10 hiervan dan ben ik nog tevreden :) . De vraag is nu maar hoe stabiel het allemaal gaat zijn tegen dat ze aan het stadium van massaproductie zijn.
vergeet ook niet dat alles steeds meer data gaat gebruiken.
full hd is nu 1920 x 1080 pixels maar is al (officieel) opgerekt naar 2560 x 1600 pixels (HDMI 1.3).
alles neemt ook dus steeds meer ruimte in beslag voor 'hetzelfde'
wat betreft HD, die resolutie groeit op een gegeven moment niet meer, want dan kunnen mensen het verschil toch niet meer zien.

tenzij de tv's groeien natuurlijk, maar dan moeten op een gegeven moment de huizen mee groeien en krijgen we weer teveel bebouwing en zo
Ik denk als je hier met software ontwikkeling tegen op moet boksen dat je wel heeťl slecht moet programmeren om een PC traag te krijgen. Dit zijn toch wel snelheden waar nu van gedroomd wordt.

En software zwaarder en zwaarder maken is een optie, maar kost ook meer ontwikkelingsgeld. Programmeurs zijn kostbaar en pragramma's schrijven zichzelf niet. Als die worden uitgevonden kan ik er wel in mee, maar totdat programma's zichzelf schrijven zie ik ze deze snelheden niet vertragen.

Hopenlijk komen deze onderzoekers snel met de eerste HDD's op de proppen :Y)
Optimaliseren kost ook een hoop werk door een programmeur. Kijk naar OpenOffice.org: ze zijn al sinds versie 1 bezig met het proberen om het sneller te maken, en alhoewel ze met 2.3 al een stuk in de goede richting zijn, is het nog steeds moeilijk snel te noemen. (no flame intended)

Bovendien moet ik Hachiman gelijk geven: een gemiddelde pc met vista start niet veel sneller op dan een oude PC met Windows 3.1. Toch moet ik zeggen dat dit zeker een hoop gaat schelen: opstarten gaat met Vista al een hoop sneller met huidig flash-geheugen, laat staan met deze techniek. Hoe dan ook denk ik niet dat het gaat leiden tot een een opstarttijd van luttele seconden, maar alles is meegenomen :).
Datadoorvoer is altijd nog inherent verbonden aan dataverwerking in bijv. de PC. Alles gaat zo snel als het langzaamste onderdeel, uiteindelijk.
PC's programmeeren zichzelf nog niet.

over 10 ot 15 jaar denk ik dat we toch al een heel eind op weg zijn naar zelfgenererende code. Als je ziet wat er nu al kan met templating en dat met de talen van tegenwoordig redleijk uitgebreide bibliotheken worden meegeleverd die heel veel werk uit handen nemen, dan denk ik dat het niet onrealistsch is om te stellen dat computers straks alleen een high level ontwerp nodig hebben om het werk te doen.

[Reactie gewijzigd door ocf81 op 19 september 2007 16:32]

Vergeet alleen niet dat de programmateur die gebruikt word om van zo een simpele taal iets moois te maken ook nog steeds mensen werk is.

Voorbeeld: Ruby is super snel, super easy etc etc, maar de engine is toch echt mensen werk. Het is niet alsof de pc zelf het ruby framework heeft gemaakt ;). Maar het zelfde geld voor C++, als je het compileerd naar iets als assembly ofzo (zeg ik dit goed) gebeurd dit nog steeds niet vanzelf maar via menselijk gemaakte code die de vertaal slag legt... en de processor... ach je snapt het wel :)
Verder zou data zelfs na 100.000 jaar gebruik niet verloren gaan.

Door de opwarming van de aarde zijn uit de ijskappen nanodraadjes van bijna 100.000 jaar oud gevonden die nog informatie bleken te bevatten. Oudere draadjes, van ongeveer 120.000 jaar geleden, bleken echter nog slechts zwaar beschadigde data te bevatten die zelfs onder invloed van bestraling met linux niet of nauwelijks meer leesbaar te maken waren. (bron: wikipedia, binnenkort,via Mabellink).
bestraling met linux.. wauw... ik wist dat het een goed OS was maar dat ze zelfs zover waren is nieuw voor me ;)
tsk, krijgen we weer zo'n onzin verhaal. 100.000 jaar oude nanodraadjes. Was jij erbij? En ze hebben ook een lancaster vliegtuig uitgegraven die in de 2e wereldoorlog neergestort is in groenland. Bij het uitgraven is eerst met een boor een gat in het ijs geboord tot het vliegtuig en later is onderzocht hoeveel jaar het vliegtuig er al lag door de ringen te tellen op het ijs. (zo onderzoeken ze van alle jaren voor onze huidige meteriologische instituten de temperaturen van de aarde) toen ze ontdekten dat volgens de ringen het vliegtuig al honderde jaren daar zou liggen, bleek dat deze manier van ijslagen tellen dus nutteloos en onzinnig is. en dat temperatuursgegevens in ijs zo goed helemaal niet bewaard zijn. Weg de millioenen overheids geinvesteerde dollars!

Ook het magnetisch veld van de aarde verzwakt waardoor koolstofdatering nutteloos en totaal zinloze resultaten geeft. Zo geeft een huid van een mamoet 50.000 jaar en een bot van hetzelfde dier ineens 80.000 jaar. Dan is er toch iets heeeeel erg mis met de techniek! tenzij het dier er heel lang over deed om te sterven. Maar niemand hoor je dat vertellen op de discovery channel.

Of vat ik het verhaal goed en is het satirisch bedoeld... 120.000 jaar met linux bestraald...
- Ik vraag me toch af hoe zit dit onderzocht hebben! -

Ze zijn er al een tijdje mee bezig :+
Ik vraag me toch af hoe zit dit onderzocht hebben! :+
Als ze het onderzocht hebben zoals MTBF cijfers van harddisks onderzocht worden, hebben ze gewoon 3,155,760,000,000 bits (100.000*365.25*24*60*60) bewaard, en als die dan 1 seconde bewaard bleven: voila, MTBF van 100.000 jaar :+

Mooie ontwikkeling verder wel...
-kijken of de fase veranderd, hoe snel, en over welke tijd..
-uitzetten in een grafiek
-formule bij maken
zoiets??
of als de fase niet veranderd. kijken hoelang het matriaal meegaat...
Als dit waar is en echt binnen de tien jaar uitkomt, vind ik dit zonder twijfel ťťn van de beste onderzoeken en doorbraken die ik hier al sinds lange tijd heb gelezen.
Duimen dus dat het waar is :)
En als na 99000 jaar toch ineens je data onleesbaar is kan je ze dan vanuit je graf aanklagen ??
Ik vraag me af, als de techniek nu al bekend is, waarom het nog 5 Š 10 jaar gaat duren voor we dit gaan terugzien? Is dat niet voor deze tijd extreem langzaam?
Omdat er nog een hoop werk gedaan moet worden om het op in massa-productie te krijgen. Een gecontroleerd laboratorium waarin je er enkele maakt is iets anders dan een fabriek waar de ene na de ander van de lopende band af moet rollen. Daar zullen machines voor moeten worden ontwikkeld.

Verder zullen er nog geheugenreepjes uit ontwikkeld moeten worden.

Al met al nog een hoop te doen. Daarbij denk ik wel dat de 8-10jaar gebaseerd is op ervaringen uit het verleden. Het kan in dit geval langzamer danwel sneller gaan, afhankelijk van nog onbekende details.
ok een hoop werk. research en een nieuwe fabriek, logisch...

maar dat het zolang moet duren? Misschien zijn de kosten wel de bottleneck? Ik zie overal namelijk staan kleiner! sneller! energiezuiniger! langere opslagtermijn! maar nergens staat iets over de eventuele kosten... Of is dat nu nog niet te zeggen?
Ik denk dat de ontwikkeling om een compatible danwel stabiel produkt te verkrijgen behoorlijk wat inspanningen kost. Daarnaast zit geen enkele NAND-flashgeheugen fabrikant te wachten op een nieuwe firma die hun met dit soort techniek van de markt stoot, en zullen ze er natuurlijk zelf wel bijzonder geÔnteresseerd in zijn, maar door marketing opzettelijke vertraging veroorzaken voor de introductie, om zo van tussentijdse produkten zoveel mogelijk winst te verkrijgen.
Wow, schreef ik die zin? :/

[Reactie gewijzigd door bverstee op 19 september 2007 15:39]

Het is ontdekt ja.

Maar voordat het echt in productie kan worden gezet moet ook onderzocht worden hoe dit het goedkoopste en meest efficient volle manier gemaakt kan worden.
Ook zullen de machines gemaakt moeten worden die dit all kunnen produceren en er moeten producenten gevonden worden die hierin willen investeren.

Voordat het echt in commerciele staat is zal er nog veel moeten gebeuren, en dit kan erg tijdrovend zijn.
Er is natuurlijk nog verder onderzoek nodig, en er zullen heus wel een aantal "bugs" bij de test zijn voorgekomen. Maar dat het zolang moet duren, don't have a clue.
omdat er nog een wereld van verschil zit tussen het weg kunnen schrijven van 1 bit in een gecontroleerde laboratorium omgeving en het massa-produceren van de techniek in consumer chips :+
1000 maal sneller... is dit de RAM van de toekomst? Of gewoon het einde van RAM?
Het RAM-geheugen is namelijk een buffer waarin werkgegevens worden gestopt die snel beschikbaar moeten zijn. Deze buffer is nodig omdat onze grote opslagmogelijkheden (HDD, binnenkort flash?) te traag zijn.
Als dit echt zo snel is en de capaciteit groot genoeg is, waarom zouden we dan nog appart RAM gebruiken? :p

[Reactie gewijzigd door kiang op 19 september 2007 22:06]

Nee, 1000x sneller dan flash-geheugen; maar nog steeds 50ns access time.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True