Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Bron: Dailytech, submitter: Raine

Een team onderzoekers van de University of California en het California Institute of Technology heeft een nieuw soort geheugen ontwikkeld. Verrassend genoeg zijn het chemici en geen computerwetenschappers.

De geheugenmodule werkt met moleculaire schakelingen en heeft een opslagcapaciteit van 100 gigabit per vierkante centimeter. Ter vergelijking: de dichtheid van conventioneel flashgeheugen is op zijn best enkele gigabits. De ontwikkeling is volgens de uitvinders een belangrijke stap in de richting van een volledig moleculaire computer, een ontwerp dat vele malen kleiner en krachtiger zal zijn dan de huidige computers. Aan de basis van het ontwerp liggen horizontale en verticale gekruiste perpendiculaire silicium en titanium draadjes. Deze draadjes liggen op een onderlinge afstand van 16 nanometer. Op ieder snijpunt van twee draden zitten zogenaamde rotaxaanmoleculen, moleculen die in twee verschillende standen geschakeld kunnen worden. Door het voltage op iedere draad te wijzigen kan elk van de moleculen in de gewenste stand gezet worden, daarmee is iedere kruising in de draden een bit. Het ontwerp biedt ook tolerantie voor fouten: als een aantal schakelingen defect zijn, werkt de rest van de module gewoon verder.

Rotaxaanmoleculen
Twee rotaxaanmoleculen werken als schakelingen

Dat er een proof-of-concept model is wil overigens niet zeggen dat de eerste fabrieken morgen hun deuren zullen openen. Het is bijvoorbeeld onvoldoende duidelijk hoe de moleculaire schakelingen zich over een langere periode zullen gedragen. De bedoeling van de onderzoekers was ook niet nu een oplossing te presenteren die geschikt is voor massaproductie, het model is slechts bedoeld om aan te tonen dat moleculaire chips dichtheden kunnen bereiken die met traditionele technieken pas over tien tot vijftien jaar mogelijk zijn. 'We zijn nu op het punt waarop Intel volgens de wet van Moore in 2020 kan zijn', aldus James Heath, een professor van Caltech en lid van het onderzoeksteam. De onderzoekers wijzen er in hun rapport op dat geen van de huidige chipfabrikanten de steeds verder gaande miniaturisatie vol kan houden. Ze zullen rond 2013 tegen de grens van de techniek aanlopen volgens de Californische onderzoekers. Dat er een grote toekomst is weggelegd voor de moleculaire technologie mag volgens de onderzoekers geen twijfel meer lijden.

Moderatie-faq Wijzig weergave

Reacties (70)

Tsja, een leuk bericht, zeker voor mij als chemicus, maar echt nieuws is 't ook weer niet.

Er zijn volop moleculen en andere nanoschaal-systemen die gebruikt kunnen worden als geheugen. Punt is alleen dat bij vrijwel alle systemen het de vraag is of ze over langere tijd hun staat kunnen behouden.
Deze systemen zijn absoluut de toekomst, alhoewel ik denk dat de zogenoemde 'quantumcomputers' de verdere toekomst hebben.
dus dan is het nieuws dus, dat ze de theorie ook in de praktijk hebben weten te brengen.
er zijn veel technologieen, waarvan we allang weten dat ze kunnen, alleen hoe we dat ook daadwerkelijk gaan doen scheelt het nog wel eens aan
Helaas, dit is niet meer in praktijk gebracht dan een hoop andere systemen.
In dit bericht wordt gesproken over een proof-of-concept en zegt helemaal niets over de praktische mogelijkheden die dit systeem heeft voor electrische schakelingen. Er zijn zoals ik al zei zat andere systemen die in dezelfde fase zitten.

Overigens heb ik net het artikel in Nature eens door zitten lezen, en het blijkt dat slechts iets meer dan 25% van de schakelingen bruikbaar is als switch, en zelfs de besten konden niet meer dan 10 keer geschakeld worden.
De geschikte schakelingen worden vervolgens softwarematig uitgekozen, zodat alleen die gebruikt worden.
Ook de retentie tijd (tijd dat een bit z'n waarde behoudt) is 'slechts' rond de 90 minuten, wat overigens al een stuk hoger is dan vergelijkbare systemen (rond de 60 min)

Laat mij trouwens niet verkeerd begrepen worden, dit is prachtig onderzoek en je krijgt niet zomaar een publicatie in Nature. Maar we moeten niet denken dat we nu opeens een enorme grens doorbroken hebben. Er is nog enorm veel werk te doen voor deze alsmede andere systemen voordat ze praktisch bruikbaar zijn.
een mooi werkend chemisch geheugen is nu aan het werk om te typen................

Het kan dus prima werken, zelfherstellend zijn, leermogelijkheden hebben, ... kortom....

be human.
reactie op SED:

Alleen heb je in je hoofd (1,5 liter) 100 miljard hercencellen, terwijl ze in het artikel 100 miljard bit op een vierkante centimeter hebben.

En met een dikte van 16nM is de data per volume ratio zelfs een factor 10^10 hoger....
Die retentietijd is helemaal niet zo'n probleem. Bij DRAM bijvoorbeeld is het geheugenelement een condensator die z'n lading maar een paar milliseconden vasthoudt, en de electronica zorgt ervoor dat voor die tijd voorbij is de waarde wordt herschreven.

In principe kun je trouwens met die cross-bar configuratie een hele lijn parallel schrijven en lezen, en hoeft het niet bitje voor bitje.
het wordt pas spannend als ze met complexe moleculen gaan werken > ipv van 2^n bijv 16^n

en dan de vorm en soort stof aanpassen door er elektronen in te jagen >> (stroom)
En het wordt nog kleiner en sneller als ze met quarks gaan werken.
Wat denk jij dat het snelheidsverschil zou zijn? Ik zie namelijk nergens benchmarks o.i.d.
Lol jij denkt dat ze al een werkend prototype hebben met "Windows Chemo" ofzo?...
Exactly my point ;) Cyberblizzard zegt dat het met quarks nog sneller gaat... Ik vraag me af hoe hij dat kan weten.
Dat kan dus niet...

hint -> onzekerheidsprincipe.

je kunt de toestand daarvan niet meten, want het kijken naar de toestand heeft al invloed op de toestand.
Dan moet je gewoon met meerdere quarks werken tot je de gewenste betrouwbaarheid hebt.

Dit is reeds zo in de huidige elektrische schakelingen. Je hebt geen absolute garantie dat de elektronen doen wat je wil. Maar omdat ze met zoveel zijn en je genoeg tijd geeft is het gemiddelde gedrag toch het juiste gedrag, met een zeer hoge statistische betrouwbaarheid.
quantum computers werken niet met quarks maar op atomair/moleculair nivo zoals 'how things works' link ook aangeeft '...to create quantum computers, which will harness the power of atoms and molecules to perform memory and processing tasks...'. Verschil tussen huidige computers en quantum computers is dat deze laatste werken met drie nivo's ipv twee waarvan 1 nivo in quantum toestand. Het bit is dan zowel 1 als 0 gelijktijdig. Je 'How things works' link zegt hier het volgende over 'Qubits represent atoms that are working together to act as computer memory and a processor. Because a quantum computer can contain these multiple states simultaneously, it has the potential to be millions of times more powerful than today's most powerful supercomputers.'
Quarks zijn de bouwstenen van protonen en neutronen. Er is zeer veel energie nodig om quarks in vrije toestand te krijgen en te houden. Ze zullen zeker niet geschikt zijn voor geheugen als zodanig. Cheers.
Verrassend genoeg zijn het chemici en geen computerwetenschappers.

Verrassend? Het zijn altijd chemici en fysici die dit soort vooruitgangen boeken. Computerwetenschappers die zich met hardware bezighouden weten helemaal niet hoe pakweg een transistor op quantummechanisch niveau werkt. Dat zal je toch echt moeten weten voor je zoiets kan ontwerpen.
Verassend? Wil jij de boel meteen in de fik steken? :P
Er wordt een vergelijking gemaakt met de dichtheid van Flash geheugen, maar ik kan nergens de juiste informatie vinden of dit om een volatile (RAM) of non-volatile (Flash/HDD) geheugen vorm gaat.

Met hardeschijven zitten ze al tegen de Tb per viekante cm dacht ik d.m.v. de perpendicular manier, dus het zal wel voor RAM betekenen.

Hopelijk is de snelheid inderdaad vele malen sneller dan de huidige geheugen methodes, zeker voor grote L1/L2/L3 caches is het zeer interessant dan.

@pmf1971: het was dit artikel wat ik me vaag herinnerde, waarin zelfs staat dat 20-40 Tb/inch≤ (= 3.1-6.2 Tb/cm≤) mogelijk zal zijn: nieuws: Fujitsu claimt vervijfvoudiging harddiskcapaciteit , wat dus *voor* 2013-2020 gereed zal zijn met de huidige snelheden van HDD ontwikkeling.

@RocketKoen, dank je, cm≤ of inch≤ maakt toch een goed verschil. 100 Gb/cm≤ komt neer op 645.16 Gb/inch≤, wat wel al zeer dicht in de buurt zit van bestaande HDD dichtheid, want eerder genoemd artikel laat zien dat Seagate momenteel het record bezit met 400 Gb/inch≤.
1Tb per cm2 is nog niet mogelijk met harddisks

Hitachi en seagate hebben net de eerste TB schijven geintroduceerd, en die hebben waarschijnlijk3 of 4 platters, en elke platter heeft een bruikbaar oppervlak van geschat 100cm2. oftewel 100*4 = 400cm2 wat betekent dat de platters een dichtheid hebben van ongeveer 20Gb/cm2. Dat is ongeveer 125Gb/ vierkante inch. Dit is trouwens de limiet die gesteld werd voor de voorganger van de PMR techniek.

Kan zijn dat de bruikbare oppervlakte minder is en dat de dichtheid dus hoger uitvalt. Maar alsnog zijn het redelijke schattingen en zijn om aan te tonen dat 1Tb/inch2 nog lange na niet bereikt is. Wellicht dat PMR het na flink doorontwikkelen wel kan bereiken maar daar zitten we denk ik nog minimaal 4 jaar vanaf.
Terrabit per vierkante inch voor HDD's
het grote verschil dat uit het nieusbericht is al te leiden, is dat het gaat iig om solid-state geheugen gaat, dus vandaar de vergelijking met flash.

wat ik nog wel mis, is de manier waarom ze de data weer uit willen lezen. een molecuul dan veranderd onder invloed van electrische stroom is 1 ding, maar hoe wordt dit dan uitgelezen. Als er een optische of magnetische manier nodig is om de data te lezen, dan ben je het voordeel van solid-state namelijk weer kwijt.
Misschien een domme vraag hoor, maar hoe wordt de informatie uit zo'n moleculenkubus uitgelezen zodat de computer er ook daadwerkelijk wat mee kan?
kzou denken dat deze moleculen optische isomeren zijn van elkaar: dit zijn moleculen met dezelfde bruto formule (wa hier het geval toch is..) maar dat ze verschillen in hun interactie met gepolariseerd licht. Ze zullen der dan met een zeer fijne laser opschijnen en naargelang de afwijking kunnen bepalen of het een I of een 0 is.Kben ni zeker maar het lijkt me toch logisch...
Fout, het zijn geen isomeren, maar 2 totaal verschillende moleculen (namelijk een 'halter' en een 'ring').
Weer fout, het zijn wel 2 moleculen, maar het enige verschil tussen de 0 en 1 stand is de plek van de 'ring' tov de 'halter'.
Dit maakt het dus wel isomeren, alhoewel dat niet echt relevant is in dit geval, je kan beter spreken over verschillende conformaties van dezelfde stof.
@darkenrahl: fout! Ze zullen vast anders licht absorberen, maar dat gebruiken ze hier niet. Ze kunnen bovendien nooit op zo'n schaal (16 nm) licht gebruiken, aangezien de golflengte van zichtbaar licht (wat gebruikt moet worden voor een laser) minimaal zo'n 20 keer groter is.

Volgens het artikel in Nature worden de schakelingen geschakeld met 1.5V pulsen en uitgelezen met 0.2V pulsen. Gewoon electrisch allemaal dus!

@Deetch: OK, je hebt gelijk dat het kan op die golflengte, maar de energie van rontgenstraling gaat een flinke aanslag doen op de stabiliteit van het systeem (een electron met 1.5V potentiaal (1.5V is de schakelingsspanning) heeft een energie van 1.5eV, Rontgen zit in de range 10^4 eV per foton)
Je hebt ook UV en X-ray lasers dus ook kleinere golflengtes zijn mogelijk. 16 nm is wel te halen met een xray laser, echter die zijn nog in een ontwikkelingsstadium als ik snel even google
flink schudden lijkt me dus niet handig :+
Ik neem aan dat zulke reacties vrij stabiel zijn (als dit al een reactie te noemen is), maar men kan inderdaad de vraag stellen wat er gebeurd als er energie aan tegevoegd wordt.

Normaal gezien zijn mocelulen op die schaal niet onderhevig aan zulke energetische krachten. Tenzij jouw schudden echt zulke krachten kan opwekken die de onderlinge kracht onder de moleculen kan verbreken. Hoewel ik denk dat die vrij sterk zijn doordat deze continu onder spanning staan.
Da's het verschil tussen de weak- en de strong-force. De kinetische energie (verwant aan zwaartekracht) is vele (als in miljarden) malen zwakker dan de strong-force. De strong-force is de kracht die op atoom-niveau werkt (leuke filmpjes voor de 'beginner', zie chapter 4: a strange new world (linker kolom))

Oftewel, met 'schudden' krijg je die zooi niet uit elkaar/kapot of uberhaupt anders. (Ooit een fles X spontaan zien disintegreren door schudden?)
Sorry BramT, maar dit heeft helemaal niets met de sterke en zwakke kernkracht (strong en weak force) te maken.

De sterke kernkracht is de kracht die atoomkernen bij elkaar houdt - de kracht die protonen en neutronen bij elkaar houdt in een atoomkern.

Moleculen worden bij elkaar gehouden door de elektromagnetische kracht. We hebben het hier dus over schudden tegenover elektromagnetisme (en niet de sterke of zwakke kernkracht).
juist... flink schudden... je gaat toch ook niet dood van een ritje in de achtbaan? ik denk dat je banger moet zijn van de straling van je mobieltje of quantuminvloeden die op deze schaal mee gaan spelen
kijken mensen nou nooit meer naar de smilies? :+
Het ontwerp biedt ook tolerantie voor fouten: als een aantal schakelingen defect zijn, werkt de rest van de module gewoon verder.
Hoe moet ik dat zien? Je gaat naar bed met 160GB, bliksem slaat in & je wordt wakker met 100GB? :?
Dat moet je zo zien:

Door data op een bepaalde manier op te slaan kan je ervoor zorgen dat, als je een gedeeltje van je bitjes kwijtraakt, je toch nog al je bytjes kunt lezen. Deze manier van opslaan kost je wel wat meer bitjes natuurlijk.

Ik heb er niet veel verstand van, maar even wat speuren op wikipedia levert dit voorbeeld op:
http://en.wikipedia.org/wiki/Hamming_code
Op http://en.wikipedia.org/wiki/Error_detection_and_correction staat een algemene beschrijving van zulke 'codes', inclusief een lijst van bestaande codes. Foutdetectie en -correctie is het onderwerp van Coding Theory.

Het wordt in feite op heel veel plaatsen toegepast, waar maar ook signalen verstuurd of opgeslagen moeten worden - van een ruimtetelescoop tot je CD speler tot de rar bestanden in een nieuwsgroep.
ik ben bang dat dit soort geheugen nog veel vatbaarder is voor statische elektriciteit als de huidige onderdelen van een pc. Als iets 16 nanometer (!) van elkaar verwijderd ligt zul je slechts enkele millivolts nodig hebben om van een 0 een 1 te maken en omgekeerd.
Het ontwerp mag dan wel tolerantie voor fouten bieden, als je opgeslagen data daardoor onbruikbaar raakt ben je terug bij af.
1.5V voor schakeling en 0.2V voor uitlezen. 'Normale' waarden dus, vergelijkbaar met huidig DRAM.
*Gaat snel patentje nemen op deze technologie* ...

Dit is nu al de zoveelste technologie dat ik lees dat "de toekomst" gaat worden ... van chips op licht tot chips van moleculen nu ... is het geen tijd om eens uit te maken wat we verder gaan ontwikkelen? Langs de andere kant denk ik dan wel dat we nog jaren de huidige technologie gaan gebruiken, technologieŽn als deze zijn niet goed voor de markt, met technologieŽn als deze zouden er geen snellere & betere computers meer gemaakt kunnen worden wat als gevolg heeft dat niemand nog een reden heeft tot upgraden ...
De onderzoekers wijzen er in hun rapport op dat geen van de huidige chipfabrikanten de steeds verder gaande miniaturisatie vol kan houden. Ze zullen rond 2013 tegen de grens van de techniek aanlopen volgens de Californische onderzoekers.
Ik ben blij dat deze onderzoekers bezig zijn met technieken voor de verdere toekomst, maar wat ze zeggen over de huidige techniek (tegen de grens aanlopen) heb ik al zo vaak gehoord, en dan werd er vervolgens een verbetering of aanpassing op de bestaande techniek toegepast, waardoor deze nog wel verder kon doorgroeien. Eerder een grens dan de grens volgens mij.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True