Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Nanochip werkt aan een geheugenchip met een capaciteit van 100GB. De chip zou met verouderde apparatuur te maken zijn en in de toekomst een terabyte moeten herbergen. Intel heeft in de techniek ge´nvesteerd.

De halfgeleiderfabrikant heeft een investering van veertien miljoen dollar binnengehaald om geheugenchips met een capaciteit van honderd gigabyte te ontwikkelen. De investeerders, Intel Capital en JK&B Capital, vertrouwen erop dat Nanochip nog dit jaar de eerste prototypes zal leveren, waarbij de eerste consumentenversie voor 2009 in de planning staat. De gebruikte techniek is bijna tien jaar oud en voor de productie kan dan ook 'oude' apparatuur gebruikt worden, waardoor de fabricagekosten en investeringen ook bij toekomstige generaties chips laag kunnen blijven. Bovendien zou het geheugenchipontwerp tot ÚÚn terabyte schaalbaar zijn en zouden de kosten lager liggen dan bij de productie van flashgeheugen.

De chip is gebaseerd op een mems-ontwerp van IBM, de Millipede. In het originele ontwerp werden probes gebruikt die door middel van warmte putjes in het opnamesubstraat maakten. In het nieuwe ontwerp wil Nanochip polarisatie van het substraat in plaats van warmte toepassen. Door een matrix van 'naalden' te gebruiken die over een substraat beweegt om te lezen en schrijven, kan de chip niet alleen hoge datadichtheden, maar ook hoge lees- en schrijfsnelheden realiseren. In de huidige ontwikkelfase neemt een bit 15nm bij 15nm ruimte in beslag; in de toekomst moet 2nm of 3nm volstaan. Over de daadwerkelijke lees- en schrijfsnelheden heeft het bedrijf geen concrete gegevens losgelaten, evenmin zijn gegevens over duurzaamheid bekend. De door Nanochip voorgestelde geheugenchip zou bestaan uit twee delen: een chip met het te beschrijven substraat en een chip met de mems-naalden voor het lezen en schrijven.

Nanochip ontwerp voor 100GB geheugenchip
Moderatie-faq Wijzig weergave

Reacties (50)

hmm, ik heb toch mijn bedenkingen. MEMs zijn immers niets anders dan kleine machines (met dus mechanische componenten). Deze componenten kunnen dus verslijten of stuk gaan, dus ik heb mijn twijfels bij de levensduur.
ach dat doen harddirks toch ook? Zolang MTTF maar groot genoeg is en de prijs van die dingen laag, dan kan ik daar mee leven.
Grappig, kan me nog herinneren dat ik in 1998 of 1999 een artikel las in een engels computer-blaadje over de toekomst van de Harddisk. Deze techniek van IBM werd toen ook als 1 van de kanshebbende genoemt, en zou waarschijnlijk binnen 5 jaar verkrijgbaar zijn ;).

Tot vandaag nooit meer wat over gehoord.
Wanneer gaan ze van de molding een ander soort plastic gebruiken dan plastic die van aardolie is gemaakt? (Aannemende dat het voor de chip gebruikte een plasticsoort van aardolie is.) Vind dat ze daar ook wel eens aan mogen gaan denken, ipv alleen maar de opslagcapaciteit steeds weer vergroten en de temperatuur/stroomverbruik van chips verbeteren. Misschien een beetje offtopic, maar iemand ter wereld moet de eerste zijn die hier aan denkt? Zeker als aardolie een duurder en schaarser product wordt, lijkt me het waard om over alternatieven te denken.

meer OnTopic:
Wel gek dat ze dit zien als een goed alternatief voor flash chips :P
Beter lijkt het me niet, met z'n bewegende onderdelen, of maken ze die veronderstelling gewoon omdat het meer oplevert voor de producent van deze dingen? ;)
Zolang er dagelijks honderdduizenden vaten olie verstookt worden door bijvoorbeeld auto's vindt ik het wel best. In verhouding gebruikt dit echt niet veel olie, en dit kan je recyclen.
Dat alternatief wordt al tientallen jaren gebruikt (misschien zelfs al langer dan plastic): keramiek. Is heerlijk hittebestendig onder andere. Plastic is echter makkelijker te bewerken, en dus goedkoper.
Plastic kan je bijna overal van maken (ook van aardappelen) dus als de aardolie op is nemen we gewoon wat anders om plastic mee te maken.
Nu nog de levensduur en transfer snelheden van zo'n chip afwachten. Dit is echt een grote stap voorruit.
Even wat meer info en dan wat over snelheden.

Er is een laag waar bits in een raster op worden opgeslagen. Het lezen/schrijven gebeurt met een grote array van 'naaldjes'. Elk naaldje heeft zijn eigen gebied. Het lezen/schrijven van een enkel bit is langzaam (voor de oude millipede versie was dit een aantal milliseconde als ik het mij goed herinner). De kracht van het systeem is dat je in theorie duizenden naaldjes tegelijk kan lezen/schrijven.

De problemen van nanodrives zijn vooral de bus (je hebt geen oneindig brede bus, dus je moet parallel <-> serieel conversie doen). Ten tweede zijn traditionele bestandssystemen niet geschikt om de drive optimaal te benutten. (Het verplaatsen van de probes gaat ook niet snel).

Wanneer het systeem eenmaal werkt is het relatief eenvoudig op te schalen, door gewoon meer probes te gebruiken. In de oude millipede was (afhankelijk van de versie) de afstand tussen bits iets van 25nm ofzo als je dat om zou rekenen kom je op iets van 150Gbit/cm^2.

In deze nieuwe versies zullen ze het voorzichtig aanpakken, maar er is dus veel potentie.

[Reactie gewijzigd door thunderbird2k op 29 januari 2008 21:53]

Dit is een beetje frustrerend. Polarisatie van wat? 15 nm is te klein voor licht tenzij je near-field gaat gebruiken NSOM

Magnetisme kan je ook polariseren en daaar is kleiner mee te gaan zoals huidige HDD's laten zien, maar hoe dit dan uit te lezen wordt lastig(?).

Moleculen zijn te polariseren maar dan blijf je naar mijn idee een probleem houden met uitlezen, dan moet je naar atomic force microscopy overgaan. En die naaldjes zijn behoorlijk fragiel.

Weet iemand iets anders wat je kan polariseren?
chirale moleculen (enantioneren) polariseren monochromatisch licht wat je er doorheen laat schijnen (links- en rechtsdraaiend verhaal van bijv. Softenon en de melkzuurtjes). Ik weet niet of je hier ook te maken hebt met het probleem van de golflengte van licht die de afmetingen van de "bit" benadert. De polarisatiehoek van het licht is eenvoudig te meten met een polarimeter. Deze laatste ken ik echter alleen uit mijn studententijd op gigantische macroschaal vergeleken met de nanometers waar het hier over gaat (formaatje microscoop).

Misschien een combinatie hiervan met die dubbele helix moleculen (ben de naam effe kwijt) die onder invloed van electriciteit samentrekken en zo de golflengte van licht be´nvloeden. zoals in LCD's worden toegepast. Andere golflengte, andere polarisatie en electrisch aanstuurbaar :)

[Reactie gewijzigd door Count Grishnackh op 29 januari 2008 23:06]

Met optische antennes kun je wel degelijk ver onder de <100nm gaan.
Infrarood licht kun je tot zo'n 5% van de oorspronkelijke golflengte terugbrengen. Bij ultraviolet zullen de effecten nog groter zijn.

Combineer dit met het effect van gepolariseerd laserlicht en je kunt op een bijzonder klein oppervlak magneetjes maken door de spin van individuele atomen te richten (te polariseren oftewel te magnetiseren).

Lichtgestuurd magnetisme is iets waar Nederlandse onderzoekers een jaar of 3 geleden al mee zijn gekomen. Dus dat is niet die ontwikkeling van 10 jaar terug.

Maar over een jaar of 5 - 7 zullen deze 'Nederlandse' ontwikkelingen wellicht ook worden geintegreerd en gaan we nog kleiner en belangrijker: Sneller!

[Reactie gewijzigd door omixium op 30 januari 2008 11:54]

Met licht zal in ieder geval niet gaan aangezien je niet echt een resolutie lager dan de golflengte van licht (>100nm lager wordt niet echt bruikbaar) kan krijgen. Wat er nu wel gepolariseerd wordt is idd best wel onduidelijk.
dubbele helix moleculen
Als je een enkele helix bedoel, cholesterish denk ik . (vloeibaar kristallen in afstudeerproject anders wist ik het ook niet) :+

Maar die moleculen zijn weer behoorlijk groot in de orde van 10 bindingen dus ~1 nm lang.. dus dan krijg je een erg klein aantal wat niet moet bewegen als men naar de gestelde 3 nm domeinen gaat., dus veel kans op data loss.
Die ja idd. Dubbele helix is DNA structuur, was effe in de war.
Magnetisme kan je ook polariseren en daaar is kleiner mee te gaan zoals huidige HDD's laten zien
Dit idee is een feite een matrix van 'high resolution Magnetic Force Microscopes', gebaseerd op de Atomic Force Microscopes, welke al jarenlang in natuurkundige laboratoria / uni's wordt gebruikt. Eigenlijk een flink 'geparalleliseerde' vierkante harde schijf verdeeld in cellen die in cellen verdeeld zijn die worden uitgelezen door matrixen van 'harddisk-probes'.

Die naaldjes zijn (voor zover ik weet) niet zo fragiel want het gaat over een 'kristalrooster', vergelijkbaar met de top van een piramide, maar dan de piramide dus op z'n kop. Vervelend is dus wel dat je op een opervlakte zo groot als het grondvlak van die piramide maar ÚÚn 'grote steen' tegelijk kan lezen met de top. Zet je allemaal van die piramides op hun kop naast en achter elkaar en plak je die op een vlak erboven, en laat je die toppen max. over hun op de opslagmedia geprojecteerd grondvlak bewegen, heb je volgens mij het idee van dit ding (omslachtige omschrijving, maar kan geen animaties maken op tweakers helaas). Da's dan een nanocel, en daar maak je weer een tweedimensionale array (matrix) van. Wie weet kan je ze ook nog bovenop elkaar leggen, dan is het resultaat helemaal spectaculair :) Het is dan dus wel belangrijk inderdaad dat de boel trillingsvrij genoeg is. De top van de piramide botst geloof ik niet, daarvoor is de afstand tussen top en medium te klein (rond 1 nm voor tunneling effect), maar in 'X/Y richting' zou de top uit positie kunnen raken.

De polarisatie is gelijk als in mRAM gok ik (gezien de PDF'jes van nanoscan.ch), maar meerdere hierop gelijkende principes zouden mogelijk zijn. mRAM maakt gebruik van het tunneleffect dat ook in moderne harddiskdrives gebruikt worden. Terwijl SSD juist probeert om de 'harddisk' van bewegende delen te ontdoen doet mRAM het tegenovergestelde voor RAM zo lijkt het, alleen is mRAM weer non-volatile
Volgens freescale (Motorola spin-off) is het type mRAM dat ze samen met o.a. Philips ontwikkelden sneller en zuiniger (minder lekkage en spanning nodig) dan DRAM (zie pag. 2).

In tegenstelling tot wat je (en de 'ontdekkers' van de AFM zelf ook) zou denken, is een tipje met een neusradius van 25nm makkelijk en goedkoop te maken, wie twee stukjes ijzer zoals in een paperclip breekt heeft er waarschijnlijk 'per ongeluk' al een gemaakt.

Interessant genoeg werd de technologie voor MEMS-geheugen destijds in Zwitserland voor IBM ontwikkeld (in 2000 maakte ik er een werkstukje over), maar de huidige technologie is ook deels in China ontwikkeld zo te zien.

Een mens vraagt zich wel af als al die technologieŰn er al waren - zo lijkt het immers - en er maar 14 miljoen investering nodig is om met oude prut een fabriek te starten, niemand dit eerder heeft gedaan? Misschien duurde het verkrijgen van licenties op de talloze ongetwijfeld gepatenteerde gebruikte technieken lang, maar er kan ook een addertje onderuit de mouw komen.

[Reactie gewijzigd door kidde op 29 januari 2008 23:40]

Die bewegende delen zijn nou net waar ik me hierbij zorgen over maak, op de een of andere manier zie ik dat de betrouwbaarheid niet ten goede komen.
Ok ik denk dat je dit behapbaar gemaakt is, met nog een blik trug op de tekening.

Dus iedere naald heeft een eigen celletje waarin geschreven/gelezen wordt, een matrix van x bij y. De naald wordt niet bewogen, maar het plaatje met cellen eronder. De beweging van dat plaatje zal waarschijnlijk met piŰzoelectrische elementjes geregeld worden.*

Het schrijven deel is me nog niet echt duidelijk hoe zo specifiek te richten, maar qua lezen is dit een goed werkbare techniek (anders zou ibm er ook niet al jaren mee bezig zijn geweest).

* en piŰzoelectrish is zeeer nauwkeurig te regelen door potentialen.
Jaja het addertje.... weten we nu nog niet dat de ontwikkelingen (zoals bijv. bij IBM) ongeveer 10-20 jaar voor lopen op het geen wij als "domme" consumenten in de winkel kunnen kopen? En als je dit aan mensen van R&D bij weer bijv IBM vraagt geven ze dat gerust toe, het is de handel die ons gewoon uitmelkt! (bijv 64bits computing is al decenia in gebruik bij bijv. IBM's AS/400 platform....) 8)7
Ziet er naar uit dat men in de toekomst fragmentatieprogramma's i.p.v. defragmentatieprogramma's nodig zal hebben. :) Al zou je er natuurlijk ook op hardware niveau voor kunnen zorgen dat opeenvolgende bits in een cluster over meerdere gebieden verspreid worden.

Het mechanische karakter van deze chip doet mij wel schatten dat de levensduur een knelpunt kan worden. Ik ben dan ook zeer benieuwd naar verdere specificaties.
data wordt al sinds er binair wordt "gerekend/geschreven" "gefragmenteerd" opgeslagen, dus vanonder welke steen jij komt gekropen met je "buzzwoordje" weet ik niet :+
Met een redelijk groot array van bits tegelijk is een dergelijke chip vrijwel identiek aan een klassieke harde schijf. De random access (seek) is wat langer, maar daarna kan een hoge burst snelheid volgehouden worden. De technology is dus een potentiele concurrent van flash drives en kleine disks.
enig idee hoe groot deze chip is? als dat 'groene' de printplaat moet voorstellen. Heel klein dus. Hopen dat ie een beetje snel is.
Even uitrekenen. 1 bit is 225 vierikante nanometer, dus 1 byte = 8 bits = 8*225 vierkante nanometer. Dat maal 100*10^9, dan heb je het aantal vierkante nm benodigd voor 100GB: 1.8*10^14 vierkante nanometer = 1.8*10^2 vierkante millimeter. Komt dus neer op een blokje van 13 bij 13 mm, oftewel 1.3cm bij 1.3cm :) Voor enkel de opslagruimte dan.
Even uitrekenen. 1 bit is 225 vierikante nanometer, dus 1 byte = 8 bits = 8*225 vierkante nanometer. Dat maal 100*10^9, dan heb je het aantal vierkante nm benodigd voor 100GB: 1.8*10^14 vierkante nanometer = 1.8*10^2 vierkante millimeter. Komt dus neer op een blokje van 13 bij 13 mm, oftewel 1.3cm bij 1.3cm :) Voor enkel de opslagruimte dan.
134*134mm zul je bedoelen.... en dan neem je ook nog eens een decimale gigabyte.

Maar zelfs al halen ze 1/100e van de beoogde ruimte dan heb je nog steeds chippis van een gig :P
Voor het plaatje:

Dat groene is de onderkant van de chip. Wat ze laten zien:
die gele draadjes: wirebonding, meestal gouddraad om de pinnen van de chip met de pads op de die te verbinden.
De gele bollen onder het groene moeten de pinnen van de chip voorstellen.

[Reactie gewijzigd door R.E. op 30 januari 2008 08:10]

Waar zit mijn fout dan? 134*134mm zou uitkomen op 18000 vierkante millimeter, een factor 100 meer dan wat ik in gedachte had.
Machten van 10 blijven kennelijk lastig. 1 nm = 10^-6 mm. En dan wordt het sommetje: 8*225*10^-12*10^9 mm^2 = 18 mm^2. Dus een vierkantje van 4.24 mm bij 4.24 mm voor 10^9 bytes.
Je maakt een rekenfout en een denkfout (inderdaad machten van 10 blijven kennelijk lastig), want volgens jouw berekening kom je uit op 1.8mm^2 per 10^9 bytes (niet 18, typ nog maar eens na), en dan heb je het over 1GB. Mijn berekening ging uit van 100GB, en laat jouw berekening er nou net met een factor 100 naast zitten. Niets mis met mijn berekening dus.

offtopic:
Tip: als je betweterig wil doen, zorg dan ook voor een driedubbele controle, zodat je het ook daadwerkelijk beter weet :p
Door een matrix van 'naalden' te gebruiken die over een substraat beweegt om te lezen en schrijven, [...]
Betekent dit dat er bewegende delen in deze chip zitten? Want dan zijn ze in mijn ogen net zo waardeloos als HDD's.
De bewegende delen zijn een factor [veel] kleiner, wat ze dezelfde factor minder gevoelig maakt voor G krachten en andere nadelen van mechanische oplossingen.

Als je maar klein genoeg gaat dan wordt alles 'mechanisch', als in "er beweegt wat". Dus kleiner maakt het zeker niet net zo waardeloos.
probleem is wel dat er meerdere actuators in die chip zitten. Als er ook maar eentje niet optimaal werkt, is de hele chip waardeloos. Levensduur wordt wel degelijk een factor bij deze drives (wanneer niet....). Vooral bij de eerste generatie. Natuurlijk verbeterd de betrouwbaarheid op den duur. Als je kijkt naar de huidige generatie HDD's, is de MTBF een paar honderdduizend uur, kan me niet voorstellen dat dat ook meteen het geval gaat zijn met deze chips.....
En IEDEREEN in desktops gebruikt HDD's, en voor laptops zijn er veilige (of iig veilig genoeg) oplossingen bedacht. Als ik moet kiezen tussen 1tb opslag waarmee ik niet mag overgooien of 500gb in een SSD-stuiterbal weet ik het wel.
Jammer dat er geen snelheden bij vermeld staan.. :( Maar dit gaat zeker de goede kant op :)
ging tien jaar terug de goeie kant uit bedoel je. Tien jaar geleden is het blijkbaar niet aangeslagen, misschien dat ze er tegenwoordig wel iets van kunnen bakken wat bruikbaar is.
En nu maar wachten tot het echt te koop is...
Of wachten op een bericht waarin gemeld wordt dat het project gestaakt wordt.
Dat liijkt haast te mooi om waar te zijn, maar het komt wel overtuigend over. Zoiets moest vroeg of laat wel aan het licht komen om de hoge capaciteits chips duurzaam te kunnen maken (zowel kwaliteit als prijs)
klinkt wel best goed maar als het allemaal old-school tech's en materiaal zijn, waarom of hoe komt het dat ze het nu pas beginnen te doen of heb ik ergens iet over het hoofd gezien? Hoe dan ook hopelijk wordt dit iets en niet het zoveelste project waar ze de stekker uit pluggen na x tijd omdat deadline's niet gehaald worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True