Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

Onderzoekers van Samsung hebben de levensduur verbeterd van resistief random access memory, een relatief nieuw type niet-vluchtig geheugen. Het aantal lees- en schrijfcycli zou zijn uitgebreid tot een biljoen en het reram zou ook zuiniger zijn.

De werking van resistief ram, of r(e)ram, is enigszins vergelijkbaar met dat van phase change-geheugen. Cellen in resistief geheugen kunnen onder invloed van elektriciteit in een isolerende of geleidende staat gebracht worden. In een isolerend diëlektricum kan door het aanbrengen van een hoge spanning een geleidend kanaal worden gevormd. Dat geleidende kanaal kan door het aanbrengen van een tweede spanning worden afgebroken, waardoor het materiaal weer geen spanning geleidt. Dit verschijnsel kan voor data-opslag worden ingezet.

Reram zou op termijn als opvolger van nand-geheugen kunnen dienstdoen, maar net als bij dat type geheugen is de levensduur van reram beperkt. Het aantal cycli waaraan het diëlektricum kan worden blootgesteld, is immers niet oneindig. Onderzoekers van het Samsung Advanced Institute of Technology hebben, in samenwerking met de universiteit van Sejong, een materiaal ontwikkeld dat een biljoen lees- en schrijfcycli zou kunnen doorstaan. Het diëlektricum bestaat uit een bilaag van twee soorten tantaaloxide dat tussen twee platina elektrodes is geklemd.

De onderzoekers hebben de afmetingen van de geheugencellen teruggebracht van 50 bij 50 micrometer naar 30 bij 30 nanometer. Bovendien kan het geheugen op elkaar worden gestapeld om de dichtheid verder te vergroten. Test-arrays van tien bij tien cellen bleken in staat om data gedurende tien jaar, bij een temperatuur van 85 graden, vast te houden. De schakeltijd van de cellen bedroeg 10ns en het geheugen zou zuiniger zijn dan eerder geproduceerd reram.

Rram-cellen
Moderatie-faq Wijzig weergave

Reacties (45)

Van 50 µm naar 30 nm is wel een behoorlijk "grote" verkleining. Als dit klopt is dit een erg belangrijke doorbraak (naast de biljoen cycli uiteraard).
"Test-arrays van tien bij tien cellen bleken in staat om data gedurende tien jaar, bij een temperatuur van 85 graden, vast te houden."

Ik ben dan altijd benieuwd hoe ze dit soort tests doen. Staat er al 10 jaar zo'n chip met data te testen? Lijkt me niet zo praktisch, toch?
In de PDF op de site is te zien dat ze het geheugen hebben getest bij 320 graden C, 300 C, 275 C en 250 C.
De tijd tot falen was een lineaire trend en deze hebben ze doorgetrokken zodat in theorie het geheugen bij 85 graden Celsius de levensduur 10 jaar is.

Veroudering en slijtage door andere condities dan temperatuur is in dit geval natuurlijk niet getest. Het is daarom altijd lastig om conclusies te trekken aan de hand van dit soort getallen.

Zo zou je ook kunnen testen wat de gemiddelde tijd tot falen is door 100 modules gedurende een jaar te testen. Als er in deze tijd +/-20 modules falen is de gemiddelde levensduur 5 jaar.

Maar door te kijken wat veel voorkomende oorzaken zijn van lange termijn falen zou je deze extreem kunnen maken om in korte tijd de lange termijn levensduur te bepalen.

In dit geval is getest wat temperatuur voor invloed heeft op de levensduur. Maar andere factoren als corrosie, vuil, licht, willekeurig falen zijn niet meegenomen in die grafiek.
waarschijnlijk voor kortere duur op hogere temperatuur dan 85°
Is een berekening. men neemt 100 test exemplaren, laat deze een tijd werken en gaat dan aan de hand van de uitval berekenen wat de te verwachten levensduur is.
Ben hier ook wel benieuwd naar.. Iemand hier info over voor mij en Thrackan?
Elke dag heb je een x-aantal bewerkingen, de rustperioden halen ze eruit en dan heb je een realistische test in 1 jaar of enkele maanden.
En mss ook nog iets hoger frequentie voor een 10% snellere test.

PS:
Die 10ns hoe vergelijkt die zich tot de SSD-nands.

[Reactie gewijzigd door gp500 op 14 juli 2011 11:42]

Ze kijken naar de data degradatie en trekken die lijn door. Als ze bv zien dat er in 1 jaar een degradatie van 1% plaats vindt en je kan bij een degradatie van 10% de data nog uitlezen kan je data 10 jaar meegaan.

Natuurlijk is dit extreem simplistisch verwoordt en komt er veel meer bij kijken omdat ze niet weten of de degradatie constant verloopt of op een gegeven moment fluctuaties vertoont.

--edit--

Lol, 5 verschillende theorieën. Ben wel nieuwsgierig naar welke de juiste is. :)

[Reactie gewijzigd door Daeron op 14 juli 2011 11:42]

Een biljoen cycli is praktisch oneindig lijkt me.
Komt op mij over als heeeeel veel. Wat is het aantal cycli van NAND geheugen eigenlijk?
Per fabrikant verschillend maar dit klopt wel aardig:
3000 op 25nm
5000 op 25nm voor kwaliteits geheugen
10000 op 35nm
Is 3000 of 5000 niet een beetje heel weinig of vergis ik mij nu?
Valt wel mee. Een ssd van 80GB kan op die wijze in totaal 240TB data opslaan in de tijd. Bij 10GB verbruik per dag gaat het 24000 dagen mee, dus zo'n 70 jaar mee, mits de controller "wear levelling" toelaat.

Kortom: bij slim gebruik is dat ruim voldoende, afhankelijk van het gebruik.
Ja wat is weinig, het klopt in ieder geval. Intel nieuwe 25nm heeft levensduur van 5000 schrijf cyclussen, de verkleining naar 25nm heeft levensduur verkort. Ben benieuwd of het volgende generatie niet nog erge zal zijn, 20nm zal nog korter meegaan dan 25nm als ze op dezelfde weg doorgaan als nu.
Industriële (SLC) SSD's hebben volgens mij een factor 10 meer, dus rond de 100.000.
SLC is ook navenant duurder dan MLC, en (nog) niet echt voor consumenten geschikt.
Hoe geschikt dit is voor thuisgebruik valt ook nog maar te bezien, metalen als platina zijn niet echt goedkoop te noemen.
Je zal er ook niet veel van nodig hebben per chip. Platina wordt ook in auto-katalysatoren gebruikt, ondanks de kosten per kilo.
Met een biljoen schakelingen en een schakeltijd van 10ns is het geheugen dus te slopen in 10.000 seconden? Dus dan zou je het binnen 3 uur kunnen slopen? (Als je snel genoeg je geheugen kan aansturen dan natuurlijk)
In theorie ja. Maar dat haal je niet want je gaat niet één bit 10.000 seconden achter elkaar dezelfde bit beschrijven. Dan komt het eerder voor dat een gebruiker zijn geheugen met een hamer sloopt en dat gaat ook nog eens veel sneller. :P

Al met al klinkt dit wel mooi, ik ben benieuwd of hier nog grote nadelen aanzitten of dat het echt als vervanger van NAND dienst kan doen (ook in goedkope massaproductie). Veel experimentele technieken klinken indrukwekkend in een artikel maar blijken op andere punten toch onpraktisch.

[Reactie gewijzigd door bwerg op 14 juli 2011 12:22]

dat klopt ja.
totdat er een scriptkiddy daar een virus voor schrijft.
met dit soort technieken kunnen er weer virussen gemaakt worden die niet alleen de software mollen maar ook de hardware.
ben bang dat eigenlijk ssd schijven daar ook last van zouden kunnen hebben als ze sneller waren.
ben benieuwend wat de toekomst gaat brengen.

[Reactie gewijzigd door migjes op 14 juli 2011 12:43]

dat klopt ja.
totdat er een scriptkiddy daar een virus voor schrijft.
de controller in de ssd zorgt er voor dat je elke keer een andere bit gaat herschrijven. en daardoor veel langer met de ssd kan doen. volgens mij legt Nas T het princiepe best goed uit.
Valt wel mee. Een ssd van 80GB kan op die wijze in totaal 240TB data opslaan in de tijd. Bij 10GB verbruik per dag gaat het 24000 dagen mee, dus zo'n 70 jaar mee, mits de controller "wear levelling" toelaat.

Kortom: bij slim gebruik is dat ruim voldoende, afhankelijk van het gebruik.
dat verhaal had ik ook gelezen.

maar nu de volgende situatie.
de ssd staat voor 80% vol geschreven.
klein virus dat elke keer een blokje schrijft en verwijderd.

dat kan meer zijn als 10GB per dag en word door de wear leveling alleen in die 20% vrije ruimte geschreven.
wat zal er gebeuren na een paar dagen.

(ik heb eigenlijk geen zin om me gelijk te halen door mijn ssd daar voor te mollen.
het is maar een idee.)
Wear leveling maakt gebruik van de hele ssd, door bijvoorbeeld volle blokken te verschuiven.
dat is dus niet waar.
wand dat zou het probleem dus 2x zo groot maken.
de eerste keer dat het blok geschreven word en nog een keer dat het andere blok ergens anders geschreven word.

of te wel dan zou het 2x zo snel gaan

[Reactie gewijzigd door migjes op 14 juli 2011 19:27]

Ik denk dat de wear-level en adres-allocering apart wordt opgeslagen als een soort logboekje die eens in de zoveel tijd wordt weggeschreven (ook in flash).
Bij het aanzetten wordt deze dan gecached in RAM.
ja dat klopt.
maar het data block word nog steeds weg geschreven.

ik heb zelf wel eens door programmeer foutje een sd kaart om zeep geholpen.
door er steeds naar te schrijven en te verwijderen.
binnen 3 uur was i niet meer bruikbaar.
(nu zijn sd kaartjes niet echt goed beveiligt)

de vraag is eigenlijk.
hoeveel data heb je eigenlijk nodig om een ssd die voor 50% gevuld is met data totaal naar de eeuwige data velden te sturen en dat delende door de tijd die er nodig voor is.
dat natuurlijk uitgaande van bepaalde grote en aansluiting.

ik heb geen idee over het antwoord.
ik durf het niet te proberen maar ben bang dat een klein virus dat vrij snel kan halen.
Dat er platina voor nodig is lijkt me een nadeel. Dat spul en 'goedkope massaproductie' kunnen doorgaans niet goed door één deur :-(.
Dat er platina voor nodig is lijkt me een nadeel. Dat spul en 'goedkope massaproductie' kunnen doorgaans niet goed door één deur :-(.
Ze zullen echt geen kilo's nodig hebben hoor. Als ik me niet vergis zit er in een katalysator (auto) ook platina.
Vandaar dat een katalysator in een auto ook al gauw 130 euro kost.

Stel je even voor dat de minimumprijs van een SSD 130 euro is, en blijft. Dat wordt lastig concureren met de hardeschijven dan!

@migjes; dat zou het domste script ooit zijn. Heel veel schrijven op je hdd is als een grote rode vlag op je rug binden wat betreft virusdetectie. Als een klein, niet voorgeinstalleerd scriptje wat verder geen connecties heeft met andere programma's en geen output geeft, heel veel disc acces gaan verbruiken, is het weg voordat je "ssd" kan zeggen.
Dat is wel heel afhankelijk van de groote van de disk.
Dat is namelijk maar voor 1 bit. Zelfs als je met 64 bit tegelijk zou schrijven in 10ns. Dan praat je met een disk van 100GB al heel snel over jaren.
Net zoals in NAND is er een microcontroller aanwezig die voor je bepaald welke cel voor herschrijven beschikbaar is, om precies dit te voorkomen. Deze zelfde controller slaat bij nand ook "vast", op het moment dat die limiet van herschrijven benaderd is. Bij sommige fabrikanten kun je als gebruiker via een tooltje gewoon de controller weer unlocken om je gegevens er af te halen.

Veel flashproducten, zeker de duurdere compaqflash hebben ook nog wat "reservecellen" op de grid om de levensduur wat te verhogen(vooral degene die op de verpakking schreeuwen met garanties)
Met een biljoen schakelingen en een schakeltijd van 10ns is het geheugen dus te slopen in 10.000 seconden?
Nee, dan sloop je één geheugencel, tenzij je de hele SSD in 10ns helemaal kunt volschrijven. ;) Verder heb je mechanismen als wear levelling en reserveruimte.

[Reactie gewijzigd door Aham brahmasmi op 14 juli 2011 19:01]

Dat zal tegen vallen in de verschillende datacentra. Thuis zul.je inderdaad je best moeten foen
Hoeveel cycli kan een standaard magnetische harde schijf aan? Volgens mij zijn daarbij andere onderdelen (leesarm e.d.) allang versleten voor de biljoen cycli geweest zijn.

Mooie techniek, straks 1 TB ter grootte van je pinknagel. Ben benieuwd wat de access times hiervoor zijn.
Een magnetische harde schijf heeft natuurlijk niet echt cycli, het lijkt me dat de platters zelf oneindig meegaan, maar je hebt natuurlijk gelijk dat ooit het motortje om hem te laten spinnen of de schrijfarm door slijtage ermee zal stoppen
Wel, thuis staat er nog een IBM PC/XT met een Intel 8088, 640kb RAM en een Western Digital harde schijf van 21 MBytes. Dat ding doet het nog altijd en de data die erop staat is nog altijd perfect in orde.

Het kan dus wel tientallen jaren meegaan mits je een beetje oplet waar je je spullen opbergt.
Vergeet niet dat de data dichtheid van die schijf wel enorm veel lager is dan bij huidige schijven en dat de huidige generaties dus ook veel gevoeliger zijn voor storingen.

Voel me overigins redelijk genaaid :). Mijn 286 (toch 2 generaties nieuwer) had ook maar 20MB.
640Kb ram was toch genoeg?
Een harde schijf in een server die 24 uur per dag draait gaat een paar jaar mee. Daarna zijn de lagers te sterk uitgesleten en komt de hardeschijf niet meer op gang nadat ie uitgezet is geweest. In een beetje groot data center dat al een paar jaar actief is mag je dan ook iedere paar dagen wel weer een harde schijf vervangen.
Ik zal het ongetwijfeld mis hebben, maar het lijkt me erg waarschijnlijk dat hier een taalfout is ontstaan in het aantal cycles. Een biljoen keer is inderdaad behoorlijk, meer waarschijnlijk is het een billion x, wat bij ons nog altijd een miljard is. Kan helaas zo snel geen bron van het onderzoek vinden om dit te verifiëren. Wie o wie?
billion vs biljoen: http://www.languagelab.nl/stijlgids/535
In het bron artikel staat toch gewoon 10^12? Een biljoen dus.
je hebt helemaal gelijk!
Het is een interessant gegeven dat alle vormen van geheugen op termijn eindig bruikbaar zijn. Zodra de verwachte levensduur boven de garantietermijn uitstijgt, zit je als hardwarefabrikant in feite goed.
Wat ik vreemd vind dat je wel telkens over opvolgers en nieuwe ontwikkelingen voor NAND wordt gepubliceerd maar er over "fe nand" niets bekend is.

Terwijl FE NAND, huidige nand 10* duurzamer maakt.

Artikelen over FE-NAND vind je vanaf 2008 dus het zou al product rijp moeten zijn.
Productrijp is was anders als de mogelijkheid kostenefficiënt te produceren.
Zelfde verhaal geld natuurlijk voor reram.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True