Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 24, views: 7.082 •

Toshiba heeft aangekondigd flashgeheugen volgens een 19nm-procedé te gaan produceren. Het Japanse bedrijf haalt daarmee Intel in, dat 20nm-nand-chips gaat produceren. Beide bedrijven beginnen hun productie ongeveer gelijktijdig.

De eerste 19nm-nand-chips die Toshiba aankondigde, zijn 8GB-chips die zijn opgebouwd uit mlc-flashgeheugen met twee bits per cel. In de toekomst wil het bedrijf ook nand-chips met drie bits per cel op 19nm gaan produceren. De eerste samples van de 19nm-8GB-chips kunnen eind april aan partners worden geleverd. Massaproductie moet in het derde kwartaal, vanaf juli, van start gaan.

Het flashgeheugen moet onder meer leiden tot kleinere geheugenchips. De geringere afmetingen die het 19nm-procedé met zich meebrengt, moeten geheugen met zestien 8GB-chips mogelijk maken. Dergelijke 128GB-geheugenverpakkingen zouden in onder meer smartphones en tablets gebruikt kunnen worden. Ook SanDisk zou het geheugen van Toshiba in zijn producten gaan gebruiken.

Met zijn aankondiging wil Toshiba concurrent IMFT aftroeven. Dat samenwerkingsverband tussen Intel en Micron kondigde een week eerder aan nand-chips op 20nm te produceren. De productie daarvan zou eveneens in de tweede helft van 2011 van start moeten gaan. Het is echter niet bekend hoe beide bedrijven tot hun cijfers komen; de marketingafdelingen pochen graag met de cijfers.

Reacties (24)

19nm... Nog even en ze zitten afzonderlijke atomen aan elkaar te knopen...
Nog even en ze zitten afzonderlijke atomen aan elkaar te knopen...
is al reeds gelukt
experimenteel in een labo ja, maar nog niet op een schaal die massa-productie toelaat
Dan gaan we dadelijk dus telefoons en tablets krijgen met 128gb intern geheugen! Ik vraag me alleen wel af of de prijzen dan ook omlaag gaan met dit kleinere procedé en of de snelheid niet flink degradeerd? Dit zou een goede boost kunnen zijn voor de verkoop van SSD's.
Hoe meer aanbod er is hoe goedkoper iets word! (Mits de vraag ook niet hoger word :+ )
Kortere afstanden = kleinere chips = sneller en minder energieverbruik (bij eenzelfde aantal verbindingen); tenminste zo heb ik het geleerd... In het begin is het productieproces duurder vanwege de noodzaak van nieuwe machines, maar op termijn, als de productie op gang is gekomen, gaan de prijzen snel dalen. En dat is ook algemeen bekend, want kijk maar naar computerprijzen over de afgelopen dertig/veertig jaar.

[Reactie gewijzigd door sumac op 21 april 2011 10:58]

Als eerste benadering klopt dat wel, maar naarmate de afstanden steeds kleiner worden (minder nm) gaan de transistoren minder ideaal worden, ze staan dan niet echt helemaal meer uit. De stroomopname bij schakelen wordt dan inderdaad minder (kleiner=minder capaciteiten laden en ontladen) maar het verbruik in rust wordt veel hoger (tunneling).Bij gelijke vermogensopname kun je dus de transistoren vaker laten sschakelen (meer GHz) of meer transistoren even snel laten schakelen. Voor Flash geheugen komt er nog wat anders bij: het aantal rewrites neemt behoorlijk af. Dat zag je al van 45 nm -> 32 nm en dat zal bij 20 nm alleen maar slechter worden. Daarom is dit geheugen eerder geschikt als programmageheugen en minder voor mp3 spelers.
Zou flash geheugen uit flipflops schakelingen bestaan?
flash bestaat uit transistoren waarvan de gate floating is. Alleen door tunneling bij (tijdelijk) hoge programmeerspanningen kan er lading op deze gate aangebracht worden.
Dat electromigratie geldt niet voor flash geheugen volgens mij.

Daarom is bij flash 20 nm al mogelkjk en bij CPU's nog niet.

Omdat CPU's op veel hogere frequenties draaien krijg je dus last van lekkage.

Flash heeft hier in veel mindere mate last van.

Want volgens jouw beredenering zou je altijd last van die verschijnselen hebben, ook als je je CPU op 100 MHz zou laten draaien en dat is niet zo.
electromigratie is geen tunneling. zie wikipedia
Ik zeg ook nergens dat het hetzelfde is daarom zeg ik ook verschijnselen

Beide kunnen voorkomen, en ik corrigeer jouw uitspraak omdat jij Flash en CPU's over 1 kam scheert wat betreft quantum effecten.
het zit nu rond de 3000 program/erase cycles rated. Werkelijk zal hoger zijn (die 3000 moet minimaal gehaald worden). Betekent dat als jij je MP3 speler elke dag geheel zou wissen en weer volledig vol zou zetten met data, je er alsnog 8 jaar mee doet.

Het p/e budget is echt nog geen bedreiging voor de toepassing van flash in de meeste toepassingen.
Wow das echt heel krap op elkaar, maar hoe zit het met de stabiliteit van deze dichte procedure.
ik hoorde al dat 32nm al problemen met zich mee bracht ivm levens duur, en het aantal read writes dat fors omlaag gaat.
Volgens mij doel je op de recente stap van 32 nm naar 24 nm.

Voor flash geheugen geldt toch al dat de levensduur in de gaten gehouden moet worden door de controller, dus ik denk niet dat het direct tot problemen zal leiden. Er is inmiddels ervaring opgedaan met de stap van 32 nm naar 24 nm, dus verwacht ik minder problemen met de stap naar 19/20 nm.
De levensduur van flash halveerde bij de overstap van 50nm naar 34nm, en halveerde weer bij de stap nar 25nm, en zal weer halveren bij de overstap naar 19nm.

De prestaties gan ook bij elke generatie omlaag: elke generatie stijft het voltage wat nodig is om naar het flash te schijven, en stijgt de tijd die daarvoor nodig is. Maar dat word opgelost door simpelweg betere controllers te maken.
34nm naar 25nm bedoel je denk ik?
'Wij' als tweakers zijn soms iets te gefocust op specificaties en 'eisen' altijd de beste specificaties voor de laagste prijs.

Echter is dat zelden reëel, het gaat erom dat de onderdelen voldoen aan wat de gemiddelde gebruiker ervan verwacht. Voor de mensen die al langer de SSD markt volgen, de eerste (SLC) Mtron's waren qua performance helemaal niet zo spannend, zeker de read/write snelheden waren toen dik onder die van HD's, maar IOPs zat toen al goed. Voor een groep mensen was dat al meer dan voldoende. Met de komst van de Intel & OCZ Vertex ging de Read (en Write) performance mee omhoog met MLC en lagere prijs. Dat heeft al een enorme boost gegeven.
Nu de volgende generatie verschijnt zie je dat de techniek eigenlijk bijna volwassen is, voor elk performance/price level is een oplossing te maken. De enige vraag die nog openblijft is: Hoe goedkoop mag het flash geheugen zijn voordat de gemiddelde gebruiker daar last van krijgt?
Bij flashcards zie je maar weinig problemen (wie beschrijft zijn kaartje meer dan 100x en heeft de allergoedkoopste?), de komende tijd gaan we erachter komen wanneer dat voor SSD's geld. (Bij de SSD controllers hebben we die ellende gelukkig al gehad)
Ben benieuwd naar de daadwerkelijk prestaties idd. Al hoeft dit geheugen natuurlijk niet persé in SSD's gebruikt te worden.. Voor een mobiel zal het wel snel genoeg zijn gok ik.

En over dat 3 bits per cel, wordt het totaal daar sneller of langzamer van?
Als een kleiner procédé voor langzamer en korter levend geheugen zorgt, geef mij dan maar wat groter geheugen.
Hangt een beetje vanaf wat een korter levensduur inhoudt. Als dat bijvoorbeeld van 150 jaar naar 100 jaar verandert, geef mij dan maar kleiner geheugen. Meer geheugen op dezelfde oppervlakte. :)
"Ook SanDisk zou het geheugen van Toshiba in zijn producten gaan gebruiken."

Sterker nog, SanDisk gebruikt het al!
Zie: SanDisk Creates 19nm Based 64 Gb NAND Flash Memory

[Reactie gewijzigd door tweaker2010 op 21 april 2011 10:52]

lastig om met 3 bits per cell 128 GB geheugen te maken, zouden ze 3 cellen per byte gebruiken (3x3=9 bits) en de 9e bit voor parity?
Met zijn aankondiging wil Toshiba concurrent IMFT aftroeven. Dat samenwerkingsverband tussen Intel en Micron kondigde een week eerder aan nand-chips op 20nm te produceren.
Vroeger was het zo dat iedereen dezelfde nodes gebruikte (130 nm, 90 nm, 65 nm, 45 nm, 32 nm), waarom komen er nu dan opeens afwijkingen (19 nm vs. 20 nm)? Iemand die daar iets over weet?

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Smartphones Processors Sony Microsoft Games Apple Consoles Politiek en recht Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013