Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 58, views: 14.056 •

Het Japanse bedrijf Toshiba heeft tijdelijk het record van de hoogste capaciteit geheugenmodules in handen. De chipdivisie van het Japanse elektronicabedrijf toonde een nand-flashmodule met een opslagcapaciteit van 128GB.

Toshiba, na Intel en Samsung een van de grootste halfgeleiderproducenten, heeft met zijn 128GB-module een behoorlijke poch-factor in handen. De flash-chips worden echter pas in september als samples aan klanten geleverd, met een geplande massaproductie in het vierde kwartaal van 2010. Toshiba ontwikkelde de chips onder meer voor gebruik in mobieltjes, tablets en digicams. Naast de 128GB-versie zou een 64GB-versie al in augustus als sample kunnen worden geleverd.

De 128GB-geheugenmodules, compleet met controller, worden opgebouwd uit zestien 64Gb-chips die volgens een 32nm-procedé worden gebakken. De chips volgen de eMMC v4.4-standaard en zouden in staat zijn om gegevens met 21MB/s weg te schrijven; de leessnelheid bedraagt 55MB/s. De zestien chips en de bijbehorende controller worden verpakt in een fbga-verpakking van 17x22mm met een dikte van 1,4mm. De individuele chips zijn dankzij een afslankkuur slechts 30 micrometer dik.

Toshiba 128GB-nandchip

Reacties (58)

Dus zo'n geheugenchip bestaat eigenlijk uit meerdere kleine chips?

Is het dan niet veel handiger om gewoon 1 chip te maken, dan heb je ook geen controller e.d. nodig?

Of is dit nog niet mogelijk met de huidige technologie?
1 chip met daarin de controller?
Nouja, gewoon 1 chip.

Nou zijn het er 16 + een controller. Die controller is toch nodig omdat er net in 16 delen is gesplitst of zie ik dat fout?
Als dan een chip zou kunnen bakken die een capaciteit heeft van 128GB, dan heb je maar 1 chip en niet 16. Maar deze verkleining zal wel nog niet mogelijk zijn.
Die controller is toch nodig omdat er net in 16 delen is gesplitst of zie ik dat fout?
Ja, dat zie je fout. De controller doet niet alleen dat, maar interfacet ook met de host. Hij interpreteert dus bijv. SATA commando's en zet dat om naar de daadwerkelijke acties op de geheugenchips.
als er nu een chipje van 16 slecht is, dan gooi je minder weg dan als een chipje van 128 slecht is. daarbij hebben ze waarschijnlijk al de productielijn van 16 helemaal ingetuned en op volle capaciteit draaiende, en hoeven ze niet nog een 128 - lijn te maken, maar een verpakkingslijn waar ze later bijvoorbeeld ook 32gb chipjes in kunnen voeren om 256 - blokken te maken :D
Ja inderdaad zou veel meer geld kosten om alles uit 1 chip te maken.

Zo zijn er ook 64GB varianten, die word ook gemaakt van die zelfde 16GB, stel je voor dat ze overal eigen chips voor zouden bakken. Dan zouden ze dus lijn moeten hebben voor 128GB, 64GB, 32GB en 16GB. Nu hebben ze alleen een 16GB lijn nodig om de chips te maken en meerdere verpakking(packets) lijnen om de verschillende varianten samen te stellen, de verpakking machines zullen niet zo duur zijn als de wafer machines die de chips maken.
Belangrijker is dat je niet meerlaags chips in een keer *kunt* maken. Als je dus 8 lagen dik je bitjes wilt stapelen, ben je verplicht om dat te doen door 8 losse chips te stacken (en voor deze doen ze dat gewoon twee keer).
met 64 GB werd waarschijnlijk gigabit bedoeld dus 64/8=816=128. Sommetje weer compleet ;) .
ja die begrijp ik ook neit helemaal...16 x 64 GB chips en dan heb je 128gb...weet niet wat voor berekening daar bij komt kijken, maar denk dat het niet goed verwoord is.
misschien worden ze zo initieel gebakken? maar pakken ze er 2 in 1 chip?

edit: "De zestien chips en de bijbehorende controller worden verpakt in een fbga-verpakking van"

nee dat is het ook niet....

[Reactie gewijzigd door stellastarr op 17 juni 2010 12:47]

16 * 64 Gigabit levert in totaal 128GigaByte
niets raars, gewoon rekenen :)

[Reactie gewijzigd door Cafe Del Mar op 17 juni 2010 12:50]

Niet om de wijsneus uit te hangen, maar het is "bit" en "Byte".
Hoofd en kleine letters dus precies andersom.

... en snel aanpassen, he? ;-)

[Reactie gewijzigd door Mr_Big op 17 juni 2010 12:51]

kijk, ik wist dat ik iets over het hoofd zag ;) stomme bitjes en byte'jes
64Gb (let op die kleine b) * 16 = 128GB (1 byte is 8 bits!!)
ze bakken chips die een capaciteit hebben van 64 Gb (GigaBITS), deze stapelen ze vervolgens op: 16 van die geheugen chips en een controller-chip.

Deze 17 laagjes zijn dan in de fbga-verpakking gestopt en worden als zijnde 128 GB (GigaBYTES) chips verkocht.

het berekeningetje:
er gaan 8 bit in een byte, dus 16 x 64Gb = 128 GB
The new 128GB embedded device integrates sixteen 64Gbit(4) (equal to 8GB)

(4)
When used herein in relation to memory density, gigabit and/or Gbit means 1,024x1,024x1,024 = 1,073,741,824 bits. Usable capacity may be less.

En 8 X 16=......

[Reactie gewijzigd door streamnl op 17 juni 2010 12:53]

Ze hebben het over 16 chips van 64 Gb wat gelijk is aan 16 x 8GB

En 16 x 8 GB is dus 128 GB

Gb = Gigabit
GB = Gigabyte

Edit:
Gelukkig was nog niemand voor mij :P

[Reactie gewijzigd door Nikos85 op 17 juni 2010 12:55]

Dus zo'n geheugenchip bestaat eigenlijk uit meerdere kleine chips?
Bijna goed.

Als eerste klopt kop van het artikel niet.
Vreemd genoeg wordt er in de rest van het artikel gesproken over een module.

Het is dus geen 128GB chip maar een 128GB module opgebouwd uit 16 64GB chips.
De titel klopt niet: het is geen chip maar een module. Dat is een heel ander soort
techniek, waarbij meerdere chip's gecombineerd worden tot een module, vaak ook
wel hybrid genoemd.

De techniek is momenteel nog niet zover dat 128 GB in 1 chip past.
Jawel hoor, is al wel mogelijk, alleen de yield gaan een behoorlijk stuk omlaag wat het weer minder rendabel maakt voor massaproductie.
nee, wanneer je een hele grote chip met veel transistoren gaat maken gaat de yield achteruit. Nu ben je met een foutje maar 64 Gb kwijt anders in een keer 128GB.
Dat niet alleen, maar hoe groter de chips hoe groter de snijverliezen aan de randen.
Er kunnen nu eenmaal efficienter kleine vierkantjes uit een rondje worden gehaald.
Nou ja je hebt altijd een controller nodig, je moet nu eenmaal op de een of andere manier naar deze chips schrijven en dat kun je moeilijk doen door gewoon wat data aan te bieden en er maar het beste van te hopen. De manier waarop de controller werkt betekend dat je als producent van de elektronica die gebruik maakt van deze chips op een eenvoudige manier complexe dingen kunt doen zo als bijvoorbeeld: Lees data in het bereik van 0x00000000 tot 0x000140FF en de controller doet de rest jouw elektronica kan het resultaat gewoon uitlezen. En meer van dat soort dingen. Ook hoef je je geen zorgen te maken op het moment dat je een chip van een andere chip boer koopt je kunt namelijk dankzij de eMMC v4.4 standaard er van uitgaan dat een andere controller die aan deze standaard voldoet op de zelfde wijze aangestuurd kan worden zonder dat het voor jouw veel verschil maakt of het ding 128GB, 32GB of 128MB groot is alles wat jij hoeft te doen is er op een zelfde manier tegen aan te kletsen en alles komt goed.

Touwens wel leuk zo'n 128GB chip. Op 17x22x1.4mm kun je aardig wat data kwijt en het verbruik zal denk ik ook niet al te hoog zijn als het voor mobiele apparaten bedoelt is. Ik zou best wel weer eens bezig willen gaan met dit soort dingen om eens te kijken of ik er iets leuks mee kan maken. :)
In Smartmedia en xD werd overigens wel datzelfde gedaan, dwz die hadden de controller in het device zitten ipv in de geheugenmodule.
kijk...en de prijsverlaging van ssd's komt eraan :)
Voor het segment met 55MB/s leessnelheid :D
Een beetje hdd van enige kwaliteit legt meer performance in de schaal.
op een ssd zitten meerdere van dezelfde chips die op hun beurt weer tegelijk worden aangesproken door de overkoepelende controller...toch?
SSD's gebruiken ook meerdere NAND chips die tegelijk worden aangesproken.
Voorbeeld een SSD met 8 kanalen zou dus theoretisch 8x55= 440MB/sec kunnen lezen.
Die 55MB/sec is dus voor 1 chipje.
oftewel ze zijn nog lekker rap ook :)
gooi ze op een sata600 interface-je, met ze 5 en ofzo...ennnn pompen maar...
ohja...aub niet die bagger controller gebruiken he, heren van het ontwerp ;)
Een SSD met 8 kanalen van deze modules heeft een capaciteit van 1024 GB, een Terabyte. Als je voor een goedkope SSD wilt gaan moet je deze niet hebben...

Overigens is een stack van 16 modules neit bijzonder veel goedkoper dan 4 stacks van 4 modules, dus deze chips zijn helemaal niet goedkoper.

Wat ervan komt is SD kaarten met 128 GB ipv 64 als maximum. Die 1.4 mm is niet toevallig.
Volgens de tekst zou elke chip 55 MB/s moeten halen, dus bij 16 chips in een package zou de theoretisch maximale performance rond de 880 MB/s moeten zitten. Helaas meldt het tweakers.net artikel niks over de performance per package :-(
Ik veronderstel dat dit dan kan gebruikt worden in USB-sticks en SSD's?
Volgens mij (als ik naar de huidige capaciteiten van usb-sticks kijk) moet dan de huidige chipgrootte op 64GB liggen?
"Toshiba ontwikkelde de chips onder meer voor gebruik in mobieltjes, tablets en digicams"

Lezen is ook echt zo moeilijk :/
Dus geen usb sticks en ook geen ssd's.

Ontopic:
Dit past precies bij de windows phone 7 spec's, daar willen ze toch ook dat je je sd kaart er niet uit kunt halen, stop 64gb erin en mij hoor je niet meer klagen :)
dat hangt er maar vanaf wie ze op de kop tikt lijkt me ;)
als ocz ze op een ssd wil gooien, waarom zou dat dan niet mogen?
maar wellicht is het een ander soort flash gehuegen dan in ssd's waardoor deze daar niet geschikt voor zijn?
ah boeie...leuek vooruitgang iig denk ik :p
Deze chips zijn niet geschikt voor gebruik in SSDs, daar moet je hogere kwaliteit geheugens voor hebben en snellere. Dus dat betekent minder hoge stacks.
Inderdaad lezen is moeilijk "Toshiba ontwikkelde de chips onder meer voor gebruik in mobieltjes, tablets en digicams"

Het zijn maar enkele voorbeeld dus SSD's en usb sticks kunnen er best bijhoren maar zijn niet in het voorbeeld opgenomen ;)
64gb en 128gb is voorlopig genoeg. Volgend jaar of jaar erop krijg je mobieltjes met 720p resolutiescherm, camera met 12mp, full hd film opnemen. Mp3 tjes krijgen steeds vaker 320mbit compressie. Alles bij elkaar zal de honger naar opslag alleen maar groeien en het zal nooit stoppen.

Volgend jaar of iets later zullen de chipfabrikanten waarschijnlijk met een 256 of 512 gig chip komen. Het zal in het begin veel lijken maar snel raken we eraan gewend en slaan we met zijn alleen meer op. We worden steeds minder selectief over welke data we houden en welke niet. Des te meer opslagruimte we hebben des te minder kritisch we worden. Over 10 jaar durf ik het niet eens meer te voorspellen. 10 tb op een "nano sd" kaart?

Puntje bij paaltje is het een mooie ontwikkeling en het moet vooral zo doorgaan.
1GigaByte is ongeveer 8Gigabit, dus 16x64/8=128
Nee, 1 gigabyte is precies 8 gigabit, of is 1 byte dan ook ongeveer 8 bits? ;)
In tablets kan ik me dat nog voorstellen, maar in een smartphone?
Hoef je nooit meer je films om te zetten in een kleiner formaat, gewoon 1 op 1 vanuit je PC overkopieren :+
Nou, dan moet de opslag nog wel wat groter worden.
Nice :) Geen losse SD kaarjes meer in je phone :)
Wow, dit is wel weer een flinke vooruitgang op gebied van geheugen in (kleine) mobiele apparaten :)
Dat gedoe met controllers altijd, het is gewoon een chipje met wat algoritmes erin dat beperkt wordt door de bewust gekozen slome processor zodat ze om de 3 maanden met een zogenaamd nieuwe controller uitkomen. volgens mij bestaan er al mini chipjes die op 1ghz draaien, waarom die niet gebruiken?
ligt het aan mij of is 21MB/s schrijven en 55MB/s lezen niet een beetje ...jaren 90? :?

Leuk dat je dan zo'n hoge capaciteit hebt, maar dan kan ik net zo goed een IDE schijf pakken voor m'n te bewerken bestanden.
Als jij (veel) snellere sd-kaartjes hebt, dan zou ik dat wel eens graag willen weten, dat is best snel. En steek jij maar lekker een ide-schijf in je fototoestel bijvoorbeeld.
Vergeet niet dat dit de transferrates voor individuele chips zijn. Dingens als SSD's hebben meerdere chips parraellel, hetgeen hogere snelheden toelaat. (Zoals in RAID systemen)
Als je bijvoorbeeld 8 van deze dingen aan elkaar koppelt (8x128MB= 1TB) en de snelheden blijven behouden en kunnen worden bij elkaar worden opgeteld (soort van RAID). Dan heb je een verdomt mooie SSD als je het mij vraagt. Of is dit een overhaaste uitspraak? Vraag me dan wel af wat voor een prijskaartje er aan hangt.
Precies hetzelfde prijskaartje per gigabyte als aan de huidige generatie SSDs. Een factor 2 of 3 hoger waarschijnlijk omdat je ze te weinig verkoopt.

Kom je uit op een paar duizend euro.

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Samsung Smartphones Sony Microsoft Games Apple Politiek en recht Consoles Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013