Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties

Intel, Toshiba en Samsung zouden van plan zijn om de krachten te bundelen voor het ontwikkelen van 10nm-procestechnologie. Een eerste investeringsronde zou worden gesteund door het Japanse ministerie van economie, handel en industrie.

Volgens Reuters, dat zich baseert op een artikel in de Japanse zakenkrant Nikkei, zouden de drie bedrijven van plan zijn om hiervoor een consortium op te richten en tien andere bedrijven in de halfgeleiderproductieketen uit te nodigen hieraan mee te doen. Samsung Electronics en Toshiba zijn respectievelijk de nummer een en twee van de wereld op het gebied van nand-flashgeheugen. De 10nm-procestechnologie zou in 2016 klaar moeten zijn.

Het nieuws over de mogelijke samenwerking is volgens Tech-On mogelijk gerelateerd aan het 'Ultralow-power Device Project for Low-carbon Society', een stimuleringsprogramma van de Japanse overheid. Het Japanse ministerie van economie, handel en industrie zou initieel in totaal vijf miljard yen, ongeveer 44,5 miljoen euro storten in een fonds voor de r&d-kosten van het project, terwijl de consortiumleden eenzelfde bedrag moeten inbrengen.

Het doel van het op te richten consortium zou zijn om 10nm-procestechnologie voor de productie van nand-flashgeheugen te ontwikkelen, terwijl Intel volgens Nikkei de technologie mogelijk voor snellere microprocessors gaat gebruiken.

X-bit Labs verwacht echter dat Intel de 10nm-technologie van het consortium gaat gebruiken voor de productie van nand-geheugen, omdat de procedés voor processors en flashgeheugen aanmerkelijk verschillen en omdat Intel zelf ook al fabrikant van nand-geheugen is.

Samsung en Toshiba participeren overigens al in IBM's 'fab club', die procestechnologie voor onder meer microprocessors ontwikkelt. De betrokken partijen hebben de plannen voor het consortium nog niet bevestigd.

Moderatie-faq Wijzig weergave

Reacties (42)

Tja, je moet wat, om vast te houden aan Moore's Law. Maar ik vind het wel dapper.

10 nm.... hoeveel atomen zijn dat precies?
een heliumatoom is 60 picometer groot, maar met atomen bouw je nix, dat doe je met moleculen. Aangezien silicium nog een factor 7 zwaarder is en 2 electronenmantels meer heeft zal dit wel iets groter zijn, maar nog lang niet in de grootteorde van het procede wat men nu ontwikkeld

ter info
pm = 10^-12
nm = 10^-9
Het is gevaarlijk te spreken over de grootte van een atoom of molecuul, want wat bedoel je? De schil van de buitenste electronen? Daar komt quantummechanica bij kijken en dan is niets meer wat het lijkt. Bijvoorbeeld de 'cross sectie' (een soort frontaal oppervlak) die wordt gebruikt bij berekeningen over de kans dat twee deeltjes botsen, hangt vaak af van het type deeltjes, temperatuur, etc.

Bij vaste stoffen is de roosterconstante van belang, ofwel hoever twee atomen van elkaar af zitten. Ik lees hierboven dat dit ongeveer 0.5 nm is bij silicium.
Het gaat hier inderdaad over de roosterconstante. De formule daarvoor is 4r=αwortel(2) Met r de straal van het een atoom en α de afstand tussen twee atomen in het rooster. Dat komt er dus op neer dat de roosterafstand α bij silicium op 0,314 nanometer, als ik het goed heb. Deze afstand is kleiner dan wanneer je ruwweg de straal van het gehele atoom neemt, want daar zitten de elektronenwolken bij. Maar die zitten op een ingewikkelde manier verweven in het rooster. Met deze kennis kun je dus stellen, dat in een procesgrootte van 10nm er bijna 32 atomen passen aan de zeiden.
Een Silicium atoom heeft een radius van 111 pm, dus een diameter van 222 pm. Dat is 2,22 Angstrom en dat komt toch aardig in de buurt van de grootteorde van 10 nm.
De roosterconstante van Silicium is ongeveer 5 Angstrom(=0.5 nm), dus het zal zoiets rond de 20 atomen zijn
Dan beginnen ze aardig de grens te bereiken. Veel kleiner dan 5nm zal op de huidige manier niet lukken.
Vergis je niet, precies het zelfde zeiden we ~4 jaar geleden ook over 32 nm, (periode van 90nm naar 65nm) technologie gaat veel harder, ik denk binnen 2 jaar dat mogelijk is.

[Reactie gewijzigd door A.M.D op 1 november 2010 12:36]

Fair point, well made.

Maar, zoals Einstein maar al te goed weet, gelden andere regels op atomair niveau dan op macro niveau. We kunnen er niet vanuit gaan dat enkele atomen het zelfde reageren dan als dat de materie zelf dat doet. Het houdt ergens op. En of dat rond de 20 atomen is of 10 of 5 zullen we proefondervindelijk gaan ontdekken.

Toch is het dapper miljarden te storten in een technologie waarvan lang niet zeker is of deze ooit wel goed zal functioneren.
Toch is het dapper miljarden te storten in een technologie waarvan lang niet zeker is of deze ooit wel goed zal functioneren.
Het ging over "vijf miljard yen, ongeveer 44,5 miljoen euro". Van de andere kant, de totale kosten zullen inderdaad vele malen hoger uitvallen; het is goed mogelijk dat er een miljard euro besteed wordt voordat de eerste, werkende 10 nm wafers uit de fab komen.
En tja, oorspronkelijk was het ook niet zeker dat 32 nm ooit zou gaan werken; dat is de kracht van de Wet van Moore ("de self-fulfilling prophecy van Moore"??). Die is begonnen als observatie, maar daarna "geüpgrade" naar een voorspelling en leidraad voor verdere ontwikkelingen. Ook al weten we niet zeker of 10 nm gaat werken, de fabs kunnen niet anders dan te (proberen) het te ontwikkelen; alle andere fabs doen dat immers ook. En de ontwerpers gaan er vanuit dat het gaat lukken en beginnen al te ontwerpen voordat het proces inderdaad klaar is. (En tja, dan heb je af en toe problemen zoals AMD die had; heb je net een GPU ontworpen, wordt het proces gecanceld.)
Klopt het dat er ooit een keer een einde moet komen aan de steeds kleinere processen? Absoluut (kleiner dan een atoom is sowieso onmogelijk, hoe dicht we in de buurt kunnen komen is een heel andere vraag).
Gaat er vroeg of laat een keer, waarschijnlijk bij meerdere partijen, een bedrag gemeten in miljarden euro's besteed worden aan iets dat niet gaat werken? Ja, dat zit er dik in. Maar het alternatief is niet ontwikkelen; dan lig je meteen eruit en is het verlies waarschijnlijk nog groter.
Vergis je niet, precies het zelfde zeiden we ~4 jaar geleden ook over 32 nm, (periode van 90nm naar 65nm) technologie gaat veel harder, ik denk binnen 2 jaar dat mogelijk is.
Niet mee eens, ten tijden van 32nm wist intel al dat ze 12nm konden maken en ook hoe ze dat moesten gaan aanpakken, hadden daar al een productie plan voor ontwikkeld. Nu met <10nm hebben ze nog geen idee hoe ze dat moeten gaan doen, en of het wel te doen is de komende jaren is de vraag, wellicht moet er eerst een doorbraak komen en laat dat nog even op zich wachten.
Maar op een gegeven moment houdt het gewoon op, omdat je bij een te klein procedé gewoon last hebt van vervelende quantumeffecten. En nee, daar vind men niet weer een oplossing op, want het probleem van kleiner dan 32nm was gewoon praktisch "hoe pakken we dat in hemelsnaam aan" en het probleem als een procedé van enkele nm bereikt wordt is gewoon een fysische barričre.
Als de boel niet kleiner kan, kunnen memsistors de boel misschien nog enigzins efficienter maken. Vooral als alternatief flash-geheugen. Alleen bovengenoemde partijen investeren er totaal niet in.
Wat is het verschil tussen bijvoorbeeld 35nm en 10 nm?
Ik snap dat niet helemaal =)
Iets vereenvoudigd:

Stel je voor dat je chips ontwerpt op ruitjespapier, waarbij de "draden" en de transistoren altijd hele hokjes zijn. Als we het hebben over hoeveel nanometer een procedé is, dan bedoelen we hoe breed (en hoe hoog) elk hokje is.

Enkele gevolgen:
- Hoe kleiner, hoe meer transistoren er op een bepaalde oppervlakte passen (de oppervlakte van chips blijft ruwweg gelijk; om meer transistoren te kunnen gebruiken in een enkele chip moeten ze per stuk dus kleiner worden).
- Hoe kleiner, hoe minder lading het kost om een transistor te schakelen, dat vermindert het gebruik.
- Hoe kleiner, hoe moeilijker het is om te fabriceren. Een nm is echt klein, dat kun je je (letterlijk) niet voorstellen. Als je toch een poging wilt wagen: The Scale of the Universe. Er zijn wereldwijd slechts twee of drie bedrijven die de machines leveren die de meest cruciale stap doet: ASML, Canon en Nikon (een van de laatste twee, ik ben vergeten welke, is gestopt met ontwikkelen van machines voor het modernste (kleinste) procedé, vandaar "twee of drie").
De chips worden nog kleiner... dankzij nanotechnologie.
hint : dit is nanotech :) Afmetingen van de dingen zitten in de grootte van nanometers, dus voila, nanotech. Voorlopig zie ik nog weinig heil in koolstofchipjes, tot een nanometertje of 10 kunnen we vooruit met Si, daarna wordt het leuker om carbon nanofibers in te zetten (als we ze tegen die tijd een beetje deftig kunnen fabriceren).
korte afstand om het signaal van A naar B te transporten dus snellere afhandeling
Dit gaat om de grootte van de details de men in de geheugenchips (of processorchips) kan maken. Hoe kleiner de details, hoe meer onderdelen je op dezelfde oppervlakte kwijt kan en hoe groter de opslag van het geheugen dus zal zijn, bij (ongeveer) gelijkblijvende kosten. Voor processors geldt ook zoiets natuurlijk.
Ongeveer 25nm.. :p

Daarbij zit er een verschil in warmte ontwikkeling, en de ruimte die nodig is, waardoor je geheugen dichtheid opgeschroefd kan worden.
Zover reikt mijn kennis..:)
De afmetingen die ze hier gebruiken is de lengte van de gate van een transistor.
Hoe kleiner, hoe meer transistoren er op een oppervlakte past.
1 meter = 1000 mm = 1.000.000 µm = 1.000.000.000 nm
Kleinere afbeeldingsmaatstaf = meer structuren per oppervlak --> goedkopere halfgeleiders met meer performance. Het basisidee is simpel. De uitwerking vaak wat complexer.
De fabrikanten van lithografische machines zoals Canon, Nikon, ASML enz. bepalen toch wat er mogelijk is op dit gebied. De chip bakkers zoals Intel, NXP, Samsung enz. zijn gewoon hun klanten en opdrachtgevers.

Zo'n 10nm proces zal toch eerst door hen toegankelijk gemaakt moeten worden lijkt me....
Litho is inderdaad een (belangrijke) stap in het procedé, maar niet de enige. Het initiatief voor procesontwikkeling ligt nog altijd in de handen van de semicon manufacturers, en niet bij hun leveranciers, die natuurlijk wel betrokken worden in de ontwikkeling. Daarnaast vindt er concurrent engineering plaats, wat zoveel betekent dat er niet gewacht wordt totdat er een tool is dat op 10nm kan afbeelden voordat het omliggende proces wordt gemaakt; de ontwikkeling van tools en processen gebeurt tegelijkertijd in onderlinge afstemming. Anders zou de ontwikkeling veel langer duren dan we nu gewend zijn. Als je hier meer van wilt weten, dan kun je je eens verdiepen in organisaties zoals Sematech, ITRI, Semi en RIETI, die allemaal als taak hebben om op specifieke gebieden (inhoudelijk of regionaal) afstemming te bereiken tussen verschillende combinaties van partijen in de halfgeleiderindustrie.
Mooie vooruitgang, betekend dit dan ook dat er weer een nieuwe generatie van processoren zit aan te komen?
Tussen nu (2010) and 2016 zullen er wel een hoop generaties komen. Dit is waarschijnlijk voor NAND geheugen en niet voor processoren.
Uiteindelijk wel, maar waarschijnlijk met een ander procedé dan dit, omdat dit volgens X-BitLabs voor nand-geheugen is (flash-geheugen, SSDs e.d.).
Kijk hier gebeurt iets geks alle concurrenten komen bij elkaar om samen technologie te
ontwikkelen. Hmmmmm heeft iemand Rambus misschien gevraagt of ze misschien het pattent al hebben ?
Wat is daar zo gek aan> dit soort samenwerkingen is aan de orde van de dag. Het zijn ook niet direct elkaars concurrenten maar ook partners. Samsung en Intel zijn geen directe concurrenten (op de meeste vlakken tenminste niet), Toshiba is ook vooral groot in geheugen. Het zou raar zijn als AMD en Intel samen zouden werken, dat wel ;-)
Waarom zou het raar zijn als AMD en Intel zouden samenwerken?
Om samen een procede te ontwikkelen zou ik niet erg vinden. Daar hebben ze beide voordeel van. En uiteindelijk wij als consument ook weer.

Als ze nou samen gingen werken aan een architectuur, dat zou wel vreemd zijn.
Krijgen we AMD en Intel processoren die als 2 druppels water op elkaar lijken.
terug in de tijd zou dat zijn naar het moment dat intel en AMD idnetieke processoren maakte alleen met een ander type plaatje er op.
AMD is AMD niet meer. De chip productie devisie is ondergebracht in Global Foundries en deze partij kan dus onafhankelijk meedoen in de ontwikkeling van 10nm. Zover ik weet werkt GF al nauw samen met IBM mbt de ontwikkeling van deze technology.
dit soort samenwerkingen is aan de orde van de dag.
Hebben de grote chipfabrikanten ook zo samengewerkt om bvb 32nm chips te maken?
Ik denk dat ze nu samenwerken omdat 10nm zo lastig en dus duur is, dat de fabrikanten elk afzonderlijk het financiële risico niet willen nemen.
Iets minder, omdat bijvoorbeeld intel groot genoeg was om dat alleen te doen. Echter een hele hoop kleinere bedrijven werkt wel samen om het te kunnen doen, anders is het onbetaalbaar.
Naarmate de procedés moeilijker en moeilijker worden, zal men zoals dit artikel ons vertelt, genoodzaakt worden om alle krachten (lees: brains) te bundelen.

Bottom line is dat alle partners hier de vruchten van zullen plukken!
http://www.shimadzu.com/a...ase/5iqj1d00000031cj.html

[small][small]edit: linkje met extra info 10nm procedé[/small][/small]

[Reactie gewijzigd door bert170881 op 1 november 2010 11:52]

Interessant om te zien dat de economische haalbaarheid van deze procédés parallel loopt met de technische. Op het moment dat verdere miniaturisering geleidelijk aan onhaalbaar begint te worden, begint het ook vrijwel onbetaalbaar te worden. Enkele van de grootste bedrijven ter wereld op dit gebied moeten nu al samenwerken. Nog een stuk grootschaliger op bedrijfsniveau kan bijna niet. Nog kleiner qua productie kan ook bijna niet meer.
Het een volgt uit het ander. Naarmate het technologisch moeilijker wordt, stijgen de ontwikkelingskosten en daarmee de nodige schaalgrootte om het economisch haalbaar te maken, tot je een punt bereikt waarop je niet meer genoeg kritische massa kunt maken om een ontwikkeling te bekostigen. Inderdaad interessant om te zien, en in al zijn complexiteit is het ook heel logisch.
De rek begint uit Moore's law te raken.
Sinds ca 2005 stagneren performance, opgenomen vermogen en performance-per-watt, ondanks dat het aantal transistors per oppervlak nog wel toeneemt.


The Free Lunch Is Over
http://www.gotw.ca/publications/concurrency-ddj.htm
Heeft ASML niet net de eerste EUV machine aan een - tot dusver - onbekende klant geleverd? Enne, weet iemand misschien hoeveel nanometer men hiermee kan bereiken? 10 nm wellicht? O-)
Ik hoop dat Nvidia er ook instapt met hun stroom vretende GPU's.
NVidia maakt voor productie gebruik van TSMC. Geen idee of TSMC in consortia zit voor procesontwikkeling; volgens mij doen ze vrij veel zelf/intern.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True