Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 35, views: 12.571 •

TSMC zal in het derde kwartaal van 2011 in staat zijn om de eerste processors op 22nm te bakken, zo blijkt uit de laatste roadmap van het bedrijf. TSMC loopt daarmee in de pas met Intel, dat in hetzelfde jaar overstapt op de productie van 22nm-chips.

TSMC-logo Minder ver weg staat de overstap naar 32nm in de planning. TSMC zal de eerste halfgeleiders op basis van een low-power 32nm-procedé in het vierde kwartaal van 2009 produceren, terwijl chips op basis van het reguliere 32nm-procedé van TSMC pas in het eerste kwartaal van 2010 leverbaar zijn.

Volgens Rick Tsai, vice-president van TSMC, tegenover Nordic Hardware zal het bedrijf ondanks de recessie zijn onderzoeksafdeling met dertig procent uitbreiden. Momenteel bestaat die uit ongeveer 1200 medewerkers. Ook is de Taiwanese chipbakker van plan zijn ontwerpafdeling met 15 procent uit te breiden. Het extra personeel is volgens Tsai nodig om de productie van 22nm-chips in 2011 mogelijk te maken.

TSMC-wafer Over de gebruikte productietechnologie voor 22nm-chips zit TSMC nog te twijfelen, zo is bij EETimes te lezen. Zo verklaarde Burn Lin, hoofd van de micropattern-divisie van TSMC op de SPIE Advance Lithography-conferentie dat het bedrijf nog bezig is met de evaluatie van double-patterning-, EUV- en maskless-lithografie voor zijn 22nm-procedé. Met 'natte' 193nm-lithografie zijn volgens Lin halfgeleiderstructuren mogelijk tot 15nm.

Onder meer IBM, Infineon, Samsung, STMicroelectronics en GlobalFoundries zullen nog een tussenstap maken naar 28nm. De technologieovereenkomst tussen de genoemde bedrijven moet in de tweede helft van 2010 de eerste producten opleveren. Intel zal in 2011 zijn eerste 22nm-cpu uitbrengen. Die draagt de codenaam Ivy Bridge en is de 22nm-versie van de 32nm-Sandy Bridge.

Gerelateerde content

Alle gerelateerde content (26)

Reacties (35)

wat komt er dan na de 15nm? want deze techniek gaat maar tot 15nm
Nou, het EUV- en maskless-lithografie proces dus. Momenteel wordt nog getwijfeld of ze daar naar overstappen, omdat de huidige technologie (193nm dus) wellicht nog in staat zou zijn om deze node te bedienen.
Veel kleiner wordt technisch onmogelijk. We gaan overstappen naar optische chips. Die zijn in potentie nog veel sneller.
en met hedendaagse technieken bijna onmogelijk
maar misschien ook niet mogelijk na 2020
de technieken waar hierover wordt gesproken zijn beproeft manieren van productie
je kan heeel lang wachten op de overstap naar optische
Met de hedendaagse technieken is dat zeker wel mogelijk.
KARLSRUHE - Een internationaal team van wetenschappers aan de universiteit van het Duitse Karlsruhe is erin geslaagd een ultrasnelle siliciumchip te bouwen.

Die verwerkt informatie vier keer sneller dan de huidige recordhouder van Intel.

Dit heeft de universiteit vrijdag laten weten. De nieuwe chip kan meer dan 100 gigabit per seconde verwerken. De chip verbindt de klassieke elektronica met informatieverwerking via licht.
bovenstaande van nu.nl maar om er wat dieper op in te gaan zie:

technische uitleg (ff add skippen)

[Reactie gewijzigd door dan0s op 28 april 2009 09:41]

Het artikel dat je hier aanhaalt gaat over apparatuur voor routering in optische netwerken. Momenteel zijn de betreffende routers nog steeds electronisch. Dit betekent dus dat een optisch signaal (van de glasvezel) moet omgezet worden naar iets elektronisch, dan op basis van die informatie gerouteerd moet worden en dan terug naar optisch getransformeerd moet worden voor het op de juiste link geplaatst wordt.
De elektronische component is trager dan het optische deel, wat de capaciteit beperkt. Vandaar het onderzoek naar technieken om dit switchen ook optisch te laten verlopen. Want uiteindelijk gaat het hier gewoon om een switch.

Dit is verre van een general purpose cpu. Ik beweer niet dat bepaalde technieken van hier uiteindelijk niet kunnen ingezet worden voor meer general purpose toepassingen, maar dat is nog een heel lange weg.

[Reactie gewijzigd door bomberboy op 28 april 2009 09:52]

Maar hierbij vergeet je wel een belangrijk punt. Namelijk dat er nu alleen lange-termijn onderzoek wordt gedaan naar puur optische CPU chips. Dit terwijl als de grens van de niet-optische technieken binnen handbereik komt er heel veel meer geld vrijkomt voor onderzoek. Dat de ontwikkeling nu nog niet snel gaat is logisch, maar als Intel, TSMC, IBM, etc. straks grote delen van hun onderzoeksbudget erin gaan steken komt het in een stroomversnelling.
Optische chips? Dat heeft hier weinig, erg weinig mee te maken. De vraag is niet hoe de chips werken, de vraag is hoe je ze maakt. Hoe krijg je een miljard of meer transistoren op een klein oppervlak? Met EUV lithografie lukt dat, maar daar maak je geen optische chips mee. Niemand weet nog hoe je fatsoenlijk optische chips maakt.
nee, 65 nm is de grens oh nee, 55 nm, oh nee 32. Dat er een grens is die niet te overschrijden is, roept men al jaren en steeds blijkt er weer een oplossing te zijn.
err nee, de FYSIEKE grens ligt rond de 12 nm dacht ik, wat dre breedte van 1 koper of silicium atoom is. Baantjes moeten altijd minstens 1 atoom breed zijn, vandaar de limiet, kleiner kan niet.
Nee 12nm is niet de atoom-grens, maar de quantum-grens. Atomair gezien kunnen we in theorie nog een stuk kleiner(iets van 1-2nm zo uit m'n hoofd, gezien atoomstralen van 100-200pm), maar er wordt aangenomen dat rond de 10-12nm de quantum-effecten niet meer onder controle te houden zijn. Een goede werking is dan niet meer te garanderen.

(Natuurlijk kan dit nog veranderen en is het mogelijk dat we er later achter komen dat bijvoorbeeld 8nm ook nog kan met andere materialen.)

[Reactie gewijzigd door hollandismad op 28 april 2009 10:57]

de grens was steeds de productieTECHNIEK en nu worden de grensen van het fysisch mogelijke benaderd, maw er zal een ander materiaal moeten worden gezocht
Daarna komt 11 nm, gebaseerd op een andere techniek, namelijk nano-elektronica.
Zie ook http://en.wikipedia.org/wiki/11_nanometer.
Wat daarna komt moeten ze nog uitvissen in de komende 10 jaar ;).
Onderaan die wikipedia pagina staat ook een referentie naar een Inteller die 10nm al ziet komen :P
Wat ik mij ook vaak af vraag, als ze zeggen dat van een chip de gemiddelde helft-hoogte van een geheugenceleen een bepaald aantal nanometer groot is, hoe kunnen, wij consumenten daar zo zeker van zijn dat dat ook daadwerkelijk zo is. Dat het eigenlijk onderdeel is van een verkooppraatje en dat het in werkelijkheid misschien wel eigenlijk twee keer zo groot is, want het is toch bijna onmogelijk de formaten van een chip op te meten, alleen als je een elektronenmicroscoop tot je beschikking hebt.
Door bijvoorbeeld de specs te bekijken die ze opgeven die wiskundig na te gaan zijn. Het aantal transistor/geheugencel op een oppervlak het aantal lagen. Vergeet niet dat TSMC niet zelf de chips ontwerpt en dat als ze hun beloften niet zouden waarmaken ze echt geen klanten hadden. Die weten dondersgoed wat ze moeten verwachten. Wij als klant merken het vooral in de kosten en de grote van geheugenchips in eerste instantie en ook in kosten tegenover prestaties van processors uiteindelijk. Het belangrijkste deel van de hele vooruitgang in de chipindustrie zijn deze ontwikkelingen, verbeteringen in ontwerp dragen ook bij maar zijn marginaal in verhouding.
Voor een niet totale leek is dat goed mogelijk (zie reactie Vastloper), maar waarom zou je dit uberhaupt willen checken? Je koopt je electronica toch niet vanwege de geadverteerde procedegrootte? Als je bijv. geheugenchips koopt wil je dat het een bepaald aantal Gigabytes groot is. Dat het heel klein is, is misschien leuk om indruk mee op je moeder te maken, maar zolang de performance naar verwachting is, is dat totaal irrelevant.

Fabrikanten maken chips kleiner, voornamelijk omdat dat goedkoper is en omdat het snellere en/of energiezuinigere producten oplevert. Ik heb overigens ook nog nooit gezien dat een microelectronicafabrikant adverteert met procedegroottes, omdat dat de gemiddelde consument sowieso helemaal niets zegt.
Misschien een domme vraag, maar waarom schakelt men niet meteen over van 32 -> 15 nm en zit daar nog het 22 nm proces tussen?
Als het technisch mogelijk is om 15 nm via 'natte' 193nm-lithografie te produceren, is het toch niet echt zinvol om eerst nog een 22 nm proces op te zetten......

Trouwens is het noodzakelijk om alle machines te vervangen als men overschakelt op een kleiner procedee of kan men de machines gewoon 'fijner' afstellen?
Los van het feit dat zo een stap technisch gezien misschien niet meteen mogelijk is moet je ook niet vergeten dat de "uitvinders" van vandaag de dag eigenlijk gewoon R&D afdelingen zijn van beursgenoteerde bedrijven.

We mogen blij zijn dat deze R&D afdelingen bestaan, want daardoor communiceren wij nu op een PC via het internet maar het bedrijf wil wel gewoon winst maken a.d.h.v. deze uitvindingen dus ze zouden gek zijn als ze nu op 15nm gaan werken als ze eerst nog 22nm kunnen uitmelken.

Maar zoals ik al zei, los van het geld "probleem" zijn er ook gewoon reële technische obstakels, niet voor niets dat het tock model van Intel over het algemeen veel beter is dan het Tick model... Eerst alles kleiner maken, daarna de techniek perfectioneren en meer sap uit de kleinere modellen persen. Pas daarna kunnen ze met dezelfde techniek gaan proberen nóg kleiner te werken.
Als je als fabrikant al 15 nm kan aanbieden, dan zal je meer winst kunnen draaien dan wanneer je eerst nog op 22 nm gaat produceren hoor. ;)


Offtopic:
"Los van het feit dat zo een stap technisch gezien misschien niet meteen mogelijk is moet je ook niet vergeten dat de "uitvinders" van vandaag de dag eigenlijk gewoon R&D afdelingen zijn van beursgenoteerde bedrijven."
Alsof een niet beursgenoteerd bedrijf geen winst hoeft te draaien?

[Reactie gewijzigd door Thunderhawk0024 op 28 april 2009 16:13]

R&D kosten stijgen exponentieel met elke verkleining
er wordt er voor gekozen om de kosten te spreiden
een voorbeeld: waarom van 32nm naar 15nm wanneer 32nm naar 22nm de procesor 100 zuiniger voor de veel minder R&D kosten
Omdat kunnen nog niet hetzelfde is als betrouwbaar en met een laag uitval percentage kunnen. De investeringen zijn zo immens (ja, vrijwel alles moet vervangen) dat zo'n productielijn vrijwel direct moet presteren, anders zijn de kosten nauwelijks nog te dragen. Nog een jaartje of wat aanpielen tot het allemaal echt lekker draait kan je zelfs als groot bedrijf de kop kosten.
Je kan toch ook niet verwachtten dat de eerste auto al meteen een Ferrari was die 400 km/u ging?
Het is gemakkelijker om kinderziektes op te lossen op 22nm (en dan die ervaring/kennis mee te nemen naar 15nm) dan om gewoon ineens van 45nm naar 15nm te springen.
15nm is trouwens het kleinste wat men op basis van lithografie kan doen, hierna treed er te veel 'Quantum Tunneling' op. (Bij Quantum Tunneling gaat een deeltje door een barrière heen, zonder dat het eigenlijk genoeg energie heeft om door de barrière te gaan. Wat voor een effect dit heeft op een processor kan je zelf ook wel inzien :))
Dit is gewoon een vaststelling die men geeft gedaan, dit is dus geen techniek die ze al onder controle hebben in labo's. Ik vermoed dat enkele grote bedrijven al wel al dan niet werkende wafers liggen hebben.

Oude machines moeten verkocht worden, bv om nog chipset met te produceren. Ze gooien die dingen dus niet gewoon weg... Het is iedere keer dus wel weer een grote investering om over te schakelen, maar daarvoor zijn er nu dus coalities (bv IBM, Infineon, Samsung, STMicroelectronics en GlobalFoundries) om de onderzoekskosten en kennis te delen.
Om van 32 naar 22 nm over te stappen moet TSMC voor een paar miljard (!) aan nieuwe machines bestellen. 15 nm machines zijn simpelweg in 2010 of 2011 nog niet te koop, dus als je 22nm overslaat dan heb je in 2011 nog steeds 32 nm chips.
Ik vind het geen domme vraag.
Natuurlijk is het mogelijk om stappen over te slaan, en als en concurrent de mogelijkheden heeft om betere apparatuur te kopen waardoor die een stap over kan slaan zullen ze dat zeker overwegen. Dat zie je hier ook waar Intel en TSMC naar 22nm gaan terwijl een aantal andere bedrijven eerst naar 28nm gaan. Punt is wel dat de apparatuur voor die grotere stap nog niet allemaal klaar is. Volgend jaar overstappen naar 28nm, of over 2 jaar naar 22nm. Dat is een economische keuze.

Bedenk ook dat de nieuwste apparatuur eerst een heleboel kinderziektes gaat opleveren. Het is niet alleen de waferstepper die de resolutie moet aankunnen, maar ook de chemicaliën moeten klein genoeg zijn, de wafers moeten aan nieuwe eisen voor zuiverheid en gladheid voldoen, de maskers moeten de helft kleiner, etc. Dit tijdpad wordt al jaren van tevoren door de fabrikanten onderling afgestemd zodat alle technieken ongeveer gelijktijdig gereed komen.

[Reactie gewijzigd door carlo op 28 april 2009 00:51]

Trouwens is het noodzakelijk om alle machines te vervangen als men overschakelt op een kleiner procedee of kan men de machines gewoon 'fijner' afstellen?
Het maken van chips gebeurt niet in één stap, elke wafer moet tientallen keren behandeld worden voordat de chips helemaal klaar zijn. Eén van de problemen is om te zorgen dat alle lagen waaruit een chip bestaat netjes bovenop elkaar komen te liggen. Hoe netjes dit moet gebeuren hangt af van de grootte van de componenten. Je kunt je wel voorstellen dat het uitlijnen van twee lagen een stuk nauwkeuriger moet bij een 15 nm-proces dan bij een 32 nm-proces.
De specificaties van die machines zijn nogal absurd: een wafer laten bewegen met een snelheid van 1 m/s, waarbij op elk moment de positie van die wafer tot op een paar nm nauwkeurig bekend is en bijgestuurd wordt. Ik weet het niet zeker, maar ik heb zo'n beetje het vermoeden dat het meer dan lastig genoeg is om aan de nauwkeurigheids-eisen van het huidige proces te voldoen. Het lijkt me niet heel realistisch dat je, zodra je naar het volgende proces overgaat, die machines nog nauwkeuriger kunt instellen.
Klopt tot op zekere hoogte, waferscanners kunnen wel telkens geupgrade worden voor betere overlap of kleinere feature sizes, bijvoorbeeld door nauwkeurigere reticle stages te introduceren. Dat is ook wat ASML doet, een significant deel van de verkopen zijn 'verouderde' machines die geupgrade en weer verkocht worden. Van het hele productieproces is eigenlijk alleen de lithografiestep (waar de transistors worden belicht) bepalend voor het procede, de lagen die daar bovenop komen zijn letterlijk 10x groffer dan wat er onder ligt, dus je hoeft zeker niet heel je productielijn te vervangen voor een kleiner procede.

Overigens lijkt het uit dit soort berichtgeving telkens alsof het alleen maar om kleinere feature sizes gaat en dat nanometers de enige of de belangrijkste factor zijn voor chipproducenten, maar dit is eigenlijk helemaal niet waar. Doorvoer (aantal wafers per seconde), betrouwbaarheid (uptime) van de machine en yield (kwaliteit van de gemaakte chips) zijn eigenlijk veel belangrijker, en dat is ook waar de 3 overgebleven fabrikanten van waferscanners elkaar het meest op beconcurreren.
Ik denk toch dat sommige mensen bij de grote fabrikanten met een rood hoofd achter het bureau zitten om te bedenken wat er moet gebeuren na de 15nm. Het bedrijf moet natuurlijk wel doorgaan.. Die miljarden geïnvesteerd worden moeten natuurlijk wel terug verdiend worden

[Reactie gewijzigd door Axeor op 27 april 2009 22:39]

Hoe zit het eigenlijk met AMD en zijn verkleining van het productieproces de komende jaren?
Als AMD aan het einde van dit jaar nog geen 32nm doet kunnen ze gevaarlijk achter komen te liggen..
32nm staat gepland voor 2011 met de Interlagos-famillie (12-16 cores) ;)
Achter liggen zullen ze wel, maar AMD zat tot voor kort nog op 65nm hun Phenom I's te maken, terwijl Intel al hun nieuwe Core 2 Quad's op 45nm maakte. Er verandert dus eigenlijk niets aan de situatie, alleen andere namen en nummers :).

Bron:
nieuws: Opteron krijgt volgend jaar 12 cores en 16 cores in 2011
Een groter "probleem" heeft Intel hierin, zij zullen hun Tick-Tock model moeten aanpassen of uit het raam gooien na de overstap naar 22nm, want de stap naar 15nm duurt nogal even...
Fyi. hier halen ze de lithografie technologie en machines vandaan: http://www.mapperlithography.com/index.html
Mapper maakt zgn. Maskless Lithography tools. Dat was een van de mogelijkheden die TSMC overweegt. Als TMSC kiest voor EUV of double-patterning, zullen ze hun lithografie tools waarschijnlijk bestellen bij ASML of Nikon.

Overigens heb je nog wel wat meer nodig dan alleen een lithografie tool.
Ik denk dat we het zo kunnen samenvatte wat de reden is: Hoe groter de stap hoe hoger de kosten, maar bovendien zal je met zo'n grote stap teveel problemen tegenkomen. Met kleine stapjes beperk je de kosten, en spreid je de problemen. Je moet bedenken dat daar de slimste koppen samenzweren. Als zij het zichzelf te moeilijk gaan maken zal geen hond de kosten kunnen betalen en zal het ontiegelijk lang duren voordat alles gedebugged is. Om achter de bugs te komen zal het mss zelfs wel noodzakelijk zijn om te expirimenteren met processen kleiner dan het oude maar groter dan het nieuwe.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneApple iOS 8

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013