Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Chipbakker Tsmc heeft bekendgemaakt dat het in 2009 kan starten met de massaproductie van 40nm-chips. AMD en Nvidia zullen waarschijnlijk één van de eerste klanten voor het nieuwe procedé zijn.

Volgens bronnen van TGDaily bij AMD en Nvidia zullen de twee gpu-fabrikanten in de eerste helft van 2009 overschakelen naar een 40nm-procedé voor de productie van gpu's.De eerste tastbare producten zouden al op de Cebit 2009-computerbeurs in Hannover te bewonderen zijn. AMD produceert zijn gpu's nu op 55nm en Nvidia zet dat procedé ook al in voor de Geforce 9800GTX+, maar zijn high-end GTX 260 en GTX 280 worden nog geproduceerd met een 65nm-procedé.

Tsmc zal volgend jaar drie 40nm-procedétechnologieën kunnen aanbieden aan klanten. De eerste is een algemeen procedé dat onder meer gebruikt wordt voor de productie van gpu's, het tweede 40nm-productieproces is geschikt voor low power-doeleinden en is bedoeld voor de productie van mobiele gpu's, terwijl de derde ingezet zal worden voor de fabricage van chips voor handhelds. Mogelijk kan Nvidia deze laatste gebruiken voor zijn Tegra-chips.

Het bedrijf werkt momenteel aan een 32nm-procedé en zal ook beginnen aan 22nm- en 15nm-procestechnologie. Tsmc denkt in 2008 de productie van wafers met 13 procent te kunnen opvoeren ten opzichte van een jaar eerder en verwacht dat eind dit jaar ongeveer twintig procent van zijn omzet afkomstig is van 65nm-chips. Ook collega-chipbakker UMC zal in 2009 40nm-chips en masse kunnen leveren.

Moderatie-faq Wijzig weergave

Reacties (57)

volgend jaar overschakelen naar 40 nm, en ze zijn ook al bezig aan 32, 22 en 15 nm... Dat gaat snel.
Het worden nog leuke jaren in GPU land ;) Ik kijk er alvast naar uit!

[Reactie gewijzigd door EotT op 31 juli 2008 22:08]

De stapjes lijken klein maar zijn relatief ongeveer net zo groot als vroeger:

130 --> 90 : -31%
90 --> 65: -28%
65 --> 55: -15%
55 --> 40: -28%
40 --> 32: -20%
32 --> 22: -31%
22 --> 15: -32%

Dus kleinere stappen worden eigenlijk alleen gemaakt tussen 65 en 32 nm. Historisch gezien zou het 'logischer' zijn geweest als de 55 en 40 nm niet zouden bestaan en in plaats daarvan een 46 nm proces zou zijn ontwikkeld. Maar denk dat daar wel een technische oorzaak achter zit ;)

[Reactie gewijzigd door rinnas op 1 augustus 2008 09:44]

40nm is ook een vreemd process in de beet. CPU's gaan naar 45nm namelijk alleen TSMC heeft besloten naar 40nm te gaan.
dus het is nog maar de vraag of ze na 40nm ook echt 32nm gaan gebruiken of dat ze weer een andere stap gaan pakken.
soms vraag ik me af of al die stapjes wel nodig zijn, misschien kunnen ze direct wel op 15 nm bakken, maar dan heb je niet iedere 1,5 jaar wat nieuws.
Zerker niet. Bij elke schaalverkleining treden er weer nieuwe problemen op. In het begin zie je dan ook dat bijv. een 45nm chip evenveel warmte produceert als een 65nm chip. Pas na maanden tunen krijgen ze het proces onder de knie. Direct overstappen naar 15nm is denk ik onmogelijk, alle problemen komen dan in één keer en zijn onmogelijk te doorgronden.
Ik vraag me ook af in hoeverre dit niet gewoon strategie is hoor. Zo melk je wel veel meer geld uit de markt.
Een schaalverkleiningsstap bewust uit de markt halen is zakelijk gezien niet efficient. De opbrengsten van een kleinere featuresize zijn namelijk veel hoger voor de fabrikant. De afnemer kan dan namelijk meer chips uit dezelfde wafer halen en dus kan de fabrikant een hogere prijs per behandelde wafer vragen.
Nieuwe proces introducties worden dus gedaan zodra ze technisch betrouwbaar zijn.
Volgens mij het is geen melken, maar gewoon geld verdienen om te kunnen bestaan en verder te gaan met ontwikkeling.
Gelukkig kost de ontwikkeling van een nieuwe/kleinere chip niks. Net zoals de fabs en de machines die daar gebruikt worden.
Het ontwikkelen van een chip voor een andere (kleinere) technologie kost wel degelijk wat! Er gelden nieuwe regels voor de layout, dus er moet weer helemaal opnieuw gekeken worden hoe alle transistoren en hun verbindingen geplaatst moeten worden. Daarbij zijn de transistoreigenschappen verschillende per technologie, waardoor ze ook qua afmetingen veranderd moeten worden. Soms kan dat zelfs als gevolg hebben dat het hele schema beter omgegooid kan worden.
Als je MAX3400 wilt overtuigen, dan ben je denk ik aan het preken voor eigen parochie. Je mist geloof ik de ironische ondertoon in zijn reactie :)
Volgens mij is het altijd al in zo'n rap tempo gegaan. In ieder geval de afgelopen 5 jaar.
Misschien overbodig, maar komen we niet in de buurt van een fysieke (atoomgrootte) grens? Dacht dat die rond 1 nm zaten. En kleven aan chipjes met transistors op dit nivo geen gevaren als ioniserende straling?
Volgens Wikipedia:

[quote]Een atoom bestaat uit een uiterst kleine, positief geladen atoomkern met een diameter van tussen de 1,6 en 15 femtometer)[/quote]

En Femto(meter) = 10^-15 (meter), Nano(meter) = 10^-9 (meter). Dus de fysieke grens zal nog niet zo snel in zicht zijn (misschien zijn er wel andere problemen op zulke grootte).


Dit blijkt enkel de kern te zijn. Volgens de Engelstalige Wikipedia is een atoom
62 pm (He) to 520 pm (Cs)
Maar dan nog heeft men nog een tijd om verder te gaan (pico = 10^-12 / nano = 10^-9)

[Reactie gewijzigd door _Quinten_ op 31 juli 2008 22:29]

In kristallijn silicium zitten de Si atomen veel verder uit elkaar. De roosterconstante (afstand tussen 2 eenheidscellen in de kristalstructuur) is daar 0.54 nm.

Andere benadering: je hebt 5x1022 Si atomen per cm3 kristallijn silicium. Als de atomen als kubusjes tegen elkaar zaten (wat niet zo is, want het is een diamant structuur), dan zouden ze dus [1/(5x1022)]1/3 cm = 2.7x10-8 cm = 0.27 nm "breed" zijn.

edit:
Oh ja, de atomic radius is voor Si iets van 110 pm, maar dat is dus niet de afstand tussen de Si atomen in een wafer.

[Reactie gewijzigd door josh-hill op 31 juli 2008 23:28]

de bottleneck in dit produktieproces zal echter wss nooit de atoombreedte worden

het gaat erom dat je spiegels maakt die superkleine goflengtes kunnen spiegelen heb ik me ooit laten vertellen...
...

Atomen zitten dan ook niet tegen elkaar... Ookal maak je een transistor van 1 atoom (onmogelijk) dan nog kunnen de atomen er rond maar tot een paar nm dicht komen, onder normale omstandigheden. Dit omdat bij zulke afstanden de afstoting tussen de elektrnenwolken het wint van de aantrekkingskracht tussen de atomen.

off-topic: Enkel bij hoge temperaturen en hoge druk wordt deze overwonnen, en gaat de materie over naar de 4de toestandsfase: plasma.
Er staat mij bij dat op 45 nm de dikte of de breedte van de verbindingen in de chip 5 atomen was. Ik kan je hier geen bron van geven omdat mijn vader dat een keer heeft verteld. Ook weet ik niet meer of het de dikte of de breedte van de verbinding is; ik verwacht de breedte.
het is niet enkel de dikte van de atomen, maar ook van de verbindingen tussen de atomen die je moet meerekenen
Eer we bij die problemen komen, hebben we al iets anders uitgevonden. Zoals vroeger van de tandwielen naar de chips. Nu van chips naar ...
Tussen tandwielen en chips zaten ook nog elektronenbuizen en transistors...
elektronenbuizen dus alleen :)
Niet helemaal correct.
De electronenbuizen werden vervangen door transistors.
En een chip bestaat uit meerdere transistors.
...en relais...
edit: linkje toevoegen
http://www.student.tue.nl...30/computer/ARRA/ARRA.htm

[Reactie gewijzigd door augustus op 1 augustus 2008 13:58]

Daar denk ik ook nog wel eens over na. en wat als we niet kleiner kunnen produceren? wat voor manier gaan we dan bedenken om minder warmte te produceren?
Als het niet meer kleiner kan, gaat men waarschijnlijk transistoren stapelen in meerdere lagen met geintegreerde koelingsystemen.
Watermoleculen in de chip zelf, zoiets had Via dacht ik toch laten zien? Er zijn ontzettend veel mogenlijkheden denk ik.

Verder is een atoom al niet meer het kleinste deel (dat zijn Quarks op dit moment) dus ik denk dat we nog wel een tijd verder kunnen al moet voor de laatste paar stappen nog flink wat onderzocht worden.
Nou, dat is nog maar zeer de vraag. Dat er deeltjes als Quarks zouden bestaan (theoretisch tot nu toe volgens mij), wil niet zeggen dat we dus veel kleiner dan atoom-niveau kunnen. Ver voor we op die schaal komen, zullen andere effecten de overhand nemen en het doel van de transistor verstoren. Wat we dan moeten doen is een nieuwe slimme manier bedenken om tot een processor te komen die toch sneller kan werken op de grens van wat mogelijk is.

[Reactie gewijzigd door vgroenewold op 31 juli 2008 22:27]

Inmiddels is men al verder aan het denken dan Quarks. Volgens de nieuwste theorieën zou alles uit halve strings/snaren bestaan (10 of 11 dimensionale snaren!), op sommige speciale deeltjes na. Zo zou de graviton uit een hele string bestaan (gravitonen zijn volgens de string theorie de deeltjes die de zwaartekracht veroorzaken).
Precies, de snaartheorie kan leuk worden uitgelegd, was ergens ook een drie uur durende documentaire over. Ah, gevonden: The Elegant Universe.
Verder zijn ze natuurlijk al tijden bezig met quantumcomputers (qubits met superpositie enzo). Maar ook zijn er al nanobots en nano-motoren ontwikkeld.
Ook een leuk onderwerp is het Quantum vacuüm ook wel bekend als Zero Point Energy. Schijnt dat in het quantum vacuüm de wet van behoud van energie niet geld. Heh, wat? Juist. Dat dacht ik ook. Is ook nog een leuke presentatie over voor de liefhebbers.

Iets meer ontopic:
40 nm wordt leuk, maar ik vraag me echt af waarom GPU en CPU fabrikanten verschillende maten hanteren, zo kunnen ze niet van dezelfde fabrieken en kennis gebruikmaken. Wat ziet hierachter?
En over het kleine stapjes nemen: Men doet dat omdat de R&D kosten anders véél te hoog worden, en daar moet je de buffer voor hebben, én je moet het kúnnen doorberekenen aan de klant. Daarom zijn nieuwe producten ook altijd ontzettend duur, en versie twee van het product meteen een stuk markt-baarder geprijst.

[Reactie gewijzigd door Yekrahs op 1 augustus 2008 00:44]

Maar snaartheorie is voorlopig slechts dat: theorie. En het probleem van de theorie is dat er vooralsnog geen experimenten te bedenken zijn om hem te toetsen. Zo bekeken is het dus niet veel meer dan een veel te complex wiskundig model wat misschien de potentie heeft om andere bestaande theorieën, met name de quantummechanica en de relativiteitstheorie, te kunnen verenigen. Zover is het nog lang niet, en er is ook steeds meer twijfel over of de theorie wel echt iets verklaart. Het begint meer op esoterie te lijken.
compleet andere architecturen, materialen enzo, denk aan kwantum gedoe enzo.
Wat gaat de techniek toch hard maar uh is een of een tweetal generaties grafische kaarten voldoende om het 55nm etc. terug te verdienen?
GPUs vormen maar een klein deel van de inkomsten voor chipbakkers als TSMC en UMC. Ze verdienen dus gemakkelijk alle investeringen terug. Bovendien duurt het nog wel een paar jaar voordat 55nm weer wordt afgeschreven. GPU bakkers willen snel over naar een kleiner procedee zodat ze krachtiger chips kunnen maken, maar andere soorten chips vragen om een andere aanpak, waarbij bijvoorbeeld yields of kosten of stroomverbruik belangrijker zijn, zaken die allemaal beter worden als een procedee langer gebruikt is.
Kan iemand uitleggen waarom CPU-chips andere stappen lijken te nemen dan VGA-chips met betrekking tot het gebruikte procede?

CPU : 130nm -> 90nm -> 65nm -> 45nm
VGA: 110nm (r4xx) -> 90nm (r5xx) -> 55nm (R6xx) -> 40nm
je vergeet een paar stappen.
90nm--> 80nm --> 65nm --> 55nm

ze nemen de zelfde stappen, maar nemen nog een extra stap. de zogenaamde 'halfnode' stap.
voor CPU's is dat niet interstant omdat er dan te veel met de hand opnieuw ontworpen moet worden, maar voor GPU's die vooral met computers worden ontworpen zijn die kleinere stappen wel interestant.

[Reactie gewijzigd door Countess op 31 juli 2008 23:36]

Volgens mij heeft de intressantheid er meer mee te maken dat er elk half jaar een nieuwe GPU uitkomt, als je iets nieuws ontwerpt kan dit netzogoed meteen voor het laatste procédé, mits je de kennis in huis hebt.
Bij processors ligt deze cyclus meestal op ongeveer een jaar.

De algemene cyclus is echter hetzelfde bij beide: Nieuwe architectuur, kleinere schaal en minimale verbeteringen, nieuwe architectuur, kleinere schaal en verbeteringen.

Door dit fenomeen heb je bij GPU's dus elk jaar een kleiner procédé nodig, en bij CPU's elke 2 jaar.

[Reactie gewijzigd door knirfie244 op 1 augustus 2008 12:00]

Dit betekent minder energie verbruik , lagere kosten , en willicht zijn beter en hogere clocks mogelijk. Alles wordt beter dus :P
Daar merken wij als consument niks van. Als het energieverbruik van 50W naar 40W gaat proppen ze gewoon voor 10W extra transistors in de chip, lang leve de logica :X
Het lijkt er tegenwoordig steeds meer op dat als het energieverbruik van 50W naar 40W, men er 25W aan extra transistoren erbij stopt en op 65W uitkomt...

Iedere generatie videokaarten lijkt het er op alsof het normaal is dat ze meer en meer energie verbruiken. Kijk naar de review van de 3870 van afgelopen week op tweakers. Beide kaarten verbruiken daar 125W+ idle.
125W+ idle, voor het gehele systeem ja. Lees het artikel verder door en je ziet dat ze enkel het totale pc verbruik goed konden meten.
zozo procede is dus dan in 2 jaar tijd 2 keer zo klein geworden gaat echt keihard.
ik vind de high end kaarten al zo lekker goedkoop de laatste tijd :Y)
Las ergens dat de grens met 'normale' technieken op 10nm ligt omdat er dan problemen komen met lekken/onstabiel of zoiets?
ach, 10-5 jaar geleden kon 45nm ook niet, dus ze zullen uiteindelijk wel weer wat vinden...
Ja, als de baantjes te dicht bij elkaar gaan liggen, dan is er kans op overspringen.
Dat is het hele euvel, en daar moet een oplossing voor te vinden zijn
Het was precies ook wel nodig als je naar de warmteontwikkeling van de laatste kaarten kijkt. Ze waren hierdoor min of meer aan een plafond gekomen qua prestaties per kaart en deze die-shrink is daar al een stap in de goeie richting naar een oplossing voor.
Je moet niet enkel de high end kaarten bekijken, als je de low end en mide end bekijkt dan is de warmteontwikkeling drastisch gedaald en de prestaties sterk gestegen.
High end zal altijd veel stroom verbruiken en warmte produceren, daarom dat ze ook high end genoemd worden.
Dat zou misschien zo geweest zijn als TSMC's 40nm procedee ook daadwerkelijk veel zuiniger zou zijn. Helaas is het een enorme stap in verkleining en in snelheid, maar veel minder in stroomverbruik. Gevolg is dat 40nm chips tot wel 3,5 keer de perf/mm kunnen hebben ten opzichte van 65nm chips, maar de perf/watt loopt daar helaas ver bij achter.
het tweede 40nm-productieproces voor geschikt voor low power-doeleinden en is bedoeld voor de productie van mobiele gpu's
Uhm. Desktop-chips mogen ook best low-power worden hoor...
ben ik het ook helemaal mee eens, denk juist IMHO eerder dat die lowpowered mogen worden, maar dat heeft meer te maken met het feit dat ik geen mobiele zuk echt gebruik.. maar met de energie rekening van tegenwoordig zou het zeker niet erg zijn als de desktop ook een stuk minder verbruikt...
Er zijn toch nu al desktops chips die low power zijn?
Ja maar niet high performance. Het zijn dan gewoon afgedankte GPU van twee generaties terug.

[Reactie gewijzigd door _Thanatos_ op 2 augustus 2008 14:03]

ja, maar die moeten ook op een chipset draaien met geheugen, een harde schijf, videokaart, enz... dus alles bij elkaar is het altijd nog behoorlijk wat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True