Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: EE Times

Hoewel de bekende processorbakkers allemaal rechtstreeks overstappen van 90nm- naar 65nm-productie, zijn GPU-bedrijven nVidia en ATi beide van plan om een tussenstop te gaan maken op 80nm. Het is niet ongebruikelijk om zo'n zogenaamde 'half-node' in te zetten: de 110nm-transistors waar nVidia de GeForce 7800 van bouwt zijn bijvoorbeeld afkomstig van de half-node van het 130nm-procédé. De reden waarom deze halve stappen populair zijn is omdat ze relatief makkelijk te overbruggen zijn: in tegenstelling tot bij een sprong naar een volledig nieuw procédé zoals 65nm gelden er bij een half-node geen nieuwe regels waar een ontwerp per se aan moet voldoen om gemaakt te kunnen worden. Omdat het eigenlijk niet meer dan een optische verkleining van de bestaande techniek is moet er alleen rekening worden gehouden met kleinere transistors en verbindingsdraadjes.

Ondanks de relatief kleine gevolgen aan de kant van het ontwerp kan de stap van 90 naar 80nm toch duidelijke kostenbesparingen en/of prestatiewinsten opleveren. Gesproken wordt over besparingen tot twintig procent per chip. Hoewel TSMC officieel niets heeft gezegd over welke klanten gebruik zullen gaan maken van het nieuwe 80nm-procédé, hebben zowel ATi als nVidia positief gereageerd op de introductie ervan. Rich Heye van ATi liet bijvoorbeeld weten dat de stap naar 80nm de kosten zal drukken, terwijl Chris Malachowsky van nVidia de pers eraan herinnerde dat zijn bedrijf al heel lang gebruik maakt van half-nodes, omdat het een belangrijk hulpmiddel is in een markt met veel concurrentie.

nVidia G70 die
Core van de GeForce 7800 GTX
Moderatie-faq Wijzig weergave

Reacties (34)

in tegenstelling tot bij een sprong naar een volledig nieuw procédé zoals 65nm gelden er bij een half-node geen nieuwe regels waar een ontwerp per sé aan moet voldoen om gemaakt te kunnen worden.
Kan iemand een voorbeeld noemen van nieuwe regels die opeens nodig zijn door een kleiner procede?
Ik heb er geen verstand van, maar ben wel benieuwd
Bij het maken van een nieuw procede veranderen vaak bepaalde constanten die bij een groter procede aanwezig zijn.

Je moet dan bijvoorbeeld extra rekening houden met storingen van buitenaf, of grotere lekstromen.

Het is niet per definitie zo dat bij een half-node dit niet zo is, maar ze kiezen de grootte van het procede juist zo dat dit wel het geval is.
Een van de belangrijkste parameters bij een kleine procede is meestal de dikte van het gate oxide. Dwz het aantal atomen tussen het actieve gebied van de transistors en de poly gate die ervoor zorgt dat het actieve gebied al dan niet, wel, actief is. :-)

Bij optische shrinks wordt die dikte meestal niet aangepast, waardoor de meeste parameters van de transistor hetzelfde blijven. Als gevolg daarvan zijn de karateristieken van de transistor meestal exact hetzelfde, ook wat betreft de schakelsnelheid van de transistor. Daarom is een shrink meestal niet sneller.

Overigens zijn de baanlengtes van een shrink korter, hetgeen zou doen vermoeden dat dit voor een hogere snelheid zorgt, maar daar staat dan weer tegenover dat de weerstand van de baantjes verhoogt, hetgeen dan weer trager is. In de praktijk is de snelheid van een shrink zo goed als hetzelfde als de originele versie.
@ Newinca, dus als ik je verhaal goed begrijp gaat de boel niet sneller dan voorheen, maar is het puur om besparing van materiaal ?
Meestal wel.

Los daarvan kan men wel beslissen om het proces in een bepaalde richting te 'tweaken'. Bijvoorbeeld door het iets sneller te maken of minder lekstromen te laten genereren. Maar dat gaat dan meestal ten koste van de yield of van de snelheid.
deep-trench condensators
Kunnen ze niet de techniek van Intel, AMD, IBM etc. delen om gelijk over te stappen naar 90nm? Misschien is het dan gunstiger, omdat de ontwikkelingskosten lager zullen zijn, omdat CPU bakkers die al hebben afgelost. Of zijn de ontwerpen te verschillend dat deze niet vergelijkbaar zijn op welke grote dan ook?
Ze stappen over op 80 nm en kan me slecht voorstellen dat intel, AMD en IBM hun kennis \[lees: miljardeninvestering] zo maar effe kado doen aan andere chipbakkers. De cores zijn verder totaal verschillend, maar de lithografische techniek in beginsel niet.

GPU's zitten ook gecompliceerder in elkaar dan CPU's. Ze hebben ook veel meer transistors (afgezien van de CPU's met bakken cache aan boord, maar dat komt dus door de cache)
Hoezo? Een GPU bestaat toch 'gewoon' uit een x-tal shaders die allemaal hetzelfde doen. Niet echt complex lijkt mij. (Goed, cache is dat ook niet)
Omdat ze anders kokend heet worden, niet omdat ze zo complex zijn. Wat Pietje Puk zegt klopt gewoon: een GPU bestaat uit een groot aantal parallelle eenheden die gewoon exacte kopieën van elkaar zijn. Die dingen zijn niet zo goed in graphics omdat ze zo ontzettend complex zijn, maar gewoon omdat ze heel veel werk tegelijk kunnen verzetten.
Heb je je ooit afgevraagd waarom GPU's "maar" op een schamele 5-600 MHz lopen en niet op enkele GHz'en zoals GPU's ?
In CPU's zijn zeer grote delen full-custom design. Dwz dat in deze delen alle transistoren individueel in grootte aangepast worden.

Bij GPU's wordt voornamelijk standard cell design gebruikt, waarbij men gebruikt maakt van logische bouwblokken. Dat is veel gemakkelijker om te automatiseren, maar het kan gerust de helft trager zijn.

Daar tussenin is er ook semi-custom design. Hierbij worden wel standard cells gebruikt, maar ze worden manueel geplaatst en daarna automatisch geroute op de chip. Dit is een techniek die IBM gebruikt is zijn PowerPC's.

De reden voor het niet gebruiken van custom technieken door ATI en Nvidia (en zowat 99% van alle chip bedrijven) is dat de ontwikkelingskosten gemakkelijk 10 keer hoger liggen dan standard cell design. Het duurt ook veel langer. Voor een processor die 2 jaar meegaat is dat niet zo een probleem. Voor een GPU die slechts een half jaar mee gaat is dat niet aanvaardbaar.
Wat heet gecompliceerder :?

De (high-end) GPU's van nu hebben 16~48 pixelshader-pipelines, dat zijn allemaal kopietjes van elkaar; zo ook de vertexshaders.
Dan lijkt mij een Out-of-order-unit al gecompliceerder. Daar komt bij dat bijv. de pentium 4 32 proces-stages had. Daar komt een GPU nooit aan...

Ik denk dat ze redelijk aan elkaar zijn gewaagd...
Hoe dan ook; de tussenstapjes zijn wel goed, kijk maar naar de 7800GTX 512 :9~
daarom dat een gpu x aantal keer het aantal floating points kan berekenen van een cpu die wel 5x zo hoge clockspeed heeft...
Intel is nog steeds de grootste video leverancier, vanwege onboard video.

Dus ze zullen zeker niet de concurrent gaan helpen met 45nm of 65nm.

Intel doet momenteel hun chipsets op 90nm, vanwege de overcapiciteit die is ontstaan door het overschakelen van de CPU naar 65nm. Echter de complexiteit van een chipset met onboard video is veel simpeler dan een echte GPU. De marges op een GPU zijn dan ook groter, maar de volume verkoop compenseert dat dan weer.

Het samenwerkings verband tussen IBM en AMD heeft het al druk genoeg om aan hun eigen productie capaciteit te voldoen, zeker met de toenemende populariteit van de AMD CPUs. Het wegvallen van Apple als afnemer van de PowerPC kwam dus eigenlijk op een goed moment, want dit was gemakkelijk te compenseren met de Cell CPU en verhoogde AMD produktie.
ATi maakt met de huidige X1K series al gebruik van het 90nm procedé. Voor ATi zal een eventuele stap naar 80nm daarom minder moeilijk zijn dan voor nVidia. nVidia maakt met de huidige 7-series nog gebruik van het 110nm plakje en komt (vermoedelijk) halverwege maart met zijn eerste 90nm plank, de 7900.
De opmerkingen dat de grafische branch gewoon de techs van de CPU branch moet overnemen vind ik onzin. Ik denk dat de ontwikkeling gewoon geleidelijk moet gaan, omdat alleen dan de verschillende technieken pas echt optimaal gebruikt kunnen worden. ATi's X1800 zit bijvoorbeeld met 750Mhz aan de absolute max, terwijl de aankomende 7900 van nVidia met hetzelfde procedé hier al ruim overheen zal gaan.
Nvidia heeft meer 90nm parts dan je denkt:
RSX (playstation chip)
Nieuwe NF4 chipset
7600 en 7300 (G73)
7200 (G72)

en later de G71
behalve voor de nieuwe NF4 chipset zijn dat dus allemaal dingen die nog niet op de markt zijn en waarschijnlijk nog niet in hoge aantallen gemaakt worden...

en een chipset is nou niet echt te vergelijken met een nieuwe GPU, wat betrefd complexiteit...
Toch wel, ze worden allemaal in grote getalen geproduceerd. De 7600 en 7200 komen volgende week op de markt dus de prodcutie loopt al maanden op volle toeren aangezien nvidia geen paper launches doet. De 7300 is zelfs al gespot: http://www.beyond3d.com/forum/showthread.php?t=27523
De RSX is natuurlijk ook al in massa productie, da's wel duidelijk.
Volgens mij heeft nvidia wel degelijk al cores op 90 nm gebakken, maar met name budget en mid-end kaarten. Bijvoorbeeld de GeForce Go7300
Het feit dat nVidia wel degelijk 90nm gebruikt maar hier nog geen high-end onderdelen mee heeft gebakken bevestigd mijn punt alleen maar: dit betekent dat nVidia welliswaar de productiecapaciteit ervoor heeft, maar nog geen 90nm chip geschikt heeft bevonden voor het top hig-end segment; nVidia is wat betreft 90nm nog niet zo ver als ATi.
Even een reactie op mezelf: G71 komt er weliswaar aan (de techs zijn er) maar is nog niet in massaproductie genomen (dit is dus waar ATi's voorsprong ligt)

Jullie kunnen je natuurlijk allemaal het uitstel van de X1K series herinneren. Dat was vanwege de drempel die de overgang naar 90nm vormde. Dit staat nVidia dus nog te wachten.
Even een reactie op mezelf: G71 komt er weliswaar aan (de techs zijn er) maar is nog niet in massaproductie genomen (dit is dus waar ATi's voorsprong ligt)
Je kunt nu wel net gaan doen alsof ATi een voorsprong heeft, maar de realiteit is dat de 110nm G70 de kont van de 90nm R520 schopt (als je beide topmodellen vergelijkt, dus 7800 GTX 512 vs. X1800 XT). Dat nVidia nog een overstap naar 90nm voor de boeg heeft terwijl ATi die troef al verspeeld heeft is alleen maar positief voor nVidia.

Het uitstel van de X1K-serie lag helemaal niet aan 90nm-productie maar aan een bug in het ontwerp. Beide bedrijven laten hun chips bij TSMC maken dus capaciteit en 'ervaring' met de productie zijn gewoon uitbesteed.
En trouwens, waar kwam die bug door? inderdaad ja, door aanpassing op een 90nm chip. Dus nVidia heeft inderdaad een achterstand.
Zullen ons maar beperken tot het vergelijken van kaarten die ook echt BESCHIKBAAR zijn? Dus X1800XT vs 7800GTX 256. En dan wordt de 7800 inderdaad gespankt ja.
Een overstap van de ene technologie naar de andere zorgt altijd wel voor een zeker risico. Maar de enige overstap is de nadere niet. Bij de overstap van 180nm naar 130nm waren er plots een heleboel 2de orde effecten die plotseling belangrijk genoeg werden om voor significante problemen te zorgen als er geen rekening werd mee gehouden. Daarom moesten een heel aantal nieuwe tools ingezet worden, zoals Voltage Storm (om spanningsval over de voedingsbanen te controleren), Celtic/SI (crosstalk) etc.

Bij de overgang van 110nm naar 90nm zijn er eigenlijk geen significant aantal *extra* effecten die erbij komen. Veronderstellend dat men 110nm onder de knie heeft, dan is 90nm eigenlijk niet zoveel moeilijker.

Het is nogal onzinning om de bug van ATI als een voorbeeld van de 90nm probleem te beschouwen: een extern design huis had een domme ontwerpfout gemaakt die kon opgelost worden met 1 extra via. Dat kan in eender welke technologie gebeuren en heeft weinig te maken met de overgang van 110nm naar 90nm per se.

Overigens heeft nVidia vandaag een chip uitgebracht in 90nm, dus heel de discussie is eigenlijk al een beetje zinloos. :)

Wat betreft het uitbesteden van de technologie aan TSMC: dit geldt enkel voor de productie zelf. Maar werkelijk *alle* andere stappen tot en met tape-out (dwz de locatie van alle individuele rechthoekjes) zijn onder de verantwoordelijkheid van ATI en Nvidia. De meeste chip bedrijven hebben een gelijkaardige design flow, maar de details kunnen grondig verschillen. Ervaring met een bepaalde technologie is wel degelijk iets waar de design bedrijven zelf voor moeten zorgen.
Is het niet gewoon zo dat nVidia zeker wil zijn van hun zaak voordat ze iets uitbrengen op 90 nm? Dat verklaart waarom ze eerst de budget en mid-pricekaarten op 90 nm uitbrengen, daar deze niet zo hoog hoeven te presteren en dus minder gevoelig zijn voor problemen die aan hogere prestatie onderhevig zijn, en daarna pas voor de topkarten op het 90 nm proces over stappen!

Lijkt mij heel logisch en veroorzaakt geen fouten of andere problemen met het uitbrengen van een Top chip!
Ik dacht altijd dat als er geswitchd word tussen NM, de machines en de wafers weer verwisseld worden, of helemaal geherprogrameerd... Dat kost toch ook heel wat, of is dat met dit niet van toepassing?

(dit heb ik iig gelezen in de PC totaal ;( )
Jawel, maar bij een overstap naar bijvoorbeeld 65nm (beide overigens met een kleine letter want het is nano meter en volgens het SI behoren deze klein geschreven te worden ;)) moeten er allemaal nieuwe machines aangeschaft te worden wat de overstap véél duurder maakt. Terwijl bij deze verbetering van de technologie dezelfde machines gebruikt kunnen worden.
Techniek delen?

dat is nu juist het geheim van de chipbakker,hoe schaalt ie zo goed mogelijk naar kleinere afmeting tegen de laagste kosten en met de meeste opbrengst. Het geheim van de smid zit juist in die ontwikkeling, en dat deel je juist niet met je concurrent.
Tenzij je de techniek gepatenteerd hebt. Dan wil je juist dat zoveel mogelijk mensen jou techniek gebruiken. Goed voor jou, want je verdient eraan en goed voor de gebruiker want die hoeft zelf het dure en riskante onderzoek niet te doen. Tot slot ook nog goed voor de wetenschap want een gepatenteerde techniek is openbaar. Als je weet wat andere mensen gedaan hebben kun je eerder een verbetering bedenken dan als je alles eerst zelf moet gaan zitten uitvogelen.
Zoals ik nu lees is bij zo'n overstap geen sprake van een complete nieuwe technologie om de verkleining van het procedé te kunnen laten plaatsvinden, maar een soort uitwerking van de bestaande techniek. Niet onverstandig, het scheelt wel in de investeringskosten.
Deze overstap maakt de productie van 65nm chips toch niet direct goedkoper? Het lijkt me eerder een manier om dmv een extra productenserie nog meer geld uit de markt te vissen :)
Zo kunde het ook zien :) ofwel het verlies dat ze (gaan) doen met overstappen naar een volledige technologie opvangen door zo'n tussen serie temaken. Die wrs minder energie verbruikt en meer kracht heeft :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True