Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties
Bron: The Inquirer, submitter: XWB

De heren van The Inquirer hebben een praatje gemaakt met Dave Orton, de directeur van ATi. Het ging daarbij niet over de mogelijkheden van de nieuwe R520 of één van zijn opvolgers, maar over het productieprocédé van deze chips. Zo zal de nieuwe generatie chips, met onder andere de R520; de RV530 en de RV515, gemaakt worden volgens het 90nm-procédé. Wat daarna gebeurt is echter veel interessanter. ATi gaat namelijk niet, zoals Intel, meteen naar 65nm, maar eerst wordt er nog een serie chips gebakken op 80nm. Waarschijnlijk gebeurt dit op advies van de Taiwanese chipbakker TSMC, die een groot deel van ATi's GPU's produceert. Het duurt dus nog wel even voor we de eerste 65nm-chips van ATi op de markt gaan zien. Het overstappen op een kleiner productieprocédé duurt namelijk gemiddeld twee jaar.

Man met wafer
Moderatie-faq Wijzig weergave

Reacties (40)

Wat is het uiteindelijke voordeel voor ATI om eerst een tussenstop op 80nm te gaan maken?
Het lijkt mij dat Intel zo een flinke voorsprong kan nemen.
Het mag dan lastiger zijn maar zo`n bedrijf als TSMC zou toch in staat moeten zijn om zo`n proces snel onder controlle te krijgen.
Je zou zeggen dat ze dat zelf toch het beste in kunnen schatten. En zij denken dat eerst 80nm de beste keus is. Trek daar dus je conclusies maar uit.
Vergeet ook niet dat de eerste presscots op 90nm dikke problemen hadden. Voorzichtig zijn is soms ook slim!
dit versnelt de vooruitgang voor de ati chips doordat niet gewacht hoeft te worden op 65nm. Dit kan voor hen dus op e korte termijn zuinigere chips opleveren dan die van nvidia waardoor ze ook beter opschalen ;)
Wat is het uiteindelijke voordeel voor ATI om eerst een tussenstop op 80nm te gaan maken?
Het lijkt mij dat Intel zo een flinke voorsprong kan nemen.
GPU's zitten nu eenmaal heel anders in elkaar dan CPU's, voorzover ik weet bakt Intel zijn GPU's ook nog lang niet op 65nm. Toen nVidia met de GF5xxx serie overstapte op 130nm (waar processoren toen al op werden gebakken) hebben ze een hoop problemen met prestaties en koeling gehad, ATi is er toen met een aardig deel van hun handel vandoor gegaan omdat zij met hun 180nm GPU's beter presteerden. Dus die investering had nVidia beter ook nog even uit kunnen stellen.

Of ze deze keer weer gelijk hebben of nu aan het korte eind trekken kan niemand hier nog voorspellen aangezien we nog helemaal niets weten over deze toekomstige GPU's en waar ze tegen op zullen moeten boxen. :)
ati en intel zijn niet echt bepaalt concurrenten dit is dan ook meer een voorbeeld.
en het voordeel? tsmc zal wel een leuk contractje hebben opgesteld waarmee ati tijdelijk wel wat geld zal besparen. tsmc had waarschijnlijk met het oog op de toekomst al het 80nm procede klaar staan alleen nog geen grote klanten. nu hebben ze er eentje
Hoezo intel geen concurrent, zij bakken meer graphische chips dan Ati en nVidia dat doen.
en zoals in dat stukje staat
Intels strategie om zich vooral op de low-end markt te richten lijkt daarmee zijn vruchten af te werpen
ati/nvidia zitten voornamelijk toch in de mid-range markt en zijn dus geen concurrenten van intel. op de low-budget kaartjes na waar deze twee zich steeds meer uit ontrekken
Een proces is altijd beter beheersbaar als je het in kleine stapjes uit kan voeren.
Zo zal hier waarschijnlijk ook de redenering zijn, als men eerst het 80nm procédé optimaliseert kan men ondertussen het 65nm procédé verder uitdenken en verbeteren.
Het is denk ik ook een vorm van tijdswinst.
Wat ook mee zou kunnen wegen is dat na het 65nm procédé het allemaal wel heeel priegelig wordt, en TSMC wil waarschijnlijk eerst deze procédés optimaliseren en maximaal uitbuiten.
TSMC is samen met TI erg hard bezig met het 65nm process. Zie http://www.eet.com/showArticle.jhtml?articleID=60405744 Het 80nm process is alleen maar een tussen stapje die relatief makelijk er tussen door gedaan kan worden (als je genoeg mensen hebt).

Verder zijn er meerder fabrikanten die ook hard aan 65nm werken: Intel, AMD, Philips, ST, Freescale (de laatse drie samen) en ongetwijfeld nog een paar.
Wat ook mee zou kunnen wegen is dat na het 65nm procédé het allemaal wel heeel priegelig wordt, en TSMC wil waarschijnlijk eerst deze procédés optimaliseren en maximaal uitbuiten.
1 nanometer is (voor mij althans) al aardig priegelen hoor... Weet niet hoe goed jij kan priegelen... Maar priegelen op de nanometer nauwkeurig, kan ik (helaas) niet :( :9
edit: browser deed gek, sorry
Humm ik vraag me af hoeveel nut het heeft om op 0.08u te gaan bakken TOV 0.09u. De vraag is natuurlijk wat zijn de kosten als je wacht met 0.08u en nog ff een generatie bij 0.09 blijft hangen. En kun je genoeg snelheid halen uit je 0.09u.
Vergeet niet dat een teruggang van 90 naar 80 nm qua oppervlakte per chip een verkleining oplevert van (9/8)^2, ofwel 1.26 keer zo klein. Dat betekent dat je op een oppervlakte waar eerst 4 chips op pasten, er nu iets meer dan 5 passen. Of je kan er 25 procent meer transistors etc op kwijt...Het maakt dus zeker wel verschil.

Of dat de investering in nieuwe apparatuur rechtvaardigt, is natuurlijk een ander verhaal - Aan de andere kant is vertraging bij het doorvoeren van een 65 nm proces uiteraard ook erg duur, en heeft men wellicht de hoop dat de overgang nu makkelijker gaat.
Humm ik vraag me af hoeveel nut het heeft om op 0.08u te gaan bakken TOV 0.09u. De vraag is natuurlijk wat zijn de kosten als je wacht met 0.08u en nog ff een generatie bij 0.09 blijft hangen. En kun je genoeg snelheid halen uit je 0.09u.

ATi zou ook bezig zijn met een 0.11u Low K dat moet ook veel goeds betekenen :P
Het is een pure speculatie aangezien nog niets bekend is over dit process maar als het gaat om een schaalverkleining van 90nm naar 80nm in de breedte en lengte dan heb je het over een totale schaalverkleining van bijna 27%. Stel dat je dit direkt door kan berekenen op de maximale kloksnelheid en produktiekosten (wat nooit helemaal klopt, maar we zijn toch aan het speculeren) dan zou de snelheid dus ruim een kwart omhoog kunnen voor lagere kosten en ze kunnen ook meer mogelijkheden op de GPU bouwen om hem sneller te maken (maar dan wel minder kostenbesparing).

Stel dat het nog een paar jaar duurt voordat ATi verwacht klaar te zijn voor 65nm dan is dit een hele voor de handliggende stap om niet uit de markt voor high-end kaarten te vallen.
ik vraag me af hoeveel nut het heeft om op 0.08u te gaan bakken TOV 0.09u
Eén van de belangrijkste redenen om kleiner te gaan is productiekosten, en hoe kleiner de chips, hoe meer er uit één wafer gaan.
Voor grote getalen wel. Bedenk ook dat TSMC een 80nm procédé moet ontwikkelen en Ati daar ws wel aan mee zal moeten betalen. Normaal gesproken komt dankzij de enorme oplage (bv nu de x850 serie) daar de kosten wel weer uit, maar met een relatief kleine oplage, zal de winst die je meer hebt per wafer maar weinig opwegen tegen de winst van investeringen zoals apparatuur, personeel klaarmaken, optimaliseren van procédé enz...

Edit: min of meer wat Captain Proton hieronder zegt, maar die reageerde niet in deze thread, waardoor ik die nog niet gelezen had :).
In het bericht staat duidelijk dat het op advies van TSMC is dat ze 0.080µ (en niet 'u' ofzo) gaan gebruiken. TSMC zegt dit niet als ze niet klaar voor 0.08µ zijn.
Eén van de belangrijkste redenen om kleiner te gaan is productiekosten, en hoe kleiner de chips, hoe meer er uit één wafer gaan.
Daarbij moet de winst van "meer processoren" op 1 waffer natuurlijk wel groter zijn dan de grotere uitval/product problemen (en gerelateerde kosten) van de nieuwe technologie.
Jammer genoeg is het een beetje een stap in het diepe omdat je de daadwerkelijke "extra" kosten van de nieuwe technologie alleen in kan schatten. Pas naderhand kan je berekenen of je goedkoper of duurder bent uitgeweest.
Om deze reden is oude technologie af en toe toch goedkoper / betere keus voor de consument.
vierkante chips uit een ronde plaat... misschien moeten ze eerst daar maar eens wat op gaan vinden :)
De belangrijkste reden van een ronde waffer is nog niet genoemd, dat is namelijk het bakken/verwarmen. Een ronde waffer heeft een veel gelijdelijkere warmeteverdeling, en trekt vanwege dat effect en de vorm minder snel krom. En ja een waffer kan krom trekken. En voor de rest, meerstal zit er in de buitenste rand van de wafer al 80% uitval........
ronde chips uit een ronde plaat helpt ook niet heb je alleen nog meer afval :P

serius : dat die plaat rond is heeft te maken met de manier waarop ze gemaakt worden. ze rond draaien is de enige manier om ze zuiver genoeg te maken.
en ze kunnen ze wel vierkant maken door er stukken af te snijden, maar dat dat zou alleen maar nog minder chips beteken.
Eigenlijk gek ja maar er zijn toch goede redenen voor:

1. De manier waarop de wafer wordt gemaakt (vrij logisch) waarbij kristallen draaiend in een badje met silicon wordt gedompeld;

2. De chips aan de rand zouden ook onbruikbaar zijn ook al waren ze "volledig". Dit ivm beschadigingen.
ATi gaat namelijk niet, zoals Intel, meteen naar 65nm, maar eerst wordt er nog een serie chips gebakken op 80nm. Waarschijnlijk gebeurt dit op advies van de Taiwanese chipbakker TSMC, die een groot deel van ATi's GPU's produceert.
Op advies van TSMC betekent waarschijnlijk dat ze nog niet klaar zijn voor het bakken op 65nm. Ik ben benieuwd wat het verschil in performance wordt tussen 90nm en 80 nm en of dit de eerste chip van ATi wordt met een dual-core.
NEE, fout,

DE grote zou niet uit moeten maken, als ik het goed begrijp shrinken ze de die gewoon, scheelt nagenoeg niets aan performance, de kleinere zijn goedkoper en mogelijk hoger te clocken.

En dual-core slaat voor graphics gewoon helemaal nergens op, dat ding is vanzichzelf parralel, 1x 32 pipelines of 2x 16, dat laatste is iig niet beter.
En dual-core slaat voor graphics gewoon helemaal nergens op, dat ding is vanzichzelf parralel, 1x 32 pipelines of 2x 16, dat laatste is iig niet beter.
Een poosje terug gelezen in een artikel op T.net:
Beide fabrikanten zijn inmiddels aan het overwegen om in de toekomst ook dual-core GPU's te gaan produceren, hoewel er nog geen concrete plannen voor lijken te bestaan.
http://www.tweakers.net/nieuws/36593
http://www.theinquirer.net/?article=21822
2 maal theinq....

Graphische berekening worden al door verschillende pipelines tegelijkertijd uitgevoerd, dual core zou hetzelfde effect krijgen als SLI, maar dan ook nog op 1 die, dus das onnodig duur.

Wat ik denk dat theinq verkeert begrepen heeft, is iets waar VIA plannen mee had, 2 cores, maar ook op 2 dies, maar wel op dezelfde package, dat kan heel veel aan productie kosten schelen, en gateleakage zou minder moeten worden, wat lijd tot minder warmte en minder energie verbruik.
eerst zeg je dat het nagenoeg niets aan performance scheelt en daarna zijn ze ineens hoger te klokken? Dan maakt het toch wel uit voor de performance? :S
Jan Groothuijse bedoelde, dat het shrinken van de die, geen verschil maakt, in performance.
Dus blijven de prestaties gelijk ondanks de kleinere die.

Doordat de die kleiner is (en de transistoren erop dus ook) kán je hogere kloksnelheden behalen, waardoor je dus meer performance kán krijgen.
Tevens gebruiken de transistoren dan minder stroom, met dezelfde prestaties, als de grotere versies, voltage ophogen, en je kan zelfs sneller... ;)

Nadeel aan het steeds kleiner maken is wel de grotere kans op lekstroompjes...
Hmm... ik wist niet dat TSMC een 80nm proces heeft? Mischien is het een optische shrink variant van het 90nm proces, zodat ze layout technisch niets hoeven te veranderen........
Ik zou eerder denken dat het een uitvergroting is van het 65nm procces dat inplaats daarvan op 80nm word geoefent

Het lijkt me makkelijker om een 65nm macine bredere paden te laten schrijven dan 90nm aparatuur op te voeren naar 80nm
Nee, het is makelijker om van 90 naar 80nm te gaan. De optische shrink is een erg gebruikelijk tussen stap. Vooral als je weet dat 90nm al werkt en 65nm nog lang niet in productie loopt.

En als het een echte shrink is hoef je je chip niet eens opnieuw te ontwerpen, wat wel moet als je naar 65nm gaat.
Kijk, dat is duidelijk. Intel maakt grafische chips voor de low-end markt. Dus die hoeven hun vooroorlogse cores hoogstwaarschijnlijk alleen maar te verkleinen.

Ati heeft daarentegen high-performance cores die dicht tegen de grenzen van de techniek aan liggen. Daar kan veel meer mis gaan bij het verkleinen.

Dus het lijkt me een heel verstandige stap. Voor Intel is er maar weinig risico, die cores zijn toch al nergens mee concurrerend.

Weet iemand hoe het bij nVidia met 65nm staat? Want daar praat je dus wel over een concurrentiestrijd.
nVidia lijkt zich op het moment meer bezig te houden met de graphische chip van de PS3, die ook erg gaat lijken op de NV50, die van de PS3 werd op 65nm losgelaten meen ik, en zal uiteindelijk ooit op 45nm terecht komen (das 2 keer zo klein btw), van de NV50 verwacht ik dat ie op 90nm zal beginnen, dit is pure speculatie helaas....
Wat gebeurt er eigenlijk als die persoon op de foto die plaat laat vallen? }>
Dan valt de aarde kapot.

(de aarde is rond. als een pannekoek)
miljoenen kleine stukjes silicium ;-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True