Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'AMD komt in maart met RV740- en RV790-gpu's'

AMD's antwoord op de introductie van Nvidia's GTX285 en GTX295 bestaat uit meer dan alleen een prijsverlaging voor de HD 4870X2: de chipontwerper gaat in maart twee 40nm-gpu's lanceren.

AMD-gebouw (125px)Met de lancering van de GeForce GTX285 en GTX295 is de prestatiekroon weer bij Nvidia beland. Door de bestaande, op 65nm gebakken GT200-chip van een die-shrink naar het 55nm-procedé te voorzien, valt het chipoppervlak kleiner uit, wat de productiekosten drukt. Hoewel de architectuur van de GT200b onveranderd is ten opzichte van de GT200, zorgt het nieuwe productieproces voor minder warmteontwikkeling per prestatie-eenheid, waardoor Nvidia voor de GT200b hogere kloksnelheden heeft kunnen toepassen.

Volgens een aantal reviews lijkt de strijd om de beste dual-gpu-kaart te zijn gewonnen door Nvidia's GTX295, die de Radeon HD 4870X2 zowel wat betreft prestaties als wat betreft energiezuinigheid overtreft. Als reactie daarop kondigde AMD tijdens de Consumer Electronics Show een prijsverlaging van 100 dollar voor de Radeon HD 4870X2 aan. Daar zal het daar volgens Hardware-infos echter niet bij blijven, want een introductie van de RV740 en RV790 met het 40nm-procedé wordt al in maart verwacht. De RV740-gpu moet het midrange-segment bedienen en de strijd aangaan met de GT214-, GT216- en GT218-gpu's van Nvidia, die eveneens op 40nm worden gebakkken.

Volgens Hardware-infos is de RV790 een doorontwikkeling van de RV770 met een die-shrink naar 40nm. Daarnaast zal de gpu door de toevoeging van twee simd-clusters over 960 shaderprocessors beschikken, terwijl de RV770 het moet doen met 800 shaderprocessors. De 960 shaderprocessors zijn opgebouwd uit 12 blokken die elk 80 rekeneenheden bevatten. Het aantal tmu's van vier per shaderprocessor-blok zal gelijk blijven ten opzichte van de RV770, zodat er in totaal 48 tmu's zijn.

Mogelijk zal AMD de RV740 en RV790 tijdens de CeBit-beurs in maart lanceren, terwijl Nvidia zijn eerste 40nm-gpu's pas in het tweede kwartaal gaat presenteren. Als deze speculaties kloppen zal AMD zijn gpu-rivaal net een stap voor zijn wat betreft de introductie van het 40nm-procedé. Wellicht zal zich dan een soortgelijke situatie voordoen als vorig jaar, toen AMD de eerste fabrikant was die de overstap naar het 55nm-procedé wist te realiseren.

Door Jilke Dijkstra

Freelancer

12-01-2009 • 10:05

45 Linkedin Google+

Reacties (45)

Wijzig sortering
ha perfect dat is ruim optijd :) Maar het zou goed kunnen dat er meer shaders op komen dan 960. waarom? 40nm is een heel stuk kleiner en goedkoper te produceren dan 55nm en vorige keer bleek er ook genoegl ruimte te zijn voor 480 shaders extra. Maar het kan natuurlijk ook dat de clocks behoorlijk opgevoerd worden en dat AMD de koel oplossing van celsia zal implementeren waar een paar maanden geleden geruchten over gingen. http://www.hardware.info/...a_working_on_new_cooling/ in kosten zou dat de productie prijs behoorlijk kunnen drukken lijkt me en misschien de prijzen gemiddeld nog iets lager kunnen laten uitvallen dan die van de huidige generatie. :D
Ik ben benieuwd of deze kaarten al DX11 zullen ondersteunen. Maar het zou goed kunnen dat we dat pas zien zodra de RV870 zijn debuut maakt
Ik denk dat AMD/ATi ook expres extra ruimte overhouden, zodat als nVidia ineens met een klapper uit de hoek komt, dat ze snel met een antwoord kunnen terugkomen.

Dat probleem had nVidia namelijk, die had geen ruimte in hun supergroot G200 ontwerp, waar de yields al niet zo goed van waren, waardoor het enigste wat ze toen als antwoord hadden was het verlagen van de prijs.

Het is alleen maar goed nieuws voor ons als consumenten, want ook al gaat het in kleine stapjes omhoog, ze vechten zo snel momenteel met prijs of nieuwe modellen dat het over een langer tijdsbestek razendsnel gaat in vergelijking met de GeForce 8 serie die bijna 2 jaar lang onaantasbaar was.
Dat probleem had nVidia namelijk, die had geen ruimte in hun supergroot G200 ontwerp, waar de yields al niet zo goed van waren, waardoor het enigste wat ze toen als antwoord hadden was het verlagen van de prijs.
Ik snap niet dat mensen blijven praten over de slechte yields van G200. Charlie "Ik haat NVIDIA" Demerjian is er ooit over begonnen, zonder ook maar enige bron of wat dan ook, en sindsdien is iedereen het aan het herhalen. Even wat feiten op een rijtje:
-Alleen de aller-allerhoogste stafleden bij NVIDIA weten daadwerkelijke yield-cijfers. Dit is ontzettend geheime informatie die verder niemand te weten krijgt.
-De topmensen bij NVIDIA zullen dit soort gegevens nooit lekken, laat staan aan Charlie.
-Yields van een chip zijn op veel meer dingen gebaseerd dan alleen grootte. Dit was vroeger anders, maar tegenwoordig is het ontwerp de bepalende factor
-Yields op een volwassen procedee bij TSMC zullen heel goed zijn, ook bij grote chips
-NVIDIA ontwerpers hebben al veel ervaring met 65nm, en zullen dus geen beginnersfouten maken
-Yields zijn van te voren heel goed in te schatten. Als ze te laag waren geweest had NVIDIA wel ingegrepen.
-NVIDIA topmensen hebben zelf al lang aangegeven heel tevreden te zijn met de yields, die volgens hen boven verwachting waren.

Het echte probleem van G200 is de grootte, en niet vanwege yields, maar vanwege kosten. RV770 heeft bijvoorbeeld veel meer transistors per mm2 dan G200, en NVIDIA lijkt hier met alle 65nm chips last van te hebben. Of dit een bewuste keuze is is moeilijk na te gaan, maar het zorgt er inderdaad voor dat G200 wel iets duurder is en prijsverlaging wegens RV770 onvermijdelijk was voor NVIDIA.
je hoeft geen expert te zijn om te weten dat de yields van de gt200 relatief laag zullen zijn.
hij is gewoon groot, sterker nog, een van de grootste chips ooit gemaakt op een bulk process.
Dat is het punt juist, dat moet je wel zijn.
Er is nergens, maar dan ook echt helemaal nergens informatie te vinden over yields bij moderne procedee's. Dit is een belangrijk geheim van chipbakkers, die ze alleen af zullen geven aan vaste klanten. Zolang we niet weten of we hier te maken hebben met tientallen procenten, procenten of zelfs tienden van procenten kunnen we helemaal niets zeggen over yields van welke chip dan ook op welk procedee dan ook bij welke chipbakker dan ook.

Daaruit volgt natuurlijk dat er ook niets over G200 te zeggen valt. Je hebt het over groot (Wat is groot? Wat is tè groot?), maar yields zijn voornamelijk afhankelijk van ontwerp, niet van grootte.

Uiteraard zitten er dan nog steeds meer fouten/onvolkomenheden in een grote chip dan in een kleinere, maar zolang we niet weten over wat voor percentages aan yields we uberhaupt praten kunnen we nog niets zeggen. Zou NVIDIA er wakker van liggen als ze 20% slechtere yields hebben vanwege de grote? Ongetwijfeld. Zouden ze wakker van liggen van 0,2% slechtere yields? Denk het toch niet. (En als je nu komt met "0,2% slaat nergens op" argument wil ik ook graag harde cijfers zien waarom het nergens op slaat :))

Tot slot is er nog het argument te bedenken dat een complex ontwerp als dat van G200 meer fouten bevat dan RV770, maar ook daar komt een gebrek aan cijfers roet in het eten gooien. We weten niet hoe belangrijk dit is voor de yields, we weten niet hoe goed NVIDIA is (al dan niet in vergelijking met AMD), we weten niet hoe snel NVIDIA dit soort problemen heeft kunnen herkennen en kunnen oplossen in opeenvolgende revisies, we weten niet wat de impact van een volwassener procedee (65nm vs 55nm) is geweest op G200 vs RV770, enzovoort.

Dus je kan zeggen wat je wilt met het "je hoeft geen expert te zijn" argument, Uiteindelijk is er geen enkele grond waar je het op baseert. Ik stel dus voor om NVIDIA gewoon te geloven wanneer ze zeggen dat yields beter waren dan verwacht, en daarnaast stel ik voor om het gezonde verstand van NVIDIA topmensen te vertrouwen toen ze de keuze maakten om (wetend hoe goed de yields ongeveer zouden worden) G200 gewoon in productie te laten gaan.


EDIT:
Het spijt me, maar je verhaal wordt steeds inconsistenter. Even op een rijtje wat je volgens mij zegt:
1 - Redundantie is nodig vanwege de grootte van G200
2 - Redundantie is een probleem vanwege de extra transistors en dus extra grootte en dus extra (onnodige) kosten
3 - ATI heeft een voordeel omdat ze geen redundantie nodig hebben.

Alle drie zijn echter niet waar. Eerst 2, want dat is de basis van dit verhaal. Redundantie is een kostenoverweging die wordt genomen bij het ontwerp van een chip. De ontwerpers berekenen simpelweg de kosten van een chip als er geen redundantie-structuren aanwezig zijn, en de kosten met verschillende vormen van redundantie. Uiteindelijk krijg je dan gewoon een geschat percentage functionele chips per wafer (geen redundantie = meer chips maar lagere yields, meer redundantie = minder chips maar meer yield). Uiteindelijk krijg je gewoon een kosten/baten analyse welke methode de beste resultaten zal geven.
Dit betekent echter ook dat redundantie niet een probleem is. Het is gewoon een afweging met voordelen en nadelen, en die kunnen netjes op een rijtje gezet worden, waarna een keuze gemaakt kan worden.

1 dan vervolgens. G200 is te groot en dus is redundantie nodig. Dit is het grootste probleem aan je hele stelling, want het is niet waar. GTX280 maakt helemaal geen gebruik van coarse redundantie. Alle SIMD clusters die op G200 zitten zijn in gebruik bij GTX280. Dit is welliswaar niet het geval bij GTX260, maar dat is dan ook niet de topkaart. ATI maakt het verschil door wel of geen GDDR5 te gebruiken bij 4870 en 4850, NVIDIA door minder clusters. Is dit een fout in G200? Ik zie niet in waarom. Het laat NVIDIA toe meer chips te gebruiken en het staat ze toe GTX280 toch echt krachtig te maken (het alternatief zou volgens jou een kleinere chip zijn, dus minder performance).
Overigens is redundantie helemaal niet gebonden aan chipgrootte. Het kan (zie 2) net zo goed gebruikt worden in kleine chips, wanneer het betere yields geeft.

3 dan ten slotte. AMD heeft een voordeel omdat ze geen redundantie nodig hebben. Wat natuurlijk al onzin is omdat NVIDIA het ook niet nodig heeft, althans niet in jouw definitie. Wat je echter vergeet is dat hoewel ATI en NVIDIA geen coarse redundantie gebruiken, ze gebruiken waarschijnlijk wel fine-grained redundantie. Er zijn geen extra clusters die ingeschakeld kunnen worden als een ander cluster niet werkt, maar er zijn ongetwijfeld andere stukken logica dubbel die wel kunnen worden ingeschakeld als het nodig is. Zo las ik laatst nog ergens (heb zo geen link meer) dat RV770 eigenlijk een extra SP per cluster zou hebben.. Als er iets mis gaat met de productie kan deze extra SP worden gebruikt, anders wordt deze uitgeschakeld.
Ook hier is echter niets van te zeggen. Het ontwerp van deze chips is wederom geheim, dus hoeveel redundante transistoren er in de chips van ATI en NVIDIA zitten is net zo geheim. We kunnen dus ook niet zeggen wie de meest effectieve redundantiestrategie heeft gekozen.

[Reactie gewijzigd door Snoitkever op 13 januari 2009 16:08]

Als deze RV790 een simpele "shrink" van RV770 is zou ik niet op veel meer rekenen dan een extra cluster en hogere snelheden. Ik moet zeggen dat dit gerucht me sowieso al verbaast (40nm productie is nog maar net begonnen), en toevoeging van twee extra clusters is al heel wat. DX11 functionaliteit toevoegen zou echt veel te veel werk zijn voor een dergelijk kort tijdsbestek, en zou ook waarschijnlijk de nodige aanpassingen aan het ontwerp omhelsen. Dat kun je op z'n vroegst bij RV870 verwachten.

[Reactie gewijzigd door Snoitkever op 12 januari 2009 11:52]

Maar het zou goed kunnen dat er meer shaders op komen dan 960. waarom? 40nm is een heel stuk kleiner en goedkoper te produceren dan 55nm
Helaas is het niet zo makkelijk als je wilt doen laten geloven. Streamprocessors zijn namelijk opgedeeld in clusters. In het geval van de RV770 architectuur gaat het als ik me niet vergis om SIMD arrays van 80 streamprocessors. Je zult dus altijd een veelvoud van 80 moeten nemen, en dat heeft eigenlijk niets te doen met het procede waarop de GPU gebakken is.
en vorige keer bleek er ook genoegl ruimte te zijn voor 480 shaders extra.
Dat is niet juist, in eerste instantie zou de RV770 gelaunched worden met 480 streamprocessors, later werd dit 640 en uiteindelijk zelfs 800. Maar het werden er niet '480 extra'.
Maar het kan natuurlijk ook dat de clocks behoorlijk opgevoerd worden en dat AMD de koel oplossing van celsia zal implementeren waar een paar maanden geleden geruchten over gingen. http://www.hardware.info/...a_working_on_new_cooling/
Naast dat ik dat onwaarschijnlijk acht, blijft het gedissipeerde vermogen en het opgenomen vermogen precies hetzelfde. Echt veel schiet je er niet mee op dus, kijkend naar stroomverbruik en warmte-ontwikkeling.
Ik ben benieuwd of deze kaarten al DX11 zullen ondersteunen.
Nee. Om dat toe te voegen moeten ze de architectuur veranderen... Voor een simpele die-shrink/speedboost gaan ze dat echt niet doen... Het zal dus 'gewoon' een opgevoerde HD4870 worden op een kleiner procede.
Nee, valt best mee. Als je een PC koopt die langer dan drie jaar mee moet gaan is het misschien een idee om er op te wachten, maar zelfs dan is je GPU zo verouderd dat tegen de tijd dat games gebruik gaan maken van DX11 functionaliteit je toch alles al op medium of low moet zetten, en games maken doorgaans juist gebruik van nieuwe features die bijvoorbeeld DX11 biedt op "high settings".
De belangrijkste features van DX11, zoals multithreaded rendering worden ook op DX10 kaarten ondersteund, dus je zit wel goed als je nu een nieuwe kaart koopt.
Je kunt altijd blijven wachten..

Windows7 komt pas tegen het eind van 't jaar op de markt. En dus wordt dan pas DX11 gereleased. Je krijgt op z'n vroegst pas begin volgend jaar ergens de eerste games die flauwtjes gebruik maken van DX11. Waarbij gebruik van DX9 dan sowieso mogelijk is en DX10 eventueel.

Je hebt dus sowieso een heel jaar totdat DX11 een factortje wordt. En waarschijnlijk echt véél langer totdat je DX11 echt zal missen. Pas als Microsoft met een nieuwe console op basis van DX11 komt zal DX9 sterven en alles DX11 worden. Ik bedoel, in de drie jaar dat we nu DX10 hebben, hoeveel games zijn er uit gekomen waar je echt merkbaar baat had bij DX10, en hoeveel games die DX10 only waren? Nul komma nul imho.

Al moet ik je wel gelijk geven. Ik zou ook niet zo happig zijn nu een kaart te halen die niet DX11 capable is. De vraag alleen is wanneer AMD en nVidia met de eerste DX11 kaarten op de proppen zullen komen.
Als dat pas rond september is, dan is dat toch nog een behoorlijke wachttijd, zeker als je NU een upgrade nodig hebt. Dat is imho de overweging die je altijd moet maken: wat heb je NU nodig en wat is je budget.
Als je deze had gelezen dat had je geweten dan dx10 niet langzamer hoeft te zijn. Ik denk dat dit voornamelijk veroorzaakt wordt doordat game ontwikkelaars niet dx10 only games durven te ontwikkelen omdat vista minder populair zou zijn als xp onder pc gamers. Daarnaast ondersteunen de huidige consoles alleen maar dx9 en zoals velen weten worden er maar weinig pc exclusive titels ontwikkeld. Hierdoor is de game development in dx10 gewoon onderontwikkeld en presteren games in dx10 mode ondermaats.

Ontopic: We leuk om te zien om AMD op gebied van gpu's zijn concurent voor lijkt te zijn, terwijl op cpu gebied het een stap achter loopt. Des al niet te min verwacht ik dat deze kaarten leuk gaan presteren. Ik verwacht dan ook niet anders dan dat de clocks om hoog gaan en het idle verbruik naar benenden. Load verbruik zou ik niet weten en vind ik ook niet belangrijk, daar koop je dit soort kaarten (RV790) niet voor. In combinatie met een prijsverlaging d.m.v. goedkoper productie proces zouden deze kaarten nog wel concurerender kunnen worden dan ze nu al zijn.
Het heeft er natuurlijk mee te maken dat niemand Vista wil gebruiken en gameontwikkelaars bang zijn om een heel stuk van de klanten te verliezen, en daarom dus maar voor DX9 ontwikkelen.
Dat, en het feit dat de meeste games tegenwoordig cross platform zijn. Dus dat ze ook op de consoles uitkomen. Aangezien de Xbox 360 slechts DX9 ondersteunt worden die games gewoon voor DX9 ontwikkeld. DX10 support wordt pas later toegevoegd aan een PC versie als een after thought.
En die van 9 naar 10 niet? Iedere keer hoor je zo'n reacties en op die manier kan je blijven wachten. Op die manier blijf je gewoon met een Voodoo 1 3Dfx kaart in je PC steken. Als je wil/moet upgraden, dan doe je dat gewoon. Er zijn tal van leuke grafische kaarten op de markt: voor elk wat wils (prijs/kwaliteit/performance).

Het is leuk om te zien dat de ontwikkeling van grafische kaarten in 2009 weer even snel doorgaat. Leuk in het opzicht dat zowel ATI en NVIDIA mekaar hard beconcurreren waardoor we in een goede concurrende positie zitten met scherpe prijzen voor snelle kaarten. Anders zou 500 euro wel eens een gangbare prijs kunnen geweest zijn voor een goede/snelle grafische kaart.
Nee, maar er bestaat ook geen 256 bit GDDR5 ;)
Een 256bit bus betekent dat de totale busbreedte 256 bit is. Dit wordt meestal met meerdere chips met een 32 bit bus gedaan. 512 bit betekent gewoon twee keer zoveel chips.
Budgetwise? Het is niet alsof je met een phenom 2 en een flinke amd videokaart heel erg budgetechtig bezig bent. Amd bied gewoon een heel goede prijs/prestatie verhouding en zeker met een dragon platform heb je net dat extra stukje prestatie wat toch altijd leuk is meegenomen. De absolute prestatiekroon is trouwens ook niet erg belangrijk voor de meeste mensen. Het moet gewoon goed presteren in verhouding met andere producten en zeker als het weinig scheelt qua prestaties en toch veel goedkoper is weet ik het wel!
hoezo is het pas bij de absolute snelste gpu interessant en bij een wat minder snelle voor veel minder niet? dat is je reinste onzin, juist dat de prijs heel interessant is en daarmee nvidia dwingen de prijzen lager te houden zorgen ze voor meer concurrentie en mogelijkheden voor ons als consument.
Daarbij is het dragonplatform zeker wel interessant met de komst van de nieuwe phenoms II omdat deze een stuk beter presteren tov de intels. niet beter maar wel een stuk beter dan de vorige generatie waarbij de lage kosten voor een relatief goede prestaties op normaal gamegebied des te leuker zijn.

Je kan met een dragon platform voor 800 e een serieuze gamepc in elkaar zetten, die vrijwel alles kan draaien op hoog niveau. Wil je echt top of the line betaal je in verhouding veel meer voor maar 10-15% meer prestaties.
Mijn volgende systeem hangt erg af van hoe goed de nieuwe phenoms presteren tov de nieuwe mainstream i7 cpu's.
Dus het is wel degelijk goed nieuws ook al hebben ze de prestatiekroon niet meer op dit moment.
Logisch - busbreedte is echte hardware, banen koper op je PCB. Voor de snelheid moet het uit de lengt of de breedte komen. 256 bits * lage clock = 128 bits * hoge clock. GDDR5 was initieel nog te duur om de besparing op koper te rechtvaardigen, maar de GDDR5 prijs daalt sneller dan de koperprijs.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True