Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

AMD's antwoord op de introductie van Nvidia's GTX285 en GTX295 bestaat uit meer dan alleen een prijsverlaging voor de HD 4870X2: de chipontwerper gaat in maart twee 40nm-gpu's lanceren.

AMD-gebouw (125px)Met de lancering van de GeForce GTX285 en GTX295 is de prestatiekroon weer bij Nvidia beland. Door de bestaande, op 65nm gebakken GT200-chip van een die-shrink naar het 55nm-procedé te voorzien, valt het chipoppervlak kleiner uit, wat de productiekosten drukt. Hoewel de architectuur van de GT200b onveranderd is ten opzichte van de GT200, zorgt het nieuwe productieproces voor minder warmteontwikkeling per prestatie-eenheid, waardoor Nvidia voor de GT200b hogere kloksnelheden heeft kunnen toepassen.

Volgens een aantal reviews lijkt de strijd om de beste dual-gpu-kaart te zijn gewonnen door Nvidia's GTX295, die de Radeon HD 4870X2 zowel wat betreft prestaties als wat betreft energiezuinigheid overtreft. Als reactie daarop kondigde AMD tijdens de Consumer Electronics Show een prijsverlaging van 100 dollar voor de Radeon HD 4870X2 aan. Daar zal het daar volgens Hardware-infos echter niet bij blijven, want een introductie van de RV740 en RV790 met het 40nm-procedé wordt al in maart verwacht. De RV740-gpu moet het midrange-segment bedienen en de strijd aangaan met de GT214-, GT216- en GT218-gpu's van Nvidia, die eveneens op 40nm worden gebakkken.

Volgens Hardware-infos is de RV790 een doorontwikkeling van de RV770 met een die-shrink naar 40nm. Daarnaast zal de gpu door de toevoeging van twee simd-clusters over 960 shaderprocessors beschikken, terwijl de RV770 het moet doen met 800 shaderprocessors. De 960 shaderprocessors zijn opgebouwd uit 12 blokken die elk 80 rekeneenheden bevatten. Het aantal tmu's van vier per shaderprocessor-blok zal gelijk blijven ten opzichte van de RV770, zodat er in totaal 48 tmu's zijn.

Mogelijk zal AMD de RV740 en RV790 tijdens de CeBit-beurs in maart lanceren, terwijl Nvidia zijn eerste 40nm-gpu's pas in het tweede kwartaal gaat presenteren. Als deze speculaties kloppen zal AMD zijn gpu-rivaal net een stap voor zijn wat betreft de introductie van het 40nm-procedé. Wellicht zal zich dan een soortgelijke situatie voordoen als vorig jaar, toen AMD de eerste fabrikant was die de overstap naar het 55nm-procedé wist te realiseren.

Moderatie-faq Wijzig weergave

Reacties (45)

ha perfect dat is ruim optijd :) Maar het zou goed kunnen dat er meer shaders op komen dan 960. waarom? 40nm is een heel stuk kleiner en goedkoper te produceren dan 55nm en vorige keer bleek er ook genoegl ruimte te zijn voor 480 shaders extra. Maar het kan natuurlijk ook dat de clocks behoorlijk opgevoerd worden en dat AMD de koel oplossing van celsia zal implementeren waar een paar maanden geleden geruchten over gingen. http://www.hardware.info/...a_working_on_new_cooling/ in kosten zou dat de productie prijs behoorlijk kunnen drukken lijkt me en misschien de prijzen gemiddeld nog iets lager kunnen laten uitvallen dan die van de huidige generatie. :D
Ik ben benieuwd of deze kaarten al DX11 zullen ondersteunen. Maar het zou goed kunnen dat we dat pas zien zodra de RV870 zijn debuut maakt
Ik denk dat AMD/ATi ook expres extra ruimte overhouden, zodat als nVidia ineens met een klapper uit de hoek komt, dat ze snel met een antwoord kunnen terugkomen.

Dat probleem had nVidia namelijk, die had geen ruimte in hun supergroot G200 ontwerp, waar de yields al niet zo goed van waren, waardoor het enigste wat ze toen als antwoord hadden was het verlagen van de prijs.

Het is alleen maar goed nieuws voor ons als consumenten, want ook al gaat het in kleine stapjes omhoog, ze vechten zo snel momenteel met prijs of nieuwe modellen dat het over een langer tijdsbestek razendsnel gaat in vergelijking met de GeForce 8 serie die bijna 2 jaar lang onaantasbaar was.
Dat probleem had nVidia namelijk, die had geen ruimte in hun supergroot G200 ontwerp, waar de yields al niet zo goed van waren, waardoor het enigste wat ze toen als antwoord hadden was het verlagen van de prijs.
Ik snap niet dat mensen blijven praten over de slechte yields van G200. Charlie "Ik haat NVIDIA" Demerjian is er ooit over begonnen, zonder ook maar enige bron of wat dan ook, en sindsdien is iedereen het aan het herhalen. Even wat feiten op een rijtje:
-Alleen de aller-allerhoogste stafleden bij NVIDIA weten daadwerkelijke yield-cijfers. Dit is ontzettend geheime informatie die verder niemand te weten krijgt.
-De topmensen bij NVIDIA zullen dit soort gegevens nooit lekken, laat staan aan Charlie.
-Yields van een chip zijn op veel meer dingen gebaseerd dan alleen grootte. Dit was vroeger anders, maar tegenwoordig is het ontwerp de bepalende factor
-Yields op een volwassen procedee bij TSMC zullen heel goed zijn, ook bij grote chips
-NVIDIA ontwerpers hebben al veel ervaring met 65nm, en zullen dus geen beginnersfouten maken
-Yields zijn van te voren heel goed in te schatten. Als ze te laag waren geweest had NVIDIA wel ingegrepen.
-NVIDIA topmensen hebben zelf al lang aangegeven heel tevreden te zijn met de yields, die volgens hen boven verwachting waren.

Het echte probleem van G200 is de grootte, en niet vanwege yields, maar vanwege kosten. RV770 heeft bijvoorbeeld veel meer transistors per mm2 dan G200, en NVIDIA lijkt hier met alle 65nm chips last van te hebben. Of dit een bewuste keuze is is moeilijk na te gaan, maar het zorgt er inderdaad voor dat G200 wel iets duurder is en prijsverlaging wegens RV770 onvermijdelijk was voor NVIDIA.
je hoeft geen expert te zijn om te weten dat de yields van de gt200 relatief laag zullen zijn.
hij is gewoon groot, sterker nog, een van de grootste chips ooit gemaakt op een bulk proces.

hij heeft redundantie in de chip zitten om de verliezen te beperken en acceptabele yields te krijgen, maar dat voegt wel extra transistors en dus grote en kosten toe aan een toch al dure en grote chip. de rv770 is zo gemaakt dat hij zo groot mogelijk kan zijn zonder dat die redundantie toegevoegd hoeft te worden.

dus ja, zoals je zegt, ontwerp is bepalend voor de yield, maar dan wel door de trucks van redundantie in te bouwen als het ontwerp te groot is.
die redundantie doen ze dus niet voor niks.

edit: het punt is : de GT200 is zo groot dat hij extra transistors moet hebben om er voor te zorgen dat er genoeg GT200's bruikbaar zijn per waffer.
is een bepaald deel van de chip niet goed genoeg dan word dat deel uitgeschakeld en word het redundant gedeelte geactiveerd.
die extra redundant nodes worden dus normaal niet gebruikt, leveren dus niks aan extra snelheid op, maar kosten wel extra geld omdat ze ruimte in nemen en er daardoor minder chips uit een waffer gehaald kunnen worden.

als grote geen belemmering meer zou zijn voor de yields zoals jij beweerd, dan was dat redundant gedeelte niet nodig geweest, want dan had het meer opgeleverd om ze achterwegen te laten en meer chips uit de waffer te halen.

lees hier maar even trouwens, rechtstreeks van een ATI engineering over waarom ze niet meer voor die aanpak hebben gekozen voor de rv770.
http://www.anandtech.com/video/showdoc.aspx?i=3469&p=3
(een heel interessant artikel om vanaf het begin te lezen trouwens als je geïnteresseerd bent in GPU's, van ATI of Nvidia)
edit2 : Baardmeester noemt het ook.

[Reactie gewijzigd door Countess op 12 januari 2009 20:34]

je hoeft geen expert te zijn om te weten dat de yields van de gt200 relatief laag zullen zijn.
hij is gewoon groot, sterker nog, een van de grootste chips ooit gemaakt op een bulk process.
Dat is het punt juist, dat moet je wel zijn.
Er is nergens, maar dan ook echt helemaal nergens informatie te vinden over yields bij moderne procedee's. Dit is een belangrijk geheim van chipbakkers, die ze alleen af zullen geven aan vaste klanten. Zolang we niet weten of we hier te maken hebben met tientallen procenten, procenten of zelfs tienden van procenten kunnen we helemaal niets zeggen over yields van welke chip dan ook op welk procedee dan ook bij welke chipbakker dan ook.

Daaruit volgt natuurlijk dat er ook niets over G200 te zeggen valt. Je hebt het over groot (Wat is groot? Wat is tè groot?), maar yields zijn voornamelijk afhankelijk van ontwerp, niet van grootte.

Uiteraard zitten er dan nog steeds meer fouten/onvolkomenheden in een grote chip dan in een kleinere, maar zolang we niet weten over wat voor percentages aan yields we uberhaupt praten kunnen we nog niets zeggen. Zou NVIDIA er wakker van liggen als ze 20% slechtere yields hebben vanwege de grote? Ongetwijfeld. Zouden ze wakker van liggen van 0,2% slechtere yields? Denk het toch niet. (En als je nu komt met "0,2% slaat nergens op" argument wil ik ook graag harde cijfers zien waarom het nergens op slaat :))

Tot slot is er nog het argument te bedenken dat een complex ontwerp als dat van G200 meer fouten bevat dan RV770, maar ook daar komt een gebrek aan cijfers roet in het eten gooien. We weten niet hoe belangrijk dit is voor de yields, we weten niet hoe goed NVIDIA is (al dan niet in vergelijking met AMD), we weten niet hoe snel NVIDIA dit soort problemen heeft kunnen herkennen en kunnen oplossen in opeenvolgende revisies, we weten niet wat de impact van een volwassener procedee (65nm vs 55nm) is geweest op G200 vs RV770, enzovoort.

Dus je kan zeggen wat je wilt met het "je hoeft geen expert te zijn" argument, Uiteindelijk is er geen enkele grond waar je het op baseert. Ik stel dus voor om NVIDIA gewoon te geloven wanneer ze zeggen dat yields beter waren dan verwacht, en daarnaast stel ik voor om het gezonde verstand van NVIDIA topmensen te vertrouwen toen ze de keuze maakten om (wetend hoe goed de yields ongeveer zouden worden) G200 gewoon in productie te laten gaan.


EDIT:
Het spijt me, maar je verhaal wordt steeds inconsistenter. Even op een rijtje wat je volgens mij zegt:
1 - Redundantie is nodig vanwege de grootte van G200
2 - Redundantie is een probleem vanwege de extra transistors en dus extra grootte en dus extra (onnodige) kosten
3 - ATI heeft een voordeel omdat ze geen redundantie nodig hebben.

Alle drie zijn echter niet waar. Eerst 2, want dat is de basis van dit verhaal. Redundantie is een kostenoverweging die wordt genomen bij het ontwerp van een chip. De ontwerpers berekenen simpelweg de kosten van een chip als er geen redundantie-structuren aanwezig zijn, en de kosten met verschillende vormen van redundantie. Uiteindelijk krijg je dan gewoon een geschat percentage functionele chips per wafer (geen redundantie = meer chips maar lagere yields, meer redundantie = minder chips maar meer yield). Uiteindelijk krijg je gewoon een kosten/baten analyse welke methode de beste resultaten zal geven.
Dit betekent echter ook dat redundantie niet een probleem is. Het is gewoon een afweging met voordelen en nadelen, en die kunnen netjes op een rijtje gezet worden, waarna een keuze gemaakt kan worden.

1 dan vervolgens. G200 is te groot en dus is redundantie nodig. Dit is het grootste probleem aan je hele stelling, want het is niet waar. GTX280 maakt helemaal geen gebruik van coarse redundantie. Alle SIMD clusters die op G200 zitten zijn in gebruik bij GTX280. Dit is welliswaar niet het geval bij GTX260, maar dat is dan ook niet de topkaart. ATI maakt het verschil door wel of geen GDDR5 te gebruiken bij 4870 en 4850, NVIDIA door minder clusters. Is dit een fout in G200? Ik zie niet in waarom. Het laat NVIDIA toe meer chips te gebruiken en het staat ze toe GTX280 toch echt krachtig te maken (het alternatief zou volgens jou een kleinere chip zijn, dus minder performance).
Overigens is redundantie helemaal niet gebonden aan chipgrootte. Het kan (zie 2) net zo goed gebruikt worden in kleine chips, wanneer het betere yields geeft.

3 dan ten slotte. AMD heeft een voordeel omdat ze geen redundantie nodig hebben. Wat natuurlijk al onzin is omdat NVIDIA het ook niet nodig heeft, althans niet in jouw definitie. Wat je echter vergeet is dat hoewel ATI en NVIDIA geen coarse redundantie gebruiken, ze gebruiken waarschijnlijk wel fine-grained redundantie. Er zijn geen extra clusters die ingeschakeld kunnen worden als een ander cluster niet werkt, maar er zijn ongetwijfeld andere stukken logica dubbel die wel kunnen worden ingeschakeld als het nodig is. Zo las ik laatst nog ergens (heb zo geen link meer) dat RV770 eigenlijk een extra SP per cluster zou hebben.. Als er iets mis gaat met de productie kan deze extra SP worden gebruikt, anders wordt deze uitgeschakeld.
Ook hier is echter niets van te zeggen. Het ontwerp van deze chips is wederom geheim, dus hoeveel redundante transistoren er in de chips van ATI en NVIDIA zitten is net zo geheim. We kunnen dus ook niet zeggen wie de meest effectieve redundantiestrategie heeft gekozen.

[Reactie gewijzigd door Snoitkever op 13 januari 2009 16:08]

"ATI asserted that a very large GPU, without the use of repair structures or harvesting (two techniques I’ll describe in a bit) may only have a 30% yield. That means for every 100 GPUs produced on a single wafer, only 30% of them would be fully functional and could be sold as advertised. Manufacturing these complex circuits is particularly expensive, those fab plants easily cost a couple of billion dollars to build and thus having most of your wafer go to waste isn’t really a good way of running a business.

Thankfully there are ways to improve that crappy 30% yield to a value north of 90%. The first is a technique generally known as repairability. The idea behind repairability is simple: build redundancy into your design. If you have a unit with 10 shader processors, actually build 11 but use one as a spare should there be a defect in any of the remaining processors. The same technique is often used for on-die memory, include additional cells so that a defect in one part of a cache won’t render the entire chip unusable. There are tradeoffs here however, if you build in too much repairability then you run the risk of having a die that’s large but offers no additional performance benefit. If you don’t build in enough repairability then your yield suffers.

Harvesting is another technique that all of you are quite familiar with, although its street name is feature binning. The idea here is that you assume that only a small percentage of the die on a wafer will be completely functional, but instead of throwing away the ones that aren’t fully functional, you disable features and sell them as a lower end part. For example, if your target architecture has 10 shader processors but only 30% of your production will have 10 working shader processors but 50% of the production will have 8 working units you’d sell a model with 10 SPs and a model with 8 SPs, the latter being at a reduced cost. This way instead of throwing away 70% of the wafer, you only throw away 20% - and if possible you could make a third SKU with fewer number of functional SPs and use close to 100% of the wafer.

Yields do improve over time, and what eventually happens if you build a product relying on harvesting is you hurt yourself financially. In the example above where you have two configurations of the same die, yields will eventually improve to the point where your 8 SP die could just as easily have 10 functional SPs but you have to sell them as reduced functionality parts because you’ve built up market demand for them. In a sense, you’re selling something worth $1 for $0.80. You could always create a new version of the chip with a smaller die, but that takes additional engineering resources, time and money.

The most recent public example of die harvesting was actually with NVIDIA’s GT200. The GeForce GTX 260 was simply a harvested version of the GTX 280 with 192 SPs vs. 240. As yields improved, NVIDIA introduced the GeForce GTX 260 Core 216 with 216 SPs. Note that NVIDIA didn’t use any repairability for the shader processors on GT200 there are no more than 240 functional SPs on a GT200 die, but that’s because NVIDIA would rely on harvesting anyway - if any of the 240 SPs didn’t work the chip would be branded as a GTX 260 or Core 216.

This is in stark contrast to RV770 where both versions of the GPU were functionally identical, the only differences were clock speeds and power requirements. But from a die standpoint, ATI didn’t have to sell any reduced versions of the chip to keep yields high.

Note that whether or not a company has to rely on harvesting doesn’t really impact the end user. In this case, the GeForce GTX 260 Core 216 actually benefitted the end user as it manages to deliver the same sort of value that AMD does with the Radeon HD 4870. It isn’t ideal for NVIDIA financially and if a company has to rely on harvesting for too long it will eventually take its toll, but I suspect that in the GT200 case NVIDIA will bail itself out with a 55nm revision of GT200 before things get too bad.

ATI didn’t want to build a GPU that would rely on excessive repair and harvesting to keep yields high. And then came the killer argument: building such a GPU was no longer in the best interests of its customers."


uit een interview met Carrell Killebrew van ati over de rv770.
Uit de markt kan je halen dat de yields beter dan verwacht waren na de plotse ophoging van 192 -> 216 shaders (iirc) kort na de introductie van de 4870 van ati. De uitval veroorzaakt door het vergroten van het aantal functionele shaders moet minimaal zijn.
Als deze RV790 een simpele "shrink" van RV770 is zou ik niet op veel meer rekenen dan een extra cluster en hogere snelheden. Ik moet zeggen dat dit gerucht me sowieso al verbaast (40nm productie is nog maar net begonnen), en toevoeging van twee extra clusters is al heel wat. DX11 functionaliteit toevoegen zou echt veel te veel werk zijn voor een dergelijk kort tijdsbestek, en zou ook waarschijnlijk de nodige aanpassingen aan het ontwerp omhelsen. Dat kun je op z'n vroegst bij RV870 verwachten.

[Reactie gewijzigd door Snoitkever op 12 januari 2009 11:52]

't zou interessant zijn om een vernieuwde 4870X2 uit te brengen o.b.v. de RV790... Wat betere prestaties, wellicht minder energieverbruik en zelfde prijs (door 40 nm.-productie) met zicht zou meebrengen.

Op die manier kan AMD weer beter aansluiten met de GTX295...
Maar het zou goed kunnen dat er meer shaders op komen dan 960. waarom? 40nm is een heel stuk kleiner en goedkoper te produceren dan 55nm
Helaas is het niet zo makkelijk als je wilt doen laten geloven. Streamprocessors zijn namelijk opgedeeld in clusters. In het geval van de RV770 architectuur gaat het als ik me niet vergis om SIMD arrays van 80 streamprocessors. Je zult dus altijd een veelvoud van 80 moeten nemen, en dat heeft eigenlijk niets te doen met het procede waarop de GPU gebakken is.
en vorige keer bleek er ook genoegl ruimte te zijn voor 480 shaders extra.
Dat is niet juist, in eerste instantie zou de RV770 gelaunched worden met 480 streamprocessors, later werd dit 640 en uiteindelijk zelfs 800. Maar het werden er niet '480 extra'.
Maar het kan natuurlijk ook dat de clocks behoorlijk opgevoerd worden en dat AMD de koel oplossing van celsia zal implementeren waar een paar maanden geleden geruchten over gingen. http://www.hardware.info/...a_working_on_new_cooling/
Naast dat ik dat onwaarschijnlijk acht, blijft het gedissipeerde vermogen en het opgenomen vermogen precies hetzelfde. Echt veel schiet je er niet mee op dus, kijkend naar stroomverbruik en warmte-ontwikkeling.
Ik ben benieuwd of deze kaarten al DX11 zullen ondersteunen.
Nee. Om dat toe te voegen moeten ze de architectuur veranderen... Voor een simpele die-shrink/speedboost gaan ze dat echt niet doen... Het zal dus 'gewoon' een opgevoerde HD4870 worden op een kleiner procede.
Hmm tja het lijkt mij verstandiger als consument om dan nog maar te wachten op de directx11 kaarten, anders heb je al vrij snel een verouderde kaart in je pc. Nog sneller dan normaal iig.
Nee, valt best mee. Als je een PC koopt die langer dan drie jaar mee moet gaan is het misschien een idee om er op te wachten, maar zelfs dan is je GPU zo verouderd dat tegen de tijd dat games gebruik gaan maken van DX11 functionaliteit je toch alles al op medium of low moet zetten, en games maken doorgaans juist gebruik van nieuwe features die bijvoorbeeld DX11 biedt op "high settings".
De belangrijkste features van DX11, zoals multithreaded rendering worden ook op DX10 kaarten ondersteund, dus je zit wel goed als je nu een nieuwe kaart koopt.
Je kunt altijd blijven wachten..

Windows7 komt pas tegen het eind van 't jaar op de markt. En dus wordt dan pas DX11 gereleased. Je krijgt op z'n vroegst pas begin volgend jaar ergens de eerste games die flauwtjes gebruik maken van DX11. Waarbij gebruik van DX9 dan sowieso mogelijk is en DX10 eventueel.

Je hebt dus sowieso een heel jaar totdat DX11 een factortje wordt. En waarschijnlijk echt véél langer totdat je DX11 echt zal missen. Pas als Microsoft met een nieuwe console op basis van DX11 komt zal DX9 sterven en alles DX11 worden. Ik bedoel, in de drie jaar dat we nu DX10 hebben, hoeveel games zijn er uit gekomen waar je echt merkbaar baat had bij DX10, en hoeveel games die DX10 only waren? Nul komma nul imho.

Al moet ik je wel gelijk geven. Ik zou ook niet zo happig zijn nu een kaart te halen die niet DX11 capable is. De vraag alleen is wanneer AMD en nVidia met de eerste DX11 kaarten op de proppen zullen komen.
Als dat pas rond september is, dan is dat toch nog een behoorlijke wachttijd, zeker als je NU een upgrade nodig hebt. Dat is imho de overweging die je altijd moet maken: wat heb je NU nodig en wat is je budget.
Gebruik jij momenteel DX10 of DX10.1 dan? DX11 moet echt een hele grote vooruitgang zijn anders heeft iedereen er net zo *** aan als DX10. Bij de meeste games die zowel DX10 als DX9 zijn is DX10 3x zo langzaam terwijl het verschil minimaal is.

Het heeft er natuurlijk mee te maken dat niemand Vista wil gebruiken en gameontwikkelaars bang zijn om een heel stuk van de klanten te verliezen, en daarom dus maar voor DX9 ontwikkelen. Maar dat DX10 over het algemeen een stuk langzamer is terwijl de toegevoegde waarde minimaal is...

bronnen:
http://www.google.nl/search?q=dx10+vs+dx9
Als je deze had gelezen dat had je geweten dan dx10 niet langzamer hoeft te zijn. Ik denk dat dit voornamelijk veroorzaakt wordt doordat game ontwikkelaars niet dx10 only games durven te ontwikkelen omdat vista minder populair zou zijn als xp onder pc gamers. Daarnaast ondersteunen de huidige consoles alleen maar dx9 en zoals velen weten worden er maar weinig pc exclusive titels ontwikkeld. Hierdoor is de game development in dx10 gewoon onderontwikkeld en presteren games in dx10 mode ondermaats.

Ontopic: We leuk om te zien om AMD op gebied van gpu's zijn concurent voor lijkt te zijn, terwijl op cpu gebied het een stap achter loopt. Des al niet te min verwacht ik dat deze kaarten leuk gaan presteren. Ik verwacht dan ook niet anders dan dat de clocks om hoog gaan en het idle verbruik naar benenden. Load verbruik zou ik niet weten en vind ik ook niet belangrijk, daar koop je dit soort kaarten (RV790) niet voor. In combinatie met een prijsverlaging d.m.v. goedkoper productie proces zouden deze kaarten nog wel concurerender kunnen worden dan ze nu al zijn.
Het heeft er natuurlijk mee te maken dat niemand Vista wil gebruiken en gameontwikkelaars bang zijn om een heel stuk van de klanten te verliezen, en daarom dus maar voor DX9 ontwikkelen.
Dat, en het feit dat de meeste games tegenwoordig cross platform zijn. Dus dat ze ook op de consoles uitkomen. Aangezien de Xbox 360 slechts DX9 ondersteunt worden die games gewoon voor DX9 ontwikkeld. DX10 support wordt pas later toegevoegd aan een PC versie als een after thought.
Ik zie bij jouw link naar google geen enkel recent bericht staan.

De meeste ergens uit midden 2007.
Dat is dus al 18 maanden later nu.

Er zijn een aantal inhaalslagen gedaan door MS die de prestaties opzienbarend omhoog hebben gehaald.

Laat recente gegevens zien, dan kunnen wij concluderen of de door jou genoemde snelheden daarwerkelijk op dit moment bestaan.

Ik kan geen recente tests zien met de laatste updates.
Bij elke kaart die uitkomt lees ik zulk een reacties :) je kunt natuurlijk blijven wachten hé
True, maar de stap van directx10 naar directx11 zal wel redelijk groot worden.
En die van 9 naar 10 niet? Iedere keer hoor je zo'n reacties en op die manier kan je blijven wachten. Op die manier blijf je gewoon met een Voodoo 1 3Dfx kaart in je PC steken. Als je wil/moet upgraden, dan doe je dat gewoon. Er zijn tal van leuke grafische kaarten op de markt: voor elk wat wils (prijs/kwaliteit/performance).

Het is leuk om te zien dat de ontwikkeling van grafische kaarten in 2009 weer even snel doorgaat. Leuk in het opzicht dat zowel ATI en NVIDIA mekaar hard beconcurreren waardoor we in een goede concurrende positie zitten met scherpe prijzen voor snelle kaarten. Anders zou 500 euro wel eens een gangbare prijs kunnen geweest zijn voor een goede/snelle grafische kaart.
Maakt dat uit dan. Volgens mij was dx10 hardware compatibel met dx11 of vergis ik mij nu?
Ja maar als je weet dat binnen afzienbare tijd iets nieuws uit komt zoals nu het geval is, dan loont het zich.

Het is natuurlijk onzin om te wachten op de volgende generatie als de RV740 en RV790 net uit is.
Nvidia stapt nu toch ook over van het 512bit GDDR3 geheugen naar het 256bit GDDR5 geheugen? Waarschijnlijk is de bandbreedte toch hoger. Bestaat er eigenlijk wel 512bit GDDR5?
Nee, maar er bestaat ook geen 256 bit GDDR5 ;)
Een 256bit bus betekent dat de totale busbreedte 256 bit is. Dit wordt meestal met meerdere chips met een 32 bit bus gedaan. 512 bit betekent gewoon twee keer zoveel chips.
Blij om te horen dat AMD het goed blijft doen op GPU niveau! Met de CPU's hebben ze ook weer de goede weg ingeslagen. Nu wordt een Dragon platform wel erg interessant!
Op dit moment is zowel de snelste GPU (Nvidia) als processor (Core i7) niet van AMD. Het dragon platform is dus alleen budgetwise interessant. En ik betwijfel of ze met beide tegelijk de performancekroon kunnen pakken. Dan IS het dragonplatform pas interessant..............
Budgetwise? Het is niet alsof je met een phenom 2 en een flinke amd videokaart heel erg budgetechtig bezig bent. Amd bied gewoon een heel goede prijs/prestatie verhouding en zeker met een dragon platform heb je net dat extra stukje prestatie wat toch altijd leuk is meegenomen. De absolute prestatiekroon is trouwens ook niet erg belangrijk voor de meeste mensen. Het moet gewoon goed presteren in verhouding met andere producten en zeker als het weinig scheelt qua prestaties en toch veel goedkoper is weet ik het wel!
hoezo is het pas bij de absolute snelste gpu interessant en bij een wat minder snelle voor veel minder niet? dat is je reinste onzin, juist dat de prijs heel interessant is en daarmee nvidia dwingen de prijzen lager te houden zorgen ze voor meer concurrentie en mogelijkheden voor ons als consument.
Daarbij is het dragonplatform zeker wel interessant met de komst van de nieuwe phenoms II omdat deze een stuk beter presteren tov de intels. niet beter maar wel een stuk beter dan de vorige generatie waarbij de lage kosten voor een relatief goede prestaties op normaal gamegebied des te leuker zijn.

Je kan met een dragon platform voor 800 e een serieuze gamepc in elkaar zetten, die vrijwel alles kan draaien op hoog niveau. Wil je echt top of the line betaal je in verhouding veel meer voor maar 10-15% meer prestaties.
Mijn volgende systeem hangt erg af van hoe goed de nieuwe phenoms presteren tov de nieuwe mainstream i7 cpu's.
Dus het is wel degelijk goed nieuws ook al hebben ze de prestatiekroon niet meer op dit moment.
Nee niet de snelst, maar net stapje lager zit AMD/AIT wel, maar kosten zitten ze twee of drie stappen lager. :) Dus het is wel een hele interessant platform voor mensen die niet zo zeer helemaal vooraan hoeven te staan, maar wel meer dan zat prestatie willen hebben voor de komend jaar, blijft het nog beetje leuk en betaalbaar,, volgend jaar is het toch niks meer waard, of je nu i7 neemt of Phenom of ATI of nvidia kaart, volgend jaar heb je voor habbekrats een sneller cpu en kaart. :D
Blijft de geheugenbus van de Ati kaarten 256bit dan? Of gaan ze sneller GDDR5 gebuiken?
ik heb op fudzilla net gelelzen dat AMD ook de kleinere kaarten met GDDR5 gaat uitrusten en de busbreedte gaat verlagen naar 128bit...
Logisch - busbreedte is echte hardware, banen koper op je PCB. Voor de snelheid moet het uit de lengt of de breedte komen. 256 bits * lage clock = 128 bits * hoge clock. GDDR5 was initieel nog te duur om de besparing op koper te rechtvaardigen, maar de GDDR5 prijs daalt sneller dan de koperprijs.
Of gaan ze sneller GDDR5 gebuiken?
AMD gebruikt al GDDR5. Er is geen reden om daar van af te stappen. En een 256bit bus biedt icm GDDR5 genoeg bandbreedte, wat ook de reden is dat nVidia hetzelfde doet.

[edit.]
@ Hieronder

Ah, zo! Het lijkt me vrij logisch dat ze voor de topmodellen sneller GDDR5 gaan gebruiken?

De bandbreedte van het geheugen is tegenwoordig bij dat soort kaarten prima afgesteld op wat de kaart echt nodig heeft. Teveel levert namelijk direct onnodige extra kosten op per kaart. ATI/nVidia kiest het liefst voor de oplossing die in hun ogen het meest efficiënt is om de prestaties te halen die ze willen bereiken.
Dus als de kaart meer bandbreedte nodig heeft, wat logisch is, dan prikken ze er sneller GDDR5 op.

[Reactie gewijzigd door houseparty op 12 januari 2009 13:05]

Volgens mij bedoelt garf75 met sneller GDDR5 als in hoger geklokte GDDR5.

Hij ziet de noodzaak om een hogere geheugenbandbreedte dan nu te hebben en weet dat dit kan door ofwel de geheugenbusbreedte te verhogen, ofwel de kloksnelheid van het geheugen te verhogen. Hij vroeg zich dus af of dat tweede het geval zal zijn.
wat fijn om van iemand te lezen dat hij mij begrijpt :) Ik zat nl.ook al te denken aan de DX11 generatie kaarten en dat ze dan weer aan busbreedtes zullen gaan sleutelen of dat het toch komende generatie kaarten al meer busbreedte gaan krijgen.

Als ik de post nog een keer lees denk ik het eerste, aangezien het een die-shrink is, dus geen nieuw ontwerp
We zijn net van 512bit weer terug bij 256bit, omdat zoals al is gezegd de kosten niet opwegen tegen de prestatie voordeel, en GDDR5 al meer dan snel zat is.

Ik vermoed dat die 512bit een uitstapje is geweest die we niet snel weer terug zien, vooral in deze tijd zal kosten nog een grotere rol gaan spelen.

[Reactie gewijzigd door mad_max234 op 12 januari 2009 15:29]

Vergeet niet dat NVIDIA voor de 512bit bus ook nog gebruik heeft gemaakt van 384 bit. Dat is ook nog een optie voor toekomstige single-chip high-end kaarten.
Ik vind het altijd prachtig om deze reacties te lezen. Geweldig hoe mensen proberen te gokken wat er gaat gebeuren. Ik vind het allemaal goed, ATI fanboy of NVDIA fanboy.
Als je het is objectief bekijkt kan ik maar 1 conclusie trekken. De strategieen tussen beide bedrijven ontlopen elkaar niet zoveel. Ze willen alle 2 de snelheids kroon dragen en zoveel mogelijk in het midden segment verkopen. Gevolg, de consument die goed, kritisch kijkt zal altijd voor een mooie prijs aan zijn GPU komen. Of er nou ATI of NVIDIA staat zal over het algemeen de meerderheid van de kopers een biet wezen. Ze kijken toch naar het kostenplaatje uiteindelijk.
Dat ze allebei de snelheidskroon willen dragen en zoveel mogelijk kaarten in het middensegment willen verkopen lijkt me nogal wiedes. Er moet immers winst gemaakt worden en dat gebeurt vooral door veel te verkopen. Als mensen weten dat jij de snelste high-end kaart hebt zullen ze (als ze er niet al teveel verstand van hebben) ook eerder een midrange kaart van je kopen.

Ik denk dat er wel een aardig verschil zit in de strategie van Ati en Nvidia. Ati maakt een modulair ontwerp, terwijl Nvidia juist een beest van een chip bakt. Beide hebben voor- en nadelen, maar zijn toch echt niet hetzelfde.
Nee, zo werkt het niet. Je kunt in principe met alle typen geheugen verschillende grootte geheugenbussen gebruiken. Dus ook GDDR5 met een 512-bit bus.
Betekent dit dat ze overstappen op twee verschillende chips ipv. een enkele RV770 van HD4xxx generatie...?
Nee, 40nm is veel goedkoper voor Ati dan 55nm, dus zullen ze volledig op 40nm overgaan.
Wow :)

Als ATI straks met de RV740 een Radeon HD5670 kan maken die gelijk presteert aan een Radeon HD4830 zoals de geruchten gaan maar dan met het formaat/stroomgebruik/prijs van een HD4670, dan hebben ze wel een klapper op stapel! Met een 4670 kun je nog steeds uitstekend gamen, laat staan de 4830/GeForce 9800GT.
Ben eigenlijk heel erg lang pro-nvidia geweest.
Maar de huidige marketings strategie valt me vies tegen.

Heb na het RMA doen van mijn 8800GTX een HD4870 terug genomen en deze bevalt eigenlijk erg goed. Vrijwel alle problemen die ik voorheen had met ATI kaarten en niet met de concurrent leken verdewenen. (Had met sommige minder bekende applicaties/spellen altijd gezeur en vreemde driverproblemen).
Ondanks dat mijn werkervaring heeft geleerd dat de uitval toch hoger is bij ATI, lijkt het de laatste paar jaar allemaal enorm gestabiliseerd.

Daar komt nog de rede bij dat nvidia de laatste periode een achterstand lijkt te hebben met hun drivers. Zo krijgen ze bijvoorbeeld in Vista naar mijn weten nog steeds geen 'Pillar boxing' voor elkaar op breedbeeld monitoren.

Ik zal daarom zelf zeker afwachten op de nieuwe generatie GPU's van ATI/AMD en niet blindelings upgraden naar een GTX285/295 voor iets betere performance.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True