Door Marc Rademaker

Redacteur

GTX480: Nvidia's nieuwe monster-gpu

27-03-2010 • 00:00

280

Multipage-opmaak

Heter, groter, sneller?

Wie de afgelopen maanden de geruchten over Nvidia's Fermi-architectuur heeft gevolgd, weet dat er de nodige twijfels omtrent de nieuwe gpu's waren. De chips zouden te groot zijn en te heet worden, en eigenlijk hadden ze veel eerder moeten uitkomen: er moest ruim een half jaar op de nieuwe kaarten worden gewacht.

Tot nog toe kon er alleen gespeculeerd worden, maar nu zijn de GTX470 en de GTX480 dan toch eindelijk officieel uitgebracht. De gpu is inderdaad zonder meer groot, maar 'te heet' is een relatief probleem, dat met een stevige koeler kan worden aangepakt. Dan blijft de vraag of Nvidia niet te veel tijd voor de ontwikkeling heeft genomen: AMD zit ook niet stil.

Tweakers.net ontving van Nvidia de GTX480 en onderzocht onder meer het energieverbruik, de benodigde koeling en de bijbehorende geluidsproductie, en onderwierp het nieuwe topmodel aan twaalf verschillende benchmarks. Ook werd er gekeken naar de tesselation-techniek, die mensen moet laten warmlopen voor DirectX 11. Tot slot keken we of de grafische kaart ruimte voor overklokken biedt.

Nvidia GTX 480

De ontwikkeling van GF100

Nvidia richt zich niet alleen op gamers, maar probeert ook andere markten te bedienen. Om duidelijk te maken dat hun nieuwe gpu's ook als gpgpu bruikbaar zijn, werd de nieuwe architectuur Fermi genoemd, naar de Italiaanse winnaar van de Nobelprijs voor de natuurkunde. Alle videokaarten in de 400-serie worden dus gemaakt op basis van de Fermi-architectuur. De gpu's van de eerste Fermi-kaarten, de GTX470 en de GTX480, dragen de codenaam GF100. Andere varianten, voor het mainstream- en budgetsegment, gaan hoogstwaarschijnlijk GF104 en GF108 heten.

We zullen in deze review niet uitgebreid ingaan op de Fermi-architectuur, aangezien die al is besproken toen Nvidia de zogenaamde Fermi-whitepaper publiceerde. We zullen echter wel ingaan op enkele praktische details, zoals het productieprocedé. Dat heeft Nvidia namelijk nog voor de nodige problemen gesteld.

Fermi vs. Cypress: 529mm² vs 334mm²

De GTX470 en de GTX480 hebben dezelfde gpu aan boord, maar beschikken over respectievelijk 448 en 480 Cuda-cores. Nvidia mikte voor de GTX480 op 512 Cuda-cores, maar dat bleek niet haalbaar. Volgens geruchten was de yield - het aantal bruikbare gpu's dat uit een wafer komt - van de GF100 rampzalig: er zou per wafer slechts één gpu met 512 werkende Cuda-cores kunnen worden geoogst.

GF100-gpu

Dat heeft natuurlijk alles te maken met de grootte van de GF100. Hoe groter de gpu is, hoe groter de kans dat er defecten aanwezig zijn die tot een onbruikbare gpu leiden. De chip meet 529mm² en is dan ook bijna 200mm² groter dan AMD's Cypress-gpu, die 334mm² groot is. AMD had al genoeg problemen met TSMC's 40nm-procedé, laat staan Nvidia, dat een nog veel grotere gpu probeerde te bakken. Met één bruikbare gpu per wafer kan geen enkele videokaart in serie geproduceerd worden, dus moest Nvidia een goede balans vinden tussen prestaties, verbruik, en de yields.

Het aantal werkzame transistors op een gpu is deels afhankelijk van de spanning die je erop zet, maar hoe hoger de spanning, hoe hoger het verbruik komt te liggen. De spanning kan dus niet oneindig verhoogd worden. Een bijkomend probleem is dat een gpu met een grotere diesize wel meer transistors kan bevatten, maar die transistors behoeven allemaal energie om te kunnen schakelen. Die energie wordt omgezet naar warmte, en die moet wel afgevoerd kunnen worden. Als laatste zijn er nog de kloksnelheden, waarbij Nvidia ook enige speelruimte heeft. Lagere kloksnelheden gaan namelijk gepaard met minder spanning en dus een lager energieverbruik.

GTX 480 PCB

Gaandeweg wist TSMC het productieproces te verbeteren, terwijl Nvidia enkele zogenaamde metal-layer respins uitrolde om de yields op te krikken. Toch moest Nvidia er bij de GTX480 voor kiezen om een van de 16 Streaming Multiprocessors uit te schakelen, waardoor er 15 overblijven, die samen goed zijn voor 480 Cuda-cores. De GTX470 werd uitgerust met een gpu met twee uitgeschakelde SM's. Deze maatregel verhoogde de yields met honderden procenten, waardoor de helft van het aantal gpu's uit een wafer nu bruikbaar zou zijn.

Hoeveel Nvidia voor een wafer betaalt en hoeveel het bedrijf dus uiteindelijk kwijt is voor een gpu is puur giswerk. Ook de prijs die Nvidia aan zijn partners rekent zal niet snel op straat komen te liggen. Ondanks de vele problemen, die er onder andere voor zorgden dat het verbruik van de GTX480 gevaarlijk dicht in de buurt kwam van 300W, zouden de GTX470 en GTX480 vanaf april volop te koop zijn.

Schaalbaarheid

Het is natuurlijk de bedoeling dat Nvidia ook videokaarten uit gaat brengen die het mainstream- en het budget-segment bedienen. Het is echter nog onduidelijk wanneer er videokaarten op basis van de GF104- en GF108-gpu's zullen verschijnen. De meest concrete indicatie komt van Jen-Hun Huang, Nvidia' ceo, die zei dat er vanaf mei ook 'andere' Fermi-kaarten te koop zullen zijn.

Het is nog afwachten over hoeveel Cuda-cores deze afgeleide chips beschikken. Nvidia koos voor een schaalbaar ontwerp, wat zowel voor- als nadelen heeft. De chipbakker claimt namelijk dat de geometrische prestaties met een factor 8 zijn toegenomen ten opzichte van de GT200-gpu's. Wanneer er echter Streaming Multiprocessors moeten worden uitgeschakeld, verdwijnen er ook zogenaamde Polymorph Engines, en dat zal de geometrische prestaties niet ten goede komen.

GF100-blokdiagram

De GTX4x0 in cijfers

Om de prestaties van de nieuwe videokaarten in perspectief te zetten, geven we hier een tabel met de verschillende specificaties van zowel de oude als de nieuwe high-end kaarten van Nvidia.

GTX285 GTX295 GTX470 GTX480
Videochip GT200b GT200b x2 GF100 GF100
Transistors 1400m 1400m x2 3200m 3200m
Diesize 487mm2 487mm2 x2 529mm2 529mm2
Procedé 55nm 55nm 40nm 40nm
Technische Specificaties
Cuda-cores 240 2x240 448 480
ROP's 32 2x28 40 48
Texture units 80 2x80 56 64
Kloksnelheid 648/1476MHz 576/1242MHz 607/1215MHz 700/1401Mhz
Geheugenbus 512bit 2x448bit 320bit 384bit
Geheugen 1GB gddr3 2x896MB gddr3 1280MB gddr5 1536MB gddr5
Geheugensnelheid 2484MHz 1998MHz 3348MHz 3696Mhz
TDP 183W 289W 215W 250W
Lengte 24,13cm 26,67cm
Prijs $400 $500 $349 $499

Tesselation

Het begrip tesselation kwam in de review van de HD 5870 al naar voren. Tesselation is een techniek die door zowel Nvidia als door AMD veelvuldig gebruikt wordt. Samen met de displacement-mapping-techniek, die voor hoogteverschillen zorgt, kan hiermee namelijk op relatief eenvoudige wijze voor extra detail worden gezorgd. Kort gezegd neemt het aantal driehoeken waarmee een beeld wordt opgebouwd met een factor 10 tot 100 toe. Enkele DX11-games, zoals DiRT 2, Metro 2033 en Stalker: Call of Pripyat maken al gebruik van deze techniek. Behalve in deze spellen wordt tesselation ook toegepast in de Unigine Heaven-benchmark en in de zogenaamde Stone Giant-applicatie.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Een andere voorbeeld is een applicatie die water en een rotsachtig landschap rendert. De mate van tesselation kan worden aangepast en er kan gekozen worden voor statische of dynamische tesselation. Het filmpje hieronder laat zien wat er gebeurt als er voor dynamische tesselation wordt gekozen. Met statische tesselation is de mate van tesselation overal constant, ongeacht hoe dichtbij of ver weg het te renderen object is. Bij dynamische tesselation is goed te zien dat de bergen in de achtergrond als eerste hun detail verliezen.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Nvidia vs. AMD

Een van de verschillen tussen de DirectX 11-kaarten van Nvidia en AMD is de manier waarop tesselation wordt afgehandeld. AMD heeft een zogenaamde fixed-function unit, die de tesselation voor zijn rekening neemt. Bij Nvidia zijn het de Cuda-cores die de tesselation afhandelen. Dit betekent niet dat er bij AMD geen performance hit is als er tesselation wordt toegepast: ook de streamprocessors moeten extra werk verzetten, net als de rasterizers die alles op het beeld moeten toveren.

Bij Nvidia kunnen alle Cuda-cores voor tesselation worden ingezet, waardoor relatief zware tesselation-taken geen probleem voor de GF100-gpu zijn. Daar staat tegenover dat de Cuda-cores ook andere taken kunnen krijgen, waardoor tesselation alsnog voor een flinke prestatiedip kan zorgen. Het moet nog blijken welke gpu het beste omgaat met DirectX 11-spellen en met de tesselation die daarin gebruikt wordt.

Testsysteem

Het testsysteem is opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat vermeld. Bij deze review zijn de ATI-kaarten met versie 10.3a van de Catalyst-drivers aangestuurd en de Nvidia-kaarten met versie 197.25 van de Geforce-drivers. Voor de benchmarks zijn de volgende games van de plank gehaald: Call of Duty: Modern Warfare 2, Crysis: Warhead, Far Cry 2, Stalker: Call of Prippyat, DiRT 2, Tom Clancy's H.A.W.X, Batman: Arkham Asylum, Metro 2033, Dawn of War II: Chaos Rising en Battlefield: Bad Company 2. Ook van deze games zijn, voor zover beschikbaar, alle patches geïnstalleerd. Indien mogelijk is van de interne benchmarks van de games gebruikgemaakt.

Testsysteem
Moederbord EVGA X58 Classified
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten

Asus HD 5870
Gigabyte HD 5850
Asus GTX 295
Nvidia GTX 480
Sapphire HD 5970
MSI GTX 285

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit platform zal bij het uitvoeren van de benchmarks niet snel een bottleneck vormen. Ook biedt het platform de mogelijkheid om videokaarten in sli- en in CrossFire-modus te draaien.

Elke game is getest op de resoluties 1680x1050, 1920x1200 en 2560x1600. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige ingame-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multi-sampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

Vantage en Unigine

We beginnen onze benchmarkreeks met de synthetische benchmarks Vantage en Unigine Heaven. Vantage maakt geen gebruik van DirectX 11, maar is desondanks een zware kluif voor menig videokaart. Unigine doet juist wel een beroep op DirectX 11 en past onder andere veel tesselation toe. We maakten gebruik van de pas uitgegeven Heaven 2.0-benchmark, die een aantal verbeteringen zou kennen. Het tesselation-niveau is instelbaar op moderate, normal of extreme. AMD claimt dat moderate een realistische hoeveelheid tesselation biedt zoals we dat in games zullen tegenkomen. We maakten echter gebruik van de normal-setting, omdat de verschillen tussen de videokaarten dan beter uit de verf komen.

3DMark Vantage - Performance
GPUScore (punten, hoger is beter)
HD 5970
*********
25.283
GTX295
******
18.559
HD 5870
******
18.365
GTX480
******
17.445
HD 5850
*****
15.280
GTX285
****
12.261

Met de Performance-preset laat de GTX480 het enigszins afweten. Zowel de HD 5870 als de GTX295 zijn sneller. Nvidia heeft waarschijnlijk nog niet erg veel tijd in optimalisatie van de GTX480-drivers voor Vantage gestoken.

Unigine Heaven 2.0 - Normal
GPUScore (punten, hoger is beter)
HD 5970
*********
1.308
GTX480
********
1.214
HD 5870
*****
816
HD 5850
*****
711

De Unigine Heaven 2.0-benchmark laat een heel ander verhaal zien. De GTX285 en de GTX295 vallen bij voorbaat af omdat deze kaarten geen DX11 ondersteunen. De GTX480 is de rest van zijn concurrenten te snel af; alleen de HD 5970, met twee gpu's, weet de nieuwe Nvidia-kaart te verslaan. Uiteraard betekenen deze cijfers nog niet dat de GTX480 ook in echte spellen goed presteert, maar het verschil met de HD 5870 is toch aanzienlijk.

Far Cry 2

Far Cry 2 is van nature een spel dat goed draait op Nvidia-kaarten en we verwachten dan ook indrukwekkende prestaties van de GTX480.

Far Cry 2 - 1680x1050 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
89,7 / 119,0
GTX480
******
+
**
86,5 / 108,3
GTX295
****
+
*
64,4 / 83,3
HD 5870
****
+
*
56,3 / 77,0
GTX285
****
+
*
53,3 / 67,9
HD 5850
***
+
*
47,3 / 65,3

De GTX480 stelt niet teleur: de kaart maakt korte metten met de Radeon HD 5870 en komt zelfs erg dicht in de buurt van de prestaties van de twee gpu's van de HD 5970.

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
77,1 / 104,0
GTX480
******
+
**
72,6 / 92,1
GTX295
****
+
**
57,5 / 75,4
HD 5870
****
+
*
49,8 / 67,5
GTX285
***
+
*
44,3 / 57,2
HD 5850
***
+
*
40,5 / 56,8

Op 1920x1200 wordt het de videokaarten iets moeilijker gemaakt en de verschillen nemen dan ook toe. De HD 5970 weet wel iets weg te lopen van de GTX480, die echter nog een flink gat weet te slaan met de HD 5870 en de GTX295.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
52,4 / 72,4
GTX480
*****
+
**
47,6 / 62,8
GTX295
****
+
**
40,9 / 56,3
HD 5870
****
+
**
33,7 / 47,8
GTX285
***
+
*
31,4 / 41,3
HD 5850
***
+
**
27,1 / 40,0

Op de allerhoogste resolutie is de GTX480 ongeveer anderhalf keer zo snel als de GTX285, die het met de helft van het aantal Cuda-cores moet doen en lagere kloksnelheden heeft. De achterstand op de HD 5970 wordt weer iets groter.

Crysis: Warhead

Crysis Warhead is al een oude bekende. Hoewel het spel al in september 2008 verscheen, is het nog steeds een van de zwaarste spellen, al bestaat het vermoeden dat de engine niet erg efficiënt is.

Crysis Warhead - 1680x1050 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
43,0 / 54,9
GTX295
*****
+
*
36,3 / 44,8
HD 5870
*****
+
*
31,7 / 40,7
GTX480
*****
+
*
31,5 / 39,3
HD 5850
****
+
*
25,7 / 33,9
GTX285
***
+
*
22,6 / 27,4

De GTX480 zet op 1680x1050 vreemde prestaties neer: de GTX295 presteert beter. We hebben dat al eens eerder gezien: AMD's HD 4870X2 was sneller dan de HD 5870, ook al waren de specificaties vergelijkbaar. Dit kan te wijten zijn aan het feit dat de gpu's van de dual-gpu-kaarten elk over een eigen geheugenbus beschikken, terwijl de HD 5870 en de GTX480 het met een enkele bus moeten doen.

Crysis Warhead - 1920x1200 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
34,3 / 46,9
GTX295
*****
+
**
29,5 / 38,0
HD 5870
*****
+
*2
27,0 / 34,5
GTX480
****
+
*
26,0 / 32,5
HD 5850
***
+
*
19,7 / 25,8
GTX285
***
+
*
18,6 / 23,2

Ook op 1920x1200 presteert de GTX480 onder de maat, alhoewel het verschil met de GTX295 iets af lijkt te nemen.

Crysis Warhead - 2560x1600 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
19,8 / 29,2
GTX295
*****
+
**
19,0 / 24,3
GTX480
****
+
*
16,0 / 20,7
HD 5870
****
+
*
16,0 / 20,4
HD 5850
***
+
**
12,5 / 19,0
GTX285
***
+
*
12,0 / 14,5

Pas op 2560x1600 weet de GTX480 het gat met de HD 5870 te dichten, maar alle videokaarten hebben de grootst mogelijke moeite met deze resolutie, waardoor de verschillen klein zijn.

Stalker: Call of Pripyat

Bij de ontwikkeling van Call of Pripyat had ATI naar verluidt een flinke vinger in de pap. In benchmarks van Clear Sky, het vorige deel, gingen de kaarten van ATI en Nvidia echter redelijk gelijk op, dus ook voor Pripyat verwachten we een dergelijke verhouding.

De DirectX 11-kaarten draaien bij deze test in DX11-modus, terwijl de DX10-kaarten - uiteraard - DirectX 10 gebruiken. De vergelijking is niet helemaal eerlijk, omdat de DX11-kaarten nu een beter beeld geven. De DX11-kaarten presteren in de DX10-modus echter minder goed dan onder DX11, zodat de betere beeldkwaliteit maar als bonus moet worden gezien.

Stalker: CoP - 1680x1050 - DX11 - max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
41,1 / 70,2
GTX480
****
+
**
33,0 / 49,0
HD 5870
****
+
*
32,4 / 41,3
HD 5850
***
+
*
25,1 / 36,4
GTX295
**
+
**
18,0 / 34,0
GTX285
**
+
*
16,4 / 21,9

De GTX295 en GTX285, beide DirectX 10-kaarten, laten het volledig afweten. In het rijtje DX11-kaarten kan de GTX480 goed meekomen, maar alleen de gemiddelde framerate ligt significant hoger dan die van de HD 5870.

Stalker: CoP - 1920x1200 - DX11 - max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
35,0 / 57,6
GTX480
****
+
**
28,0 / 41,0
HD 5870
****
+
*
26,7 / 33,5
HD 5850
***
+
*
20,4 / 29,4
GTX295
**
+
**
14,0 / 27,0
GTX285
**
+
*
13,0 / 17,4

Op 1920x1200 neemt de GTX480 iets meer afstand van de HD 5870, maar de minimumscores zijn opnieuw niet veel beter dan die van de ATI-kaart.

Stalker: CoP - 2560x1600 - DX11 - max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
***
25,3 / 36,1
GTX480
****
+
**
18,0 / 26,0
HD 5870
****
+
*
18,0 / 22,5
HD 5850
***
+
*
14,9 / 18,2
GTX295
**
+
**
8,5 / 16,0
GTX285
**
+
*
8,0 / 10,3

Op de hoogste resolutie lijkt de HD 5870 het gat met de nieuwe Nvidia-kaart iets kleiner te kunnen maken, maar de GTX480 weet de voorsprong bij de gemiddelde framerates vast te houden.

DiRT 2 - DirectX 9

DiRT 2 is een echte ATI-titel. Het spel werd uitgesteld voor de pc, zodat er enkele DirectX 11-technieken konden worden toegevoegd, zoals tesselation. We testen de prestaties met acht auto's op het London-circuit.

DiRT 2 wordt getest met zowel het DX9- als het DX11-renderpath, met alle instellingen op de hoogste stand, terwijl er 4xAA en 16xAF wordt toegepast. We beginnen met de DirectX 9-benchmarks.

DiRT 2 - 1680x1050 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*******
+
**
97,9 / 117,5
GTX480
*******
+
*
103,1 / 115,5
GTX295
*****
+
*
78,9 / 95,9
HD 5870
*****
+
*
74,8 / 87,8
HD 5850
*****
+
*
68,5 / 79,0
GTX285
****
+
*
55,4 / 68,3

Op 1680x1050 zijn de GTX480 en de HD 5970 vrijwel even krachtig, en we vermoeden dan ook dat hier sprake is van een cpu-bottleneck. De GTX480 laat de HD 5870 en ook de GTX295 met gemak achter zich.

DiRT 2 - 1920x1200 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*******
+
*
96,3 / 111,9
GTX480
******
+
*
90,8 / 102,1
GTX295
*****
+
*
70,3 / 87,5
HD 5870
*****
+
*
69,3 / 80,5
HD 5850
*****
+
*
64,9 / 75,1
GTX285
****
+
*
52,6 / 63,7

Op 1920x1200 lijkt de invloed van de cpu af te nemen: de GTX480 zet in ieder geval mindere prestaties neer, terwijl de HD 5970 nog nagenoeg hetzelfde aantal fps weet te produceren als op 1680x1050. De GTX480 is de naaste concurrenten wederom te snel af.

DiRT 2 - 2560x1600 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*******
+
*
81,4 / 95,7
GTX295
*****
+
*
66,5 / 77,1
GTX480
*****
+
*
62,9 / 72,4
HD 5870
****
+
*
52,8 / 62,6
HD 5850
****
+
*
46,4 / 54,4
GTX285
***
+
*
41,9 / 48,5

Op de hoogste resolutie lijkt de cpu-bottleneck niet meer van invloed te zijn en neemt de HD 5970 eindelijk serieus afstand van de GTX480. Ook de GTX295 is de GTX480 te snel af, waarschijnlijk vanwege de extra geheugenbandbreedte. Het verschil met de HD 5870 is afgenomen.

DiRT 2 - DirectX 11

Ditmaal wordt er voor het DirectX 11-renderpath gekozen, met wederom alle settings op zijn hoogst, terwijl er 4xAA en 16xAF wordt toegepast. De benchmark wordt overigens enkele malen uitgevoerd op het London-circuit, met acht auto's.

DiRT 2 - 1680x1050 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
**
85,3 / 102,2
GTX480
*****
+
*
62,8 / 79,0
HD 5870
*****
+
*
60,1 / 72,6
HD 5850
*****
+
*
59,1 / 67,6

Zodra er gebruik wordt gemaakt van het DirectX 11-renderpath, verdwijnt de voorsprong van de GTX480 als sneeuw voor de zon. De GTX480 heeft namelijk veel meer te lijden onder de extra rekentaken dan de HD 5870.

DiRT 2 - 1920x1200 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
78,6 / 92,2
GTX480
*****
+
*
56,5 / 68,8
HD 5870
*****
+
*
53,1 / 64,8
HD 5850
****
+
*
51,7 / 60,8

Op 1920x1200 zien we dat de GTX480 wederom nog slechts een voorsprong heeft van enkele procenten. De HD 5970 is ruim 25 procent sneller.

DiRT 2 - 2560x1600 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
59,0 / 67,3
HD 5870
*****
+
*
38,8 / 47,3
GTX480
****
+
*
35,5 / 46,7
HD 5850
****
+
*
33,9 / 41,0

Op 2560x1600 is de HD 5870 sneller dan de GTX480. Hier valt goed te zien dat de HD 5870 een fixed-function unit voor de tesselation aan boord heeft, waardoor er ook op 2560x1600 voldoende rekenkracht voor andere taken is. Bij de GTX480 zit er geen rek meer in de Cuda-cores en zorgt tesselation voor een extra performance hit.

CoD: Modern Warfare 2

Call of Duty: Modern Warfare is afkomstig van Infinity Ward, en ondanks AMD's claims dat het een goede relatie heeft met de ontwikkelaars, is het spel vrij neutraal te noemen. Het voorgaande deel, Call of Duty: World at War, is een game waar de videokaarten van Nvidia in uitblinken. We zullen zien of ze die lijn voort kunnen zetten in Modern Warfare 2.

Call of Duty: Modern Warfare 2 - 1680x1050 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
116,8 / 156,2
GTX295
*****
+
**
93,0 / 130,4
GTX480
***
+
**
67,6 / 102,1
HD 5870
***
+
**
66,8 / 96,6
GTX285
***
+
*
60,0 / 85,7
HD 5850
***
+
*
56,3 / 81,9

De scores van de GTX480 vallen enigszins tegen. De HD 5870 wordt maar net verslagen, terwijl de GTX295 een stuk sneller is - maar met een beetje geluk kan Nvidia nog wat extra performance uit zijn drivers persen.

Call of Duty: Modern Warfare 2 - 1920x1200 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
94,3 / 128,9
GTX295
*****
+
***
78,3 / 115,6
GTX480
***
+
**
54,2 / 89,0
HD 5870
****
+
**
55,8 / 83,4
GTX285
***
+
**
50,0 / 75,9
HD 5850
***
+
**
47,5 / 75,3

Ook op 1920x1200 presteert de GTX480 onder de maat; de kaart is opnieuw amper sneller dan de GTX285 en de HD 5970 zet ruim zeventig procent hogere minimumframerates neer.

Call of Duty: Modern Warfare 2 - 2560x1600 - Max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
68,0 / 100,8
GTX295
***
+
***
45,0 / 85,0
GTX480
***
+
**
39,0 / 63,8
HD 5870
***
+
**
34,8 / 60,7
HD 5850
**
+
**
30,6 / 54,5
GTX285
***
+
*
33,0 / 50,3

Op de hoogste resolutie weet de GTX480 het verschil met de HD 5870 iets te vergroten, maar desondanks is de GTX295 nog steeds sneller. De HD 5970 is een dikke 50 procent sneller.

DoW II: Chaos Rising

De realtime strategy game Dawn of War II: Chaos Rising is een nieuw spel in onze benchmarksuite. De ingebouwde benchmark rapporteert echter nogal vreemde resultaten, en dat was voor ons reden om de framerates met het programma Fraps bij te houden. Verder is de ingame antialiasing uitgezet; de viervoudige antialiasing wordt afgedwongen door de drivers.

DoW II: Chaos Rising - 1680x1050 - max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
****
+
****
46,0 / 83,4
GTX295
***
+
*****
27,8 / 80,7
HD 5870
****
+
****
41,3 / 79,6
GTX480
***
+
****
32,7 / 76,2
GTX285
**
+
****
17,8 / 62,7
HD 5850
***
+
***
31,7 / 58,0

De benchmark in Dawn of War is behoorlijk zwaar, met veel ontploffingen en rondvliegende eenheden, en zeer veel soft particles. In het begin van de benchmark lijkt de cpu de bottleneck te zijn, waardoor de gemiddelden redelijk dicht bij elkaar in de buurt liggen. We zien echter dat de Nvidia-kaarten veel lagere minima neerzetten. De HD 5870 is ongeveer 25 procent sneller dan de GTX480, die wel weer betere minima laat noteren dan de GTX295.

DoW II: Chaos Rising - 1920x1200 - max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
****
+
****
46,0 / 84,2
HD 5870
***
+
*****
32,8 / 81,4
GTX295
**
+
*****
22,5 / 74,3
GTX480
**
+
*****
27, 0 / 73,7
HD 5850
***
+
***
30,7 / 60,0
GTX285
*
+
****
15,8 / 53,3

Op 1920x1200 zien we vreemde resultaten. De HD 5970 is net zo snel als op 1680x1050 en laat zelfs hogere gemiddelde framerates zien. De HD 5870 levert juist veel in ten opzichte van de lagere resolutie, terwijl de GTX480 weer minder last van de resolutieverhoging heeft. Ook de HD 5850 zet vrijwel dezelfde framerates neer als op 1680x1200.

DoW II: Chaos Rising - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
***
+
*****
32,3 / 80,5
HD 5870
**
+
*****
19,3 / 64,5
GTX480
**
+
****
16,8 / 55,3
GTX295
*
+
****
13,5 / 54,8
HD 5850
**
+
****
18,8 / 54,8
GTX285
*
+
***
9,3 / 35,3

Op 2560x1600 zijn de resultaten iets makkelijker te interpreteren. De HD 5970 is verreweg de snelste videokaart, maar de GTX480 loopt wel enigszins in op de HD 5870. De HD 5850 is daarentegen net zo snel als de GTX480.

Tom Clancy's HAWX

HAWX was lange tijd een van ATI's paradepaardjes, omdat het spel overweg kan met DirectX 10.1. Alle DirectX 11-kaarten beschikken echter ook over DirectX 10.1-functionaliteit, waardoor het speelveld voor alle kaarten gelijk is.

Hawx - 1680x1050 - Maximum - 4xAA/0xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
**
131,0 / 160,3
GTX480
*****
+
**
93,2 / 129,0
GTX295
****
+
*
87,2 / 112,1
HD 5870
****
+
**
74,3 / 103,9
HD 5850
***
+
*
65,0 / 88,3
GTX285
***
+
*
54,5 / 68,7

Op de laagste resolutie is de GTX480 een ruime 20 procent sneller dan de HD 5870, maar ongeveer 40 procent langzamer dan de HD 5970.

Hawx - 1920x1200 - Maximum - 4xAA/0xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
******
+
***
110,7 / 142,0
GTX480
****
+
**
78,8 / 106,4
GTX295
****
+
*
76,0 / 93,6
HD 5870
***
+
**
63,5 / 91,0
HD 5850
***
+
*
55,4 / 76,6
GTX285
**
+
*
42,0 / 58,8

Op 1920x1200 zijn de verhoudingen ongeveer hetzelfde. De GTX480 behoudt een flinke voorsprong op de HD 5870 en is weer rond de 40 procent langzamer dan de HD 5970.

Hawx - 2560x1600 - Maximum - 4xAA/0xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
66,2 / 95,1
GTX480
*****
+
**
55,0 / 72,2
HD 5870
****
+
**
48,2 / 71,8
GTX295
****
+
**
48,2 / 64,9
HD 5850
***
+
**
35,3 / 56,3
GTX285
**
+
*
27,7 / 39,8

Op 2560x1600 nemen de verschillen drastisch af. De HD 5970 is nog maar 20 procent sneller dan de GTX480, die op zijn beurt nog maar 14 procent sneller is dan de HD 5870.

Metro 2033 - DirectX 10

Metro 2033 is ook een nieuwkomer in onze benchmark-suite. Het spel is een zogeheten 'The Way It's Meant to Be Played'-titel van Nvidia. Dat houdt in dat Nvidia meehielp bij het optimaliseren van de graphics-engine en dat er hardwarematige ondersteuning voor PhysX is ingebouwd.

De engine kan overweg met DirectX 9, 10 en 11. Met DirectX 11 kunnen de opties tesselation en depth-of-field worden aangezet, maar zonder die twee opties is het net alsof het DirectX 10-renderpath gebruikt wordt. Er is dan ook besloten om de DirectX 11-kaarten ook zonder deze DX11-functies te testen, zodat ze met de GTX285 en de GTX295 vergeleken kunnen worden. We beginnen met deze vergelijking tussen DirectX 10 en de 'uitgeklede' DirectX 11; op de volgende pagina halen we de DX11-functionaliteit tevoorschijn.

Metro 2033 - 1680x1050 - DX10, DX11 zonder tess/dov
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
****
47,5 / 82,1
GTX480
*****
+
*
56,3 / 67,6
HD 5870
****
+
**
46,3 / 62,8
HD 5850
****
+
*
38,3 / 52,0
GTX295
***
+
**
27,8 / 45,4
GTX285
***
+
*
29,3 / 39,4

Op basis van de gemiddelde framerate is de HD 5970 de snelste videokaart. De GTX480 zet echter hogere minima neer. Het verschil tussen de minima van de GTX480 en de HD 5870 is ongeveer 20 procent. We zien verder dat er iets mis is met de schaling van zowel sli als CrossFire, aangezien alleen de gemiddelde framerates profiteren van een tweede gpu.

Metro 2033 - 1920x1200 - DX10, DX11 zonder tess/dov
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
42,8 / 68,9
GTX480
*****
+
*
45,7 / 54,3
HD 5870
****
+
**
38,7 / 51,4
HD 5850
***
+
**
30,8 / 42,3
GTX295
***
+
**
23,8 / 38,0
GTX285
***
+
*
24,8 / 32,9

Ook op 1920x1200 is de GTX480 de HD 5870 de baas, maar de voorsprong is minder groot. Wederom ziet het er naar uit dat een enkele gpu de minima bepaalt, aangezien zowel de HD 5970 als de GTX295 zich amper kunnen onderscheiden van de videokaarten met één gpu.

Metro 2033 - 2560x1600 - DX10, DX11 zonder tess/dov
GPUMinimum » gemiddelde score (fps)
HD 5970
*****
+
***
27,5 / 42,0
GTX480
*****
+
*
26,0 / 32,2
HD 5870
****
+
**
23,5 / 32,1
HD 5850
****
+
*
20,8 / 26,7
GTX295
***
+
**
14,0 / 23,9
GTX285
***
+
*
14,3 / 19,1

Pas op 2560x1600 weet de HD 5970 echt het verschil met de HD 5870 te maken, al houden de prestaties niet over. De prestaties van de GTX480 worden nu zo goed als geëvenaard door die van de HD 5870.

Metro 2033 - DirectX 11

In de volgende benchmarks van opnieuw Metro 2033 wordt het DX11-renderpath gebruikt en zijn de opties tesselation en depth of field aangevinkt. Tesselation zorgt al voor mindere prestaties, maar vooral depth of field, waarmee de achtergrond onscherp wordt gemaakt, slaat een flinke deuk in de framerates.

Metro 2033 - 1680x1050 - DX11 - max
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
26,8 / 42,0
GTX480
******
+
**
31,3 / 38,6
HD 5870
****
+
**
24,0 / 31,8
HD 5850
****
+
*
21,0 / 27,4

Op 1680x1050 duiken alle minimum framerates meteen onder de speelbare 30fps-grens - alleen de GTX480 blijft overeind. De nieuwe Nvidia-kaart is gemiddeld 25 procent sneller dan de HD 5870, en moet het alleen bij de gemiddelde fps afleggen tegen de HD 5970. Het mag duidelijk zijn dat CrossFire onder deze omstandigheden vrijwel geen nut meer heeft.

Metro 2033 - 1920x1200 - DX11 - max
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
***
24,3 / 34,7
GTX480
******
+
*
27,0 / 31,3
HD 5870
*****
+
*
21,0 / 26,0
HD 5850
****
+
*
18,0 / 22,4

Op 1920x1200 nemen de verschillen tussen de GTX480 en HD 5970 iets af. De HD 5870 verliest daarentegen extra terrein.

Metro 2033 - 2560x1600 - DX11 - max
GPUMinimum » Gemiddelde Score (fps)
GTX480
*******
+
*
16,0 / 18,8

Op 2560x1600 ontbreken de benchmarks van de ATI-kaarten, omdat die vrijwel volledig tot stilstand komen als alle opties aangezet worden. Het is onduidelijk wat er precies aan de hand is; op de andere resoluties presteren de ATI-kaarten redelijk. Wel duidelijk is dat de GTX480 een pyrrusoverwinning boekt: 18,8 frames per seconde is een volkomen nutteloze framerate.

Batman: Arkham Asylum

Batman: Arkham Asylum deed al aardig wat stof opwaaien vanwege de anti-aliasing-functie, die alleen bruikbaar is met Nvidia-kaarten. ATI-gebruikers kunnen de AA in het drivercontrolepaneel forceren, maar dat heeft meer invloed op de prestaties dan Nvidia's oplossing. Daarom wordt in deze test geen AA gebruikt.

Batman: Arkham Asylym - 1680x1050 - Max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
***
+
*****
113,0 / 265,0
GTX295
***
+
****
115,5 / 233,0
GTX480
****
+
***
120,0 / 213,0
HD 5870
***
+
***
117,7 / 194,0
GTX285
***
+
**
90,7 / 168,7
HD 5850
**
+
***
81,0 / 159,0

De GTX480 is niet veel sneller dan de HD 5870, maar moet de GTX295 wel voor zich dulden. De minima lijken vooral afhankelijk van de cpu, maar hogere resoluties zullen die bottleneck opheffen.

Batman: Arkham Asylym - 1920x1200 - Max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
****
+
*****
108,0 / 240,0
GTX295
***
+
***
107,0 / 198,5
GTX480
***
+
**
103,8 / 173,0
HD 5870
***
+
**
97,0 / 162,0
GTX285
***
+
**
79,0 / 138,0
HD 5850
***
+
**
79,0 / 133,0

De minima liggen in de full-hd-test erg dicht bijelkaar en de GTX480 is amper sneller dan de HD 5870. De HD 5970 moet het vooral hebben van de gemiddelden, die een flink stuk hoger liggen dan bij de GTX480.

Batman: Arkham Asylym - 2560x1600 - Max - 0xAA/16xAF
GPUMinimum » gemiddelde score (fps)
HD 5970
****
+
****
85,0 / 165,0
GTX295
****
+
***
76,0 / 130,0
GTX480
****
+
**
75,0 / 106,0
HD 5870
***
+
**
67,5 / 103,0
GTX285
***
+
**
52,3 / 86,0
HD 5850
***
+
**
53,0 / 84,0

Op de allerhoogste resolutie zit er nog steeds weinig verschil tussen de GTX480 en de HD 5870. De HD 5970 is wederom verreweg de snelste videokaart, en net als in de vorige twee tests is ook de GTX295 beduidend rapper dan de Fermi-kaart.

Battlefield: Bad Company 2

Battlefield: Bad Company 2 is op verzoek van een aantal forumgangers aan onze benchmarksuite toegevoegd. Dit spel maakt gebruik van de Dice-engine en kan overweg met DirectX 11.

Nvidia heeft overigens op de dag voor de release een patch beschikbaar gemaakt die de prestaties van zowel de GTX480 als de GT200-serie moet verbeteren. Helaas bood deze late update ons onvoldoende tijd om de benches nogmaals uit te voeren.

Bad Company 2 - 1680x1050 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
67,0 / 92,4
GTX480
****
+
**
52,5 / 70,2
HD 5870
****
+
**
43,3 / 61,4
GTX295
***
+
**
39,0 / 60,6
HD 5850
***
+
*
39,7 / 52,8
GTX285
***
+
*
32,1 / 44,1

Toch komt de GTX480 in Bad Company goed uit de verf: de HD 5870 wordt met een verschil van ruwweg 20 procent verslagen. De HD 5970 is echter ruim 25 procent sneller dan de GTX480.

Bad Company 2 - 1920x1200 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
***
58,5 / 81,3
GTX480
*****
+
*
46,0 / 58,7
GTX295
****
+
**
35,8 / 52,7
HD 5870
****
+
**
37,0 / 52,1
HD 5850
***
+
*
33,2 / 45,8
GTX285
***
+
*
26,2 / 38,0

Op 1920x1200 blijven de verschillen grotendeels gehandhaafd. De GTX480 weet de voorsprong op de HD 5870 nog wel iets te vergroten.

Bad Company 2 - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
35,5 / 54,1
GTX480
****
+
*
29,7 / 38,2
HD 5870
****
+
**
25,3 / 36,3
GTX295
***
+
**
22,2 / 35,4
HD 5850
***
+
**
19,5 / 29,7
GTX285
**
+
**
16,5 / 26,2

De allerhoogste resolutie trekt de boel behoorlijk gelijk: zowel de verschillen tussen de GTX480 en de HD 5870 als tussen de GTX480 en de HD 5970 nemen behoorlijk af. De GTX480 produceert nog net speelbare framerates.

Overklokken

Gezien de vele problemen die Nvidia bij de productie van de GF100 had, vermoedden we dat er weinig speelruimte in de kloksnelheden van de kaart zou zitten, maar dat bleek een verkeerde veronderstelling. We kregen van Nvidia de EVGA Precision-software, die EVGA meelevert met zijn GTX470- en GTX480-kaarten. Met deze software kan eenvoudig de kloksnelheid van de gpu en de shaders worden aangepast, die in een verhouding van 1:2 aan elkaar gekoppeld zijn. Ook de geheugensnelheid en de draaisnelheid van de fan zijn aanpasbaar.

We begonnen voorzichtig met een kloksnelheid van 750MHz, wat betekent dat de Cuda-cores hun werk op 1500MHz doen. Vantage liet al een aardige winst zien, maar de hogere kloksnelheid smaakte naar meer. Van 750MHz gingen we in een ruk door naar 800MHz, dat ook stabiel bleek, waarna 825MHz werd geprobeerd en wederom stabiel was. Helaas hield het daar ongeveer op, aangezien Vantage direct crashte bij een kloksnelheid van 851MHz. Het gddr5-geheugen kan overigens ook overgeklokt worden, naar ongeveer 2100-2200MHz.

GTX 480 Vantage Overklokken GTX 480 Vantage Overklokken GTX 480 Vantage Overklokken

Er moet bij het overklokken wel een kanttekening geplaatst worden: om de videokaart stabiel te houden, moest de fanspeed verhoogd worden naar 90 procent, wat behoorlijk wat herrie oplevert. Met de fan op de automatische piloot werden de componenten te warm en resulteerde het overklokken vrijwel meteen in een crash.

Far Cry 2 - 1680x1050 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
GTX480 OC
******
+
**
97,4 / 121,8
GTX480
******
+
**
86,5 / 108,3
Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
GTX480 OC
******
+
**
82,3 / 103,8
GTX480
******
+
**
72,6 / 92,1
Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » gemiddelde score (fps)
GTX480 OC
******
+
**
54,2 / 71,1
GTX480
*****
+
**
47,6 / 62,8

Energieverbruik

Het energieverbruik is altijd een belangrijk punt bij een videokaart, met name omdat gpu's in game-pc's doorgaans de grootverbruikers zijn. Zoals verwacht lust de GF100-gpu met zijn 3200 miljoen transistors een flinke slok stroom. De videokaart is dan ook uitgerust met zowel een zespins- als een achtpins-pci-e-connector. De HD 5970 van AMD heeft dezelfde aansluitingen, terwijl de HD 5870 het af kan met twee zespins-connectors. Al met al kent de GTX480 een tdp van 250W, tegenover 188W voor de HD 5870. De HD 5970 heeft een opgegeven vermogensbehoefte van 294W.

Om de videokaart tot het uiterste te drijven, werd Furmark weer van de plank gehaald. Het programma is in staat om de videokaart zwaarder dan veel spellen te belasten en mag als worst-case scenario gezien worden. Ook na langdurig gamen zal de videokaart echter erg warm worden.

Vermogensopname systeem - Idle
Vermogensopname (watt, minder is beter)
GTX295
**********
203
GTX285
**********
194
GTX480
********
171
HD 5850
********
165
HD 5970
********
159
HD 5870
********
157

De GTX480 weet het idle-verbruik aardig binnen de perken te houden. De ATI-kaarten zijn echter allemaal zuiniger, met als uitschieter de HD 5970, die zelfs met twee gpu's minder vermogen dan de GTX480 opsoupeert.

Vermogensopname systeem - Load
Vermogensopname (watt, minder is beter)
GTX295
**********
482
HD 5970
**********
460
GTX480
*********
454
GTX285
********
374
HD 5870
*******
359
HD 5850
*******
334

Onder load zien we een heel ander verhaal: de GTX480 verbruikt bijna evenveel energie als de tweekoppige HD 5970. Het enige lichtpuntje is dat de GTX480 minder verbruikt dan de GTX295, maar in vergelijking met de ATI-kaarten verbruikt de GTX480 eigenlijk veel te veel.

Geluidsproductie

Om alle warmte te dissiperen, rustte Nvidia de GTX480 uit met een stevige koeler, die over vijf heatpipes beschikt. Op de foto's is te zien hoe de bovenkant van de heatsink in de plastic kap is verwerkt, zodat airflow in de behuizing ook een steentje aan het afkoelen van de gpu kan bijdragen. Aan het einde van de videokaart zit een radiale ventilator, die via zowel de boven- als de onderkant lucht aanzuigt, om deze langs de heatsink de behuizing uit te blazen.

Nvidia GTX 480 koeler

GTX 480 GTX 480

Overigens moet bij onderstaande tabellen worden opgemerkt dat de geteste HD 5850 en GTX285 niet met de standaardkoelers zijn uitgerust.

Geluidsproductie systeem - Idle
Geluidsproductie (dBA, minder is beter)
HD 5850
**********
49,9
GTX295
**********
47,5
GTX285
*********
47,0
GTX480
*********
42,7
HD 5870
********
42,4
HD 5970
********
41,3

Wanneer alleen de Windows-desktop weergegeven hoeft te worden, is de GTX480 erg stil te noemen, net als de HD 5870 en de HD 5970.

Geluidsproductie systeem - Load
Geluidsproductie (dBA, minder is beter)
GTX480
**********
62,7
HD 5970
**********
62,4
GTX295
**********
61,7
GTX285
**********
60
HD 5870
*********
55,2
HD 5850
********
51,6

De GTX480 produceert onder load het meeste geluid. De kaart wordt op de voet gevolgd door de HD 5970 en de GTX295, die echter meer warmte moeten afvoeren. Het verschil met de HD 5870 is aanzienlijk; die is ook niet erg stil, maar als die in een behuizing zit is de geluidsdruk nog wel acceptabel.

Conclusie

De GTX480 beschikt zonder meer over de snelste gpu. Gemiddeld komen we uit op een snelheidswinst van ongeveer 15 procent ten opzichte van de HD 5870. Die kost rond de 400 dollar, terwijl er voor Nvidia's nieuwste ongeveer 500 dollar betaald moet worden. Tot zover is er niet veel aan de hand, want in hardwareland moet vaak relatief meer betaald worden om het snelste van het snelste in huis te halen.

De HD 5970 gooit echter roet in het eten. Deze dual-gpu-kaart laat eigenlijk geen spaan van de GTX480 heel; de prestaties van ATI's topmodel zijn gemiddeld rond de 35 procent beter. De HD 5970 is weliswaar weer honderd dollar duurder dan de GTX480, maar zowel de HD 5870 als de HD 5970 bieden meer prestaties per dollar.

Er zijn natuurlijk meer factoren dan de prijs-prestatie-verhouding. De GTX480 legt het echter af als het om het energieverbruik gaat, ook wanneer de prestaties in ogenschouw worden genomen. Sterker nog, het verbruik is maar marginaal lager dan dat van de veel snellere HD 5970. De bijbehorende geluidsproductie is ook een minpunt: ook hier zijn de HD 5870 en de HD 5970 weer de betere kaarten.

Dan kan er nog naar extra's worden gekeken. Zo heeft AMD tegenwoordig de Eyefinity-techniek, waarmee drie beeldschermen kunnen worden aangestuurd. Nvidia zet daar 3D Vision Surround tegenover: ook hiermee kunnen drie schermen worden aangestuurd, maar dan zijn er wel twee videokaarten in sli nodig. Met drie 120Hz-schermen is het echter zelfs mogelijk om drie beeldschermen van 3d-beeld te voorzien. Over dergelijke features wordt echter al jaren gediscussieerd en toepassingen die het nut ervan bewijzen zijn er nog niet of nauwelijks.

De vooruitzichten voor de GTX480 lijken somber, maar de kaart kan niet zonder meer als afrader worden bestempeld - in elk geval niet totdat de GTX480 in de winkel ligt en de werkelijke prijs duidelijk wordt. Mocht de GTX480 iets onder adviesprijs verkocht worden, terwijl de HD 5870 vanwege de grote vraag kunstmatig duur wordt gehouden, dan kan Nvidia's nieuwste een goede optie zijn. Nvidia heeft al laten weten dat de videokaarten vanaf 12 april volop voorradig zullen zijn. In de wat verdere toekomst kan Nvidia mogelijk yields en drivers verbeteren, wat de prijs verder kan drukken en de prestaties nog kan verbeteren. Hoeveel winst de kaart nog kan boeken, is voorlopig echter de vraag. Wie nu het snelste van het snelste wil hebben, kan in elk geval beter de extra centjes voor een HD 5970 neertellen.

GTX 480 GTX 480 GTX 480 GTX 480 GTX 480 GTX 480 GTX 480 GTX 480 GF100-gpu GTX 480

Lees meer

Reacties (280)

280
271
182
12
1
28

Sorteer op:

Weergave:

Prachtige Review T.net

Well erg teleurgesteld na het lezen er van, en de overig vandaag opgedoken reviews, ik zat echt te wachten op de 480 kaart maar prijs, prestatie en verbruik gehalte staat niet in verhouding met wat je bij ATI krijgt.

Ik ben een linux gebruiker en game daar ook onder en dan is Nvidia eigenlijk toch de enige keuze omdat ATI gewoon niet lekker ondersteunt word moet ik toch misschien Windows 7 gaan overwegen voor me Game systeem.

Daarnaast hou ik van een still en koel systeem en gebruik meestal passieve kaarten maar dat kan ik nu vergeten de temps van deze kaart wordt 94 grade 20 grade meer dan een Vapor-x http://www.hardocp.com/ar..._gtx_470_480_sli_review/7

Waar ATI met zijn Vapor-X systeem iedereen te gemoed komt, ik heb ze al in handen gehad en die zijn echt stukken stiller en koeler, zie ik dat Nvidia nog steeds het oude design gebruikt een heat pipe meer doet het hem dan ook niet omdat het fan design achterhaalt is.

En last but not least die 100 euro per jaar extra op je energie rekening staat me al helemaal niet aan + het aanschaffen van een duurdere voeding 700-750Watt moet er wel in bij mij denk ik en meer fans voor me case.

Misschien dat de verschillende fabricaten er nog wat meer uit kunnen halen qua design en hopen dat de prijs minder word maar voor 500 euro denk ik dat ze veel al in de schappen blijven liggen voorlopig.

PS: T.net ik mis FALL OUT 3 of Oblivion telkens tussen de benchmarks dit is een Game die meestal beter loopt op ATI heb ik gemerkt dus was benieuwt hoe deze kaart presteerde.
En last but not least die 100 euro per jaar extra op je energie rekening
Nougoed, dat zal ook nog wel meevallen. Tenzij jij 12 uur per dag loopt te gamen uiteraard :P

Als ik het goed heb, is de 'guideline': 100W fulltime = 175 euro.
100W x 24 uur x 365 dagen = 876 kWh
876 kWh * €0.20 per kWh = 175 euro.
Nee, hij staat 24uur per dag aan dus ik was nog laag met mijn schattig zie ik, als 100W werkelijk 175 euro is.

@the flying dutchman
Ik gebruik Ubuntu, en 1 van me vrienden die dat ook draaid is laatst over gegaan op de ATI 4850 en dat draaide niet lekker moet ik je eerlijk vertellen, ook het menu voor het op je Tv weergeven van films was niet echt top zou ik maar zeggen.

Ubuntu gaf wel aan dat de support voor de 2000 en de 3000 serie van ATI in release 10.04 beter zou zijn maar dat de 5000 serie nog niet opgenomen zou zijn,

Maar ik zal het op de Ubuntu release party wel met nadruk vragen want daar wil ik bij deze long time release wel weer heen is altijd een handige bron van informatie.
http://www.releaseparty.e...eleaseparty-2010-%28nl%29
Je moet kijken naar het verschil in idle verbruik, dat een heel stuk lager ligt. Volgens de tweakers resultaten 10-15 watt verschil met de verschillende AMD kaarten. Dat komt neer op een verschil rond de 25 euro per jaar. :)
Laat jij je pc dan Idle achter ikke niet ik geef hem altijd wel iets te doen meestal een dvd rippen of een film conventen van het 1ne formaat naar het andere of andere zware bewerking.

daarnaast doordat je een zwaardere voeding heb die gewoon ook meer vraagt zal je verbruik altijd minder gunstig zijn dan bij een 500W voeding en de kosten voor een zwaardere voeding aanschaffen zijn ook niet niets als je een kwaliteit voeding wil.

Idle achterlaten is zonde natuurlijk, dan zet ik heb wel uit.

Maar dit alles neemt niet weg dat deze kaarten meer verbruikt meer herrie maakt en meer warmte produceert, waardoor je meer fans moet gaan plaatsen om je systeem koeler te houden en dus weer meer herrie en weer meer verbruik.

Alles bij elkaar telt gewoon op en maakt deze kaart pas aantrekkelijk als hij voor 350 euro verkocht gaat worden.

[Reactie gewijzigd door dispie op 23 juli 2024 04:42]

Ik heb het niet over je hele systeem idle, ik heb het over je GPU idle laten. Zolang je je GPU niet gebruikt staat deze op idle stand. Als je een beetje aan het browsen bent of aan het tekstverwerken gebruikt een moderne GPU tegenwoordig helemaal niet zoveel, laat staan 100 Watt. Wat je dan verder op je CPU aan het doen bent heeft daar niets mee te maken.
In de HardOCP review was zichtbaar dat je maar een internet explorer tabje ohefdr te openen of het gebruik schoot al omhoog.
Wie laat er nu een gamepc 24 uur per dag aanstaan als het energieverbruik je nauw aan het hart ligt 8)7

Kijk dan gewoon voor een low power pc om je internet/office/download... weet ik veel wat op te doen en slinger je gamepc dan pas aan als je er werkelijk op gaat gamen. Ik gebruik bv een laptop voor die lichte toepassingen en om te downloaden. Staat ook geregeld een week aan 1 stuk aan. Hij verbruikt dan ook maar 20 watt met het scherm dichtgeklapt.
De AMD drivers onder Linux zijn over het algmeen prima, weliswaar afhankelijk van de exacte Linux versie die je draait (Fedora is de distro met het nieuwste van het nieuwste en die distro wordt door AMD niet ondersteunt waardoor Fedora gebruikers soms in de kou staan... voor Ubuntu zijn echter altijd drivers beschikbaar, ook bij release van een nieuwe versie).

Ook heeft AMD al OpenGL 3.3 en 4.0 preview drivers beschikbaar gesteld voor zowel Windows als Linux! Even afgezien van de nieuwste kernel versies en nieuwste xorg versies zit er eigenlijk geen verschil meer tussen nVidia en AMD onder linux. En als je Ubuntu draait dan zijn die nieuwste kernel/xorg versies ook niet van belang.
http://www.brightsideofne...-sli-review.aspx?pageid=5

een GTX480 in sli plaatsen levert in sommige gevallen tot boven de 90% scaling. Is niet aan te raden ivm met de warmteproductie en je energierekening. :9
Voor een kaart van €500 vind ik dit toch wel even onder de maat. De tesselation mag dan misschien wel veel beter zijn vergeleken met de HD5870, maar zoals eenieder kan zien is dat het niet zoveel nut heeft in de (huidige) games. Temperatuur (staat niet in deze review) en energieverbruik vind ik ook wel erg matig. Ik ben blij dat ik niet gewacht heb op Fermi. Nu hopen dat de HD5870 in prijs gaat dalen voor CrossFire :D

EDIT: typfoutjes eruit gehaald, dat wakkerblijven om de benchmarks eindelijk te kunnen lezen maakt mij een beetje onoplettend :z . 'Truste allen.

[Reactie gewijzigd door arc. op 23 juli 2024 04:42]

Temps heb ik wel voor je hoor :)

57c idle met een fanspeed van 44%, kan ietsje lager (enkele graden), is beetje afhankelijk van kamertemperatuur.

88c load, met fanspeed van 87%

clockspeeds gaan trouwens naar 50MHz gpu, 101MHz shaders en 67,5MHz geheugen.
88c onder load 8)7 :o :(

Jemig wat een temperaturen!

Ik heb net benches gedraaid voor mijn HD 4890 en die komt niet boven de 57 onder load!
en hovert altijd rond de 45/48 op idle!

Ik zat echt met smart te wachten op deze kaarten maar zoals ik het bekijk blijf ik toch bij ATI steken!

Lager energie verbruik
Minder Warmte
minder geluidsproductie
_/-\o_ petje af voor ATi!

[Reactie gewijzigd door Senghir op 23 juli 2024 04:42]

Dan heb je andere fanprofiles, zowel me HD3850/3870/4850/4870/4890/5850/5870 werder STUK VOOR STUK allemaal rond de 80/90 graden (5 serie maar 70/80) zonder aangepast profile management en met de reference koeler (dus geen after-market/eigen merk koeler) ;) Meeste ook nog in CF gehad dus ik weet wel waar ik over praat ;)

80/90 Graden is niks voor een GPU (dus 50 of 80 graden onder full load maakt geen zak uit, enkel als je wilt overclocken dan heb je wat meer speling met een lagere temp), pas boven de 100 ga ik me zorgen maken ;)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 04:42]

Anticlimax. Kan het niet beter omschrijven, ik had beter verwacht. Zeker qua focus op temperaturen, geluidsniveaus, verbruik, en al helemaal qua prijspositionering.

Ha, toch iets gevonden in deze: http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

[Reactie gewijzigd door Virtuozzo op 23 juli 2024 04:42]

Voor 'n 3miljard transistoren met een te grote DIE had ik niks anders verwacht.
Dan sneller maar met neven effecten en duur te produceren.

Ja sneller maar niet zoveel als je aan verhouding transistors zou denken.
Duur het kan geen prijs vechter zijn.
Vermogen zal uiteraard hoog zijn.

De verrassing is eigenlijk testallatie power. Maar komt niet gratis. Veel transistor budged hier aan toebedeeld plus voor games nuteloze L2 GPGPU cache. Houd in dat op convesionele logic minder voorhanden is.

Naast klok limiet L2 cache de vele Testalatie units wordt de 50% potentie van 3milard transisitoren niet behaald. Behalve op testalatie gebied.

Dit ziet er naar uit dat de logic balans anders is dan de competitie. En dat dit slecht uitkomt voor de oudere games. Maar bij DX11 iets van testalatie gebruikende je wat extra performance eruit kan halen gezien de testalatie trap snel verwerkt word.

Opzich is kiezen voor een toekomstgerichte verhouding beter dan nu deftig scoren, en later met een achilleshiel te zitten. Voor games heeft de testalatie feature van dX11 wel degelijk een meerwaarde dan andere features ooit hebben gehad.

Maar deze bakbeest past beter op een nog kleinere procede 28nm.
Zelfde verhaal als met de GTX 280, over een paar maandjes brengen ze de GTX 485 uit die op alle fronten gaat zijn wat het nu had moeten zijn. Vervolgens brengen ze een GTX 495 uit bestaande uit twee GTX 475's . _/-\o_
...met een TDP van 450W? Nou, die gaat er dus echt niet komen :P (of misschien dat een reseller nog met een limited-edition komt zoals bij de asus mars maar dat was puur voor de pats en staat bekend als een veel te hete kaart). De situatie is nu heel anders dan toen met de GTX280 en GTX285. De GTX280 was op 65nm geproduceerd, de concurrentie zat op 55nm, waardoor NVidia aan het kortste eind trok. Maar ook NVidia kon toen gemakkelijk overstappen op 55nm waardoor het weer rechtgetrokken werd. Nu zitten echter beide fabrikanten op het gloednieuwe 40nm en een die-shrink kan je pas verwachten ergens in 2011. Dus nee, er komt geen GTX485 zoals er toen de GTX285 kwam. Ze zullen gewoon de hele chip moeten gaan tweaken om er zoveel performancewinst uit te krijgen, dus gewoon fermi 2. Ook was het verbruik van de G200b wel wat lager dan fermi, waardoor een dual-GPU nog wel werkte. Dat zit er nu echt niet in zonder de kloksnelheden drastisch te verlagen, waardoor ik nog maar moet zien of die de HD5970 dan in kan halen.

[Reactie gewijzigd door bwerg op 23 juli 2024 04:42]

Dan krijg je dus een kaart die bijna 600W uit je voeding trekt. Voor zover ik weet is dat niet eens mogelijk met de huidige standaarden, dat komt namelijk neer op zo'n 300W max per kaart.
het verschil bij de GTX280 en GTX285 is het productie process.. Waar de gtx 280 65m had, had de GTX285 het op 55nm. Ik zie dit niet gebeuren dat binnen een paar maandjes. er een fermi komt op 28nm. Dan zetten ze denk ik hun geld op Fermi2 die er dan eind dit jaar oid. zou moeten komen.
Vindt het een beetje raar dat er een vergelijking wordt gemaakt met een dual gpu van ATI en een single gpu Nvidia kaart.

Is misschien leuk om te zien dat de Nvidia kaart bijna net zo snel is als 2 gpu's van ATI maar het geeft voor velen een vertekende weergave.

Wel heeft Nvidia weer een monster geplaatst op de markt.

Voor de rest een nette review waar de tijd voor genomen is.
Vind het een beetje raar om een GPU die bijna dubbel zo groot is als zijn concurrent direct te vergelijken.

Altijd dat "nee dat is niet eerlijk want die serie moet tegen die serie en die GPU moet tegen die GPU" weer. Wat er telt voor de markt zijn prijs en prestatie en daarbij nog wat zaken als verbruik, geluid, etc. Als je qua prijs dus met je single-GPU kaart even hoog gaat zitten als de dual-GPU oplossing van de concurrent, dan worden die twee ook qua prestaties vergeleken. Zo simpel is het.

En dat "bijna net zo snel is als 2 gpu's van ATI" valt ook wel mee hoor :| Ik lees in de conclusie toch echt "Deze dual-gpu-kaart laat eigenlijk geen spaan van de GTX480 heel; de prestaties van ATI's topmodel zijn gemiddeld rond de 35 procent beter." De die-size van de HD5970 (met zijn twee GPU's samen dus) is dan ook maar 26% groter dan die van de (single-GPU) GTX480.

[Reactie gewijzigd door bwerg op 23 juli 2024 04:42]

Vindt het een beetje raar dat er een vergelijking wordt gemaakt met een dual gpu van ATI en een single gpu Nvidia kaart.
Raar? De GTX 480 is qua prijs te vergelijken met de HD5970 en ook qua stroomverbruik zitten ze beide aan de hoge kant. Beide zijn ook nog eens slecht verkrijgbaar, dus waarom zou je ze niet vergelijken?
Zoals in de 'oude' tijd (4 series van ATI) ze het ook altijd tegen de dual GPU van Nvidia moest opnemen? (totdat Ati zelf met een X2 uitkwam).

Het is 1 kaart, dat er 40 GPU's inzitten, doet er niet toe. Het is 1 kaart, in 1 slot, en dat is alles wat telt. Zeker als je alles wegzet met verbruik, snelheid en prijs, heeft Ati het gewoon iets beter voor elkaar om met relatief hetverzelfde verbruik 2 GPU's te kunnen laten draaien.
Wat me nou nogal verbaast, ik kan me helemaal niet voorstellen dat de HD5850 meer verbruikt dan de HD5870. Dat slaat gewoon helemaal nergens op, als je kijkt naar wat erin zit. Het zullen natuurlijk wel eerlijke metingen zijn, maar naar mijn logica klopt het niet 8)7

Het was natuurlijk de vermogensopname van het hele systeem, was er iets veranderd tussen het HD5850 en HD5870-systeem?
het heet binning.

dat zie je bij geheugen en CPU's ook. alle energy zuinige CPU's zijn precies het zelfde als de normale CPU's maar ze zijn net wat beter gelukt en kunnen daarom toe met een lagere spanning om de zelfde mhz te bereiken.
ook verbruiken ze soms op het zelfde voltage net wat minder stroom.

ook is het verschil maar klein, en alleen zichbaar in idle, en op dat moment staat een groot deel van de GPU uit en zijn de hd5850 en 70 in essentie precies het zelfde en is de clocksnelheid ook gelijk.
daarom dat verschil.

in de hd5970 zitten de GPU's die het aller beste gelukt zijn en daarom kan die in idle ook net wat minder verbruiken (aangezien hij ook 1 gpu uitschakkeld)
Ik neem aan dat je het idle verbruik bedoelt? Dat is sowieso statistisch gezien een beetje gevaarlijk hoor, je zult zien dat andere websites toch weer net iets andere resultaten hebben. Tweakers geeft hier aan dat de Radeon's zuiniger zijn dan Fermi, maar gezien de minieme verschillen vind ik dat ook een beetje een riskante uitspraak, de foutmarge is gewoon veel te klein. Kijk maar eens hoe compleet verschillend de resultaten zijn bij anandtech, waar de Fermi kaarten zelfs meer verbruiken dan de oude G200 kaarten. Duidelijk een gebied waar reviewers veel meer aandacht aan mogen besteden om dit goed te testen :)

EDIT: Kijk, dat kan natuurlijk ook, dank voor de toevoeging :)

[Reactie gewijzigd door Snoitkever op 23 juli 2024 04:42]

De reden waarom de kaarten bij anandtech meer verbruiken in idle, is omdat ze stiekem niet idlen. Wanneer er ook maar een enkele applicatie wordt opgestart gaat het verbruik omhoog bij de GTX 470 / GTX 480. Wij testen altijd de desktop, dus is dit niet echt opgevallen.

De reden dat de HD 5850 meer verbruikt, is omdat het geen referentie exemplaar is, maar een speciale uitvoering met twee fans. De kaart is zelfs iets overgeklokt (maar is voor de benchmarks teruggeklokt). Vandaar dat het idle-verbruik iets afwijkt ...
De hamvraag is dus nu wat de prijs daad werkelijk gaat worden van de kaart ?
Prijzen gemiddeld gezien:
- 5970 > 570 Euro
- 5870 > 360 Euro
- GTX480 > 370 Euro (Als het 500 dollar is en dan gezien de huidge wisselkoers)

Hoewel de 5970 twee gpu's heeft vraag ik me toch af of de bijna 200 euro meer gerechtvaardig is voor die 35 procent meer.
Als de prijs nog lager uitkomt dan zit er een GTX480 in bij mij, komt het hoger uit, dus tegen de 400 euro aan, dan zou ik toch flink gek zijn om niet een 5970 te nemen.
Nog maar eens even kijken wat mijn favoriete merk gaat doen, ASUS dus ;)
jullie vergeten de BTW. Amerikaanse advies prijzen zijn altijd zonder belasting ( ook omdat die wisselt per staat)

400 dollar in euro is 299
299 + BTW = ~357. hey dat dus klopt aardig.

zelfde sommetje voor de gtx480
500 dollar in euro = 374
374 + BTW = 445 euro.

bijna 85 euro meer dus. (ook wel 113 dollar geheten)

[Reactie gewijzigd door Countess op 23 juli 2024 04:42]

Als ie 445 euro gaat kosten, no way hoor, dan ga ik echt wel voor een 5970 of ATI moet nu met iets nieuws komen dat nog beter is

Wel of geen btw, als ze willen concureren met ATI dan zullen ze toch echt rond de 360 euro moeten zitten, anders zullen zelfs de fanboys als ik op hun achterhoofd krabben voordat je meer dan 400 euro gaat uitgeven voor zo'n kaart.
De prestaties en het verbruik zijn er dan niet naar en dus is de keuze dan snel gemaakt, dan leg ik die laatste 100 eruo er wel bij voor die 35 meer van een 5970.
Scherp, die was ik inderdaad even vergeten. Die Amerikanen in bepaalde staten zijn zo lucky :(
Dat is wishful thinking, de HD 5870 heeft een adviesprijs van 400 dollar, die zou na de wisselkoers ook maar 300 euro moeten kosten, maar dat is helaas niet zo. En als consumenten ipv alleen HD 58x0-kaarten ook ineens GTX 470's en GTX 480's kunnen kopen, neemt de vraag naar de HD 58x0-kaarten automatisch af.

De enigste manier voor Nvidia om de kaarten goedkoper te laten zijn in de webshop, is als er een factor 3/4 keer zoveel kaarten worden geproduceerd dan bij AMD en de webshops dus continu voorraad hebben.
Beste Tweakers, congrats met een hele mooie review, maar ik heb er wel 1 probleem mee. Wat voor onzin is dat over tesselation in software? Geloven jullie nou echt dat geblaat van Charlie (uit zomer 2009) dat Fermi geen hardware tesselation zou hebben? Wat doet dat kleine blokje genaamd "tesselator" in de "polymorph engine" waar er 15 (1 per shader multiprocessor) van op de kaart zitten? :P
Jullie zijn trouwens de enige site die dit serieus in hun review hebben geschreven, alle andere reviews melden gewoon zoals het hoort dat tesselation bij NVIDIA net zo "fixed function" is als bij AMD.
Ehm, je hebt het niet helemaal exact volgens mij.

Zoals in die Anandtech review te lezen heeft de GF100 een tesselator unit per Polymorph engine, maar elke SM, ofwel cluster van 32 Cuda cores, heeft zijn eigen tesselator, wat in totaal uitkomt op 16 tesselators.

Daarmee heeft nVidia in potentie veel meer tesselation capaciteit dan AMD en dat komt tot zijn recht in bijvoorbeeld de Heaven benchmark. AMD heeft volgens mij slechts 1 onderdeel wat als Tesselator kan worden aangemerkt. Die heeft dan daarom ook een veel lager plafond en daarom zou nVidia beter presteren in de tesselation heavy benchmark van Unigine, waar de 5870 wellicht tegen zijn Tesselation plafond aanloopt en dat op de een of andere prestatiedrukkende manier oplost.

SLI review van GTX480 in Unigine, met en zonder tesselation, waarbij we een interessant verschijnsel noteren. Bij een enkele kaart dropt de prestatie bij het aanzetten van de tesselation van 64,6 naar 39,4, ofwel 39 procent daling in framerates. Bij de dubbele kaart is dit verschil slechts 16%

Tesselation vraagt dus erg veel van de SM units, maar is wel een stabiele stressfactor. Zet je SLI aan, dan word er niet opeens 2x zoveel tesselation op los gelaten, dat blijft bij maximale settings gewoon gelijk. Daardoor krijgt elk van de 2 480 kaarten nu maar de helft van de tesselation stress te verduren, en heeft dan tenopzichte van een enkele kaart een voordeel. Dat verklaart wat mij betreft dan ook die 90 procent scaling in SLI modus met tesselation aan, en dat heeft dan ook vrij weinig tot geen relatie met echte in game SLI resultaten.

Concluderend, er zit wel degelijk veel verschil in de implementaties van Tesselation van de twee kemphanen. Ik ga momenteel voor ATi's oplossing, omdat die volgens mij een stuk goedkoper is en met het huidige DX11 aanbod is er nog niet echt veel pure Tesselation kracht nodig. Als we wellicht in de toekomst games krijgen die hun grafische pracht voor het grootste deel uit Tesselation halen, dan is een GTX480 in het voordeel, en dus wat meer futureproof. Maar maak die aanname maar zelf.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 04:42]

Er staat niet dat Nvidia het software matig doet? Alleen leunt tesselation bij Nvidia geheel op de cuda-cores, terwijl dit bij AMD minder het geval is ... Ik had het gedetailleerder op kunnen schrijven, maar uit met fixed function bedoel ik dat AMD letterlijk een aantal transistors in zijn gpu heeft zitten die alleen 1 van de drie stappen van tesselation voor zijn rekening neemt. Terwijl bij Nvidia alle drie de stappen via de shaders gaan (en die moeten software-matig geprogrammeerd worden, dat houdt nog niet in dat het ook op een software-level gebeurt).
Er staat niet dat Nvidia het software matig doet?
Niet?
Alleen leunt tesselation bij Nvidia geheel op de cuda-cores, terwijl dit bij AMD minder het geval is ...
Wat noem je dat dan? ;) Als iets niet in fixed function hardware gebeurt zegt men ook wel dat het "in software" wordt uitgevoerd. Wat ik dus bedoelde te zeggen is dat Charlie ooit een verhaaltje de wereld in geholpen heeft dat Fermi geen fixed function tesselation logica heeft, iets wat AMD al jaren heeft (waarbij Charlie er uiteraard niet bij vermeld dat AMD's oude tesselation logica geen nut heeft voor DX11 tesselation, maar dat terzijde) en dat tesselation dus op de ALUs zou worden uitgevoerd (oftewel "in software"). Het lijkt er op dat jullie dat geloven.
Nou kan het zijn dat jullie bewijs hebben dat niet alleen de NVIDIA informatie, maar ook mensen als ChrisRay ontkracht, en in dat geval lijkt het me leuk dat jullie dat met de wereld delen. Anders zou ik jullie vriendelijk willen vragen of je even het artikel wilt verbeteren, want volgens alle tot nu toe bekende informatie heeft Fermi wel degelijk fixed function hardware voor de tesselator stage, en in vergelijking met AMD maar liefst 16 (15 met 1 SM uitgeschakeld) keer zoveel. Dit verklaart ook het buitenproportionele verschil tussen de GTX480 en de HD5870 in diverse tesselation benchmarks, dat veel hoger ligt dan de 10-20 procent verschil die in de normale benchmarks gehaald wordt.

[Reactie gewijzigd door Snoitkever op 23 juli 2024 04:42]

Ik ga het tot op de bodem uitzoeken, en zo nodig rectificeren. Ik houd je op de hoogte.
Raar dat er een groot verschil is met de Stalker COP test die hardware info heeft gedaan.
Wat zijn de specs van het testsysteem? ik kan die niet terugvinden..
Zoals altijd, core i7 920 @ 3,8GHz, 6gb ram, 500gb hdd, en dat was 't wel?
Wel apart dat op 1680x1050 met een enkele GTX480, bovenstaand systeem al de bottleneck vormt in sommige tests. Kun je nagaan wat een CPU je nodig hebt als je 2 van deze kaarten in SLI zet en nog flink overklokt. Wel prettig dat jullie al zo lang hetzelfde testsysteem gebruiken :)
Wie wil er nou gamen op 1680x1050 als hij zo'n kaart koopt 8)7

Als je er twee in SLI zet, heb je denk ik niks te klagen; ook niet met een cpu op 3.8Ghz ;)
Ik game anders zelf nog steeds op een 1680 x 1050 scherm, met één HD5870

En zoals alle anderen zeggen, erg jammer voor nV... Had veel meer verwacht. Ze zitten ook wel dicht tegen het randje van de PCI-e specificatie voor power draw. Denk niet dat ze het gaan redden om met deze chips een GTX495 te realiseren...
Dit is niets anders dan een dubbele 285. Gewoon dubbele Cuda cores, wat tessel units en ongeveer dezelfde MHz'en en je hebt gewoon een dubbele 285.

Dus het is niet echt verbazingwekkend dan dat ie gewoon 2 maal vermogen opslurpt met de bijbehorende hitte.

Dus ik denk dat je deze kaart ook gewoon zo moet bekijken. Het is een SLI vervanger en de opvolger van de 295 maar NVidia heeft voor een normale videokaart op dit moment geen antwoord.

Je hebt wat performance winst doordat je geen SLI nodig hebt dus als je van plan was een SLI GTX285 opstelling te maken of de 295 te kopen dan is dit een goede opvolger.

Dus ik zeg; kleinere die, minder cuda cores, hogere MHz'en en een wat slimmer ontwerp en dan kijk ik over een jaar wel weer. M'n 285GTX is nog verre verwijdert van vervanging.

[Reactie gewijzigd door PulsatingQuasar op 23 juli 2024 04:42]

Beetje kort door de bocht hè, een dubbele 285. De 285 had geen Dx11 support, en het aantal textrure units is lager als dat van een enkele 285.

Daarnaast is het verbruik niet 2x zo hoog, maar iets van 1,3x.


Tevens is de conclusie van tweakers ook een beetje negatief. De kaart levert gemiddeld 15% betere prestaties dan de HD5870, en kost ongeveer 25% (adviesprijs). Ja, de prijs/fps ligt dus hoger, maar:
1: we hebben het over advies prijs van de GTX480 tegenover een winkelprijs van de HD5870. Echte prijs moeten we nog even afwachten, hoewel dit het ideale moment voor AMD is om de prijs van de HD5xxx lijn iets te verlagen.
2: Het is wel de snelste GPU, genoeg gekken die daar de iets hogere prijs/fps wel voor over hebben.
3: hoogstwaarschijnlijk zijn de drivers nog niet optimaal en valt er nog wat winst te halen.

Tevens is het jammer dat jullie de 470 niet hebben kunnen reviewen, deze kaart lijkt al iets aantrekkelijker, met in de meeste reviews prestaties die 5-10% onder dat van de HD5870 liggen, en een prijs die er 13% onder ligt.

Al in al heeft nVidia een redelijk leuke chip in handen die per mm² maar een klein beetje slechter lijkt te presteren als de HD58xx chips. Als het goed is zou het GF100 ontwerp goed moeten schalen en zullen de GF104 en 108 ook redelijk goed presteren. Uiteindelijk heeft ATi een beter ontwerp, maar jullie laten het in de conclusie negatiever klinken dan het is.

Hopelijk komen ze allemaal snel beschikbaar, we kunnen wel weer wat concurrentie gebruiken.

@Marc - Bij elke 470 review die ik tot nu toe gezien hebt scoort de 470 weldegelijk beter als de 5850, zoals ik al meld, vaak maar een 5% lager dan de 5870. De meeste reviews zijn dan ook niet al te positief ten opzichte van de GTX 480, maar wel tenopzichte van de 470.
(tevens is $400 weldegelijk de winkelprijs van een 5870)

[Reactie gewijzigd door knirfie244 op 23 juli 2024 04:42]

De GTX 470 komt er aan, als het goed is. Blijkbaar waren er daar minder van dan van de GTX 480. Andere reviews tonen echter al aan dat de HD 5850 de beste bang for buck kaart blijft, aangezien deze nagenoeg even snel is als de GTX 470.

Onze conclusie is, hoopte ik in ieder geval, gebalanceerd en goed beargumenteerd. We laten het met name over aan de lezers om hun eigen conclusie te trekken aan de hand van de vele benchmarks.

1: Nee, we hebben het over de adviesprijs van de GTX 480 tegenover de adviesprijs van de HD 5870. Waar die prijzen op 12 april liggen is koffiedik kijken en kan ik dus geen uitspraken over doen, zoals ook aangegeven is in de conclusie.

2: Het is inderdaad de snelste gpu, dat staat wederom in de conclusie. Ik ben niet ingegaan op de nadelen van de HD 5970, met twee gpu's, omdat die tegenwoordig grotendeels opgelost/verdwenen zijn.

3: De drivers, ik hoor en lees het wel meer, maar ik vind het ijdele hoop. Nvidia heeft al meer dan 6 maanden werkende videokaarten en heeft dan ook tijd genoeg had om de boel te optimaliseren. Nvidia heeft dit zelfs tegenover mij bevestigd.

4: Al met al heeft Nvidia helemaal geen leuke chip in handen. De chip heeft 3200 miljoen transistors, 50 procent meer dan Cypress, die slechts 15 procent slechter presteert. Het grote aantal transistors zorgt voor een energieverbruik dat ook ruim 30% hoger ligt. Sterker nog, als we de verschillen tussen idle en load pakken, verbruikt de GTX 480 zelfs 40 procent meer. Nog sterker, de GTX 480 verbruikt in idle ook meer, wat natuurlijk negatief is, als deze nou evenveel verbruikte in idle als de HD 5870, zou de GTX 480 percentueel nog meer verbruiken!

5: Over punt vier, dit geld natuurlijk voornamelijk voor gamers. Ik heb het zelf niet getest, maar de gpu is nog beter in gpgpu-applicaties dan de GTX 285. Als Nvidia deze kaarten voor $1500 kan verkopen in de professionele markt, dan is het opeens een hele goede gpu.

- Kleine toevoeging:

6: De GF100-gpu heeft natuurlijk 'eigenlijk' 512 Cuda-cores. Als Nvidia de yields wat beter op orde heeft, en waarschijnlijk zal dat vroeg of laat zo zijn, dan kunnen ze natuurlijk een GTX 485 uitbrengen, die nog eens 6-7% extra presteert. Mochten ze daar de clockspeeds iets omhoog gooien, kom je al snel op ruim 10% uit. Dan ziet het er al iets positiever uit, alhoewel het verbruik uiteraard ook omhoog zal gaan, dus performance/watt-ratio zal achterblijven bij die van AMD.

[Reactie gewijzigd door Marc Rademaker op 23 juli 2024 04:42]

Ik denk dat de winkelprijs nog hoger zal liggen, dus dan is dit nog positief. Hoewel dit de snelste GPU is kun je voor de zelfde stroom kosten 2 Ati gpu''s halen en deze kan niet op een dual gpu pci-e kaart.
de drivers zullen waarschijnlijk wel uitmaken, maar ook bij de concurrent zal er speling in zitten.

Helaas zal de beschikbaarheid ook niet al te goed zijn.
rkomduur:
"Dus ik zeg; kleinere die, minder cuda cores, hogere MHz'en en een wat slimmer ontwerp en dan kijk ik over een jaar wel weer. M'n 285GTX is nog verre verwijdert van vervanging."

:+


Noem je nVidia's ingenieurs nou idioten en zeg je dat jij het beter kan? :')
Het zijn gewoon idioten als hun taak was om een kaart te maken voor gamers. Echter realiseren veel mensen zich niet dat NVIDIA geen zak meer geeft om gamers.
Ze willen naar bedrijven gaan met CUDA want AMD kunnen ze niet de baas door te lage winst tov AMD's prijzen.

Op dit item kan niet meer gereageerd worden.