Door Marc Rademaker

Redacteur

Test: twee GTX 460-videokaarten in sli

11-08-2010 • 09:00

123

Multipage-opmaak

Inleiding

Onlangs besprak Tweakers.net de GTX 460. Deze DirectX 11-kaart bleek een betere prijs-prestatieverhouding te bieden dan de dure GTX 480, terwijl de prestaties ook in absolute zin van een zeer behoorlijk niveau zijn. In deze review bekijken we hoe de kaart zich in sli-opstellingen gedraagt. In theorie is het mogelijk dat twee GTX 460-kaarten de GTX 480 verslaan, terwijl een tweetal GTX 460's vaak goedkoper is. Uiteraard vergelijken we de GTX 460-tandem ook met AMD's topmodellen.

EVGA voorzag Tweakers.net van twee GTX 460 768MB-kaarten, die we in onze tests terug klokten naar 675MHz in plaats van 763MHz. In onze GTX 460-review bleek het 1GB-model van de kaart weinig meerwaarde te bieden, maar met het 1GB-model van Zotac en een referentiekaart van Nvidia met evenveel geheugen bouwden we ook een sli-opstelling. Om de cijfers nog wat beter in perspectief te zetten, hebben we vier van de acht gamebenchmarks ook met de HD 4890 en de GTX 295 uitgevoerd.

Net zoals in de voorgaande review kijken we niet alleen naar de rekencapaciteit, maar ook naar de geluidsproductie en de energieconsumptie van de videokaarten. Tot slot proberen we met twee GTX 460's in sli zo ver mogelijk te overklokken.

GTX 460 SLI Testsysteem

De videokaarten

De EVGA-kaarten zijn dezelfde exemplaren als die uit de GTX 460-review. De videokaarten zijn gebouwd aan de hand van Nvidia's referentie-exemplaar, maar werden door EVGA wel van 675MHz naar 763MHz overgeklokt. De fan bevindt zich in het midden van de videokaart en blaast de warme lucht naar twee kanten weg. Deze EVGA's beschikken over twee dvi-poorten en een mini-hdmi-poort. Voor de review werden de gpu's op 675MHz geklokt, om een goede vergelijking met de 1GB-kaarten mogelijk te maken.

EVGA GTX 460 768MB

GTX 460's GTX 460's

Ook Zotac's exemplaar werd in de voorgaande review al getest. De videokaart onderscheidt zich met vier video-uitgangen: twee dvi-poorten, een hdmi-poort en een displayport. Daarvoor moest wel een deel van het ventilatierooster aan de achterkant worden opgeofferd, wat de geluidsproductie niet ten goede kwam. Wel blaast de koeler, dankzij zijn positie aan het uiteinde van de kaart, alle warme lucht de behuizing uit. Zotac liet de kloksnelheden van de gpu en het geheugen ongemoeid.

Zotac GTX 460 1GB

GTX 460's GTX 460's

Specificaties en prijzen

De GTX 460 is voorzien van de GF104-chip, die op een aantal punten afwijkt van de GF100. Zo heeft de GF104 384 Cuda-cores, al zijn er bij de GTX 460 maar 336 geactiveerd. De gpu wordt door Nvidia op 675MHz geklokt, waardoor de shaderklok automatisch 1350MHz bedraagt.

De GTX 460 is in twee varianten verkrijgbaar, met een 192bit- en een 256bit-geheugenbus, waarmee respectievelijk 768MB en 1024MB gddr5-geheugen wordt aangestuurd. Dat geheugen is standaard op 3600MHz geklokt.

Beide varianten hebben genoeg aan twee zespins pci-e-connectors, maar door het extra geheugen verbruikt de 1GB-variant 160W, terwijl een GTX 460 met 768MB geheugen 10W minder zou verstoken. Om de hitte af te voeren zijn de 21 centimeter lange videokaarten steevast voorzien van een dubbelslots-koeler. Aan de achterkant van het referentie-exemplaar bevinden zich, zoals we van de GTX 4x0-serie gewend zijn, twee dvi-poorten en een mini-hdmi-poort.

Merk en Productserie Zotac EVGA
Type GeForce GTX 460 1GB GTX 460 SuperClocked
Prijs en waardering
Prijs € 229,82 € 204,64
Eerste prijsvermelding donderdag 15 juli 2010 donderdag 22 juli 2010
Technische Specificaties
Videochip GeForce GTX 460 GeForce GTX 460
Kloksnelheid 675MHz 763MHz
Shader clock 1350MHz 1526MHz
Geheugengrootte 1GB 768MB
Geheugentype
gddr5 gddr5
Geheugensnelheid 3600MHz 3800MHz
Geheugenbandbreedte 256bit 192bit
Interfaces
Card Interface (Video) PCI-e 16x PCI-e 16x
Video uit D-sub, 2x dvi-i, hdmi, mini-hdmi 2x dvi-i, Mini-hdmi
Koeling Actieve koeling Actieve koeling
Adapter dvi-naar-D-sub, dvi-naar-hdmi dvi-naar-D-sub
Ondersteuning
Link Interface Nvidia sli Nvidia sli
DirectX 11 11
OpenGL 4.0 4.0
Drm hdcp hdcp
Verkoopstatus
Fabrieksgarantie 2 jaar 2 jaar

Testsysteem

Het testsysteem werd opgetrokken rond een Core i7 920-processor, die op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat apart vermeld. Bij deze review werden de ATI-kaarten met versie 10.6 van de Catalyst-drivers aangestuurd en de Nvidia-kaarten met versie 257.21 van de Geforce-drivers.

Als benchmarks dienen Call of Duty: Modern Warfare 2, Far Cry 2, Stalker: Call of Prippyat, DiRT 2, Tom Clancy's H.A.W.X, Dawn of War II: Chaos Rising en Battlefield: Bad Company 2. Ook van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk zijn de interne benchmarks van de games gebruikt.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten

Zotac GTX 460 1GB
Sapphire HD 5970
Asus GTX 470
EVGA GTX 460 768MB
Asus GTX 480
Asus HD 5830
Gigabyte HD 5850
Asus HD 5870

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn.

Elke game is getest op de resoluties 1920x1200 en 2560x1600. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multi-sampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

3DMark Vantage & Unigine Heaven 2.0

Vantage is een synthetische benchmark en kan vooral gebruikt worden om videokaarten onderling te vergelijken. We maken alleen gebruik van de gpu-score.

3DMark Vantage
GPUScore (Punten)
HD 5970
********
25.355
GTX 460 1GB SLI
*******
21.718
GTX 460 768MB SLI
*******
21.042
GTX 295
******
18.559
GTX 480
******
18.526
HD 5870
******
18.365
HD 5850
*****
15.652
GTX 470
*****
14.530
HD 5830
****
13.063
GTX 460 1GB
****
12.492
GTX 460 768MB
****
11.581
HD 5770
***
9.666

We zien dat de GTX 460's in sli net niet twee keer zoveel punten scoren als een enkele GTX 460, wat een goed teken voor de te verwachten sli-schaling in spellen is. De GTX 480 wordt met gemak verslagen.

Unigine Heaven 2.0 - normal
GPUScore (Punten)
GTX 460 1GB SLI
********
1.352
GTX 460 768MB SLI
********
1.351
HD 5970
********
1.308
GTX 480
*******
1.214
GTX 470
******
949
HD 5870
*****
816
GTX 460 1GB
****
748
GTX 465
****
736
GTX 460 768MB
****
717
HD 5850
****
711
HD 5830
***
502

De Heaven 2.0-benchmark van Unigine maakt hevig gebruik van tesselation en ook hier schalen de 460-sli-opstellingen dan ook uitstekend: we noteren rond de 90 procent betere resultaten dan bij een enkele GTX 460. Vergeleken met Vantage is het verschil tussen de GTX 460's en de GTX 480 wel wat kleiner.

Far Cry 2 & Dawn of War II

Far Cry 2 is een spel waar sli zeer goed in schaalt en is dan ook een ideale test om te kijken hoe de twee GTX 460's zich verhouden ten opzichte van duurdere Nvidia-kaarten.

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 460 1GB SLI
******
+
**
95,4 / 118,8
GTX 460 768MB SLI
******
+
**
90,7 / 115,2
HD 5970
*****
+
**
78,6 / 105,1
GTX 480
*****
+
*
73,6 / 93,4
GTX 295
****
+
**
59,4 / 80,4
GTX 470
****
+
*
58,0 / 74,7
HD 5870
***
+
*
49,8 / 67,5
GTX 460 1GB
***
+
*
51,8 / 66,0
GTX 460 768MB
***
+
*
47,6 / 61,4
HD 5850
***
+
*
43,5 / 59,9
Asus HD 5830
**
+
*
35,2 / 49,6
HD 4890
**
+
*
35,1 / 45,4

In Far Cry 2 gebeurt meteen waar we al op hoopten: twee GTX 460's verslaan een GTX 480, en ook nog eens met speels gemak. Ook de HD 5970 wordt opzij gezet, maar dat viel in Far Cry 2 wel te verwachten. Ten opzichte van een GTX 295 met zijn twee gpu's is het tweetal GTX 460's in sli anderhalf keer zo snel.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 460 1GB SLI
******
+
**
62,7 / 83,7
HD 5970
*****
+
**
52,4 / 73,5
GTX 460 768MB SLI
**
+
*****
25,3/ 71,6
GTX 480
****
+
**
47,6 / 62,8
GTX 295
****
+
**
41,1/ 59,6
HD 5870
***
+
*
33,7 / 47,8
HD 5850
***
+
*
27,1 / 40,0
HD 4890
**
+
*
23,0 / 30,9
HD 5830
**
+
*
19,4 / 28,6

Op 2560x1600 lopen de GTX 460's met 768MB geheugen tegen een limiet aan: het tweetal heeft een tekort aan vram en omdat er textures van het werkgeheugen naar de videokaart geswapped moeten worden, storten de framerates zo nu en dan in. Vooral de minimale scores stellen daardoor zwaar teleur. De twee 1GB-kaarten zetten de GTX 480 op grotere achterstand.

Dawn of War II

DoW II: Chaos Rising - 1920x1200 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
****
+
****
46,0 / 84,2
GTX 460 1GB SLI
***
+
*****
33,3 / 82,4
GTX 460 768MB SLI
***
+
*****
32,0 / 78,9
GTX 295
**
+
*****
18,2 / 73,0
GTX 480
**
+
*****
23,0 / 71,9
GTX 460 768MB
**
+
****
20,0 / 64,2
GTX 460 1GB
**
+
****
19,3 / 62,9
HD 5870
**
+
****
19,3 / 59,3
GTX 470
**
+
****
17,0 / 56,0
HD 5850
**
+
****
18,0 / 54,2
GTX 465
*
+
***
12,8 / 46,7
HD 5830
*
+
***
11,0 / 40,0
HD 4890
*
+
**
12,0 / 33,2

In Dawn of War schalen de GTX 460's in sli niet erg goed: twee kaarten produceren maar anderhalf keer zo veel frames als een enkel exemplaar. Desondanks weten ze de GTX 480 te deklasseren.

DoW II: Chaos Rising - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
***
+
*****
32,3 / 80,5
GTX 460 1GB SLI
**
+
*****
22,8 / 72,4
GTX 460 768MB SLI
**
+
*****
22,0 / 71,7
GTX 480
**
+
****
16,8 / 55,3
GTX 295
*
+
****
11,3 / 49,5
HD 5870
*
+
***
11,7 / 41,2

Ook op 2560x1600 zijn de GTX 460's de GTX 480 te snel af en zijn ze maar liefst twee keer zo snel als de HD 5870. De minima zijn echter eigenlijk te laag om soepel te gamen. De HD 5970 gaat er bij deze game duidelijk met de hoofdprijs vandoor.

DiRT 2 & CoD: MW2

De engine van het racespel DiRT 2 gebruikt enkele DirectX 11-features, waaronder tesselation. We maakten gebruik van de ingebouwde benchmark, waarbij met een achttal auto's over het London-circuit wordt gescheurd.

DiRT 2 - 1920x1200 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
78,6 / 92,2
GTX 460 1GB SLI
******
+
**
72,3 / 90,0
GTX 460 768MB SLI
******
+
**
67,4 / 84,6
GTX 480
*****
+
*
56,5 / 69,4
HD 5870
*****
+
*
53,1 / 64,8
HD 5850
****
+
*
51,7 / 60,8
GTX 460 1GB
***
+
*
38,1 / 48,5
HD 5830
***
+
*
37,3 / 45,3
GTX 460 768MB
***
+
*
35,0 / 44,8
HD 5770
**
+
*
29,4 / 36,7

Ook in DiRT 2 maken twee GTX 460's gehakt van de GTX 480, ongeacht de hoeveelheid geheugen. Alleen in de HD 5970 moeten ze hun meerdere erkennen. De 1GB-kaarten weten wel significant meer fps uit te spugen dan de 768MB-modellen; de schaling is in beide gevallen weer uitstekend.

DiRT 2 - 2560x1600 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
59,0 / 67,3
GTX 460 1GB SLI
******
+
**
48,9 / 63,6
HD 5870
*****
+
*
38,8 / 47,3
GTX 480
****
+
*
35,5 / 46,7
GTX 460 768MB SLI
**
+
***
20,3 / 46,4
HD 5830
**
+
*
21,6 / 29,7
HD 5770
**
+
*
18,7 / 23,0

Net als bij Dawn of War laten de GTX 460's met 768MB geheugen het hier op de hoogste resolutie afweten. Een minimumframerate van 20fps maakt DiRT domweg onspeelbaar. De 1GB-kaarten hebben hier wederom geen last van en zijn ruimschoots sneller dan de GTX 480.

Call of Duty: Modern Warfare 2

CoD: MW2 is op lagere resoluties niet echt een uitdaging voor de meeste videokaarten, maar op 1920x1200 en met name op 2560x1600 moeten twee GTX 460's alsnog aan de bak.

Call of Duty: Modern Warfare 2 - 1920x1200 - Max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
94,3/ 128,9
GTX 295
*****
+
***
78,5 / 116,4
GTX 460 1GB SLI
****
+
***
68,3 / 107,3
GTX 460 768MB SLI
****
+
***
67,5 / 106,9
GTX 480
****
+
**
61,0 / 98,6
HD 5870
***
+
**
55,8 / 83,4
HD 5850
***
+
**
47,5 / 75,3
GTX 460 768MB
***
+
**
42,8 / 71,6
GTX 460 1GB
***
+
**
43,3 / 71,0
GTX 470
***
+
*
52,0 / 70,1
GTX 465
**
+
**
40,3 / 65,1
HD 5830
**
+
**
37,6 / 63,8
HD 4890
**
+
**
35,3 / 61,6
HD 5770
**
+
**
34,5 / 56,7

De tweekoppige GTX 295 is een tweetal GTX 460's hier te snel af. Het verschil tussen de GTX 460's en de GTX 480 is ook 'slechts' tien procent. De kaarten schalen redelijk, maar niet zo goed als in DiRT 2 en Far Cry 2.

Call of Duty: Modern Warfare 2 - 2560x1600 - Max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
68,0 / 100,8
GTX 295
*****
+
**
58,6 / 85,3
GTX 460 1GB SLI
****
+
***
45,5 / 79,7
GTX 460 768MB SLI
****
+
**
48,5 / 76,8
GTX 480
***
+
**
39,0 / 63,8
HD 5870
***
+
**
34,8 / 60,7
HD 5850
**
+
**
30,6 / 54,5
HD 5830
**
+
**
24,0 / 44,4
HD 4890
**
+
**
22,3 / 41,8
HD 5770
**
+
**
22,0 / 39,4

Op 2560x1600 wordt het gat tussen de GTX 460's en de GTX 480 onverwacht iets groter, in plaats van kleiner. De achterstand op de GTX 295 wordt juist groter.

Bad Company 2 & H.A.W.X.

Battlefield: Bad Company 2 is gebaseerd op de Frostbite-engine, die subtiel van enkele DirectX 11-functies gebruikmaakt.

Bad Company 2 - 1920x1200 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
61,1 / 83,2
GTX 460 768MB SLI
*****
+
**
53,8 / 69,8
GTX 460 1GB SLI
*****
+
**
54,5 / 69,1
GTX 480
*****
+
*
48,3 / 59,2
GTX 295
***
+
**
35,8 / 52,7
HD 5870
***
+
**
37,0 / 52,1
GTX 470
****
+
*
38,3 / 48,1
HD 5850
***
+
*
33,2 / 45,8
GTX 460 768MB
***
+
*
33,0 / 40,8
GTX 460 1GB
***
+
*
31,0 / 40,1
HD 5830
**
+
*
24,9 / 34,2
HD 5770
**
+
*
20,4 / 30,4

Terwijl een enkele GTX 460 op 1920x1200 nog maar net speelbare framerates weet te produceren, laten twee exemplaren in sli de GTX 480 met zeer speelbare framerates achter zich. De schaling ligt rond de 75 procent en dat is wederom goed te noemen.

Bad Company 2 - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
38,1 / 57,5
GTX 460 1GB SLI
****
+
**
32,3 / 46,1
GTX 460 768MB SLI
****
+
**
29,0 / 43,8
GTX 480
****
+
*
29,7 / 38,2
HD 5870
***
+
**
25,3 / 36,3
GTX 295
***
+
**
22,2 / 35,4
HD 5850
***
+
**
19,5 / 29,7

Ook op 2560x1600 zijn de GTX 460-duo's de GTX 480 nog wel te snel af, maar de verschillen zijn niet groot. Het extra geheugen van de 1GB-kaarten helpt iets, maar in elk geval storten de 768MB-kaarten niet volledig in.

Tom Clancy's H.A.W.X.

HAWX is een vliegspel, dat gebruik maakt van DirectX 10.1-features. Alle geteste kaarten, behalve de GTX 295, ondersteunen dit.

HAWX - 1920x1200 - Maximum - 4xAA/0xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
101,7 / 138,4
GTX 460 1GB SLI
******
+
**
105,3 / 135,4
GTX 460 768MB SLI
******
+
**
101,0 / 131,2
GTX 480
****
+
**
78,8 / 106,4
GTX 470
*****
+
*
80,3 / 100,2
GTX 295
****
+
*
70,6 / 93,6
HD 5870
****
+
**
63,5 / 91,0
HD 5850
***
+
*
55,4 / 76,6
GTX 460 1GB
***
+
*
51,5 / 70,3
GTX 460 768MB
***
+
*
51,1 / 70,1
HD 4890
***
+
*
48,6 / 64,1
HD 5830
**
+
*
40,0 / 58,9
HD 5770
**
+
*
31,5 / 46,3

Moderne high-end videokaarten hebben geen kind aan HAWX, maar het spel is wel een goede showcase voor sli-schaling: onze sli-opstellingen halen rond de 90 procent winst. De GTX 480 krijgt - het wordt saai - weer stevig klop.

HAWX - 2560x1600 - Maximum - 4xAA/0xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
74,6 / 96,1
GTX 460 1GB SLI
******
+
**
68,2 / 93,7
GTX 460 768MB SLI
*****
+
**
62,0 / 87,5
GTX 480
****
+
**
55,0 / 72,2
HD 5870
****
+
**
48,2 / 71,8
GTX 295
****
+
**
48,2 / 64,9
HD 5850
***
+
**
35,3 / 56,3
HD 4890
**
+
*
28,2 / 42,8
HD 5830
**
+
*
25,0 / 38,0
HD 5770
**
+
*
19,8 / 28,6

Op 2560x1600 weten de 1GB-kaarten iets afstand te nemen van de 768MB-kaarten en het verschil met de GTX 480 blijft goeddeels gehandhaafd. Wel is de gemiddelde framerate van de HD 5970, net als bij de 1920x1200-test, nog een paar procent beter.

Stalker: Call of Pripyat & Alien vs Predator

Bij Stalker: Call of Pripyat gebruiken we alleen de resultaten van de Sunray-benchmark, omdat dit het zwaarste onderdeel is. De preset staat op Extreme terwijl alle DX11-functies zijn ingeschakeld.

Stalker: CoP - 1920x1200 - DX11 - max - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
37,4 / 57,4
GTX 460 1GB SLI
****
+
***
27,5 / 46,0
GTX 460 768MB SLI
****
+
***
26,5 / 45,0
GTX 480
****
+
**
30,0 / 43,0
GTX 470
***
+
**
24,0 / 34,0
HD 5870
****
+
*
26,7 / 33,5
HD 5850
***
+
*
22,3 / 30,5
GTX 460 1GB
***
+
*
21,0 / 27,0
GTX 460 768MB
***
+
*
19,0 / 26,0
HD 5830
***
+
*
18,9 / 25,6
HD 5770
**
+
*
15,3 / 20,2

Op 1920x1200 lijken de GTX 460's in sli onder de maat te presteren. De GTX 480 wordt nipt verslagen, maar alleen bij de gemiddelde framerate: de minima van de sli-opstellingen zijn slechter. De schaling ten opzichte van een enkele GTX 460 is ronduit beroerd.

Stalker: CoP - 2560x1600 - DX11 - max - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
***
25,5 / 36,4
GTX 480
****
+
**
18,0 / 26,0
GTX 460 1GB SLI
****
+
**
18,2 / 24,9
GTX 460 768MB SLI
***
+
**
15,5 / 23,3
HD 5870
****
+
*
18,0 / 22,5
HD 5850
***
+
*
14,9 / 18,2

Hoewel deze benchmark op 2560x1600 voor elke videokaart een enorme kluif is, maken de GTX 460's hier erg weinig klaar. Ook de GTX 480 en de HD 5970 maken echter geen indruk.

Alien vs. Predator

Alien vs. Predator is een vrij recente toevoeging aan onze benchmarksuite. Bij de vorige review moesten we constateren dat de framerates van ATI-kaarten met ruim de helft afnemen als Anisotropic Filtering in ATI CCC wordt afgedwongen. De benchmark gebruikt zelf echter ook AF en vreemd genoeg zorgt dat niet voor problemen.

Alien vs Predator - 1920x1200 - High - 0xAA
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
49,5 / 79,3
GTX 460 1GB SLI
***
+
***
34,0 / 58,8
GTX 460 768MB SLI
***
+
***
33,0 / 56,7
HD 5870
***
+
**
30,5 / 49,8
GTX 480
***
+
**
28,0 / 45,7
GTX 470
**
+
**
22,0 / 36,4
GTX 460 1GB
**
+
*
18,0 / 31,4
GTX 460 768MB
**
+
*
17,0 / 29,8

Ook in AvP zien we dat de GTX 460's in sli uitstekend schalen. Vermoedelijk ligt dat weer aan de rol die tesselation in deze benchmark speelt: bij Nvidia zijn de Cuda-cores grotendeels verantwoordelijk voor deze feature. Met dezelfde hoeveelheid tesselation en het dubbele aantal Cuda-cores heeft een sli-opstelling dus meer Cuda-cores beschikbaar voor andere taken. Toch valt het op dat ook ATI's HD 5870 het in deze test goed doet.

Alien vs Predator - 2560x1600 - High - 0xAA
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
29,0 / 49,1
GTX 460 1GB SLI
***
+
***
20,3 / 36,9
GTX 460 768MB SLI
***
+
***
19,2 / 35,2
HD 5870
***
+
**
17,7 / 31,0
GTX 480
***
+
**
16,0 / 27,7

Op de 4-megapixelresolutie presteren de GTX 460-tandems naar behoren; de verhoudingen blijven ongeveer gelijk. We moeten echter wel vaststellen dat geen enkele videokaart tegen deze benchmark is opgewassen, ook de HD 5970 niet.

Energieverbruik

De GTX 460's, met hun GF104-chip, lieten in de vorige review al zien dat ze een stuk minder energie verstoken dan videokaarten op basis van de GF100. Nu is het de vraag wat er gebeurt na de toevoeging van een extra videokaart. AMD wist het al voor elkaar te krijgen om een tweede gpu in de idle-modus bijna volledig uit te schakelen, waardoor het energieverbruik met meer gpu's in CrossFireX amper stijgt.

Vermogensopname systeem - Idle
Watt (minder is beter)
HD 5970
**********
145
GTX 460 768MB SLI
**********
144
GTX 460 1GB SLI
**********
143
GTX 480
**********
140
HD 5870
*********
134
GTX 470
*********
134
HD 5850
*********
130
GTX 460 768M
*********
128
GTX 460 1GB
*********
127

Nvidia lijkt hetzelfde voor elkaar te hebben gekregen: de tweede gpu zorgt bij een onbelast systeem voor een verbruikstoename van slechts 15W. Daarbij moet worden aangetekend dat de kloksnelheid van Nvidia-gpu's meteen wordt verhoogd zodra er een applicatie zoals GPU-Z wordt gestart, en vervolgens duurt het wel even voordat de cores weer omlaag worden geklokt. ATI-kaarten hebben hier veel minder last van.

Vermogensopname systeem - Load
Watt (minder is beter)
GTX 460 1GB SLI
**********
493
GTX 480
**********
470
HD 5970
*********
450
GTX 460 768MB SLI
*********
450
GTX 470
*******
368
HD 5870
*******
359
HD 5850
*******
321
GTX 460 1GB
******
309
GTX 460 768M
******
277

Wanneer de videokaarten met Furmark voluit belast worden, zien we dat de 1GB-sli-opstelling ruim 20W meer verbruikt dan een GTX 480. De twee GF104's zijn met 675MHz weliswaar 25MHz lager geklokt dan de ene GTX 480, maar bevatten samen ook 192 extra Cuda-cores en een halve gigabyte extra geheugen.

De 768-modellen van EVGA trekken samen een goede 40W minder uit de voeding dan de 1GB-modellen. De kaarten beschikken samen weliswaar over 512MB minder geheugen, maar volgens Nvidia verbruiken de 1GB-modellen slechts 10W meer, en geen 20W zoals hier gemeten wordt.

Al met al bewijst Nvidia hier weer dat het de balans tussen stroomverbruik en prestaties veel beter getroffen heeft dan bij de GTX 480, maar bijna 500W voor een draaiend systeem blijft natuurlijk wel veel.

Geluidsproductie

Naast het energieverbruik werd ook de geluidsproductie gemeten, op een afstand van 20 centimeter. In een behuizing zal het geluid natuurlijk altijd anders uitvallen.

Geluidsproductie systeem - Idle
Geluidsproductie (dBA)
GTX 460 1GB SLI
**********
48,2
GTX 480
*********
45,4
GTX 460 768MB SLI
*********
44,9
GTX 470
*********
44,1
GTX 460 768M
*********
43,7
GTX 460 1GB
*********
42,6
HD 5850
*********
42,6
HD 5870
*********
42,4
HD 5970
*********
41,3

De GTX 460 1GB-combinatie is verreweg het meest luidruchtige stel videokaarten, maar dat komt deels door het Zotac-exemplaar, die in onze vorige test als de luidruchtigste GTX 460 uit de bus kwam. De twee EVGA-exemplaren zijn daarentegen redelijk stil en zullen in een goede behuizing maar weinig geluid voortbrengen.

Geluidsproductie systeem - Load
Geluidsproductie (dBA)
HD 5970
**********
62,4
GTX 480
**********
61,8
GTX 460 1GB SLI
*********
56,0
GTX 470
*********
55,6
HD 5870
*********
53,1
HD 5850
********
51,9
GTX 460 768MB SLI
********
50,3
GTX 460 1GB
*******
45,6
GTX 460 768M
*******
44,2

Onder load is de geluidsproductie van de twee 1GB-exemplaren nog acceptabel, terwijl de twee 768MB-kaarten zeker voor een sli-opstelling erg stil zijn. Zowel de Nvidia- als de ATI-kaarten maken in enkelvoud al meer herrie. Wederom moeten we opmerken dat de geluidsproductie van het 2x1GB-setje lager zou uitvallen als de Zotac-kaart door een exemplaar van de concurrentie wordt vervangen.

Overklokken (1)

In de GTX 460-review werd al geconstateerd dat de GTX 460's zich goed lenen voor een flinke overklok. We probeerden de videokaarten wederom over te klokken, maar in sli-modus is het wel zo dat de langzaamste videokaart de zwakste schakel is, omdat beide videokaarten op dezelfde kloksnelheid moeten lopen. Met behulp van Furmark werd bepaald of een overklok stabiel was of niet.

Behalve op de hoogst haalbare snelheid klokten we de kaarten ook op 763MHz. Dat is de snelheid waarop de EVGA SuperClocked-kaarten uit de fabriek rollen en deze kloksnelheid is praktisch voor elke GTX 460 haalbaar.

EVGA x2Nvidia / Zotac
Stock 675MHz / 763MHz 675MHz
Overklok 850MHz 840MHz
Winst 26% / 11%
24%
Alien vs Predator - 1920x1200 - High - 0xAA
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
49,5 / 79,3
GTX 460 1GB SLI @840MHz
****
+
***
40,3 / 70,0
GTX 460 768MB SLI @850MHz
****
+
***
37,3 / 65,8
GTX 460 1GB SLI @763MHz
****
+
***
36,7 / 64,3
GTX 460 768MB SLI @763MHz
***
+
***
35,0 / 61,4
GTX 460 1GB SLI
***
+
***
34,0 / 58,8
GTX 460 768MB SLI
***
+
***
33,0 / 56,7
HD 5870
***
+
**
30,5 / 49,8
GTX 480
***
+
**
28,0 / 45,7

Met de GTX 460 768MB-kaarten valt de prestatiewinst in AvP enigszins tegen. Tussen 675MHz en 850MHz nemen de minima en de gemiddelden respectievelijk met 13 procent en 16 procent toe, terwijl de kloksnelheid met 26 procent stijgt. Bij de 1GB-kaarten op 840MHz stijgen de minimale en gemiddelde framerates met respectievelijk 18,5 procent en 19 procent, wat bij een overklok van 24 procent zeker acceptabel is.

DiRT 2 - 1920x1200 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 460 1GB SLI 840MHz
******
+
**
79,2 / 97,6
GTX 460 768MB SLI 850MHz
******
+
**
74,1 / 92,5
GTX 460 1GB SLI 763MHz
******
+
*
76,6 / 92,2
HD 5970
******
+
*
78,6 / 92,2
GTX 460 1GB SLI
******
+
**
72,3 / 90,0
GTX 460 768MB SLI 763MHz
******
+
**
71,4 / 88,6
GTX 460 768MB SLI
*****
+
**
67,4 / 84,6
GTX 480
*****
+
*
56,5 / 69,4
HD 5870
****
+
*
53,1 / 64,8

In DiRT 2 zien we wat wisselende resultaten, wat met name komt door het gebrek aan geheugen bij de 768MB-kaarten. Het overklokken levert een prestatiewinst van iets meer dan 10 procent op, en dat is relatief weinig in vergelijking met AvP.

Overklokken (2)

Ook de spellen Far Cry 2 en Stalker: Call of Pripyat zijn met de overgeklokte videokaarten getest.

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 460 1GB SLI 840MHz
******
+
**
111,2 / 140,6
GTX 460 768MB SLI 850MHz
******
+
**
100,7 / 129,5
GTX 460 1GB SLI 763MHz
******
+
**
98,8 / 123,7
GTX 460 768MB SLI 763MHz
*****
+
**
96,6 / 123,6
GTX 460 1GB SLI
*****
+
*
95,4 / 118,8
GTX 460 768MB SLI
*****
+
**
90,7 / 115,2
HD 5970
****
+
**
78,6 / 105,1
GTX 480
****
+
*
73,4 / 93,4
HD 5870
***
+
*
49,8 / 67,5

In Far Cry 2 zien we dat de overklok naar 763MHz weinig effect sorteert. De overklok naar 850MHz met de GTX 460 768MB-kaarten levert iets meer dan 10 procent winst op. Bij de 1GB-kaarten op 840MHz gaat het minimum met 17 procent omhoog en stijgt de gemiddelde framerate met 22 procent.

Stalker: CoP - 1920x1200 - DX11 - max - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
37,4 / 57,4
GTX 460 1GB SLI 840MHz
*****
+
***
33,5 / 54,0
GTX 460 768MB SLI 850MHz
****
+
***
30,0 / 53,0
GTX 460 768MB SLI 763MHz
****
+
***
29,0 / 49,5
GTX 460 1GB SLI 763MHz
****
+
**
29,5 / 46,0
GTX 460 1GB SLI
****
+
***
27,5 / 46,0
GTX 460 768MB SLI
****
+
***
26,5 / 45,0
GTX 480
****
+
**
30,0 / 43,0
HD 5870
****
+
*
26,7 / 33,5

Bij Stalker: CoP zien we hetzelfde als bij Far Cry 2: de overklok naar 763MHz levert weinig op, met prestatiewinsten van hooguit 10 procent. De overklok naar 840MHz daarentegen geeft de 1GB-kaarten een boost van 22 procent voor de minimale framerate en 17 procent voor het gemiddelde.

Het mag duidelijk zijn dat overklokken altijd winst met zich meebrengt, maar dat het van het spel afhangt hoe groot die winst is.

Overklokken (3)

Het verhogen van de kloksnelheden is natuurlijk niet zonder gevolgen. De transistors moeten vaker schakelen en dus neemt ook het energieverbruik toe. De koelers moeten daarom harder werken om de extra hitte af te voeren. We keken dus nogmaals naar het energieverbruik en geluidsproductie van de videokaarten, die ditmaal maximaal waren overgeklokt.

Vermogensopname systeem - Load
Watt (minder is beter)
GTX 460 1GB SLI - 840MHz
**********
567
GTX 460 1GB SLI
*********
493
GTX 460 768MB SLI - 850MHz
********
478
GTX 480
********
470
HD 5970
********
450
GTX 460 768MB SLI
********
450
HD 5870
******
359

We zien dat het extra energieverbruik van de GTX 460's 768MB binnen de perken blijft met een toename van slechts 28W. Bij de 1GB-kaarten valt daarentegen een toename in het energieverbruik te noteren van 74W.

Het is dan ook niet vreemd dat de kaart die effectief door de andere wordt afgedekt in onze opstelling een temperatuur van 100 graden Celsius bereikte. Deze kaart paste daarop automatisch zijn kloksnelheid aan om oververhitting te voorkomen. Goede airflow is dus een must. Met een extra 120mm-fan nam de temperatuur af naar 89 graden Celsius, en die waarde bleef stabiel.

Geluidsproductie systeem - Load
Geluidsproductie (dBA)
HD 5970
**********
62,4
GTX 480
**********
61,8
GTX 460 1GB SLI - 840MHz
*********
57,4
GTX 460 1GB SLI
*********
56,0
HD 5870
*********
53,1
GTX 460 768MB SLI - 850MHz
********
51,6
GTX 460 768MB SLI
********
50,3

De toename van de geluidsproductie bleek in beide gevallen minder dan anderhalve decibel te bedragen. Zelfs als onze sli-setjes stevig worden overgeklokt, zijn ze stiller dan de GTX 480 en de HD 5970.

Conclusie

Twee GTX 460's in sli blijken erg snel te zijn - zo snel zelfs, dat een GTX 480 met grote regelmaat billenkoek krijgt. Alleen bij Stalker: Call of Pripyat bleef in onze test de meerwaarde van de tweede 460 achter bij de verwachtingen. Het energieverbruik bleef relatief gezien binnen de perken, evenals de geluidsproductie, mits de juiste kaarten aangeschaft worden.

Opvallend genoeg was de meerwaarde van de 1GB-kaarten in onze vorige test maar klein, maar omdat er nu ook op de resolutie van 2560x1600 beeldpunten werd getest, wat bijna twee keer zoveel pixels oplevert als 1920x1200, zien we dat het extra geheugen ten opzichte van de 768MB-kaarten zeker wel van nut kan zijn.

Er zitten echter ook nadelen aan een sli-opstelling verbonden. Zo moet je natuurlijk over een moederbord met sli-ondersteuning en een voeding met vier zespins pci-e-connectors beschikken. Tevens zullen er spellen zijn, zoals Stalker: Call of Pripyat, waar sli niet goed uit de verf komt. Ook nieuwe spellen hebben soms last van slechte sli-schaling, maar Nvidia brengt over het algemeen snel updates uit die daar verandering in brengen.

De tweaker die momenteel over aanschaf van een GTX 480 twijfelt, raden we beslist aan om de voor- en nadelen van een systeem met twee GTX 460's te onderzoeken. Dat kan namelijk heel lonend zijn, maar bedenk wel goed of je voor de 768MB- of 1GB-variant gaat.

Reacties (123)

123
119
90
9
0
14
Wijzig sortering
Staar je niet blind op framerates. Wat vaak over het hoofd wordt gezien bij benchmarks als deze is dat SLI weliswaar de framerate verhoogt, maar heel weinig effect heeft op latency. De rendering queue voor de kaarten wordt al snel twee keer zo groot.

Waar een single videokaart meestal maar 1 of 2 frames in de queue heeft, heb ik in een SLI gemeten dat er soms wel 6 frames in de queue waren gezet - wat dus inderdaad betekent dat de monitor nu 6 frames achter loopt op de game status!

SLI is effectief een vorm van temporele interpolatie, ofwel vloeiendere animatie.

Als je dus denkt sneller te kunnen reageren in een 3D shooter kom je bedrogen uit - iemand met 25 fps op een single kaart heeft meestal toch minder latency dan iemand met 35 fps op een SLI systeem.
Is dit alleen bij SLI of ook bij Crossfire.. Dus meer dan een enkele kaart in het algemeen?

Verder zeer interessante review weer! Het lijkt erop dat het Nvidia en ATI de laatste tijd steeds beter af gaat met SLI en Crossfire opstellingen.. Als je nagaat dat je tegenwoordig beide kaarten volledig benut i.p.v. slechts 80% uit de de tweede kaart te kunnen persen.
De meestgebruikte mode van SLI is om de kaarten om-en-om een frame te laten renderen. Dan is de latency op z'n ergst, want de latency is dan dezelfde als zonder een tweede kaart.

De frames worden dan zo gerenderd:
Kaart 1: 0 --- 2 --- 4 --- 6 ---
Kaart 2: ---1 --- 3 ---5 --- 7 -

Maar onder water gebeurt nog meer. Onder DirectX 6 werden alle commando's synchroon uitgevoerd door de kaart, en als je een "present" call deed, dan werden front- en backbuffer geflipt en stond het beeld op het scherm.

Onder Dx9 en later worden alle commando's voor de videokaart in een queue geplaatst. In Vista (en W7) staat deze queue zelfs in "user" space, en wordt de queue gecommit naar de videokaart zodra de "present" komt. Dan hoeft er veel minder tussen "kernel" en "user" te worden gewisseld, en dat is zeker onder Vista goed voor de prestaties. (bron: o.a. Microsoft DirectX SDK documentatie)
De videokaart BEGINT dus pas met renderen als de game of benchmark al denkt dat die op de monitor staat.
Heb je twee kaarten, dan zijn er ook twee queues.

De lengte van deze queue kun je niet opvragen, wat ik deed is een extra call invoeren die data uit de backbuffer nodig had. Deze call staat dus altijd helemaal aan het eind van die queue, en wordt pas uitgevoerd als de beelddata bijna onderweg is naar de monitor. Daarna deed ik elk frame pollen of die call al klaar was, en het duurde dus meestal 2 frames voor het zover was. Op een SLI opstelling, met twee 8800 kaarten kon dit zelfs tot 6 frames oplopen.

In crossfire krijg je hetzelfde effect als je die op om-en-om hebt staan. Crossfire heeft nog andere configuraties die bijvoorbeeld de AA aan een kaart uitbesteedt. Maar dit "verlengt" weer de queue
.oisyn Moderator Devschuur® @cdwave11 augustus 2010 13:13
De videokaart BEGINT dus pas met renderen als de game of benchmark al denkt dat die op de monitor staat.
Dan is de game of benchmark gewoon dom geïmplementeerd, aangezien iedereen met een beetje kennis van zaken weet dat Present() niet betekent dat de huidige frame dan ook wordt afgerond. Bovendien zal Present() blokken op het moment dat de queue vol zit. Typisch worden er maar maximaal 2 frames vooruit gerenderd.
Heb je twee kaarten, dan zijn er ook twee queues.
Op hardware-niveau ja, maar voor de driver is er nog altijd maar 1 queue, die het vervolgens op de juiste manier offloadt naar de 2 GPU's. Bovendien zal die ervoor moeten zorgen dat het een en ander goed gesynchroniseert wordt op het moment dat de ene frame het resultaat van de vorige gebruikt (zoals bij feedback effecten het geval is). Ook is het niet zo dat als de ene kaart de ene frame aan het renderen is dat de andere dan uit zijn neus staat te eten. Jouw schema kun je dus beter zo weergeven:

Kaart 1: 0000-2222-4444-6666
Kaart 2: ----1111-3333-5555-7777

.edit: net nog even getest in Tomb Raider: Underworld - op een 4780 X2 worden maximaal 3 frames vooruit gerenderd. Op hogere framerates meer (ik had hier een simpel testlevel van 300fps, daarbij was het 4 frames vooruit - maar met dat soort snelheden boeit dat natuurlijk ook niet, het aantal frames latency is dan wel hoger maar de tijd per frame is een stuk korter)

[Reactie gewijzigd door .oisyn op 22 juli 2024 16:59]

Goede aanvulling, bedankt daarvoor.

Voor een benchmark is het niet erg om gewoon het "aantal Present() per seconde" te meten, uiteindelijk komen die frames toch op het scherm terecht.

Synchronisatie kan een SLI inderdaad bijna om zeep helpen. Ik was bezig met onderzoeken waarom onze applicatie op een SLI opstelling meer vertraging veroorzaakte dan op een "gewoon" systeem. NVidia geeft dan ook de tip dat je afhankelijkheid van tussenresultaten beter kunt "uitstellen". Bijvoorbeeld voor een shadow effect kun je beter het resultaat van 2 frames terug gebruiken dan die van het huidige frame, want die bevindt zich op dezelfde kaart en introduceert geen blokkade. Gebruik je het resultaat van 1 frame terug, dan moet je niet alleen wachten op de andere kaart, maar de data moet dan ook nog over de "trage" bus worden verstuurd.
Anoniem: 145435 @cdwave11 augustus 2010 16:58
cdwave,

Je argumenteert dat de gemiddelde queue 2 items lang is, maar dat de maxima van een SLI opstelling 6 items is, en dat dus de latency van een SLI opstelling groter is. Je vermeldt niet hoeveel sneller een SLI opstelling door die queue gaat, je vermeldt niet wat de maxima is van een enkele kaart en je vermeldt ook niet hoeveel het gemiddelde is van de SLI-queue. Terwijl deze gegevens nu net het belangrijkste zijn om tot ook maar één conclusie te komen (ofwel maximum latency is groter, ofwel gemiddelde latency).

Sterker nog, ik weet niet eens wat precies je conclusie is, is er nu een hogere gemiddelde latency of is er een hogere piek latency voor SLI kaarten?

Wat mijn punt is, is dat je door middel van een drogreden tracht uw conclusie te argumenteren en ik daardoor twijfels heb. Ik zou persoonlijk geen moeite hebben gehad om je resultaten klakkeloos te geloven indien je geen gegevens erbij zou hebben geplaatst, maar omdat je dit toch deed, en de vergelijking niet rationeel correct was, heb ik nu sterke twijfels over de geldigheid van je interpretatie van de resultaten, en vraag me af of je misschien slachtoffer bent van experimentele bias.
Ik vertel alleen wat ik gemeten heb. Doel van die metingen was destijds een daaraan gerelateerd performance probleem.

Natuurlijk wordt de latency niet slechter door het gebruik van SLI, in tegendeel, die zal juist iets beter zijn.
Kan je misschien bron vermelding erbij doen? Ik kan dit echt nergens verifieren op het internet of dit uberhaupt wel klopt. Ik heb er namelijik nog nooit van gehoord.

Wat ik erg netjes vind, is dat deze 2 budget kaarten eventjes de duurste kaart van Ati eruit trekken, de 5970 ( ook een dual GPU kaart ).

Volgende GPU wordt voor mij sowieso weer een SLI of een combi kaart zoals de 295,
Ik merk trouwens niets van eventuele vertraging in shooters, nu is jouw voorbeeld van 6 fps ook niet waar te nemen, maar je zou het wel kunnen voelen met je beweging, en zelfs dat ontbreekt.

-edit- : Inderdaad Mark, ik had alleen de eerste 2 benches van Far Cry even gekeken, en daar stond ie wel boven aan. Ik vind het nog steeds mooie prestaties voor de prijs though.

[Reactie gewijzigd door Dakreal op 22 juli 2024 16:59]

Anoniem: 208019 @Dakreal11 augustus 2010 09:25
Ik zie toch echt dat de ATI 5970 met gemak de 2 x GTX 460 verslaat hoor.
Vreemd want bij AnandTech is de Ati HD5970 maar 4 x sneller dan de Geforce GTX 460 1GB in SLI en is de Geforce GTX 460 1GB in SLI weer 4x sneller dan de Ati HD5970, in 1920x1080.

En de Geforce GTX 460 1GB is zo goed als bij alle review sites sneller dan de Geforce GTX 465.


AnandTech

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 16:59]

Ik denk dat het punt is dat 2x GTX460 aan 380€ (Palit 1GB versie)
verrassend goed mee kunnen met de grote jongens van > 525€ (goedkoopste 5970).

Voor mijn toekomstige pc lijkt dit de beste keuze wat betreft prijs kwaliteit.
Nu nog wachten tot de belastingen terug storten :9~
Wat ik verder ook wel frappant vond, vooral van de dawn of war II benches was dat de 460 consistent boven de 470 en 465 stond??? Beide zouden sneller moeten zijn maar beide 460 modellen stonden boven de twee voornoemde kaarten...
De rest van de benches waren wel in orde maar het is toch apart te noemen.

Verder blijkt het hogere geheugen eigenlijk weinig extra's toe te voegen dan meer stroomverbruik en aanschafkosten, de verschillen zijn minimaal.

Wat bij de overclocks staat dat 10% eigenlijk niet veel uitmaakt vind ik wel wat zuinigjes, 10% meer moet je vaak zo 50-100 e voor neerleggen als je van videokaart zou wisselen. Dat pak je met met een paar eurootjes aan stroomkosten wel weer mooi mee.

In sommige benches zat de 465 trouwens ook niet bij, tijdgebrek of niet beschikbaar?
Op zich maakt het niet heel erg veel uit maar mss wel interessant te zien of die iets duurdere kaart het waard is in dx11 mode.
Ik zou echter nog eerder voor een duo 5850 gaan, ware het niet dat ik ten eerste geen 1200p scherm of groter heb en je dan prima met een enkele uit de voeten kan en ten tweede dat je later altijd nog eentje erbij kan halen voor minder wanneer het nodig is. Het protected soundpath van Ati is voor mij ook een groot voordeel.

Al met al een geweldig interessante review en opent het weer mooi de markt voor ons gamers met nieuwe mogelijkheden om lekker te gamen :D
Ja na een jaar mag dat ook wel ;)
Wel even meegaan met de tijd he:).

SLI kent meerdere rendermodes:

SLI offers two rendering and one anti-aliasing method for splitting the work between the video cards:

wikipedia:
"Split Frame Rendering (SFR), the first rendering method. This analyzes the rendered image in order to split the workload 50/50 between the two GPUs. To do this, the frame is split horizontally in varying ratios depending on geometry. For example, in a scene where the top half of the frame is mostly empty sky, the dividing line will lower, balancing geometry workload between the two GPUs. This method does not scale geometry or work as well as AFR, however.
Alternate Frame Rendering (AFR), the second rendering method. Here, each GPU renders entire frames in sequence – one GPU processes even frames, and the second processes odd frames, one after the other. When the slave card finishes work on a frame (or part of a frame) the results are sent via the SLI bridge to the master card, which then outputs the completed frames. Ideally, this would result in the rendering time being cut in half, and thus performance from the video cards would double. In their advertising, NVIDIA claims up to 1.9x the performance of one card with the dual-card setup.
SLI Antialiasing. This is a standalone rendering mode that offers up to double the antialiasing performance by splitting the antialiasing workload between the two graphics cards, offering superior image quality. One GPU performs an antialiasing pattern which is slightly offset to the usual pattern (for example, slightly up and to the right), and the second GPU uses a pattern offset by an equal amount in the opposite direction (down and to the left). Compositing both the results gives higher image quality than is normally possible. This mode is not intended for higher frame rates, and can actually lower performance, but is instead intended for games which are not GPU-bound, offering a clearer image in place of better performance. When enabled, SLI Antialiasing offers advanced antialiasing options: SLI 8X, SLI 16X, and SLI 32x (8800-series only). A Quad SLI system is capable of up to SLI 64X antialiasing."

Daarbij was het OS ook nog van invloed, windows 7 zou beter geschikt zijn dan windows vista.Alleen bij quad sli zou de er nog een (te) hoge que opbouwen.

"It was believed that high latencies severely marginalized the benefits of four GPUs, however much of the blame for poor performance scaling is due to Windows XP's API which only allows for a maximum storage of 3 extra frames. Windows Vista and Windows 7 are not limited in this fashion and shows promise for future multi-GPU configurations."

[Reactie gewijzigd door sdk1985 op 22 juli 2024 16:59]

Naast het eerder genoemde probleem over latency bij het renderen van frames is er nog een belangrijk -wat vaak vergeten word- probleem wat zich er bij opstapelt: Microstuttering.

.oisyn zei dat de frames in het volgende patroon gerenderd worden met SLI/CF(wat in zekere zin wel klopt):
Kaart 1: 0000-2222-4444-6666
Kaart 2: ----1111-3333-5555-7777

Maar ik zou eerder zeggen:
Kaart 1: 0000-----2222--4444----6666
Kaart 2: ------1111---3333---5555--7777

Zoals je ziet worden de frames niet met een constante 'snelheid' op het scherm getoverd, de tussentijd verschilt hele tijd.
Als je bijvoorbeeld met 1 videokaart speelt met een framerate van 30FPS is de latency:
1000/30=33.3ms
Stel je voor, je voegt nog een videokaart(SLI/CF) toe waardoor je framerate naar 50FPS verhoogd wordt:
1000/50=20ms
Maar, doordat de frames niet altijd precies goed getimed worden, zal de tussentijd de ene keer bijvoorbeeld 10ms zijn, maar de andere keer 30ms.
Daardoor lijkt het met meerdere GPU's dus vaak alsof een spel op een lagere framerate loopt dan de werkelijke.

Meer informatie op de eerste pagina hier:
http://www.pcgameshardwar...lti-GPU-Shootout/Reviews/
Ik moet zeggen dat ik van dit soort problemen nog nooit iets heb gemerkt. Misschien dat ik het verschil niet KAN merken op de een of andere manier, maar het verschil tussen 30,40,50 en 60 fps kan ik altijd wel erg duidelijk merken. Boven de 60fps merk ik geen verschil (waarschijnlijk omdat mijn monitor maar 60hz aankan).

Geld dit probleem ook wanneer je constant 60fps krijgt dmv vsync? Ik heb dit namelijk bij de meeste games aanstaan (bijv dirt2, crysis, etc).

Edit: As soon as the amount of frames per second drops, it gets noticeable in many games that the frames are not delivered in a regular interval.

Zo te zien is het dus vooral/alleen merkbaar wanneer de framerate omlaag (en dus mogelijk omhoog ook) gaat. Met de huidige setup heb ik hier gelukkig niet (vaak) last van.

[Reactie gewijzigd door pc_pulsar op 22 juli 2024 16:59]

.oisyn Moderator Devschuur® @pc_pulsar11 augustus 2010 23:13
Boven de 60fps merk ik geen verschil (waarschijnlijk omdat mijn monitor maar 60hz aankan).
Framerate heeft sowieso niets met refreshrate te maken. Er gaan altijd 60 beeldjes per seconde over de kabel (bij een 60Hz monitor uiteraard), of je GPU er nou 3 of 300 in een seconde weet uit te poepen. Je krijgt hooguit last van tearing (Pixels worden van linksboven naar rechtsonder doorgestuurd, als de output niet synchroon loopt met de refresh rate krijg je daardoor halverwege ineens een nieuw beeldje voorgeschoteld - daarom is het handig om vsync aan te zetten - die limiteert weliswaar op 60Hz, maar het beeld lijkt tevens ook veel vloeiender)

Verder is het wel logisch dat boven de 60 fps het verschil minder merkbaar wordt. De frames duren korter, dus de variabele delays zijn ook veel kleiner.

[Reactie gewijzigd door .oisyn op 22 juli 2024 16:59]

Als je genoeg spare performance(ongebruikte rekenkracht) hebt dankzij Vsync met een framerate van 60FPS, zal je er waarschijnlijk weinig van merken.

Maar tegen de tijd dat de spellen zoveel vragen dat je niet meer met 60+FPS kunt spelen, zul je het waarschijnlijk wel merken(afhankelijk van hoe kieskeurig je ogen zijn).

ATI en Nvidia doen aardig hun best om hun drivers te verbeteren om dit probleem op te lossen, maar ik denk eerlijk gezegd dat ze liever kiezen voor hoger-scorende benchmarks dan een consistente framerate.
Ik zou zeggen, Google zelf even als je meer wilt weten, ik ben zeker geen expert op dit gebied.

[Reactie gewijzigd door Dinnesch op 22 juli 2024 16:59]

Goede review, en de kenners ( niet de gamers ) weten waarom je nu ook nog voor NV en niet voor ATi kiest
Oh, leg eens uit dan? Gezien de grote aantallen uitval van g92 kaarten die nu op komt en het terugbrengen van de garantieperiode van NVidia naar één jaar heb ik er eigenlijk de voorkeur om ATI aan te raden?

Zo zonder uitleg klinkt het meer als:
"de fanboys weten waarom je nu ook nog voor NV en niet voor ATi kiest"

Wat is die reden dat NVidia beter is?

[Reactie gewijzigd door bwerg op 22 juli 2024 16:59]

Misschien gezien het feit dat de GTX460 uitstekend performed in SLI ten opzichte van Ati?

Sorry hoor, maar je laat meer zien dat jij de fanboy bent.
Ja, in het segment van 200 heeft NVidia nu een prima prijs/prestatie-verhouding ja. Maar daaronder weten de kenners toch dat er bij NVidia niets te halen valt? Jij geeft aan dat je in zijn geheel voor NVidia zou kiezen. Succes met een mooie kaart van ~100 euro uitzoeken bij NVidia.

[Reactie gewijzigd door bwerg op 22 juli 2024 16:59]

Kaarten van 100 euro koop ik niet van Nvidia. Ik heb laatst voor m'n 2e pc een 4850 van XFX gekocht, die werkt super. En daarnaast een snoep prijsje.

Voor High end ga ik lekker voor de Nvidia ja, vooral omdat dat in de meeste spellen beter ondersteund wordt en de toevoeging van PhysX helpt ook.

Daarnaast doet mijn jaar oude GTX295 ( ja daar is die weer ) uitstekende dienst.

De enige kaart die beter performed is nog steeds 150 euro duurder. En dat is de 5970.
Wat wordt er naast PhysX in games beter ondersteund door nvidia ten opzichte van ati? Op het moment heb ik persoonlijk liever een zuinige ati kaart met stille cooler dan een nvidia. Bij de vorige serie had ik meer twijfels daar waren de beide kanten behoorlijk aan elkaar gewaagd voor mijn gevoel.
Echte kenners weten dat Nvidia al een aantal jaar loopt te rommelen en produktiefouten in hun GPU's laat zitten, waardoor de GPU's minder lang meegaan dan zou horen. Zie de grote uitval van de G84, G86en G92 GPU's.

Daarnaast het onophoudelijk hernoemen van oude technieken, om deze weer te verkopen als zijnde nieuw aan onwetende consumenten.

Waarom denk je dat grote oem's zoals bijvoorbeeld HP een kleine twee jaar geleden massaal over gegaan zijn op mobile GPU's van ATi of in iedergeval naast de Nvidia GPU's ook ATi aanbieden.

Reeds eind 2006 heeft HP, Nvidia gewaarschuwd voor de produktiefouten, maar het mocht tot Juni/Juli 2008 duren voordat Nvidia het tenminste van de G84, G86 en G92 wilde toegeven. Het vermoeden bestaat dat oudere GPU's ookal deze problemen kenden.

Het enige advies van Nvidia was maar over te gaan op de nieuwe generatie GPU's en daarnaast een klein bedrag te vergoeden per defecte GPU tegenover de oem fabrikanten. In plaats van, in het geval van laptops, de moederborden waarop de GPU's zijn geintegreerd. Hiermee heeft Nvidia zowel oem partners als consumenten in de koude laten staan.

Wanneer ik (en ik weet meer mensen) moet adviseren in hardware aankopen heb Nvidia zeker op het gebied van GPU's op een tweede spoor gezet. Pas als het echt een vereisde is wordt er een Nvidia GPU aangeraden.

De meest recente GPU's van Nvidia mogen zich eerst weer gaan bewijzen op hun degelijkheid. Met de 460 serie lijkt Nvidia weer een aardige kaart in handen te hebben, maar weet deze langer dan anderhalf tot twee jaar te leven? Want Nvidia mag dan nog zo'n mooie kaart maken als deze niet langer dan max. 2 jaar mee gaat is hij het geld niet waard en heeft AMD/ATi betere alternatieven.

Voordat je dergelijke one-liners uitroept lijkt mij dat je deze ook eerst eens moet onderbouwen. Ik heb een onderbouwing gegeven waarom in eerste instantie niet voor Nvidia te kiezen. Aan jou om nu jouw stelling te onderbouwen. :)

[Reactie gewijzigd door _Dune_ op 22 juli 2024 16:59]

De almacht van de NV GPU word elke dag bewezen in de HFT Arena van de NYSE.

Uit je antwoord kan ik opmaken dat je overduidelijk gamers en low budget users adviseert, waar je waarschijnlijk het goede advies geeft. Adviseer ze anders een console, nog beter.

De eerste ATi supercomputer moet nog in de top 10 komen.

soh, 3 liner.
Ik adviseer niet alleen lowbutget en gamers, maar ook weer geen supercomputer gebruikers inderdaad. Maar ik adviseer mensen die niet alleen de features van een produkt willen die het produkt bied, maar ook een stukje degelijkheid en dat is de afgelopen paar jaar niet iets waar Nvidia over mee kan praten. :)
Windows wordt ook nauwelijks gebruikt op supercomputers. Betekent dat dat consumenten maar over moeten stappen op Linux?

Je vergelijkt hier appels met peren.
nog een voordeel van NVIDIA 400-series boven ATi: voor een triple monitoropstelling kan in crossfire de DVI uitgang van de tweede videokaart niet benut worden en ben je aangewezen op de, nog weinig populaire, displayport op de primaire kaart.
In SLI kan de DVI-uitgang van de tweede kaart wel benut worden en kan je dus tot een surround opstelling komen met goedkopere monitoren.
Een nadeel daarbij is natuurlijk wel dat je bij NVidia een SLi opstelling moet hebben om drie monitoren aan te spreken, terwijl je er bij ATi maar één grafische kaart voor nodig hebt.
ben ik het niet mee eens, ik heb een gtx480 met 2 dvi aansluitingen en 1 hdmi aansluiting, en ik kan daar rustig 3 schermen op aan sluiten, op een single kaart.
dus je bent voor 3 schermen met nvidia niet persé een SLI opstelling nodig.
als je maar 3 aansluitingen op je kaart hebt.
maar dan kun je alleen 3 aparte monitoren gebruiken je kunt er niet een groot scherm van maken om erop te gamen.

Bij ATI kun je gewoon 3 schermen koppelen om 1 beeld te maken op maar 1 kaart.
meh, elke monitor die je wilt gebruiken om de beelden die dit soort kaarten op je scherm toveren te bekijken heeft tegenwoordig wel een displayport aansluiting.
Waarom? HDMI of DVI geven toch net zo goede beeldkwaliteit daarvan zijn er toch ook genoeg high-end beeldschermen. Sterker nog, DP-schermen hebben nu nog een mindere prijs/kwaliteit-verhouding dan de beter ingeburgerde HDMI- en DVI-schermen.

[Reactie gewijzigd door bwerg op 22 juli 2024 16:59]

je kan zover ik weet gewoon passieve displayport->dvi adaptertjes gebruiken om daar iets op te prikken hoor. En ik zie toch echt 2xdvi + hdmi + dp op de kaarten.

Nu weet ik niet of ik drie tegelijk kan doen, of dat daar perse een echte DP-monitor voor nodig is (of een actieve adapter).

IIRC had je perse een echte DP / actieve adapter nodig als je _eyefinity_ wou doen. Maar gewoon een triple-desktop kan gewoon zomaar, lijkt me.
Ja, voor de derde monitor heb je echt een actieve adaptor of anders dus een DP-scherm nodig. Dat is onafhankelijk van of je eyefinity draait of een gewone triple-monitor setup.
...maar moet je dus wel SLI hebben en gebruik je de rekenkracht van de videokaarten verre van optimaal omdat één van de videokaarten twee schermen aanstuurt in plaats van de optimale anderhalf. Het is dus maar wat je voorkeur heeft maar meteen beter zou ik het niet willen noemen.

[Reactie gewijzigd door bwerg op 22 juli 2024 16:59]

Voordeel? bij Nvidia heb je 2 kaarten nodig, bij ATI maar 1
Sinds vandaag dankzij Sapphire is dit ook niet altijd een isseu meer. :)

Linkje: nieuws: HD 5770 van Sapphire stuurt drie schermen aan zonder displayport

[Reactie gewijzigd door _Dune_ op 22 juli 2024 16:59]

De HD5970 kost €525,- volgens de pricewatch. Dan is twee keer €225,- dus €75 euro goedkoper. Als je in deze prijscategorie een videokaart(en) gaat kopen, kijk je dan nog op €75,-?

Mijn conclusie: Als je toch bezig bent. Doe maar die €75,- extra. Het energie verbruik is ook een beetje minder en de prestaties een beetje meer.

Goede review trouwens :)
Als ik dat zo zie, dan zou ik voor 300 euro een GTX 295 kopen. Dies nog beter qua prijs/kwaliteit. Je hebt dan geen Dx11, maar er zijn ook nog amper Dx11 games voor zover ik weet. Tevens moet je Win7 hebben voor Dx11.
Ik weet niet hoe het met jou zit maar als ik een nieuwe PC koop doe ik dat vooral om toekomstige games goed te kunnen spelen. Door dan te kiezen voor een opstelling die Dx11 niet ondersteund snijd je jezelf ernstig in de vingers zou ik zeggen...
Dat klopt niet, DX11 draait ook op vista. Inmiddels is het merendeel van de mensen al over op vista of w7. En ik denk dat het aantal mensen die wél een videokaart van 300 euro kopen maar die toch nog op XP spelen, nihil is.

Maar het gebruik van DX11 gaat nu toch al behoorlijk rap. Er is toch al een aardig aantal DX11-spellen uit en dat gaat het komende jaar natuurlijk alleen maar harder, en ik neem aan dat je toch wel minstens een jaartje met je videokaart wilt kunnen doen.
Ik zie inderdaad net een nieuwsbericht van eind 2009. Das wel beter voor de Vista gebruikers! Dan hebben we Vista en Win7 voor Dx11, de rest moet het doen met 9 of lager ..
ja maar wil je nog wel een windows xp instalatie. ik neem aan dat je niet vista hebt
Ik draai gewoon Windows 7 hoor :), feit is alleen dat er op het moment weinig Dx11 games zijn. Dus de need voor Dx11 kaarten is in mijn mening nog erg laag.
My thoughts exactly: als je toch al zo'n bak geld gaat uitgeven aan videokaarten haal dan gewoon één 5970.

Scheelt niet zoveel geld en best wel wat energie/geluid/warmte/gedoe met games die SLI niet leuk vinden.
Tis wel een potentiele toekomstige update.. zodra de prijzen zakken van de 5870 koop ik een 2e voor in CF..
Ik vind één 5870 kopen wat anders (en persoonlijk ook een betere keuze) dan twee GTX 460's in huis halen. Dat heeft naar mijn idee niet veel updatepotentieel omdat de 460's volgens mij geen SLI met meer dan 2 kaarten ondersteunen.
Waarom niet? Sli en CF werken (de laatste tig series in ieder geval) gewoon steeds met 4 kaarten.

Dan nog, 4 kaarten schaalt niet altijd even goed en is sowieso minder bang for buck. Maar als je waar voor je geld wilt, en je wilt single-GPU, dan zit je toch aan een HD5870 of GTX460 vast, heel veel maakt het niet uit met hoe lang je het met die kaarten kunt doen voordat je moet upgraden.
GTX 460 heeft maar 1 SLI connector. Je hebt 2 sli connectoren nodig om naar triple-SLI te gaan.
Tegen de tijd dat je die update wil doen heb je voor relatief weinig geld alweer een snellere single kaart. Daarnaast kan je vaak die 2e kaart die je wil kopen niet meer nieuw krijgen en moet je 'm tweedehands kopen.

Dan kan je je opstellen wel versnellen, maar je hebt niks aan allen nieuwe technieken en directX versies. Tel daarbij op dat lang niet alle spellen schalen en ik vind persoonlijk SLI/Crossfire behoorlijke onzin.

Ik koop lever een snelle midrange of een subtop kaart om de twee jaar.
Je kunt het ook zo zien... stel je koopt nu een 460 voor 200 euro, dan koop je volgend jaar op marktplaats een 2e exemplaar voor 100 euro.

DirectX versies komen uit om de paar jaar (dx10 is uit 2007 oid) dus daar hoef je je geen zorgen over te maken...

Overigens kun je het ook jou manier op redeneren, verkopen voor 100 en dan een nieuwe voor 200. Dan moet deze kaart van 200 euro natuurlijk wel bijna 2x sneller zijn dan de huidige 460... De laatste jaren valt dat toch een beetje tegen (460 is procentueel nauwelijks sneller dan een 275 van vorig jaar).
.. En ook heb je geen last van competabiliteitsproblemen.

Ik heb meer dan een jaar 8800gts640 in SLI gedraaid. Veel games getest. Ik ging er op een gegeven moment vanuit dat de games vaak niet SLI ondersteunen. Erg frustreren en zeer zeker de investering in geld en moeite niet waard.

Dus ik mag iedereen adviseren; ga voor single GPU! Dan kom je zeker niet bedrogen uit.
Je hebt de Geforce GTX 460 1GB all voor € 189,- bij 4Launch .

En dat is 2x € 378,- en dat maakt het € 147,- goedkoper :)


Update: Sorry maar ik heb nooit last gehad dat SLI het niet deed of niet goed deed, en ik heb nu de Geforce GTX 460 1GB in SLI en alle spellen draaien bijna 2x zo snel dan 1 Geforce GTX 460 1GB.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 16:59]

Nette review. Alleen er word in de conclusie geen vergelijking gemaakt met de HD 5970. Of de meerwaarde van openGL 4.0 in SLI ten opzicht van vorige versie.
Dat, en het wordt me niet duidelijk of er ook met crosfire wordt vergeleken.Hoe verhoudt de sli-setup zich met crosfire setups.
Om het even welke CFX-setup (met 2 kaarten) moet de duimen leggen tegen de GTX460 in SLI. Dat is althans wat je zou kunnen besluiten uit deze test.

Die resultaten zijn op zich wel frappant, zeker als je ervan uitgaat dat de 5870 CFX-setup bijna het dubbele kost van de GTX460 SLI. Nvidia heeft hier echt wel een mooi kaartje neergezet.
Anoniem: 196662 @SteroiD11 augustus 2010 14:05
Ze testen een overgeklokte kaart tegenover een standaard. De Galaxy GTX 460 Super OC 1GB kost $259.99, een random HD5870 kost $389.99 op Newegg. Dus $520 vs $780 ipv dubbel (dubbel zou $1040 zijn).
Daarbij gebruiken ze ook nog eens beta drivers van ATI, vermelden niet welke cfx profiles ze gebruiken en ze selecteren 3spelletjes met één resolutie en één instelling.
Kijk naar de Tweakers test en je ziet dat de HD5970 niet wordt geklopt. Dit is ook 2GPU's maar er kan moeilijker gefoefeld worden met de testen.

In de test van Tweakers zijn de kaarten van EVGA trouwens ook de duurdere overklokte versies maar in de grafieken is dit om een reden niet aangegeven. Hierdoor valt het minder op dat de kleinere bus van de 768MB versies niet genoeg is voor deze resoluties.
De EVGA-kaarten zijn teruggeklokt naar 675MHz. Alleen in de overklok-tests draaien ze op hogere kloksnelheden.
Een HD 5970 is in feite een CF-setup, van twee HD 5850's. Tal van tests hebben reeds uitgewezen dat HD 5970 = 2x HD 5850. Die liggen qua prijs ook het dichts bij een GTX 460 in de buurt, dus there you have it :)
Voor de duidelijkheid: dat HD5970 = 2x HD5850 is qua prestaties, technisch gezien is het 2x HD5870 op de kloksnelheden van de HD5850.
een 5870 is ook vrijwel het zelfde als een 5850, maar dan met hogere clocksnelheden, en iets meer ingeschakelde shaders
dat iets zijn er toch nog wel wat. 10% zelfs van het totaal. (160 van de 1600)
genoeg om een aardig verschil te maken in de prestaties
Anoniem: 307788 11 augustus 2010 09:18
Leuke kaartjes.
Maar helaas nog steeds geen concurrent voor de HD5970 die met kop en nek er boven uit steekt, vaak met dit 10 frames.
Wellicht is het nog niet zo verantwoordelijk op een dual GPU GTX480 kaart uit te brengen (omwille van warmte en stroom).
Quad sli 480 trekt 1100W zonder overclock dus een dual sli zal allemaal wel meevallen... (1100-500=600W).

http://www.guru3d.com/article/geforce-gtx-4way-sli-review/8
Het gaat er meer om dat een dual-480 gewoon zeer zwaar over de PCI-e2 specs heen gaat - een single 480 zit al op de rand van 300 W. Bovendien, met vier 480 kaarten heb je ook vier koelers en elk van die kaarten blijft binnen de specs.
Op zich kan een fabrikant gerust over de specs heen gaan (dat Radeon ARES monster gaat er ook dik boven) maar dat soort dingen ga je dan aan OEMs niet kunnen leveren.

Het gaat dus niet om het totale verbruik, maar het verbruik per kaart.
Natuurlijk is dat geen concurrent, gezien het feit dat een HD5970 30% duurder is. Je gaat toch ook niet zeggen dat een VW Golf helaas nog steeds geen concurrent is van een Audi A4 :D.
en de Nvidia-kaarten met versie 257.21 van de Geforce-drivers.


Waarom gebruiken ze nog steeds die oude Geforce 257.21 WHQL drivers, wanneer de Geforce 258.96 WHQL drivers all lang uit zijn en een stuk beter lopen op de Geforce 460 kaarten, dat vind ik wel 1 min punt, zelfs de Geforce 258.80 Beta is sneller kan je ook zien bij
anandtech.

En ook is de Ati HD5970 maar 4 x sneller dan de Geforce GTX 460 1GB in SLI en is de Geforce GTX 460 1GB in SLI weer 4x sneller dan de Ati HD5970, in 1920x1080.

AnandTech


Vind ook wel erg Jammer dat ze niet Metro 2033 en Crysis WarHead bij de bench hebben gedaan.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 16:59]

bij an anantech zeggen ze zelf dat de laatste nvidia drivers geen performance boost geven (vraag me af hoe ze bij jou dan beter gaan lopen ??) en gebruiken ze ook niet de laatste ATI drivers.
moed je toch beter kijken he, er staat toch duidelijk dat ze Geforce 258.80 Beta gebruiken, en die is nieuwer dan de Geforce 257.21 WHQL.

En toen de review gemaakt werd was de Geforce 258.96 WHQL nog niet uit, dus beter je huis werk doen.

De Geforce 258.96 WHQL kwam uit in 2010.07.19 en de review kwam uit op 2010.07.11.

En veel forums lezen, en dan lees je dat dat sommige nieuwe drivers na Geforce 257.21 WHQL toch sneller zijn.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 16:59]

maakt dan nog niks uit aangezien ze ook niet de laatste ati driver gebruiken.
Daar heb je gelijk in ik geef het toe, ze gebruikt wel oudere Ati drivers.

Maar vergeet 1 ding niet de Ati HD5970 series zijn all een aardige tijd uit (all vlede jaar) en na wat drivers updates kan je bijna zo goed als niks meer extra snelheid er uit hallen, en de Geforce GTX 460 is pas net uit, en daar kunnen ze nog aardig wat snelheid uit de drivers hallen voor de Geforce GTX 460.

Dat is het verschil.

Maar ja ze hadden wel gewoon de Catalyst 10.6 moge gebruiken daar heb je helemaal gelijk in.
Anoniem: 304539 11 augustus 2010 14:57
Daar ik fervent aan videobewerking doe ( Corel X3 Pro ) - Adobe Prémiére - Pinnacle Ultimate ( ieder programma heeft zijn sterke en zwakke punten ) en dat daar veel aan gerenderd moet worden, vraag ik mij af of er geen test is om mee te nemen in het revieuw in plaats van altijd games ( die zeker nodig zijn ), zeker Corel ondersteunt, of heeft er baat bij CUDA, daar ik de geteste GTX 460 wel een leuke kaart vind, of zijn er andere alternatieven !
Groeten uit Antwerpen _/-\o_
Maar voor (semi) professionele videobewerking wil je toch eigenlijk helemaal geen videokaart welke vooral geoptimaliseerd is voor 3D games? Als hier een review Nivida Quattro of Ati FirePro kaart zou staan, had ik je helemaal gelijk gegeven.

Bij mijn FirePro V5800 zaten geoptimaliseerde drivers voor Adobe producten.
Wordt het beeld er beter van als je een 4 x zo dure kaart gebruikt? De enkele pixel die net niet helemaal 100% wordt weergegeven is waarschijnlijk niet eens zichtbaar.
Het testsysteem werd opgetrokken rond een Core i7 920-processor, die op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen.
en
Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn.
Wat ik mij dus afvraag is in hoeverre deze overclock de tweede opmerking rechtvaardigt. Wanneer die 920 op stock snelheid (2,67GHz) geclocked zou zijn zou er dan wel een bottleneck optreden met gebruik van deze SLI opstelling of is de processor dan nog steeds overkill? Dit ivm met mogelijke toekomstige toepassing van SLI. Nu dus 1 kaart kopen en op termijn een tweede 460.

Offtopic
Weet iemand waarmee die I7 gekoeld wordt kan dat namelijk nergens terugvinden? Zijn er nog andere aanpassingen gedaan buiten de clock naar 180 zoals voltages opgeschroefd ed?
Koeler Thermalright Ultra Extreme 120

4e page :D

Op dit item kan niet meer gereageerd worden.