Door Marc Rademaker

Redacteur

Strijd der titanen: GTX 590 versus HD 6990

24-03-2011 • 14:00

197

Multipage-opmaak

Snel, sneller, snelst

Begin maart introduceerde AMD, na maanden uitstel, de HD 6990. De videokaart kreeg met zijn dubbele gpu een maximaal verbruik van 375W. AMD hoefde zijn snelste gpu's slechts iets lager te klokken om onder deze grens te blijven. Daarmee presteert de kaart ongeveer gelijk aan twee HD 6950's in CrossFireX. Een knap staaltje ingenieurswerk, dat Nvidia met de GTX 590 probeert te evenaren.

GTX 590 / HD 6990Op de GTX 590 werd nog veel langer gewacht dan op de HD 6990. Ten tijde van de GTX 400-serie werd verwacht dat Nvidia een dual-gpu-kaart zou uitbrengen die het kon opnemen tegen AMD's HD 5970. Vanwege het hoge verbruik van een tweetal GF100-gpu's zag een dergelijke Nvidia-kaart nooit het levenslicht en de HD 5970 bleef lang de snelste videokaart die voor geld te koop was. Toen Nvidia de GTX 580 en GTX 570 introduceerde, laaide de hoop op een dual-gpu-videokaart van Nvidia weer op.

Nu, bijna vier maanden na de introductie van de GTX 580, is het dan eindelijk zover. Nvidia's GTX 590 is voorzien van twee GF110-gpu's zoals die ook voor de GTX 580 worden gebruikt. Het grootste verschil met de GTX 580 is de kloksnelheid, die bij de GTX 590 beduidend lager ligt. Begin maart toonde Nvidia de videokaart al tijdens de Cebit, maar het bedrijf was toen nog niet klaar met het bepalen van de kloksnelheid en de ontwikkeling van de drivers.

Omdat zowel de HD 6990 als de GTX 590 krankzinnig heftige videokaarten zijn, pasten we onze testmethode iets aan. Zo werd er voornamelijk op 2560x1600 beeldpunten getest, omdat 1920x1200 voor deze videokaarten amper een uitdaging is. Bovendien werden vier spellen getest op de 5760x1080, een resolutie die mogelijk is gemaakt met AMD's Eyefinity- en Nvidia's Surround-technieken. Ook voegden we het spel Metro 2033 toe aan onze benchmarksuite.

GTX 590

De GTX 590 beschikt over twee volledig geactiveerde GF110-gpu's, goed voor een totaal van 1024 Cuda-cores. Elke gpu staat via een 384bits geheugenbus in verbinding met 1,5GB eigen geheugen. Om het totale verbruik tot onder de 375W te beperken, moest Nvidia de kloksnelheden echter drastisch verlagen. De GF110 in de GTX 580 heeft een kloksnelheid van 772MHz, maar de gpu's van de GTX 590 moeten het doen met 608MHz - een verlaging van 21 procent. Daarmee beschikt de GTX 590 eerder over de rekenkracht van twee GTX 570's dan van twee GTX 580's.

Al met al zou de GTX 590 volgens Nvidia een theoretisch maximumverbruik van 365W hebben. Net als AMD moest Nvidia dus een koeler ontwerpen die een dergelijke hoeveelheid warmte kan afvoeren zonder als een straaljager te klinken. Bij het ontwerpen van een koeler lijken Nvidia en AMD zich nog wel aan twee regels te houden: de videokaart mag niet meer dan twee uitbreidingsslots in beslag nemen en er mag slechts één fan gebruikt worden.

Uiteindelijk koos Nvidia ervoor om op elke gpu een flinke vapor chamber met de nodige hoeveelheid koper te plaatsen. Een enkele fan, die zich tussen beide vapor chambers bevindt, zorgt voor de airflow. Nvidia claimt dat de videokaart stiller is dan die van de concurrentie en ook stiller dan vorige dual-gpu videokaarten. De videokaart is slechts 28,3cm lang, terwijl de HD 6990 30,5cm meet. De GTX 570 en GTX 580 zijn 27cm lang.

Na het verwijderen van de plastic cover valt op dat de gehele voorkant van het pcb bedekt is met een metalen plaat, die onder andere de warmte van de geheugenchips en de vrm's afvoert. Aan de achterkant van het pcb zien we twee plaatjes die de gpu's bedekken. Dat zou goed moeten zijn voor de temperatuur van de gpu, maar zorgt er ook voor dat videokaart nog vastgepakt kan worden. Als het pcb helemaal wordt uitgekleed, zien we dat elke gpu gevoed wordt met een vijffasen-powercircuit, terwijl het geheugen van elke gpu een tweefasen-circuit heeft.

Als laatste valt op dat de Nvidia-kaart is voorzien van drie dvi-poorten en een mini-displayport. AMD introduceerde eind 2009 zijn Eyefinity-techniek, waarmee drie of meer schermen als één groot scherm aangestuurd kunnen worden. Nvidia kwam daarop met zijn Surround-techniek. Daarmee kunnen drie schermen op dezelfde wijze worden gebruikt, maar daar waren wel twee videokaarten voor nodig. Aangezien de GTX 590 twee gpu's aan boord heeft, heeft Nvidia nu ook een videokaart die in zijn eentje drie schermen van beeld kan voorzien.

Nvidia GTX 590 review Nvidia GTX 590 review Nvidia GTX 590 review Nvidia GTX 590 review Nvidia GTX 590 review Nvidia GTX 590 review Nvidia GTX 590 review

HD 6990

AMD bracht de HD 6990 eerder deze maand al uit en consolideerde daarmee de koppositie die het bedrijf met de HD 5970 had verworven. Daarbij verraste het bedrijf vriend en vijand met een verbruik van maximaal 375W, terwijl de AMD-kaarten voorheen altijd onder de 300W bleven. Net zoals Nvidia plaatste AMD twee van zijn snelste gpu's op de videokaart, met elk 1536 streamprocessors. Een 256bits geheugenbus verbindt elke gpu met 2GB aan gddr5-geheugen.

Om onder de 375W te blijven, werden net als bij Nvidia de kloksnelheden aangepast. De twee gpu's draaien op 830MHz, waar de HD 6970 - die een identieke gpu heeft - een kloksnelheid van 880MHz kreeg. De geheugensnelheid werd ook iets teruggeschroefd, van 5500MHz naar 5000MHz. AMD maakt bovendien gebruik van PowerTune om het verbruik onder de 375W te houden. Dat betekent onder meer dat de kloksnelheden in Furmark en in Alien vs. Predator iets omlaag zullen gaan.

De HD 6990 is iets langer dan de GTX 590, maar heeft wel een vergelijkbare koeler. Ook AMD koos namelijk voor vapor chambers op beide gpu's, met een radiale fan ertussen om koele lucht in beide richtingen te blazen. Verder paste AMD nog enkele trucjes toe, zoals nieuw thermal-interfacemateriaal, dat beter zou werken dan reguliere koelpasta's. Ondanks de pogingen om de warmte goed af te voeren, zal de HD 6990 niet de boeken ingaan als een stille videokaart. De videokaart meet 30,5cm, tegenover 27,5cm van de HD 6950 en HD 6970.

Als extraatje plaatste AMD de zogenaamde AUSUM-switch op de HD 6990. Deze schakelaar zorgt ervoor dat er een ander bios wordt gebruikt, waarmee de spanning op de gpu's wordt verhoogd en de kloksnelheid op 880MHz wordt gezet. De kloksnelheid van het geheugen blijft met 5000MHz overigens wel ongewijzigd. In theorie zou de HD 6990 in deze modus net zo snel zijn als twee HD 6970's. Het gebruik van de switch brengt echter wel risico's met zich mee; de meeste fabrikanten geven geen garantie meer als de schakelaar eenmaal wordt omgezet.

HD 6990 Asus review HD 6990 Asus review HD 6990 Asus review HD 6990 Asus review HD 6990 Asus review

Testsysteem

Het testsysteem werd opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat. Bij deze review werden de AMD-kaarten met driverversie 11.2 aangestuurd, terwijl de Nvidia-kaarten van versie 266.58 van de GeForce-drivers gebruikmaakten.

Voor de benchmarks gebruikten we Call of Duty: Black Ops, Far Cry 2, Stalker: Call of Pripyat, F1 2010, Alien vs. Predator, Battlefield: Bad Company 2 en Metro 2033. Ook van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 80GB Intel Postville
Videokaarten

Nvidia GTX 590
Asus GTX 580
Asus GTX 570
Asus HD 6990
Asus HD 6970
Asus HD 6950
Sapphire HD 5970

Koeler Thermalright Ultra Extreme 120
Voeding Enermax Revolution 1050W

Intels X58-platform houdt naar verwachting nog geruime tijd de prestatiekroon in handen. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel de bottleneck zijn. Verder biedt deze opzet de mogelijkheid om videokaarten in sli- en CrossFire-modus te draaien.

In AMD's Catalyst Control Center staat de adaptive aliasing op multisampling en wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten. Mipmapping is op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat deanti-aliasing transparancy-modus op multisampling en is de texture quality opquality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Dell U3011

Elke game is getest op de resolutie 2560x1600 met behulp van Dell's U3011-scherm; daarnaast werden vier spellen ook op 5760x1080 getest. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast. Bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van AMD's CCC of Nvidia's Control Panel.

3DMark 11, Vantage & Unigine

We beginnen met een drietal synthetische benchmarks om een eerste indruk van de mogelijkheden van de beide kaarten te krijgen.

3DMark 11
VideokaartScore (Punten)
GTX 580 SLI
********
10.106
HD 6970 CF
*******
9104
GTX 570 SLI
*******
9077
HD 6990
*******
8929
HD 6950 CF
*******
8473
GTX 590
******
7996
HD 5970
******
7106
GTX 580
*****
6107
HD 6970
****
5492
GTX 570
****
5356
HD 6950
****
4991

In 3DMark 11 is de HD 6990 de GTX 590 te snel af. Dat is opvallend, want een GTX 580 is in zijn eentje wel sneller dan een HD 6970. Twee losse videokaarten, en dan met name twee GTX 580's, zijn in deze test sneller dan de tweekoppige nieuwelingen.

3DMark Vantage
VideokaartGpu-score (Punten)
GTX 580 SLI
********
38.596
GTX 570 SLI
*******
35.010
HD 6970 CF
*******
33.761
HD 6990
*******
32.225
GTX 590
*******
31.555
HD 6950 CF
******
30.614
HD 5970
******
27.765
GTX 580
*****
24.610
HD 6970
*****
21.789
GTX 570
*****
21.714
HD 6950
****
19.330

In de ondertussen verouderde benchmark 3DMark Vantage ontlopen de videokaarten elkaar nauwelijks, maar wederom gaat de HD 6990 aan kop. De Nvidia-kaart is iets sneller dan twee HD 6950's in CrossFireX. Twee GTX 570's zijn al ruim tien procent sneller dan de GTX 590 en wederom is een setje GTX 580's kampioen.

Unigine Heaven 2.0 - normal
VideokaartScore (Punten)
GTX 580 SLI
********
2753
HD 6970 CF
*******
2525
GTX 570 SLI
*******
2357
HD 6990
*******
2343
HD 6950 CF
*******
2291
GTX 590
******
2084
GTX 580
****
1502
HD 6970
****
1316
GTX 570
****
1304
HD 5970
****
1296
HD 6950
***
1175

In Unigine zien we eenzelfde verhaal als in de 3DMark-benches: de HD 6990 is sneller dan de GTX 590. De winst van de GTX 590 ten opzichte van de GTX 580 is wel erg klein; het verschil met twee GTX 580's juist erg groot.

Alien vs. Predator

Het eerste spel dat we testen is Alien vs. Predator. We gebruiken voor deze DirectX 11-game bijna de hoogst mogelijke settings, maar passen geen anti-aliasing toe. Op deze resolutie is de benchmark al zwaar genoeg.

Alien vs Predator - 2560x1600 - High - 0xAA
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
****
+
****
42,0 / 76,7
HD 6970 CF
****
+
***
39,3 / 69,0
HD 6990
****
+
***
38,7 / 66,4
GTX 570 SLI
****
+
***
36,0 / 64,8
HD 6950 CF
****
+
***
38,0 / 63,5
GTX 590
***
+
***
33,3 / 60,6
HD 5970
***
+
***
33,0 / 56,4
GTX 580
**
+
**
22,0 / 39,9
HD 6970
**
+
**
21,7 / 36,8
GTX 570
**
+
**
18,0 / 34,0
HD 6950
**
+
*
19,0 / 32,3

De HD 6990 boekt in AvP een duidelijke overwinning op de GTX 590. Zowel de AMD- als de Nvidia-kaart schalen in AvP uitstekend op; de wat mindere score van de GTX 590 is dan ook vrijwel volledig te wijten aan de lagere kloksnelheden.

Bad Company 2

Bad Company 2 is net als AvP een DirectX 11-spel, maar maakt wel minder gebruik van de features van deze api. Toch hebben de meeste videokaarten nog een behoorlijke kluif aan deze benchmark, waarin de zwaarste settings, 4xAA en 16xAF worden gebruikt.

Bad Company 2 - 2560x1600 - max - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
******
+
**
73,4 / 94,3
HD 6970 CF
*****
+
**
62,0 / 81,8
GTX 570 SLI
*****
+
**
58,0 / 80,2
GTX 590
*****
+
*
61,7 / 75,8
HD 6990
*****
+
**
54,0 / 73,7
HD 6950 CF
*****
+
*
57,7 / 73,6
HD 5970
****
+
**
44,3 / 62,2
GTX 580
***
+
*
37,0 / 51,0
GTX 570
***
+
*
33,8 / 43,0
HD 6970
***
+
*
33,0 / 41,7
HD 6950
**
+
*
26,5 / 37,0

In Bad Company 2 gaat de GTX 590 er nipt met de overwinning vandoor. De Nvidia-kaart is hier net iets langzamer dan twee GTX 570's; de HD 6990 is vrijwel even snel als twee HD 6950's.

Call of Duty: Black Ops

Call of Duty: Black Ops zit in onze benchmarksuite vanwege zijn populariteit en niet vanwege de hoogstaande graphics. Vooral voor de multiplayer is een flinke framerate echter noodzakelijk.

Call of Duty: Black Ops - 2560x1600 - Maximum - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
******
+
**
107,5 / 150,9
GTX 570 SLI
*****
+
**
98,5 / 134,5
HD 6970 CF
*****
+
**
87,0 / 127,8
HD 6950 CF
****
+
**
86,3 / 121,4
HD 6990
****
+
**
86,0 / 120,4
GTX 590
*****
+
**
89,0 / 115,4
HD 5970
****
+
**
76,0 / 108,0
GTX 580
***
+
*
66,5 / 86,1
HD 6970
***
+
**
50,5 / 76,3
GTX 570
***
+
*
56,5 / 74,2
HD 6950
**
+
*
43,8 / 68,4

In Black Ops is het om het even of je een HD 6990 of een GTX 590 hebt. Beide videokaarten produceren meer dan genoeg frames per seconde, al moet met name de GTX 590 het wel afleggen tegen de sli-combinaties, die hier overtuigend de beste resultaten overleggen.

F1 2010

F1 2010 is in onze benchmarksuite de opvolger van DiRT 2. Dit spel maakt iets meer gebruik van DX11-functies en is uiteindelijk iets zwaarder voor videokaarten.

F1 2010 - 2560x1600 - DX11 - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
HD 6970 CF
*******
+
*
68,7 / 76,0
HD 6990
*******
+
*
64,8 / 68,3
HD 6950 CF
*******
+
*
65,5 / 68,2
GTX 580 SLI
******
+
*
61,4 / 65,3
HD 5970
******
+
*
54,5 / 58,2
GTX 570 SLI
******
+
*
54,1 / 57,1
GTX 590
*****
+
*
50,3 / 52,2
GTX 580
****
+
*
40,5 / 42,3
HD 6970
****
+
*
39,5 / 41,6
HD 6950
****
+
*
35,2 / 36,9
GTX 570
****
+
*
35,4 / 36,8

In F1 2010 behaalt de HD 6990 een duidelijke overwinning en dat lijkt te komen door het slechte schalen van de Nvidia-videokaarten. Zo zijn twee GTX 580's slechts anderhalf keer zo snel als een enkel exemplaar. Dat de GTX 590 twintig procent langzamer is dan twee GTX 580's is gezien de kloksnelheden wederom niet vreemd.

Far Cry 2

Far Cry 2 heeft altijd beter gedraaid op videokaarten van Nvidia en biedt hedendaagse videokaarten geen echte uitdaging meer. Het spel maakt waarschijnlijk voor de laatste keer zijn opwachting in onze benchmarksuite, omdat Crysis 2 inmiddels officieel is verschenen.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
******
+
**
110,9 / 143,9
HD 6970 CF
*****
+
**
98,2 / 128,3
GTX 570 SLI
*****
+
**
95,3 / 123,0
HD 6990
*****
+
**
96,2 / 121,7
HD 6950 CF
*****
+
*
95,6 / 119,6
GTX 590
*****
+
*
87,0 / 110,9
HD 5970
****
+
*
75,7 / 95,8
GTX 580
***
+
*
59,0 / 76,9
HD 6970
***
+
*
53,1 / 67,5
GTX 570
***
+
*
49,8 / 66,6
HD 6950
***
+
*
47,6 / 60,9

Opvallend genoeg deelt AMD in deze benchmark toch nog even een flinke tik uit: Nvidia, dat in Far Cry 2 altijd heer en meester was, ziet de HD 6990 voor de GTX 590 eindigen. De HD 6990 houdt het midden tussen twee HD 6950's en twee HD 6970's.

Metro 2033

Voor deze review trokken we Metro 2033 uit de kast. Het spel is grafisch erg mooi maar ook zwaar voor videokaarten. Als de zwaarste instellingen worden gebruikt, inclusief tesselation en depth of view, storten de framerates in. We schroefden de instellingen dan ook iets terug om tot bruikbare resultaten te komen.

Metro 2033 - 2560x1600 - High - dov uit
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
******
+
**
48,3 / 68,0
HD 6970 CF
****
+
****
31,7 / 62,1
HD 6990
****
+
****
30,8 / 59,7
HD 6950 CF
***
+
***
30,3 / 58,2
GTX 570 SLI
****
+
**
38,7 / 55,6
GTX 590
****
+
**
37,7 / 53,0
HD 5970
***
+
***
25,0 / 48,4
GTX 580
***
+
*
27,3 / 39,0
HD 6970
***
+
**
24,0 / 37,4
HD 6950
**
+
**
21,3 / 33,6
GTX 570
***
+
*
22,3 / 32,7

De AMD-kaarten lijken in deze test goed mee te kunnen komen, maar laten wel consequent lagere minima zien dan de Nvidia-hardware. De GTX 590 mag dan een gemiddeld lagere framerate produceren dan de HD 6990, de minima liggen significant hoger. Een echte winnaar is er dan ook niet, maar wij zouden de voorkeur geven aan de iets constantere prestaties van de GTX 590.

Overigens viel tijdens het benchmarken op dat er een zeer irritante hapering in de benchmark zit. Waar deze vandaan komt is onduidelijk; hij treedt ook op bij het los testen van de single-gpu-kaarten. Het is nog maar de vraag of we deze benchmark kunnen blijven gebruiken.

Stalker: Call of Pripyat

Stalker: Call of Pripyat begint oud te worden, maar weet videokaarten nog altijd flink onder druk te zetten. Het gebruik van diverse DX11-functies en de grote levels maken het leven van een videokaart er niet gemakkelijker op.

Stalker: CoP - 2560x1600 - DX11 - max - 0xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
HD 6970 CF
*****
+
***
31,3 / 52,5
HD 6990
*****
+
***
30,1 / 49,1
GTX 580 SLI
****
+
***
29,6 / 48,5
HD 6950 CF
****
+
***
28,1 / 46,3
GTX 570 SLI
****
+
***
25,5 / 42,5
HD 5970
****
+
**
24,5 / 38,1
GTX 580
****
+
**
24,5 / 35,1
GTX 590
***
+
**
19,6 / 34,6
GTX 570
***
+
**
21,9 / 30,9
HD 6970
***
+
*
22,8 / 28,2
HD 6950
***
+
*
19,8 / 23,7

De HD 6990 is veel sneller dan de GTX 590, maar die lijkt in Call of Pripyat niet naar behoren te functioneren - een enkele GTX 580 is al sneller. Met andere woorden: sli werkt niet in deze benchmark. Overigens is de schaling van zowel sli als CrossFireX ook in andere gevallen niet wat het moet zijn in de benchmark. Dat ligt eerder aan het spel dan aan de driverteams van Nvidia en AMD.

Eyefinity versus Surround

De in deze review geteste videokaarten - en combinaties van videokaarten - gaan voor minimaal 400 euro over de toonbank en er mogen dan ook serieuze eisen aan ze gesteld worden. Daarom hebben we besloten om het ze nog iets moeilijker te maken. We stelden drie schermen op met elk een resolutie van 1920x1080 pixels en combineerden deze met behulp van AMD's Eyefinity en Nvidia's Surround tot een bureaublad met een resolutie van 5760x1080 beeldpunten. Dat komt ongeveer neer op zes megapixel, en dat is ruwweg anderhalf keer zoveel als de vier megapixel van een 2560x1600-scherm.

Onze ervaringen met Eyefinity en Surround zijn overwegend positief. Het instellen van Eyefinity werd met AMD's nieuwste drivers eenvoudiger en is nu snel gedaan. Met Surround zaten we iets langer te klieren, omdat we een zwarte achtergrond voor de schermen hadden ingesteld - en dan is Surround wat lastiger te configureren.

Bad Company 2 - 5760x1080 - max - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
*******
+
*
51,8 / 61,3
GTX 570 SLI
*****
+
**
41,0 / 52,4
GTX 590
*****
+
*
41,5 / 50,5
HD 6990
*****
+
*
36,4 / 46,6
HD 6970 CF
*****
+
*
36,2 / 46,5
HD 6950 CF
****
+
**
33,3 / 44,2
HD 5970
****
+
*
33,3 / 41,7

Bad Company 2 is een leuk spel om op drie schermen te spelen, maar uit de tabel blijkt dat er wel heel wat grafische power voor nodig is om dat op de hoogste instellingen te doen. De GTX 590 heeft de overhand en kan zich meten met twee GTX 570's in sli.

Stalker: CoP - 5760x1080 - DX11 - high - 0xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
HD 6970 CF
*****
+
***
29,8 / 42,8
GTX 580 SLI
*****
+
**
29,4 / 42,2
HD 6990
*****
+
**
28,3 / 40,9
HD 6950 CF
*****
+
**
25,9 / 37,7
GTX 570 SLI
****
+
***
24,2 / 37,0
HD 5970
****
+
**
23,0 / 35,0
GTX 590
****
+
**
21,8 / 33,3

Voor Stalker: Call of Pripyat moesten we de settings weer wat terugschroeven om min of meer speelbare framerates te halen. Toch zakt de GTX 590 hier door het ijs, maar dat is niet onverwacht: in de 2560x1600-test presteerden de sli-systemen ook al minder goed.

Eyefinity versus Surround (2)

Ook F1 2010 leent zich uitstekend voor gamen met een Eyefinity- of Surround-setup.

F1 2010 - 5760x1080 - DX11 - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
HD 6970 CF
*******
+
*
48,0 / 55,8
HD 5970
*******
+
*
48,6 / 52,2
HD 6990
*******
+
*
47,5 / 51,1
HD 6950 CF
*******
+
*
47,0 / 50,9
GTX 580 SLI
*******
+
*
47,6 / 49,7
GTX 570 SLI
******
+
*
40,4 / 43,1
GTX 590
*****
+
*
38,3 / 41,0

Er vallen twee zaken op. Ten eerste kunnen alle videokaarten of combinaties daarvan het spel prima aan op de resolutie van 5760x1080, waarbij de HD 6990 wel een stuk sneller is dan de GTX 590. Ten tweede blijkt de HD 6990 net zo snel te zijn als de HD 5970, die al ruim een jaar oud is.

Far Cry 2 - 5760x1080 - Ultra high - 4xAA/16xAF
VideokaartMinimum / Gemiddelde Score (fps)
GTX 580 SLI
******
+
**
70,8 / 86,6
GTX 570 SLI
******
+
**
61,1 / 77,2
GTX 590
*****
+
*
58,0 / 72,5
HD 6990
*****
+
*
51,1 / 63,4
HD 6970 CF
*****
+
*
50,8 / 63,2
HD 6950 CF
*****
+
*
50,6 / 63,1
HD 5970
****
+
*
40,9 / 51,1

Met een resolutie van 5760x1080 pixels hebben de videokaarten wat meer moeite met Far Cry 2, maar de framerates blijven meer dan hoog genoeg. Opmerkelijk genoeg is de HD 6990, die op 2560x1600 nog sneller was dan de GTX 590, dit keer de langzamere van de twee.

Het is onduidelijk waarom de GTX 590 opeens beter gaat presteren; de GTX 590 heeft immers niet significant meer geheugenbandbreedte dan de HD 6990. Ook de framebuffer van 1,5GB is kleiner dan de 2GB waarover de HD 6990 kan beschikken.

Overklokken

AMD claimt dat zijn HD 6990 goed overgeklokt kan worden, met name als het speciale bios wordt gebruikt - al vervalt daarmee bij de meeste fabrikanten de garantie. In Nvidia's presentatie werd echter met geen woord gerept over het overklokken van de GTX 590.

We besloten om de op 830MHz geklokte HD 6990 op te voeren zonder de speciale schakelaar te gebruiken. Daarbij wisten we een kloksnelheid van 950MHz te bereiken, een overklok van net geen vijftien procent.

De twee gpu's van de GTX 590 konden van 607MHz naar 700MHz worden overgeklokt, wederom een overklok van vijftien procent. Deze gpu's hebben standaard een lagere werkspanning dan de GTX 580 en het is dan ook niet vanzelfsprekend dat ze tot de GTX 580-kloksnelheid van 772MHz overgeklokt kunnen worden.

Alien vs Predator - 2560x1600 - High - 0xAA/16xAF - OC
VideokaartMinimum / Gemiddelde Score (fps)
HD 6990 - 950MHz
*****
+
***
44,0 / 73,1
GTX 590 - 700MHz
****
+
****
38,0 / 68,6
HD 5970 - 800MHz
****
+
***
38,0 / 60,5

De overgeklokte HD 6990 is nog steeds het snelst in de Alien vs. Predator-test. Een opgevoerde HD 5970 kan nog een heel eind meekomen met de GTX 590, maar heeft wel een iets lagere gemiddelde framerate.

F1 2010 - 2560x1600 - DX11 - 4xAA/16xAF - OC
VideokaartMinimum / Gemiddelde Score (fps)
HD 6990 - 950MHz
*******
+
*
71,0 / 76,2
HD 5970 - 800MHz
******
+
*
58,5 / 62,3
GTX 590 - 700MHz
*****
+
*
52,8 / 55,8

F1 2010 toont nog maar eens aan hoe snel de HD 5970 kan zijn: in deze test is dit oudje tien procent sneller dan de GTX 590. De HD 6990 is de afgetekende winnaar.

In zowel AvP als F1 2010 is de prestatiewinst behoorlijk evenredig met de hogere kloksnelheden. Met wat meer spanning zouden nog hogere kloksnelheden behaald kunnen worden, maar met name van de GTX 590 zouden we niet durven zeggen of dat wel zo verstandig is.

Energieverbruik

We meten het energieverbruik van het gehele systeem aan het stopcontact. In de idle-stand wordt enkel de Windows-desktop weergegeven, op één scherm. Bij zowel Nvidia en AMD geldt dat meerdere aangesloten schermen voor een hoger energieverbruik van de videokaarten zorgen.

Energieverbruik systeem - Idle
VideokaartScore (Watt)
HD 6950
******
107
HD 6970
******
107
GTX 570
******
111
GTX 570
******
112
GTX 580
*******
117
HD 6990
*******
125
HD 6950 CF
*******
128
HD 6970 CF
*******
129
HD 5970
*******
130
GTX 590
********
137
GTX 570 SLI
********
149
GTX 580 SLI
*********
150

De HD 6990 weet het verbruik nog aardig laag te houden in vergelijking met een enkele HD 6950 of HD 6970, die 18W minder nodig hebben. De GTX 590 is iets minder zuinig maar presteert nog niet slecht: het verbruik is 20W hoger dan bij een enkele GTX 580.

Energieverbruik systeem - Load
VideokaartScore (Watt)
HD 6950
****
305
GTX 570
*****
339
GTX 570
******
387
HD 5970
******
390
HD 6970
******
402
GTX 580
******
414
HD 6950 CF
******
422
GTX 590
******
434
HD 6990
******
445
HD 6970 CF
********
519
GTX 570 SLI
********
560
GTX 580 SLI
*********
585

Als we Furmark draaien om de gpu's voluit te belasten, ontloopt het energieverbruik van de HD 6990 en de GTX 590 elkaar nauwelijks. Dat heeft echter veel te maken met de Nvidia-software, die het verbruik in onder andere Furmark flink terugbrengt. Hetzelfde gebeurt bij de GTX 570's en GTX 580's in sli, maar in mindere mate. De AMD-kaarten hebben voor dit doel de PowerTune-hardware, die we ongewijzigd lieten: door deze soepeler in te stellen zal het verbruik hoger worden.

Energieverbruik systeem - Ingame
VideokaartScore (Watt)
HD 6950
****
238
GTX 570
*****
265
HD 6970
*****
268
GTX 570
*****
285
GTX 580
*****
315
HD 5970
*****
317
HD 6950 CF
******
370
HD 6990
*******
388
GTX 590
*******
412
HD 6970 CF
********
438
GTX 570 SLI
********
447
GTX 580 SLI
*********
490

Door het verbruik in drie verschillende games te meten en de resultaten te middelen, komen we tot een realistischer load-verbruik. Hierbij blijkt de HD 6990 een procent of vijf zuiniger te zijn dan de GTX 590. Opvallend was hierbij dat Alien vs. Predator de GTX 590 meer energie liet verbruiken dan Furmark.

Geluidsproductie

Tijdens het meten van het energieverbruik hebben we ook de geluidsdruk gemeten, op een afstand van 20cm.

Geluidsdruk systeem - Idle
VideokaartScore (dB(A))
GTX 590
****
42,2
HD 6990
***
41,0
GTX 570 SLI
***
39,6
HD 6970 CF
***
38,8
HD 6950 CF
***
38,4
HD 6950
***
38,2
GTX 580
***
38,0
GTX 570
***
38,0
HD 5970
***
37,8
HD 6970
***
37,6
GTX 580 SLI
***
37,3
GTX 570
***
37,2

De HD 6990 en de GTX 590 staan jammer genoeg bovenaan de lijst. Waarom de fans van de videokaarten niet langzamer ronddraaien is onduidelijk, de koelers zijn immers krachtig genoeg en de gpu's worden amper warm. Ook de sli- en Crossfire-opstellingen maken minder geluid dan de enkele fans van de GTX 590 of HD 6990.

Geluidsdruk systeem - Load
VideokaartScore (dB(A))
HD 5970
********
62,4
HD 6990
********
62,3
GTX 580
****
52,8
GTX 570
***
49,4
HD 6970 CF
***
49,2 (75c/75c)
GTX 590
***
48,6 (85c/82c)
GTX 580 SLI
***
48,1 (80c/75c)
HD 6950 CF
***
47,4 (75c/75c)
GTX 570 SLI
***
47,0 (83c/72c)
HD 6970
**
42,9
HD 6950
**
41,5
GTX 570
**
39,9

Onder load stelt de HD 6990 zwaar teleur. Bij een verbruik dat vergelijkbaar is met dat van de GTX 590 draait de fan van de HD 6990 zo hard dat deze in vergelijking met de GTX 590 ruim twee keer zoveel geluid produceert. Ook in games is de HD 6990 al snel goed hoorbaar, terwijl de toenemende geluidsproductie van de GTX 590 amper opvalt. Nvidia's koeler is duidelijk superieur.

Conclusie

Nvidia en AMD hebben allebei een monsterlijke videokaart op de markt gezet, maar het lijkt erop dat AMD de prestatiekroon in handen houdt. In sommige benchmarks zijn de videokaarten even snel, maar de HD 6990 wint vaker en overtuigender dan de GTX 590. Alleen in Bad Company 2 en in de Far Cry 2-benchmark op 5760x1080 is de GTX 590 duidelijk sneller. In Metro 2033 produceert de GTX 590 nog wel hogere minima, maar is de gemiddelde framerate van de HD 6990 iets hoger.

Daar komt nog bij dat Nvidia heeft aangegeven dat de GTX 590 een adviesprijs krijgt van 650 euro, terwijl de HD 6990 voor ongeveer 550 euro over de toonbank zal gaan. Als de GTX 590 even duur zou zijn als de HD 6990, zou het meer van de voorkeur van de koper afhangen welke videokaart het beste is.

Er moet wel bedacht worden dat de GTX 590 onder load heel veel stiller is dan de HD 6990. Ook heeft AMD niet langer het voordeel van Eyefinity: de GTX 590 kan met de Surround-techniek ook een trio schermen aansturen. Dat AMD er zelfs vijf kan gebruiken is op papier mooi, maar voor het gros van de kopers van weinig praktisch belang.

Het overklokpotentieel van de videokaarten is weer redelijk vergelijkbaar. De HD 6990 heeft wel de AUSUM-schakelaar om de kloksnelheden te verhogen, maar als de garantie dan vervalt, is dat in feite een dooie mus. Wij zijn niet erg van zulke 'extra's' gecharmeerd.

Wie voor de absolute topprestaties gaat, moet ook overwegen om twee losse videokaarten aan te schaffen. Twee HD 6950's kosten samen ongeveer 450 euro, en twee GTX 570's zijn voor rond de 600 euro te koop. Dan heb je echter wel een moederbord nodig dat sli of CrossFire ondersteunt en bovendien genoeg ruimte voor de koelers biedt. Ook de voeding moet maar net over vier pci-e connectors beschikken, tenzij je met verloopjes aan de slag gaat. Wie het simpeler wil oplossen en toch maximale prestaties zoekt, komt als vanzelf terecht bij de GTX 590 en de HD 6990.

Lees meer

Nvidia introduceert GTX 590
Nvidia introduceert GTX 590 Nieuws van 24 maart 2011
AMD Radeon HD6990
AMD Radeon HD6990 Video van 24 maart 2011
NVIDIA GTX590
NVIDIA GTX590 Video van 24 maart 2011
Eerste details GTX 590 lekken uit
Eerste details GTX 590 lekken uit Nieuws van 14 maart 2011
AMD introduceert de HD 6990
AMD introduceert de HD 6990 Nieuws van 8 maart 2011

Reacties (197)

197
188
88
4
0
51
Wijzig sortering
Goede review, maar zoals maar een paar keer hierboven genoemd wordt, is bij de meeste gerenomeerde review websites de GTX590 sneller dan de HD6990 (Bijna alleen op Alien vs Predator na).
Er is dus hoogst waarschijnlijk bij deze test, óf met verkeerde drivers getest, óf een buitensporige aanpassing in de settings van Nvidia-Configuratiescherm gebruikt, zoals ambient occlusie of de transparantie waarde van de anti aliasing op supersampling in plaats van multisampling.

http://www.guru3d.com/article/geforce-gtx-590-review/16
http://www.guru3d.com/article/geforce-gtx-590-review/12

http://www.tomshardware.c...adeon-hd-6990,2898-6.html
http://www.tomshardware.c...adeon-hd-6990,2898-7.html

http://nl.hardware.info/r...iew-metro-2033-directx-11
http://nl.hardware.info/r...all-of-pripyat-directx-11
Als je nou eens goed keek naar de linkjes waar jezelf mee komt, zie je dat er helemaal niks aan de hand is. HWI test niet op 2560x1600, Tom's gebruikt andere, nog hogere settings, waar de HD 6990 blijkbaar meer moeite mee heeft dan de GTX 590. Bij Guru3d scheelt het ook weinig en laten ze geen minima zien.

Settings van de drivers vind je terug op pagina 4. Daar wordt niet van afgeweken en ook niet per ongeluk. Verder zijn er de verschillende SLI-opstellingen die ter referentie dienen en waarvan de scores niet vreemd zijn ten opzichte van de GTX 590. Denk je dus dat we elke keer dezelfde, verkeerde settings hebben gebruikt?

Als je hier naar kijkt: http://www.computerbase.d...schnitt_leistung_mit_aaaf

zie je dat ook daar de HD 6990 op 2560x1600 sneller is dan de GTX 590. Laat ik nou net enkel op die resolutie getest hebben...
Hoewel ik je gedeeltelijk gelijk wil geven, vind ik het niet compléét gerechtvaardigd dat dan de HD6990 als 'Zeer Goed' uit de bus komt en de GTX590 als 'Goed'. Gezien het maar net is hoe je het wilt zien. De andere review sites laten ook een lagere resolutie zien, puur omdat de meeste mensen nog niet op die resoluties hun games spelen. Lagere resoluties met hogere anti aliasing is ook een goed alternatief, vind ik.

Doordat het een SLI opstelling op 1 PCB betreft kan er inderdaad goed gezien worden dat de GTX590 zich iets meer gaat inhouden. Dat komt deels doordat beide GF110 videochips echter in SLI samenwerken, de chips moeten dezelfde data in het eigen geheugen opslaan, waardoor er effectief 1,5GB overblijft. 1,5GB tegenover 2GB scheelt dus wel wat.
Mensen die het geld over hebben voor dit soort videokaarten gamen echt niet op 1280 x 1024 hoor... dat ligt waarschijnlijk echt wel op > 1920 x 1080
Minima tellen idd mee, maar zoals veel sites het nu doen geeft het een vertekend beeld.
Omdat de minimale FPS vrijwel altijd slechts een periode behelst van enkele milliseconden op een test van minuten...
Vaak zo kort, dat je er amper last van zal krijgen. MAW: de minimale FPS word wat mij betreft te zwaar aangezet in vele reviews. Nee, ik kijk vooral naar de gemiddeldes. Die tellen nog altijd het zwaarst.
Ik vind de scorekaart een beetje raar..
De HD6990 krijgt als algemene beoordeling 5*, terwijl het maar 2 sterren bij warmte en geluid heeft. De GTX590 is dan wel duurder, maar scoort overtuigend beter op de warmte en geluid. Toch krijgt die als algemene beoordeling 4*.

Als je de algemene beoordeling buiten beschouwing laat, heeft de GTX590 een ster meer dan de HD6990. Toch moet de GTX590 het dan met slechts een 'goed' medaille doen.

Verder is de GTX590 wel erg duur geworden, kan me niet voorstellen dat die koeler 100 euro meer kost dan die van de HD6990 :+
De koeling weegt niet zo zwaar als de prijs. Prijs/prestatie-verhouding staat wat mij betreft voorop.
@ Marc Rademaker:
Wat me eerlijk gezegd ook verbaast op de scorekaart is dat de 6990 5 sterren heeft voor "Featureset" terwijl de GTX590 er maar 4 krijgt.

De unique selling point van deze generatie Radeons (5000/6000 serie) is Eyefinity.
Voor nVidia is dat PhysX en CUDA. Met SurroundView ondersteund nV nu echter feitelijk hetzelfde als ATI doet met Eyefinity, met als extra (nV exclusief) nog steeds PhysX en CUDA.

Hoe kan het dan dat de Radeon vervolgens hoger scoort op Featureset?? Wat kan de 6990 wel dat de GTX590 niet kan? Zeker gezien je zelf al stelt dat deze implementatie van die "AUSUM-switch" feitelijk een 'dooie mus' is: er zijn niet veel mensen die er zin in zullen hebben hun garantie op een kaart van 550 Euro door de WC te spoelen ;)

<edit>
HWI komt trouwens met een benchmarksuite met grotendeels dezelfde games tot een andere conclusie:
Is de GeForce GTX 590 de snelste videokaart ter wereld? Ja, als we al onze benchmarks middellen is de kaart sneller dan de Radeon HD 6990. Echter, het verschil is niet bijster groot. Beide kaarten zijn duidelijk aan elkaar gewaagd.
Altijd wel gek dat er zo'n opmerkelijk verschil in de resultaten kan zitten als bijna dezelfde games worden getest...

<edit2>
Zo ongeveer alle andere gerenommeerde reviewsites die ik nu check komen tot de conclusie dat de GTX590 en 6990 gelijk presteren (met hier en daar een lichte 'edge' vaak juist naar de 590):
http://www.tomshardware.c...deon-hd-6990,2898-19.html
http://www.bit-tech.net/h...rce-gtx-590-3gb-review/10
http://www.hardwarecanuck...tx-590-3gb-review-23.html
http://www.techspot.com/review/378-nvidia-geforce-gtx-590/
http://www.techpowerup.co...S/GeForce_GTX_590/27.html
http://www.guru3d.com/article/geforce-gtx-590-review/21
http://www.legitreviews.com/article/1576/17/
http://www.anandtech.com/...r-the-single-card-king/17

Het is dus niet HWI die de vreemde eend in de bijt is...

<edit3>
@Marc Rademaker hieronder:
Een test op 1920x1080 - met afstand de meest gangbare resolutie op high-end gamemachines - is "tijdverspilling"?? :?
Interessant uitgangspunt... dat je als je ~600 Euro overhebt voor een videokaart je ook wel 1200+ Euro zult (over)hebben voor een 2560x1600 scherm om op die reso te kunnen gamen is nogal een aanname. 1680x1050 skippen: soit. Maar 1920x1080? Dit zorgt er in ieder geval wel voor dat je eindconclusie behoorlijk scheef trekt bij de rest... want ook Computerbase die je aanhaalt concludeert
Einen eindeutigen Gewinner im Duell GeForce GTX 590 gegen Radeon HD 6990 gibt es also nicht, denn beide Karten haben ihre Vor- und Nachteile. [...] In Sachen Performance gibt es keinen eindeutigen Gewinner.
Wat 2560x1600 betreft heeft hardwarecanucks trouwens ook lichtelijk andere ideeen bij bijna dezelfde benchmarksuite als hier gebruikt, maargoed...

PS: What about the featureset die ik hierboven bespreek? Want - performance aside - ben ik heel erg benieuwd waarom de Radeon ook daar beter uit de bus komt in de score?

[Reactie gewijzigd door Cheetah op 22 juli 2024 16:57]

Zie: http://www.computerbase.d...schnitt_leistung_mit_aaaf

Ik heb op 2560x1600 getest en op 5760x1080. Ik vermeld naast gemiddelden ook minima. Dat doen niet veel websites ons na. Daarkom is bij ons de HD 6990 sneller. Ik was tot een volledigere conclusie gekomen als ik ook op 1920x1200 had getest, maar dat vind ik tijdverspilling. Je haalt graag hwi aan, daar testen ze dus maximaal op 1920x1080 en halen ze soms 200fps. Nogal een verspilling voor een kaart als de GTX 590 en HD 6990.
Lekker makkelijk. Dit soort kaarten worden nogal vaak gekocht voor de patsfactor. Test dan op 1920*1080 of 1920x1200 met hele hoge kwaliteitsinstellingen in de drivers geforceerd, extreme AA, etc. Verzin wat, die kaarten zijn echt wel op hun knieen te krijgen in bijvoorbeeld stalker met alles op fucking wicked zeg maar ;) Ook op 1920x1080.

ATI en nVidia hebben allebei erg veel optionele instellingen die AA en AF naar een heel nieuw platform tillen. Gebruik die opties. Wat je veel review-sites ziet doen, tweakers incluis, is de AA op 4x houden en net zo lang je resolutie opschroeven tot de kaart op z'n plaat gaat.

Ik ben zelf alleen bekend met ATI, die heeft een optie om hekjes en andere fijnmazige structeren in games te AA'en. Wordt mooi. Maar heb geen enkele game speelbaar kunnen krijgen op een voor mijn kansrijke resolutie :P

Steam heeft vast wel data beschikbaar van users en hun kaarten + resjes. Mijn onderbuikgevoel zegt me dat de meeste mensen die gamen op een "monsterkaart" van deze of de vorige generatie niet gamen op 2560x1600.

Waarom toch altijd zo verdedigend. Is het zo raar om je benchmarks een heuhl klein biettie beetje op realiteit af te stemmen?

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:57]

De benchmarks even veranderen is niet zo simpel als het lijkt. Je hebt namelijk een hele hoop verschillende videokaarten en die moet je dan allemaal op die verschillende settings (die dus afwijken van wat je normaal test) moet testen. Mocht ik nog gaan testen op 1920x1200 dan zijn je resultaten met 2560x1600 opeens niet meer vergelijkbaar.

Sowieso zie ik het probleem niet echt. Zoveel verschil zit er niet tussen het opvoeren van de settings of het opvoeren van de resolutie. Beide maken het zwaarder voor de videokaart. Als een videokaart op een hogere resolutie beter presteert, is dat negen van de tien keer ook het geval bij hogere settings.
Testen op 5760x1080 is in mijn ogen eerder een eyefinity/multi monitor test dan een vergelijk tussen grafische kaarten. Om dat dan als basis neer te leggen vind ik een ongelukkige keus. Je zou idd verwachten dat prestaties evenredig meeschalen, de praktijk is echter weerbarstiger en laat regelmatig verrassende verschillen zijn. Veelal veroorzaakt door de niet perfecte drivers.

1920x1080/1200 is de meest gangbare resolutie, die zouden dan in mijn optiek dan ook geheid als basis voor het testparcours moeten dienen. Daarbovenop kan je testen wat je wenst.
eens, en nog iets wat raar is, is de proc.
dat had gewoon een 980X moeten zijn met overclock, als je dan de reviews bekijkt blijkt de 590 opeens sneller te zijn.

en het is gewoon ramdebiel dat er gewoon geen 1920x1200 of 1920x1080 is getest.
ik weet dat er weinig mensen zijn die zo een kaart kopen, maar de mensen die hem kopen draaien ook vaak gewoon 1920x1080 of 1200.
Daar wil ik nog aan toevoegen dat het beeld wat beide kaarten uit zullen poepen niet meer gelijk zal zijn doordat ze verschillende AA technieken gebruiken, dus dan zijn de resultaten niet meer vergelijkbaar.
@Marc: sluit me helemaal bij je aan, 2560x1600 is een veel geschiktere resolutie om te testen. Als je zo'n kaart koopt voor de patsfactor en er vervolgens een cheap-ass TN-panel van 24" aan hangt ben je niet goed wijs.
Juist wel, met een kaart koop je ook een AA techniek. Dus tweakers kan weer eens ouderwets diep gaan door de beeldkwaliteit van de gebruikte AA technieken eens te vergelijken met de performance impact bijvoorbeeld. Zou prachtig zijn, er zijn de afgelopen erg veel nieuwe technieken op het gebied van AA bij gekomen.

Ik bedoel, met een kaart koop je de drivers, en alle daarbij behorende plussen en minnen.
Alhoewel ik dat snap vraag ik me toch wel of, als je tóch al zoveel pecunia af moet geven voor je videokaartje, je dan niet liever die paar extra twintigjes neer zou leggen om dan ook zonder oordoppen te kunnen gamen. Een beetje meer geluid á la, maar het verschil tussen 48 en 62 dB is wel, grof gerekend, 4 tot 5x zo luid...

Niet dat de nvidia kaart hierdoor beter wordt dan de AMD, maar ik vind persoonlijk dat zo'n dik minpunt wel de 5e ster bij de nvidia ook weg mag halen: hij is niet érg goed want hij valt op een belangrijk punt toch wel heel hard tegen.
M'n Club3D 6990 is niet luider dan m'n 5970, & die was al behoorlijk stil. Zelfs na een aantal uur gamen draait de fan van de 6990 nog op 35% (30% idle), & idle is hij net zo stil, zo niet stiller dan de 5970, dus het valt allemaal reuze mee, zeker voor die prijs (€ 527,- / 538,- incl verz...)
Voor die extra twintigjes zou ik een beter koeler op de HD6990 zetten.
Dan ben je waarschijnlijk nog steeds goedkoper uit en je hebt een snellere videokaart.
Verschilt ook per persoon vermoed ik... Ik vind de (oude) Xbox 360 altijd een mooi voorbeeld. Deze maakt naar mijn mening echt een pokke herrie wat mijn game ervaring verpest :P Al praat ik hierover met een bepaalde groep van mijn vrienden kijken ze me aan alsof ze water zien branden :)

Dus ja in mijn ogen zouden deze kaarten op gelijke hoogte zitten maar ja de reviewer geeft zelf al aan dat hij (net zoals mijn vrienden) hier iets minder waarde aan hecht omdat het voor hem niet storend is.

Ontopic: Beide kaarten zijn wel echt bizar :P gamen op 5760x1080 :D :D :D Mijn huidige pc kan nog wel minimaal een jaar mee maar deze review schets wel een leuk toekomst beeld!

[Reactie gewijzigd door Mellow Jack op 22 juli 2024 16:57]

Elke 3 dB is een verdubbeling, dus:
62-48=14dB
14/3=4,6
2^4,6=25x luider
Mn eerste reactie was 'nette review' maar toch ontbrak er een heleboel. Jullie geven aan dat 'dergelijke kaarten alleen voor hoge resoluties gebruikt worden' maar persoonlijk denk ik daar anders over dus ben even naar 'de engelstalige buren' gegaan (anandtech) waar een nog veel uitgebreidere review staat.

Kort samengevat presteerd de GTX590 op 1920x1200 relatief gezien veel beter ivm de HD6990. Niet dat hij nu ineens sneller is maar het gat is minimaal. Komt er dus gewoon op neer dat de GTX590 prima met de HD6990 mee kan komen maar wrs door geheugentekort verliest op hogere resoluties.

Daarnaast komt ook naar voren dat Nvidia de clockspeeds zeer zuinig heeft afgesteld want in de hele review is een bench meegenomen met clockspeeds van 750mhz op de core en dan delft de HD6990 zelfs het onderspit.

Anyway, wat mij betreft is er geen overduidelijke winnaar. Gelukkig hoef ik ook niet te kiezen, beide kaarten zijn toch ver buiten budget (A).
Zo'n kaart koop je toch alleen maar om op hogere specs dan gemiddeld te gaan gamen lijkt mij? En hd is tegenwoordig gemiddeld. Een beetje game-fanaat heeft toch al drie schermen staan en stijgt al snel boven het gemiddelde uit.
Dus dan wordt het de 6990 nietwaar? Of je moet willen gaan OC'en. En dat is op dit moment niet interessant, wel voor het eventueel later doorverkopen ;)

Keuze blijft persoonlijk idd.

[Reactie gewijzigd door D-Day op 22 juli 2024 16:57]

Hogere specs ben ik mee eens maar dat staat dan toch los van een hogere resolutie. Trek alle AA settings maar eens open op 1920x1200 en dan zal je zien dat je het ook deze kaarten nog wel lastig kan maken.

reactie op edit:

Waarom zou je ze niet willen OC'en? De chips kunnen het makkelijk aan want als single-gpu draaien ze er ook op. Je moet alleen zorgen dat je wel voor voldoende koeling zorgt :)

[Reactie gewijzigd door dvl-2 op 22 juli 2024 16:57]

Yep. Ik bedoelde met dat OC'n dat het nu nog niet nodig is voor de meeste games. In de toekomst wel, en dan bepaalt de mate van OC-baarheid de restwaarde :)
Ik ben wel gamefanaat maar ik heb nog een magere 1680 x 1050 staan :X Ik ga als ik eens wat geld verdien over op een 30" 2560 x 1600 met evt een extra scherm erbij om andere progjes op te draaien, internetpagina, temps, chat progje ed. Ik heb eigenlijk niet zo'n gevoel dat ik er 3 moet hebben en met mij geloof ik dat de meeste gamers, zeg 90 % 1 scherm meer dan genoeg vind en dat is in full HD idd. Tegen de tijd dat er nog hogere resoluties op een scherm mogelijk zullen zijn ben ik al wel wat jaartjes ouder denk ik...

Ik moet wel zeggen dat andere reviews wel een wat ander beeld geven, toms hardware laat betere resultaten zien voor de 590, vooral op de meer gebruikte resoluties, al is die daar natuurlijk niet primair op gericht. Het geheugen is echter af en toe de limiterende factor...
Denk dat het aantal luitjes met multi monitor gaming setups toch nog steeds zwaar in de minderheid zijn. Ook denk ik dat het aantal dat multimonitor daadwerkelijk wil gaan aanschaffen laag is. De wens is er misschien, praktisch gezien komt het er vaak niet van, denk ik.


Maw: je doet aannames die je totaal niet kan staven. Mij lijkt het vooral een gimmick voor een handvol diehards. Niets meer en niets minder.
De GTX 590 laat het vooral liggen op prijs. Als ze hetzelfde hadden gekost, had de veel betere koeler van de GTX 590 wat mij betreft de doorslag gegeven.

En tja op 750MHz, dat is een 25% overklok :P Hebben ze daar extra spanning voor gebruikt?
lees de review en dan weet je het: ja ze hebben de spanning verhoogd naar dezelfde spanning waar de gtx580 op draait.. hetzelfde dus wat ati met de 6990 doet :)
ik zou maar oppassen met het voltage verhogen

http://www.youtube.com/watch?v=sRo-1VFMcbc

sweclockes heeft met een lichte overvolt al de magische rook laten ontsnappen, en waren blijkbaar niet de enige.
Ga je nou clock speeds van 2 verschillende architecturen vergelijken? een ATI chip op 750 mhz is niet hetzelfde als een nvidia chip op 750 mhz.. appels en peren...

Uit de meeste reviews komt naar voren dat de 6990 toch de betere keuze is.
Mss was het niet helemaal duidelijk maar het ging in dit geval op een GTX590 op 750mhz.. de 6990 draait veel hoger :)
Hoe komt het dat de gtx 590 op : Hardware.info sneller is? ( en niet zo'n beetje ook )
Heeft tweakers.net misschien een verkeerd exemplaar te pakken??

[Reactie gewijzigd door TheJackal83 op 22 juli 2024 16:57]

Of Hardware.info. Ik lees hier al tegenstrijdig reacties: "andere reviews geven aan dat die of die sneller is..."
imo tijd voor een Meta-Review: kwaliteit van iedere review beoordelen, de goede op een hoop gooien en het gemiddelde daarvan nemen. Geeft alweer een beter beeld :p
sorry, maar een UBBER kaart ga je niet benchen met een i7 920.
dan een i7 4600k op 4800MHz. of een i7 990X
Wat is er mis met een i7 920 ?
Bottleneck voor een kaart als deze.
Op HWI zijn de resoluties lager. (niet meer van de tijd)

Hoge resoluties zouden voor de 590 (1,5gb geheugen) wel eens een probleem kunnen vormen.

Bij hwi hebben ze wel nieuwere drivers voor de 590 gebruikt. Wat voor de 6990 is gebruikt is me niet duidelijk.
Hij is bij hwi niet sneller, ze testen daar op andere resoluties.

Zie bijv: http://www.computerbase.d...schnitt_leistung_mit_aaaf

Omdat ik enkel op 2560x1600 of hoger heb getest, is de GTX 590 sneller. Had ik ook op 1920x1200 getest, dan had ik ze even snel kunnen noemen :)
Daarbij moet worden opgemerkt dat bij hwi vrijwel geen enkele framerate onder de 60fps komt. Op een aantal pagina's scoren beide kaarten zelfs consequent > 100fps en hier en daar is 200fps te zien. Daar heeft echt niemand wat aan. De enige conclusie die je volgens mij aan zulke cijfers kan verbinden, is dat je voor die resoluties deze kaarten domweg niet nodig hebt.
Bij 3d-gaming worden 120+FPS resoluties in een keer weer erg prettig ;) Crysis 2 zou een mooie toevoeging aan de testsuite zijn in dit geval. Grote kans dat je in 3d ziet dat testen op 1920 toch niet zo'n gek idee is :P

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:57]

Ik weet niet wat de Nvidia ingineurs op hadden toen ze deze kaart ontwikkelden maar dit is totaal Nvidia onwaardig. Ik weiger te geloven dat dit de GTX590 moet zijn. Hopenlijk is het een foutje en komt er (net als met Intel's P67 chipset) een verbeterde versie. Maar als dit het moet zijn, stellen ze me zwaar teleur want dit ben ik niet van ze gewend.

Dat GTX580 SLI is wel ziekelijk snel trouwens. :9~
Die is indd ziekelijk snel, en ook nog eens goed over te klocken.
Ik zelf heb hem al een halfjaar ongeveer want met 2x losse kaarten heb je een half jaar tot een jaar langer plezier van tot er weer wat snellers komt. Daarom wacht ik zelf nooit op dualgpu kaarten.
Dit zal Nvidia echt niet oplossen door een bug te fixen hooguit zullen ze partners wat ruimte geven om over de spec's heen te gaan als ze dat al toestaan.
Probleem is verbruik!
Ze lopen domweg tegen het maximaal toegestane verbruik op, 375 watt is de max, meer kunnen ze de kaart niet laten verbruiken.
het systeem incl de GTX580 verbruikt onder LOAD maar 30 watt minder dan de GTX590.
Dat zegt genoeg.
Ati loopt ook tegen dit limiet, maar kan iets meer spelen daar hun GPU's over het algemeen iets zuiniger zijn en dus meer FPS/watt kunnen leveren.
Toch vind ik het knap om met zo'n complexe kaart met maar lieft 3,2miljard transistors een dual kaart te maken
Dit is niet als flame bedoeld, of fanboy praat, maar wat had je dan precies verwacht? ik zie hier namelijk hetzelfde plaatje wat al een jaar of 4-5 aan de gang is. AMD komt gewoon èlke keer met een produkt wat beter is dan Nvidia in dezelfde prijsklasse. 1 of 2 uitzonderingen daargelaten.

Dat neemt uiteraard niet weg dat beide gewoon goede produkten zijn , en je aan beide geen miskoop zult doen, maar dit ligt wel in de lijn der verwachtingen.
AMD is altijd beter met prijs prestatie, dat weet ik. Maar ik vind bijde gewoon goede producten hebben. Ik ben zelf wel een nvidia fan en koop daarom graag vaak de wat snellere kaarten van nvidia zoals de gtx580 in sli. Maar goed, zoals de laatste keer had ik de wat snellere kaarten van amd zoals de hd5870 in cf. Bijde kaarten vind ik goed en nooit problemen tot nu toe mee gehad. Ach en het boeit niet zo heel veel wie sneller is als de drivers maar goe zijn.
Ben ik de enige die het opvalt dat bijvoorbeeld de enkel GTX 580 méér geluidsdruk produceerd dan 2 GTX 580 in SLI ???

ligt dat aan mij of is dat vreemd?
Ik zeg twee van die fans vlak bij elkaar doven elkaar gedeeltelijk uit (anti-geluid).
dat zou je zeggen, maar anti-geluid werkt alleen als je 2 geluids golven heb die tegenover gesteld zijn aan elkaar. Deze kaart maken natuurlijk allebei de zelfde trilling.
dan zouden ze elkaar moeten versterken.

ik zat nog even te googlen en vond deze handige tool:
http://wwwtw.vub.ac.be/we...uk/N_druk_supe_rbdb_1.htm

als je hier de meetwaarden van de individuele kaarten in stopt, dan kom je op een totaal van 41.01 dB uit. Nou heb ik het zelf niet nagerekend, maar dat klinkt als dat als je 2 bronnen heb met het zelfde geluiddruk, de intensiteit verdubbeld wordt.
(Immers is +3 dB een verdubbeling en -3 dB een halvering)

edit: link en waarden

[Reactie gewijzigd door otandreto op 22 juli 2024 16:57]

Ik wil eerst wachten tot er geupdate drivers zijn voor de GTX590.
Vaak zie je dat benches eerst wat tegenvallen, dan komen er nieuwe drivers uit en gaat de performance een aantal procenten omhoog. Ik weet niet hoeveel goeds dat zal doen, maar toch, de GTX590 zou misschien nog wat kunnen inlopen!

Ik was erg blij om te lezen over de relatieve geluidsniveau's en het stroomverbruik, dus wat dat betreft, chapeau nVidia!


Oh en redacteurs: BETER ALS?! SCHAAM JE~!!
offtopic:
Als je gaat afgeven op taalgebruik (op zich altijd goed) moet je vervolgens niet zelf heel kansloos zo'n anglicisme als "redacteurs" in je tekst verwerken...


Ben inderdaad benieuwd naar de resultaten over 1 of 2 generaties drivers. Daar kunnen nog behoorlijke verschillen uit voortkomen. Hoe zit het eigenlijk, zijn één of meerdere van de geteste games ook "meant to play with nVidia"?
Het zal wel aan mij liggen hoor, Nika, maar redacteurs is gewoon een bestaand Nederlands woord, afgeleid van redacteur en alternatief voor redacteuren.

http://woordenlijst.org/zoek/?q=redacteur&w=w

Het heeft hoe dan ook niets met anglicisme te maken, daar het Engelse woord voor redacteur '(news)editor' is en 'redacteur' niets meer of minder dan de Nederlandse variant op het Franse 'rédacteur' is.

Rédacteur laat zich vertalen in 'Editor, news editor, sub-editor, drafter of copywriter' dus waar haal je het hele 'anglicisme' vandaan?

Je had het hooguit Gallicisme kunnen noemen, maar aangezien het gewoon in het groene boekje voorkomt zit je er volkomen naast.

Supersang deed helemaal niets fout - jij echter wel.
offtopic:
Kijk de VanDale er nog eens op na. Het meervoud van redacteur is zonder pardon redacteuren. Het is een Anglicisme naar mijn idee gezien het feit dat wordt gekozen voor een "s" ala editorS.
Sowieso Metro is ontwikkeld met flink wat support van Nvidea (als ik het goed heb) wat ook gelijk de winst in die test verklaard imo... Van de overige games weet ik het niet
Jammer zelf had ik eerst de shaders ge oc'd en niet de core speed van de gpu.
Vraag mij af wat hij dan doet.
ALs je de gpu overklokt, gaan de shaders automatisch ook omhoog.
Met de g92 chip konden shaders en gpu nog apart worden overgeklokt.
Nvidia blijkt hier wel de verliezer te zijn maar op bijna alle andere reviews de winnaar.
Ik weet dus zelf niet naar welke reviews ik moet kijken.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:57]

graag bronnen ij dit soort beweringen. hardwareinfo, tom's hardware?
Ik heb zelf 2 8800gt's gehad en het kon geloof ik ook nog met de gtx280, daar heb ik ook 2 van gehad. Ik weet zo niet waar ik zo snel bronnen weg moet halen maar het kon iig altijd met rivatuner en msi afterburner en asus smartdockter je kan dan shaders en gpu unlinken of linken. Jammer dat dat tegenwoordig niet meer kan.
Ik zal wel even bij wat echte benchmarkers vragen om linkjes.

Edit

Ach ik hoef er ook niet om te vragen, dit zegt wel genoeg ?
http://www.google.nl/#hl=...=&oq=&fp=d9aedabfce9c4c02

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:57]

Ik vind de prestatie's allemaal maar een beetje magertjes voor die prijzen.... Dat de 5970 soms sneller is dat de gtx590? Apart
Episch is het woord dat je zoekt ;)

Daarbij, magertjes vind ik zeker zeer overdreven. De kaarten moeten zich bewijzen op 2560 x 1600 en schalen verdomd lekker tov CF HD6950 bijvoorbeeld... Dat de prijs niet interessant is, ach... Dan had je een paar dagen geleden maar een drietal HD6950's aan moeten schaffen voor nog geen 550 euro :) Dan heb je wel flinke performance hoor...
Tsja, de twee krachtigste consumer-range videokaarten op de planeet zijn allebei in staat ieder beschikbaar spel op maximale instellingen op 1920x1080 (of lager) te draaien, wat toch de resolutie is die bij 98% van de mensen op het bureau staat.

Beide kaarten zijn zoals gezegd krankzinnig snel en ik denk dat het ondanks het huidige prijsverschil (zal ongetwijfeld kleiner worden) toch weer aankomt op voorkeur.

Maar als je je bedenkt dat vrijwel iedere kaart van 100-200 euro ieder denkbaar spel met acceptabele framerates op je scherm kan toveren, zijn dit soort kaarten steeds minder interessant.
Mijn 'oude' HD5850 kan nog steeds alles draaien, en ook bijna altijd met alle eyecandy op maximaal.

Overigens hoop ik wel dat ze die Catalyst rotzooi nou eens een keer gebruiksvriendelijk gaan maken, Nvidia doet wat dat betreft al jaren een betere job.
Dit word pas weer interessant als ze de games weer dermate zwaar maken a la crysis en far cry dat je zulke kaarten nodig hebt maar ze worden zwaar gekanibaliseerd door de gewone CF opties die goedkoper en sneller zijn, in verhouding. Het enige wat je nodig hebt en wat vrijwel elk nieuw mobo wat wat hoger is dan de minimale plankjes ook wel heeft is de ruimte voor twee videokaarten.
Het is en blijft een nichemarkt waar dit soort monsters voor gemaakt worden. Toch helpt die ontwikkeling de andere kaarten ook dus het blijft leuk om te zien :D
Mede dankzij de stilstaande ontwikkeling van de consoles blijft de software op een lager pitje qua vooruitgang. Dx11 word nog maar mondjesmaat gebruikt omdat de consoles er toch niet mee overweg kunnen. Bij de nieuwe xboxen en playstations zul je weer een stap voorwaarts zien denk ik.

[Reactie gewijzigd door SouLLeSSportal op 22 juli 2024 16:57]

Op dit item kan niet meer gereageerd worden.