Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

HD 6950 en HD 6970: nieuw high-end duo van AMD

Fashionably late

De introductie van de HD 6900-serie is nogal een rommeltje geworden. Er doen tal van geruchten de ronde, waarvan de meest geloofwaardige is dat AMD pas op het laatste moment het officiële bios uitbracht. De op 22 november geplande introductie werd dan ook tot 15 december uitgesteld, terwijl AMD zich normaliter zeer strak aan zijn roadmaps houdt. Over de reden voor het uitstel kan ook eindeloos worden gespeculeerd, maar wij vermoeden dat AMD onaangenaam werd verrast door Nvidia's introductie van de GTX 580. Onlangs kwamen dan toch de HD 6950 en HD 6970 uit, en konden wij ze aan enkele tests onderwerpen.

Nvidia wist, ondanks het gebruik van hetzelfde 40nm-procedé, het energieverbruik terug te dringen, terwijl de prestaties met 20 procent toenamen ten opzichte van de GTX 480. AMD moest ook noodgedwongen gebruikmaken van het 40nm-procedé en had uiteraard hetzelfde doel voor ogen, namelijk het terugdringen van het verbruik en het verbeteren van de prestaties.

Waar Nvidia voornamelijk mikte op het verbeteren van de chip en onder andere op transistorniveau aan de gang ging, pastte AMD zijn architectuur significant aan. Ook dat zal de nodige problemen met zich mee hebben gebracht, zowel bij het produceren van de chip als bij het schrijven van de drivers. Onderstaande slide laat goed zien wat AMD voor ogen heeft; de HD 5970 blijft de snelste videokaart, terwijl de HD 6970 de strijd met de GTX 570 moet aanbinden. De HD 6950 komt min of meer in niemandsland terecht.

Architectuur op de schop

Een opfrisser

AMD houdt er ten opzichte van Nvidia al tijden een andere architectuur op na, die door het leven gaat als vliw5, maar die architectuur werd omgevormd naar een zogeheten vliw4-architectuur. Anandtech wist het ooit mooi uit te leggen met onderstaand plaatje, waarmee meteen de vergelijking met Nvidia's variant van de streamprocessor wordt gemaakt.

Als het de ultra threaded dispatch processor lukt om een hoge mate van instruction level parallelism te creëren, kan een enkele thread snel worden afgehandeld. Als er geen vijf blokjes tegelijk worden verwerkt, blijven sommige delen van de gpu onbenut. Door over te stappen naar de vliw4-architectuur, moet het gemakkelijker zijn om de streamprocessors optimaal te benutten.

De Cayman-chip

Onderstaand diagram van de Cayman-gpu laat 24 simd-engines zien, met elk zestien threaded processors, die op hun beurt uit vier streamprocessors zijn opgebouwd. De voorgangers van de Cayman hadden per threaded processor nog vijf streamprocessors. Al met al is Cayman goed voor 1536 streamprocessors. Vergeleken met de Cypress-chip, die over 1600 sp's beschikte, nam het aantal streamprocessors dus af. Volgens AMD geldt in dit geval echter het spreekwoord less is more.

De overgang van vijf naar vier streamprocessors zou een prestatiewinst van 10 procent per mm2 tot gevolg hebben. Volgens AMD is elke simd-engine 10 procent kleiner, terwijl hij dezelfde prestaties kan leveren als voorheen en er natuurlijk 20 procent meer simd-engines zijn. De vijfde streamprocessor, die het veld moest ruimen, kon behalve voor de gebruikelijke berekeningen ook voor transcendentale berekeningen worden gebruikt. De architectuur is nu zo gemaakt dat drie van de vier streamprocessors samen een transcendentale berekening kunnen uitvoeren.

De threaded processors mogen nu anders zijn opgebouwd, de overige bouwstenen bleven grotendeels intact. Dat betekent onder andere dat er per simd-engine vier texture units aanwezig zijn. Met 24 simd-engines zijn er dus 96 texture units aanwezig en dat zijn er zestien meer dan bij de Cypress.

Tesselation: meer is meer

Behalve aan de architectuur sleutelde AMD ook aan de manier waarop de simd-engines worden aangestuurd. Ten opzichte van Caymans voorgangers is er nu een dubbel uitgevoerde graphics engine. Ten opzichte van bijvoorbeeld Cypress zijn er nu twee tesselators, twee vertex assemblers en twee geometry assemblers om de simd-engines aan te sturen.

De graphics engines zouden de werklast tile-based verdelen. Door de dubbel uitgevoerde graphics engines moeten de streamprocessors beter kunnen worden benut, maar nemen ook de tesselatieprestaties flink toe, aldus AMD. Over het algemeen zouden de tesselationprestaties tot twee keer zo hoog liggen, met uitschieters naar beneden en naar boven van anderhalf tot drie keer zo snel.

Beeldkwaliteit

Ten tijde van de HD 5800-serie introduceerde AMD opnieuw zijn ssaa-modus. Ditmaal werd er weer iets nieuws verzonnen: enhanced quality anti-aliasing, ofwel EQAA. Ten opzichte van MSAA maakt EQAA gebruik van meer coverage samples, waardoor de beeldkwaliteit moet toenemen. De vereiste extra rekenkracht zou marginaal zijn, zodat de prestaties er amper onder lijden. Alleen een uitgebreide analyse van voldoende beeldmateriaal, en waarschijnlijk een goede zoomfunctie, kan aantonen of er met de EQAA-modus daadwerkelijk winst valt te behalen.

Cayman review Cayman review Cayman review

Behalve EQAA maakt AMD ook melding van morphological anti-aliasing, maar die optie was al enige tijd beschikbaar in verschillende driverversies. Deze vorm van anti-aliasing wordt pas toegepast nadat het volledige beeld is gerendered. Kartelige randjes verdwijnen grotendeels, maar er kan ook worden gezegd dat het beeld enigszins wazig wordt. AMD paste de render back-ends, ook wel rop's, aan, waardoor ze een aantal berekeningen sneller uit moet kunnen voeren.

Cayman review Cayman review Cayman review

PowerTune: energiemanagement

Geheel nieuw is de zogeheten PowerTune-technologie. Een chip op de videokaart houdt het verbruik van de videokaart bij en grijpt in wanneer de tdp wordt overschreden. Nvidia introduceerde met zijn GTX 580 een vergelijkbare technologie, die met name ingrijpt tijdens programma's als FurMark of de Perlin Noise-test in Vantage. Laat dat nou net de programma's zijn die de pers veel gebruikt om een constante load op de gpu toe te passen, om op die manier het verbruik te kunnen meten.

Wij e-mailden over en weer met AMD om achter het nut, maar ook de werking van PowerTune te komen. Vooralsnog zien wij in ieder geval een groot potentieel voordeel van de technologie. Eerst was het nog gebruikelijk dat AMD-videokaarten slechts enkele verschillende powerlevels kenden, zoals volle snelheid en volledig idle, met respectievelijk zo hoog en laag mogelijke kloksnelheden. De nieuwe chip kan de kloksnelheden echter volledig variabel aanpassen en dat in een tijdsbestek van milliseconden.

In de praktijk kan dat betekenen dat AMD zijn gpu's van hogere kloksnelheden kan voorzien dan eerder mogelijk was. Denk daarbij vooral aan videokaarten in laptops, die over het algemeen drastisch verlaagde kloksnelheden hebben. Dat moet wel, omdat hogere kloksnelheden in bepaalde applicaties een te hoog verbruik met zich meebrengen. In andere applicaties kunnen de kloksnelheden echter gerust hoger zijn zonder dat het verbruik te hoog wordt.

AMD geeft voor de HD 6970 en de HD 6950 een tdp op van respectievelijk 250 en 200W. AMD benadrukt dat dit maximale waarden zijn, die enkel voorkomen bij de slechtste gpu's (met de hoogste leakage) en wanneer gebruik wordt gemaakt van alle beeldschermuitgangen. Normaliter zou het verbruik rond de 190 en 140W moeten liggen. Met behulp van een slider in Catalyst Control Center kan de tdp handmatig met 20 procent worden verhoogd om toch een zo hoog mogelijk verbruik mogelijk te maken, bijvoorbeeld tijdens het overklokken.

Voor ons betekende het dat we onze testmethode om het verbruik te meten moesten aanpassen. Wel werd al heel snel duidelijk dat PowerTune tijdens het spelen van verschillende games geen enkele keer ingreep. Alleen tijdens Furmark of vergelijkbare programma's werden de kloksnelheden van de gpu aangepast.

Op het allerlaatste moment e-mailde AMD ons nog dat PowerTune soms ook bij spellen in werking treedt en dit zou bij de HD 6950 vaker het geval zijn dan bij de HD 6970. We hebben dit niet kunnen reproduceren; het zou vooral gebeuren als er geen aa wordt gebruikt en wanneer het aantal fps toch al erg hoog is.

Enkele extra's

Dit jaar heeft AMD geen grote verrassingen, zoals het vorig jaar met Eyefinity had. De HD 6900-kaarten zijn wel van nog meer video-uitgangen voorzien dan hun voorgangers. Standaard zijn er twee dvi-poorten, een hdmi-poort en twee minidisplayports aanwezig. Het is nog steeds zo dat er voor het aansluiten van meer dan twee schermen een displayport moet worden gebruikt, door middel van een scherm dat displayport ondersteunt of met behulp van een actieve adapter. De displayportuitgangen voldoen verder aan de 1.2-specificatie, wat inhoudt dat het mogelijk is om per uitgang twee schermen aan te sturen, maar daar is nog wel extra hardware voor nodig, die pas in 2011 op de markt komt.

De tweede feature, die redelijk uniek is en voorheen was voorbehouden aan videokaarten die speciaal voor overklokkers zijn bedoeld, is de bios-switch. Het werkt vrij simpel; in de ene stand kan het bios naar hartelust worden geflasht, terwijl het in de andere stand niet te overschrijven valt, waardoor er altijd een werkbaar bios beschikbaar is.

Cayman review

Specificaties

De specificaties spreken grotendeels voor zich. De chip meet 389mm2 en dat is 55mm2 extra ten opzichte van de Cypress-chip. Dat komt omdat er nu meer simd-engines aanwezig zijn, hoewel die in omvang zijn afgenomen.

De HD 6950 heeft 22 in plaats van 24 simd-engines en moet het daardoor met 128 streamprocessors en 8 texture units minder stellen. De gpu van de HD 6950 is in theorie 17 procent langzamer en heeft dan ook minder geheugenbandbreedte nodig.

Cayman review Cayman review Cayman review Cayman review Cayman review Cayman review

Testsysteem

Het testsysteem werd opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat. Bij deze review werden de AMD-kaarten met versie 10.11 aangestuurd, terwijl de Nvidia-kaarten van versie 263.09 van de Geforce-drivers gebruikmaakten.

Als benchmarks dienden Call of Duty: Black Ops, Far Cry 2, Stalker: Call of Pripyat, F1 2010, Alien vs Predator en Battlefield: Bad Company 2. Ook van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 80GB Intel Postville
Videokaarten

Asus GTX 470
Asus GTX 480
HIS HD 5850
AMD HD 5870
Sapphire HD 5970
XFX HD 6870
XFX HD 6850
Asus GTX 580
AMD HD 6970
AMD HD 6950
EVGA GTX 570

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform houdt naar verwachting nog geruime tijd de prestatiekroon in handen. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn. Ook biedt deze opzet de mogelijkheid om videokaarten in sli- en CrossFire-modus te draaien.

Dell U3011

Elke game is getest op de resoluties 1920x1200 en 2560x1600 pixels. Dell voorzag Tweakers.net van een U3011, waarmee we in alle luxe op 2560x1600 pixels kunnen testen. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX. Bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multisampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancymodus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

Vantage, Unigine & 3DMark 11

We beginnen met de oudste benchmark, 3DMark Vantage. Vantage is waarschijnlijk een worst-case-scenario voor de nieuwe videokaarten, vergeleken met hun voorgangers. AMD optimaliseerde de drivers, waardoor de kans dat er delen van de vliw5-architectuur onbenut blijven erg klein is.

3DMark Vantage
GpuScore (punten)
HD 5970
********
26.087
GTX 580
********
24.680
GTX 570
******
20.768
HD 6970
******
20.136
GTX 480
******
19.030
HD 5870
******
18.365
HD 6950
******
18.273
HD 6870
*****
15.969
HD 5850
*****
15.652
GTX 470
*****
15.228
GTX 460 1GB
****
13.345
HD 6850
****
12.871

We zien dat de HD 6950 net zo snel is als de HD 5870. Dat is op zich een nette prestatie, gezien het aantal van 1406 en 1600 streamprocessors, en de lagere kloksnelheid. De HD 6970 is wel iets sneller dan de HD 5870, wat te verwachten viel, gezien de extra texture units, hogere kloksnelheid en het geringe verschil in streamprocessors. De HD 6970 legt het wel af tegen de GTX 570.

We gaan verder met Unigine, voorheen een van de weinig relevante benchmarks met de nodige tesselation. Nvidia-kaarten waren hier altijd heer en meester, maar AMD claimt op het gebied van tesselation flinke stappen te hebben gemaakt.

Unigine Heaven 2.0 - Normal
GpuScore (punten)
GTX 580
********
1.488
HD 5970
*******
1.317
HD 6970
*******
1.278
GTX 570
*******
1.245
GTX 480
*******
1.220
HD 6950
******
1.151
GTX 470
*****
977
HD 5870
****
816
HD 6870
****
811
GTX 460 1GB
****
767
HD 5850
****
711
HD 6850
****
682

In de Unigine Heaven-benchmark lost AMD zijn beloften in ieder geval in. De HD 6970 is sneller dan de GTX 570 en komt in de buurt van de HD 5970. Ten opzichte van de HD 5870 is de score anderhalf keer zo hoog, wat een hele prestatie is.

3DMark 11
GPUScore (Punten)
HD 5970
********
6.693
HD 6970
******
5.334
GTX 580
******
5.295
GTX 480
******
5.258
GTX 570
******
5.054
HD 6950
******
4.704
HD 5870
*****
4.279
HD 6870
*****
4.270
GTX 470
*****
4.236
HD 5850
****
3.739
HD 6850
****
3.563

Als laatste werd 3DMark 11 nog getest, met de Performance-preset. De HD 6970 laat de hoogste score noteren met een enkele gpu en verslaat daarbij de GTX 580 nipt.

Alien vs Predator

We beginnen met Alien vs Predator, een spel waarin AMD's en Nvidia's videokaarten aardig aan elkaar zijn gewaagd.

Alien vs Predator - 1920x1200 - High - 0xaa
GpuMinimum- » gemiddelde score (fps)
HD 5970
*****
+
***
53,0 / 83,6
GTX 580
***
+
***
36,0 / 63,1
GTX 480
***
+
***
34,0 / 60,1
HD 6970
***
+
**
36,0 / 58,8
GTX 570
***
+
**
31,0 / 53,9
HD 5870
***
+
**
33,5 / 53,7
HD 6950
***
+
**
31,0 / 51,4
GTX 470
**
+
**
23,5 / 42,3
HD 6870
**
+
**
25,0 / 41,4
HD 5850
**
+
**
24,7 / 41,2
GTX 460 1GB
**
+
**
19,0 / 33,7
HD 6850
**
+
*
19,0 / 33,4

De HD 6970 is praktisch even snel als de GTX 480 en GTX 580, en verslaat de GTX 570 vrij eenvoudig. De HD 6950 verslaat de GTX 470, maar is langzamer dan de HD 5870.

Alien vs Predator - 2560x1600 - High - 0xaa
GpuMinimum- » gemiddelde score (fps)
HD 5970
*****
+
***
30,6 / 51,7
GTX 580
***
+
***
22,0 / 39,9
GTX 480
***
+
***
20,0 / 36,8
HD 6970
***
+
***
20,3 / 35,8
GTX 570
***
+
***
18,0 / 33,8
HD 5870
***
+
**
19,0 / 33,0
HD 6950
***
+
**
17,0 / 31,2
GTX 470
**
+
**
14,0 / 26,1
HD 6870
**
+
**
13,0 / 25,6
HD 5850
**
+
**
13,7 / 25,4
HD 6850
**
+
**
11,0 / 20,6
GTX 460 1GB
**
+
**
11,0 / 20,6

Op 2560x1600 pixels kan de HD 6970 ook nog goed meekomen met de GTX 480 en GTX 580, maar het verschil met de GTX 570 lijkt iets kleiner te worden, terwijl de HD 6950 juist dichter naar de GTX 570 toe kruipt.

Bad Company 2

Bad Company 2 is een van de spellen waarmee we handmatig testen. Het spel maakt spaarzaam gebruik van DirectX 11, maar is nog steeds een zware kluif voor menige videokaart.

Bad Company 2 - 1920x1200 - Maximum - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
******
+
**
61,1 / 83,2
GTX 580
******
+
*
62,0 / 73,3
GTX 570
*****
+
*
54,5 / 66,8
GTX 480
*****
+
*
48,3 / 59,2
HD 6970
****
+
*
44,0 / 55,9
HD 5870
***
+
**
37,0 / 52,1
HD 6950
****
+
*
38,0 / 49,2
GTX 470
****
+
*
38,3 / 48,1
HD 5850
***
+
*
33,2 / 45,8
HD 6870
***
+
*
33,3 / 44,2
GTX 460 1GB
***
+
*
31,0 / 40,1
HD 6850
**
+
*
26,0 / 37,3

Ditmaal is de HD 6970 geen partij voor de GTX 570 en zelfs de GTX 480 moet voorgelaten worden. De 6950 is exact even snel als de GTX 470.

Bad Company 2 - 2560x1600 - Maximum - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
*****
+
***
39,0 / 57,5
GTX 580
*****
+
**
34,4 / 45,8
GTX 570
*****
+
*
34,5 / 42,5
HD 6970
****
+
*
32,2 / 40,0
GTX 480
****
+
*
29,7 / 38,2
HD 5870
***
+
**
25,3 / 36,3
HD 6950
****
+
*
27,7 / 35,1
GTX 470
***
+
*
25,7 / 31,0
HD 6870
***
+
*
22,7 / 30,2
HD 5850
***
+
**
19,5 / 29,7
GTX 460 1GB
**
+
*
16,7 / 25,4
HD 6850
**
+
*
18,3 / 25,3

Op 2560x1600 pixels weet de HD 6970 het gat met de GTX 570 te dichten en de GTX 480 te verslaan. De HD 6950 is daarentegen langzamer dan de HD 5870. Blijkbaar wordt de vliw5-architectuur in Bad Company 2 goed benut.

Far Cry 2

Far Cry 2 zit nu al bijna twee jaar in onze benchmarksuite en blijft een betrouwbare benchmark. Nvidia-kaarten blinken al tijden uit in de benchmark, dus Far Cry 2 kan nooit dienen als enige benchmark om een videokaart te beoordelen.

Far Cry 2 - 1920x1200 - Ultra high - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
******
+
**
84,6 / 109,8
GTX 580
******
+
**
86,9 / 108,8
GTX 480
*****
+
**
73,6 / 93,4
GTX 570
*****
+
*
73,4 / 91,2
HD 6970
*****
+
**
63,4 / 87,7
HD 6950
****
+
**
58,0 / 80,1
GTX 470
****
+
*
58,8 / 75,0
HD 5870
****
+
*
49,8 / 68,3
GTX 460 1GB
****
+
*
51,8 / 66,5
HD 6870
***
+
*
48,3 / 64,7
HD 5850
***
+
*
43,5 / 59,9
HD 6850
***
+
*
40,6 / 54,4

De HD 6970 kan niet echt meekomen met de GTX 570, maar dat viel in Far Cry 2 ook niet te verwachten. De HD 6950 en de GTX 470 zijn weer aan elkaar gewaagd.

Far Cry 2 - 2560x1600 - Ultra high - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
******
+
**
61,6 / 81,4
GTX 580
******
+
**
57,7 / 75,7
HD 6970
*****
+
**
47,8 / 66,0
GTX 570
*****
+
**
49,4 / 64,5
GTX 480
*****
+
**
49,0 / 63,8
HD 6950
****
+
**
42,4 / 59,2
GTX 470
****
+
*
38,9 / 51,1
HD 5870
***
+
**
33,7 / 47,9
HD 6870
***
+
*
33,7 / 46,0
GTX 460 1GB
***
+
*
32,8 / 44,4
HD 5850
***
+
*
27,4 / 40,3
HD 6850
***
+
*
27,9 / 38,5

Op 2560x1600 pixels komt de kracht van de HD 6970 naar voren, aangezien deze nu gelijk presteert aan de GTX 570. Ook de HD 6950 is nu significant sneller dan de GTX 470. Waarschijnlijk hebben de HD 6970 en HD 6950 baat bij de 2GB gddr5-geheugen die ze aan boord hebben.

Stalker: Call of Pripyat

Stalker: Call of Pripyat is ook een DirectX 11-game en is een van de zwaardere benchmarks in onze benchmarksuite.

Stalker: CoP - 1920x1200 - DX11 - Maximum - 0xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
*****
+
***
38,3 / 59,9
GTX 580
*****
+
***
37,3 / 55,5
GTX 570
****
+
***
32,5 / 51,2
HD 6970
****
+
**
33,9 / 46,8
GTX 480
****
+
**
32,1 / 46,8
HD 6950
****
+
**
30,5 / 42,4
HD 5870
****
+
**
26,9 / 37,7
GTX 470
***
+
**
26,7 / 37,6
HD 5850
***
+
*
22,3 / 30,5
HD 6870
***
+
*
23,1 / 28,9
HD 6850
**
+
*
18,8 / 22,9

In Stalker kan de HD 6970 goed met de GTX 570 meekomen, maar echt sneller is de videokaart niet. De HD 6950 moet op zijn beurt toezien hoe de GTX 480 sneller is.

Stalker: CoP - 2560x1600 - DX11 - Maximum - 0xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
*****
+
***
26,5 / 38,1
GTX 580
*****
+
**
24,9 / 35,3
GTX 570
*****
+
**
22,1 / 31,6
HD 6970
*****
+
*
25,1 / 30,2
GTX 480
****
+
**
21,2 / 29,5
HD 6950
*****
+
*
22,7 / 27,8
HD 5870
****
+
*
19,1 / 23,9
GTX 470
****
+
*
17,1 / 23,8
HD 5850
***
+
*
14,9 / 18,2
GTX 460 1GB
***
+
*
14,5 / 18,2
HD 6870
***
+
*
15,0 / 18,0
HD 6850
**
+
*
11,7 / 13,9

Op 2560x1600 pixels komen de prestaties van de HD 6900-kaarten erg dicht in de buurt van de GTX 500-kaarten.

CoD: Black Ops

We gebruiken Call of Duty al sinds tijden als benchmark en aangezien Activision onlangs Black Ops uitbracht, zijn we van Modern Warfare 2 naar Black Ops overgestapt. Voor zover wij kunnen zien is Black Ops iets minder veeleisend dan Modern Warfare 2.

Call of Duty: Black Ops - 1920x1200 - Maximum - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
******
+
**
100,5 / 134,5
GTX 580
*****
+
**
84,0 / 110,1
GTX 480
*****
+
**
84,0 / 110,1
GTX 570
****
+
**
73,0 / 107,5
HD 6970
****
+
**
74,0 / 102,5
HD 6950
****
+
**
64,7 / 91,0
GTX 470
****
+
*
63,7 / 86,2
HD 5870
***
+
**
59,0 / 84,3
HD 6870
***
+
**
56,0 / 80,5
HD 5850
***
+
*
56,5 / 76,0
HD 6850
***
+
*
50,0 / 71,4

Om op 1920x1200 pixels Black Ops te spelen is geen echte high-end videokaart nodig. De HD 6950 presteert hetzelfde als de GTX 470, terwijl de HD 6970 het de GTX 570 moeilijk maakt. De GTX 480 presteert tegen de verwachting in beter dan de GTX 570.

Call of Duty: Black Ops - 2560x1600 - Maximum - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
******
+
**
68,5 / 96,2
GTX 580
*****
+
**
58,5 / 78,9
GTX 480
*****
+
**
56,5 / 74,3
GTX 570
*****
+
**
55,5 / 73,7
HD 6970
****
+
**
51,0 / 73,6
HD 6950
****
+
**
44,3 / 64,5
GTX 470
****
+
*
43,5 / 57,8
HD 5870
***
+
**
40,5 / 57,6
HD 6870
***
+
**
36,0 / 53,7
HD 5850
***
+
*
36,6 / 50,6
HD 6850
***
+
*
33,5 / 48,1

De HD 6950 is wederom gewaagd aan de GTX 470, terwijl het verschil tussen de HD 6970 en de GTX 570 nu iets groter is geworden. De HD 5970 blijft de snelste videokaart.

F1 2010

F1 2010 is een nieuwkomer in onze benchmarksuite en vervangt DiRT 2. Tests hebben uitgewezen dat de benchmark iets zwaarder is dan DiRT 2, mits er gebruik wordt gemaakt van de Light Rain-omstandigheid.

F1 2010 - 1920x1200 - DX11 - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
*******
+
*
65,7 / 69,4
HD 6970
******
+
*
55,4 / 59,5
GTX 580
******
+
*
52,0 / 56,3
HD 6950
******
+
*
50,2 / 53,9
GTX 570
******
+
*
49,1 / 52,7
GTX 480
*****
+
*
47,7 / 50,7
HD 5870
*****
+
*
47,3 / 50,2
HD 6870
*****
+
*
42,7 / 44,8
HD 5850
*****
+
*
41,4 / 43,9
GTX 470
*****
+
*
41,0 / 42,5
HD 6850
****
+
*
36,3 / 38,0

De HD 6970 verslaat de GTX 580, terwijl de HD 6950 de GTX 570 nipt weet te verslaan. De HD 5870 kan ook nog goed met de concurrentie meekomen.

F1 2010 - 2560x1600 - DX11 - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
HD 5970
********
+
*
48,6 / 51,2
HD 6970
******
+
*
37,1 / 39,1
GTX 580
******
+
*
36,1 / 38,2
HD 5870
*****
+
*
35,3 / 37,3
GTX 570
*****
+
*
34,4 / 36,6
HD 6950
*****
+
*
34,8 / 36,4
GTX 480
*****
+
*
33,8 / 35,5
HD 6870
*****
+
*
30,5 / 31,9
HD 5850
*****
+
*
29,6 / 31,4
GTX 470
****
+
*
27,4 / 28,9
HD 6850
****
+
*
24,8 / 26,2

De verschillen zijn marginaal, maar de HD 6900-kaarten presteren goed ten opzichte van de concurrentie. De HD 5870 springt eruit door de HD 6950 te verslaan.

Energieverbruik

Gezien de introductie van AMD's PowerTune, maar ook gezien Nvidia's ingrijpende manier om het energieverbruik in te perken tijdens applicaties als FurMark, waren we genoodzaakt om onze testmethode aan te passen. AMD's nieuwe HD 6900-kaarten werden getest met de standaard-PowerTune-instelling en met de PowerTune-instelling op +20 procent. De nieuwe GTX 500-kaarten hebben we ook tweemaal getest; bij de tweede keer hebben we de beveiliging omzeild.

Voor aanvullende informatie hebben we gekeken naar het verbruik in drie games. De gemiddelden daarvan vermelden we ook in de tabellen.

Vermogensopname systeem - Idle
Watt (minder is beter)
GTX 480
**********
150
HD 5970
*********
136
HD 5850
********
126
GTX 570
********
120
GTX 580
********
120
HD 5870
********
116
GTX 470
********
114
HD 6950
*******
112
HD 6970
*******
112
HD 6870
*******
112
HD 6850
*******
112

In de idle-stand weet AMD het verbruik nog iets verder terug te dringen, waardoor een high-end kaart prima met een office-pc kan worden gecombineerd. De GTX 480 valt op door zijn hoge verbruik, maar van de overige kaarten zien we ook zeer schappelijke verbruikscijfers.

Vermogensopname systeem - Load
Watt (minder is beter)
GTX 480
**********
420
GTX 580
**********
414
HD 5970
**********
404
GTX 570
*********
375
HD 6970 20%
*********
372
GTX 470
********
330
HD 5870
********
315
HD 6970
*******
313
HD 5850
*******
295
HD 6950 20%
*******
293
HD 6950
******
263
HD 6870
******
261
HD 6850
*****
229

Op dit moment is het lastig om te zeggen hoeveel waarde aan bovenstaande getallen kan worden gehecht. Met PowerTune verbruiken de HD 6970 en de HD 6950 net zoveel als respectievelijk de HD 5870 en de HD 6850, maar de vraag is of dat realistisch is. Door PowerTune min of meer uit te schakelen stijgt het verbruik en komt het meer in de buurt van Nvidia's videokaarten.

Vermogensopname systeem - Ingame
Watt (minder is beter)
GTX 480
**********
340
HD 5970
*********
315
HD 6970
********
285
GTX 570
********
285
GTX 470
********
260
HD 5870
*******
245
HD 5850
*******
230
HD 6950
*******
230
HD 6870
*******
225
HD 6850
******
200

Het laatste lijstje in dit onderdeel bestaat uit de gemiddelden van de gemiddelde vermogensopname in drie games, te weten Far Cry 2, Call of Pripyat en AvP. We zien dat de HD 6970 evenveel verstookt als de GTX 570, die over het algemeen ook goed aan de HD 6970 gewaagd is. De HD 6950 valt in positieve zin op, door een zeer laag verbruik.

Geluidsproductie

De twee HD 6900-kaarten die wij ontvingen zijn identiek, op de gpu na. De pcb's zijn even lang, de koelers zijn dezelfde, beide kaarten zijn uitgerust met een backplate, enzovoort. Videokaartfabrikanten gaan gegarandeerd andere koelers gebruiken.

Geluidsproductie systeem - Idle
Geluidsproductie (dBA)
GTX 480
**********
42,4
HD 6870
**********
42,0
HD 6850
**********
42,0
HD 5970
**********
40,3
GTX 470
*********
40,0
HD 5850
*********
40,0
HD 5870
*********
38,1
HD 6970
*********
38,1
GTX 570
*********
38,1
GTX 580
*********
38,0
HD 6950
*********
37,9

Gezien het lage idle-verbruik doen de vele videokaarten in idle-modus tegenwoordig niet veel meer voor elkaar onder, aangezien er een amper noemenswaardige hoeveelheid lucht moet worden afgevoerd.

Geluidsproductie systeem - Load
Geluidsproductie (dBA)
HD 5970
**********
62,3
GTX 480
**********
61,3
HD 6970 20%
*********
59,0
GTX 580
*********
58,8
HD 5870
*********
55,6
GTX 570
*********
55,3
GTX 470
*********
54,3
HD 6870
*********
53,2
HD 5850
********
52,3
HD 6970
********
52,0
HD 6950 20%
********
51,8
HD 6950
********
49,4
HD 6850
*******
42,4

Onder load maakt de HD 6970 een behoorlijke hoeveelheid herrie als PowerTune op +20 procent wordt gezet. Zonder PowerTune is de geluidsproductie een stuk draaglijker. Voor de stiltefreak zit er echter nog steeds niets anders op dan het vervangen van de koeler, want erg stil is hij niet.

Conclusie

De prijzen van de HD 6900-kaarten werden pas op het laatste moment bekendgemaakt. Alle prijzen die in webshops opdoken, waren dan ook volledig uit de lucht gegrepen en vaak veel te hoog. De HD 6970 gaat 329 euro kosten, terwijl de HD 6950 269 euro in het laatje moet brengen. Daarmee is de HD 6970 even duur als de GTX 570, waarvan er enkele al voor 330 euro in de Pricewatch zijn te vinden. Dat lijkt een goede prijs, aangezien de twee videokaarten aardig aan elkaar zijn gewaagd.

De HD 6950 is moeilijker te plaatsen, omdat deze geen echte, directe concurrentie heeft. Uit de benchmarks blijkt dat de videokaart iets sneller is dan de GTX 470, maar die wordt eigenlijk al niet meer geproduceerd. Desondanks zijn er nog genoeg GTX 470's te vinden in de Pricewatch, waarvan de goedkoopste ongeveer 220 euro kost. Dat is dus 50 euro minder dan de HD 6950. Als je puur voor de prestaties gaat, kan het dus aantrekkelijk zijn om snel een GTX 470 op de kop te tikken.

Het is lastig om de HD 6970 en de HD 6950 te beoordelen zonder daarbij de vergelijking met de concurrentie te maken. Veel mensen hadden meer van de videokaarten verwacht. De prestatiewinst ten opzichte van de HD 5870, die toch al ruim een jaar oud is, is niet zo groot als gehoopt. Er is geen nieuwe feature, zoals Eyefinity, om vriend en vijand te verrassen. Aan de andere kant kan worden gezegd dat Cypress al een ijzersterke gpu was, met een hoge performance/watt-ratio. Nvidia kon nog veel verbeteren ten opzichte van de GTX 480, terwijl dat voor AMD dus een stuk moeilijker was.

De prijzen zijn competitief te noemen en als laatste moeten we de framebuffer van 2GB niet vergeten. Vooral in CrossFireX-opstellingen en voor Eyefinity-gebruikers is dat een aardig voordeel. De GTX 580 blijft echter de snelste gpu, terwijl de HD 5970 voorlopig nog de snelste videokaart is. De dual-gpu videokaart, met twee Cayman-gpu's, verschijnt pas in het eerste kwartaal van 2011.

Reacties (189)

Wijzig sortering
Toen de GTX 580 uitkwam was de conclusie erg positief. Minder stroom, meer prestaties.
GTX580 ~ 20% maximaal sneller dan GTX 480.
reviews: Geforce GTX 580: Nvidia terug van weggeweest?

Maar nu hebben we een vergelijkbare situatie waarin de minimum framerates omhoog zijn geschoten met meestal minstens 20%, en de conclusie is plotseling dat de kaart teleursteld?

Ook ben ik erg benieuwd naar de reviewdrivers, die helaas niet op tijd voor deze review gebruikt konden worden.

p.s. ik lees nu pas het eerste kopje en de introductie.
'Fashionably late' en de launch was een rommeltje.
Ik kan me er wel een beetje over opwinden dat er niks negatief over de paperlaunch van de GTX580 in de voorafgaande review werd vermeld. Die kaart was een jaar te laat en werd gepaperlaunched, maar als AMD iets lanceert dan is het te laat en een rommeltje?

[Reactie gewijzigd door Zeus op 15 december 2010 13:23]

Je moet je wel bedenken dat AMD ongeveer 15 maanden in relatieve rust aan deze kaarten heeft kunnen werken, dat de HD6970 op reso 1920x1080(1200) dan maar 10-20% sneller is dan de HD5870, is wel wat magertjes niet? Daarbij is het stroomverbruik niet eens omlaag gegaan, maar zelfs omhoog.

Natuurlijk mag je over de GTX580 een paar kritische noten kraken, maar Nvidia heeft het wel voor elkaar gekregen om binnen 6 maand met die kaart op de proppen te komen en dat is toch best goed. Ook de GTX570 die vanaf 330,- te krijgen is, blijkt vooral nu echt zo slecht niet te zijn.

Ik had gedacht dat AMD de enorme voorsprong die ze hadden op Nvidia wel iets beter zouden uitbuiten, maar mijn inziens hebben ze dit toch een beetje nagelaten...
Het blijft een beetje een gevoel natuurlijk, maar jij bent een van de weinigen waar het artikel als pro-Nvidia op overkomt. De benches sprekn echter voorzich, en die kun je maar op een manier interpreteren.

En natuurlijk zijn de review-drivers wel gebruikt, er zijn geen andere drivers waar je de HD 6900-kaarten mee kunt gebruiken.

Verder was ik bij de GTX 580 vrij positief, omdat het onverwacht was en Nvidia had simpelweg veel om te verbeteren en deed dat ook. AMD had de lat al veel hoger gelegd ten tijde van de Cypress-introductie, waardoor Cayman een beetje als 'meh' overkomt.

Desondanks zijn het goede videokaarten, maar ze stelen niet de show. Ze zijn niet het snelst, noch het goedkoopst. Ik kan er gewoon niet echt lyrisch over zijn.
Dus de HD 5970 is sneller dan de HD 6970

Ben ik de enige die dat vreemd vind? de PS2 is toch ook niet sneller dan de PS3.

Dit is toch verwarrend voor de consument.
De 6970 is de opvolger van de 5870:)

De 6990 wordt de opvolger van de 5970.

Die komt in het eerste kwartaal van 2011 uit,
en zal twee GPU's hebben netzoals de 5970.
verkeerde post

[Reactie gewijzigd door Gatygun op 20 december 2010 01:28]

Ik kan me eigenlijk wel vinden in de conclusie van deze review http://hardocp.com/articl..._6950_video_card_review/9

De 6970 moeten we vergelijken met de 570 en niet met de 580 die stukken duurder is, de amd komt dan eigenlijk heel goed uit. En de 6950 is met deze prijsstelling eigenlijk wel een winnaar als je kijkt naar bang for buck. Zeker als nieuwe drivers nog voor een prestatiewinst kunnen zorgen.
De review van tweakers richt zich vooral op de simpele benchmarks en vergelijking met andere high-end kaarten, maar daar houdt het wel op. HardOCP is er wat meer ervaren in en weet de kaart in het juiste perspectief te plaatsen. Kun je tweakers niet echt kwalijk nemen, maar het brengt wel volledig het verkeerde beeld naar buiten over deze nieuwe ATi kaarten en dat vind ik wel jammer.
Ik vind juist dat HardOCP een zeer slechte review neer zet. Ze testen immers alleen op resolutie 2560x1600 met hoge AA/AF en laat daar de HD6950 en HD6970 met hun 2gb geheugen een voordeel hebben. Zoals Marc zegt geven vrijwel alle andere reviews (incl. hier op tweakers) een beeld dat op meer gebruikelijke resoluties de GTX570 maar net onder de HD6970 zit of gelijk scoort en structureel 5-10% sneller is dan de HD6950.

Ook testen ze bij HardOCP maar 5 games en dan hoeft er maar eentje bij te zitten die beter loopt op AMD of Nvidia kaarten en dan heb je al een scheef beeld.
Nee, als we naar andere (redelijk) goede reviews kijken (Anandtech/Comuterbase/Guru3d/HWI), dan blijkt dat HardOCP eigenlijk als enige een andere conclusie heeft, dan geeft mij dat te raden...

[Reactie gewijzigd door MW1F op 15 december 2010 14:01]

Het laat wel zien dat je op 2650x1600 bij die settings net zo goed een HD6950 kan nemen.
Iig met die vijf spellen, al zullen dat er wel meer zijn.

Voor het effect van powertune kan je beter hier naar kijken:
http://www.hardwarecanuck...70-hd-6950-review-26.html

[Reactie gewijzigd door Madrox op 16 december 2010 00:14]

Eh serieus? We vergelijken de HD 6970 geen enkele keer met de GTX 580. In de conclusie wordt enkel de GTX 570 aangehaald als directe concurrent.

Hoezo brengen we volledig het verkeerde beeld naar buiten? HD 6970 = GTX 570, prijs is bepalend (of je eigen voorkeur naar nvidia/amd) maar je kunt niet echt een miskoop doen.

Daar komt bij dat HardOCP een conclusie heeft die niet echt strookt met bevindingen van andere websites. De HD 6950 net zo snel als een GTX 570 is gewoon onzin. De HD 6970 is net zo snel als de GTX 570. Dat vind ik, maar ook Anandtech bijvoorbeeld.

[Reactie gewijzigd door Marc Rademaker op 15 december 2010 12:33]

Weer een ronde gewonnen door nVidia.
Met die 580 hebben ze wel knap werk afgeleverd zeg, dat maakt deze review alleen maar duidelijker. Alleen jammer van de prijs.

[Reactie gewijzigd door Illidan op 15 december 2010 06:48]

Performance is niet alles he, prijs en stroomverbruik/geluid maken voor mij ook veel uit en met mij 99% van de gebruikers. Die kleine groep die kaarten van 500+ gaan kopen is zo klein dat het meer prestige/aandacht projecten zijn dan werkelijk interessant voor de consument. kaarten als de 570 zijn dan veel betere kaarten voor nvidia.
Ik ken iig naast mij al 4 andere personen. Dan hebben we de 1% al he? ;-)

Ik snap echt niet waarom er altijd geluld moet worden als AMD verslagen wordt met prestaties. Misschien verbruiken ze minder, maar ze presteren ook minder. Als ik wil gamen, dan wil ik grafische prestaties, en niet een goedkope rekening van eneco.
Met die 580 hebben ze wel knap werk afgeleverd zeg, dat maakt deze review alleen maar duidelijker. Alleen jammer van de prijs.
die prijs is anders het direct resultaat van het ' knap werk' dat ze hebben afgeleverd met die gigantische chip. knap werk met een flink nadeel dus.

[Reactie gewijzigd door Countess op 15 december 2010 14:52]

Prijzen worden meestal niet bepaald door de kostprijs maar door wat het meeste opbrengt. Hoeveel marge nVidia op de 580 heeft is niet bekend dus of die prijs een nadeel is of pure winst optimalisatie is een vraagteken. Wel is duidelijk dat de GTX580 zowel qua prijs, verbruik als performance dicht in de buurt van de HD5970 zit. Blijkbaar is die prijs voor de mensen die dat soort chips overwegen niet raar. De patsfactor is trouwens hoger bij een hogere prijs dan bij een lagere, misschien is de "hoge" prijs dus wel een reden tot extra verkopen. Zo werkt het bijvoorbeeld al jaren bij parfum. Denk je echt dat 500ml alcohol en water zoveel geld moet kosten.....
Het is anders duidelijk dat de 580 1/3 meer stroom verbruikt en maar weinig extra prestatie levert daarvoor.
De 570 is de echte concurrent omdat NVIDIA die voor lage prijzen dumpt om markt terug te krijgen. Op een jaar tijd zie je bij Steam dat het aandeel van AMD van 18% naar nu 32% is gestegen, NVIDIA slaat in paniek.

AMD zal dit doortrekken naar de 6990 en dat wordt een interessant kaartje voor de high-end markt.
Er zijn genoeg personen die ietwat overdreven reageren, maar jij legt het er wel erg dik op. Zo nonchalant als nvidia op dit moment met de gaming-markt omgaat laat al zien dat ze vrij weinig te vrezen hebben voor amd, de gf100 was in de eerste plaats al niet voor gaming ontworpen, maar voor de professionele markt.

Ze hebben zowieso nog steeds meer marktaandeel op de desktop markt dan amd, bij laptops gaan ze aardig gelijk op.

Amd heeft idd nog de hd6990 op de planning staan, maar hoeveel mensen kopen nu zo'n prestatiemonster? Dat zal amd niet veel geld in het laatje brengen, de hd68xx en 69xx zijn nu de cashcows, dat weten hun ook. Die hd6990 is er alleen om de performance crown in handen te houden, daar komen ook al genoeg klanten op af.
Ik vraag mij af wat jij bedoelt met "weer een ronde gewonnen door Nvidia"? Nvidia rommeld de laatste paar jaar maar wat aan, het is pas recent dat ze wat meer succes boeken met name met de fermi technologie.

Zeker vanaf eind 2006 is Nvidia erg stom bezig geweest, hierbij revereer ik met name naar het willens en wetens blijven door produceren van GPU's met productiefouten, tot Juni/Juli 2008. Dit betreft de gehele G84, G86 en G92 lijn, terwijl de 200 serie ook nog met deze problemen lijkt te kampen alleen in mindere maten. Tevens het onophoudelijk hernoemen van oude technologie.

Op deze punten doet ATi/AMD het toch een stuk beter met daarnaast wel goede progress op produktie en technologie gebied, na de HD2000 serie welke een nieuw architectuur was. Nvidia begint eigenlijk pas zeer recent weer wat interessante produkten op de markt te zetten, op papier zag het er al goed uit, maar het omzetten in een goed werkend en degelijk produkt liet nog te wensen over.

Dit alles gezegd te hebben, blijft in veel segmenten de ATi/AMD kaarten op het moment toch nog de betere koop op het gebied van performance/prijs/opgenomen vermogen verhouden. Dat Nvidia mogelijk de snelste single GPU kaart heeft is leuk, maar in het grote geheel niet interessant, omdat dat daar niet het geld verdiend wordt.
Ik had opzich ook stuk meer verwacht van deze kaarten.
Wat ik niet snap is hoe de 5xx serie van nVidia opgehemeld word.

Het zijn prima kaarten, maar als je naar de voorganger kijkt is het net als de 69xx serie maar een kleine stap vooruit, en dus imo teleurstellend.
Op zich lijkt nVidia dus een flinke sprong vooruit gemaakt te hebben en AMD een kleintje. De 6970 is een directe concurrent van de 570 (en dus niet de 580) waardoor AMD op dit moment de ruime voorsprong van de vorige generatie weer kwijt is.

Nu afwachten hoe de dual GPU kaarten het gaan doen maar nVidia lijkt dus de keuze te hebben om ofwel een 580 GPU dubbel uit te voeren of de zuiniger 570 GPU en zou dus ook concurrerend met de dual GPU kaarten van AMD moeten zijn. Dit lijkt dan ook een beetje een tegenvaller voor AMD. Men is nog concurrerent maar had waarschijnlijk stiekem op meer gehoopt.
Eigenlijk niet. De GF100 chip size stond niet in verhouding tot de performance. Met de refresh is dat beter geworden. AMD chip is gegroeid maar nog steed een stuk kleiner.
Bij gelijke efficentie zal nV altijd de snelste en vermogen hongerige GPU hebben.
De meer potentie van een grotere chip.
Tja 'n ULV 570 en 6970 dual is dan mogelijk en die zullen dan heel dicht bij elkaar komen. Tenzij een van de twee de TDP ceiling extreem verhogen tov de kaart van de competitie.
Deze kaarten zijn inderdaad gewoon een mooie update van de 6800 gpu cores. Sneller, nauwelijks meer vermogen en stukje betere performance. Wel jammer dat ze nog steeds de straaljager koelers hebben... Ik heb voor mijn xfx 6850 ook al een arctic cooler besteld, ik vond dat ding al een lawaai van jewelste maken. Zelfs al zit er een non reference cooler op. Ik heb dan wel een vrij stille pc. Ik wacht wel tot dat de games op 1050 weer meer kracht vragen op gpu gebied voordat ik upgrade.
Deze kaarten bieden iig een mooie competitieve kaarten voor de juiste prijs, wat voor ons als consument natuurlijk een mooi resultaat is.
Zoals hieronder ook al is aangegeven is de nvidia 570 ook heel erg mooi kaartje als je een groot display hebt of een sterke kaart wil maar niet de hoofdprijs wil betalen of de extra features bij nvidia wil gebruiken, ben aangenaam verrast.

Ik vraag me in de benches bij Black ops eigenlijk wel af of ze nu werkelijk representatief zijn, BO staat nou niet bekend om zijn stabiele framerates... Ik had ook wel de vergelijkende benches van mw2 willen zien tov BO aangezien deze blijkbaar zwaarder is. Dat is dan ook niet echt logisch om over te stappen lijkt me?
Dacht trouwens dat de 6850 zelfde of iets sneller was dan de 460, blijkbaar is dat wat minder... ach ja wat is 4 fps nou :)

[Reactie gewijzigd door SouLLeSSportal op 15 december 2010 09:21]

Deze kaarten zijn inderdaad gewoon een mooie update van de 6800 gpu cores. Sneller, nauwelijks meer vermogen en stukje betere performance. Wel jammer dat ze nog steeds de straaljager koelers hebben... Ik heb voor mijn xfx 6850 ook al een arctic cooler besteld, ik vond dat ding al een lawaai van jewelste maken. Zelfs al zit er een non reference cooler op. Ik heb dan wel een vrij stille pc.
Een aftermarket koeler is niet per se stiller dan de standaardkoeler he.

Ook vind ik vooral het verbruik en geluidstest een beetje jammer. Jullie zeggen dat jullie AMD Powertune 'uit' hebben gezet en op '+20%' hebben gezet. Dat terwijl PowerTune helemaal niet uit kan, alleen op standaard en een aantal stapjes omhoog (meer prestaties) of omlaag (zuiniger en stiller). Op stock kan de kaart zichzelf overklokken tot aan zijn TDP, en op +20% kan de kaart hier lekker agressief overheen gaan.
Vervolgens concluderen jullie dat de HD6900 kaarten niet stil zijn. Volgens mij zijn de 3 van de onderste 4 balkjes toch echt HD6900 kaarten, en de andere de HD5850. Alleen met PowerTune op +20% is de HD6970 net zo lawaaierig als de GTX580.

Ook laten jullie zien dat met PowerTune op +20% het opgenomen vermogen zo rond het niveau van de GTX570 zit. Leuk om te weten maar wel naar verwachting als je toestaat dat je GPU 20% meer energie mag gebruiken.

Maar wat hebben we hier aan? Nu weten we dat de HD6900 kaarten niet zuinig zijn onder load en niet stil zijn als PowerTune op +20% staat, maar vervolgens komt dit niet terug in de gamebenchmarks. Dus weten we nog niks nuttigs: Wat voor effect heeft het op mijn gameprestaties als ik het nodig vind om 60W extra te gebruiken.

Voor de rest: Ik wacht nog even af voor elke prijzen de HD6900 kaarten echt in de winkels liggen, maar gebaseerd op deze benchmarks en de adviesprijzen noem ik het gelijkspel.
Deze man heeft gelijk en dat gedoe met powerplay wat jullie hier deden slaat een beetje nergens op. Ja, als ik mijn CPU op 1.5 volt overklok wordt hij heet wat een verassing.
Ik ben teleurgesteld.

Niet alleen in de prestaties, maar vooral hoe weinig performance je krijgt voor het extra geld ten opzichte van de introductie van de 5870/5850.

We zijn een jaar verder en er is zo goed als bijna niets veranderd met betrekking tot de prijs / performance ratio bij AMD.

Dit terwijl NVIDIA aan zeer sterke inhaalrace heeft gemaakt. Bij nvidia is de performance ook echt daadwerkelijk sterk verbeterd.

Helaas zie ik net als bij de introductie van de 5800 series, nog steeds geen reden tot het upgraden van mijn 4870. Draait alles net zo goed als bovenstaande kaarten, zolang ik de AA maar uit zet, laat die AA me nou net weinig interesseren, ik ben tevreden met 1920x1080.

Als ik echter ga upgraden, zit ik er sterk aan te denken een kaart uit het groene kamp te kopen, ik vind dat AMD de consument in de steek laat. Eerst extreem goede prijs/kwaliteit verhoudingen bieden, om vervolgens kaarten die amper sneller zijn uit te brengen, maar die wel even duur zijn als de huidige generatie.

[Reactie gewijzigd door Bert2000 op 15 december 2010 09:38]

Volgens mij vergeet je wat dingetjes. ATi heeft lange tijd en nu nog steeds een zeer sterke prijs/kwaliteit verhouden en Nvidia haalt dat nu ongeveer pas een beetje in, maar gezien het verbruik van die kaarten zijn ze er nog niet. ATi is niet achteruit gegaan, maar Nvidia heeft héél hard gewerkt om er nog wat van te maken.

De huidige kaarten zijn wel degelijk aardig wat sneller dan de vorige generatie, maar omdat de HD5970 (Dual GPU!) en de GTX580 kaarten meegenomen worden, valt dat niet zo op. De GTX580 is wel sneller, maar ook gigantisch veel duurder, maakt meer geluid en gebruikt ook veel meer. De HD6970 is toch een aardig tikkie sneller dan de HD5870 en lost een hoop probleempjes op die de HD5870 had. (tesselation, 4x1 ipv 5x1 etc.) maar daar gaat de review een beetje aan voorbij, wel jammer eigenlijk. In het prijssegment van de HD6970 is er dan wel concurrentie van de GTX570, maar als de prijzen van de HD6970 zakken zoals de prijzen van alle nieuwe kaarten zakken, dan blijft er misschien weinig concurrentie meer over.

Vergeet ook niet dat de HD6990 over een aantal maanden ook uit komt en die zal de rol van de HD5970 op zich gaan nemen.
Hoe gaat de review voorbij aan verbeterde tesselations? We testen immers games met tesselation erin, maar toch zie je daar amper winst.

De kaarten kunnen namelijk wel wat extra tess. performance gebruiken, maar echt merkbaar is dat helaas niet omdat er ook andere factoren meespelen. Ook zijn veel games al geoptimaliseerd voor AMD's manier van tesselation, waardoor de winst kleiner is dan theoretisch mogelijk.
De review gaat niet voorbij aan verbeterde tesselation, maar wel aan de performance van de HD6970 tegenover de HD5870, want het is als opvolger voor die kaart bedoeld. Hierdoor lijkt de winst kleiner, of niet bestaand, terwijl je toch naar een winst van 25% zit te kijken in veel gevallen. Voor de marktpositie van ATi is dat precies goed en is een winst van 25% best bijzonder. Dat Nvidia grotere winsten heeft geboekt met hun GTX580, is logisch, want de voorganger daarvan was één groot drama, maar voor deze architectuur en voor de markt waarin ATi nu actief is, is deze kaart een heel mooie upgrade voor een heel mooi bedrag. Hij's namelijk ook nog eens een stuk goedkoper dan de HD5870 bij de introductie. Door een vergelijk met kaarten ver boven de performance en prijsklasse raakt dat een beetje ondergesneeuwd.

Zelfde geld eigenlijk ook voor de HD6950 die een nieuw marktsegment probeert te creëren, ik zie die kaart als een beetje zinloos, maar misschien is het wel een gouden vondst.

[Reactie gewijzigd door Sleep0rz op 15 december 2010 10:48]

Okay okay, natuurlijk is het een vooruitgang, maar voor jan modaal die nog een 4870 draait op een 24" schermpje (ik) is er eigenlijk nog steeds niet echt noodzaak om te upgraden.

Ik heb er destijds voor gekozen om te wachten op de 6800 serie. Waardoor ik de 5800 serie aan mijn neus voorbij liet gaan, met mij zijn er velen die zo hebben gedacht. Wat blijkt nu, de 68/69 serie is naar mijn mening marginaal sneller dan de 58 serie. Okay de tesselation is verbeterd maar hoeveel zien we hier van terug in de games?

Mn phenom II wilde ik eindelijk gaan blijmaken met een 6 serie kaart, helaas denk ik nu dat de volgende upgrade een bulldozer cpu wordt icm een 7 serie gpu.
Daar heb je zeker gelijk in, mijn 4850 is ook ruim voldoende voor wat ik er mee doe. De 25% die je extra haalt ten opzichte van een 5870 is wel veel, maar met alle console ports en relatief lage systeemeisen kun je met een 4870/4850 bijna net zo veel als met een 6990.

Wat je er van terug ziet in spellen? Weinig, maar de kaart biedt op zichzelf 25% extra performance voor een 25% lagere prijs. Ergens niet gek. Dat je 't niet zo merkt om andere redenen en dat het daarom in een redelijk aantal gevallen niet echt een upgrade waard is, dat is zeker waar.

Het perspectief van de review van HardOCP is ook wel interessant;
floesh in 'reviews: HD 6950 en HD 6970: het nieuwe high-end duo van AMD'

[Reactie gewijzigd door Sleep0rz op 15 december 2010 12:23]

"ATi heeft lange tijd en nu nog steeds een zeer sterke prijs/kwaliteit verhouden en Nvidia haalt dat nu ongeveer pas een beetje in, maar gezien het verbruik van die kaarten zijn ze er nog niet."

Het lijkt erop dat je amd/ati oogkleppen op hebt. Heb jij de lancering en de recente prijsdaling van de gtx460 gemist??? Voor 140 euro krijg je erg veel performance terwijl het geluid en de warmte afgifte prima in order zijn. Daarbij schalen ze ook ongekend goed.

Overigens zit de prijs/kwaliteit verhouding al jaren dicht bij elkaar. Ten tijde van de 4xxx (toen ati de snellere kaarten kreeg) scheelde het vaak 10-20 euro in het voordeel van ati. Nvidia is natuurlijk ook niet gek en wil graag de voorsprong in marktaandeel behouden;) (die nu overigens lijkt terug te lopen).

Voor marktaandeel zie bijvoorbeeld; http://store.steampowered.com/hwsurvey/

[Reactie gewijzigd door sdk1985 op 15 december 2010 13:43]

Sleep0rz
De GTX580 is wel sneller, maar ook gigantisch veel duurder, maakt meer geluid en gebruikt ook veel meer.
Ik wil niet vervelend doen maar op Idel maakt de Gefroce GTX 580 ongeveer net zo veel geluid als de Ati HD6970.

Hardwarecanucks

Anandtech

En in Load ook bijna gelijk, Ati HD6970 maakt alleen iets meer geluid dan de Gefroce GTX 580.
- - - - - - - - - - -- - - -- - - -- - - - - - -- - - - - - - - -- - -- - - - -- - - -- - - - - -- - - - -- - -- - - -- - - - -- - - -

En de Gefroce GTX 580 gebruikt niet veel meer stroom dan de Ati HD6970.

Idel gebruikt de Gefroce GTX 580 maar +/- 10w meer, en Load maar +/- 30w meer.

Guru3D

Hardwarecanucks

[Reactie gewijzigd door AmigaWolf op 16 december 2010 00:58]

k ben teleurgesteld.

Niet alleen in de prestaties, maar vooral hoe weinig performance je krijgt voor het extra geld ten opzichte van de introductie van de 5870/5850.


Nvidia had natuurlijk veel te verbeteren, AMD een stuk minder.

daarom lijkt nvidia zo geweldig nu, maar wacht nou eens af tot 1e kwartaal 2010. in plaats van high-end(AMD) te vergelijken met ultrahigh-end (Nvidia)
Ik denk dat de gtx570 de grote winnaar is deze ronde. Voor dezelfde prijs als de hd6970 heb je in de meeste gevallen net iets meer performance. Daarbij heb je:
- cuda support
- physx support
- betere 3d support
Moet wel gezegd worden dat CUDA en 3d-support voor 95% van de gamers (als het niet meer is) helemaal niet relevant is. Physx heeft een gamer wat aan, maar is geen essentiële feature, er zijn maar weinig games waarin het verschil tussen wel of geen physX te merken is.

Maar de kaarten vallen me ook wel tegen. Zeker gezien de geruchten dat dit voor de verandering een chip ging worden die qua die-grootte op de GF110 zou lijken, is het een beetje een tegenvallen dat de HD6970 niet over de GTX580 heen gaat. Zo'n GPU zou AMD nu namelijk wel moeten kunnen maken (al weten wij niet precies wat de kosten en baten zijn voor AMD, het zal best een bewuste keuze kunnen zijn). De performancewinst t.o.v. een HD5870 is ook niet echt gigantisch.

Maar aan de andere kant zijn het kaarten met een goede prestatie per verbruik en (even afwachten) waarschijnlijk ook een redelijke prijs/prestatie.

[Reactie gewijzigd door bwerg op 15 december 2010 10:08]

Daarnaast is herhaaldelijk aangetoond dat PhysX eigenlijk een tweede GPU nodig heeft om te schitteren. Zelfs een Gtx580 gaat in hoge instellingen (waarom heb je die kaart anders) in stotter mode aan de gang met heftig PhysX gebruik.

PhysX is leuk voor gamers die een te klein scherm hebben voor de kaart of te weinig CPU om het anders op te lossen. Dit boven op het kleine aantal games dat er uberhaubt wat mee kan maakt het in mijn ogen geen reden om voor nvidia te kiezen.
Maar geen eyefinity, wat imo een leukere feature is dan de 3 die jij opnoemt.
Nou sorry hoor, er zijn maar weinig mensen die 6 Schermen hebben, laat staan 3, en dat kan Nvidia ook gewoon (3 schermen).


Het is een leuk feature, maar ruim 99,9 van de mensen gebruiken niet 6 schermen, je heb meer aan:

- cuda support
- physx support
- betere 3d support
Als je geen videobewerking oid gebruikt, heb je nul aan cuda. Physx kunnen ook prima door ATI kaarten worden uitgevoerd en 3d support, wie gebruikt dat nou al? 0,001% van de gamers?Zolang dat nog enorm duur is, zo'n verlepte bril voor nodig is en je hoofdpijn kan bezorgen is dat een doodlopend eind.
Beide leveren vaak genoeg goede/verbeterende drivers aan.
Ik weet echt niet waar men toch altijd tegenaan loopt bij de drivers van ATI, ik heb nog nooit een probleem gehad met ati, met nvidia wel. Niet dat dat mijn keuze wat beïnvloed maar om maar even aan te geven.
verder ben ik het wel met je eens dat 3 schermen laat staan 6 niet veel gebruikt word. Wat ik belangrijk vind is de prijs, de prestaties tov daarvan en de hoeveelheid stroom/hitte dat dat ding genereert.

[Reactie gewijzigd door SouLLeSSportal op 16 december 2010 09:26]

Misschien dat er nog niet zoveel 3D gamers zijn, maar deze kaart is wel interessant voor HDPC's. Zelf heb ik pas een nieuwe samsung 50" plasma met 3D functionaliteit.

Helaas ondersteund mijn Ati 4870 niet de nieuwe HDMI 1.4a standaard in zijn uitgang.
Daar zijn de 6xxx series weer WEL mee uitgerust. Voor mij heeft deze serie dus wel het voordeel: Ik kan er eindelijk 3D blu-rays mee afspelen en geloof me het beeld is super.

Ik vraag me wel af in hoeverre de nvidia kaarten dit ondersteunen. Met Powerdvd 10 moet de videokaart deze 3D functionaliteit ondersteunen anders gaan de active shutterglasses van de televisie niet werken en dus kijk je naar wazig beeld.
ten opzichte van de HD5870 vind ik de HD6970 zeer teleurstellend. Een fps winst van misschien 6 of 7 gemiddeld....daar ga ik toch geen 350 euro voor neertellen? En dan te bedenken dat ik mijn HD5870 al zo'n beetje een jaar heb. Een jaar! Dat is in hardware land normaal geasproken een eeuwigheid
Inderdaad en nog maar ~200 euro oplevert :S Maar goed de prijzen zijn nog niet bekend he dus wat je nu in de PW ziet hoeven niet de uiteindelijke prijzen te zijn...

Gelukkig heb ik een geld probleem (heb geen geld :D) en kan ik niks kopen maar anders ben ik wel zo iemand die voor die 6/7FPS toch die dikkere kaart wil hebben ookal kost het me 100/150 euro ;)

Voor het eerst in me leven doe ik een videokaart downgrade :S (hd5870>hd5770)

[Reactie gewijzigd door watercoolertje op 15 december 2010 08:46]

Of je HD 5870 was gewoon een goede koop en lijkt me ook nog steeds snel genoeg voor het gros van de spellen op 1920x1200?
mensen met een hd58xx zijn dan ook niet echt de doelgroep voor deze refresh over het algemeen. dat is nog nooit het geval geweest.

[Reactie gewijzigd door Countess op 15 december 2010 15:05]

Stel dat de 6900 serie een stuk sneller was dan de concurrentie voor dezelfde prijs, hoe zit het dan met de beschikbaarheid? Ik wil een leuke vervanger voor mijn GTX260 kopen maar ik ben er nog niet uit. Is het eigenlijk al zinvol en merkbaar om voor een DX11 kaart te gaan?
Stel dat de 6900 serie een stuk sneller was dan de concurrentie voor dezelfde prijs, hoe zit het dan met de beschikbaarheid? Ik wil een leuke vervanger voor mijn GTX260 kopen maar ik ben er nog niet uit. Is het eigenlijk al zinvol en merkbaar om voor een DX11 kaart te gaan?
Dat hangt van jouw af, als je nu tevreden bent moet je niks kopen, mis je nu performance dan is elke kaart die beter is een optie... Het is echt niet moeilijk om voor jezelf te bepalen of je nou een nieuwe kaart wilt of niet, je bent tevreden OF niet en niet iets er tussen in.

DX11 hoef je niet perse voor te gaan, dat zit er toevallig bij als je een kaart van de huidige generatie koopt ;) Aangezien alle nieuwe kaarten DX11 zijn is dus ook de snelste kaart van het moment een DX11 kaart...

Hele DX verhaal gewoon lekker vergeten en een kaart kopen die naar aanleiding van wat benchsmarks/vergelijkingen met je huidige kaart aan je wensen voldoet...
Om eerlijk te zijn vind ik mijn GTX260 ook nog niet echt een belemmering en vraag me af of de "wow"-factor bij deze kaarten (Nvidia en AMD) voldoende is om over te stappen.

Zelf draai ik alles in 1920x1080 (omdat mijn 27" niet hoger gaat). En het moet wel heel goed zijn wil ik het gaan merken.
Hmm, interessante wedloop zeg. Wat ik ook opmerkelijk vind, vroeger stond Nvidia bekend om haar enigszins onbegrijpelijke serie- en modellennummering, en dat ze bang voor iets meer buck hadden. Nu lijkt echter AMD dezelfde kant op te gaan. De 6970 valt tussen 5870 en 5970?? En de gt480 geeft betere prestatie voor je geld (niet meer geproduceerd).

Naja, ik heb nog altijd een 4870 in mijn pc hangen, en ik ben nog geen spelletje tegen gekomen waar ik niet mee uit de voeten kan.

*gaat verder OpenTTD spelen*
Heb ik ook. Met intel E8500. 4GB en Intel SSD.

"...geen spelletje tegen gekomen waar ik niet mee uit de voeten kan."

Black Ops onder Windows 7 (64bits) is een drama. Onspeelbaar in multiplayer op het moment dat er iets te schieten val. Onder Windows XP trouwens weer ok.

De rest van de spellen probleemloos (al heeft Starcraft 2 het zwaar als er heel veel units te renderen zijn - maar ik weet niet of de bottleneck dan bij CPU of GPU ligt).

Configuratie vraagt om upgrade/vervanging in de loop van (maar uiterlijk eind) 2011.


Overstap naar Sandybridge en ATIxx50 is een flinke prestatieverbetering voor een redelijke prijs.

[Reactie gewijzigd door poehee op 15 december 2010 11:22]

Daar heb ik dus helemaal geen last van... Ik speel hier black ops met mn i7 920, Windows 7 (64x) en een GTX460, en hij loopt als een zonnetje, totdat mensen hun downloads niet uitzetten en er pings boven de 150 uitkomen!

En inderdaad, Starcraft 2 pushte mn CPU wel een klein beetje zodra ik de 150 units benaderde XD
ik heb ook een 4870 (1gig variant) en ook windows 7 64bit.

black ops: Alles staat op max en nooit last van framedrop oid.
Ik heb dan ook wel een x6 amd processor, misschien dat dat het is.
Het ligt in ieder geval niet aan de videokaart
COD BO drama onder WIN 7 64bit? Speel deze game vloeiend op mijn GTX260 en i7 920 (en SSD) maar dat is vooral te danken aan één van de handmatige instellingen in de mp config file aan te passen. Sindsdien draait die bij mij heel soepel. Ligt het daar misschien aan?

Voor de rest ik game nog steeds op een 22 inch TFT met 1680X1050 en dan kan je met de meeste games alles nog max draaien op een GTX260. Had GTX260 SLI en daarna GTX260 + 8800GTS voor PhysX. Nu enkel een GTX260 omdat het meer dan genoeg is en ik geen games meer kan vinden diemerkbaar baat hebben bij PhysX op aparte 3D kaart.

Ik wil wel over naar DX11 als er meer games uit zijn die echt wat met DX11 doen.....kan dus nog ff wachten en dan overweeg ik de nieuwe AMD's, ga dan voor fabrikant met de beste prijs-prestatie verhouding in het hogere mainstream segment.
Starcraft 2 heeft tekort aan je CPU.

Hij heeft ook tekort aan mijn CPU, wat net als hieronder een i7 920 is.

Ik heb geen black ops issues, behalve dat AA voor geen meter werkt op de ATI drivers.
Er zit geen verschil tussen 4xAA of 16xAA naar mijn beleving, andere modes forceren heeft geen effect (0xAA) dus ziet het spel er matig uit, mede door de ouderwetse shaders die gebruikt zijn.

Grootste probleem daar is dat het netwerk gedeelte instabiel is. De servers die je builds, contracts en challenges opslaan zijn super onstabiel.
Black ops is nauwelijks een belasting voor de GPU, mijn gtx 260 wordt nog geen 50% belast op 1680x1050. Dus voor black ops hoeft hij iig zijn grafische kaart niet te vervangen :+ .
Ja maar als je hem op 1920x1080 speel of hoger, gaat de gebruik wel meer worden, en 1920x1080 is tegenwoordig de standaard, en een 1920x1080 (FullHD) scherm kosten geen drol meer tegenwoordig.
Laatste patch voor BO zorgt voor een grote verbetering :)
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Politiek en recht

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True