Door Marc Rademaker

Redacteur

AMD HD 7990's dual-gpu-monster getest

24-04-2013 • 08:00

116

Multipage-opmaak

Twee is beter dan een

Inleiding

De AMD Radeon HD 7990 werd in 2012 al kort getoond, tijdens de AMD Fusion Developer Summit, maar daarna bleek er alleen een dual-gpu-videokaart uit te komen voor de zakelijke markt. Vervolgens bleef het angstvallig stil rondom de HD 7990, totdat Powercolor zelf een HD 7990 ontwierp, evenals Club3D en later ook Asus, dat de onlangs geteste Ares II uitbracht. Blijkbaar is er echter vraag naar een minder speciale en minder dure HD 7990, dus ontwierp AMD er zelf een. Of eigenlijk: AMD komt met een opgevoerde versie van de FirePro S10000, zonder foutcorrigerend geheugen.

Het doel is om de GTX 690 en de GTX Titan van Nvidia het leven zuur te maken. De GTX Titan is een lastige kaart om aan te vallen, aangezien het een videokaart met een enkele, maar gigantische gpu betreft. Daardoor kleven er geen sli- of crossfire-nadelen aan de videokaart. De prijs van de GTX Titan en de prestaties maken echter dat deze moet worden vergeleken met de HD 7990. AMD is verder erg te spreken over de koeler, die zelfs onder load niet al te veel geluid produceert. En met 'slechts' twee achtpins-pci-e-connectors is het stroomverbruik van de videokaart ook aardig binnen de perken gehouden.AMD HD 7990

Malta nader bekeken

De HD 7990 staat bij AMD bekend als Malta, een van de vele eiland-codenamen die AMD aan zijn videokaarten gaf. AMD vloog de pers echter niet naar Malta, maar naar San Francisco om de HD 7990 uit de doeken te doen. Voor het publiek werd alvast een kleine teaser weggegeven en de Battlefield 4-demo werd gedraaid op systemen met de HD 7990. Zoals gezegd is de HD 7990 echter niet nieuw; er zijn al varianten van Club3D, Powercolor en Asus, en de gebruikte gpu's werden al anderhalf jaar geleden geïntroduceerd. Verderop gaan we dieper in op de videokaart, maar voor nu zegt het genoeg dat de Never Settle-bundel van tien games de meeste indruk op ons maakte tijdens de presentatie.

Malta heeft twee Tahiti-gpu's aan boord, zoals die voor de HD 7970 GHz Edition worden gebruikt. De kloksnelheid is echter marginaal lager, met een nominale kloksnelheid van 950MHz en een Boost-clock van 1000MHz in plaats van respectievelijk 1000MHz en 1050MHz. Het geheugen, 3GB per gpu, is met 6000MHz wel even snel. Met 2048 streamprocessors per gpu levert de HD 7990 8,2 teraflops, iets minder dan twee HD 7970 GHz Editions, die samen goed zijn voor 8,6 teraflops.

Het opvallendst aan de videokaart is de koeler, die met drie fans stiller zou zijn dan zowel Nvidia's GTX 690 als de GTX Titan. Het lijkt indrukwekkend en gezien het stroomverbruik is dat het ook, maar we mogen niet vergeten dat Nvidia's videokaarten de warme lucht de behuizing uitblazen, terwijl dat met AMD's koeler niet het geval is. Om de componenten in de behuizing koel te houden moeten de casefans dus harder aan het werk. Verder zien we twee achtpins-pci-e connectors, waardoor het verbruik op maximaal 375W ligt. Een bios-switch maakt het mogelijk om te schakelen naar een werkend bios als het andere bios foutief geflasht wordt.

AMD HD 7990 AMD HD 7990

Testsysteem

Vorig jaar hebben we een nieuw testsysteem op basis van Intels Sandy Bridge E-cpu's en de X79-chipset in gebruik genomen. Van Intel kregen we een Core i7 3960X-cpu, die in een Asus Rampage IV Extreme-moederbord werd gestoken. Deze cpu werd naar 4,3GHz overgeklokt en wordt met de standaardwaterkoeling van Intel op temperatuur gehouden. Verder gebruikten we 8GB op 1600MHz geklokt ddr3-geheugen, een Kingston Sandforce 2281-ssd van 240GB en een Corsair AX750W Gold-voeding. Alle hardware werd op een benchtable van CoolerMaster gemonteerd.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 3960X
Geheugen Kingston KHX1600C9D3K4/8GX
Ssd Kingston HyperX 240GB
Videokaarten

Nvidia GTX Titan
AMD HD 7990
EVGA GTX 690
AMD HD 7970 GHz Edition
GTX 680

Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750

We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat.

Als benchmarks kozen we de games Battlefield 3, Alien vs. Predator, DiRT: Showdown, Sleeping Dogs, The Witcher 2, Shogun 2: Total War, Far Cry 3 en Crysis 3. Van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Dell U3011Elke game is getest met een Dell U2711-beeldscherm op de resolutie 2560x1440 pixels en in combinatie met drie full-hd-schermen, die samen een resolutie vormen van 5760x1080 pixels. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-instellingen, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt altijd 16x af toegepast. Bij games die dat niet ondersteunen, wordt deze instelling afgedwongen met behulp van AMD's Catalyst Control Center of Nvidia's Control Panel.

In AMD's CCC staat adaptive aliasing op multisampling en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing-transparancy-modus op multisampling en is de texture-kwaliteit op 'quality' ingesteld.

Frametijdmetingen

In onze vorige videokaartreview hebben we al redelijk wat woorden besteed aan het fenomeen frametijdmetingen. Nu kunnen frametijden aan het begin of aan het eind van de cyclus gemeten worden, met behulp van respectievelijk fraps of fcat. En wat blijkt? Juist bij crossfire en sli-opstellingen is er verschil tussen wat fraps en fcat meten. Met fraps zien we een duidelijk patroon, waarin een langzaam frame wordt opgevolgd door een snel frame. Met fcat wordt dit patroon nog veel sterker; een erg langzaam frame wordt opgevolgd door een heel snel frame. Als de beelden op het scherm opgenomen worden, is zelfs te zien dat een aantal van die snelles frames amper op het beeld verschijnt, soms zijn die frames slechts enkele beeldlijnen hoog.

Fraps is dus niet helemaal geschikt om de frametijden te meten. Fcat kunnen we niet gebruiken en al zou het kunnen, dan neemt het immens veel tijd in beslag. Nu moet gezegd: er zijn voorbeelden, zoals Far Cry 3, waarin crossfire-opstellingen vreselijk op hun bek gaan, terwijl ze in andere spellen prima presteren. Zelfs fraps geeft daar een aardige indicatie van. Onderstaande grafieken zijn met Frafs Bench Viewer gemaakt, een tooltje dat de frametijden van Fraps eenvoudig en snel omzet in onderstaande grafieken.

HD 7990 - Far Cry 3 - Frametimes HD 7970 - Far Cry 3 - Frametimes GTX Titan - Far Cry 3 - Frametimes

Bij de HD 7990 fluctueren de frametijden hevig, terwijl er bij de HD 7970 enorme uitschieters tussen zitten. De GTX Titan heeft hier bijna geen last van; de uitschieters zijn kleiner en liggen vaak nog onder de 33,3ms, wat overeenkomt met 30fps. Als je de onderstaande video, opgenomen met een HD 7990, bekijkt, zie je regelmatig een stotter voorbij komen.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Nu is Far Cry 3 een speciaal geval, maar om de problemen van crossfire, maar ook van Fraps, te laten zien, biedt Battlefield 3 uitkomst.

HD 7970 GHz - BF3 - Frametimes HD 7990 GHz - BF3 - Frametimes GTX 690 - BF3 - Frametimes

De HD 7970 GHz laat een redelijk strakke lijn van frametijden zien, terwijl de grafiek van de HD 7990 meer een wolk is, net zoals de grafiek van de GTX 690, ook al heeft die er minder hoge uitschieters tussenzitten. Nu pompt de HD 7990 er zo veel frames uit, dat het gros frametijden heeft van minder dan 16,6ms, goed voor een framerate van 60fps. Verder zijn alle frames sneller dan 33,3ms, het speelt dus uiterst vloeiend, zou je denken.

Fcat heeft echter al aangetoond dat er met Crossfire frames gedropped worden, dus gewoon compleet verdwijnen, maar ook dat sommige frames amper op het beeldscherm terechtkomen. En bij de GTX 690 heeft Fcat aangetoond dat Nvidia's framemeting ertoe leidt dat de grafiek er bijna net zo uitziet als bij de HD 7970 GHz (of bij een enkele GTX 680).

Toch speelt Battlefield 3 vloeiend in combinatie met een HD 7990, vloeiender dan met een HD 7970 GHz. Dus misschien is de HD 7990 niet zo veel beter als de frametijden, de minima en de gemiddelde fps doen vermoeden, maar beter is hij wel. AMD claimt ook dat de latency erg laag is. Dat betekent dat een muisklik zo snel mogelijk merkbaar is op het beeldscherm. Een keuze van AMD, terwijl Nvidia de beelden juist expres vertraagt.

AMD heeft gezegd dat er een driver komt waarmee mensen de optie kunnen aanvinken om frames te vertragen in combinatie met crossfire-opstellingen, net zoals Nvidia doet. Dat brengt ons echter nog geen soelaas, omdat er nog steeds frames kunnen 'verdwijnen' en we met fraps nog steeds niet precies meten wat we willen meten. En dat terwijl Fcat simpelweg te veel tijd vergt. Het is dus wachten op een opvolger van fraps, die meet wanneer frames die klaar zijn naar het beeldscherm gestuurd worden.

En ondertussen geven framerates per seconde nog steeds aan hoe krachtig een videokaart is, of in potentie kan zijn. Dat sommige frames niet eens op het beeldscherm verschijnen is natuurlijk wel zonde. Verder heeft AMD al veel werk verricht als het gaat om frametimes, waardoor AMD en Nvidia elkaar nu weinig ontlopen. Nu moet AMD dat nog met CrossFire-opstellingen doen, en in theorie kan fraps dan gewoon weer gebruikt worden.

3DMark en Unigine

De opvolger van 3DMark 11 zag in februari eindelijk het levenslicht. Na 3DMark 05, 06, Vantage en 11, zijn we weer terug bij af, met simpelweg 3DMark. De Windows-versie is sinds enige tijd te downloaden, maar de langverwachte iOS-, Android- en RT-versies laten nog op zich wachten. Gelukkig hebben we aan de Windows-versie genoeg. We maken gebruik van het FireStrike-onderdeel en dan de niet-extreme uitvoering. De andere benchmarks zijn te licht, terwijl FireStrike Extreme te zwaar is, zelfs voor de voor deze review geteste geweldenaren. Wij noteren de gpu-score, aangezien de cpu-score voor ons weinig nut heeft, terwijl die wel in de algehele score is verwerkt.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
HD 7990
********
13993
EVGA GTX 690
*******
11808
GTX Titan
******
9771
HD 7970 GHz
****
7800
Nvidia GTX 680
****
6783

De HD 7990 is in 3DMark in ieder geval aanzienlijk sneller dan de GTX 690 en de GTX Titan. Een dubbele score ten opzichte van de HD 7970 GHz zit er echter niet in.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
HD 7990
********
3072,00
EVGA GTX 690
********
2910,00
GTX Titan
*******
2528,00
HD 7970 GHz
****
1657,00
Nvidia GTX 680
****
1550,00

In Unigine is het verschil met de GTX 690 een stuk kleiner, evenals met de GTX Titan.

Battlefield 3 & Shogun 2

Battlefield 3 is door het uitkomen van Crysis 3 en Far Cry 3 niet langer de mooiste shooter, maar het is nog steeds behoorlijk veeleisend. Uiteraard is het vooral in de multiplayermodus van belang dat de framerates zo hoog mogelijk zijn. We hebben de kaarten getest op de hoogste instellingen, inclusief 4x aa en 16x af.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
******
+
**
60,0 / 80,1
EVGA GTX 690
*****
+
**
55,0 / 73,5
GTX Titan
****
+
**
42,6 / 59,9
HD 7970 GHz
****
+
*
36,5 / 44,9
Nvidia GTX 680
***
+
*
29,8 / 41,5

Ook in Battlefield 3 is de HD 7990 iets sneller dan de GTX 690 en de schaling ten opzichte van een enkele HD 7970 GHz is vrij goed te noemen.

Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
57,0 / 70,5
HD 7990
*****
+
**
47,5 / 63,1
GTX Titan
*****
+
*
45,0 / 55,8
Nvidia GTX 680
***
+
*
30,0 / 38,1
HD 7970 GHz
***
+
*
26,5 / 34,3

In Shogun 2 moet de HD 7990 zijn meerdere erkennen in de GTX 690 en wordt hij zelfs op de hielen gezeten door de GTX Titan.

Sleeping Dogs & Crysis 3

Het nieuwe actie-en-avonturenspel Sleeping Dogs maakt volop gebruik van DirectX 11. We draaiden de ingebouwde benchmark met alle instellingen op maximaal; alleen anti-aliasing stond op High in plaats van Extreme.

Sleeping Dogs - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*****
+
****
57,4 / 98,4
EVGA GTX 690
****
+
***
52,7 / 85,5
GTX Titan
***
+
**
41,6 / 67,0
HD 7970 GHz
***
+
**
42,5 / 61,4
Nvidia GTX 680
**
+
**
31,6 / 48,1

In Sleeping Dogs is de HD 7990 weer de bovenliggende partij, hoewel de prestaties ten opzichte van de HD 7970 GHz niet denderend zijn.

Crysis 3

Crysis 3 is een nieuwe toevoeging aan onze benchmarksuite en behoeft amper introductie. Het is het mooiste spel op de markt, maar ook het meest veeleisende. Een GTX 680 of HD 7970 GHz Edition is nodig om het spel op 1920x1080 beeldpunten te kunnen draaien met de hoogste instellingen. Het verlagen van de instellingen doet echter wonderen en dan ziet Crysis 3 er nog steeds prachtig uit.

Crysis 3 - 2560x1440 - Very High
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
*******
+
**
45,3 / 55,0
HD 7990
******
+
**
41,5 / 51,1
GTX Titan
*****
+
*
33,0 / 42,3
HD 7970 GHz
***
+
*
24,5 / 30,9
Nvidia GTX 680
***
+
*
24,0 / 28,9

In Crysis 3 is de GTX 690 van Nvidia ongeveer tien procent sneller.

Far Cry 3 & AvP

Far Cry 3 is net zoals Crysis 3 een nieuwe toevoeging aan onze benchmarksuite. Tot op het moment dat Crysis 3 uitkwam, was Far Cry 3 het mooiste spel en bijna net zo veeleisend als Crysis 3. We testten het spel met de instellingen op de hoogste stand, waaronder 4x aa. Hoe we het spel testen, kun je in onze hardware-test van Far Cry 3 lezen.

Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
*******
+
*
48,5 / 56,2
HD 7990
*****
+
**
39,0 / 51,9
GTX Titan
******
+
*
39,7 / 45,4
HD 7970 GHz
****
+
*
28,0 / 32,6
Nvidia GTX 680
****
+
*
27,0 / 30,7

In Far Cry 3 zien we dat de HD 7990 niet zo goed presteert als verwacht, zo is de Titan bijna net zo snel en is het verschil met de HD 7970 GHz ook niet al te groot. Crossfire werkt in ieder geval niet naar behoren in Far Cry 3.

Alien vs. Predator - 2560x1440 - High - 2xAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
****
+
****
48,0 / 85,9
EVGA GTX 690
****
+
***
48,7 / 82,3
GTX Titan
****
+
**
40,7 / 64,5
HD 7970 GHz
***
+
**
33,0 / 54,8
Nvidia GTX 680
**
+
**
25,5 / 43,6

In AvP is de HD 7990 net zo snel als de GTX 690 en ruwweg anderhalf keer zo snel als de HD 7970 GHz.

DiRT: Showdown & The Witcher 2

DiRT: Showdown is het nieuwste racespel van Codemasters, op basis van de EGO-engine, die Codemasters voor al zijn racespellen gebruikt, inclusief GRID 2, dat over enige tijd moet uitkomen. Alle instellingen staan op de hoogst mogelijke stand, maar Global Illumination en Enhanced Lighting staan uit.

DiRT: Showdown - 2560x1440 - Ultra - 4xAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
******
+
**
109,6 / 145,7
EVGA GTX 690
*****
+
**
92,5 / 121,8
GTX Titan
*****
+
*
90,9 / 110,8
HD 7970 GHz
****
+
*
82,5 / 102,1
Nvidia GTX 680
****
+
*
66,6 / 80,8

In DiRT weet de HD 7990 aardig uit te stijgen boven de GTX 690, hoewel de framerates dusdanig hoog liggen dat het verschil er amper toe doet.

The Witcher 2 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
60,5 / 79,0
HD 7990
****
+
****
36,0 / 74,8
GTX Titan
***
+
***
30,0 / 54,4
HD 7970 GHz
***
+
**
26,5 / 42,4
Nvidia GTX 680
***
+
*
30,0 / 41,5

The Witcher 2 is nog een goed voorbeeld van een game waarbij Crossfire niet werkt zoals het zou moeten werken. Vooral de minima zijn laag, gezien de grafische kracht van twee HD 7970 GHz-gpu's.

Benchmarks op 5760x1080 pixels

Aangezien de power waarover de HD 7990, GTX 690 en GTX Titan beschikken, amper tot zijn recht komt op 2560x1440 pixels, hebben we de kaarten ook op 5760x1080 beeldpunten getest, met behulp van drie full-hd-monitoren in een Eyefinity of Surround-opstelling. We gebruikten daarvoor de spellen Battlefield 3, DiRT: Showdown, Far Cry 3 en Crysis 3. Aangezien de resolutie wel erg veeleisend is, werd zowel op de hoogste als op Medium-instellingen getest.

Battlefield 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*******
+
*
76,8 / 90,4
EVGA GTX 690
******
+
*
70,0 / 82,1
GTX Titan
*****
+
*
61,0 / 70,7

De HD 7990 is iets sneller dan de GTX 690 in combinatie met de Medium-instellingen.

Battlefield 3 - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*******
+
*
45,8 / 54,3
EVGA GTX 690
*****
+
**
35,3 / 46,1
GTX Titan
****
+
**
26,8 / 36,4

Met de Ultra-instellingen is de HD 7990 aanzienlijk sneller dan de GTX 690. Vooral de minima verschillen behoorlijk.

Far Cry 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
******
+
**
40,0 / 55,7
EVGA GTX 690
*****
+
***
32,5 / 50,8
GTX Titan
*****
+
*
36,0 / 39,8

Far Cry 3 lijkt soepel te spelen met de HD 7990, maar zoals we eerder al opmerkten, is dat niet helemaal het geval. De kaart is echter tot hoge framerates in staat.

Far Cry 3 - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*****
+
***
22,8 / 34,2
EVGA GTX 690
*****
+
**
23,8 / 32,0
GTX Titan
******
+
*
24,0 / 27,3

Op Ultra nemen de verschillen iets af en is de GTX 690 praktisch net zo snel als de HD 7990.

Benchmarks op 5760x1080 pixels (2)

Behalve Battlefield 3 en Far Cry 3, werden ook Crysis 3 en DiRT: Showdown getest op 5760x1080 beeldpunten.

Crysis 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*******
+
*
66,8 / 74,8
EVGA GTX 690
******
+
*
53,5 / 64,2
GTX Titan
*****
+
*
44,0 / 50,6

Met de Medium-instellingen is de HD 7990 nog het snelst.

Crysis 3 - 5760x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
28,0 / 37,5
HD 7990
******
+
*
28,0 / 33,0
GTX Titan
*****
+
*
21,6 / 25,2

Met de hoogste instellingen is het echter de GTX 690 die er gemiddeld iets meer frames per seconde uit weet te persen.

DiRT: Showdown - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
******
+
**
98,5 / 120,4
EVGA GTX 690
*****
+
*
81,5 / 95,8
GTX Titan
****
+
*
64,3 / 78,2

DiRT is grafisch gezien geen echte uitdaging voor de videokaarten. Het is met alle kaarten prima speelbaar, maar de HD 7990 is wel met gemak sneller dan de videokaarten van Nvidia.

Energieverbruik

We hebben het energieverbruik van het hele systeem aan het stopcontact gemeten. Het onbelaste systeem gaf enkel de Windows-desktop weer, op één scherm.

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
*******
91,00
HD 7970 GHz
*******
92,00
GTX Titan
*******
92,00
EVGA GTX 690
*******
95,00
HD 7990
********
103,00

De HD 7990 verbruikt door zijn drie fans en de aanwezige PLX-chip iets meer dan de andere videokaarten, hoewel een van de gpu's volledig uitgeschakeld wordt als de videokaart idle is.

Energieverbruik systeem - Load
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
******
360,00
HD 7970 GHz
******
385,00
GTX Titan
******
385,00
EVGA GTX 690
*******
475,00
HD 7990
********
508,00

Ook onder belasting met Furmark is de HD 7990 de grootste energieverbruiker, hoewel het verschil met de GTX 690 nog meevalt.

Energieverbruik systeem - In-game
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
*****
340,00
HD 7970 GHz
******
372,00
GTX Titan
******
410,00
EVGA GTX 690
*******
468,00
HD 7990
********
540,00

Bij de meeste kaarten is het verbruik in-game lager dan in Furmark, behalve bij de HD 7990 en de Titan. Verder valt op dat het energieverbruik ten opzichte van een HD 7970 GHz alles behalve verdubbelt en dat heeft AMD goed voor elkaar.

Geluid

Naast het energieverbruik hebben we ook de geluidsproductie in kaart gebracht. De geluidsproductie werd gemeten op een afstand van 20cm, in een afgesloten ruimte met een omgevingsgeluid van 31 tot 31,5dBA.

Geluidsdruk - Idle 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
HD 7990
*******
35,2
HD 7970 GHz
********
36,1
GTX Titan
********
36,4
Nvidia GTX 680
********
36,8
EVGA GTX 690
********
36,9

Idle is de HD 7990 fluisterstil en dat is een redelijke prestatie met drie fans.

Geluidsdruk - Load 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
Nvidia GTX 680
****
48,8
GTX Titan
****
49,2
HD 7990
*****
52,1
EVGA GTX 690
*****
52,4
HD 7970 GHz
********
59,8

Onder belasting is de HD 7990 vrij stil, stiller zelfs dan de GTX 690. Het grote verschil is natuurlijk de openluchtkoeling van de HD 7990, terwijl de Titan en de GTX 690 hun warme lucht de kast uit blazen.

Conclusie

De HD 7990 is snel, maar valt stiekem een beetje tegen. Als we naar de scores kijken, is de HD 7990 in enkele spellen sneller, soms gelijk aan en soms langzamer dan de GTX 690. Opvallender is echter dat de schaling ten opzichte van een HD 7970 GHz niet bijzonder goed is. De kloksnelheid van de HD 7990 ligt maar vijf procent lager, maar in veel gevallen is de HD 7990 slechts anderhalf keer zo snel en soms zelfs minder dan dat. De GTX Titan is overigens geen partij, evenmin als hij dat voor de Ares II was.

Kijken we overigens naar de prestaties van de Ares II in onze vorige review, dan valt op dat de HD 7990 vaak meer dan de verwachte tien procent langzamer is, wat nog te rechtvaardigen zou zijn door de lagere kloksnelheden. Er bestaat dus een klein vermoeden dat ons exemplaar niet naar behoren presteert of dat de limiet van 375W niet genoeg is om beide gpu's aan het werk te houden. Overigens hielp het verhogen van de powertune-limiet niet. Ook zijn we nog niet te spreken over de prestaties in bijvoorbeeld Far Cry 3, waar duidelijk iets misgaat gezien het vele gestotter.

We zijn nooit een fan geweest van Crossfire of sli, maar voor hoge resoluties of Eyefinity kun je bijna niet zonder. De HD 7990 is wat dat betreft dan ook een prima videokaart, de koeler is erg stil, het energieverbruik werd aardig ingetoomd en alleen de niet geringe lengte van 30,5cm zou tot problemen kunnen leiden in een aantal behuizingen. Daarbovenop krijgt eenieder die een HD 7990 koopt, ongeacht de webwinkel, er acht spellen bij. Klinkt als een werelddeal, maar een rekensommetje leert ons dat je die spellen voor iets minder dan 170 euro ook kunt kopen. Of verkopen dus.

Op een prijs van 999 dollar, de Nederlandse prijs is nog niet bekend, is 170 euro een redelijk bedrag. Dat is dus de moeite waard. Het gaat overigens om BioShock Infinite, Tomb Raider, Crysis 3, Far Cry 3, Far Cry 3: Blood Dragon, Hitman Absolution, Sleeping Dogs en Deus Ex: Human Revolution. Wie overigens denkt wel eventjes dezelfde prestaties uit een normale HD 7990 te persen als bijvoorbeeld de Ares II, zal bedrogen uitkomen. Standaard kan de gpu naar 1100MHz overgeklokt worden, maar met die kloksnelheden kregen wij de videokaart niet stabiel.

Pluspunten

  • Erg snel
  • Stille koeler
  • Acht gratis games

Minpunten

  • Crossfire

Eindoordeel

Tweakers zegt: 8

Reacties (116)

116
109
61
10
3
22
Wijzig sortering
Even een opmerking over Far Cry 3:
Ook op mijn systemen had ik stotteringen, maar alleen tijdens de cutscenes / cinematics wat puur aan het spel zelf ligt en niet aan de grafische kaart(en).
Op mijn quad crossfire ( 4 x HD5870 + 1 x 8800GT Hybrid Physx, AMD FX-8150 @4,7 GHz, 16 GB DDR3 2133 ) en mijn sli ( 2 x GTX460 1 GB OC + 1 x 8800GT, i7 970 @ 4 GHz, 12 GB DDR3 1600 ) had ik exact dezelfde stotteringen op exact dezelfde momenten, maar tijdens rennen en schieten met alles op ultra op full hd 3d dropte de framerate nooit onder de 30.
Far Cry 3 is een bizar slechte port waardoor EA gedwongen was 4 patches in 2 weken uit te brengen wat slechts een aantal bugfixes had, de stotteringen in cinematics en cutscenes waren hiermee niet opgelost.
Ik had Far Cry 3 uitgespeeld zonder ook maar 1 stotter in beeld of artifacts of andere visuele errors op beide systemen tijdens normale gameplay.

Aangezien tweakers zelf al aangeeft dat Far Cry 3 het enige spel is wat stotteringen vertoont met deze kaart is de conclusie dat het aan het spel ligt, niet aan de kaart.

Ook even een opmerking over het gebrek aan vermogen tijdens vol dual gpu verbruik:
De HD5970 had dit probleem ook. De kaart heeft een TDP van 295 Watt maar verbruikt meer dan dat bij vol gebruik.
De limiet met een 6 plus 8 pins aansluiting is echter 75 + 150 watt (dus 225 van de voeding) wat betekend dat de overige 70 watt van de PCI-e bus moet komen.
Veel moederborden kunnen dit niet aan waardoor de maximale stroomlevering naar de kaart 275 watt is tenzij je het voltage verhoogd, echter heeft AMD een "limiter" ingebouwd waardoor je nooit meer dan 295 watt kan trekken voordat de kaart automatisch in safe mode blokkeerd en de snelheid terug schroeft. Enkel de niet-reference kaarten (Black Editions met overvoltage schakeling) waren in staat meer stroom te trekken zonder in paniek te raken.

Ik heb dan ook sterk het vermoeden dat dit hier ook het geval is. Bij 100% verbruik op beide gpu's trekt de kaart meer stroom dan mobo en psu aan kunnen.
De TDP hier is 375 watt, 2 x 8-pins is 300 watt, dus 75 watt is direct van de pci-e bus.
Door voltage verhoging kan je de 8-pins opkrikken naar 165 watt per connector, wat 330 watt + 45 watt via de pci-e bus oplevert maar dit betekend wel een dramatische verhoging van de werktemperatuur van de hele kaart (niet alleen de gpu's) waardoor je met een reference koeler al vlug over de 65 graden gaat in Furmark of tijdens full-load benches op beide gpu's samen.

De reden waarom AMD dit doet is omdat je in een spel vrijwel nooit 100% load op beide gpu's tegelijk zal trekken en zeker niet constant.
In Furmark en tijdens benchen gebeurd dit wel waardoor je een flinke dip of vertraging kan verwachten als de interne sensors in de kaart een te hoge temperatuur detecteren of als de stroomtoevoer bij deze load niet toereikend is.
AMD kan wel de kaart "zwaarder" maken om zo meer stroom aan te kunnen maar dat zou de kaart (bijna) net zo duur maken als een GTX690 die een lagere productieprijs heeft omdat er meer van verkocht worden dan HD7990's (was ook zo bij de GTX590 vs HD6990, en bij de GTX295 vs HD4870 X2 ondanks het belachelijke prijsverschil).
AMD is dus gedwongen om een "prijsvechter" op de markt te brengen en dit is dus het resultaat.

Zoals gezegd is dit alleen van toepassing in benchtests en marteltests.
In games zal je hier normaal gesproken niets van merken maar dit geeft wel gelijk aan dat overclocken en benchen met deze kaart eigenlijk niet mogelijk is zonder een betere stroomhuishouding op de kaart zelf.
"We zijn nooit een fan geweest van Crossfire of sli"


Waarom wordt er dan in zo goed als elke BBG gamepc een CF/SLI combinatie aangeraden?
Dat is idd een heikel punt. Heb zelf nml. veelal in de BBG's opgemerkt dat sli/cf niet zaligmakend is vanwege o.a. micro-stutter. Zeker in het begin werd er vaak smalend gereageerd op mijn kritiek en was Cf/SLI setup de favoriet voor een snel game systeem.
Langzaamaan is het besef bij sommigen doorgedrongen en is het kamp sli/cf liefhebbers geslonken. Misschien wel tot onder de 50%.

De opmerking hier is dan ook opvallend, maarja, dit is niet de eerste keer. Heb vaker vrijwel alleen gestaan in mijn opvatting. Die dan later net zo vrolijk klakkeloos werd overgenomen en dan "uit hun eigen doos" kwam. Ben er echt niet rouwig om maar eerder blij dat het besef toch is doorgedrongen. Beter laat dan nooit, nietwaar }:O
Waarom krijgt AMD zijn frametijden niet onder controle?
Als ik kijk naar de video en de frametijden dan vergaat me elke drang zó'n kaart te kopen. Een videokaart als deze koop je voor de soepelst mogelijke gameplay ervaring, als ze dat niet kunnen bieden wat is dan de meerwaarde?
En frames droppen!? Hoe praat AMD dit goed? Je maakt een topkaart en de meest rudimentaire taak van het ding, frames leveren aan je scherm, daar heeft ie kennelijk toch wat moeite mee.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:05]

AMD praat het niet goed, ze maken het goed :P

Zie: http://www.techpowerup.co...roving-Frame-Latency.html

Ze werken eraan, en dat is veelbelovend. Ben zelf erg benieuwd naar de nieuwe drivers.
In dat artikel zijn de nieuwe frame latencies, nog steeds groter als de twee Nvidia kaarten waarmee vergeleken wordt. De donkerblauwe lijn (corr, 7990) is nog steeds duidelijk dikker dan de lichtblauwe (GTX690).
Kortom AMD's oplossing is nog steeds niet op het niveau van Nvidia, en Nvidia heeft het probleem al veel eerder, veel beter aangepast en de methode die AMD gebruikt is ook nog eens direct van Nvidia afgekeken. Vanaf het allereerste begin heeft Nvidia SLI beter onder controle gehad als AMD zijn crossfire, en ik vind het frappant dat ze nog steeds niet hun zaken voor mekaar hebben. Maar ondertussen wel een bak van een kaart verkopen die beter werkt als voetenverwarmer, het grenst aan volksverlakkerij voor mij. Mensen kopen dit omdat ze voor €900 prestatie verwachten, maar dat krijgen ze niet. Kunnen ze er wel leuk 9 games bij doen, erg aardig, maar dat geeft voor mij eigenlijk ook al aan dat ze wel voelen iets goed te maken te hebben, dat het hier als pluspunt wordt gebruikt vind ik gek want het zegt he-le-maal niets over de prestatie van de kaart.

AMD begint voor mij steeds meer het jochie van de klas te worden die wel mee wil doen, een grote mond heeft, maar als puntje bij paaltje komt met een smoesje aan de kant zit.
Heb vroeger een paar van hun kaarten gehad (7780 en 4870) en in het midden segment heeft AMD altijd goede zaken gedaan. Maar als je echt een topsysteem wil, met meerdere kaarten/GPU's, dan is Nvidia IMHO de onbetwiste koning, nu met de Titan (single GPU!) al helemaal.
Je maakt het allemaal wel een stukje groter dan het is nu.

Stutter is zeker een Crossfire probleem, maar het is echt niet zo dat Nvidia kaartjes er nooit last van hebben. Ook daar heb je wel eens een hikje, alleen zijn dat de hikjes die er op datzelfde moment ook zouden zijn op een AMD kaart. GPU load fluctueert nou eenmaal.

Als je naar de resultaten van 13.4 alpha kijkt zie je dat de verschillen minimaal zijn geworden. Jij zit nu te verkondigen dat jij het verschil tussen 11 en 13 ms kan zien. Dat is een broodje aap verhaal. Ik speel constant met een frame time indicatie op m'n scherm en je gaat echt alleen iets merken als het verschil tussen snelste en langzaamste frame 8-12ms of meer is. En dat verschil is nog zeer minimaal en eigenlijk al vrijwel onzichtbaar/onmerkbaar.

Iets minder grote woorden, en iets meer naar de feiten kijken zou je goed doen. Volksverlakkerij... lol gast.

[Reactie gewijzigd door Vayra op 24 juli 2024 23:05]

Warrom krijgt AMD zijn frametijden niet onder controle?
Als ik kijk naar de video en de frametijden dan vergaat me elke drang zó'n kaart te kopen. Een videokaart als deze koop je voor de soepelst mogelijke gameplay ervaring, als ze dat niet kunnen bieden wat is dan de meerwaarde?
En frames droppen!? Hoe praat AMD dit goed? Je maakt een topkaart en de meest rudimentaire taak van het ding, frames leveren aan je scherm, daar heeft ie kennelijk toch wat moeite mee.
Volgens Hardware.info die deze kaart ook heeft getest werkt AMD hard aan firmware die de frametime-problemen op zou moeten lossen of enigzins verbeteren.
Je reactie is gedateerd. AMD heeft de belangrijkste reviewsites een prototype driver gegeven waarmee het probleem (voor zover getest met diverse games) geheel opgelost is. Tweakers.net behoort echter niet tot de grootste reviewsites en beschikt dus niet over de prototype driver.

Kijk hiervoor op PC Perspective.

Heb dus nog even geduld maar binnenkort behoort dit probleem eindelijk tot het verleden gelukkig. :)
Waarom zouden mensen dit soort kaarten willen kopen als men twee hd 7970 voor minder dan 700 euro kunnen kopen. Zelfs met die bundel van acht spellen rechtvaardigt het geen prijs van 999 dollar wat hier toch ook 999 euro wordt. Van een gtx titan kan ik het nog begrijpen omdat dat de sterkste single die gpu is.
Omdat je ook twee keer een 7990 kunt kopen en die in crossfire kunt zetten ;)
En sommige mensen hebben wellicht geen dual PCI Express 16x sloten op hun moederborden. Er is blijkbaar wel een doelgroep, en als die er toch niet blijkt te zijn, dan kunnen ze in ieder geval roepen dat ze de snelste single card hebben van dit moment.
Goede god, meer dan 500W energieverbruik... daar blijft mijn mond wel even van open staan. dat is een halve KW, en dus één kWh per twee uur. Dus niet alleen ben je een godsvermogen aan zo'n kaart kwijt, je kunt ook met enkele uurtjes spelen per week een gepeperde energierekening verwachten. Voor mij zou dat de lol van het gamen wel behoorlijk wegnemen, om eerlijk te zijn.
Niet te vergeten de warmteontwikkeling in je kast - die gaat staan blazen als een gek om al die warmte weg te krijgen, want het is niet alleen je kaart: wie zo'n ding heeft zal waarschijnlijk ook een dikke CPU hebben, bijvoorbeeld. Ik kan er niet zo goed bij waarom iemand dit zou willen hebben eigenlijk.
Waarom moeten mensen altijd klagen over het energieverbruik van videokaarten in deze klasse? Wil je zoveel performance onder de kap hebben, zul je ergens de energie vandaan moeten halen.

Vergelijk het met een Ferrari. Dat is ook niet midrange en slurpt ook aardig wat aan energie weg, wat in dat geval benzine is. De liefhebber heeft het daar voor over.
Off topic:
Niet alleen brandstof :) banden kun je na een paar keer ook steeds vervangen omdat mensen met een ferrari niet normaal/rustig rijden :)

On topic:
Je hebt helemaal gelijk, alles heeft zijn prijs in dit geval hoe beter je je hardware wilt hebben hoe meer geld het gaat kosten, en dan niet alleen voor de hardware maar ook de utiliteitskosten ja :)

Ik draai een kleine 1kWh per uur, mag van geluk spreken dat mijn PC gemiddeld maar 5 uur per dag aanstaat :), maar dan nog ik heb het er echt wel voor over en die 1 kWh zal over een half jaar al omgetoverd worden naar 1.5 kWh denk ik :)
Als ze deze videokaart een gladde afwerking geven heb je meteen een strijkijzer erbij :+
Tien uur gamen kost €1,25 stroom, gepeperde rekening?
Kom op man, dat stroomverbruik. Er zijn duizend apparaten die veel meer verbruiken en sommigen daarvan gebruik je nog meer dan een PC ook.

Ik reken het je even voor. Je gamed 4 uur per dag. Dat is 2 kwh (dwz, als je dus echt vier uur FURMARK draait per dag. Games zorgen al rustig voor een stuk lager verbruik). Dat is per jaar, ervan uitgaande dat je nooit op vakantie gaat, nooit een dagje weg bent, en dus elke avond zit te nolifen: 730 kwh. 20 cent per kwh. Dat is 146 euro voor een JAAR LANG elke avond vier uur lang gamen. Dat is dus ook een jaar waarin je verder aan uitgaan of vakantie niet echt toe zult komen.

Voor die 146 euro kun je een paar keer naar de bioscoop en een of twee etentjes doen.

Maw, stroomverbruik is een non-issue. Oh, saillant detail, je krijgt ook nog 280 euro per jaar (ong 87 ct per dag) teruggave energiebelasting. :O Je echte energierekening is je gasrekening: als je in de winter de verwarming op 20 graden zet, ipv 21, dan bespaar je al gauw 150 euro in een tussenwoning; alleen in de winterperiode. Dus als je een trui aandoet tijdens 't gamen dan game je een jaar gratis. Need I say more?

[Reactie gewijzigd door Vayra op 24 juli 2024 23:05]

Wat is precies het nadeel van crossfire bij deze kaart?

Ik was altijd in de veronderstelling dat met crossfire er een soort van "micro" stutter zou optreden. Maar als ik bij de frametijdmeting kijk zie ik dat er totaal geen uitschieters in frametijd naar beneden zijn waardoor je dit in de praktijk nooit zou moeten kunnen zien. En tegenover een single GPU kaart zie ik ook niet echt een afwijking in die grafiek.

Is het dan wellicht lastiger in te stellen of dat het soms niet ondersteund wordt?
Je kan micro stutter niet meten aan de hand van de maximale en minimale framerates. Als de kaart eerst 50 frames uitpoept in een halve seconde en daarna 10 frames in de halve seconde daarna, is je minimale framerate nog steeds 60.
Ik doel op die grafieken uit de frametijdmetingen.

Maar begrijp nu dat het juist om de pieken naar boven gaat. Dan zie je wel degelijk "framedrops".
Je zit ook meer te kijken naar hoeveel verschil er tussen de frames zitten.
Dus een mooi dun lijntje is beter dan een dikke weerwar van metingen.

Maar aangezien het hier om Fraps metingen gaat is het useless. Een tooltje wat dat beter doet is gewoon onmogelijk, want er zit zoveel spul later in de driver, _maar ook in het OS (dx11})_ wat zich met de timing en buffering van frames gaat bemoeien dat een simpel usermode tooltje dat nooit gaat kunnen.

MS Zou DX11 moeten gaan uitbreiden om dat soort timing dingen mee te geven, en dan moet er support voor komen in de drivers.

En zelfs _dan_ heb je nog de frametiming _hardware_ die op de meeste nvidia kaarten zit, waar software-land dus nooit iets mee kan timen.

Er is maar 1, echte oplossing om naar frametimes te kijken: De output capturen vanaf de HDMI poort en gaan kijken. Iets wat FCAT doet, maar iets wat DigitalFoundry (@ eurogamer.net) al jaren doet om framerates van spellen op consoles in beeld te brengen.... en laat dit nu net de methode zijn waarvan Tweakers zegt "doen we niet".
Laat dan het hele stuk over frametijden weg, want fraps metingen zijn (juist met sli/crossfire setups) bullshit.

Meest echte test die je kan doen, en die veel minder tijd kost, is iemand die een beetje gevoelig is voor stotteringen en hickups gewoon laten kijken of hij iets ziet / voelt terwijl hij bepaalde spellen speelt op de kaart in kwestie. Dan kan je er gewoon bij vermelden als er een _vermoeden_ is dat een bepaald spel + kaart combi ergens niet lekker loopt en er latency / timing issues zijn die een 'FPS' waarde niet vertelt.

Net zoals in de muziekstudio dat er wordt gezegd 'je oren zijn het belangrijkste hulpmiddel / piece of gear in een studio', is gewoon het spelen van spel / kijken de belangrijkste meting om te merken of er iets fout zit.

.. en dan moet je het wel laten doen door iemand die bijvoorbeeld een 120hz monitor beter vindt werken, of op z'n minst het verschil tussen 50fps en 80fps ziet / voelt.
Er zijn ook mensen die bijvoorbeeld niet merken dat een spel opeens in stort in framerates van 40 naar 20... die mensen hebben sowieso geen probleem met frametijden :P.
Een kortzichtige reactie helaas. Je beweert dat FRAPS-metingen ongeschikt zouden zijn om frame times in kaart te brengen en betitelt het als nutteloos. Helaas steekt het verhaal een heel stuk genuanceerder in elkaar dan je doet voorkomen, en zijn fraps-metingen ook met hun gebrekken nog zeker bruikbaar en nuttig om uit te voeren.

Voor Crossfire en SLI opstellingen heb je gelijk: daarvoor zijn frame times met FRAPS gemeten te onbetrouwbaar. Lees ook zeker onder andere de analyse van Anandtech. Fraps meet in het begin van de pipeline die uiteindelijk je beeld op het scherm tovert, de Nvidia FCAT capture kaart doet dat ergens aan het einde. Ook daarvan ben je wel op de hoogte denk ik.

Nu is één van de nadelen van de FCAT tool dat het ontzettend veel werk is om dat allemaal te analyseren. Voor een nieuwe release is er gewoonweg niet genoeg tijd om een dergelijke review te publiceren met een FCAT frame time test. Het voordeel van FRAPS is in elk geval dat deze reviews, hoewel nog steeds tijdsintensief, een stuk sneller kunnen worden uitgevoerd en geanalyseerd. Nadeel van FRAPS is dat je eerder in de pipeline meet en daarmee iets wilt zeggen over de output, datgeen dat op de monitor voor de gebruiker getoond wordt. Daarbij is de vraag hoe nauwkeurig je meting is zodra je tussen de videokaart en de drivers gaat meten (FRAPS), vergeleken met het meten vlak na de driver (FCAT).

Er is echter een grote mate van correlatie tussen wat de FRAPs-meting laat zien, ergens in het begin van de pipeline, en wat er aan het einde van de pipeline wordt gemeten. Natuurlijk is het betrouwbaarder als je zo ver mogelijk aan het eind kan gaan zitten met de meting om alle tussenliggende 'ruis' uit te filteren, maar in feite wordt er nu een afweging gemaakt tussen de uitvoerbaarheid van een review en de nauwkeurigheid (tot hoeveel getallen achter de komma zijn de resultaten significant). Ook na de introductie van de FCAT tool blijft Fraps een goede indicatie geven, terwijl de test een heel stuk praktischer is. De komende tijd zal er ongetwijfeld nog veel gaan veranderen op het gebied en zodra er een geautomatiseerde tool komt die automatisch de frame times kan labellen en registreren, zal dat de 'next-best-thing' zijn.

Lees ook vooral de analyse van techreport, dé pioneer als het aankomt op frame times.

En om het verschil tussen nauwkeurigheid te kwantificeren:
Skyrim
Borderlands 2
Guild Wars 2

Duidelijker kan het niet in beeld worden gebracht dat FRAPS eveneens geschikt is om frame times te meten met een iets mindere nauwkeurigheid dan FCAT biedt.

Tweakers.net geeft aan dat ze niet de FCAT kaart kunnen ontvangen (het aantal organisaties dat de beschikking heeft over FCAT is op twee handen te tellen), en zelfs als ze eentje zouden kunnen krijgen dit gewoon te veel tijd in beslag neemt. Ook Hardware.Info is uitgebreid ingegaan op het fenomeen (lees hier) en concludeert hetzelfde. Zelfs met FCAT nemen de tests te veel tijd in beslag, tenzij je genoegen neemt met slechts 3 of 4 games in een review van een nieuwe videokaart. Hardware.info doet dit echter minimaal met tien games met vier verschillende instellingen.

Samenvattend is FCAT een meer nauwkeurig hulpmiddel om frame times te meten, maar is het nog niet dé oplossing of de heilige graal onder de reviewers. De keerzijde is namelijk de hoeveeltijd werk, en daarmee vooral tijd, die er in moet worden gestopt om al die mooie grafiekjes op een dienblad aan de lezer te presenteren. FRAPS mag dan niet ideaal zijn om frame times te meten, wel zijn de metingen zeker representatief en komen ze nagenoeg overeen met de FCAT metingen met als voordeel dat FRAPS een heel stuk sneller uit te voeren is, waardoor de lezers hier niet eerst een maand hoeven te wachten.

[Reactie gewijzigd door HMeijer op 24 juli 2024 23:05]

I know. Maar denk even in dat dit een review is... mensen lezen het om de resultaten te bekijken en zo een oordeel te vellen.

Tot nu toe is er (meestal) een verband te zien tussen de fraps frametimes en de frametimes zoals ze gemeten zijn aan de DVI / HDMI poort.

Maar juist als AMD hun eerste preview driver uit heeft waarmee je kan kiezen tussen 'priority smoothness or priority average fps' komt er dus een stukje code in de driver (dus NA de Present() call, dus NA wat fraps meet) die de frames probeert netjes te verdelen.

Dit is hetzelfde wat sinds Fermi in nvidia kaarten zit als een kleine hardware toevoeging. Allemaal dingen die Fraps niet meet... precies zoals je zei: Anandtech heeft het goed uitgelegd zodat ook niet coders het nog kunnen snappen (als ze het proberen :)).

Maar dan kom ik nu weer terug op het 'review' gedeelte:
Je weet dus als reviewer dat als je fraps gebruikt als frametime metingen, dat de resultaten 'niet persee iets hoeven te betekenen'. Dan ga je ze toch ook niet neerzetten, als 'betrouwbare reviewer'? Je zet alleen resultaten neer waar je zelf achter staat en vertrouwen in hebt.

Dus je kan fraps gebruiken om te kijken of er problemen zijn. Zodra fraps dus een frametime grafiek oplevert die 'all over the place is', _KAN_ er een probleem zijn. Dan moet je dus zien te controleren of dit daadwerkelijk ook zo is. Door FCAT of iets soortgelijks, of door 'good old human feeling'. 1 van de twee. Maar laat niet alleen de fraps frametimes zien, want er zijn dan zoveel lezers van je artikel die daar conclusies uit gaan trekken terwijl dat dus helemaal niet zo hoeft te zijn.

TL;DR -> Als reviewer, post alleen fraps frametimes als je ook echt zeker weet dat er iets mis mee is, en om dit te controleren moet je alsnog na onderzoek doen door middel van 'voelen' of FCAT. Doe je dat niet, hebben de fraps frametimes geen betrouwbare betekenis en moet je ze ook niet noemen / tonen.
Het is onjuist dat de resultaten van FRAPS "Niet per se iets hoeven te betekenen". Zoals aangetoond geeft het zelfs best een hele redelijke indicatie. Elk middel heeft zijn eigen voor- en nadelen zoals aangehaald. Het belangrijkste is dat de kwestie nog goed onderzocht moet worden. FCAT biedt een grotere nauwkeurigheid dan FRAPS, maar zelfs de experts zijn er nog niet over uit wat er aan de hand is en hoe je het beste kan meten.

Er is wel overeenstemming dat FCAT betere resultaten geeft, maar zoals gezegd wordt er een afweging gemaakt tussen nauwkeurigheid en uitvoerbaarheid dat mij best redelijk lijkt en acceptabel. Jij bent van mening dat je alleen resultaten mag gebruiken als je het op de meest nauwkeurige manier hebt gedaan, maar er bestaat ook zoiets als betrouwbaarheidsintervallen, significantie en meetnauwkeurigheid en al met al is FRAPS helemaal zo slecht nog niet, zoals techreport ook aangeeft. Wat de toekomst gaat brengen is echter onzeker en FCAT is ook niet het antwoord op alles, ook hier zijn er nog een paar haken en ogen.

Overigens is na een eerste (korte) analyse van techreport gesteld dat Fraps potentieel onnauwkeurige resultaten geeft door hele kleine verschillen te meten die later nog door de drivers weggepoetst worden. Maar een significant verschil in Fraps is ook een significant verschil in de output. Althans, dat stelde techreport na het eerste voorlopige onderzoek van de huidige stand van zaken.

[Reactie gewijzigd door HMeijer op 24 juli 2024 23:05]

AMD doet weer eens een redelijk ondoordachte zet met de release van deze kaart. Waarom moeten ze zo nodig de Titan van de troon stoten? Vanuit een soort twisted logic komen ze daarom nu met een eigen top-end versie, maar juist met een 7990 met het AMD logo erop versterken ze het beeld dat ze niet op kunnen tegen de kaarten uit het Nvidia kamp op dit moment.

Het is me een raadsel waarom AMD niet heeft gewacht met het plaatsen van dit product, want:

- Crossfire is nog steeds micro-stutter-mania in een aantal grote, grafisch zware titels. Dat telt.
- Er is al een Ares 2 die sneller is en beter wordt gekoeld
- AMD zegt 'binnenkort' met een driver update te komen om hun dual-gpu oplossingen te laten matchen met de kwaliteit die je bij Nvidia vindt.
- AMD doet niet eens een gooi naar de 'snelste gpu' want die hebben ze gewoon niet, en ze stellen hiermee dus hun 'dual-gpu' oplossing gelijk met een single-gpu oplossing, terwijl iedereen die in dit prijssegment koopt, weet wat de verschillen zijn

Kortom, je koopt met deze 7990 dus een sub-par kaart die in veel gevallen zijn power niet goed kan benutten en de hoge FPS waardes worden nog steeds regelmatig onderbroken door stutter. AMD had een enorm sterke move kunnen doen door gewoon rustig te wachten en deze 7990 te perfectioneren, want daar horen gewoon goede Crossfire drivers bij.
Echt Hollandse Cultuur ..::Plus Punt acht gratis games :X ::...

Ontopic : Wacht nog wel even met het kopen van een nieuwe kaart verschillen zijn niet zo groot. Maybe next year it will be better

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:05]

Vind het nog steeds belachelijk dat ze Geluid(sdruk) meten op 20cm, niemand maar dan ook niemand zit 20cm van hun kast af met hun hooft (oor), snap echt niet waarom het niet gewoon normaal 75 a 100cm word gedaan zo als VEEL andere dat doen.

Verders een geinige review.
Omdat je zo meting kan doen die te vergelijken zijn met elkaar? Hoe dichterbij hoe nauwkeuriger dat je het verschil kan zien. Stel je meet met 0.1db stappen dan krijgt je op 100cm bijvoorbeeld 4.9 - 4.9 - 4.9 en dezelfde metingen op 20cm 15.4 - 15.6 - 15.5.

Dat lijkt mij tenminste de reden.
Als dat zo was deden alle Review sites het op 20 CM, aangezien Guru3D het op 75 cm, wat redelijk is aangezien jij ik en de rest ook gewoon het verschil hoor op 75cm, en ook minstens zo ver weg bent van je kast (grafische kaart).

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 23:05]

Omdat je zo meting kan doen die te vergelijken zijn met elkaar? Hoe dichterbij hoe nauwkeuriger dat je het verschil kan zien. Stel je meet met 0.1db stappen dan krijgt je op 100cm bijvoorbeeld 4.9 - 4.9 - 4.9 en dezelfde metingen op 20cm 15.4 - 15.6 - 15.5.

Dat lijkt mij tenminste de reden.
op lanparty's, waar de kopers van dit soort kaarten vaak acte de presence geven, zit je buurman of overbuurman vaak dichter bij dan jijzelf. Zou ook een beweegreden kunnen zijn.... toch?
op lanparty's, waar de kopers van dit soort kaarten vaak acte de presence geven, zit je buurman of overbuurman vaak dichter bij dan jijzelf. Zou ook een beweegreden kunnen zijn.... toch?
En hoe vaak zit een gamer op een LAN-party dan? Volgens mij wordt dat door de steeds betere breedband penetratie steeds minder, omdat men met hetzelfde gemak via internet met Hamachi, Tunngle of een 'gewonere' VPN alsnog een private (virtueel dan weliswaar) LAN kunnen maken.

Ik begrijp wat je bedoeld, maar ik denk dat de meerwaarde daarvan steeds minder wordt.
De zwaarte van uw meetfout word zo minder. Als uw meetfout 0.5 db is is de procentuele fout op 5 : 10 % terwijl die tov 15: 3.33 % is.
tja, en gratis? voor die prijs :+
Ik zie dat ook als een nadeel ja. Niks is namelijk "gratis", zonder die 8 games had deze kaart dus goedkoper kunnen zijn.
Vooral omdat ik deze 8 games al heb zie ik het als een nadeel. Geen zin om een kaart te kopen met 8 spellen die ik al heb.

Ik kan ze dan wel weer verkopen maar kost weer moeite
Wat is dat toch altijd met die +1'tjes en -1'tjes, stop toch eens met daar over te zeuren.... Who cares, iedereen drukt z'n mening uit, vind je het er over of racistisch whatever, geef dan -1 anders doe je niets
Als je ziet welke games moet je ook niet zeuren... zijn gewoon top titels

[Reactie gewijzigd door A87 op 24 juli 2024 23:05]

Klopt. En opvallend is dat de buren het bedrag ook veel hoger inschatten: 250 euro.
De volledige lijst is: BioShock Infinite, Tomb Raider, Crysis 3, Far Cry 3, Far Cry 3 Blood Dragon, Hitman Absolution, Sleeping Dogs en Deus Ex Human Revolution. Wie al die games los in de winkel zou gaan kopen zou daar een kleine € 250 aan kwijt zijn (zie deze wensenlijst). Ofwel: bijna ruim 20% van de prijs krijg je direct in games terug. Uiteraard zal niemand exact al deze games tegen de volle prijs gaan aanschaffen, maar hoe dan ook; deze bundel is top te noemen.
We zijn enthousiast over de game-bundel van AMD. Normaal besteden we er niet zo veel aandacht aan, maar als een fabrikant 8 nieuwe A-titels bij een kaart kan bundelen is dat echt toegevoegde waarde. Het verzacht wellicht de pijn van de aanschafprijs. We zijn ook enthousiast over de geluidsproductie van de kaart, zeker met het stroomverbruik in het achterhoofd. De officiële Radeon HD 7990 is sowieso een veel beter product dan de eerder uitgekomen onofficiële variant.
Hun conclusie is trouwens toch wel positiever (qua prestaties dan), ook in vergelijking met de concurrentie.Hun verdere conclusies
AMD kondigt de Radeon HD 7990 zelf aan als de snelste videokaart ter wereld. Als we kijken naar de FPS-grafieken, moeten we ze daar gelijk in geven. Het aantal benchmarks waar de Radeon HD 7990 boven de GTX 690 uitkomt is veel hoger dan het aantal waar de GTX 690 wint. Kijken we naar de frametijden, dan wordt het beeld wat diffuser, maar daar moeten we sowieso de disclaimer van pagina 5 in het achterhoofd houden. Sowieso werkt AMD hard aan een driver die de variatie in frametijden bij Crossfire moet beperken.
Edit: links naar externe reviews verwijderd

[Reactie gewijzigd door dirkjesdirk op 24 juli 2024 23:05]

je hebt allemaal 6990 reviews gelinkt.
leuke conclusies maar je linkt naar de verkeerde kaart :+
Hmm toch vreemd dat Crossfire het minpunt is, Crossfire is perfect enkel games die er niet voor zijn aangepast/ontworpen die moeten het minnetje krijgen en niet deze kaart.

Ook in een aantal vergelijking in de Benchmarks wordr er gesproken van gelijk aan de Nvidia, een verschil van 5 tot 10 FPS vind ik niet gelijk aan maar gewoon sneller komt een beetje partijdig over!
Aan nl-chrs;

Crossfire is op het moment juist verre van perfect, en dat ligt niet aan games 'die er niet op aangepast/onmtworpen voor zijn, maar aan de drivers die AMD zelf maakt en in zekere zin zit het zelfs in de hardware, dus ontwerp van de gpu. Je post doet mij overkomen of je het hele frametime verhaal niet snapt of wil snappen...

Leesvoer;
- http://anandtech.com/show...sues-driver-roadmap-fraps
- http://techreport.com/rev...vidia-frame-capture-tools
- http://nl.hardware.info/r...de-laatste-ontwikkelingen

En hier een conclusie van een andere site die ook vrij bekend is met het frametime verhaal;

- http://www.pcper.com/revi.../AMD-Frame-Pacing-Prototy
Perhaps they are using multiple displays for Eyefinity/Surround setups - in that case, the HD 7990 has different but equally traumatic problems. In our testing, nearly every other frame generated by all of our games tested are dropped and never shown to the gamer, resulting in frame rates at about half of what they should be and half of what is being reported by some other testing methods. That's just not acceptable. We are working on another story that directly compares the issues of Eyefinity and Surround that we hope to have up by next week along with some videos to demonstrate those complicated issues.
......
With its performance completely dependent on CrossFire technology, the HD 7990 as a $1000 graphics card has a very hard time justifying its price. With our early testing of the Catalyst prototype driver showing positive results though, there is yet hope for CrossFire to be fixed in this generation, at least for single monitor users! But until that driver is perfected, is bug free and is presented to buyers as a made-for-primetime solution, I just cannot recommend an investment this large on the Radeon HD 7990.
Dat AMD niet heeft gewacht met het uitbrengen van de kaart zal er wel mee te maken hebben dat de goede drivers dus nog wel even op zich laten wachten en niet volgende week of over twee weken beschikbaar zijn, anders hadden ze de launch nog wel even vooruitgeschoven om zo de ietwat negatieve sfeer die rond CF heerst om te buigen.
Daarbij lijkt Nvidia AMD in de nek te hijgen met een upgrade van hun huidige lijn kaarten, al is daar nog weinig zekerheid over te geven.

Op dit moment is voor multe gpu gebruik Nvidia een slimmere keuze. Een GTX680 in SLI is gewoon altijd een betere keuze dan deze kaart. (Tenzij ruimte een probleem is)

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:05]

Ik had het gezien, staat ook in de quote van mij hierboven, 'early testing of the Catalyst prototype driver showing positive results though'. Maar deze drivers zijn nog lang niet klaar en laten nog wel even op zich wachten. (juni/juli, zoals AMD zelf aangaf)
Een verschil van 5-10 fps is nauwelijks te merken mits het 90+ fps betreft (geloof me ik heb ervaring), daarom werd er verteld dat het gelijk is aan elkaar.

Je hebt gelijk dat het wel degelijk een verschil is maar om nou meteen te zeggen dat het partijdig is denk het niet. Als iemand partijdig wilt zijn voor NVidia dan zou deze review er veel slechter uitzien.

Een review moet objectief zijn en niet subjectief aan de mening van de reviewer :)
Waarom hebben jullie de Asus ARES 2 [2x HD7970] niet meegenomen binnen de tests? Daar had ik graag de vergelijking mee willen zien namelijk. Evenals de andere non reference HD7990 kaarten die er beschikbaar zijn.
Dat zou zeker een mooiere vergelijking geweest zijn :)

Maar gekeken naar de huidige vergelijkingen denk ik dat we in 2014 meer van ze kunnen verwachten.
Mede omdat ze weer een bekende technicus hebben aangetrokken voor de GPU ontwikkeling denk ik dat het wel goed moet komen (al heb ik zelf nog nooit iets van AMD gekocht, ze blijven me verbazen).

Wacht met verbazing en spanning de volgende generatie van AMD af :)
Het zou een paar jaar gaan duren eer we zijn werk gaan zien,je had het toch over Raja Koduri?
zo niet my bad :)
Ja dat klopt had het over Raja :)
Endie technicus gaat fungeren als hoofd van de ontwikkel afdeling en gaat dus zelf niets ontwikkelen. En al zou hij dat wel doen, dan duurt het 2 tot 3 jaar voordat je de vruchten van dat werk in de produkten terug ziet.

Ik zeg niet dat het aantrekken van de beste man een slechte zet is (in tegendeel), maar voor de line-up van 2014 zal het niet heel veel schokkende gevolgen hebben.
Klopt dat hij fungeert als hoofd ontwikkel afdeling.
Maar zijn kennis is zo uitgebreid dat hij wel degelijk een goede invloed heeft op de daadwerkelijke mensen die het moeten doen.
Zijn input zal heel belangrijk zijn en zal ook zeer gewaardeerd worden.

Tuurlijk het is normaal dat het 2-3 jaar duurt, maar geloof me als ik zeg dat er wel degelijke verbeteringen aan zitten te komen in 2014. Zeg niet veel maar ze zullen wel zichtbaar zijn. Dus je laatste zin klopt op zich nog redelijk met wat ik bedoel. Niet veel schokkend, maar wel verandering :)
Bron?
maar geloof me als ik zeg dat er wel degelijke verbeteringen aan zitten te komen in 2014. Zeg niet veel maar ze zullen wel zichtbaar zijn. Dus je laatste zin klopt op zich nog redelijk met wat ik bedoel. Niet veel schokkend, maar wel verandering
Ook niet onaardig met de huidige Bitcoin-koers: in je idle tijd is de 7990 een prima kaart om Bitcoins mee te minen: https://en.bitcoin.it/wiki/Mining_hardware_comparison :)
(I know, er zijn ASIC dedicated apparaten die hier nog veel beter in zijn, maar dit is één van de betere GPU's hiervoor :))
Edit: qua stroomverbruik hangt het een beetje van de Bitcoin-koers af, maar met de huidige koers boven de EUR 100 per bitcoin is het absoluut de moeite waard :)

Edit: Ik snap niet dat dit omlaag wordt gemod. Het gebruik van een videokaart voor iets anders dan gamen is een zeer gebruikelijke bezigheid. GPU's zijn allang niet meer alleen voor video output, maar er kan ook op gerekend worden, en Bitcoin mining is een voorbeeld van zo'n rekenactiviteit waar GPU's zich voor lenen.

[Reactie gewijzigd door Futureal op 24 juli 2024 23:05]

mja, is hij ook nog goed als je weet dat hij zoveel stroom opslurpt?
Ik betaal geen stroom dus ja :D

Maargoed een HD7970 haalt 750KHash/s met LTC mining, dat x 2 = 1500KHash/s, daarmee haal je ongeveer 4 LTC binnen elke dag, met een waarde van bijna 4 dollar, 16 dollar per dag, stroomkosten zullen nog geen 5 euro per dag zijn (12kW per dag, met 500W/h verbruik) :)

Het levert dus wel degelijk wat op, en in de winter bespaar je weer op CV kosten (maar als je in de zomer een airco nodig hebt dan heb je wel een flinke kostenpost)

Maar kwa aankoop is het natuurlijk wel een rotding want prijs/performance van de HD7950 is onverslaanbaar :)

PS daarbij gaat de koers zeer waarschijnlijk nog flink stijgen gezien de grootste BTC-exchange mtgox.com ook LTC gaat ondersteunen waardoor de vraag naar LTC zal groeien.

[Reactie gewijzigd door watercoolertje op 24 juli 2024 23:05]

Laten je stroomkosten eens 4 euro zijn, dan benader je dus pas na 250 dagen de aankoopprijs van je investering.

Oftewel, na 250 dagen mining, waarbij je bedenkt dat over een periode van 2/3 van een jaar er niets aan de aard van het minen zal veranderen. Of aan de koers.

Je moet echt een bord voor je kop hebben als je dat een goede investering wil noemen.
Je moet echt een bord voor je kop hebben als je dat een goede investering wil noemen.
Waarom zou je je videokaart niet gewoon gebruiken om een deel of volledig van die te betalen en misschien nog wel flinke winst te maken (als ik mijn 20+ BTC had verkocht voor 250 dollar had ik mijn videokaarten er meer dan 10x uit)?

Daarbij gaat die koers van LTC en BTC eerder omhoog dan omlaag op lange termijn ;) Maar zoals ik al zei is dit niet de meest rendabele kaart ivm de hoge prijs tegen over 2 HD7970's of beter nog 2 HD7950's. Duurste kaart is vrijwel altijd de slechtste prijs/prestatieverhouding...

Mijn videokaarten hebben zich al terug betaald iig (HD6990+HD5850+HD5870 en van het weekend nog 3 erbij halen uit de 5/6 serie).

[Reactie gewijzigd door watercoolertje op 24 juli 2024 23:05]

Op dit item kan niet meer gereageerd worden.