Door Marc Rademaker

Redacteur

GTX Titan vs Ares II: titanenstrijd

10-04-2013 • 08:00

108

Multipage-opmaak

Inleiding

Inleiding

In deze videokaartreview betreden de Ares II en de Titan het strijdperk. Niet toevallig is Ares de god van de oorlog en is een titan een mythologische figuur uit de Grieks-Romeinse oudheid, en gingen beide ook daadwerkelijk met elkaar de strijd aan. Ares overwon overigens, net zoals bij ons het geval zal zijn, met enkele mitsen en maren.

Als Ares en Titan je niets zeggen: we hebben het over de Asus Ares II, een videokaart met twee van AMD's snelste gpu's aan boord, die met behulp van water koel worden gehouden. De Nvidia GTX Titan is het vlaggenschip van Nvidia, met een kolossale gpu, die ook voor Nvidia's zakelijke 'videokaarten' wordt gebruikt. Met prijzen van respectievelijk 1300 en 900 euro zijn het geen videokaarten voor alledaagse computers.

Zo gaan we er eigenlijk vanuit dat iemand die een dergelijke videokaart wil kopen, ook een 27"-monitor met een resolutie van 2560x1440 pixels heeft of zelfs drie beeldschermen in een Surround- of Eyefinity-opstelling, goed voor een resolutie van 5760x1080 pixels. Een van deze videokaarten in combinatie met een 1920x1080-monitor, is pure onzin.

Asus Ares II GTX Titan

Asus Ares II

De Ares II is Asus' meest prestigieuze videokaart tot nog toe. Het Taiwanese bedrijf bengt vaker speciale dual-gpu-kaarten uit, waarvan de recentste de Mars II is. De naam Ares is voorbehouden aan AMD-kaarten, Mars aan Nvidia-kaarten. De Mars II stamt uit 2011 en het werd dan ook tijd voor een nieuwe geweldenaar uit het lab van Asus. De Ares II stelt niet teleur.

De videokaart is voorzien van twee Tahiti-chips, die AMD voor de HD 7970 GHz Edition ontwierp. Twee van AMD's snelste gpu's dus, die elk over 3GB gddr5-geheugen beschikken. Maar Asus ging nog een stapje verder, de gpu tikt standaard op 1050MHz en heeft een Boost Clock van 1100MHz, 50MHz meer dan de HD 7970 GHz Edition. Het geheugen tikt ook nog eens op 6600MHz, in plaats van 6000MHz, tien procent hoger dus.

Dat de videokaart snel zal zijn, staat buiten kijf, maar Asus kon al deze rekenkracht niet zonder aanpassingen op een enkele videokaart kwijt. Zo zijn er drie pci-e-achtpinsconnectors aanwezig, waardoor de videokaart in theorie 525W kan verstoken. Twee HD 7970 GHz Editions komen samen in de buurt van 500W, dus het zal niet veel schelen. Twintig vrm's leiden die energie in goede banen naar het geheugen en de gpu's. Aangezien dat vermogen grotendeels als warmte vrijkomt, moet die warmte ook afgevoerd worden.

Waar de eerste Ares en de Mars II nog van gigantische drieslotskoelers werden voorzien, koos Asus deze keer voor een andere aanpak. Ditmaal levert een closed-loop-waterkoeling de nodige koelte, samen met een 80mm-ventilator, die het pcb en het geheugen op temperatuur moet houden. De waterkoeling is vergelijkbaar met veel closed-loop-cpu-koelers, zoals die van Intel of Corsairs H80. Op de radiator kunnen twee ventilators gemonteerd worden. De videokaart neemt zo slechts twee slots in beslag, maar de radiator moet nog wel ergens gehuisvest worden.

Asus Ares II Asus Ares II Asus Ares II Asus Ares II

Nvidia GTX Titan

De GTX Titan is net zoals de Ares II een slag apart. De gpu tart eigenlijk alle verbeelding. Met maar liefst 7,1 miljard transistors is het voor zover wij weten de ingewikkeldste processor op aarde. De gpu, met codenaam GK110, werd door Nvidia ontwikkeld om dienst te doen als compute-processor, en verscheen dan ook voor het eerst op de Tesla K20X, die later in groten getale onderdak vond in de supercomputer Titan. Vandaar dus ook de naam.

Met 7,1 miljard transistors op een oppervlakte van 561mm² is de GK110-gpu een echte kolos. Zo meet de GK104-gpu, die voor de GTX 680 wordt gebruikt, slechts 294mm². AMD's grootste gpu heeft 4,3 miljard transistors op een oppervlakte van 365mm². De GTX Titan is dan ook niet goedkoop, maar dan krijg je ook 2688-cuda-cores, 75 procent meer dan een GTX 680, die over 1536 cuda-cores beschikt. Ook krijg je 75 procent extra texture units, een geheugenbus van 384bit in plaats van 256bit en 48 in plaats van 32 rops. Een heleboel dus. Overigens zijn er meer cuda-cores aanwezig op de GK110-gpu, 2880 om precies te zijn. Nvidia heeft echter een van de 15 blokken met 192 cuda-cores uitgeschakeld.

De oplettende lezer denkt meteen: maar een GTX 690 heeft twee GK104-gpu's aan boord, en effectief dus meer rekenkracht dan een GTX Titan. Dat is correct, maar dan moet er wel gebruik worden gemaakt van sli, wat zijn nadelen kan hebben. Ook heeft de GTX 690 een tdp van 300W, terwijl de GTX Titan ruwweg 250W zou verstoken. Daarbovenop staat de gpu van de Titan in contact met maar liefst 6GB geheugen, terwijl de GTX 690 maar over 2GB geheugen per gpu beschikt.

Asus GeForce GTX Titan EVGA GeForce GTX Titan GTX Titan

Testsysteem

Vorig jaar hebben we een nieuw testsysteem op basis van Intels Sandy Bridge E-cpu's en de X79-chipset in gebruik genomen. Van Intel kregen we een Core i7 3960X-cpu, die in een Asus Rampage IV Extreme-moederbord werd gestoken. Deze cpu werd naar 4,3GHz overgeklokt en wordt met de standaardwaterkoeling van Intel op temperatuur gehouden. Verder gebruikten we 8GB op 1600MHz geklokt ddr3-geheugen, een Kingston Sandforce 2281-ssd van 240GB en een Corsair AX750W Gold-voeding. Alle hardware werd op een benchtable van CoolerMaster gemonteerd.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 3960X
Geheugen Kingston KHX1600C9D3K4/8GX
Ssd Kingston HyperX 240GB
Videokaarten

Nvidia GTX Titan
Asus Ares II
EVGA GTX 690
AMD HD 7970 GHz Edition
GTX 680

Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750

We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat.

Als benchmarks kozen we de games Battlefield 3, Alien vs. Predator, DiRT: Showdown, Sleeping Dogs, The Witcher 2, Shogun 2: Total War, Far Cry 3 en Crysis 3. Van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Dell U3011Elke game is getest met een Dell U2711-beeldscherm op de resolutie 2560x1440 pixels en in combinatie met drie full-hd-schermen, die samen een resolutie vormen van 5760x1080 pixels. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-instellingen, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt altijd 16x af toegepast. Bij games die dat niet ondersteunen, wordt deze instelling afgedwongen met behulp van AMD's Catalyst Control Center of Nvidia's Control Panel.

In AMD's CCC staat adaptive aliasing op multisampling en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing-transparancy-modus op multisampling en is de texture-kwaliteit op 'quality' ingesteld.

Frametijden

De discussie over frametijden is al een tijdje gaande, maar werd voor het eerst aangewakkerd door de website Techreport. In het kort komt het erop neer dat het minimumaantal fps en het gemiddelde aantal fps die meestal vermeld worden, nog verder ontleed kunnen worden. In een seconde zitten namelijk al snel 30 frames en vaak zelfs meer. Dat wil echter niet zeggen dat het voor elk frame even lang duurt voordat het op het beeldscherm terechtkomt. In een seconde met in totaal 60 frames kunnen namelijk 59 frames zitten die er elk 10ms over doen, terwijl een frame er 410ms over doet. Dat ene frame zal een behoorlijke stotter opleveren, hoewel het aantal frames per seconde gewoon 60 is. Het vermelden van het minimumaantal fps biedt echter evenmin uitkomst.Frametijden

Tech Report geeft uitschieters weer door aan te geven in welke mate frames er langer over doen dan bijvoorbeeld 50ms. Dus als er een frame is dat er 70ms over doet, geeft dat een score van 20ms. Dat levert dus geen minima op, maar wel een maatstaf. 50ms komt overeen met 20fps en als er dus veel tijd besteed wordt aan frames die langer dan 50ms nodig hebben om gemaakt te worden, zal er redelijk veel stotter zichtbaar zijn. Daarnaast werkt Tech Report met het 99e percentiel. Daarmee geven ze aan dat 99 procent van alle frames binnen een bepaald aantal milliseconden op het beeldscherm verschijnt. Dat zou een betere maat opleveren dan het gemiddelde aantal fps. Vaak levert dat dezelfde resultaten op als gemiddelde framerates, maar niet altijd.

Het verhaal gaat echter nog verder, en wel met sli en CrossFire. Met behulp van frametijden kon worden aangetoond dat deze technieken lang niet altijd zo goed presteerden als het gemiddelde aantal fps deed denken. Dit hangt samen met microstuttering, wat veroorzaakt zou worden doordat een frame relatief lang in de maak is, terwijl het volgende frame extreem snel klaar is. Na het eerste artikel van Tech Report duurde het niet lang of AMD ging aan de slag en sinds de 13.2-drivers hebben AMD-videokaarten een stuk minder last van hoge frametijden dan voorheen.

Tot nog toe leken frametijden de heilige graal te worden van het benchmarken van videokaarten. Totdat zowel AMD als Nvidia opmerkten dat Fraps, het programma dat gebruikt wordt om de frametijden te meten, misschien niet meet wat men wilde meten. Fraps meet de frametijd namelijk aan het begin van het renderen van een frame en niet wanneer het klaar is of zelfs wanneer het frame op het beeldscherm verschijnt. Voordat een frame op het scherm verschijnt, gaat het namelijk eerst nog door een buffer heen, wat invloed kan hebben op de timing waarmee een frame wordt doorgegeven. Voor een uitgebreide uitleg kun je het beste verder lezen op Anandtech of Tech Report zelf.

Fraps meet dus niet wat we eigenlijk willen meten. Desondanks komen de metingen van de frametijden overeen met de gebruikerservaringen. Sommige spellen stotteren meer dan andere, en de frametijden lijken daarvoor een verklaring te geven. Nvidia kwam echter op de proppen met FCAT, waarmee met behulp van een redelijke ingewikkelde opstelling ook frametijden gemeten kunnen worden, maar dan wel op het moment dat deze op het beeldscherm zijn aangekomen. Ook voor uitleg over deze techniek verwijzen we je graag naar Anandtech en Tech Report.

De conclusie luidt dat het gebruik van FCAT bijna dezelfde resultaten oplevert als Fraps. Het leverde echter ook zeer interessante informatie op omtrent multi-gpu-opstellingen. Zo blijkt dat bijna de helft van alle frames geproduceerd door CrossFire-opstellingen, slechts voor een fractie op het scherm verschijnen. Fraps telt die frames wel en rapporteert zelfs lagere frametijden dan FCAT. AMD's antwoord hierop is dat er halverwege 2013 drivers uitkomen die dit deels kunnen verhelpen, namelijk door een vertraging mee te geven aan frames, zoals Nvidia dat al doet. AMD is echter ook van mening dat zijn manier de minste input-lag oplevert. Input van de speler, zoals een muisbeweging, is daardoor sneller zichtbaar op het scherm.

Conclusie

Van één ding zijn we overtuigd: het gebruik van FCAT levert erg precieze data op, maar het is ook overkill voor het testen van videokaarten. Het kan een handige tool zijn om zo nu en dan een spel te testen, als er een indicatie is dat er iets fout gaat, maar om het standaard in te zetten voor videokaartreviews gaat ons in ieder geval te ver.

Het meten van frametijden daarentegen is een optie die we vooralsnog aan het uitwerken zijn. We realiseren ons immers maar al te goed dat bijvoorbeeld Far Cry 3 lang niet zo soepel loopt op AMD-kaarten als op Nvidia-kaarten, hoewel het gemiddelde aantal fps, maar ook de minima, hiervan geen indicatie geven. In deze review werken we in ieder geval nog met gemiddelden en minima.

3DMark & Unigine

De opvolger van 3DMark 11 zag in februari eindelijk het levenslicht. Na 3DMark 05, 06, Vantage en 11, zijn we weer terug bij af, met simpelweg 3DMark. De Windows-versie is sinds enige tijd te downloaden, maar de langverwachte iOS-, Android- en RT-versies laten nog op zich wachten. Gelukkig hebben we aan de Windows-versie genoeg. We maken gebruik van het FireStrike-onderdeel en dan de niet-extreme uitvoering. De andere benchmarks zijn te licht, terwijl FireStrike Extreme te zwaar is, zelfs voor de voor deze review geteste geweldenaren. Wij noteren de gpu-score, aangezien de cpu-score voor ons weinig nut heeft, terwijl die wel in de algehele score is verwerkt.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
Ares II
********
13753
EVGA GTX 690
*******
11808
GTX Titan
******
9771
HD 7970 GHz
*****
7800
Nvidia GTX 680
****
6783

De Ares II is de snelste van het stel, ruimschoots sneller dan de Titan. De GTX 690 zit er tussenin.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
Ares II
********
3281,00
EVGA GTX 690
*******
2910,00
GTX Titan
******
2528,00
HD 7970 GHz
****
1657,00
Nvidia GTX 680
****
1550,00

In Unigine wordt de pikorde grotendeels gehandhaafd. De Ares II staat fier bovenaan, terwijl ook de GTX 690 de Titan te snel af is.

Battlefield 3 & Shogun 2

Battlefield 3 is door het uitkomen van Crysis 3 en Far Cry 3 niet langer de mooiste shooter, maar het is nog steeds behoorlijk veeleisend. Uiteraard is het vooral in de multiplayermodus van belang dat de framerates zo hoog mogelijk zijn. We hebben de kaarten getest op de hoogste instellingen, inclusief 4x aa en 16x af.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
******
+
**
71,0 / 92,4
EVGA GTX 690
*****
+
**
55,0 / 73,5
GTX Titan
****
+
**
42,6 / 59,9
HD 7970 GHz
***
+
*
36,5 / 44,9
Nvidia GTX 680
***
+
*
29,8 / 41,5

De Ares II is met afstand de snelste; maar liefst 66 procent sneller dan de Titan, die op zijn beurt niet veel sneller is dan de HD 7970 GHz.

Shogun 2: Total War

Het strategiespel Shogun 2: Total War gebruikt enkele DirectX 11-technieken en weet de gpu's daarmee behoorlijk op de proef te stellen. Het verlagen van de instellingen naar High doet overigens wonderen voor de framerates, zonder dat je al te veel op de graphics hoeft in te leveren.

Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
******
+
***
50,0 / 70,7
EVGA GTX 690
******
+
**
57,0 / 70,5
GTX Titan
*****
+
*
45,0 / 55,8
Nvidia GTX 680
***
+
*
30,0 / 38,1
HD 7970 GHz
**
+
*
21,5 / 33,4

In Shogun zijn de videokaarten een stuk beter aan elkaar gewaagd. De Ares II lijkt het snelste, maar de GTX 690 laat hogere minima zien. De Titan is ruwweg anderhalf keer zo snel als de GTX 680.

Sleeping Dogs & Crysis 3

Het nieuwe actie-en-avonturenspel Sleeping Dogs maakt volop gebruik van DirectX 11. We draaiden de ingebouwde benchmark met alle instellingen op maximaal; alleen anti-aliasing stond op High in plaats van Extreme.

Sleeping Dogs - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*****
+
***
67,0 / 114,0
EVGA GTX 690
****
+
**
52,7 / 85,5
GTX Titan
***
+
**
41,6 / 67,0
HD 7970 GHz
***
+
*
42,5 / 61,4
Nvidia GTX 680
**
+
*
31,6 / 48,1

In Sleeping Dogs gaat de Ares II weer fier aan kop. Zowel de GTX 690 als GTX Titan is aanzienlijk langzamer. Vreemd genoeg is de Titan amper sneller dan de HD 7970 GHz.

Crysis 3

Crysis 3 is een nieuwe toevoeging aan onze benchmarksuite en behoeft amper introductie. Het is het mooiste spel op de markt, maar ook het meest veeleisende. Een GTX 680 of HD 7970 GHz Edition is nodig om het spel op 1920x1080 beeldpunten te kunnen draaien met de hoogste instellingen. Het verlagen van de instellingen doet echter wonderen en dan ziet Crysis 3 er nog steeds prachtig uit.

Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
******
+
**
49,3 / 61,3
EVGA GTX 690
******
+
*
45,3 / 55,0
GTX Titan
****
+
*
33,0 / 42,3
HD 7970 GHz
***
+
*
24,5 / 30,9
Nvidia GTX 680
***
+
*
24,0 / 28,9

De videokaarten hebben een behoorlijke kluif aan Crysis 3, maar de top-driekaarten weten er allemaal speelbare framerates uit te persen. De Ares II is opnieuw de snelste, terwijl de GTX 690 de Titan te snel af is, die op zijn beurt de HD 7970 GHz en GTX 680 achter zich weet te laten.

Far Cry 3 & AvP

Far Cry 3 is net zoals Crysis 3 een nieuwe toevoeging aan onze benchmarksuite. Tot op het moment dat Crysis 3 uitkwam, was Far Cry 3 het mooiste spel en bijna net zo veeleisend als Crysis 3. We testten het spel met de instellingen op de hoogste stand, waaronder 4x aa. Hoe we het spel testen, kun je in onze hardware-test van Far Cry 3 lezen.

Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*****
+
***
41,0 / 61,4
EVGA GTX 690
******
+
*
48,5 / 56,2
GTX Titan
*****
+
*
39,7 / 45,4
HD 7970 GHz
****
+
*
28,0 / 32,6
Nvidia GTX 680
***
+
*
27,0 / 30,7

In Far Cry 3 produceert de Ares II gemiddeld de meeste frames per seconde, maar de minima liggen lager dan bij de GTX 690. Al met al voelt het spel soepeler aan op de GTX 690 en de Titan.

Alien vs. Predator

AvP is een van de oudste spellen in onze benchmarksuite, maar nog steeds behoorlijk veeleisend. We hopen het in de nabije toekomst te kunnen vervangen door Metro: Last Light.

Alien vs Predator - 2560x1440 - High - 2x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*****
+
***
65,4 / 102,7
EVGA GTX 690
****
+
***
48,7 / 82,3
GTX Titan
***
+
**
40,7 / 64,5
HD 7970 GHz
**
+
**
33,0 / 54,8
Nvidia GTX 680
**
+
*
25,5 / 43,6

In AvP is de GTX Titan aanzienlijk langzamer dan de Ares II, maar wel ruimschoots sneller dan de GTX 680, terwijl het verschil met de GTX 690 ongeveer 20 procent bedraagt.

DiRT: Showdown & The Witcher 2

DiRT: Showdown is het nieuwste racespel van Codemasters, op basis van de EGO-engine, die Codemasters voor al zijn racespellen gebruikt, inclusief GRID 2, dat over enige tijd moet uitkomen. Alle instellingen staan op de hoogst mogelijke stand, maar Global Illumination en Enhanced Lighting staan uit.

DiRT: Showdown - 2560x1440 - Ultra - 4x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
92,5 / 121,8
GTX Titan
******
+
*
90,9 / 110,8
Ares II
******
+
**
87,2 / 110,3
HD 7970 GHz
*****
+
*
82,5 / 102,1
Nvidia GTX 680
****
+
*
66,6 / 80,8

In DIRT hadden we Global Illumination en Enhanced Lighting toch moeten aanzetten, aangezien alle videokaarten gelijkwaardig presteren door een cpu-bottleneck.

The Witcher 2

The Witcher 2 is opgenomen om wat variatie in onze benchmarksuite te hebben. Waar ontwikkelaar Bethesda Softworks enkele jaren geleden de toon voor rpg's zette, is het nu The Witcher 2 dat grafisch voor de muziek uitloopt. Alle instellingen staan zo hoog mogelijk, maar übersampling staat uit.

The Witcher 2 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
60,5 / 79,0
Ares II
****
+
****
35,4 / 74,3
GTX Titan
***
+
***
30,0 / 54,4
HD 7970 GHz
***
+
**
26,5 / 42,4
Nvidia GTX 680
***
+
*
30,0 / 41,5

The Witcher 2 is niet bepaald vriendelijk voor AMD-kaarten, laat staan twee AMD-gpu's in CrossFire. De Ares II presteert dan ook onder de maat. De Titan weet gek genoeg amper betere resultaten neer te zetten dan de GTX 680.

Benchmarks op 5760x1080 pixels

Aangezien de power waarover de GTX 690, GTX Titan en Ares II beschikken, amper tot zijn recht komt op 2560x1440 pixels, hebben we de kaarten ook op 5760x1080 beeldpunten getest, met behulp van drie full-hd-monitoren in een Eyefinity of Surround-opstelling. We gebruikten daarvoor de spellen Battlefield 3, DiRT: Showdown, Far Cry 3 en Crysis 3. Aangezien de resolutie wel erg veeleisend is, werd zowel op de hoogste als op Medium-instellingen getest.

Far Cry 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
******
+
***
41,0 / 58,7
EVGA GTX 690
****
+
***
32,5 / 50,8
GTX Titan
*****
+
*
36,0 / 39,8

Far Cry 3 is met Medium-instellingen nog redelijk speelbaar op 5760x1080 pixels, met elk van de drie videokaarten. De Titan laat zien waarom een enkele gpu soms te preferen valt boven twee, aangezien de minima hoger liggen.

Far Cry 3 - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*****
+
***
24,0 / 38,9
EVGA GTX 690
*****
+
**
23,8 / 32,0
GTX Titan
*****
+
*
24,0 / 27,3

Met de instellingen op Ultra is Far Cry 3 niet langer lekker speelbaar. Opvallend is dat de minima bij de drie kaarten identiek zijn. De Ares II blijft wel de meeste fps produceren.

Battlefield 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*******
+
**
82,4 / 99,6
EVGA GTX 690
******
+
*
70,0 / 82,1
GTX Titan
*****
+
*
61,0 / 70,7

Battlefield 3 is met Medium-instellingen prima speelbaar op alle kaarten. De gebruikelijke rangorde blijft gehandhaafd, met de Ares II aan kop, gevolgd door de GTX 690, die iets sneller is dan de GTX Titan.

Battlefield 3 - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*******
+
*
50,5 / 59,0
EVGA GTX 690
*****
+
**
35,3 / 46,1
GTX Titan
****
+
*
26,8 / 36,4

Op Ultra kan alleen de Ares II nog voor ruimschoots genoeg fps zorgen, terwijl de GTX 690 op het randje zit. De GTX Titan zakt door het ijs met minima die zo nu en dan onder de 30fps schieten.

Benchmarks op 5760x1080 pixels (2)

Behalve Battlefield 3 en Far Cry 3, werden ook Crysis 3 en DiRT: Showdown getest op 5760x1080 beeldpunten.

Crysis 3 - 5760x1080 - Medium
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*******
+
*
71,5 / 84,3
EVGA GTX 690
*****
+
*
53,5 / 64,2
GTX Titan
****
+
*
44,0 / 50,6

Ook in Crysis 3 helpt het om de instellingen op Medium te zetten. Het verschil tussen de Ares II en de Titan is ook hier vrij groot, terwijl ook de GTX 690 de Titan te snel af is.

Crysis 3 - 5760x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*******
+
*
35,3 / 41,7
EVGA GTX 690
*****
+
**
28,0 / 37,5
GTX Titan
****
+
*
21,6 / 25,2

Op de hoogste instellingen hebben alle kaarten de grootste moeite met Crysis 3. Enkel de Ares II weet net het hoofd boven water te houden met minima van halverwege de 30fps.

DiRT: Showdown - 5760x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Ares II
*******
+
*
86,3 / 99,4
EVGA GTX 690
******
+
*
81,5 / 95,8
GTX Titan
*****
+
*
64,3 / 78,2

DiRT is niet dusdanig zwaar dat het ook op Medium getest moest worden. We zien namelijk dat de Ultra-instellingen al prima resultaten opleveren. Ook nu staat de Ares II bovenaan, op de voet gevolgd door de GTX 690. De Titan twee presteert prima, als we in het achterhoofd houden dat het slechts één gpu is.

Energieverbruik

We hebben het energieverbruik van het hele systeem aan het stopcontact gemeten. Het onbelaste systeem gaf enkel de Windows-desktop weer, op één scherm.

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
*******
91,00
HD 7970 GHz
*******
92,00
GTX Titan
*******
92,00
EVGA GTX 690
*******
95,00
Ares II
********
105,00

Zowel Nvidia als AMD heeft het idle-verbruik al lange tijd goed onder controle. De Ares II verbruikt iets meer door onder andere de plx-chip en verschillende ventilators op de radiator en de videokaart zelf.

Energieverbruik systeem - Load
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
****
360,00
HD 7970 GHz
****
385,00
GTX Titan
****
385,00
EVGA GTX 690
*****
475,00
Ares II
********
715,00

In Furmark zien we dat de Titan amper meer verbruikt dan de GTX 680. Nvidia beperkt het verbruik echter in Furmark, dus al te veel waarde hechten we niet aan deze metingen. Wel zien we dat de Ares II in staat is om gigantisch veel energie te verstoken.

Energieverbruik systeem - Ingame
VideokaartVermogen in watt, lager is beter
Nvidia GTX 680
****
340,00
HD 7970 GHz
*****
372,00
GTX Titan
*****
410,00
EVGA GTX 690
******
468,00
Ares II
********
634,00

Als we naar het ingame-verbruik kijken, dat we tegenwoordig meten met behulp van Crysis 3 en Far Cry 3, dan ligt het verbruik lager dan in Furmark. Ook zien we een groter verschil tussen de Titan en de GTX 680. De Ares II verbruikt al met al 35 procent meer stroom dan de GTX 690, en 55 procent meer dan de Titan.

Geluid

Naast het energieverbruik hebben we ook de geluidsproductie in kaart gebracht. De geluidsproductie werd gemeten op een afstand van 20cm, in een afgesloten ruimte met een omgevingsgeluid van 31 tot 31,5dBA.

Geluidsdruk - Idle 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
HD 7970 GHz
******
36,1
GTX Titan
******
36,4
Nvidia GTX 680
******
36,8
EVGA GTX 690
******
36,9
Ares II
********
41,5

Alle videokaarten zijn erg stil, op de Ares II na. Nu is het lastig om de geluidsproductie van de Ares in kaart te brengen, aangezien er een ventilator op het pcb zit, maar de radiator ook over een ventilator beschikt. Aangezien de radiator het meeste geluid produceerde, hebben we onze metingen daarop gericht.

Geluidsdruk - Load 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
Nvidia GTX 680
****
48,8
GTX Titan
****
49,2
Ares II
****
51,2
EVGA GTX 690
*****
52,4
HD 7970 GHz
********
59,8

Onder load valt de geluidsproductie van de Ares II alleszins mee. Ook de Titan blijft behoorlijk stil, bijna net zo stil als de GTX 680, en dat is indrukwekkend, omdat de videokaart meer warmte kwijt moet zien te raken dan de GTX 680.

Conclusie

De Ares II en de GTX Titan zijn twee videokaarten die hetzelfde spelletje spelen, maar dat totaal anders aanpakken. In brute rekenkracht is de Ares II onverslaanbaar, de GTX 690 komt soms aardig in de buurt, maar is net zo vaak 25 tot 30 procent langzamer. De GTX Titan moet vaak zelfs 40 procent of meer toegeven op de Ares II.

Luidt het advies dan: ren naar de winkel en koop een Ares II? Niet helemaal. De Ares II mag dan snel zijn, de videokaart verbruikt ook aanzienlijk meer dan zowel de GTX Titan als de GTX 690. Nog belangrijker is dat de Ares II twee gpu's nodig heeft om de enkele gpu van de Titan te verslaan. Dat is dan ook de reden dat we beide videokaarten los van elkaar moeten beoordelen, het prijsverschil nog daargelaten.

De Ares II is een sublieme videokaart, met twee van AMD's snelste gpu's, die ook nog eens overgeklokt werden door Asus. De watergekoelde gpu's zijn een unicum, maar de radiator kan problemen opleveren in minder grote behuizingen. Het stroomgedeelte werd zo ontworpen dat de gpu's nog verder overgeklokt kunnen worden. Zo werd al een kloksnelheid gehaald van 1325MHz. Het stroomverbruik en de prijs schalen echter mee met de prestaties. Sterker nog, twee HD 7970 GHz Editions kunnen al voor rond de 750 euro aangeschaft worden.

Voor net geen 1300 euro kun je in principe een compleet gamesysteem samenstellen. Daarbovenop geeft het duo gpu's soms problemen. De prestaties schalen in veel spellen prima, maar door de manier waarop CrossFire (en sli) werkt, voelt niet elk spel altijd even vloeiend. Dat hangt weer samen met het frametijdverhaal en als je er gevoelig voor bent, kan een CrossFire of sli-opstelling een minder prettige ervaring opleveren dan een systeem met een enkele gpu erin.

De Titan is net zoals de Ares II een klasse apart. Het is de grootste en met afstand snelste gpu op aarde. Daarvoor betaal je echter ook. De GTX 690 is in alle spellen met gemak sneller, maar kost rond de 900 euro, terwijl een Titan bij 1000 euro begint. En dat maakt het aanraden van de Titan lastig. Ja, het is een immens snelle gpu, het verbruik ligt laag en de koeler is erg stil, maar de GTX 690 is sneller en ook vrij stil, en het verbruik is niet dusdanig hoog dat je energierekening omhoogschiet.

Met de GTX 690 zit je echter wel weer opgescheept met een sli-opstelling en dat is dus niet altijd ideaal. Misschien komt het dan ook neer op welke resolutie je gaat gebruiken. Voor 2560x1440 pixels is een Titan eigenlijk in alle gevallen afdoende of zelfs ruimschoots voldoende. Ga je op 5760x1080 beeldpunten (of hoger) gamen, dan is een GTX 690, of zelfs een Ares II, aan te raden. En voor de waaghalzen zijn twee GTX 680's voor een bedrag van 850 euro ook nog het overwegen waard.

Overigens heeft AMD onlangs de HD 7990 laten zien en is de kans groot dat er een betaalbaardere versie uitgebracht wordt dan de Ares II. Zo kan Club3D's HD 7990 al voor minder dan 900 euro aangeschaft worden en wordt AMD's versie nog goedkoper.

Reacties (108)

108
105
65
11
0
31
Wijzig sortering

Sorteer op:

Weergave:

Je toont benchmarks waarin deze kaarten nog geen 60FPS halen op max settings en je verkondigd vervolgens dat het waanzin is zo'n kaart op een resolutie van 1080P te gebruiken. Zolang ik met twee high end kaarten nog niet eens voldoende FPS kan krijgen om te passive 3D gamen op 60FPS houdt ik het bij 1080P.
wie gebruikt er uberhaupt 3D? das toch gewoon niet fijn gamen het kijkt zo ongemakkelijk...
volgens mij gamed de standaard gamer helemaal niet met 3d
applaus! ik was me aan het ergeren dat ze geen 1080 lieten zien. In 3D halveer je je fps zo ongeveer en er zijn meer monitoren die 3D ondersteunen dan 2560x1440.
Ik vind het wel heel erg kort door de bocht om dit weg te laten uit een review.

Het komt er op neer dat deze kaart nog steeds rendabel is voor 1080 opstelling hetzij alles maximale settings, dubbele programma's draaien, meerdere monitoren of 3D, maar 1080 mag NIET worden weggelaten uit een review
"De Ares II is een sublieme videokaart, met twee van AMD's snelste gpu's, die ook nog eens overgeklokt werden door Asus. De watergekoelde gpu's zijn een unicum, maar de radiator kan problemen opleveren in minder grote behuizingen."
Even opmerken dat de kaart 300mm lang is wat er ook voor zorgt dat hij in de meeste behuizingen niet past, tenzij je een paar drive bay's verwijdert.
Flat fps metingen moeten echt gestopt worden. De huidige fps meting gebeurt wanneer de engine aangeeft dat die een frame wilt laten renderen. Voordat een frame wordt op je scherm staat gaan veel van die originele frames alweer verloren door de allerlei tussenstappen (verschil in game frames tov je refresh rate van je scherm e.d.).

Als je gewoon de uiteindelijk weergegeven frames op je scherm zouden worden gemeten kom je tot de conclusie dat die Ares II helemaal niet zo goed is als ze hem hier doen laten lijken.

http://www.pcper.com/revi...aphics-Performance-Tes-12
Dit heb je vaak met crossfire/sli. Weer een voordeel voor de titan.
Wat imo de conclusie is, kijkende naar de verschillende reviews (Tweakers, HWI, TechP, Guru3D, PCper etc), waarbij fps, frametimes, geluid, temps, verbruik en aanschaf geld over het algemeen meegenomen wordt, is dat er tussen de drie "giganten" er één the best bang for the buck is. De GTX690. Dan heb ik het puur bekeken vanuit het perspectief van één video kaart en niet één GPU.
De GTX 690 scoort op bijna alle vlakken boven de Titan en net onder de Ares II. Prijs halve is de afweging om 1050/1100 euro voor de titan te betalen, debiel. Je betaald meer voor minder.
De Ares scoort op bijna alle vlakken hoger dan de GTX 690. Maar ook in prijs. Een verschil van 400/450 is in mijn optiek niet te rechtvaardigen ten opzichte van de hoeveelheid winst tav de GTX 690.

Mijn conclusie: De GTX 690 is op dit moment, gezien als videokaart (en dus niet per GPU) in dit prijs segment, de beste keuze.
je moet geen dual GPU tegen een single GPU gaan vergelijken.

houd het bij single GPU tegen single GPU.
je vergelijkt ook geen moto tegen een auto
Dit vind ik niet helemaal een correcte opmerking.
Ik geef toe dat ik dit gevoel ook als eerste kreeg:

"Dual GPU 7970 (Ares II) vs Single GPU Titan? Dat is geen match!"

Echter bedacht ik me dat we hier de top van de snelste "single-card" van beide kampen testen.
Daarbij heeft tweakers ook netjes de snelste dual GPU kaart van Nvidia er bij gezet ter referentie.

Uiteraard kun je lang twisten of dual vs single nu eerlijk is. Maar voor mensen die maar een enkele slot ter beschikking hebben is dit de top die er te halen is.

Als je daarna gaat kijken naar multi-card oplossingen raak je al snel verzeild in scaling problemen welke weer door de drivers opgelost moeten worden. Wordt het meer een "wie-maakt-de-beste-software" benchmark.

Als conclusie op de review: Ik ben zelf een AMD man, maar ik ben zéér onder de indruk van de K110. Het lijkt er op dat Nvidia met de large-die taktiek in de roos geschoten heeft.

AMD zal echt met iets op de proppen moeten komen om de Titan te evenaren!

[Reactie gewijzigd door johnnyvd op 22 juli 2024 16:58]

AMD hoeft dat helemaal niet te doen. De top van de markt levert relatief gezien zo weinig op, jij vind het misschien leuk als AMD een Titan like kaart introduceert (7970ghz?) maar vanuit commerciëel oogpunt is dat natuurlijk niet zo relevant. Punt is om te kunnen pochen met de snelste videokaart. Dat levert publiciteit op. Waarom zou Asus anders een Ares ontwikkelen? Winst? Nee. Naamsbekendheid? Ja.

Waarom reviewt Tweakers dit? De wow factor is het enige wat ik kan bedenken. Het trekt views. Is het relevante informatie voor 95% van de consumenten? Ik vrees van niet.
Waarom niet? Voor de gebruiker komt het er uiteindelijk op neer hoeveel performance men voor zijn/haar geld kan krijgen en welke GPU in dit geval de meeste "bang for your buck" geeft rond dat prijspunt. Aangezien de Titan en Ares II ongeveer in dezelfde prijscategorie liggen mag je die dus best met elkaar vergelijken. Of de kaarten dan 1, 2 of 50 GPU cores hebben maakt niet uit. Dit maakt hooguit wat uit bij zaken als stroomverbruik (wat ook aangekaart is in de review).

Het is hier dan ook geen vergelijk tussen een auto en een motor, maar eerder een tussen 2 auto's waarvan de een een V6 heeft en de ander een dikke V8.
je moet geen dual GPU tegen een single GPU gaan vergelijken.
Als je dat een aantal jaar gelden had gezegd, zou ik je helemaal gelijk geven, maar tegenwoordig is de dual GPU ondersteuning redelijk tot uitstekend. Terwijl dat een aantal jaar geleden, rond uit slecht tot redelijk was...

Als puur performance een issue is maakt het voor de gebruiker geen hout uit of deze een single of een dual GPU gebruikt. En alle relevante factoren worden hier netjes meegenomen en de gebruiker kan zelf beslissen wat hij vind...

Ben ik het eens met alles wat wordt gezegd en geconcludeerd, nee. Want er zijn zat mensen die minimaal 60fps en eigenlijk 120fps willen draaien (ik ben er toevallig niet één van) en dan zal je toch echt op een lagere resolutie moeten gamen (1080p bv.).
je moet geen dual GPU tegen een single GPU gaan vergelijken.
Want?
Die 2 GPU's zitten op 1 kaart, dus iemand die niet wil/kan rommelen met SLI-/CF-setups met 2 kaarten (ongeschikte handen/pc-kast/mobo/whatever), en "gewoon" de snelste kaart wil, weet nu dat dat de Ares II is :P

Daarbij, zelfs als het een vergelijking van een SLI-/CF-setup met meerdere kaarten is, is het altijd leuk om te kijken hoe dat schaalt tov. een enkele GPU (of kaart).
Op die manier kun je beter inschatten wat voor jou nuttig danwel nodig is.
Rare analogie.

Een motor is geen auto, ze zijn enkel allebei vervoersmiddel. Een videokaart met 2 GPUs is nog steeds een videokaart.

Als je een PC neerzet met een willekeurige videokaart, kun jij er aan de hand van gebruik normaliter niet achter komen of de videokaart 1 GPU of 2 GPUs heeft. (Technische problemen als microstutter even uitgesloten, die komen niet bij elke dual GPU opstelling voor).

Maw, videokaarten leveren onafhankelijk van het aantal GPUs dezelfde soort dienst aan de eindgebruiker, namelijk het renderen van frames voor je beeld. Hoe goed ze dat doen, is dus prima objectief te vergelijken.

Met een motor vs auto, is dat anders. Ja ze leveren allebei mogelijkheid tot transport, maar de manier waarop ze dat doen is voor de gebruiker wel degelijk anders. Of dat verschil voor jou van belang is, is de vraag, maar dan zijn we intussen al in subjectiviteit beland.

Mijn conclusie: je kunt de videokaarten prima objectief vergelijken en auto's en motoren niet.
Mooie review. Denk alleen dat energieverbruik bij deze kaarten niemand interesseert. Als je een videokaart van 1000+ aan kan schaffen, kun je de iets hogere stroomrekening ook makkelijk betalen.

Verder lijkt mij, na die benchmarks de Ares || toch wel de beste koop als je genoeg geld daarvoor hebt. Ook de standaard waterkoeling is een mooie extra feature.
Energieverbruik is niet alleen een kostenoverweging. Het heeft ook invloed op case en koeling. Bovendien geeft het ook aan op welke manier de kaarten verschillen.

Plus, op de lange termijn is een verschil van 0,25 kw per uur (Ares 2) echt wel te merken in je stroomrekening, zeker als je, wat verwacht mag worden als je deze kaarten koopt, veel aan het gamen bent. Reken maar op een euro of 40-70 extra per jaar - dat is dus bovenop het gebruik van een enkele Titan of een 690... Reken dat maar eens door naar een gebruiksperiode van circa 3 jaar, dan zit je al tegen het prijsverschil tussen de 690 en de Ares 2 aan...

[Reactie gewijzigd door Vayra op 22 juli 2024 16:58]

Waardeloze vergelijkingen.
1 GPU vs 2 GPUs (titan vs Ares ).
7970 heeft 6GB tegen GTX680 2Gb wat natuurlijk nooit genoeg is op deze hoge resolutie.
Ik heb ook een sterk vermoeden dat dit is geschreven vanuit een AMD enthousiast, de vergelijkingen zijn onredelijk in het voordeel van AMD en NVidia zet een knap staaltje werk neer met die Titan.

Een review op hardware.info (http://nl.hardware.info/r...-5760x1080-en-frame-times) geeft aan dat de enkele GPU van de Titan af en toe zelfs de 7990 en de 690 verslaat in de praktijk en dat het gat tussen deze kaart en andere single gpu kaarten gigantisch is.

Ook laten zij gelukkig WEL de 1080 prestaties zien. (Overigens is er ook nog een review van die kaarten in 3 en 4 sli te zien; http://nl.hardware.info/r...l-5760x1080-en-frametimes)
Mja, hoe kun je dit nou vergelijken.
Dat kun je vergelijken door prestaties te vergelijken ipv alleen naar frames kijken. Vooral bij CFX heb je veel te maken met microstutter wat je gaming experience uiteindelijk minder maakt met een hogere fps rate dan dat je op een steady 30 fps draait (bijvoorbeeld).

Dus je kunt het vergelijken door te kijken naar frames per seconde, geobserveerde frames op je scherm, microstutter, energieverbruik de hele mikmak.

Deze hele review is gebaseerd op frames tellen wat natuurlijk maar een deel is van het verhaal. Een vergelijking moet prestaties in zijn totaliteit vergelijken. Dat betekent dus ook dat je op deze manier een dubbele GPU kunt vergelijken met een enkele. En dat doet tweakers toch trouwens al jaren? Als men een review maakt over de 690 ga je die toch ook vergelijken met de 680 en 670 en de wederhelften van AMD ook al zijn dat single GPU kaarten?

[Reactie gewijzigd door Galeton op 22 juli 2024 16:58]

Mooie strijd tussen twee giganten. Geen echte winnaar door de verschillen is wel interessant. Zo blijft voor iedereen de persoonlijke voorkeur ook nog van kracht zonder dat ze een "mindere" videokaart kopen.

Mooi review!
Vraag me af hoe dit systeem de benchmarks zou doorlopen; 3 Titans in 3-weg SLI met nog wat extra bits & bolts in het systeem zelf verder.

Wat ik me trouwens wel afvraag; en wat ik eenvoudig weg niet weet: is de Titan wel een groot voordeel ten opzichte van de Ares als je veel CAD-applicaties of andere rendering/video applicaties gebruikt?
Volgens mij heeft nVidia nog altijd de quadro lijn voor zaken als cad, wat prijs/kwaliteit beter aansluit. Mij lijkt dat een quadro van 700 euro meer te bieden heeft voor cad tekenaars dan deze 2 kaarten wat een mix moet voorstellen voor zowel tekenaars als gamers. En zoals je min of meer in het artikel kan lezen kan je voor game beter voor een goedkopere (game)kaart gaan, en dat zelfde geld waarschijnlijk ook voor tekenaars die beter voor een quadro kunnen gaan.
Steeds minder mensen gebruiken anders de quadro lijn hoor. Veel studio's in de 3D industrie gebruiken als ze al aan GPU renderen doen, gewoon highend "consumer" kaarten.
Het is veel goedkoper om een berg consumer kaarten per jaar te kopen en deze te vervangen als ze kapot zijn, dan een bak te vullen met een aantal quadro's met min of meer dezelfde reken cappaciteit. Een van de weinige echte voordelen is dat de Quadro reeks over het algemeen over meer geheugen beschikt, wat grotere/complexere scenes toelaat.

Ik vindt het dan ook erg jammer dat in deze test niet bijvoorbeeld de ARION2 benchmark gedraaid wordt:
http://www.randomcontrol.com/arionbench-instructions

(maar ja dat heeft weer weinig goeds voor de ATI kaarten)

[Reactie gewijzigd door D-rez op 22 juli 2024 16:58]

Als je workstations koopt van veel fabrikanten zit er gewoon een quatro kaart in.

Wat ik vooral grappig vind is dat de algemene tendens was dat Nvidia inmiddels voor liep op AMD, maar dat blijkt niet uit deze benchmarks.

Jammer dat de processoren van AMD niet met de high end van intel mee kunnen, anders was daar de vooruitgang ook sneller gegaan dan het nu gaat.
Misschien bedoel je de 7970 vs de 680. De 680 was inderdaad gemiddeld wel wat sneller bij zijn release, maar AMD heeft de gemiddelde framerates echt al heel wat omhoog gekregen sinds die tijd, terwijl nVidia daar niet veel winst heeft geboekt. Frametimes zijn echter een heel ander verhaal. Maar in the end maakt 10% verschil geen verschil dat zichtbaar gaat zien. Als beste kaart zou ik degene nemen die in games die jij speelt goed presteert, vooral met frametimes. Dat verschil is namelijk nog wel merkbaar denk ik. Waar je ook nog aan zou kunnen denken is dat AMD met 3 GB geheugen nog ruimte biedt voor superhoge resolutie texturemods (bijv Skyrim), maar dat is maar net de vraag of je daar wat mee wilt gaan doen. Met 2 GB kom je ook al heel ver.
Erg snelle kaart die GeForce GTX Titan, hij is met Unigine Heaven 4.0 op normal 1000 punten hoger dan de Geforce GTX 680, en ook in spellen is hij een aardig stuk sneller.

En verbruikt idel net zoveel stroom, en Ingame gebruikt hij maar 70 watt meer, erg netjes, alleen jammer dat hij rond de € 1000,- kost wat extreem duur is, wacht dan op de GeForce GTX 780 die 400 a 500 goedkoper word en hoog waarschijnlijk sneller is, en eind dit jaar uit komt en anders begin volgende jaar.
Je moet er wel rekening mee houden dat de Ares 2 GPUs heeft en de Titan maar 1, dus qua single-GPU loopt NVidia wel degelijk voor.
kleuren correctie heb je niet bij die game kaarten verder komen quadro kaartjes ook met andere features en stabiele drivers daar leggen fabrikanten graag wat extra geld voor neer en professionele industrie doet dat ook!
zet je de ares II dan ook in crossfire?
Niemand koopt die Ares kaart. We weten dat allemaal.
Als niemand die koopt, dan worden ze over het algemeen niet gemaakt en zijn ze al helemaal niet leverbaar. En sommige winkels hebben ze op voorraad en groothandels hebben er 3, 15 of zelfs 20 op voorraad...

Die Titan is niet zo heel veel goedkoper en daar geld hetzelfde voor. Er zijn mensen die twee van die Titans in hun systeem hebben zitten. Voor mij geheel overkill, maar als ik het zakelijk gebruik/nodig zou hebben, waarom geen $2k+ uitgeven aan een setje videokaarten?

En wat jij denkt over de Titan en de Ares II, zo denken er zat mensen over een GTX 680 en 690 of een HD 7970 GHz, video kaarten die lopen van €350-€900...

Ik vind het een interessante vergelijking omdat er drie andere 'top' videokaarten ook zijn meegenomen en dat geeft toch een mooi beeld van wat je geld oplevert. Wil je 50%+ meer performance dan zal je aardig in de buidel moeten tasten.
Niemand koopt ferrari's en lambo's, worden toch getest...

Beide videokaarten hebben bestaansrecht, maar vullen wel een eigen niche. De prijs maakt het interessant om ze te vergelijken.
Je conclusie van dual gpu vs single gpu heb ik nog wel wat op aan te merken. Als Nvidia besluit om hun stokpaardje van de GPGPU (omdat het zo belangrijk is voor Nvidia) die normaal voor 3 keer zo veel wordt verkocht als de Titan (we hebben het over de Tesla) dan kan je toch niet enigszins nog met dit argument aankomen.

Bij AMD kunnen ze waarschijnlijk ook wel een achterlijke grote chip maken waar de compute units van de grond tot de hemel reiken maar dat wil niet zeggen dat je dan maar over 1 GPU vs 2 GPU argument mag komen.

Over Furmark , dit is al een tijdje bekend dat Nvidia dit in de driver niet ondersteund, je kan op [h]ardocp en Guru3d genoeg achtergrond over op doen.

Het verschil in verbruik zal zeker te maken hebben met de water cooling. En dan zou de conclusie moeten zijn wanneer je prestaties wil hebben zal dat niet uit de lucht komen vallen er zal meer werk moeten worden gedaan dus meer stroom.
Ik vond de review wel leuk maar vind de positionering van de Titan vrij vaag. Hij wordt beoordeeld op zijn game prestaties en doet hier consequent onder voor een GTX690, terwijl hij toch duurder is. Is het dan eigenlijk niet zo dat de "titanenstrijd" tussen de Ares en GTX690 gaat? Als je inderdaad alleen op game prestaties beoordeeld, dan is de Titan structureel de 3e kaart in dit rijtje, behalve op energie-verbruik.

Ik ben overigens mogelijk bevooroordeeld: draai sinds kort de GTX690 :)
Maar jij vergeet hierin dan nog het punt die ze zelf zeggen bij de conclusie: de Titan is de snelste Single GPU kaart, welke handiger kan zijn dan een dual-GPU kaart. Vooral door frametimes en problemen met SLI/CF optimalisatie in vele games.
Ik vind dat je gelijk hebt dat men bij Tweakers.net hun horizonten wel eens mag uitbreiden wat pc hardware betreft. Men komt niet verder dan vergelijkende testen (tot en met compleet nutteloze testen zoals deze), consumentenadvies en af en toe wat informatie als nieuwe hardware verschijnt. Ik mis wat regelmatiger specials over systeembouw, software tweaks, how-to's zoals je al zegt, enz. Al die zaken zijn ook al wel te vinden bij andere websites, maar in het Nederlands nog niet zo vaak, en websites die zich beperken tot nieuws in het genre "kijk producent X brengt product Y uit" zijn er ook al genoeg. Echt veel tweaken zie je hier niet behalve op het forum.
Interessante scoring. Moet ik als "normale" gebruiker dus concluderen dat dit slag kaarten een goede aankoop is (overall score) die niet overdreven duur is (3.5-4) en waar eigenlijk weinig mis mee is.

Of gaat het om kaarten die ernstig duur zijn, wat zich terugbetaalt in prestaties die voor de "gewone" gebruiker complete overkill zijn. Sneller is mooi, maar wanneer gaat "praktisch nut" meewegen, dat zie ik nu niet gebeuren namelijk. Hoe verhoudt de prijs zich bijvoorbeeld tegen "nu 500-650 euro uitgeven en over 2 jaar nog een keer voor een upgrade"?

Onder welke scoringscategorie komt het stroomverbruik van de Ares II eigenlijk tot uitdrukking? En het frametijden/FC3-verhaal bij die kaart? Er wordt dan wel geconcludeerd dat frametijden nog niet goed uitgewerkt is in de review maar er is een meetbaar issue bij FC3.

Ook zie ik een behoorlijke discrepantie tussen "en dat maakt het aanraden van de Titan lastig" in de tekst en een 4-sterren eindscore (met nog steeds 3.5 voor de prijs) met de GTX 690 of zelfs 2x GTX 680 in het achterhoofd. Is crossfire/sli nou een probleem of niet? Zonee, dan snap ik de score van de Titan niet, de GTX 690 is immers sneller en goedkoper. Zoja, dan snap ik de score van de Ares niet, die draait immers crossfire.
Het is erg lastig scoren. De Titan heeft verreweg de snelste gpu aan boord die er is. Maar ook de grootste gpu, net geen twee keer zo groot als de GK104, die voor de GTX 680 gebruikt wordt. Dat maakt de gpu ook erg duur. Ook omdat zo'n gpu veel vaker zal 'mislukken'.

Als je puur naar prestaties kijkt, is de Titan in zoverre overbodig dat je voor minder geld een GTX 690 kan kopen die sneller is. Maar het is vaak zo geweest dat twee goedkopere kaarten een enkele snellere kaart verslaan. CrossFire en sli zijn ook niet altijd aan te raden of uberhaupt mogelijk (denk aan voeding, gebrek aan ruimte in kast, te weinig pci-e slots).

Vandaar dat de TItan nog steeds als goed beoordeeld wordt. Prijs-prestatie verhouding is in principe scheef. Maar dat geldt eigenlijk voor alle high-end kaarten. Je moet het dan ook zo zien, als je geen sli/cf wilt, en wel het snelst mogelijk wil, dan is de Titan een prima kaart.

[Reactie gewijzigd door Marc Rademaker op 22 juli 2024 16:58]

Maar waarom scoort de Ares II dan consequent zo hoog? Het is van meet af aan een beetje een appels/peren verhaal met een single en een dual oplossing in dezelfde review, maar als dit de redenering was met de Titan dan zou de Ares II toch in ieder geval in een scoringscategorie een stuk lager moeten scoren (want crossfire)?

En als prijs/prestatie scheef is, moet de score op specifiek "prijs" dan niet een stuk lager zijn voor beide kaarten? Het lijkt me dat kaarten als deze niet gescoord moeten worden in een soort buitencategorie, maar gewoon in vergelijking met de rest van de gpu-markt,

[Reactie gewijzigd door Bundin op 22 juli 2024 16:58]

Ik denk dat ze zelf nog niet goed weten hoe belangrijk die frametijden vs fps zijn ;)
Tevens zou ik bij deze zin " En voor de waaghalzen zijn twee GTX 680's voor een bedrag van 850 euro ook nog het overwegen waard."

Nog toe willen voegen dat voor de "andere" waaghalzen er een optie is om 2x HD7970 in crossfire te plaatsen! Dit wordt vernoemd in het artikel, maar dan is het ineens geen waaghalzerij??

Ik geef Bundin gelijk dat de conclusie op een gegeven moment warrig wordt.
GTX690 wordt niet als positief ervaren aangezien dit SLI is terwijl de ARES II een beetje gevrijwaard wordt.

Het lijkt erop dat SLI/Crossfire een beetje als paria wordt beschouwd vanwege schalingsproblemen. Maar door de ontwikkelingen op drivergebied en betere ondersteuning van de spelontwikkelaars is dit inmiddels al vele malen beter!
Waarom moet tweakers zestien keer in een review herhalen wat de voors en tegens zijn van een Xfire/SLI setup? Dat is toch onderhand algemeen bekend.

Verder, enig vermogen tot het trekken van eigen conclusies voor jouw situatie is misschien ook wel gewenst, ik bedoel het wordt zelfs met nadruk genoemd in de conclusie van de review.

De voors en tegens per kaart worden uit de review erg duidelijk: verschil in stroomverbruik, prijs, en het feit dat je single/dual gpu draait rechtvaardigen de score voor elke kaart op zich. Niet alles is een test die puur gaat om 'wie heeft de langste'. De nuance die Tweakers in de conclusie plaatst bij de keuze voor welke kaart dan ook, had ik niet anders verwacht en past bij een dergelijke review.

Dat de kaarten op zichzelf 4 sterren krijgen, is ook te begrijpen want op zichzelf biedt elke kaart zo zijn voordelen maar heeft ook nadelen. Ares2: hoogste prijs, hoogste prestaties. Titan: sterkste single gpu, laagste prijs, minste prestaties. 690: in alles er tussenin, zowel prijs, verbruik als prestaties.

Ik begrijp dus echt al die kritiekpunten niet zo goed en vind dit een prima review.
Hoeso 1080p is onzin op een Ares of Titan?


op een 7970 op 1100mhz haal je in tromb raider soms 40 fps ofso, zeker geen wereldwonders met 1 videokaart.
- crysis 3 geen wonders 30 fps vaak.. minimum PFS , daar word je dus chagrijnig van
- BF3 kakt hard in in drukke stukken, wederom minimum fps, maar zeker niet relex

Dus hoeso is een Titan al overkill?

Een Titan is krap aan leuk op een 120hz scherm 1080p voor een echte kenner.
Een echte gek neemt zelfs 2 titans op 1080p, niets mis mee met die minimum fps die torenhoog is.

27 inch is een waste, imo. Hoeveel groter moet het nog. Je neemt alleen maar meer afstand en de letters worden kleiner en kleiner.
Ik vind trouwens de prijzen wel erg buitensporig.... 1000 euro voor de Titan en 1300 voor een Ares is niet mis.

Hier gaat het helemaal fout, imo...... De 7970 is best oud maar kost ook meer dan de helft minder! En de Titan is niet 2x zo snel... maar kost 3x meer... :S
Dus echt geen fijne tijden nu om een videokaart te kopen met metro om de hoek en andere games.
Niet iedereen neemt genoeg met FPS die soms inkelderd naar 20 oid...

Mijn conclussie is dat het helemaal fout gaat nu nu de HIGH-end UBER kaarten dik 1000 euro kosten.
Leuk dat alles sneller wordt.. maar om dan meteen het dubbele of 4-voudige te gaan betalen.

Het wordt nu echt wel is tijd voor single gpu's die 2x zo snel zijn als een 680 of 7970 en dat voor 500 euro.

[Reactie gewijzigd door A87 op 22 juli 2024 16:58]

ja het wordt inderdaad tijd voor een single gpu die 2x zo snel is als een 680/7970.
Want dit gebeurd elk jaar....

Natuurlijk gebeurd dit niet. De volgende generatie zal, denk ik, niet 2x zo snel zijn als de 680/7970 nu.
Wellicht iets van 30% met een paar nieuwe features. En die zullen dan rond de €500 zitten.
De Titan zal in prijs dalen en als Nvidia een mogelijkheid heeft om hierop verder te gaan dan kan het verschil nog verder stijgen maar ook dit heeft een prijs.

Zoals ik het zie is het "probleem" begonnen met de release van de 7970 voor €500.
Daarvoor had je de highend kaart voor rond de €350 (uitschieters daargelaten).
Daardoor kon Nvidia bij release van de 680 ook €500 vragen.
Waarschijnlijk hadden beide kaarten voor een verkoopprijs van rond de €350-€400 ook nog genoeg opgebracht maar AMD had het voordeel van de tijd die het op Nvidia voorhad (pak em beet 4 maanden?) en Nvidia had het voordeel dat de 680 toen veel beter presteerde.

Ik ben het op zich wel eens met je stelling dta een Ares geen overkill HOEFT te zijn. alles op hoge fps spelen als je dat wil en kan betalen is het geen probleem en zal je jaren vooruit kunnen...

OT: leuke review om eens de beasts aan het werk te zien maar ook niet meer dan dat.
Tja, het is net wat je gewend bent qua prijzen. Je stelt dat voor de HD7970 er high-end kaarten waren van ~350,-, echter een aantal jaren daarvoor betaalde je voor een 8800 Ultra toch ook gewoon 700-800 euro? Gewoon marktwerking die voortkomt uit concurrentie. AMD heeft even flink wat druk gezet op Nvidia door bijv. een high-end kaart als de HD5870 voor ~320,- te verkopen. Ze hebben die lijn echter niet doorgezet met de HD6x en HD7x serie. Schijnbaar moesten ze of konden ze er meer voor vragen (ofwel om uit de kosten te komen, ofwel de consument betaald het ervoor).
Nu zitten we op ~450-500 euro voor high-end, echter met de komst van dual gpu kaarten zie je uitschieters tot 1000,-. Beetje een verschuiving van de markt, maar er zal vast vraag naar zijn, anders maakt men het niet...

Op dit item kan niet meer gereageerd worden.