Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Door Jelle Stuip

Redacteur laptops en componenten

AMD R9 290X: Olympiër voor de Titan

Inleiding: eiland in zicht

Begin oktober rolde AMD een nieuwe generatie videokaarten uit, en een hele rits van maar liefst vijf verschillende videokaarten in de vorm van de R7 240, R7 250, R7 260X, R9 270X en R9 280X volgde. Bij de R9 280X hield het echter op. De échte topkaarten uit de serie, de R9 290 en R9 290X, lieten echter nog even op zich wachten. Bovendien vormden de eerste lichting videokaarten voor sommigen een teleurstelling, want ze waren niet 'echt' nieuw. Er werden wat nieuwe softwarematige technieken ondersteund, maar onder de motorkap bleek het om dezelfde gpu's te gaan die we uit de HD7000-generatie kenden, met hier en daar een opgehoogde klokfrequentie.

'Hawaii", de codenaam van de top-gpu uit de Volcanic Islands-serie, is nu dan eindelijk in zicht en brengt wel die vernieuwing waarop iedereen zat te wachten. De R9 290X heeft die Hawaii-gpu aan boord: de chip is een hele nieuwe gpu, die gebaseerd is op een aangepaste gcn-architectuur van de HD7000-serie. Met 2816 streamprocessors en een 512bit brede geheugenbus moet de kaart de concurrentie aangaan met de snelste kaarten van Nvidia.

We testten de 290X en zetten hem af tegen Nvidia's snelste kaarten: de GTX 780 en de GTX Titan. Lang voor de introductie van de 290X gingen er al geruchten dat AMD's nieuwste kaart sneller zou zijn dan Nvidia's Titan en uiteraard checkten we of dat het geval is.

Hawaii: de architectuur

Zoals gezegd heeft AMD met de R9 290X een nieuwe gpu geïntroduceerd, die een doorontwikkeling is van de gcn-architectuur. Net als de andere gpu's die in de R7- en R9-serie worden beschikt de 290X over een aantal compute units, die elk 64 streamprocessors huisvesten. De 290X krijgt 44 compute units mee, wat resulteert in een totaal van 2816 streamprocessors. Er is echter nog meer veranderd, zoals de geheugenbus, die 512 bits breed is geworden en de geheugengrootte die meegroeide naar 4GB.

R9 290XR9 280X / 7970GHz
Streamprocessors 2816 2048
Texture units 176 128
ROPs 64 32
Die-grootte 438mm² 352mm²
Klokfrequentie (max.) 1GHz 1GHz
Rekenkracht 5,6TFlops 4,1TFlops
Geheugen 4GB gddr5 3GB gddr5
Geheugenbus 512 bit 384 bit
Geheugensnelheid (effectief) 5,0Gbps 6,0Gbps
Geheugenbandbreedte (max.) 320GB/s 288GB/s
Voeding 1x6-pins + 1x8-pins 1x6-pins + 1x8-pins
Tdp 250W
AMD TrueAudio Ja Nee
Prijs

Maar AMD heeft meer gedaan dan het toevoegen van een paar extra compute units aan de oude gpu. Het aantal render output engines is verdubbeld van 32 naar 64 stuks en ook het L2-cachegeheugen is vergroot van 768KB naar 1MB. De CrossFire XDMA-engine is in de gpu geintegreerd en zorgt ervoor dat CrossFire over de pci-express 3.0-bus gestuurd wordt. In tegenstelling tot wat we eerder van een medewerker van AMD vernamen zal CrossFire alleen zonder CrossFire-bruggen gaan werken op de R7 260X en R9 290-serie. Intussen hebben we twee 260X-kaarten in huis en inderdaad, de driver herkent de beide kaarten en schakelt CrossFire automatisch en zonder brug in.

AMD Radeon R9 290X AMD Radeon R9 290X AMD R9 290X Compute Unit

Testsysteem en benchmarks

Het testsysteem dat we gebruiken bij Tweakers hebben we onlangs voorzien van een upgrade, de Sandy Bridge-E-processor maakte plaats voor Ivy Bridge-E en de hoeveelheid werkgeheugen werd verdubbeld naar 16GB. Een nieuw testsysteem betekent ook dat de benchmarks van het vorige systeem opnieuw gedraaid moeten worden op het nieuwe systeem. Daar zijn we intussen een aardig stuk mee onderweg. Nvidia's GTX 680 en GTX 760 tot en met de Titan zijn door alle tests gehaald. Van de nieuwe AMD-kaarten zijn de R7 260X, R9 270X, 280X en natuurlijk de 290X getest. Vergelijkingsmateriaal uit de vorige generatie is er ook: de HD 7970GHz, HD 7950, HD 7850 en HD 7790 hebben we eveneens getest. Aan testresultaten van de HD 7870 wordt gewerkt; het model dat we op de plank hadden liggen heeft helaas de geest gegeven, dus deze hebben we nog niet op het nieuwe systeem kunnen testen.

Alle AMD-kaarten in de review zijn getest met de Catalyst 13.11 beta v5-driver, de Nvidia-kaarten zijn getest met de 327.29-driver.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 4960X
Geheugen Kingston HyperX KHX1866C9D3K4/16GX
Ssd Kingston HyperX 240GB
Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750
Monitor Dell U2711H

Benchmarken met de 290X

AMD heeft op de R9 290X het dynamisch overklokken met behulp van Powertune verbeterd, waardoor de gebruiker meer keuze heeft over de prestaties van de videokaart. Zo kan er een maximum voor het stroomverbruik, ventilatorsnelheid, of temperatuur worden ingesteld. De videokaart klokt zichzelf binnen de gegeven parameters zo lang mogelijk naar 1000MHz voor de gpu-clock. Zodra de limiet van een van de opgegeven parameters wordt bereikt, dan klokt de kaart zichzelf terug om die limiet niet te overschrijden. Bij het overklokken, verderop in de review, gaan we nog verder in op PowerTune.

AMD helpt alvast een klein beetje met overklokken door een schuifje op de 290X te monteren. Daarmee schakelt de videokaart tussen het 'Quiet Mode'- en 'Uber mode'-profiel. Als het schuifje naar rechts staat, dus in de richting van de video-uitgangen, staat de kaart in de stille modus. We hebben voor onze benchmarks de kaart in Uber-modus gezet omdat kopers van een 290X waarschijnlijk niet de duurste AMD-kaart kopen omdat ze van stilte houden, maar juist op zoek zijn naar keiharde frames. Het verschil tussen de beide modi is overigens nihil; AMD geeft zelf aan dat het verschil in de meeste games niet meer dan een procent bedraagt.

De kaart is dus in Uber mode getest, waarbij de maximale temperatuur op 95°C staat ingesteld en de maximale ventilatorsnelheid 40 procent is. De videokaart is in een open testbank gemonteerd en de omgevingstemperatuur is ongeveer 21°C. In de meeste benchmarks bood dat niet genoeg ruimte en klokte de gpu zich alsnog terug omdat de ventilator te weinig lucht verplaatste om de kaart op 95ºC te houden. Dat geeft ook wel aan hoe afhankelijk de videokaart is van gebruikersinstellingen. In een gesloten behuizing met een slechte airflow zal de kaart dus slechter presteren dan wanneer er goede koeling voor handen is. Het is in ieder geval raadzaam om het limiet van de ventilator handmatig te verhogen, ook als er niet overgeklokt wordt. We hebben de kaart toch getest op de standaard instellingen, waarbij er af en toe teruggeklokt werd, omdat dit de manier is waarop AMD de kaart levert en de kaart op deze manier in de winkels zal liggen.

Synthetische benchmarks: 3DMark en Heaven

We benchmarken de R9 290X uiteraard als eerste in onze synthetische tests 3DMark en Heaven.

3DMark Fire Strike
Videokaartin punten, hoger is beter
R9 290X
*******
11044
GTX Titan
*******
10509
GTX 780
******
9534
R9 280X
*****
8421
HD 7970 GHz
*****
8179
Nvidia GTX 770
*****
7604
GTX 680
****
7098
HD 7950
****
6212
R9 270X
****
6053
Nvidia GTX 760
****
6046

In 3DMark maakt de 290X alvast een goede indruk door alle andere videokaarten achter zich te laten. Het verschil met de Titan bedraagt ruim 500 punten.

Unigine Heaven 4.0 - normal
Videokaartin Punten, hoger is beter
R9 290X
*******
2361,00
GTX Titan
*******
2340,00
GTX 780
*******
2217,00
R9 280X
*****
1720,00
Nvidia GTX 770
*****
1650,00
HD 7970 GHz
*****
1645,00
GTX 680
*****
1566,00
HD 7950
****
1299,00
R9 270X
****
1207,00

In Heaven vormen de nieuwe Hawaii- en GK110-gpu's een kluitje en laten de rest ver achter zich. De onderlinge verschillen tussen de Titan en 290X zijn minder groot dan in 3DMark, maar de 290X wint nipt.

1920x1080: Battlefield, Crysis, Far Cry

Omdat het de meest gebruikte resolutie is testen we de 290X op 1920x1080 pixels. Het is de verwachting dat de 290X als top of the line-kaart alle games op deze resolutie makkelijk moet kunnen draaien.

Battlefield 3 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
74,5 / 93,7
GTX Titan
*****
+
**
67,3 / 90,5
GTX 780
*****
+
**
62,3 / 82,1
GTX 770
****
+
*
55,0 / 68,9
R9 280X
****
+
*
53,3 / 68,3
HD 7970 GHz
****
+
*
53,8 / 67,6
GTX 680
****
+
*
51,5 / 64,2
GTX 760
***
+
*
42,0 / 55,6
HD 7950
***
+
*
43,6 / 52,4
R9 270X
**
+
*
25,4 / 32,6

In Battlefield 3 knalt de 290X de GTX Titan voorbij. Het is waarschijnlijk een van de laatste keren dat we deze benchmark gebruiken, want we hopen binnenkort over te stappen op Battlefield 4. De high-end videokaarten van de nieuwe generaties van AMD en Nvidia kunnen deze game makkelijk aan.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
GTX Titan
*****
+
**
46,0 / 60,4
R9 290X
*****
+
**
42,5 / 60,2
GTX 780
*****
+
**
43,7 / 57,8
GTX 770
*****
+
*
42,5 / 50,9
GTX 680
*****
+
*
41,0 / 48,5
R9 280X
****
+
*
38,0 / 47,5
HD 7970 GHz
****
+
*
38,0 / 47,2
GTX 760
****
+
*
32,0 / 40,4
R9 270X
***
+
*
30,0 / 37,1
HD 7950
***
+
*
28,8 / 36,2
Far Cry 3 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
GTX Titan
******
+
*
56,5 / 67,2
GTX 780
*****
+
*
52,7 / 62,7
R9 290X
*****
+
*
49,0 / 61,3
GTX 770
*****
+
*
45,3 / 52,3
GTX 680
****
+
*
42,8 / 49,5
R9 280X
****
+
*
34,7 / 47,5
HD 7970 GHz
***
+
**
33,3 / 47,1
GTX 760
****
+
*
36,0 / 42,2
R9 270X
***
+
*
25,0 / 35,2
HD 7950
***
+
*
25,3 / 35,2

In Crysis 3 en Far Cry 3 moet de 290X zijn meerdere erkennen in de GTX Titan en in Far Cry 3 is de GTX 780 de 290X ook te snel af. De AMD-gpu heeft in Far Cry nog altjd merkbaar last van micro-stuttering.

1920x1080: Grid, Shogun en Sleeping Dogs

We draaien ook Grid 2, Shogun 2: Total War en Sleeping Dogs. Grid 2 volgt DiRT: Showdown op in onze benchmarksuite. De game maakt gebruik van de EGO3-engine, waar DiRT nog gebruikmaakte van de EGO2-engine. DiRT: Showdown was voor de mid- en low-end videokaarten inmiddels een peuleschil geworden, dus daarom zochten we naar een racegame die wat uitdagender is. De keuze ging tussen Grid 2 en F1 2013, maar Grid bleek voor de gpu's uiteindelijk zwaarder dan de Formule 1-game. Om het klusje nog extra lastig te maken, passen we 8xMSAA toe.

Grid 2 - 1920x1080 - Ultra - 8xMSAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
81,5 / 106,2
GTX Titan
*****
+
*
83,8 / 103,4
GTX 780
*****
+
*
80,3 / 99,7
R9 280X
*****
+
*
70,5 / 89,2
GTX 680
****
+
*
60,7 / 76,7
HD 7950
***
+
*
50,1 / 64,2

De game vraagt meer van de videokaart dan DiRT, maar toch weten de topkaarten bij 1920x1080 pixels gemiddeld een framerate van meer dan 100fps neer te zetten. De 290X is nipt sneller dan de Titan in deze benchmark.

Shogun 2: Total War - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
GTX Titan
*****
+
**
64,7 / 87,3
R9 290X
*****
+
**
65,0 / 87,2
GTX 780
*****
+
**
59,0 / 81,3
GTX 680
****
+
*
47,0 / 63,6
HD 7950
***
+
*
40,0 / 51,7
R9 280X
**
+
*
31,7 / 42,8
GTX 770
**
+
*
29,5 / 42,2
HD 7970 GHz
**
+
*
27,7 / 39,2
Nvidia GTX 760
**
+
*
21,7 / 32,0
R9 270X
**
+
*
20,0 / 28,6
Sleeping Dogs - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
80,5 / 120,2
GTX Titan
****
+
**
62,0 / 100,6
HD 7970 GHz
****
+
**
67,7 / 97,6
R9 280X
****
+
**
68,2 / 97,5
GTX 780
***
+
**
60,8 / 96,2
GTX 770
***
+
**
53,4 / 86,6
GTX 680
***
+
**
48,1 / 83,9
HD 7950
***
+
*
50,8 / 73,7
R9 270X
***
+
*
50,4 / 72,7
Nvidia GTX 760
**
+
**
42,1 / 72,7

In Shogun 2 is het verschil tussen de GTX Titan en de 290X werderom niet erg groot. In Sleeping Dogs, die het altijd goed doet op AMD-kaarten, weet de 290X wel een groot gat te trekken met de op een na snelste gpu.

2560x1440: Battlefield, Crysis, Far Cry

De benchmarks op 1920x1080 pixels draaide de 290X vloeiend, maar van AMD's snelste gpu mogen we verwachten dat 2560x1440 pixels ook geen probleem is. Daarom draaien we alle benchmarks nog eens op die resolutie.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
47,8 / 62,7
GTX Titan
*****
+
**
46,5 / 60,8
GTX 780
*****
+
**
41,7 / 56,7
R9 280X
****
+
**
37,5 / 50,2
GTX 770
****
+
*
35,3 / 45,4
HD 7950
***
+
*
27,8 / 34,5
Crysis 3 - 2560x1440 - Very High
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
34,0 / 43,2
GTX Titan
*****
+
**
32,0 / 41,1
GTX 780
*****
+
*
30,7 / 37,0
R9 280X
****
+
*
25,3 / 32,2
GTX 770
****
+
*
25,7 / 31,7
HD 7950
***
+
*
19,0 / 24,0

In Battlefield en Crysis tovert de 290X wederom de meeste frames op ons beeldscherm.

Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
GTX Titan
******
+
*
38,8 / 45,3
GTX 780
******
+
*
36,3 / 43,3
R9 290X
*****
+
*
34,8 / 43,0
Nvidia GTX 770
*****
+
*
29,7 / 34,2
R9 280X
****
+
*
26,0 / 33,1
HD 7950
***
+
*
17,0 / 24,1

Far Cry 3 blijft lastig voor de 290X. Naast de zichtbare micro stuttering ligt de framerate lager dan bij Nvidia's GTX 780.

2560x1440: Grid, Shogun en Sleeping Dogs

Grid 2 - 2560x1440 - Ultra - 8xMSAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
64,1 / 81,9
GTX Titan
*****
+
*
61,4 / 74,5
GTX 780
*****
+
*
58,6 / 72,0
R9 280X
****
+
*
53,2 / 66,8
GTX 770
****
+
*
43,0 / 57,6
HD 7950
***
+
*
38,2 / 48,0
Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
42,0 / 55,7
GTX Titan
*****
+
**
43,0 / 55,6
GTX 780
****
+
**
36,3 / 51,0
R9 280X
****
+
*
31,7 / 42,8
GTX 770
****
+
**
30,3 / 42,3
HD 7950
***
+
*
23,0 / 31,5

De resultaten in Grid en Shogun op 2560x1440 lijken op de resultaten op de lage testresolutie; in Grid wint de 290X met ruime afstand, in Shogun zijn de kaarten aan elkaar gewaagd.

Sleeping Dogs - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X
*****
+
**
55,7 / 82,0
GTX Titan
****
+
***
42,5 / 70,8
GTX 780
***
+
**
40,2 / 67,7
R9 280X
****
+
**
44,0 / 63,3
GTX 770
***
+
**
34,7 / 59,0
HD 7950
***
+
*
31,9 / 45,8

Sleeping Dogs blijkt, ook bij een resolutie van 2560x1440 pixels, prima te draaien op de 290X.

Energieverbruik

Tijdens het testen hebben we ook energiemetingen uitgevoerd met de de GTX 770, 780, Titan en 290X. Het idle-verbruik en het verbruik tijdens het draaien van FurMark konden we met alle kaarten meten, maar de meest interessante meting, waarbij we 20 minuten Unigine Valley draaien en daarbij het gemiddelde energieverbruik meten, hebben we niet op alle kaarten kunnen uitvoeren. Onze energiemeter weigerde bij het testen van de GTX 770 de resultaten weg te schrijven naar een sd-kaartje. De R9 290X, GTX Titan en de GTX 780 hadden we eerder al gemeten, dus voor de ingame-test het blijft het bij een vergelijking tussen die drie kaarten.

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
GTX 770
******
73,60
GTX 780
******
74,00
GTX Titan
******
75,50
R9 290X
*******
83,00

Idle houdt de 290X het verbruik het hoogste. De Nvidia-kaarten verschillen nauwelijks in hun idle-verbruik.

Energieverbruik systeem - Ingame
VideokaartVermogen in watt, lager is beter
GTX Titan
*****
295,30
GTX 780
*****
295,50
R9 290X
*******
379,00

Het ingame energieverbruik ligt bij de 290X flink hoger dan bij de GTX Titan en GTX 780. Het verbruik van de 780 en Titan is gelijk.

Energieverbruik systeem - Load
VideokaartVermogen in watt, lager is beter
GTX Titan
******
349,00
Nvidia GTX 770
******
353,00
GTX 780
******
366,00
R9 290X
*******
418,00

We hebben de kaarten ook in Furmark getest. Het doel van Furmark is om de kaarten van een onrealistisch hoge belasting te voorzien om zo het maximale energieverbruik te kunnen meten. AMD en Nvidia doen er echter veel moeite voor om hun videokaarten te beveiligen tegen dit soort programma's, omdat het schadelijk zou kunnen zijn voor de videokaart. We hechten daarom meer waarde aan de ingame-test, maar Furmark kan - als de beveiliging niet ingrijpt - een beter beeld geven van het maximumverbruik. Uiteindelijk scoort de 290X, net als in de andere tests een stuk slechter dan de concurrerende kaarten van Nvidia. De hoge prestaties van de AMD-kaart eisen hun tol op de energierekening.

Tijdens het benchmarken hebben we onze warmtecamera erbij gepakt. De linkerafbeelding toont het warmtebeeld waarbij het syteem idle is. Daarbij is de 290X zelfs nog wat koeler dan het moederbord. Tijdens het draaien van benchmarks is de gpu - uiteraard - het warmste onderdeel van de pc.

Overklokken: al gauw 10 procent erbij

De 290X heeft in onze benchmarks verrassend goede resultaten neergezet, maar uiteraard vroegen we ons af of er niet nog een schepje bovenop kon. Met behulp van AMD's OverDrive hebben we de gpu overgeklokt. OverDrive laat de gebruiker verschillende limieten instellen. Wil je dat de gpu niet warmer wordt dan 60ºC en dat de ventilatorsnelheid niet boven de 20 procent uitkomt? Dat kan, maar dat betekent wel dat de gpu tijdens belasting nooit op 1000MHz uit zal komen, maar op een lagere klokfrequentie blijft steken om binnen die limieten te blijven. AMD geeft dan ook geen vaste klokfrequentie meer op voor zijn gpu's, maar geeft alleen de maximum haalbare gpu-frequentie aan; de geheugenfrequentie is wel vast ingesteld.

Het gddr5-geheugen van de 290X tikt standaard op 5GHz effectief, ofwel 1250MHz. De meeste high-end videokaarten laten hun geheugen echter op 6GHz tikken, dus daar leek bij de 290X nog wel wat rek in te zitten. Ook moest de gpu nog harder kunnen met wat extra koeling.

AMD R9 290X AMD R9 290X Overdrive

Om het maximale uit de 290X te halen hebben we de maximale gpu-temperatuur op 95ºC laten staan. Aan extra koeling was niet moelijk te komen. Standaard draait de ventilator op niet meer dan 40 procent van zijn maximum, dus daar was nog wel wat ruimte te vinden. Het opschroeven van de ventilatorsnelheid resulteert echter wel in een enorme bak herrie; de fan haalt dan 5400 toeren per minuut. We wilden ook wat meer energie richting de gpu sturen en ook dat is met behulp van OverDrive geen probleem; de power limit setting op 20% extra was genoeg.

Uiteindelijk wisten we de gpu van 1000MHz over te klokken naar 1100MHz. Bij 1120MHz hield het op en 1110MHz bleek uiteindelijk ook niet helemaal stabiel te zijn. Het geheugen klokten we zonder problemen naar 1500MHz, wat effectief resulteerde in 6GHz geheugensnelheid. De ventilator lieten we uiteindelijk op 70 procent draaien. Dat leverde nog steeds een flinke bak herrie op, maar zorgde voor genoeg koeling, zodat de gpu niet warmer dan een graad of 70 werd en continu op 1100MHz kon blijven tikken. In de vier games waarin we de overgeklokte 290X testten leverde dat gemiddeld een framerate op die 12,5 procent hoger ligt dan die van de videokaart op standaardinstellingen.

3DMark Fire Strike
Videokaartin punten, hoger is beter
R9 290X OC
*******
12266
R9 290X
******
11044
GTX Titan
******
10509
Unigine Heaven 4.0 - normal
Videokaartin Punten, hoger is beter
R9 290X OC
*******
2603,00
R9 290X
******
2361,00
GTX Titan
******
2340,00

In onze synthetische benchmarks laat de overklok al meteen een aardig verschil zien. In 3DMark zorgt de overklok voor een elf procent hogere score en in Heaven is de toename tien procent.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X OC
******
+
*
58,8 / 70,9
R9 290X
*****
+
**
47,8 / 62,7
GTX Titan
*****
+
**
46,5 / 60,8
Crysis 3 - 2560x1440 - Very High
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X OC
*****
+
**
38,0 / 48,6
R9 290X
*****
+
*
34,0 / 43,2
GTX Titan
*****
+
*
32,0 / 41,1

In Battlefield 3 en Crysis 3 gaat de gemiddelde framerate er dertien procent op vooruit.

Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X OC
******
+
*
38,3 / 46,7
GTX Titan
******
+
*
38,8 / 45,3
R9 290X
*****
+
*
34,8 / 43,0
Grid 2 - 2560x1440 - Ultra - 8xMSAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
R9 290X OC
*****
+
**
74,3 / 93,4
R9 290X
*****
+
*
64,1 / 81,9
GTX Titan
*****
+
*
61,4 / 74,5

Dankzij de overklok is de 290X in Far Cry 3 sneller dan de Titan, waar dat zonder overklok nog niet het geval was. De gemiddelde framerate stijgt in Far Cry 3 met negen procent. In Grid 2 is het verschil veertien procent.

Het is dus relatief eenvoudig om de al niet misselijke prestaties van de 290X nog wat verder op te krikken. Dat kost wat meer energie en levert nogal wat lawaai op, maar daar tegenover staat dat de framerates nog flink toenemen.

Conclusie: titanenstrijd

AMD heeft lang op zich laten wachten met het uitbrengen van een nieuwe topkaart. In januari 2012 kwam de HD 7970 uit, waarvan later nog een GHz-editie verscheen, en daarmee moesten we het tot oktober 2013 doen. Sinds de introductie van Nvidia's GTX Titan lag de prestatiekroon lange tijd in het groene kamp, bij Nvidia's GTX Titan en de kleine titaan GTX 780. De strijd is nu toch echt weer losgebarsten en bij het merendeel van onze benchmarks komt de 290X als winnaar uit de strijd. Die winst werd bovendien behaald met een maximale ventilatorsnelheid van 40 procent, waardoor de videokaart tijdens de meeste benchmarks niet continu op de maximale 1000MHz kon blijven tikken.

Hoewel AMD niet in alle benchmarks de snelste is, kan Nvidia op een gebied echt niet tippen aan AMD. Dat is de adviesprijs van 480 euro, die AMD aanhoudt. Een GTX Titan kostte bij introductie 1000 euro en die prijs is ondertussen gezakt naar 850 euro; nog altijd 370 euro meer dan een 290X. Tel daar nog eens bij op dat het vrij eenvoudig is om een 10 procent overklok te realiseren en er is op dit moment weinig reden om nog voor een Nvidia-kaart te gaan. De Titanenstrijd is dus gestreden en 290X lijkt als een moderne Olympiër de Titan in de tartarus te smijten.

AMD Radeon R9 290X AMD Radeon R9 290X AMD Radeon R9 290X AMD Radeon R9 290X AMD Radeon R9 290X AMD Radeon R9 290X AMD R9 290X AMD R9 290X

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (281)

Wijzig sortering
Ik zou graag een OpenCL benchmark zien tussen al dat game geweld. Dan kun je zien of zo'n kaart het goed doet in GPU berekeningen zoals Bitcoin mining en Premiere filters. Is dat mogelijk, of lastig te realisren voor Tweakers?

/edit: Kijk, Anandtech doet het wel: http://www.anandtech.com/...-radeon-r9-290x-review/18 en het zijn niet eens obscure benchmarks die ze draaien, lijkt me leuk als Tweakers dit ook gaat doen.

[Reactie gewijzigd door zonoskar op 24 oktober 2013 13:46]

Goede suggestie! We gaan ons er de komende tijd in verdiepen, ben het met je eens dat dit een interessante toevoeging aan de benchmarksuite zou zijn :)
als ik tomshardware's review bekijk dan wint de kaart op prijs maar lang niet altjd op performance. Veel benchmarks is 780 of titan nog steeds sneller.

Ook wordt aangegeven dat de kaart 95 graden wordt en je eigenlijk de control moet aanpassen waardoor performance iets achteruit gaat.

Prima prijs/kwaliteitskaart dus maar of die echt sneller is zoals Tweakers suggereert moeten we nog even afwachten.
Overal (bij Anantech, Techpowerup en HardOCP) Zie je hetzelfde beeld. In Uber mode kan hij de Titan aan. Stille mode is hij net iets sneller dan de GTX780.

De kaart is gemaakt om 95c te draaien. Maar als je de cooler vol uit zet krijg je zelfs nog meer performance dan met Uber mode. De kaart is dus qua koeling begrenst. Leuk voor de tweakers onder ons.

Ik kan niet wachten om er mee aan de slag te gaan. Ik ga het voltage gewoon iets verlagen dan kan hij veel makkelijker die 1000MHz halen. Hij heeft toch genoeg ruimte op stock volts gezien de overclock resultaten.
ik draai met gemak 1100-1200 mhz per titan op lucht. Met water is meer mogelijk denk ik.

Des al niet te min ben ik benieuwd naar deze AMD want vind nieuwe hardware altijd interessant. Zeker gaming hardware.

95 graden kan die wellicht voor gemaakt zijn het voelt niet lekker zie ook mijn eerdere post.

Ik houd kaarten graag onder de 80, liefst nog lager voor meer oc headroom.
Ach vroeger toen de HD4870 uit kwam schrokken we ook dat deze kaart boven de 80c zat en zelfs 90c kon halen. Maar dit heeft nooit problemen gegeven.

Lager is altijd beter maar sommige chips zijn er op ontworpen het aan te kunnen. Andere gaan bij dat soort temps kapot.
Toch ken ik verschillende 4870's en 4870x2's die kapot zijn gegaan door onbekende oorzaak. Ik verdenk die temperaturen ervan de schuldige te zijn...
Ten opzichte van de nVidia kaarten die door hitte kapot gingen is dat echt helemaal niets.

Persoonlijk is er bij mij geen een X2 of 4870/4890 kapot gegaan. En ook bij niemand die ik ken.
Bedenkt wel dat de Nvidia kaarten al matured drivers hebben. De 290X is een nieuwe kaart, waarbij de drivers over het algemeen in de komende maanden sterk verbeterd worden.
zeker daarin tegen gebruikt Tweakers niet de laatste Nvidia drivers:)

Het blijft een prestatie van AMD voor die prijs ik blijf zelf nog even van mijn 2 Titan's genieten al is het alleen maar om het 6 gig geheugen.

Als ik nog geen kaarten had zou ik deze wel overwegen.
Ook wordt aangegeven dat de kaart 95 graden wordt en je eigenlijk de control moet aanpassen waardoor performance iets achteruit gaat.
Waarom zou je dat doen, niks mis met 95 graden bij load voor een Videokaart

Qua benchmarks verschillen de verschillende sites nogal inderdaad, maar op de meeste is deze kaart wel gewoon sneller
ik heb een laptop met 7970m die ook regelmatig 90+ graden wordt en dan zit ik niet lekker zal ik je zeggen. Mijn titan's komen niet boven de 50 graden op lucht met 70% fan.
Een laptop en desktop zijn qua temperatuur toch niet te vergelijken. Je weet zo dat een laptop niet de koelingsmogelijkheden heeft om de warmte van zo'n chip weg te krijgen. Dus het ding wordt dan maar warm, maar het kan daar ook tegen (hoewel ik al wel veel gehoord heb van uitvallen bij dat soort BTO's en gelijkaardige laptops, de verbindingen gaan vaker verschroeien dan de chips zelf). Als je schoot daar niet tegen kan, dat lijkt me ook normaal. Ik zou zo'n gaminglaptop ook nooit op mijn schoot houden als die warm is om mijn toekomstige kindergeld niet in gevaar te brengen. Zelfs mijn laptop met Core i3 330M zonder dedicated gpu werd al eens meer dan 90° toen er een stofprop in zat.
Een laptop AMD kaart vergelijken met een desktop nVidea kaart... Right, zie je daar zelf niks mis mee?
Tsja, als de prijs in vergelijking met de Titan zo laag is, dan heeft Nvidia maar kort kunnen profiteren van hun voorsprong.
Het kan bijna niet anders, of de Titan prijzen gaan dalen naar een normaler niveau ( zo rond de € 500 zweefden de prijzen van de GTX680 en GTX580 ook meestal) of ze moeten met een upgrade komen van de Titan.

Maar de koeler van de Titan blijft toch wel de mooiste ;-)

[Reactie gewijzigd door audio.gio op 24 oktober 2013 06:46]

de titan is ook een ander product,
de eerlijke vergelijking is met de GTX 780. de Titan is zo duur omdat hij 6GB ram heeft, en omdat hij niet gekortwiekt is, (FP 64 performance is 8x zo hoog....) als hij niet 1000$ zou kosten zouden alle wetenschappers echt geen tesla's meer kopen, het is een entry level tesla kaart voor thuis gebruikers van GPU compute.

dat hij snel is met games is mooi meegenomen, maar Nvidia kan het zich niet veroorloven die kaart te laten zakken in prijs, vandaar dat er een GTX 780Ti komt welke sneller wordt dan de Titan maar niet over de fp64 performance beschikt (doet er niet toe voor games)

deze kaar kan wel goedkoop verkocht worden, en de 780 kan dan in prijs dalen naar wat de 290X kost. Titan is gewoon een ander product en moet je eigenlijk niet mee vergelijken.
Een alternatief voor CUDA op AMD is er ook nog niet echt. Ik denk dat Nvidia de favoriet blijft van de wetenschapper. Dit is echter een veel kleinere markt dan de gamer. Vraag me af of ze het volhouden om die CUDA software gratis te leveren en de kosten te verhalen op de verkoop van de hardware.
Dat hadden ze al ten tijde van de X1900 daaromtrent, en dat heette Close To Metal. Het was geen succes.
Later werd het AMD FireStream.

Alternatief is er al heel wat jaren, alleen wordt het niet veel gebruikt. Ik denk dat OpenCL nu toch een veel betere optie is dan Cuda en FireStream. Waarom zou je software alleen voor Nvidia schrijven als het crossplatform kan? De benchmarks die ik heb gezien laten niet erg veel verschil zien in prestaties.
op nvidea is het verschil in prestaties nagenoeg nihil tussen cuda en opencl, dus weinig voordeel om het ene boven het andere te nemen
maar bij amd kaarten is de opencl performance veel hoger dan de opencl performance bij nvidia kaartenin dezelfde prijsklasse
vorbeeld(amd kaart is hier wel iets goedkoper, vergelijking van de dual GPU's hd 7990 en gtx690)
youtube video start waar de opencl performance gemeten word
http://www.youtube.com/wa...lpage&v=4zYGR4R7Svk#t=293
CUDA heeft wel een grote bibliotheek aan algoritmes beschikbaar, zoals kant en klare matrix bewerkingen. Zijn die ook beschikbaar voor AMD firestream of open CL? FP64 is eigenlijk wel een must als je wat grotere matrixes wilt inverteren.
Je hebt volgens mij volledig gelijk met je uitspraak: "Titan is gewoon een ander product en moet je eigenlijk niet mee vergelijken." Spijtig genoeg laten bijna alle reviews zich er aan vangen.

En Titan is ook zo duur "omdat het kan/kon". Omdat er mensen zijn die het geld ervoor willen betalen. Voor compute-gebruik, maar vooral om een "titan" te hebben. Nvidia wist dat het moment zou komen dat Titan achterhaald was. Intussen hebben ze er maar hun voordeel mee kunnen doen. Vooral wat betreft imago.

Als je naar de geschiedenis kijkt, is het trouwens niet meer dan normaal dat een nieuwe generatie sneller is dan de voorgaande generatie.

Dat de 290X relatief maar een beetje sneller is dan de GK110, zegt veel over de stilstand bij de vorige generatie.

Want Nvidia heeft AMD toen bekampt met de chip die bedoeld was voor de mid-end (GK104). Al blijft de vraag of ze veel winst hadden kunnen maken op een GK110 aan GTX680/770 prijs.

[Reactie gewijzigd door Jack77 op 24 oktober 2013 09:53]

nVidia heeft de bewuste keuzen gemaakt om met de GTX680 een gamerskaart te maken. Dat had een aantal voordelen. Lagere kosten (kleinere die), Hogere opbrengsten (te verkopen voor zelfde prijs als AMD die meer kosten moet maken), lager energieverbruik en geen wetenschapper die er over denkt om een 680 te gebruiken ipv van een Titan. Gamers kan die compute performance niet of nauwelijks deren. (Een win, win, win, win situatie voor nVidia)

Het enige nadeel was dat de kosten voor Titan (en consorten) extra hoog waren doordat er extra ontwikkelkosten aan ten grondslag lagen (de extra compute performance wordt nergens anders in producten gebruikt) en de extra mankracht die je daar voor nodig hebt die je niet ergens anders in kunt zetten.

J
De GK110 chip met 2688 shaders wordt gebruikt in de Tesla K20X computing module.
De desktop variant is de Titan (exact hetzelfde). De GeForce 780 / 780 Ti is dezelfde chip met minder shaders.

Dit doet AMD precies hetzelfde.

De Tahiti XT chip met 2048 shaders wordt namelijk gebruikt in de FirePro W9000 (semi) professionele kaarten. De desktop varianten zijn de Radeon 7970 en de GHZ edition hiervan.

De Hawaii Pro / XT R9 290 / 290X is namelijk een uitvergrote Tahiti XT chip met nog meer transistors en shaders en ook nog steeds 28nm.

Wat ik hiermee wil zeggen is dat beide fabrikanten in het highend segment gebruik maken van 1 chip die een gehele produktlijn bedienen in de (semi) professionele markt en consumentenmarkt. Waarbij in de consumentenmarkt gemanipuleerd wordt met GPU frequentie, geheugen frequentie, unified shaders, texture mapping units, render output units om elkaar het evenwicht te bieden in zowel de snelheid als de prijs.

Als een GPU na productie bepaalde errata vertoont en deze voldoet niet aan de criteria voor het allerhoogste marktsegment dan wordt deze bijvoorbeeld verkocht met uitgeschakelde shaders onder een andere naam zoals Tahiti Pro ipv Tahiti XT of GeForce 780 ipv Titan.

Ik vermoed dat de AMD R9-290/290X en de Nvidia GeForce 780 Ti de laatste chips zijn die op 28nm worden geproduceerd. In 2014 komt de stap naar 20nm procede.
Want Nvidia heeft AMD toen bekampt met de chip die bedoeld was voor de mid-end (GK104).
Haha komt dat fabeltje weer naar voren.. Heeft nVidia dit zelf wel eens geroepen? of waren het alleen geruchten... volgens mij het laatste
Fabeltje of geen fabeltje: GK110 is vorige generatie. Dat staat vast.

En 290X upped zelfs GK104 met een marge die niet ongewoon is voor een nieuwe generatie.

Dus op zich vind ik dit alles maar behoorlijk normaal. Alleen wordt er veel drama rond gemaakt omdat
- Nvidia de naam "Titan" gebruikte voor zijn uitzonderlijke kaart.
- drama nu eenmaal mensen aanspreekt.

Hierna komt Nvidia weer met iets "beters", vervolgens AMD weer... het is de gewone gang van zaken.
Ja het is zo dat de nextgpu toch enkele jaren in ontwikkeling is. En bepaalde crusiale beslissingen moeten nemen die niet terug te draaien zijn en dus AMD en nV geen benul kan hebben wat de concurent doet. Dus maar moet gokken of wat ze doen genoeg is om de kroon te pakken.
Voor nV moet dwang matig de snelste zijn en gaat voor extreem grote chips.
AMD die liver niet te veel die space en wafer bin op offert puur voor prestege maar meer de volume markt dient gaat voor volume sales met voldoende grote chips.

Nu met de APU markt wilt AMD met toch iets kleinere chip toch wat in de high end mee doen.

Voor nV was AMD beleid de grootste varable met de vraag is de godzilla chip wel genoeg. Nou achteraf ja.
Tuurlijk de performance in FP 64 is veel beter en dat rechtvaardigt gelijk 850 euro?
Zoals altijd is Nvidia te duur en fanboys zoeken altijd excuses.
De prijs had ik niet verwacht, mijn schatting lag toch dichterbij de Titan prijs dus netjes AMD.
Nvidia zal toch met de prijs moeten gaan stunten.
Dit opent de weg naar de nieuwe reeks die veel sneller zijn om weer in de 800-1000 Euro range.

Toch ben ik blij dat ik deze keer Nvidia gekocht heb, AMD heeft veel goed te maken om mijn vertrouwen weer te krijgen.
4 kaarten die het niet langer dan 2 jaar uitgehouden hebben, ik heb toch liever iets minder fps als mijn kaart een langer leven daardoor krijgt.
Voor levensduur is de specifieke GPU belangrijker dan het merk. De meest high-end GPU's gaan naar mijn idee het snelste dood, omdat ze simpelweg zwaarder belast worden en doorgaans warmer worden. Met name de extreme kaarten gaan snel dood, dus bijvoorbeeld dual-GPU-kaarten (GTX295 en HD4870x2 vielen vaak uit), en andere hete high-ends als de 8800's, GTX480GT en de HD6970 gaan er ook vaak aan. Dit is wel op basis van wat ik op het forum langs zie komen, dus het kan wat subjectief zijn (geen rekening gehouden met het aantal GPU's dat van een model überhaupt verkocht is).

Maar een goede koeling is dus eigenlijk het geheim. Kaarten die niet high-end zijn en die toch vaak op 95 graden zitten gaan ook wel dood. Met een mid-range kaart met goede koeling zit je wat dat betreft beter. Mijn HD4850 op maximaal 80-85 graden vindt het allemaal wel prima.

[Reactie gewijzigd door bwerg op 24 oktober 2013 19:39]

Mijn 8800 GTS is ook de pijp uit gegaan na een jaar of 3. Toen een HD 4770 gekocht die het prima heeft gedaan en vorig jaar nog is doorverkocht. Andere mensen hebben weer ongeluk gehad met AMD kaarten. Ligt meer aan het model, en het jammere is dat je er pas achter komt als de kaart na een paar jaar kapot gaat bij iedereen.

Ik heb nu een GTX 560 Ti die nog wel oké is. Ik wacht nog wel even hoe Mantle gaat worden en wat de nieuwe generatie van Nvidia gaat doen en heb nu toch geen geld. Ben op zich wel fan van Nvidia, maar AMD is de laatste tijd toch wel wat interessanter kwá prijs, prestaties en dan ook nog Mantle, waarbij niet zeker is of het echt nuttig wordt, maar toch leuk meegenomen is. Microstutter is ook zo goed als weg, dus kwá drivers is er ook geen achterstand meer.
Mijn kaarten werden niet OC-ed, goed gekoeld en om de 2 maanden geheel schoon gemaakt van stof ( kwast + stofzuiger ) dus met de koeling zit/zat het wel goed.
Ik weet ook dat het subjectief is en dat het voort komt uit eigen ervaring, maar dat gevoel kan je niet zomaar opzij zetten helaas.
Ik zou zitten wachten tot het beeld zwart/ half wegvalt of artifacts laat zien IPV te genieten van de game op het scherm.
stofzuiger
Daarmee loop je wel het risico op ESD, en als je te dicht op de ventilator gaat zuigen ook op zelfinductie van de fan die als dynamo gaat werken. Die zou ik dus niet doen.

Maar inderdaad, ieder zijn eigen voorkeur. Maar ik ga het pas als feit presenteren als ik een trend zie op fora (en dan nog blijft het lastig, je moet dan eigenlijk ook weten hoe vaak een bepaalde GPU verkocht is - mijn vermoeden is da tde meeste high-end kaarten minder vaak verkocht worden en het probleem daarbij dus juist erger is dan het lijkt op basis van het aantal probleemtopics).
Ach ik heb ook 2 kaarten van Nvidia kapot gekregen binnen 2 jaar dus of het echt veel betrouwbaarder? mijn HD5770 die ik pas vervangen heb door een HD7870 doet het nog perfect en ligt op de reserveplank.
De Nvidia kaartjes die ik heb zijn ondertussen naar de gemeentewerf verbannen, terwijl mn HD4350 al bijna 6 jaar trouwe dienst erop heeft zitten. Deze levert nog steeds hele nette prestaties af.
Mooie kaart met uitstekende prijs/kwaliteitsverhouding.

Had graag de benchmarks gezien met de laatste Nvidia driver, performance van de Titan is de afgelopen maanden toch wel vooruit gegaan met de laatste drivers.
Alle Nvidia kaarten in de vergelijking zijn getest met de 327.23 WHQL driver, deze is van 19 September. Helaas heeft Nvidia maandag pas een nieuwe WHQL driver online gezet, waardoor we niet meer de tijd hadden om all Nvidia kaarten met deze nieuwe driver te testen.
Ik snap niet helemaal waarom in de conclusie de R9 290X alleen met de titan wordt vergeleken.

De 780 zit qua prijs een stuk dichter bij, en doet qua prestaties ook niet echt veel onder voor de R9 290X. Zeker als je het energieverbruik over 2 jaar meeneemt in de berekening wordt het verschil in kosten tussen beide kaarten minimaal.
De 780GTX is nu nog minimaal €100 duurder dan de R9 290X volgens de referentieprijs kost, en dat gaat in de realiteit nog een groter verschil zijn. Dan moet de 780GTX toch wat naar beneden in prijs gaan, qua prestaties zit de R9 290X bijna consequent boven die van de 780GTX. En het verbruik mag dan misschien wat hoger zijn, maar dit soort videokaarten is voor wie gewoon stevige framerates wilt. Er werd hiervoor al veelvuldig berekend hoeveel het energieverbruik van de R9 290X extra kost, je moet al echt heel veel gebruik maken van die pc met langdurige hoge belastingen om dat €100 prijsverschil in een relevante termijn goed te maken. Wat het geluid en de looks betreft, OEMs zullen wel koelers gebruiken die minder warm worden en mooier zijn.

Kortom als nVidia het prijsverschil met het energieverbruik wilt goed maken, dan moet de prijs toch nog naar beneden want het verschil is te groot.
De 780GTX is nu nog minimaal €100 duurder dan de R9 290X volgens de referentieprijs kost, en dat gaat in de realiteit nog een groter verschil zijn.
Meh, voorlopig zal de 290x nog schaars zijn, ik zou niet verwachten dat je hem veel goedkoper krijgt dan een 780.
De 780GFX is niet alleen duurder omdat hij veel eerder op de markt is verschenen en toen in feite concurrentie loos was.
Het is ook een heel mooi en degelijk gemaakte kaart, de refentie koeler is bijzonder fraai, ook dit heeft zijn prijs.
De AMD koeler is gewoon een goedkoop stuk plastic.
Omdat de Titan de directe concurrent is, de 780 is bij AmD de 280.
Ik ben onder de indruk van de resultaten van deze kaart. Eindelijk weer een kaart van AMD die zich kan meten en zelfs overtreffen met de huidige Nvidia kaarten.
En wat een mooie introductieprijs als die correct is.
Lijkt me zeker het upgraden waard voor een adviesprijs van rond de 480 euro. Alleen jammer, dat AMD het op powerconsumptie nog steeds aflegt tegen Nvidia.

[Reactie gewijzigd door mystie op 24 oktober 2013 06:21]

Inderdaad, op (bijna) alle vlakken scoort deze kaart beter. Grote kanshebber om de huidige kaart te vervangen.
Maar ik kan AMD wel begrijpen als ze niet de focus leggen op het verbruik.
Zelfde als bij sportwagens, dit soort dingen koop je niet om wedstrijdjes 'om ter minst verbruik' te doen, maar eerst over de finish te komen ;-).
En toch is het jammer dat ze er niet aan denken. De vergelijking naar de sportwagens en dan denk ik aan de F1 is niet helemaal waar, die moeten wel degelijk aan het verbruik denken. In de 24 u races is Audi zelfs begonnen om een zuinige snelle diesel wagen neer te zetten.

Technisch gezien is dit dan ook niet zo een mooie prestatie als de Titan, daar Nvidia én een snel toestel heeft neer gezet én gedacht heeft aan het verbruik. Echter is hun prijs er dan ook naar :)

Maar het verschil is (83 - 75.50) = 7.5 W idle, en (379 - 295.5) = 83.5 W ingame, wat toch best een kost is als je 8 uur per dag gamed (ja er zijn mensen die dit doen).

[Reactie gewijzigd door D.Ramakers op 24 oktober 2013 07:06]

1KW kost ongeveer 22 cent, 1000 / 83,5 = 11,97 uur nodig om te gamen voordat je een kwartje bespaard.

Dat komt neer op 2,08 cent per uur besparing.

Dan moet je dus 37000 centen / 2,08 = 17.788,46 uur gamen om het verschil te besparen.

:o

edit: zo er waren er maar 3 voor mij ofzo haha

[Reactie gewijzigd door Janovic op 24 oktober 2013 11:01]

klopt, maar komt wel allemaal op een vergelijkbaar getal dus de credibility ligt wat hoger.

ruim 17.000 uur gamen om het prijsverschil eruit te halen is een fikse opgave. ik zeg challenge not accepted.

Nu gaan jullie echter wel uit van een adviesprijs van AMD en de daadwerkelijke verkoopsprijs. daar zit echter wel een fiks verschil in. die adviesprijs van AMD kan dus ook lager uitvallen (zal wel meevallen gezien de marge die er is met de Titan. )

dus om even de adviesprijzen te vergelijken: De adviesprijs van de GTX titan ligt ruim 108% (!!!) hoger dan die van de AMD R9 290X terwijl de prestaties gemiddeld zo'n 10% lager liggen. Met en relatief eenvoudige overclock van de de AMD kaart wordt dat verschil zelfs nog groter.
dus om even de adviesprijzen te vergelijken: De adviesprijs van de GTX titan ligt ruim 108% (!!!) hoger dan die van de AMD R9 290X terwijl de prestaties gemiddeld zo'n 10% lager liggen. Met en relatief eenvoudige overclock van de de AMD kaart wordt dat verschil zelfs nog groter.
En de titan mag je niet overclocken?

De 780Ti zal prijs en performance wel weer min of meer gelijk trekken, door de clocks en verbruik op te voeren. nvidia heeft een half jaar flink kunnen verdienen aan de titan en de 780, die prijs gaat vast omlaag binnenkort.
titan mag je ook overclocken, maar door simpelweg je fanspeed naar 50-60% te zetten ipv 40% heb je al een performance winst omdat de PGU mooi op 1GHz z'n werk kan doen. Deze vervolgens ophogen naar 1,1GHz zonder verdere aanpassingen qua voltage en stroomverbruik met een memory clock die ook veel hoger ligt vind ik een redelijk eenvoudig overclock die zelfs voor een leek nog uit te voeren zijn, met de standaard bijgeleverde software.

bij een Titan zit je vaak al gelijk met voltage verhogen en moeilijk doen voor een verhoging van max. 38mV.

de 780Ti zal idd wel fiks zoden aan de dijk gaan zetten (moet ook wel), maar of het hier wat aan kan doen is nog maar afwachten.
Maar als je dan compleet wil zijn moet je ook het verschil in aanschafprijs meenemen, die is ruim €350 hoger dan de Titan. Als je dan uitgaat van een gemiddelde prijs van 23 eurocent per KWh, dan kun je daar ruim 1500 KWh voor kopen. Dat is zowat de helft van het gemiddelde jaargebruik van een gezin in Nederland (~3300KWh).

Je moet dan dus wel heel lang en heel veel op 100% vermogen meer gebruik maken van de Titan t.o.v. de 290X wil je hier een kostentechnisch voordeel uithalen (ruim 17000 uur ).
Voor het milieu hoef je het niet te doen, want als dat een prio is, dan koop je uberhaupt niet zo'n kaart volgens mij.

[Reactie gewijzigd door Killer op 24 oktober 2013 09:44]

Je kan m ook gewoon in 'Quiet-mode' zetten voor een wat minder lawaaierig en agressief profiel. Misschien dat dat al wat scheelt. En zoveel maakt het niet uit qua benchmarks.
Als dat zo weinig scheelt in prestaties denk ik niet dat het stroomverbruik opeens veel beter zal worden.
Hadden ze eigenlijk ook wel in de test mee mogen nemen dan :)
Ik mis ook een beetje de CF en SLI tests.. zijn toch genoeg gamers die dat in hun pc hebben.
Ik denk dat die opties teveel geld kosten of dat de gulle gever niet 2 modellen ter beschikking kon stellen, misschien iets voor in de toekomst.
Klopt, maar uit de review blijkt dat de GPU zelfs met standaard instelling op performance zichzelf nog terugklokt en dat men de fan harder heeft moeten zetten om de GPU netjes op 1GHz continue te laten tikken. En dan wordt het volgens mij allemaal wel een beetje lawaaiig. En zelf vind ik dat heel vervelend, dus wacht ik liever op een model met betere koeler.
De enige reden dat in F1 naar verbruik gekeken wordt, is dat er geen constante brandstoftoevoer is - die auto moet het doen met een tankje aan boord, en hoe zuiniger die auto is, hoe langer je op die tank kan rijden, of hoe kleiner die kan zijn.

Een videokaart hoeft daar niet naar te kijken. Als je een F1 auto zou kunnen bouwen die niet afhankelijk is van een brandstofvoorraad, dan gaat die zuinigheid ook gelijk het raam uit.
ergends zou een lager verbruik netjes zijn, niet alleen voor de rekening en het mileu, maar ook voor het overclock potentieel, AMD heeft duidelijk een kleinere chip en die wordt dus heter om daar dezelfde/meer performance uit te persen.

laten we wel zijn als je high end gaat dan zoek je power en dan is dit niet het belangrijkste, en op een rig van 500-600 watt maakt die 50 ook niet zoveel meer uit...

de performance is in elk geval dik in orde, wat ik ook interessant vind is dat een 10% overclock vooral echt winst laat zien bij de minimale framerates!
zoveel fps er bij de gemiddelde FPS bij komt komen er ook bij de minima bij, dat is wel erg prettig! en de 480 eruo is gewoon een heerlijke prijs, ik ben benieuwd hoe Nvidia dit gaat (proberen) te counteren.

een GTX 780Ti werd al gesuggreerd, mogelijk dan een pricedrop voor de 780 om die op gelijke rijsniveau te brengen. maar erg interessant.
zou alleen voor de volgende keer graag GPU compute benchmarks zien, zoals luxmark, of Houdini's pyro tools (opencl)

edit: hier zijn een paar benchmakrs van anand op Compute gebied:
http://www.anandtech.com/...-radeon-r9-290x-review/18

edit2:
ook interessant zijn de benchmarks van Battlefield 3 op 4K, niet alleen de meeste FPS maar ook met afstand de kleinste frametime delta, oftewel geen 55 snelle frames en dan een hapering. maar erg vloeiende renders.
http://www.anandtech.com/...-radeon-r9-290x-review/11

[Reactie gewijzigd door freaq op 24 oktober 2013 07:30]

Hoewel AMD niet in alle benchmarks de snelste is, kan Nvidia op een gebied echt niet tippen aan AMD. Dat is de adviesprijs van 480 euro, die AMD aanhoudt. Een GTX Titan kostte bij introductie 1000 euro en die prijs is ondertussen gezakt naar 850 euro; nog altijd 370 euro meer dan een 290X. Tel daar nog eens bij op dat het vrij eenvoudig is om een 10 procent overklok te realiseren en er is op dit moment weinig reden om nog voor een Nvidia-kaart te gaan. De Titanenstrijd is dus gestreden en 290X lijkt als een moderne Olympiër de Titan in de tartarus te smijten.
De Titan is feitelijk een hele andere klasse videokaart dan de 290X. De werkelijke concurrentie in dit segment komt van de GTX780.
De Titan is zo duur omdat het in feite een (semi)professionele Tesla kaart is met bijzonder goede FP64 computing performance, welke er voor games niets toe doet maar in de professionele wereld gebruikt wordt. Iets waar de 290X dus niet over beschikt... Dat de Titan en de 290X ook beide games kunnen doen is nog geen reden om de 2 kaarten qua prijs te vergelijken alsof ze in hetzelfde marktsegment zitten.

De conclusie is heel enthousiast, maar wat AMD hier neerzet in vergelijk met de GTX780 is eigenlijk niet echt bijzonder. De 290X performt qua games in principe vrijwel gelijk met de 8 maanden oude Titan, en gemiddeld iets van 10% sneller dan de 6 maanden oude GTX780. Dit is niet meer dan logisch: AMD heeft de 290X uiteraard dusdanig geklokt dat die het huidige nVidia aanbod net aan verslaat. Maar daarvoor verbruikt de 290X in game wel ruim 25% meer vermogen (80Watt) dan de nVidia kaarten.
Titanenstrijd gestreden? In Tartarus gesmeten? Kom op nou zeg... De contra-move van nVidia is volkomen voorspelbaar: pricedrop op GTX780 en "GTX780 Ti" / "GTX785" uitbrengen met de (game)specs van de Titan en een iets hoger voltage/verbruik, op ~10-20% hogere clocks. En het gameperformance-stuivertje is vervolgens direct weer gewisseld...
Klinkt wellicht wat cynisch, maar beetje teveel 'gaap' dit om zo wildenthousiast over te doen ;)

[Reactie gewijzigd door Cheetah op 24 oktober 2013 15:56]

Ik ben in de verste verte geen gpu expert, maar iedereen praat hier over dat de Titan eigenlijk meer gericht op compute berekeningen (FP64) en daarom zo'n hoge prijs heeft. Wanneer ik echter deze site bekijk (http://www.sisoftware.co.uk/?d=qa&f=gpu_finance_fp64) kun je voor dergelijke toepassingen beter een HD7970 kopen. Die is qua performance gelijk en kost meer dan 3x minder. Wanneer je er hier dan 3 van in Tri-Fire zet blaas je de Titan toch helemaal weg?

Of sla ik nu de plank helemaal mis? Kan iemand dit ophelderen?
Ik vind het zo apart, want op Guru3D zie je totale andere FPS in spellen, tussen de AMD Radeon R9-290X en NVIDIA Geforce GTX Titan, daar is de Geforce GTX Titan in 1920x1080 en 2560x1440 in Battlefield 3 en Crysis 3 sneller, en ook in Anandtech, al is het maar een paar FPS.

Guru3D

Anandtech

Maar verders wel een leuke review.

[Reactie gewijzigd door AmigaWolf op 24 oktober 2013 19:09]

En bij TH is de 290x toch zeker wel sneller ook bij nvidia titels.

http://www.tomshardware.c...x-hawaii-review,3650.html
dat is niet helemaal waar de 290X beschikt net als de 7970 (GHZ) over enorm goede compute performance, de 7970 verslaat zelfs regelmatig de Titan al, en de 290X gaat daar dik overheen.

ik weet iet in hoeverre AMD haar kaarten kortwiekt, maar zover ik weet is dat significant minder dan Nvidia dat doet,

verder ben ik het met je eens, Nvidia dropt gewoon de prijs van de 780 om de 290X te matchen en launched de 780TI voor de huidige prijs van een 780 en is weer competitive en heeft de performance kroon weer te pakken.

desalniettemin is het knap om met een kleinere die de performance lead te pakken. energie verbruik is een nadeel maargoed, je koot deze kaarten niet om zuinig te zijn.

edit spelling

[Reactie gewijzigd door freaq op 25 oktober 2013 03:05]

Vergeet Driver optimalisatie niet mee te nemen. Het duurt wel een of twee updates voor het helemaal tip top werkt (wat de drivers betreft)
Eerste driver versies zijn nooit 100 (geen enkele eigenlijk) en ik heb zelf enorme frames winsten(+ stabiliteit) behaald met nieuwe drivers alleen.
Wat iig wel al ge fixed is in de driver, is micro stutters, in een vergelijk met een paar GTX 780 in SLI, deed de 290X CF het een stuk beter, zo wel in FPS als in frame time.

PC-perspective deed zowel CF als Eyefinity testing, en de CF setup versloeg de SLI setup in alle tests, alleen DX9 games kunnen nog wel behoorlijk wat werk gebruiken, daar waren de frame time verschillen nog wel behoorlijk groot.

Het slechte nieuws voor gebruikers van 7000 series of ouder, is dat het er op lijkt dat micro stutter iig voor een groot deel ook hardware gerelateerd is!

Wat ook slecht nieuws is, maar dan voor nVidea, is de prijs, en de prestaties, ik denk zelf dat het mogelijk is dat nVidea zelfs de GK110 niet kan verkopen voor deze prijs, daar hun GPU 30% groter is, en daar door veel minder goede dies uit een wafer kan halen, en het percentage goede die's verminderd exponentieel met de grote van de die.
nVidea heeft wel het voordeel van een 2de stepping en een langere productie run.
Ik denk dat je het dan ook moet zien als een tock-tock gegeven... dit is de introductie van een volledig nieuwe GPU, de volgende generaties wordt dan weer geoptimaliseerd. Dat doen Nvidia en AMD beide al jaren...
En toch is het jammer dat ze er niet aan denken.
Alsof ze dat niet doen/proberen? Het lukt ze waarschijnlijk alleen niet, of ze hebben de kosten laag gehouden door een kleine chip met hoge snelheid te gebruiken (goedkoop) ipv een grotere chip op lagere snelheid (duur)...

Het is niet zo dat ze zich er totaal niet mee bezig houden zegmaar :D
Hoger energieverbruik is op zich niet wenselijk. Maar ook al zou je zo veel gamen als jij dat stelt kost je die 83,5W x 8 uur per dag x 365 dagen ongeveer 244kWh en dat is €56 per jaar. Moet je jaren 8 uur per dag gamen om dat verschil er financieel uit te halen.
Ik denk dat de die-hard gamer wel kan besparen op de verwarming in de kamer, met een trui aan gamen,of dichtbij de kast gaan zitten met in-ear hoofdtelefoon tegen het geluid.
Nou, als je dat doortrekt valt het nog wel mee, je zit dan op nog geen kW per dag meer. Da's 22 tot 24 cent per dag.

Ik denk dat je daar wel overheen komt, ook op jaarbasis. Als je het namelijk op 300 dagen berekend zit je op 66.- tot 72.- euro.Per jaar. :+
Als je 8 uur per dag games,hoe wil je dan geld verdienen om deze kaart te kopen? :P

Er zullen vast mensen zijn die dat doen, maar niet genoeg omdaar serieus rekening mee te gaan houden, zeker niet in je conclusie imo.
professionnele gamers ^^
8 uur werk
8 uur gamen
8 uur slapen
_
24 uur
Dan is ie na paar dagen bijna dood. :+
Voeg maar ook even 1 a 2 uur erbij voor eten maken en boodschappen doen.

Wordt dus 6 a 7 uur gamen voor meer realiteit voor hardcore gamer.
maar in het weekend kan je je gameachterstand inhalen :P
Wat dacht je van alle youtube gamers, videomaker enz. die spelen regelmatig 8 uur per dag, de wat jongere lui die nog op school zitten is dat ook niet onmogelijk. 8 uur naast een fulltime baan is wel heel lastig.
Voor de prijs van een Titan zet je bijna 2 van deze jongens in je PC in crossfire BAM!
Overdrijven is ook een vak. Een titan kan je krijgen voor 850,-. De 290X zie ik maar 1 prijs van en dat is 600,-.
Nou, hij heeft wel een punt. Die ene prijs is bij een winkel die de kaart niet kan leveren, dus vrij nietszeggend, en als je de huidige prijs van de Titan, jouw €850, neemt, en die vergelijkt met de adviesprijs van de 290X, namelijk €480, dan scheelt het ineens niet zoveel meer. Je hebt het dan over €960 (wat waarschijnlijk lager gaat uitvallen) vs €850 (die ws ook wel naar beneden zal gaan, als nVidia slim is).

De vraag is dan voor welke prijs ze in de winkel komen te liggen (ervaring leert dat het meestal lager is dan de adviesprijs) en wat nVidia daarmee doet (waarschijnlijk de prijs verlagen).

Nog een puntje wat niet vergeten moet worden, is hoe deze kaarten schalen, en dat is bij AMD niet echt een sterk punt. AMD kaarten in Crossfire schalen meestal wat minder dan nVidia kaarten in SLI.

[edit] Het schijnt dus dat de schaling bij deze kaarten wel goed is. Dat valt dan weer mee. Maar het punt van dat het overdrijven door ro8in wel meevalt, die blijft staan :)

[Reactie gewijzigd door mvds op 24 oktober 2013 13:45]

Nog een puntje wat niet vergeten moet worden, is hoe deze kaarten schalen, en dat is bij AMD niet echt een sterk punt. AMD kaarten in Crossfire schalen meestal wat minder dan nVidia kaarten in SLI.
Dan zou ik de review van Anandtech maar eens doorlezen, Crossfire schaling is enorm goed. Op hoge resoluties rent hij rondjes om een GTX780 SLI setup. Je ziet in een aantal gevallen dat hij op "lage" (2560x1440) resoluties tegen een CPU bottleneck loopt in Crossfire.

http://anandtech.com/show/7457/the-radeon-r9-290x-review
Schaling is 1.87 voor 2 kaarten, zoals je terug kan vinden in de AMD slides van de presentatie.
Prijs is 550 euro inc bf4, en de prijs zal zeker nog wel iets zakken van de 290x, bij een release is deze altijd nog paar euro's duurder.
ik ben eerlijk gezegd niet echt onder de indruk , de geruchten waren zo positief
en dan heb je dan een kaart die een beetje tussen 780 en titan bengelt.
en al zeker dat ik denk dat de 780 in de tests gewoon een reference exemplaar is
neem er eens een factory OC kaart erbij en de resultaten zien er minder rooskleurig uit
gelukkig is de prijs een positief punt
ik heb niets tegen AMD maar ik had meer verwacht

kijk als ik nu een MSI GTX 780 lightning koop en OC de gpu naar 1250 en memory naar 6500
dan heb bijna evenveel Floating-point performance en bandwidth als een R9 290X
en ben ik beter dan een titan
en ook bovendien stiller }>

btw dat ben ik van plan :9

Edit hij is beter dan de Titan excuseer (in de ochtend ben ik waardeloos) :+

[Reactie gewijzigd door nvidia666 op 24 oktober 2013 21:16]

In bijna alle gevallen steekt hij boven de Titan uit hoor. En dat voor de helft vd prijs. Weet niet welke review jij hebt gelezen?
zie excuses hierboven ;)
waarschijnlijk de grafieken verkeerd gelezen in mijn halve slaap
en het is te hopen dat de driver nog meer performance geeft en de titan helemaal naar huis schopt
en btw eigenlijk mogen we niet vergelijken met titan maar met gtx 780
en eerlijk gezegd zou ik daar graag een factory OC gtx 780 willen zien in de grafieken zoals een lightning :)

[Reactie gewijzigd door nvidia666 op 24 oktober 2013 21:20]

Nou de 290x heerst op prijs. Die manco over compenseren.
Tenzij 780 stuk goedkoper wordt en 780 ti beetje duurder dan de 780 wordt maar met ietsje meer dan titan performans en de titan eol.

Maar de kasrt is net uit met release prijzen.

De manco meer vermogen houd in meer warmte ontwikkeling met mindere reference koeler.

Nou de custom 290x mischien wel stuk later. Maar je pakt twee min punten aan. Maar dan ook met meer prijs.
Die custom en fab oc 780 zijn ook duurder dan de reference 780.
En 290x speciale edities uiteraard ook.

Maar mooie is met betere koeling kan hij stiller maar ook zijn 1Ghz 95 grade limiet beter stand houden eer het gaat terug klokken.
En met betere componenten mischien ook wat exemplaren met stuk. Sneller geheugen. Nog betere uhd performance.

Bij enkele games krijg je nog mantle boostje of boost.

Ik denk dat ik wacht en mischien begin 2014 mijn AMD systeem ga upgraden.

Zelf heb ik geen probleem met lawaai. Maar dat licht meer aan mijn situatie.
Ik game in de woonkamer. Tering herrie wordt dan overstemt door geklets TV en de tv kijkers. En dan doet lawaai er nauwelijk toe.

Maar voor wie wel. Dan is wachten op het compleet beeld.

Dus custom 290x en stabilere straat prijsjes
En mantle wat brengt het.
En 780 Ti en nV 780 en titan prijs reactie hier op.

Bij de 290x is goede koeler crusiaal als die stilletjes met gemak de chip onder de 95 graden kan houden ook onder extreem duurlast. Eventueel met overklokje.

De situatie is nu zo dat deze release de markt beetje overhoop gooid en dus de boel ook moet stabiliseren. Nu een top kaart kopen zou voor beide fans een slechte keuze zijn. Voor nV geheid dat je dan te veel betaald en de 780 ti antwoord mist.
En AMD fan met gkaart met de mindere reference cooler zit.

Ondertussen ook kijken naar hoge reso monitor.
beetje zonde om 290x op FHD los te laten.
Die 290x zal hier toch wel 2 tot 4 jaar dienst doen.
En de volgende upgrade zal gtx580 vervangen worden door iets van nV uit de maxwell lijn in de wat verdere toekomst.
Sorry maar wat heb jij genomen? Ala je gewoon wacht koop je een non ref design van een 290x. Ik denk dat jij gewoon een nvidia fanboy bent er een onderuit probeert te komen dat deze kaart gewoon beter is.
480,- dat is scherp geprijst. Zelfs de meest veeleisende NVIDIA gebruiker krabt zich nu toch wel even achter de oren :P
De 1e prijzen zijn anders gezet op 620,- bij bedrijven proberen weer extreme marges te behalen.
Mooie review! Echter is het niet helemaal eerlijk om de Titan met de R9 290X te vergelijken op prijsniveau. Gamers halen natuurlijk altijd een normale GTX 780.
Als aanhanger van het AMD GPU kamp wordt het voor mij nu wachten op een kaart met factory overclock van 10-15% en een mooie aftermarket cooler. :Y)
Echter vind ik het inderdaad wel zeer spijtig dat men niet nog meer heeft gedaan mbt het energieverbruik bij de idle power state etc.
Achjah... wie weet is er over een jaar alweer een refresh welke betere stroomverbruik cijfers heeft en upgraden we wederom maar opnieuw (we zijn tenslotte tweaker :P ).
Integendeel, het is eerlijker en juist logisch.
Je vergelijkt in eerste instantie op prestatie. Daar is de 290x vaak superieur aan de Titan. Er vergelijkt niks anders met de 290x dan een Titan. De 780 ligt er nog verder vandaan.
Als je dan nog eens naar de prijs kijkt schrik je je een hoedje en mag de Titan wel van goud zijn.

Als je vergelijkt op wat het kost dan wint de 290x weer want de 780 is te duur en ga je meer naar de 770, die niet eens in hetzelfde rijtje thuis hoort.
Vanuitgaande dat de eerste periode geen factory overclocked versie van de kaart te koop zal zijn en dat het gros van de normale gebruikers en gamers zich niet zal wagen aan overclocken is de GTX 780 nog steeds sneller in games als FarCry 3 en Crysis 3.
Begrijp me overigens niet verkeerd... ik heb zelf al jarenlang AMD kaarten en ben er erg over te spreken (dus ik speel een beetje advocaat van de duivel nu). :)

Dan nog, klopt het inderdaad wel dat de GTX 780 duurder is dan de verwachte prijs van de R9 290x (zeker aangezien die waarschijnlijk ivm de concurrentie van e-tailers tegenwoordig 1-2 weken na de launch nog een stukje zal zakken).
Maar dan nog vind ik de 1op1 vergelijking met een GTX 780 realistischer dan met een Titan. 95% of zelfs meer van alle nvidia afnemers zal geen Titan in zijn game PC hebben hangen. :)
Plus dat de Titan eigenlijk niet eens een gamerskaart is, ook al kan ie er best in mee doen met zijn prestaties. Zoals vaker genoemd is de Titan eigenlijk een consumentenversie van een professionele Tesla kaart, gericht op keiharde FP64 performance.

Zo zie je dan ook in de verschillende (meer gedetailleerde) reviews van vandaag dat de Titan hier nog met kop en schouders boven uitsteekt. Wat natuurlijk ook niet gek is, als je bedenkt dat de doelgroep van Titan oorspronkelijk niet op gamers is gericht. Enkel OpenCL computing pakt AMD beter op, maar dat is al langere tijd zo.

Een GTX 780 is daarom ook veel logischer om mee te vergelijken, qua prijs/prestatie en de doelgroep. Het is frappant te noemen dat reviewers telkens zo terug grijpen naar een kaart van eigenlijk een andere doelgroep.
Echter vind ik het inderdaad wel zeer spijtig dat men niet nog meer heeft gedaan mbt het energieverbruik bij de idle power state etc.
Er is nog geen 10 Watt verschil tussen de concurrenten. Beweren dat er niet genoeg inspanning is gedaan naar het inperken van de energieconsumptie is toch wel kort door de bocht. Wat perspectief: een gemiddelde microgolfoven gebruikt 1 kW, een snelle kijk in pricewatch toont ons dat wasmachines tussen de 0.5 - 6 kW verbruiken. Soortgelijke resultaten vinden we voor afwasmachines.
Beweren dat er niet genoeg inspanning is gedaan naar het inperken van de energieconsumptie is toch wel kort door de bocht.
Kijk, dit vind ik dan het mooie aan de hele Red vs. Green oorlogvoering...je begrijpt me lichtelijk verkeerd. :)
Ik doel namelijk niet op het feit dat er niet genoeg aan gedaan zou zijn ten opzichte van de concurrentie maar juist vanuit het oogpunt innovatie en technologie verbetering!
Bij mijn huidige 7970 was dit tijdens de launch een mooie nieuwe feature en daar betrof het ook, AMD's single-gpu vlaggenschip model!
Nu, bij de R9 290x is er van een eventuele verbetering op dit gebied haast geen sprake en dat mag toch wel voor de architectuur die na grofweg 2 jaar eindelijk de HD7### serie moet opvolgen vind ik. :)

[Reactie gewijzigd door Da_maniaC op 24 oktober 2013 12:40]

Concurrentie is de drukker van innovatie en technologie verbetering. Maar minder energiegebruik betekend voor het high end model een hogere clock en dus betere prestaties.

Welke energiesparende feature zit er in deze generatie niet in dat er in de vorige wel inzat, Welke energiebesparende feature is niet verbeterd ?

[Reactie gewijzigd door goarilla op 24 oktober 2013 13:12]

Met het verschil dat je magnetron 5 minuten aanstaat om een AH kant en klaar maaltijd op te warmen en je wasmachine ook niet continue 6kW verstouwt :)
Je wasmachine verbruikt echt niet continue die 1kW. Meeste energie gaat zitten in het opwarmen van het water. Als het eenmaal warm is hoeft ie het alleen warm te houden. Per wasbeurt ben je ongeveer 0.5 kWh kwijt (40°C). Dat is anderhalf uur gamen met het systeem, of 6 uur idle. 4 uur per week wassen is 2 wasbeurten, dus maar 12 uur :). Het hangt ook nog af van de temperatuur van je leidingwater natuurlijk.
Ik denk dat ik wacht tot de 780 goedkoper word. De koeler op de highend Nvidia kaarten is toch een heel stuk beter dan het oude fandesign wat AMD nog steeds hanteert. Ook heb ik geen zin in 3 slots koelers van 3e partijen.

Een groot deel van het plezier wat je uit een grafische kaart haalt lijkt me ook deels afhankelijk te zijn van het geluid wat geproduceerd word?
Net alsof asus, gigabyte, msi, sapphire de stock cooler gaan gebruiken.
Ja maar deze partijen mogen volgens geruchten niet tot 2014 hun kaarten uitbrengen.

Bron:

http://www.youtube.com/watch?v=-lZ3Z6Niir4
Dat is belachelijk, waarom doen ze dat.
misschien om in zo kort mogelijke tijd zo veel mogelijk gpu's in de winkel te krijgen.
Om dan de R9 290X zijn reputatie om zeep te halen wanneer
de defekte modellen (overhitte) terugvliegen. Gevaarlijke tactiek in mijn ogen.
Geen idee, maar ze zorgen er iig wel voor, wanneer het waar is, dat ik dan weer naar de 800 serie ga kijken die in Q1 uitkomt.
Echt no way dat ik een reference kaart ga kopen. Na de xfx gts250 heb ik mijn lesje wel geleerd, m'n oren suizen nog :+
Deze gast heeft nog wel iets meer te zegen over de nieuwe AMD...............
In feite is zijn conclusie: Niet aan beginnen.
Een groot deel van het plezier wat je uit een grafische kaart haalt lijkt me ook deels afhankelijk te zijn van het geluid wat geproduceerd word?
haha serieus.. dat is voor jouw een groot deel van het plezier?

Het is natuurlijk fijn als hij stil is, maar mijn plezier gaat echt niet naar beneden als hij minder stil is (game ook met headset op)

klinkt meer of je gewoon voor je zelf een reden wil verzinnen om voor de 780 te gaan (wat natuurlijk prima is)
Ja en dat is dus het probleem, jij gamed met een headset op.

Ik heb mijn pc in de woonkamer staan met een 5.1 set. Als er dan een stofzuiger aan gaat houd het op.
Dan zou ik niet voor high-end gaan en proberen je systeem zo fan-loos mogelijk te maken als dat een groot deel van je beleving is. Je ziet aan de resultaten toch ook dat de resultaten bij 1080p overkill zijn, het Is met wat minder ook mogelijk. En het is toch niet alsof de GTX 780 fluisterstil is.
80W meer (zal mss nog een klein stukje cpu bij zitten) dan de 780 en titan, als nvidia de 780Ti ook zo gaat pushen zal die het gat in performance waarschijnlijk wel dichten.

Dan is het nog wachten tot de nieuwigheid van de kaarten eraf is, en dan kunnen de prijzen eindelijk omlaag. :Y)
Hoezo precies een "klein stukje CPU"? Zoals ik het lees op de "Testsysteem" pagina zijn alle kaarten opnieuw op dit systeem getest. Daarvan uitgaande zijn de verschillen in verbruik dus het echte verschil door toedoen en gebruik van een andere grafische kaart.
Bij hogere fps moet de cpu (en memory) ook iets harder werken.
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True