Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Jelle Stuip

Redacteur laptops en componenten

Nvidia GTX 980 Review

Zuinigheidskampioen op 28nm

Inleiding

In maart 2012 introduceerde Nvidia de GeForce GTX 680, die voorzien was van een nieuwe gpu, gebaseerd op de nieuwe Kepler-architectuur. Kepler bleek een lang leven beschoren, want de GK104-gpu uit de GTX 680 kwam terug in de GTX 770. Bovendien ontwikkelde Nvidia op dezelfde architectuur de monsterlijke GK110-gpu, bestaande uit 7080 miljoen transistors, die voor het eerst in de GTX Titan te verkrijgen was.

In februari 2014 bracht Nvidia de opvolger van Kepler, genaamd Maxwell, op de markt. Opvallend was dat de nieuwe gpu werd gebruikt voor de GTX 750 Ti, een midrange-videokaartje. Maxwell bleek vooral op energiezuinigheid te scoren en de 750 Ti was dan ook niet voorzien van een peg-6-stroomaansluiting, maar betrok al zijn energie van het pci-express-slot.

Acht maanden later heeft Nvidia eindelijk een Maxwell-gpu gebouwd voor high-end videokaarten. De GM204-gpu zal in eerste instantie in de GeForce GTX 970 en de 980 zijn opwachting maken. Van Nvidia ontvingen we een GTX 980, die we uiteraard uitgebreid getest hebben. De GTX 970 komt binnenkort terug in een round-up.

Nieuwe gpu op een oud procédé

De GTX 980 is in de afgelopen tijd regelmatig onderwerp van geruchten en voorspellingen geweest. Een afbeelding van de GTX 980 toonde een videokaart met slechts twee zespinsaansluitingen, terwijl de meeste high-end videokaarten een zes- en een achtpinsaansluiting hebben. Dat voedde het gerucht dat Nvidia zijn GM204-gpu op 20nm zou laten bakken, maar dat blijkt niet het geval te zijn. Maxwell wordt nog gewoon op 28nm gebakken. De twee zespinsaansluitingen kloppen wel en Nvidia geeft dan ook een tdp van slechts 165 watt op voor de snelste Maxwell-kaart.

GTX 780 TiGTX 970GTX 980
Architectuur Kepler (GK110) Maxwell (GM204) Maxwell (GM204)
SM(X) units 15 13 16
Cuda-cores 2880 1664 2048
Transistors 7,1 mld 5,2 mld 5,2 mld
Klokfrequentie 876MHz 1050MHz 1126MHz
Boostfrequentie 928MHz 1178MHz 1216MHz
L2-cache 1,5MB 2MB 2MB
Geheugengrootte 3GB 4GB 4GB
Geheugenbus 384bits 256bits 256bits
Geheugensnelheid 7GHz gddr5 7GHz gddr5 7GHz gddr5
Bandbreedte 336GB/s 224GB/s 224GB/s
Rops 48 64 64
Tdp 250W 145W 165W

Op papier is de Maxwell-gpu een stuk minder complex dan de GK110-gpu die Nvidia in zijn vorige topmodellen gebruikte. De gpu is uit minder transistors opgebouwd, heeft minder cuda-cores en ook de geheugenbus is smaller. Aan de andere kant zijn de kloksnelheid en het aantal rops er wel op vooruit gegaan.

SMX-unit (Kepler), SM-unit (Maxwell), GM204

Toch is de GTX 980 ruimschoots sneller dan de GTX 780 Ti, onder andere door de verbeterde SM-units. De GTX 980 beschikt over zestien SM-units, die weer bestaan uit 128 cuda-cores. Iedere SM-unit is verdeeld in vier processing blocks bestaande uit 32 cores, die hun eigen scheduling en instruction buffering voor hun rekening nemen, waardoor de gpu efficiënter gebruikt kan worden dan bij voorgaande architecturen.

Een andere manier om de prestaties op te krikken is memory compression of beter gezegd het comprimeren van de data die naar het geheugen wordt geschreven. Maxwell maakt gebruik van Nvidia's derde generatie delta color compression, waarbij verschillende lossless compressiealgoritmes gebruikt worden. Er wordt bijvoorbeeld gekeken naar blokken van 4x2 pixels. Als de kleur in alle acht pixels dezelfde is, kan de data met een compressie van 8:1 opgeslagen worden. Lukt dat niet, dan wordt er naar een blok van 2x2 pixels gekeken, waarvan de data alsnog met een 4:1-compressie kan worden opgeslagen. Ook kleine kleurverschillen tussen pixels kunnen gecomprimeerd worden, door niet de waarde per kleurkanaal apart op te slaan, maar alleen het verschil tussen de twee pixels weg te schrijven.

Dankzij betere geheugencompressie zou Maxwell gemiddeld 25 procent minder bytes per frame uit het geheugen hoeven halen dan Kepler. Volgens Nvidia is het 7GHz-geheugen van Maxwell daarom effectief te vergelijken met Kepler-geheugen op 9,3GHz.

Nieuwe features, nieuwe aansluitingen

Dynamic super resolution

DSRMet Maxwell introduceert Nvidia ook nieuwe softwarematige features, die de beeldkwaliteit moeten opkrikken. Een daarvan is dynamic super resolution. Dsr is in de GeForce Experience-software te activeren en kan een game op een hogere resolutie renderen dan de native resolutie van je scherm. Vervolgens wordt de resolutie met behulp van een filter teruggeschaald naar die van je beeldscherm.

Heb je een full-hd-scherm, dan kun je ervoor kiezen om de game op bijvoorbeeld 2560x1440 pixels of 3840x2160 pixels te laten renderen. Dat betekent dus ook dat je videokaart die extra pixels moet kunnen berekenen. Dsr is dus alleen interessant als een game al goed draait en je wat wil inleveren op je framerate voor extra beeldkwaliteit. We hebben dsr zelf geprobeerd in Battlefield 4, maar waren niet onder de indruk van het resultaat.

Battlefield 4 met dsr (links) en zonder

De twee linkerscreenshots hebben we zelf gemaakt en het verschil tussen dsr aan en uit valt nauwelijks te zien. In de twee rechterscreenshots, afkomstig van Nvidia, is de toegevoegde waarde van dsr wel goed te zien in de bladeren van de drie palmbomen, die er beter uitzien met dsr ingeschakeld. De effectiviteit van dsr kan per game verschillen, maar van een enorme vooruitgang in beeldkwaliteit lijkt in ieder geval geen sprake te zijn. Voorlopig is dsr alleen te gebruiken op Maxwell-videokaarten, maar in de toekomst zullen Kepler-kaarten de optie ook ondersteunen.

VXGI

VXGI staat voor voxel global illumination en is een combinatie van nieuwe algoritmes en hardwarematige versnelling van global illumination, die Nvidia in de Maxwell-gpu heeft geïmplementeerd. Global illumination heeft te maken met de manier waarop objecten licht reflecteren. In de echte wereld worden objecten verlicht door een combinatie van direct licht, dat afkomstig is van een bepaalde lichtbron en door indirect licht, dat afkomstig is van andere objecten die licht reflecteren. Voor videokaarten is de directe verlichting van een object vrij makkelijk te berekenen, maar indirect licht is veel complexer.

VXGI versnelt global illumination door geometrische objecten in voxels om te zetten. Vervolgens wordt in iedere voxel opgeslagen hoe het object op licht reageert. Daar bij wordt onder andere informatie over de ondoorzichtigheid en de mate van lichtweerkaatsing opgeslagen. Dankzij die voxelization kan er vervolgens met behulp van cone tracing in realtime de reflectie van een object worden gerenderd.

Voxelization is een gpu-intensief process, waarbij voxels van dezelfde objecten vanuit verschillende hoeken geanalyseerd moeten worden. Maxwell versnelt dat process hardwarematig met behulp van een een techniek die Nvidia ‘Viewport Multicast’ genoemd heeft. Daarnaast zorgt een alternatief algoritme genaamd ‘Conservative raster’ ervoor dat de hardware met hoge precisie kan berekenen welk deel van de voxel door het object wordt ingenomen. Dankzij de hardwarematige versnelling zou de voxelization performance van de Maxwell-gpu in ‘San Miguel’, een populaire testscene voor global illumination-algoritmes, verdrievoudigen.

H265-codering

De nieuwste Maxwell-gpu's hebben ondersteuning voor het coderen van video met behulp van de h265-codec. H265 kan dezelfde videokwaliteit als h264 bieden, maar dan in grofweg de helft van de bandbreedte. Dat is bijvoorbeeld interessant voor het streamen van je gameplay naar diensten als Twitch of voor het opslaan van het spelen met behulp van Shadowplay. Over de hardwarematige decodering van h265-video werd met geen woord gerept en we gaan er dus vanuit dat de nieuwe gpu dat niet ondersteunt.

Aansluitingen

Tot slot heeft Nvidia de GTX 980 ruim in de aansluitmogelijkheden gestoken. Het reference design is voorzien van een dvi-aansluiting, drie displayport 1.2-aansluitingen en hdmi 2.0. Vooral naar die laatste mogelijkheid werd uitgekeken door bezitters van 4k-televisies die door hdmi 1.4 op een vernieuwingsfrequentie van 30Hz worden gelimiteerd.

GTX 980 pcb

Testsysteem en drivers

Bij het testen van videokaarten maken we altijd gebruik van hetzelfde testsysteem, gebaseerd op het Intel X79-platform. De overstap naar het X99-platform laten we nog even zitten, omdat de meeste games niet profiteren van de twee extra cores die een Core i7-5960X kan bieden en meer profijt hebben van de hogere kloksnelheid van de i7-4960X.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 4960X @ 4,4GHz
Geheugen Kingston HyperX KHX1866C9D3K4/16GX
Ssd Kingston HyperX 240GB
Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750
Besturingssysteem Windows 8.1 Enterprise
Monitor Dell U2713H
IIyama ProLite B2888UHSU

We hebben de GTX 980 met de GTX 770, 780, Titan en 780 Ti vergeleken. Bij het benchmarken van de 980 hebben we gebruikgemaakt van Nvidia's eerste driver die geschikt is voor de GM204-gpu, met versienummer 344.07. De kaarten met Kepler-gpu's hebben we getest met behulp van de laatste publiekelijk beschikbare driver, met versienummer 340.52. De AMD-videokaarten zijn getest met behulp van de 14.7-bèta-driver. Gedurende het benchmarken van de R9 290 en R9 290X hebben we de limiet van de ventilatorsnelheid op 100 procent ingesteld, waardoor de gpu zichzelf niet terugklokt tijdens het testen, wat consistentere testresultaten oplevert en eventuele temperatuurwisselingen in de testruimte niet van invloed zijn op het eindresultaat.

Naast de synthetische benchmarks 3DMark en Unigine Heaven gebruiken we een vaste set games om benchmarks mee te draaien. De GTX 980 is geschikt voor hoge resoluties, zoals 2560x1440 pixels, maar omdat 1920x1080 pixels de meest gebruikte schermresolutie is, testen we ook op die resolutie. En omdat we sinds kort een 4k-monitor hebben, testen we ook op 3840x2160 pixels. Dat doen we voorlopig nog met slechts twee games, omdat gamen op 4k nog steeds niet echt soepel loopt, zelfs als we de instellingen wat terugdraaien.

Synthetische benchmarks

We trappen de benchmarkresultaten af met 3DMark en Heaven. In 3DMark draaiden we de Fire Strike-test, die bedoeld is voor snelle videokaarten.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
Nvidia GTX 980
*******
12755
AMD R9 290X
******
11398
Nvidia GTX 780 Ti
******
11242
Nvidia GTX Titan
******
10602
AMD R9 290
******
10559
GTX 780
*****
9717
MSI R9 280X
*****
8573
Nvidia GTX 770
****
7750
R9 285 (stock)
****
7668

In 3DMark laat de GTX 980 meteen al zien dat we echt met een nieuwe generatie videokaarten te maken hebben. De score van de 980 ligt ongeveer dertien procent hoger dan die van de 780Ti en twintig procent hoger dan die van de GTX Titan. Daarmee wordt een flinke voorsprong genomen op de 700-serie en de 290-serie van AMD.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
Nvidia GTX 980
*******
2904,00
Nvidia GTX 780 Ti
******
2682,00
Nvidia GTX Titan
******
2385,00
AMD R9 290X
******
2296,00
GTX 780
*****
2243,00
AMD R9 290
*****
2209,00
MSI R9 280X
****
1759,00
Nvidia GTX 770
****
1668,00
R9 285 (stock)
****
1496,00

Hetzelfde blijkt uit de Heaven-benchmark, waarin Nvidia-kaarten het meestal wat beter doen dan AMD-videokaarten. De 980 is acht procent sneller dan de 780 Ti, die op zijn beurt weer twaalf procent sneller is dan de GTX Titan.

Battlefield 4 en Crysis 3

Battlefield 4 is een game die aanvankelijk goed draaide op AMD-kaarten en was ook de eerste game die AMD's Mantle-api ondersteunde. Ondertussen heeft Nvidia zijn drivers geoptimaliseerd en is de 290X in DirectX niet de snelste.

Battlefield 4 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
****
+
***
57,3 / 88,7
Nvidia GTX 780 Ti
****
+
***
48,3 / 80,6
AMD R9 290X
****
+
**
50,0 / 74,4
Nvidia GTX Titan
***
+
***
41,7 / 72,5
AMD R9 290
****
+
**
47,7 / 70,6
GTX 780
***
+
**
41,0 / 69,9
MSI R9 280X
***
+
**
40,3 / 59,7
Nvidia GTX 770
***
+
**
34,8 / 57,1
R9 285 (stock)
***
+
*
34,0 / 50,2
Battlefield 4 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
****
+
***
33,0 / 57,9
Nvidia GTX 780 Ti
***
+
***
27,0 / 52,9
AMD R9 290X
****
+
**
31,7 / 50,3
Nvidia GTX Titan
***
+
***
24,7 / 47,3
GTX 780
***
+
***
24,0 / 45,4
AMD R9 290
****
+
**
33,3 / 45,2

In Battlefield 4 is de GTX 980 tien procent sneller dan de 780 Ti. Zelfs op op ultra-instellingen bij een resolutie van 2560x1440 pixels en met 4x msaa blijft de game speelbaar.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
66,0 / 79,0
Nvidia GTX 780 Ti
*****
+
*
60,7 / 73,1
AMD R9 290X
*****
+
*
52,7 / 66,9
Nvidia GTX Titan
*****
+
*
53,0 / 65,5
AMD R9 290
****
+
*
49,0 / 62,5
GTX 780
****
+
*
51,0 / 61,4
Nvidia GTX 770
****
+
*
44,0 / 53,3
MSI R9 280X
***
+
*
39,0 / 49,0
R9 285 (stock)
***
+
*
38,0 / 47,4
Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
40,3 / 49,0
Nvidia GTX 780 Ti
*****
+
*
37,7 / 45,0
AMD R9 290X
*****
+
**
34,0 / 44,0
AMD R9 290
****
+
*
32,0 / 41,1
Nvidia GTX Titan
****
+
*
31,7 / 40,6
GTX 780
****
+
*
30,3 / 37,1

In Crysis 3 is de voorsprong op de 780 Ti iets kleiner dan in Battlefield 4, namelijk een procent of acht. Ook deze game draait probleemloos op 2560x1440 pixels bij de hoogste grafische instellingen.

Grid 2 en Shogun 2

Grid 2 is de enige racegame in ons rijtje benchmarks en ook op de allerhoogste instellingen draaien de meeste videokaarten deze game met gemak.

Grid 2 - 1920x1080 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
**
108,0 / 134,5
Nvidia GTX 780 Ti
*****
+
*
98,3 / 121,6
Nvidia GTX Titan
****
+
*
87,0 / 107,6
GTX 780
****
+
*
83,3 / 103,6
AMD R9 290X
****
+
*
79,7 / 98,5
AMD R9 290
****
+
*
72,5 / 94,4
MSI R9 280X
****
+
*
69,0 / 88,2
Nvidia GTX 770
***
+
*
60,4 / 79,2
R9 285 (stock)
***
+
*
61,2 / 76,1
Grid 2 - 2560x1440 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
**
78,0 / 97,2
Nvidia GTX 780 Ti
*****
+
*
70,3 / 88,1
AMD R9 290X
*****
+
*
67,2 / 84,8
AMD R9 290
****
+
*
62,2 / 78,2
Nvidia GTX Titan
****
+
*
62,3 / 75,8
GTX 780
****
+
*
58,9 / 72,8

In deze benchmark blijft het verschil met de 780 Ti beperkt tot een procent of tien. Op hogere resoluties zijn de AMD-kaarten in het voordeel ten opzichte van de Titan en GTX 780, die het op lagere resoluties weer beter doen. De GTX 980 staat opnieuw eenzaam aan de top.

Shogun 2: Total War - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
*****
+
**
70,0 / 103,4
Nvidia GTX 780 Ti
*****
+
**
69,3 / 98,8
Nvidia GTX Titan
*****
+
**
68,0 / 91,9
AMD R9 290X
****
+
**
65,7 / 86,7
GTX 780
****
+
**
63,7 / 85,3
AMD R9 290
****
+
**
60,0 / 80,1
Nvidia GTX 770
***
+
*
52,7 / 69,0
MSI R9 280X
***
+
*
51,0 / 66,4
R9 285 (stock)
***
+
*
41,0 / 55,2
Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
*****
+
**
51,7 / 65,6
Nvidia GTX 780 Ti
*****
+
**
48,7 / 61,9
Nvidia GTX Titan
*****
+
*
46,0 / 57,9
AMD R9 290X
****
+
**
40,0 / 54,5
GTX 780
*****
+
*
43,0 / 53,7
AMD R9 290
****
+
*
37,7 / 50,4

Shogun draaien we al geruime tijd, maar op hoge resoluties kan de oude game het onze videokaarten nog moeilijk maken. Ten opzichte van Nvidia's vorige topkaart doet de GTX 980 het een procent of zes beter.

Sleeping Dogs en Thief

Voor de laatste twee benchmarks gebruiken we de ingebouwde benchmarktools van Sleeping Dogs en Thief.

Sleeping Dogs - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
****
+
***
83,2 / 145,8
Nvidia GTX 780 Ti
****
+
***
80,8 / 136,4
Nvidia GTX Titan
***
+
***
69,7 / 123,5
AMD R9 290X
***
+
**
73,4 / 120,3
GTX 780
***
+
**
66,7 / 115,0
AMD R9 290
***
+
**
73,3 / 114,3
MSI R9 280X
***
+
**
69,7 / 102,0
Nvidia GTX 770
***
+
**
60,0 / 100,7
R9 285 (stock)
***
+
**
54,8 / 85,1
Sleeping Dogs - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
****
+
***
54,1 / 93,1
Nvidia GTX 780 Ti
****
+
***
52,7 / 87,8
AMD R9 290X
****
+
**
55,0 / 80,9
Nvidia GTX Titan
***
+
**
46,3 / 77,9
AMD R9 290
****
+
**
50,4 / 74,7
GTX 780
***
+
**
43,3 / 72,7

Sleeping Dogs weet het de meeste nieuwe videokaarten niet moeilijk te maken. De GTX 980 is weer een procent of zes sneller op beide geteste resoluties.

Thief - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
*****
+
**
72,6 / 102,1
Nvidia GTX 780 Ti
*****
+
**
69,0 / 96,0
Nvidia GTX Titan
****
+
**
63,2 / 87,7
GTX 780
****
+
**
58,4 / 82,8
MSI R9 280X
***
+
**
46,6 / 68,5
AMD R9 290X
***
+
**
44,1 / 68,5
Nvidia GTX 770
***
+
*
48,4 / 67,5
AMD R9 290
***
+
**
43,7 / 67,2
R9 285 (stock)
**
+
**
35,9 / 62,8
Thief - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
66,9 / 81,6
Nvidia GTX 780 Ti
*****
+
**
53,9 / 72,7
Nvidia GTX Titan
****
+
*
48,1 / 63,3
AMD R9 290X
****
+
**
45,4 / 62,5
AMD R9 290
****
+
**
43,5 / 61,6
GTX 780
****
+
*
43,6 / 59,3

Het mag duidelijk zijn dat Nvidia met de GTX 980 de snelste videokaart van dit moment heeft gebouwd. Ook in onze laatste benchmark eindigt die kaart bovenaan. Het verschil met de 780 Ti is echter klein, en bedraagt zes procent op full hd en twaalf procent op 2560x1440 pixels.

4k-gaming: nog niet echt

Sinds kort hebben we de beschikking over een 4k-monitor, wat ons de mogelijkheid geeft om games ook op 3840x2160 pixels te benchmarken. Voorlopig beperken we ons tot het testen van Battlefield 4 en Grid 2 om een indicatie te geven van de prestaties van de videokaarten. Dat doen we enerzijds omdat 4k-monitoren weliswaar flink in prijs gedaald zijn, maar nog altijd nicheproducten zijn, en anderzijds omdat met de huidige videokaarten 4k-gaming bij de meeste games niet interessant is. Battlefield 4 is een mooi voorbeeld daarvan; met de instellingen op high, dus niet ultra, en anti-aliasing uit heeft nog geen enkele videokaart een minimumframerate van dertig fps gehaald.

Battlefield 4 - 3840x2160 - High - 0xAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
**
+
*****
15,0 / 46,5
Nvidia GTX 780 Ti
**
+
*****
10,7 / 43,6
AMD R9 290X
***
+
***
20,0 / 41,2
AMD R9 290
***
+
***
19,0 / 38,9
Nvidia GTX Titan
*
+
****
10,0 / 38,9
GTX 780
*
+
****
8,7 / 36,0
MSI R9 280X
**
+
***
15,0 / 32,0
Nvidia GTX 770
*
+
****
7,7 / 30,7
R9 285 (stock)
*
+
***
8,0 / 27,3

Dat lukt ook de GTX 980 niet. Hoewel de gemiddelde framerate in orde is, heeft de gpu moeite met een paar stukken in de benchmark waarin het beeld snel heen en weer beweegt en waterdruppels in het rond vliegen. Dat resulteert in een minimale framerate van 15fps. AMD-videokaarten hebben een iets hoger minimum, maar de game is nog steeds niet speelbaar op deze resolutie.

Grid 2 - 3840x2160 - Ultra - 0xAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
*****
+
**
49,6 / 65,7
AMD R9 290X
*****
+
*
44,2 / 56,6
AMD R9 290
****
+
*
39,5 / 50,8
Nvidia GTX Titan
****
+
*
38,5 / 48,4
Nvidia GTX 780 Ti
****
+
*
37,9 / 48,4
MSI R9 280X
****
+
*
36,3 / 45,3
GTX 780
***
+
*
32,4 / 40,0
Nvidia GTX 770
***
+
*
28,8 / 39,1
R9 285 (stock)
***
+
*
27,7 / 36,1

Een lichtere game als Grid 2 is een ander verhaal; die draait met gemak de hoogste instellingen op 3840x2160 pixels, al schakelen we geen anti-aliasing in. Voor de meeste nieuwe shooters zullen de framerates die we in Battlefield 4 behaalden eerder indicatief zijn voor de prestaties op 4k-schermen.

Energie en geluidsproductie

Nvidia heeft met Maxwell het energiegebruik ten opzichte van Kepler flink teruggedrongen. Het resultaat is dat de nieuwe GTX 980 een tdp van slechts 165 watt meekrijgt. Ter vergelijking, de tdp van een GTX 780 Ti is 250 watt en die van een AMD R9 290X ligt nog een stukje hoger. We hebben de vermogensopname van het hele systeem gemeten terwijl het idle was en maten de maximale belasting met behulp van Furmark. De meest realistische resultaten van het ingame-verbruik hebben we gedurende twintig minuten bijgehouden, terwijl we de videokaart belastten met Unigine Valley.

Niet alleen op papier, maar ook in de praktijk blijkt de GTX 980 bijzonder zuinig te zijn. Dat is een knappe prestatie van Nvidia, want zonder het procedé te wijzigen heeft het bedrijf zowel de snelste als de zuinigste high-end videokaart van dit moment gebouwd.

Nvidia heeft het reference design van de GTX 980 voorzien van dezelfde koeler als het bedrijf sinds de GTX 780 voor zijn high-end kaarten gebruikt. Diezelfde koeler weet een GTX 780 Ti op temperatuur te houden en bij de GTX 980 blijkt dat helemaal een fluitje van een cent. Doordat er minder warmte wordt afgegeven hoeft de ventilator minder hard te draaien en is de geluidsdruk lager.

Overklokken

Wie bij zijn GTX 980 het onderste uit de kan wil halen is aangewezen op overklokken. Dankzij gpu boost 2.0 komt de gpu van de 980 zelf al een heel eind. Tijdens het gamen kan de klokfrequentie van de gpu oplopen tot 1227MHz, maar wij wilden weten hoeveel meer er uit de gpu te halen valt.

Voor het overklokken hebben we gebruikgemaakt van Afterburner. Daarbij hebben we de gpu wat meer ruimte gegeven om het verbruik te verhogen door de Power Limit op 125 procent te zetten, terwijl we handmatig de ventilator op tachtig procent zetten. In de klokfrequentie van de gpu bleek nog aardig wat rek te zitten. We kwamen op '+210' uit, wat er in de praktijk op neerkwam dat de gpu tijdens het benchmarken continu op 1450MHz bleek te tikken. Ten opzichte van de standaardsnelheid van 1126MHz is dat een toename van bijna dertig procent. In de kloksnelheid van het geheugen, dat standaard op 1750MHz tikt, bleek ook nog wat rek te zitten. We wisten het geheugen stabiel te krijgen op 1851MHz, oftewel 7,4GHz gddr5.

Uiteraard hebben we enkele benchmarks gedraaid om te zien hoe veel die overklok oplevert. We vergelijken daarbij ook andere videokaarten die we eerder overgeklokt hebben. Die resultaten zijn niet helemaal vergelijkbaar, omdat ze met een oudere driver zijn behaald. We hadden helaas niet de tijd om alle eerder overgeklokte kaarten nog eens over te klokken en te testen met een nieuwe driver.

3DMark Fire Strike
VideokaartDriverIn punten, hoger is beter
Nvidia GTX 980 OC 344.07
*******
14634
GTX 780 Ti OC 331.70
******
13204
Nvidia GTX 980 344.07
******
12755
R9 290X OC 13.11 beta v5
******
12266
R9 290 OC 13.11 beta v8
******
11653
AMD R9 290X 14.7 Beta RC3
*****
11398
Nvidia GTX 780 Ti 340.52
*****
11242
Nvidia GTX Titan 340.52
*****
10602
AMD R9 290 14.7 Beta RC3
*****
10559

In 3DMark is een overgeklokte 780Ti sneller dan een GTX 980. Onze overklok van gpu en geheugen resulteert in een vijftien procent hogere score in 3DMark.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
Nvidia GTX 980 OC
*******
3406,00
GTX 780 Ti OC
******
3133,00
Nvidia GTX 980
******
2904,00
Nvidia GTX 780 Ti
******
2682,00
R9 290X OC
*****
2603,00
R9 290 OC
*****
2477,00
Nvidia GTX Titan
*****
2385,00
AMD R9 290X
*****
2296,00
AMD R9 290
*****
2209,00

In Heaven leidt de overklok tot een zeventien procent hogere score en ook hier is een overgeklokte 780 Ti sneller dan een GTX 980 op standaardsnelheden.

Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980 OC
******
+
*
48,7 / 58,0
GTX 780 Ti OC
*****
+
*
43,7 / 53,8
Nvidia GTX 980
*****
+
*
40,3 / 49,0
R9 290X OC
*****
+
*
38,0 / 48,6
R9 290 OC
****
+
*
35,7 / 45,1
Nvidia GTX 780 Ti
****
+
*
37,7 / 45,0
AMD R9 290X
****
+
*
34,0 / 44,0
AMD R9 290
****
+
*
32,0 / 41,1
Nvidia GTX Titan
****
+
*
31,7 / 40,6
Grid 2 - 2560x1440 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980 OC
******
+
**
89,3 / 111,8
GTX 780 Ti OC
*****
+
*
82,9 / 101,5
Nvidia GTX 980
*****
+
*
78,0 / 97,2
R9 290X OC
*****
+
*
74,3 / 93,4
R9 290 OC
****
+
*
69,6 / 88,3
Nvidia GTX 780 Ti
****
+
*
70,3 / 88,1
AMD R9 290X
****
+
*
67,2 / 84,8
AMD R9 290
****
+
*
62,2 / 78,2
Nvidia GTX Titan
****
+
*
62,3 / 75,8

In Crysis en Grid levert de overklok een toename in framerate van achttien en vijftien procent op. Wil je je GTX 980 dus nog wat harder laten lopen dan standaard, dan is dat vrij gemakkelijk te realiseren. De koeling is ruimschoots toereikend en door de power limit te verhogen ontstaat er aardig wat speelruimte, waarbij zelfs de snelheid van het geheugen nog te verhogen is.

Conclusie

Nvidia heeft met de GM204-gpu indrukwekkend werk afgeleverd. Op hetzelfde 28nm-procedé als waarmee de GK104- en GK110-gpu's worden gefabriceerd heeft het bedrijf een aanmerkelijk zuinigere chip ontwikkeld, die ten opzichte van de GK110 met veel minder cores betere prestaties weet te behalen. Daarnaast heeft Nvidia de videokaart opgefrist met onder andere hdmi 2.0 en h265-encoding.

De nieuwe, zuinige gpu biedt ook een mooi perspectief op toekomstige Nvidia-kaarten. Met een tdp van 165 watt voor één gpu kan Nvidia wellicht eenvoudig een kaart met twee gpu's bouwen en tegelijkertijd de warmteproductie binnen de perken houden.

Behalve zuinig is de GTX 980 ook snel; in alle benchmarks is de 980 de 780 Ti te snel af. Dat verschil is echter niet enorm groot. In onze full-hd-benchmarks is de GTX 980 ongeveer acht procent sneller dan het vorige topmodel en bij 2560x1440 pixels is dat verschil negen procent. Wie dus onlangs een 780 Ti heeft aangeschaft hoeft niet wakker te liggen van het prestatiegat dat de GTX 980 slaat.

Voor iedereen die twijfelt over de overstap naar Maxwell is de prijs ongetwijfeld een factor. Nvidia geeft de GTX 980 een adviesprijs van 550 euro, even duur als de goedkoopste 780 Ti in de Pricewatch. De keuze tussen die twee kaarten zal dan ook snel gemaakt zijn en waarschijnlijk daalt de prijs in de loop der tijd nog onder de adviesprijs. Vijfhonderdvijftig euro blijft een hoop geld, maar dergelijke prijzen zien we vaker bij nieuwe high-end videokaarten en al helemaal als dat de snelste videokaart van het moment is.

Reacties (168)

Wijzig sortering
Ik ben de eerste om te zeggen... erg mooie review Jelle! :)

Ook een erg mooie kaart trouwens. Hmmm... een mooi kerst kado als eigen traktatie? Is wel ERG verleidelijk.

Het nare van de benchmarks vind ik altijd dat mijn 'antieke' GTX480 er niet meer bij staat. Maar ik ga uit van zo'n 50 FPS gemiddeld aan verschil. Zit ik dan goed?
Inderdaad, nette review! Leuk dat 4K nu ook wordt meegenomen, al is dat natuurlijk (nog steeds) meer iets voor meerdere kaarten. Voor de volledigheid een overzichtje van wat ik zo gauw vond:

NL:
GTX 970 & GTX 980, inclusief MSI Gaming GTX 980 en ASUS Strix GTX 980 (HWI)
GTX 980 SLI, 3-way SLI en 4-way SLI (HWI)

EN:
GTX 980 (AnandTech)
GTX 970 en 980 (TechReport)
GTX 970 en 980 (PCPerspective)
GTX 980 (Techpowerup)
GTX 970 SLI (Techpowerup)

DE:
GTX 970 en 980 + SLI (Computerbase)

En nog wat reviews/previews van partnerkaarten:
Gigabyte GTX 970 Gaming G1 Guru3D
Gigabyte GTX 980 Gaming G1 Guru3D, Overclock3D
ASUS GTX 970 Strix Kitguru, Techpowerup
MSI GTX 980 Gaming Hardware.Info, Kitguru, Guru3D
EVGA GTX 970 SC ACX Techpowerup

[Reactie gewijzigd door TomasH op 19 september 2014 10:02]

Leuk is dat HWI ook de 970 heeft getest
Feitelijk is dat een veel interessantere kaart.
De grote klapper is wat ons betreft echter de GeForce GTX 970: deze ¤ 325 kostende kaart is vrijwel net zo snel als de gemiddeld ruim ¤ 600 kostende GeForce GTX 780 Ti en véél zuiniger. En ter vergelijk met de concurrentie: de GTX 970 is ook sneller dan de duurdere Radeon R9 290X. In Full HD met Ultra settings is de GTX 970 gemiddeld 10% sneller dan de R9 290X, in Ultra HD met Medium settings nog altijd zo'n 3%. Geen groot verschil: maar sneller, zuiniger én goedkoper maakt de keuze toch vrij gemakkelijk.
Zie ook de vergelijking: http://nl.hardware.info/r...organgers-en-concurrentie

[Reactie gewijzigd door dirkjesdirk op 19 september 2014 09:48]

Zit ik hier net met men 2x 290X :(
Dat blijft zo kut aan pc gamen. :'( Maar met 2 van zulke kaarten kun je iig hard blazen. Je zult het plafond niet snel tegenkomen ;)

[Reactie gewijzigd door echtwaarisdatzo op 27 september 2014 12:02]

Klopt grotendeels, kleine aanvulling. Mocht je echter SLI interesse hebben en willen gamen op een hoge resolutie ga je moeite krijgen door de busbreedte van de 970. Een 290X is dan sowieso een betere keuze. Voor de rest spreekt er niet zoveel voor de 290X in de huidige prijssetting.
Ik miste de 970 ook in de review, zijn tegelijk uit gekomen toch? Sneller dan een 290x voor 350 euro. Amd legt het wel erg hard af deze keer.
Nou, antiek... http://youtu.be/tYG-7T2LVDc

Zoals je ziet is de GTX 480 gemiddeld sneller dan de next-gen consoles. Ik vind het, om games te kunnen vergelijken, dus net als jij wel belangrijk om ook oudere kaarten erin te zetten, eventueel via een drop-down menu waarin je jouw model kan selecteren. Natuurlijk gaan ze niet met elke kaart vanaf de GTX 480 benchmarken met deze game, maar ik vind dat wanneer er een benchmark mee is, dat de kaart in het overzicht moet kunnen komen.
Daarnaast zijn Grid 2 en Shogun 2 ondertussen zo oud dat ze er wel een groot aantal benchmarks voor moeten hebben.
Dan is de vraag of de rest van het testsysteem nog hetzelfde is natuurlijk. Verder kunnen updates voor de games en nieuwe drivers er ook voor zorgen dat benchmarks van jaren terug gewoon niet meer representatief zijn voor die kaart.

In de grafiek een knop met 'oudere kaarten' met een disclaimer dat het oude benchmarks zijn en dus niet meer zo heel erg representatief zou dan toch wel weer wenselijk zijn omdat de prestaties ook niet gigantisch gewijzigd zullen zijn.
Inderdaad.. extra kaarten testen hoeft niet, maar oude resultaten meenemen is toch wel erg handig.

En ja, leuke video. Alleen jammer dat veel console gamers MS/Sony blijven verdedigen, en dat veel PC gamers dit leuk schijnen te vinden maar niet snappen dat dit ook betekent dat de engines en graphics in hun games worden tegengehouden door de relatief zwakke consoles.
Thanks voor de link!
Wel erg grappig inderdaad. Hoewel ik al wel wist dat mijn '2600k, 16GB, GTX480' systeem net zo krachtig al dan niet krachtiger was dan een "next-gen" console.

Antiek bedoelde ik meer in de zin zoals we dat 'vroeger' hadden. In de jaren '90 en '00 was het na 4 jaar toch echt wel uit met je CPU of GPU. Zeker de GPU, want die kon dan zelfs de nieuwste spelletjes niet meer spelen.

Wat ik jouw wel kan zeggen is dat een GTX 980 of 970 wel zal helpen om Project CARS te renderen op maximaal. Dat spel is echt gepushed door de community (*kuch* guilty as charged *kuch*) om de nieuwe 'Crysis' van race games te worden.
Er zit zelfs een optie in om 9x intern te downsampelen vanaf je ingestelde resolutie. Dus 1080p maal 9 en dan naar het scherm sturen. :)
Die setting killed elke kaart. Laat staan als je 4k gebruikt, of nog erger... 4k triple setup. :)
=.= nou goed hoewel jij en ik nu offtopic bezig zijn vind ik het wel heel krom, mijn oude gtx 580 komt echt niet in de buurt van mijn xbox one of ex-ps4 qua grafische krachten :)
Ex-ps4? Dus je had ze alle twee, en hebt de ps4 weg gedaan. Wat is daar in godsnaam de logica achter?
Gewoon een miskoop geweest, als ik al die redenen ga opnoemen start ik vermoedelijk een heen en weer gevecht die niemand gaat winnen.
In ieder geval meer tevreden met de x one en mijn gtx 580 komt lang zal ze leven niet in de buurt van de x one of ps4, dus een 480 al helemaaaaal niet..

Jammer dat ''stomme gelul'' altijd over krachtiger maar geen praktijk voorbeelden.

Als een 3gb gtx 580 met een mooie setup voor de rest gewoonweg niet in de buurt komt op grafische krachten als de x one of ps4, hoe kan iemand dan beweren dat zijn 480 krachtiger is dan een next gen console? 8)7 |:(

[Reactie gewijzigd door LopendeVogel op 25 september 2014 06:00]

Mijn verbazing was meer gericht op, wat maakt de xbox dan geen miskoop? Hoef verder niets te starten. Vanwege karig aanbod nog geen console gekocht. Wss ook de reden dat je ps4 de deur uit is haha.

Mooi praktijkvoorbeeld in de gpu-console vergelijking. Altijd een goede zaak idd, praktijk over theorie imo.

Toch n stukje theorie, xbox en ps hebben unified geheugen. Als in het kan aan de gpu toegewezen worden. Als dit niet klopt hoor ik het graag.
Las al dat de eerste games met 6g vram (ultra settings oc) er al aankomen, omdat consoles dus over aanzienlijk vram kunnen gebruiken.

[Reactie gewijzigd door echtwaarisdatzo op 27 september 2014 12:12]

Eigenaardig niets zeggend filmpje. Heb zelf geen console, geen fanboïsm. Echter is het niet echt een realistische vergelijking in de praktijk.
Tnx, LogiForce :) Ik heb toevallig laatst voor de grap een aantal oude videokaarten in ons testsysteem gehangen en 3DMark gedraaid, voor zover je wat aan die (graphics) score hebt: de GTX 480 scoorde 3486. (en een gtx 980 doet dus 12755 ;))
Top dat je dat toevallig gedaan hebt.
Dus grofweg genomen is de kaart onder de zelfde omstandigheden 4x sneller.
Uiteraard zal dit verschillen aangezien verschillende games verschillende technieken hanteren om hun game te renderen. Plus nog de verschillende niveau's van optimalisatie.
En dan zijn er nog de nieuwe features van de kaart die ook wel wat lusten als ze gebruikt worden. :)

Het volgende zou ook een grappig artikel zijn trouwens, want ik vind 4x zo snel in 4 jaar tijd wel een ERG lineaire beweging. Lijkt er haast op dat nVidia zich inhoud wat dat betreft, of ze hebben gewoon keiharde doelstellingen wat dat betreft.
Met andere woorden een artikel over de trend van de snelheid van graphische kaarten door de jaren heen, en in hoe zo'n lijn die zich bewegen.
Persoonlijk vind ik het namelijk gek dat ik nu 4 jaar met een GTX480 kan doen. Vroeger (jaren '90 en begin '00) had je toch echt 'antiek' en was het na 3-4 jaar al zo dat je de nieuwste games niet meer lekker kon draaien. Zelfs niet op de laagste settings.
Idem was dat zo met de CPU trouwens.

Maar nog maals bedankt voor de moeite! :)
Zou het voor de Tweakers niet leuk zijn om hun eigen kaart te kunnen kiezen. Op die manier kan iedereen zijn eigen kaart vergelijken.

Ik weet dat de testopstelling verschillend is en de gesteste programma's ook maar ik denk dat er wel een bepaalde overeenkomst is. Op die manier krijg je een leuke interactie met de website en word de review nog interessanter om te lezen.
Wat houdt je tegen om de uitgevoerde benchmarks zelf uit te voeren om zo de vergelijking te kunnen maken :)
Dat bedoelt hij denk ik niet.

Tweakers.net heeft een hele database vol met benchmarks. Om de zoveel jaar verandert de test configuratie, maar zo vaak is dat ook weer niet. Het zou leuk zijn als je als lezer je eigen GPU kan aanduiden om zo de vergelijking te kunnen maken tussen wat je zelf hebt en de nieuwe snufjes.

Is natuurlijk niet volledig relevant aangezien iedereen net iets andere resultaten krijgt, maar het is toch een goede benadering van de performance boost die je mag verwachten als je deze kaarten koopt. Ik heb bijvoorbeeld nog een HD6970 maar ben aan het denken om een upgrade te doen. Voor de spellen die ook op die kaart getest zijn zo het een hele hoop context geven aan deze getallen.
Precies dat! En zelf benchmarks draaien vind ik niet zo interessant, dus daarom zou het leuk zijn als jou kaart te selecteren is en dan tussen de andere resultaten verschijnt
Goed idee zeg!

Ik heb het idee ook bij de buren gedropt. Heb het verder uitgewerkt met nog wat aanvullingen:

http://nl.hardware.info/f...to-stroomverbruik.276381/

[Reactie gewijzigd door PizzaMan79 op 19 september 2014 21:51]

En om de zoveel weken komt er weer een nieuwe driver uit, met daarbij behorende prestaties. Een videokaart die we twee jaar geleden getest hebben, met de driver van toen, kan dus geenszins vergeleken worden met een nieuwe kaart met daarbij behorende nieuwe driver. Dit wel in een tabel zetten, zoals HWI dus doet, is gewoonweg geen eerlijke vergelijking.

Helaas hebben we niet de tijd om alle videokaarten bij elke driver update door alle benchmarks te halen. Daarom testen we de in onze ogen meest relevante kaarten op dat moment, en zetten we die in een grafiekje.

Het staat je natuurlijk vrij om je eigen videokaart alsnog in onze benchdb op te zoeken, en de benchmarks met elkaar te vergelijken.

[Reactie gewijzigd door Ch3cker op 19 september 2014 10:53]

Ik begrijp dat dit inderdaad niet eenvoudig is om goed op te lossen, maar aan de comments te zien is hier precies toch wel enige vraag naar. Misschien kan dit een feature worden die met karma gekocht kan worden waar een dikke disclaimer naast staat? Op die manier kan er geen verwarring ontstaan bij "casual" Tweakers maar kan je toch nog op een relatief elegante manier een ruwe schatting in het verschil van performance maken.

Tegen dat de "oude" kaarten niet meer getest worden zijn we meestal toch weer een generatie verder en zullen de drivers voor die kaarten gestabiliseerd zijn. Het grootste verschil in performance zie je (op een aantal uitzonderingen na) in het eerste jaar na de release en dat is juist wanneer jullie wel nog de meest relevante kaarten mee in de tests opnemen. Zelfs tussen generaties van de test setup is de data nog vrij relevant: Jullie kiezen altijd hardware die totaal overkill is voor de games waardoor enkel de GPU de bottleneck is. Een GTX460 met Nehalem CPU gaat niet plots gigantisch veel beter presteren als je die in een Haswell-E bord prikt.

Anyway, het is maar een kleine opmerking. Ik besef heel goed dat elke feature tijd en dus ook geld kost. Misschien kunnen jullie bij de volgende review nog eens als uitzondering een oudere kaart er in steken om nu eens echt na te kijken of de performance zoveel verschilt met de benchmarks van een aantal jaar geleden. Het kan goed zijn dat ik mis ben, maar enkel jullie zijn in de positie om te testen wat het verschil nu echt is.

Nog een prettige dag verder!
Nogmaals, voor de users die de resultaten van hun eigen videokaart willen vergelijken met deze kaart, dit kán, in onze benchDB.

Hier staat de entry voor de stock 980, en dit is de entry voor de 980 OC.
Zou het voor de Tweakers niet leuk zijn om hun eigen kaart te kunnen kiezen. Op die manier kan iedereen zijn eigen kaart vergelijken.
Je haalt de woorden uit mijn mond.
Dat is iets wat ik inderdaad wel een beetje mis bij tweakers.
Neem deze site. Als jullie zo iets zouden kunnen implenteren,
het hoeft lang niet zo uitgebreid als wat zij hebben maar gewoon het idee met dat van wat de rest hier zegt. Het maakt jullie wel nog unieker als tweakers.net.
Zou het voor de Tweakers niet leuk zijn om hun eigen kaart te kunnen kiezen. Op die manier kan iedereen zijn eigen kaart vergelijken.

Ik weet dat de testopstelling verschillend is en de gesteste programma's ook maar ik denk dat er wel een bepaalde overeenkomst is. Op die manier krijg je een leuke interactie met de website en word de review nog interessanter om te lezen.
Goed idee! Overigens kun je op http://gpuboss.com/ je videokaart ook vergelijken met de GTX 980/970 mocht je dat willen. Het opvallende is dat mijn oude 670 bijvoorbeeld beter scoort qua Texture Mapping Units dan de GTX 970.
Op bijvoorbeeld Anandtech kun je via "Bench" het een en ander vergelijken:

http://www.anandtech.com/bench/product/1135?vs=1351

Succes!
Bedankt voor de tip! :)
mijn 6800Ultra is er ook al een tijdje niet meer bij... helaas
Grappig - geen woord over de VR features van deze kaart, terwijl ze behoorlijk relevant zijn en VR goed kunnen pushen. nvidia heeft er een blogpost aan gewijd. Tevens worden al hun 3d-vision compatible games ook direct beschikbaar voor VR, scheelt een injection driver.

[Reactie gewijzigd door z1rconium op 19 september 2014 08:33]

Fijne review inderdaad :) En een zeer knappe prestatie, wat deze kaarten neer weten te zetten. Ik had graag een 384-bit geheugenbus gezien met 4GB geheugen, maar ze lijken er niet enorm veel last van te hebben. Nu nog zo'n 100 euro van de prijs af en dan worden ze interessant; met deze prijzen zijn R9 290's nog interessanter, ondanks hun iets mindere prestaties.
Ik had graag een 384-bit geheugenbus gezien met 4GB geheugen
Die combinatie is niet waarschijnlijk.... 384-bit is een 6-voud van 64, 3GB is een 6-voud van 512. We zien 384-bit bussen vooral bij kaarten met 1.5GB of 3GB. Bij 4GB zou je dus 256-bit of 512-bit krijgen en dat laatste is dan weer een heel stuk ingewikkelder om te implementeren.
Inderdaad. Toch zijn er wel wat ontwikkelingen geweest met "asymetrische" chipcapaciteit.

De GeForce 550 Ti met 1GB bijvoorbeeld had een 192-bit bus die geimplementeerd werd met een mix van waarschijnlijk twee 2 GBit GDDR5 chips (32 bits en 256MByte per stuk, totaal 64 bits met 512MB) aangevuld met vier 1 GBit chips (32 bits en 128MByte per stuk, totaal 128 bits met 512MB). Dan heb je dus 1GByte met een 192-bit bus. De asymetrische configuratie betekent dat de geheugenbandbreedte niet voor het hele geheugen hetzelfde is. De configuratie stelde eisen aan de geheugencontroller en maakte ook lastig voor de driver om op een optimale manier het geheugen te gebruiken (belangrijkste buffers in het snelste geheugen opslaan). Ik geloof dat NVIDIA deze techniek ook nog in de 650/660 Ti of vergelijkbare modellen gebruikte.

De capaciteit van geheugenchips zelf is heel lang machten van twee geweest (128 MBit, 256 Mbit, 512 Mbit, 1 Gbit, 2 Gbit, 4 Gbit etc). Vroeger ging het vaak zelfs met een sprongetje van vier (1 Mbit -> 4 Mbit -> 16 Mbit), tussenliggende formaten waren er vrijwel niet.

Maar voor het mobiele segment heeft Samsung recent 6 Gbit chips ontwikkeld (LPDDR3, een low-power DDR3 variant), wat vrij uniek is omdat het geen macht van twee is. Daarmee wordt het mogelijk om met een standaard 32-bit of 64-bit (2 x 32-bit) geheugen bus 1.5 GB respectievelijk 3GB geheugen aan te sturen.

[Reactie gewijzigd door geometry45nm op 19 september 2014 09:04]

Dat extra geheugen is 3/4 marketing en 1/4 betere prestaties.
Klopt, de 650 Ti Boost, 660 en 660 Ti hebben allen een 192bits bus en 2 GB geheugen. Is niet zo'n heel cleane oplossing maar uiteindelijk werkt het prima.

Ik had juist het idee dat Maxwell veel van zn efficientie haalt uit het zo min mogelijk aanspreken van het geheugen, door veel cache en nu dus een nieuwe manier van comprimeren te gebruiken. 384bit zou daar niet bij passen. Bovendien moet er nog ruimte blijven voor de grotere chip, de GM110...
Die grotere geheugenbus isniet nodig.
Deze kaarten hebben een 2mb L2 cache.
Wat zelfs meer is dan bij de GK110.
Ik denk dat ze er op 4k toch nog wel wat aan zouden kunnen hebben. Op FHD kunnen ze alles wel aan, maar op 4k duidelijk nog niet. En als de bus groter is hoeft dat stukje cache ook niet zo groot te zijn ;)
de grap is dat dit niet het topmodel uit de maxwell serie is,
dit is de GM204, de GM210 is het topmodel,

dit is de maxwell welke de GTX 680 (high end) van kepler was,
en de enthusiatst gtx 780 van kepler moet nog komen van maxwell

plus met de shrink naar 20nm zal men makkelijk een chip die mogelijk wel 2x deze prestaties aan kan binnen een acceptabel tdp moeten kunnen produceren..
en deze chip is dan de helft van de grootte en dus goedkoper te maken en met wss hogere clocks.

kortom erg mooie chip maar in 6-8 maanden ofzo is de echte top maxwell er,
en daar wacht ik dan toch nog even liever op gezien we al 3 jaar op 28nm zitten...
Dat en me bankrekening was er nog niet aan toe :)
Inderdaad. Maar met 4K gaming hebben ze wel een goede reden voor een nog hoger segment boven deze superdure kaarten.
Dat denk ik ook.

Maar ze hebben nog meer slimmigheid ingebouwd naast de grotere L2 cache.
Ze gebruiken een nieuwe generatie algoritme voor lossless kleurcompressie, dat er voor zorgt dat de data die van het geheugen naar de GPU getransporteerd moet worden een stuk kleiner is.
Ik had graag een 384-bit geheugenbus gezien met 4GB geheugen
is dat technisch eigenlijk wel mogelijk? ik dacht dat je met een 384bit bus aan de 1.5GB / 3GB vastzit ivm beschikbare geheugen kanalen?!
De r9 290 concurreert met de gtx 970 welke beter presteert dan de 290x en zit in het prijsniveau van de 290
http://nl.hardware.info/r...w-incl-ultra-hd-conclusie
Voor wie hem al wil kopen, zie ebay.de (980).
Ik zie het maar niet op voorraad. 2 tot 3 dagen.
Dit is een 980
http://www.alternate.nl/E...duct/1158987?tk=7&lk=9377
Als je hem vandaag besteld heb je hem morgen in huis.
En als je hem nu meteen wilt hebben haal je hem toch op.

[Reactie gewijzigd door calsonic op 19 september 2014 15:46]

ik reageer hier nooit, maar bij jullie screenshot is de resolutie niet hoger..!! bij de screenshots van nvidia zelf zie je dat de screen info met de resolutie mee gaat :+

edit: ik bedoel natuurlijk de screenshot van battlefield

[Reactie gewijzigd door ProQuizmaster op 19 september 2014 08:26]

Ik heb hem nog eens bekeken maar kon niet zo gauw vinden wat je bedoelde..
De linker foto van Battlefield 4 is met DSR en de rechter is de "normale" foto. Je kan dit verschil zien door het interface van beide foto's met elkaar te vergelijken. DSR heeft een kleiner interface dan "normale" resolutie.
Wat betreft het linker plaatje lijkt het er inderdaad op dat er 2x een gewoon full-HD screenshot is gebruikt, de HUD is op beide plaatjes even groot als op het full-HD plaatje van de rechter vergelijking. Rechts is duidelijk verschil te zien terwijl linker inderdaad totaal niks verschilt.

Graag voor linker plaatje ook DSR screenshot plaatsen en dan je mening heroverwegen aub Jelle.

[Reactie gewijzigd door Maruten op 19 september 2014 09:44]

Ik was inderdaad ook al door de comments aan het zoeken of iemand dat al opgemerkt had, ik denk dat er geen verschil te zien is omdat er geen verschil IS. Het lijkt er inderdaad op dat DSR niet aan stond of niet werkte om een of andere reden.
Voor wie het niet duidelijk ziet, bij de rechter twee screenshots van Dynamic Super Resolution (die van Nvidia) zie je de UI kleiner worden (omdat er op een hogere resolutie gerenderd wordt). Bij de linker twee screenshots (die van t.net) zie je dat verschil niet, er wordt dus ook niet op een hogere resolutie gerenderd.

[Reactie gewijzigd door Finraziel op 19 september 2014 10:27]

De GTX970 is ook interessant. Hikt tegen 780ti prestaties aan voor een leuke prijs!
agreed de interessantere van de 2 imho,
320$ voor slechts een paar procent mindere prestaties,
iig meer dan de gtx780 (zonder ti) en over het algemeen sneller dan de 290X
en ook HDMI2 en 3x displayport en H256 en nieuwe DX features dus future proof.

alleen de overstap naar 20nm blijft me toch ook erg trekken...
20 nm wordt waarschijnlijk overgeslagen want:
-flinke vertraging
-veel 20 nm chips voor mobiele soc's (schaarste)

Voor zowel AMD als nvidia is het dus interessanter om volgend jaar op 16 nm finfet over te stappen.
gegarandeerd niet, 16 nm finfet is nog jaren uit...
en 20nm is 2x zo klein dus de helft van de productie kosten voor dezelfde chip.
GTX 970 lijkt me ook een bijster interessante kaart en - zeker gezien de 980 - zal aardig overklokbaar zijn.

Mits het echt 300 vs 500 euro wordt, in de realiteit zal de 970 waarschijnlijk wel weer duurder worden.
Ik ga met mijn post hopelijk voor eens en voor altijd komaf maken met de stelling: "meer dan x aantal Gb heb je niet nodig". GPU's worden niet alleen gebruikt om te gamen, één kort voorbeeld uit mijn dagelijkse ervaring.

Ik werk in de VFX industrie en gebruik een GPU renderer (Redshift) die out of core kan renderen, liefst zo weinig mogelijk. Hoe meer VRAM hoe minder hij out of core hij moet renderen, hoe minder data er moet verstuurd worden door de CPU naar de gewone ram en hard drives.

De lead programmer van Redshift (Panos) raadt ten sterkste aan om zoveel mogelijk vram op 1 kaart te hebben. Liever 1x6gig dan 2x 3gig enz enz...

Quote van Panos:
Regarding the GPU: I’d go with the 780 6GB ones. Even though they are a bit slower then the 780Ti 3GB ones, doubling the VRAM can have a significantly positive impact on performance. On one hand, if your scenes are large the 3GB card will have to do more out-of-core access which slows down rendering. On the other hand, if you are not actually using the full 6GB, you can increase the “ray reserved memory” in the Redshift Memory tab and increase performance. So my choice would be the 6GB card - hands-down!

https://www.redshift3d.com/forums/viewthread/2824/

[Reactie gewijzigd door jan van akkere op 19 september 2014 09:15]

Je maakt er nu van dat een 6gb gpu beter is dan SLI 3gb. Maar dat bedoelde je vast niet :)
SLI moet je zelf afzetten bij redshift :D :) :) Dus nee, dat bedoelde ik zeker niet :D

[Reactie gewijzigd door jan van akkere op 19 september 2014 14:49]

Als je je GPU voor andere zaken als gaming koopt, die meer vRAM nodig hebben, dan koop je toch geen GTX of Radeon? Daarvoor zijn er toch fire pro en quadro kaarten?
Waarom een Volvo kopen als je ook een Ferrari kan kopen? Ik heb geen zin om me blauw te betalen als ik fantastische performantie heb voor het werk dat ik doe. Prijs/performantie is deze 980 perfect voor vfx werk.

3 vliegen in 1 klap:
- vfx werk
- 3D gamedesign werk
- gamen als ontspanning.
Wel een beetje jammer dat in deze review geen temperaturen staan.
Bij het furmark gedeelte staat een tabel met zo'n zetpil erboven waar je op 3 dingetjes kunt klikken temperatuur zit daar ook bij :)
Ik zie alleen geluidsdruk en energieverbruik, geen temperatuur of ben in nou gek.
nee dat ben je niet. Ik was even verward het betreft toch de geluidsdruk. Het is alleen idle, load, en 100% fan.
Op de site van nVidia staan nu de specs:
http://www.geforce.com/ha...ce-gtx-980/specifications

Onderaan staat daar 98 graden C
Ik neem aan dat dat max graden is voordat de kaart gaat terugklokken ofzo, niet echt een temp van tijdens een benchmark/gamen. Wat ik toch eigenlijk wel vna Tweakers verwacht.
Draaide de kaart tijdens de furmark test wel zijn max boost clock? want als hij hier zwaar geknepen wordt qua clocks is het max verbruik niet realistisch. Of laten jullie alle kaarten gewoon standaard staan zonder de power limits in de drivers te verhogen (waar dit kan).

Des al niet te min een mooie prestatie van nVidia.
We laten ze inderdaad gewoon standaard staan, om een beeld te geven wat de kaart bij normale instellingen maximaal kan trekken. Wat mij betreft is het energieverbruik bij Valley interessanter, omdat dat een realistischer belasting simuleert dan Furmark.
Mee eens. Maar aangezien throtteling nog wel eens toegestaan is en gebruikt wordt (zie ook de R9 290 en 290X) is het wel interessant om te kijken of kaarten tijdens zo'n test wel hun maximale clocksnelheid halen en zo niet dat even te vermelden welke kaarten dit wel en niet halen.

[Reactie gewijzigd door Astennu op 19 september 2014 08:35]

Eens, ga ik meenemen in de aankomende GTX970-roundup :)
4k prestaties vind ik zeer teleurstellend gezien de performance van 780ti en het feit dat dit een nieuwe generatie is..
In de praktijk is 4k gaming heel wisselvallig. Dat zal met 5k nog wel een stapje erger zijn. Zelfs bij oudere games die er geen rekening mee gehouden hebben kan je soms redelijk goed op 4k spelen of gaat het helemaal niet omdat je maar 5fps haalt. En dan kun je met een meervoudige GPU setup nog wel wat winst halen maar zelfs dat gaat niet altijd even soepel. Kan dan ook zijn dat de CPU de bottleneck vormt omdat er eenvoudig weg niet geoptimaliseerd is voor zo'n hoge resolutie. Mantle vangt dat probleem wel wat op want BF4 op 4K met een 290x is wel speelbaar.

Nieuwe spellen die met DX12 uit gaan komen zullen vast wel wat beter performen op 4k.
Alleen is het nog even wachten wanneer dat uit komt. En als dat overeen komt met de next-gen GPU die het voordeel van een die-shrink hebben is het een mooi upgrade moment.
Ik denk dat het nogal meevalt met de CPU bottleneck. Het CPU gebruik wordt nauwelijk groter als de resolutie verhoogd want de 3D scene blijft in feite hetzelfde (objecten bestaande uit coordinaten en textures). In relatieve zin zal de CPU zelfs veel minder belangrijk zijn als je toch maar 30-40 fps haalt.

Je ziet dit bijvoorbeeld ook als je de resolutie omlaag haalt van 1080p naar 720p. Als dan de fps flink omhoog gaat (b.v. 50 naar 100+ fps), wat vaak het geval is, dan mag je gerust zeggen dat de CPU bij 1080p niet de bottleneck is. Dit illustreert ook dat de GPU bij 4k zelfs veel minder de bottleneck zal zijn dan bij 1080p.

Alleen de GPU moet bij 4k veel meer werk doen (ook geheugenaccess), veel wordt min of meer verviervoudigd. Sommige frames eisen meer geheugenbandbreedte (wat bij 1080p nog meestal nog niet echt over de limiet gaat), maar bij 4K zal juist dan de vier keer zo grote bandbreedte een bottleneck vormen zodat de FPS naar 10 gaat. Ook de fragment shaders kunnen een bottleneck vormen (vier keer zoveel pixels betekent vier keer zoveel rekenwerk met complexe shaders).
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True