Door Jelle Stuip

Redacteur

Nvidia GTX 960 Round-up

Midrange-videokaarten los en in sli getest

22-01-2015 • 15:00

143

Multipage-opmaak

Inleiding

Toen Nvidia in september zijn GTX 970 en 980 uitbracht waren we, eerlijk is eerlijk, behoorlijk onder de indruk. De chipontwerper had het voor elkaar gekregen om op hetzelfde 28nm-procedé een minder complexe en zuinigere chip te ontwerpen dan het vorige topmodel, de GK110. Het aantal transistors ging van grofweg zeven miljard naar vijf miljard, het aantal Cuda-cores ging van 2880 naar 2048 en toch bleek de GTX 980 sneller te zijn dan de GTX 780 Ti.

Mooi werk van Nvidia, maar met een prijs van 350 euro voor de GTX 970 en 550 euro voor de GTX 980 zijn de nieuwe topkaarten niet voor iedereen weggelegd. Veel gamers zullen dan ook reikhalzend uitgekeken hebben naar een Nvidia Maxwell-kaart die wat betaalbaarder is. Het wachten is ondertussen voorbij, want Nvidia heeft de GeForce GTX 960 aangekondigd, die op de Maxwell-architectuur gebaseerd is en een adviesprijs van 209 euro meekrijgt.

Tweakers heeft uiteraard enkele GTX 960-kaarten weten te bemachtigen. Van Asus leenden we de GTX 960 Strix en Gigabyte stuurde ons het topmodel in zijn serie, de GTX 960 G1 Gaming. MSI wist ons zelfs te voorzien van twee overgeklokte GTX 960 Gaming-videokaarten, waardoor we ook hebben kunnen testen hoe de GTX 960 in sli presteert.

Nvidia GTX 960

GM206: nieuwe gpu en video-engine

Nvidia's eerste Maxwell-gpu, met codenaam GM107, verscheen een krap jaar geleden in de GeForce GTX 750 en 750Ti. Die eerste Maxwell-gpu bleek relatief hoge prestaties te leveren bij een laag energiegebruik en werd gebakken op hetzelfde 28nm-procedé als zijn voorganger. We vermoedden toen dat de volgende high-end Maxwell-gpu wel eens op 20nm gebakken zou kunnen worden, maar in september bewees Nvidia het tegendeel met de GM204-gpu voor de GTX 970 en 980.

Ook met de nieuwe GM206-gpu blijft Nvidia nog bij 28nm. Die nieuwe gpu zou je kunnen zien als een halve GM204-gpu en beschikt dan ook over maximaal acht sm-units, wat neerkomt op 1024 cuda-cores. Ook de geheugenbus, het cachegeheugen en het werkgeheugen zijn gehalveerd. Hoewel er in eerste instantie alleen videokaarten met 2GB geheugen zullen verschijnen, is het niet ondenkbaar dat Nvidia die restrictie na verloop van tijd zal loslaten en fabrikanten ook GTX 960-kaarten met 4GB geheugen zullen bouwen.

Net als de GM204-gpu's maakt de GM206 gebruik van Nvidia's derde generatie kleurcompressie, waardoor het werkgeheugen efficiënter benut wordt. Dankzij de compressie zou de geheugenbandbreedte van 112GB/s de gpu even snel maken als een Kepler-gpu met een bandbreedte van 148,8GB/s.

GTX 960GTX 970GTX 980
Architectuur Maxwell (GM206) Maxwell (GM204) Maxwell (GM204)
Sm-units 8 13 16
Cuda-cores 1024 1664 2048
Transistors 2,94 mld 5,2 mld 5,2 mld
Klokfrequentie 1126MHz 1050MHz 1126MHz
Boostfrequentie 1178MHz 1178MHz 1216MHz
L2-cache 1MB 2MB 2MB
Geheugengrootte 2GB 4GB 4GB
Geheugenbus 128bits 256bits 256bits
Geheugensnelheid 7GHz gddr5 7GHz gddr5 7GHz gddr5
Bandbreedte 112GB/s 224GB/s 224GB/s
Rops 32 64 64
Tdp 120W 145W 165W
Nvidia GM206Nvidia GM206

Mfaa en h265

De GTX 960 ondersteunt alle nieuwe functies die met de GM204-gpu geïntroduceerd werden, waaronder vxgi, mfaa en dsr. Multi-frame anti-aliasing bekeken we al eens toen Nvidia de ondersteuning daarvoor met behulp van een nieuwe driver uitrolde. Mfaa belooft een hoger niveau van anti-aliasing te bieden bij een gelijkgebleven invloed op de prestaties, door ook samples van een voorgaand frame mee te nemen in de berekening. Een nadeel van mfaa was dat de functie zich beperkte tot twintig games, maar met de nieuwe driver die Nvidia met de GTX 960 uitbrengt, zal mfaa beschikbaar zijn voor alle games die msaa ondersteunen, op Dead Rising 3, Dragon Age 2 en Max Payne 3 na. Daarnaast is het knopje om mfaa te activeren niet meer weggestopt in het Nvidia Control Panel, maar is dat nu ook te vinden in de GeForce Experience.

Nvidia voorzag de GTX 970 en 980 al van hdmi 2.0 en hardwarematige ondersteuning voor het coderen van h265, maar het decoderen van h265-video werd niet ondersteund. De GTX 960 krijgt die ondersteuning wel en kan ook overweg met hdcp 2.2-beveiliging over hdmi, wat het ook een interessante videokaart voor htpc's maakt.

Testsysteem en drivers

Bij het testen van videokaarten maken we altijd gebruik van hetzelfde testsysteem, gebaseerd op het Intel X79-platform. De processor is een Core i7-4960X, die we overgeklokt hebben naar 4,4GHz, waardoor de cpu geen bottleneck moet vormen tijdens het benchmarken. Het werkgeheugen is 16GB groot en omdat games steeds meer ruimte in beslag nemen, hebben we onlangs onze ssd geüpgraded naar een 512GB-exemplaar.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 4960X @ 4,4GHz
Geheugen Kingston HyperX KHX1866C9D3K4/16GX
Ssd Crucial MX100 512GB
Koeling Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750
Besturingssysteem Windows 8.1 Enterprise
Monitor Dell U2713H

We hebben drie nieuwe GTX 960-kaarten van Asus, MSI en Gigabyte getest. Daarvoor ontvingen we van Nvidia de jongste driver, met versienummer 347.25. Ter vergelijking hebben we ook andere Nvidia-kaarten getest, waarbij we gebruikgemaakt hebben van dezelfde driver. We hebben de GTX 960 ook vergeleken met videokaarten met een AMD-gpu, waarbij we de laatste AMD-driver met versienummer 14.12 hebben gebruikt.

MSI GTX 960 SLI

GTX 960: Asus, Gigabyte en MSI

Om de prestaties van de GTX 960 te testen hebben we vier videokaarten van drie fabrikanten ontvangen. Asus en Gigabyte stuurden ons hun overgeklokte GTX 960-kaarten en van MSI ontvingen we twee kaarten, waardoor we ook sli hebben kunnen testen.

Nvidia (stock)Asus Strix OCGigabyte G1 GamingMSI Gaming 2G
Gpu-klok 1126MHz 1253MHz 1241MHz 1216MHz
Boost-snelheid 1178MHz 1317MHz 1304MHz 1279MHz
Geheugensnelheid 7010MHz gddr5

Nvidia klokt zijn GTX 960 standaard op 1126MHz, maar de drie videokaarten die wij hebben getest gaan daar dik overheen. De onderlinge verschillen zijn niet groot, maar Asus heeft zijn Strix-kaart standaard het hoogste geklokt, op de voet gevolgd door Gigabytes G1 Gaming. MSI loopt weer 25MHz achter op de Gigabyte-kaart. De geheugensnelheid is in alle gevallen ongemoeid gelaten en bedraagt effectief 7GHz.

Asus Strix-GTX960-DC2OC-2GD5

Asus heeft zijn bekende Strix-koeler enigszins aangepast voor de GTX 960. Het formaat is wat kleiner uitgevallen dan bij de GTX 970, maar in tegenstelling tot bijvoorbeeld de GTX 750 Ti zijn er wel heatpipes in het koelblok aanwezig. Zoals bij alle Strix-koelers wordt de ventilatorsnelheid hardwarematig aangestuurd. De ventilators stoppen met draaien als de temperatuur van de gpu onder de 55-57°C zakt, waardoor de koeling in 2d-modus geen geluid produceert.

Asus GTX 960 StrixAsus GTX 960 StrixAsus GTX 960 Strix

De Asus-kaart is de meest compacte van het trio, met een lengte van 21,5 centimeter. Hoewel de kaart door zijn geringe lengte geen extra versteviging nodig lijkt te hebben, heeft Asus de videokaart toch voorzien van een backplate. Het kaartje is verder voorzien van een zespinsstroomaansluiting en de gpu wordt van spanning voorzien door middel van een vijffasige spanningsregeling.

Gigabyte GV-N960G1 Gaming-2GD

Gigabyte heeft zijn snelste GTX 960 voorzien van vrijwel dezelfde Windforce-koeler als het op de GTX 970 G1 Gaming gebruikt. Het is opnieuw een exemplaar met vier heatpipes en drie ventilators, en het verschil zit hem dan ook in de aansturing van die ventilators. Gigabyte maakt gebruik van de softwarematige aansturing die Nvidia met zijn nieuwe driver meelevert, waardoor de ventilators stoppen met draaien bij een lage temperatuur. In de praktijk staan ze in 2d-modus altijd stil en gaan ze zachtjes draaien tijdens het gamen.

Gigabyte GTX 960 G1 GamingGigabyte GTX 960 G1 GamingGigabyte GTX 960 G1 Gaming

Gigabyte heeft zijn videokaart voorzien van twee zespinsaansluitingen voor de stroomtoevoer. Dat is geen overbodige luxe, want de kaart kan volgens Gigabyte maximaal 160 watt verstoken. De stroomtoevoer van de gpu verloopt dan ook via een zesfasige spanningsregeling, waardoor de kaart extra geschikt moet zijn voor overklokken. Net als de Asus-960 is de Gigabyte voorzien van een backplate, die in dit geval wat meer nut heeft, gezien de lengte van 30 centimeter. De heatsink koelt de geheugenchips rondom de gpu mee, maar de twee chips aan de achterkant van de pcb zijn niet van koeling voorzien.

MSI GeForce GTX 960 Gaming 2G

Net als Gigabyte heeft MSI vrijwel dezelfde koeler als op zijn GTX 970 gemonteerd. Het drakenlogo en de letters MSI zijn nu in het rood uitgevoerd en het verlichte logo op de zijkant is nu softwarematig uit te schakelen. Dankzij de grote koeler is ook deze videokaart groot uitgevallen, met een lengte van 27 centimeter. De ventilators van de Twin Frozr-koeler worden hardwarematig aangestuurd en gaan pas draaien als de temperatuur te hoog oploopt.

MSI GTX 960 Gaming 2GMSI GTX 960 Gaming 2GMSI GTX 960 Gaming 2G

De videokaart wordt met behulp van een achtpinsaansluiting van stroom voorzien. De gpu zelf gebruikt een vierfasige spanningsregeling.

3DMark en Unigine Heaven

Zoals gewoonlijk hebben we 3DMark en Unigine Heaven gedraaid om een idee te krijgen van de prestaties van de nieuwe videokaarten. We hebben de drie GTX 960-kaarten los getest en twee MSI-kaarten in sli.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
MSI GTX 960 SLI
*******
14872
Nvidia GTX 980
******
13245
AMD R9 290X
*****
11624
Inno3D GTX 970
*****
11244
AMD R9 290
*****
10730
MSI R9 280X
****
8679
MSI R9 285
****
8073
Asus GTX 960 Strix
****
7904
Gigabyte GTX 960 G1
****
7741
MSI GTX 960
****
7492
AMD R9 270X
***
6047
Nvidia GTX 750 Ti
**
4279

De 3DMark-score levert verwachte en onverwachte resultaten op. De GTX 960 van Asus blijkt het hoogste te scoren, gevolgd door die van Gigabyte, met de MSI-kaart als laatste van de drie. Die volgorde hadden we verwacht, gezien de iets verschillende kloksnelheden. Wat we niet hadden verwacht was dat de sli-combinatie van twee GTX 960-kaarten sneller zou zijn dan een enkele GTX 980. De hoge score is enerzijds te verklaren doordat we in 3DMark altijd de graphics-score noteren en doordat 3DMark goed schaalt naar twee gpu's. Daarnaast is de hogere score te verklaren doordat de GTX 960-kaarten van MSI hoger geklokt zijn dan onze GTX 980, die op standaardkloksnelheden loopt.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
MSI GTX 960 SLI
*******
2948,00
Nvidia GTX 980
*******
2921,00
Inno3D GTX 970
******
2449,00
AMD R9 290X
******
2390,00
AMD R9 290
*****
2253,00
MSI R9 280X
****
1755,00
Asus GTX 960 Strix
****
1603,00
MSI R9 285
****
1598,00
Gigabyte GTX 960 G1
****
1572,00
MSI GTX 960
****
1539,00
Nvidia GTX 750 Ti
**
1051,00
AMD R9 270X
**
819,00

In Unigine Heaven is het verschil tussen de GTX 980 en de GTX 960 in sli dan ook kleiner dan in 3DMark, maar GTX 960's in sli blijven nipt het snelst. Een losse GTX 960 moet het opnemen tegen AMD's R9 285, die in beide synthetische benchmarks vrijwel dezelfde prestaties neerzet.

Alien: Isolation en Battlefield 4

Alien: Isolation is een game die we onlangs hebben toegevoegd ter vervanging van oudere games, zoals Shogun 2 en Sleeping Dogs. De game is voor de meeste nieuwe videokaarten niet al te zwaar en daarom draaien we de benchmark ook op 2560x1440 pixels, met alle instellingen op maximaal.

Alien: Isolation - 2560x1440
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
***
+
****
47,0 / 95,9
Nvidia GTX 980
*****
+
**
73,3 / 94,2
AMD R9 290X
*****
+
*
68,0 / 85,8
Inno3D GTX 970
*****
+
*
63,0 / 81,6
AMD R9 290
****
+
*
62,7 / 79,7
MSI R9 280X
****
+
*
50,7 / 65,4
Asus GTX 960 Strix
***
+
*
44,0 / 56,7
Gigabyte GTX 960 G1
***
+
*
43,3 / 55,8
MSI R9 285
***
+
*
43,3 / 55,2
MSI GTX 960
***
+
*
43,0 / 54,9
AMD R9 270X
***
+
*
37,7 / 48,8

Alien: Isolation draait over het algemeen goed op AMD-gpu's en de R9 290X doet het in deze game dan ook beter dan een GTX 970 van Nvidia. De GTX 960-kaarten blijken ongeveer even snel te zijn als een R9 285 van MSI. De GTX 960's in sli blijken opnieuw iets sneller te zijn dan een GTX 980, al laat de minimale framerate een flinke dip zien, vermoedelijk een gevolg van de sli-opstelling.

Ondanks die dip blijft de gemiddelde framerate behoorlijk hoog ten opzichte van een GTX 980. Om dat verschil te verklaren hebben we met behulp van GPU-z de kloksnelheid van de GTX 980 en de GTX 960's in sli bijgehouden gedurende de Alien: Isolation-benchmark. Hoewel de GTX 980 een maximale boost-snelheid van 1216MHz heeft, zorgt Nvidia's ingebouwde gpu-boost 2.0 ervoor dat de gpu zich nog verder overklokt, binnen bepaalde grenzen van temperatuur en tdp, waardoor de gemiddelde kloksnelheid op 1224MHz uitkomt. Ook de GTX 960 klokt zichzelf over en komt tijdens deze benchmark gemiddeld op 1338MHz uit. De hogere kloksnelheid lijkt dus verantwoordelijk te zijn voor de hogere gemiddelde framerate, ondanks de negatieve invloed op de prestaties die een sli-opstelling met zich meebrengt.

Battlefield 4 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
****
+
***
61,0 / 94,3
Nvidia GTX 980
****
+
***
57,0 / 90,3
Inno3D GTX 970
****
+
**
49,0 / 77,1
AMD R9 290X
****
+
**
52,0 / 75,3
AMD R9 290
****
+
**
50,0 / 71,6
MSI R9 280X
***
+
*
40,3 / 57,8
Asus GTX 960 Strix
**
+
*
34,0 / 51,0
MSI R9 285
**
+
*
32,7 / 50,9
Gigabyte GTX 960 G1
**
+
*
34,0 / 50,8
MSI GTX 960
**
+
**
31,7 / 50,2
AMD R9 270X
**
+
*
29,0 / 42,6

Op een resolutie van 1920x1080 pixels draait Battlefield 4 zonder problemen op de GTX 960. Wil je Battlefield 4 op minstens 60fps spelen, dan blijken twee GTX 960-kaarten uitkomst te bieden.

Battlefield 4 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
****
+
****
30,7 / 59,3
Nvidia GTX 980
****
+
***
33,0 / 58,6
AMD R9 290X
****
+
**
32,0 / 51,0
Inno3D GTX 970
***
+
***
28,0 / 49,2
AMD R9 290
******
47,6
MSI R9 280X
***
+
**
25,7 / 38,9
MSI R9 285
**
+
**
18,7 / 33,0
Asus GTX 960 Strix
**
+
**
17,3 / 32,3
MSI GTX 960
**
+
**
17,0 / 31,4
Gigabyte GTX 960 G1
**
+
**
15,3 / 31,4
AMD R9 270X
**
+
*
17,3 / 27,5

Full hd mag dan geen probleem zijn, bij hogere resoluties krijgt de GTX 960 last van de 2GB-framebuffer en loopt het spel niet meer soepel. De minimale framerate van de GTX 960's in sli zakt ook onder die van de GTX 980.

Crysis 3 en Dragon Age: Inquisition

Crysis 3 is ondertussen al een enigszins verouderde game, maar het voordeel is dat het spel goed geoptimaliseerd is voor sli-opstellingen. Op hoge instellingen is de game bovendien nog altijd behoorlijk belastend voor nieuwe videokaarten.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
*****
+
**
63,3 / 87,6
Nvidia GTX 980
*****
+
**
63,3 / 82,3
AMD R9 290X
****
+
*
52,7 / 67,4
AMD R9 290
****
+
*
50,0 / 63,1
MSI R9 285
***
+
*
39,7 / 49,8
Asus GTX 960 Strix
***
+
*
39,3 / 49,6
Gigabyte GTX 960 G1
***
+
*
39,3 / 48,9
MSI GTX 960
***
+
*
37,3 / 47,8
MSI R9 280X
***
+
*
36,7 / 47,1
AMD R9 270X
**
+
*
30,0 / 37,8

Bij een resolutie van 1920x1080 pixels weten de GTX 960-kaarten prima speelbare framerates neer te zetten, in sli is de GTX 960 gemiddeld iets sneller dan een losse GTX 980.

Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
*****
+
**
44,3 / 56,1
Nvidia GTX 980
*****
+
*
41,7 / 51,7
AMD R9 290X
****
+
*
34,3 / 44,4
Inno3D GTX 970
****
+
*
33,0 / 43,5
AMD R9 290
****
+
*
32,0 / 41,4
MSI R9 285
***
+
*
25,7 / 31,7
MSI R9 280X
***
+
*
24,7 / 31,4
Asus GTX 960 Strix
***
+
*
25,0 / 30,8
Gigabyte GTX 960 G1
***
+
*
23,7 / 29,8
MSI GTX 960
***
+
*
24,0 / 29,5
AMD R9 270X
**
+
*
19,3 / 24,4

Gaat de resolutie omhoog, dan is Crysis 3 op de hoogste instellingen niet echt speelbaar op alle drie de 960-kaarten.

Dragon Age: Inquisition - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
*****
+
**
43,5 / 56,9
Nvidia GTX 980
******
+
*
46,4 / 55,6
AMD R9 290X
*****
+
*
43,4 / 50,8
Inno3D GTX 970
*****
+
*
38,7 / 47,2
AMD R9 290
*****
+
*
39,8 / 46,7
MSI R9 280X
****
+
*
31,6 / 36,9
Asus GTX 960 Strix
***
+
*
25,1 / 31,6
MSI R9 285
***
+
*
24,2 / 31,4
Gigabyte GTX 960 G1
***
+
*
25,3 / 31,3
MSI GTX 960
***
+
*
24,2 / 30,3
AMD R9 270X
***
+
*
23,2 / 28,0

Net als Alien: Isolation is Dragon Age: Inquisition een game die we onlangs aan het vaste lijstje spellen hebben toegevoegd. We hebben gebruikgemaakt van de ultra-instellingen en de benchmark extra zwaar gemaakt door de anti-aliasing op 4xmsaa in te stellen. Voor een losse GTX 960 is dat te veel gevraagd en zouden we anti-aliasing dan ook uitschakelen.

Dragon Age: Inquisition - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Nvidia GTX 980
******
+
*
28,6 / 34,3
AMD R9 290X
******
+
*
28,1 / 33,2
MSI GTX 960 SLI
****
+
**
22,3 / 31,4
AMD R9 290
*****
+
*
25,9 / 30,6
Inno3D GTX 970
*****
+
*
24,2 / 29,4
MSI R9 280X
****
+
*
20,9 / 24,2
Asus GTX 960 Strix
***
+
*
15,2 / 19,3
Gigabyte GTX 960 G1
***
+
*
14,8 / 18,9
MSI GTX 960
***
+
*
15,0 / 18,4
AMD R9 270X
***
+
*
14,3 / 17,6

Op full hd hebben de 960-kaarten al moeite met Dragon Age en bij 2560x1440 pixels zakt de framerate helemaal in naar onspeelbare waarden. Het gebruik van twee kaarten in sli mag niet baten; de game schaalt op deze resolutie minder goed naar twee kaarten dan bij 1920x1080 pixels.

Far Cry 4 en Grid 2

De laatste twee games die we draaien zijn Far Cry 4 en Grid 2. Far Cry 4 is de jongste toevoeging aan het lijstje games waarmee we videokaarten testen. We draaien de game op ultra-instellingen, met ssao ingeschakeld, en daarbij passen we 4xmsaa toe. Gezien de framerates die we in deze game behaalden, leek het ons niet zinvol om de game ook bij een resolutie van 2560x1440 pixels te draaien.

Far Cry 4 - 1920x1080 - Ultra - 4xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
**
+
*****
19,7 / 53,5
Nvidia GTX 980
******
+
*
47,0 / 53,4
AMD R9 290X
*****
+
*
39,3 / 47,4
Inno3D GTX 970
*****
+
*
39,7 / 45,8
AMD R9 290
*****
+
*
37,7 / 44,2
MSI R9 280X
***
+
*
27,3 / 36,4
Asus GTX 960 Strix
***
+
*
22,3 / 29,4
Gigabyte GTX 960 G1
***
+
*
23,0 / 29,1
MSI GTX 960
***
+
*
22,3 / 28,4
AMD R9 270X
**
+
*
17,0 / 26,6
MSI R9 285
**
+
**
15,3 / 26,1

Ondanks de resolutie van 1920x1080 pixels blijkt de ultra-instelling in combinatie met 4xmsaa een te zware opgave voor de GTX 960-kaarten, zowel los als in sli-opstelling. Bij het gebruik van twee kaarten ontstaan er flinke dips in de framerate, wat de game onspeelbaar maakt. Wellicht dat een driver-update of een game-patch dat probleem oplost. Overigens hebben we zelfs met een GTX 980 nog last van microstuttering, waarop we in een eerdere review al eens ingingen.

Grid 2 - 1920x1080 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
******
+
**
117,6 / 146,6
Nvidia GTX 980
*****
+
**
110,0 / 138,3
Inno3D GTX 970
****
+
*
95,3 / 120,0
AMD R9 290X
****
+
*
91,4 / 116,4
AMD R9 290
****
+
*
85,1 / 107,9
MSI R9 285
***
+
*
71,3 / 89,7
MSI R9 280X
***
+
*
69,9 / 89,2
Asus GTX 960 Strix
***
+
*
66,2 / 82,9
Gigabyte GTX 960 G1
***
+
*
65,6 / 81,2
MSI GTX 960
***
+
*
63,7 / 80,5
AMD R9 270X
***
+
*
56,7 / 72,0

Grid 2 draait al geruime tijd mee in onze vaste lijst met test-games en is zelfs op de hoogst mogelijke instellingen een peulenschil voor de langzamere videokaarten. De kaarten van Asus, Gigabyte en MSI komen netjes op volgorde van kloksnelheid binnen.

Grid 2 - 2560x1440 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
MSI GTX 960 SLI
******
+
**
84,3 / 104,5
Nvidia GTX 980
*****
+
**
78,6 / 99,7
AMD R9 290X
*****
+
*
69,9 / 88,6
Inno3D GTX 970
****
+
*
66,4 / 85,9
AMD R9 290
****
+
*
63,8 / 80,9
MSI R9 285
****
+
*
54,2 / 68,1
MSI R9 280X
***
+
*
53,0 / 66,7
Asus GTX 960 Strix
***
+
*
46,7 / 58,9
Gigabyte GTX 960 G1
***
+
*
46,9 / 58,8
MSI GTX 960
***
+
*
44,9 / 57,2
AMD R9 270X
***
+
*
41,3 / 51,8

Bij 2560x1440 pixels vormt Grid 2 evenmin een probleem voor de GTX 960. Ook op deze resolutie schaalt de game goed naar twee videokaarten, waardoor een losse GTX 980 opnieuw het onderspit delft.

Opgenomen vermogen en geluidsproductie

In de benchmarks die we gedraaid hebben, zijn de onderlinge verschillen tussen de GTX 960-kaarten klein, wat te verwachten was gezien de vrijwel gelijke kloksnelheden. De verschillen in koeling en energievoorziening zijn echter groter, en die stellen we dan ook op de proef.

Bij het meten van het opgenomen vermogen klokken we ons testsysteem terug naar de standaardinstellingen. We maken gebruik van een energiemeter van Voltcraft om het opgenomen vermogen te meten. We meten het idle-vermogen door het systeem aan te zetten en net zo lang te wachten tot het op een constante waarde blijft hangen. Voor het ingame-vermogen draaien we gedurende twintig minuten Unigine Valley, waarbij we met behulp van de energiemeter het opgenomen vermogen loggen. Het uiteindelijke resultaat is het gemiddelde van de gemeten waarden gedurende die periode. Furmark hebben we definitief afgeschaft, omdat vrijwel alle gpu's tegenwoordig beveiligingen hebben ingebouwd die voorkomen dat de gpu op vol vermogen draait.

Het idle-verbruik van de drie GTX 960-kaarten ontloopt elkaar niet echt en ook tijdens het draaien van games zijn de onderlinge verschillen niet groot. De MSI is de zuinigste, terwijl de Asus en Gigabyte iets meer verstoken. Zet je twee GTX 960-kaarten in sli, dan verstook je iets meer dan met een losse GTX 980 op standaardsnelheden. Onze test-GTX 970 is een overgeklokt exemplaar, wat terug te zien is in de energieconsumptie; die ligt hoger dan bij een GTX 980 op standaardsnelheden.

Het meten van de geluidsdruk doen we tegelijk met het testen van het opgenomen vermogen. We draaien Unigine Valley en loggen het geluidsniveau gedurende twintig minuten op twintig centimeter afstand van de videokaart. We hebben geen perfect geluiddichte testomgeving, waardoor er ook altijd omgevingsgeluid gemeten wordt. De druk van het omgevingsgeluid bedraagt ongeveer 30db(A). De gemeten waarden geven dan ook geen absolute geluidsproductie van de koeling weer, maar bieden wel de mogelijkheid om de geluidsproductie van de videokaarten onderling te vergelijken.

In idle-toestand draaien de ventilators van de GTX 960-kaarten niet en valt er dus alleen 30db(A) aan omgevingsgeluid te meten. Tijdens het draaien van Valley betaalt het gebruik van de grote heatsinks op de Gigabyte- en MSI-kaarten zich uit en stijgt de geluidsproductie nauwelijks. De Asus-960 heeft een wat kleinere heatsink dan de andere twee kaarten, wat tot een hogere geluidsproductie leidt. Daar staat wel tegenover dat de Asus-kaart koeler blijft, met een temperatuur die niet boven de 60°C uitkomt. De MSI en Gigabyte worden met 63 en 69°C wat warmer, maar voor videokaarten zijn dat geen temperaturen waarover we ons zorgen maken.

Overklokken

Asus, Gigabyte en MSI hebben alledrie hun GTX 960-kaarten behoorlijk hoge kloksnelheden meegegeven ten opzichte van de standaardsnelheden die Nvidia voorschrijft. Uiteraard wilden we kijken of er niet nog wat meer uit de GM206-gpu te halen valt en zijn we de videokaarten gaan overklokken. Daartoe hebben we de koeling van de drie kaarten op volle snelheid laten draaien en zijn we begonnen het geheugen over te klokken.

Het gddr5-geheugen, dat standaard op een effectieve 7010MHz draait, wisten we bij alle videokaarten zonder problemen op te voeren naar een effectieve 7750MHz. Vervolgens hebben we de boost-snelheid van de gpu onder handen genomen. Tijdens het overklokken bleek dat Asus de spanning op de gpu standaard al heeft verhoogd naar 1163mV, terwijl MSI en Gigabyte standaard op 1037mV werken. In de boost-snelheid van de Asus-gpu bleek uiteindelijk de minste rek te zitten, we wisten de gpu over te klokken tot 1455MHz, bij een spanning van 1175mV. De MSI en Gigabyte klokten nog wat beter over, bij een lagere spanning. Uiteindelijk kwam de MSI uit op 1475MHz bij 1062mV, terwijl de Gigabyte nog 10MHz sneller bleek, bij 1075mV.

Vermoedelijk zit er nog wat meer rek in de maximale kloksnelheden van de videokaarten, maar gezien de beperkte tijd die we hadden, zijn de genoemde snelheden het maximale dat we uit de videokaarten hebben kunnen halen. Vooral de Gigabyte-kaart zou dankzij zijn zesfasige spanningsregeling nog meer overklokpotentieel moeten hebben.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
MSI GTX 960 SLI
*******
14872
Nvidia GTX 980
******
13245
AMD R9 290X
*****
11624
Inno3D GTX 970
*****
11244
AMD R9 290
*****
10730
Gigabyte GTX 960 G1 OC
****
8752
MSI GTX 960 OC
****
8709
MSI R9 280X
****
8679
Asus GTX 960 Strix OC
****
8647
MSI R9 285
****
8073
Asus GTX 960 Strix
****
7904
Gigabyte GTX 960 G1
****
7741
MSI GTX 960
****
7492
AMD R9 270X
***
6047
Nvidia GTX 750 Ti
**
4279

Gezien de beperkte tijd hebben we alleen 3DMark kunnen draaien op de overgeklokte videokaarten. De overgeklokte gpu's tikken tien tot veertien procent sneller dan standaard, wat de GTX 960 in 3DMark vergelijkbaar maakt met een R9 280X.

Conclusie

Met de GTX 960 bouwt Nvidia voort op het succes van de Maxwell-gpu uit de GTX 970 en 980. GM206 heeft daarbij nog wat extra verbeteringen aan boord in de vorm van hardwarematige ondersteuning voor het decoderen van h265-video en hdcp 2.2, wat in de toekomst ongetwijfeld van pas zal komen.

Over de prestaties van de GTX 960 in games zijn we enigszins verdeeld. Enerzijds blijkt de GM206-gpu in combinatie met 2GB werkgeheugen niet geschikt voor games met een hogere resolutie dan 1920x1080 pixels en is het gat met de GTX 970 nog behoorlijk groot. Aan de andere kant is de adviesprijs van 210 euro daar ook naar; een GTX 970 presteert dan wel stukken beter, maar is dan ook meer dan anderhalf keer zo duur. Bovendien blijkt er nog wel wat extra snelheid uit de GM206-gpu te halen. Zonder veel moeite lieten we de gpu 300MHz sneller tikken dan de standaardsnelheid die Nvidia hanteert. Ook sli maakte indruk; twee GTX 960-kaarten blijken in verschillende games sneller te zijn dan een enkele GTX 980, die een stuk duurder in aanschaf is. Driver en game moeten daarbij wel goed samenwerken, want de minimale framerate schaalt in een paar games nauwelijks mee.

De GTX 960 wordt Nvidia's directe concurrent van AMD's R9 285. Wat prestaties in games betreft ontlopen de videokaarten elkaar niet veel en ook de adviesprijs van 210 euro voor de GTX 960 is vergelijkbaar met de prijs van een R9 285. Daarbij hebben beide videochips hun eigen unieke eigenschappen, waarbij AMD bijvoorbeeld TrueAudio ondersteunt, maar de GTX 960 hardwarematige ondersteuning voor h265-video en hdcp 2.2 heeft. Bovendien is de GTX 960 een stuk zuiniger dan de R9 285. Als je geen speciale voorkeur voor AMD of Nvidia hebt, is de GTX 960 wat features en efficiëntie betreft de beste keuze.

De GM206-gpu kan onze goedkeuring dus wegdragen. We hebben echter niet alleen die nieuwe gpu getest, maar ook drie nieuwe videokaarten. Die kaarten ontlopen elkaar in prestaties nauwelijks en het grootste verschil is te zien op het gebied van koeling. De koelers van MSI en Gigabyte zijn wat formaat betreft misschien een beetje overkill, maar als je genoeg ruimte in je behuizing hebt, zijn beide erg stil en koelen beide goed. Het kleinere videokaartje van Asus koelt weliswaar iets luidruchtiger, maar houdt de gpu daardoor ook weer op een net wat lagere temperatuur dan de andere twee videokaarten.

Tot zo ver weinig verschillen dus. Wil je out of the box (nipt) de snelste van de drie, dan neem je de Asus. Wil je een zo laag mogelijke geluidsproductie, dan zijn de GTX 960 van Gigabyte en die van MSI geschikte kandidaten. Wil je stevig overklokken, dan lijkt de zesfasige stroomvoorziening van de Gigabyte de grootste kans op succes te bieden en dat levert de G1 Gaming wat ons betreft een halve ster extra op.

Reacties (143)

143
140
93
7
0
24
Wijzig sortering
Deze kaart is nog duidelijk onder de 280x/770 gepositioneerd, iets betere performance was leuker geweest. Het meest interessante hieraan is toch wel de verschillen in hoe ze power krijgen:
Nvidia reference + Asus = 6-pin
MSI: 8-pin
Gigabyte: 2 (!) 6 pins
Vraag me dan af wat voor zin die extra 6 pin bij Gigabyte heeft gehad, al weet ik natuurlijk niet hoeveel power je verbruikt bij een overclocked card. Stel je overclocked en je verbruikt nog 30watt meer power, dan zit je al tegen de 240 watt aan, gelijk met de 280x/770. Het idee dat maxwell gpu's zuiniger zijn is dan een beetje weg.
Techpowerup heeft hier ook een interessante review van trouwens. Als de prijs een beetje schappelijk is wil ik nog wel overwegen om m'n enkele gtx660 hiermee te vervangen :)

[Reactie gewijzigd door markmjb op 23 juli 2024 02:36]

"Vooral de Gigabyte-kaart zou dankzij zijn zesfasige spanningsregeling nog meer overklokpotentieel moeten hebben."

Door het gebruik van twee losse 6-pins aansluitingen kan de Gigabyte redelijk wat stroom trekken. Het is niet exact zo dat 2 x 6 pin = 150 watt en 1 x 8 pin (MSI) = 150watt. De spanningsregeling zit anders in elkaar waardoor de Gigabyte variant wat verder te pushen valt.
Ja als je dezelfde gpu-chips zou hebben zou je iets verder moeten kunnen gaan. Echter je weet nooit hoe goed jouw gpu-unit is en dat is wel de beperkte factor.
Anoniem: 58485 @markmjb23 januari 2015 09:48
De 280X blijft de betere keuze, als je niet zoveel geeft om een iets hoger verbruik.

In SLI schalen deze kaarten ook ruk. Ze zijn niet geschikt voor hogere resolutie omwille de 128bits bus. Daarnaast is de prijs van 2x 960's duurder dan een enkele Nvidia kaart.

Ik zet m'n geld lekker in op AMD. Doet het net ietsjes beter. :)
Dat is het verbruik van het gehele systeem..
Jullie testen overgeklokte kaarten vs referentie kaarten, klok er dan ook even eentje terug naar referentie snelheid zodat we appels met appels vergelijken. De andere kaarten zijn namelijk ook bijna allemaal aftermarket, en zijn dus iets sneller dan de referentie modellen.

En waarom geen vergelijking in stroomverbruik met AMD?
Dat heb ik net ook gemeld, er wordt wel gesproken dat een Nvidia zuiniger is.
Maar met frames worden ze wel vergeleken en met stroomverbuik ineens niet, vreemd!
Ik heb een HD7950 gehaald voor 100 euro tweedehands vorig jaar en die presteerd gemiddeld 5 tot 10 procent minder dan deze kaart van 200 euro op 1920x1080. Er kwam toen een golf van mining kaarten op de markt en dat dreef tweedehandsprijzen omlaag maar alsnog. Vooruitgang waar blijft u? 20 nm we wachten. Waar is de tijd van de HD4870/GTX260 en van de HD5850 dat prijs/prestatie elk jaar met 30 procent vooruitging? 20 nm ik wacht op u

Het is ongeveer 5 euro meer aan stroom per jaar dus dat maakt ook geen moer uit..

[Reactie gewijzigd door Tomm13 op 23 juli 2024 02:36]

Het probleem ligt niet bij AMD of Nvidia, maar bij TSMC, die hun 20nm procedé niet op tijd in orde kregen. Nvidia en AMD moeten zich dus behelpen met 28nm.
Gelukkig zou de volgende stap (16nm) wel op schema liggen, en dus zou er eind 2016 of in de loop van 2017 wel eens een grote stap gezet kunnen worden op vlak van GPU's.
Momenteel heb je ook een flinke hoeveelheid tweedehands R9 290-videokaarten in Vraag en Aanbod die 30-50 euro goedkoper zijn dan deze videokaart.
Overzichtje van GTX 960 reviews around the web:
NL:
HWI: GTX 960 - ASUS vs Inno3D vs MSI vs Zotac - Overzicht varianten Nvidia-partners

EN:
The Tech Report
PC Perspective
Guru3D: Gigabyte - KFA2 - ASUS (SLI) - MSI
Techpowerup: ASUS - MSI - EVGA
HardOCP (MSI)
Hexus (ASUS)
TweakTown (Zotac)
Overclock3D (MSI)
Tom's Hardware
AnandTech heeft nog geen review :(

DE:
ComputerBase (ASUS, MSI, Palit & EVGA)

[Reactie gewijzigd door Tomas Hochstenbach op 23 juli 2024 02:36]

Ik zit nog steeds te twijfelen of ik weer naar PC gaming of naar een nieuwe console ga. Veel mensen roepen dat de consoles duur zijn en weinig prestaties bieden en dat je voor hetzelfde geld een PC kunt samenstellen die wel 1080p en 60fps kan op de hoogste settings.

Dit soort kaarten voor 250 euro die nog steeds niet 1080p met 60fps halen, waarbij je nog de rest van het systeem moet kopen. Dan red je het toch nooit om voor 370 euro een PC samen te stellen die sneller is dan de consoles nu. Enige kaarten die 60fps met de nieuwste spellen halen (en dan ook nog stabiel) zijn over de 400 euro of je moet met SLI gaan werken. Tel daar dan nog een CPU, Moederbord, Geheugen en een kast bij op en je zit zo aan de 700 euro.

Mis ik nou iets?
Je vergeet de r9 290, een beest van een kaart die tot nu toe alles ultra 60+ fps haald. De msi en de asus zijn nu vanaf 260 euro verkrijgbaar, ik heb de mijne dan ook net binnen...
Je kan al een best goedkoop systeem a 5-600 euro kopen die nu alles op ultra kan, maar over een par jaar een flinke upgrade nodig heeft. Daarnaast vergeet je het abbonement voor de consoles en dat games zo'n 10 euro duurder zijn tov de pc. En je zegt nu 60fps, je haalt op een console bij de meeste spellen 30fps op 1080p, sommige spellen zij zelfs 900p.

-edit- iemand was mij voor

[Reactie gewijzigd door pwillemske op 23 juli 2024 02:36]

260 Euro alleen al voor je videokaart en dan maar 600 euro voor je hele systeem? Dan kost de rest 340 euro. Dat lijkt me dus niet. Dat is wel heel optimistisch rekenen.
ligt eraan wat je allemaal nodiug hebt. ervanuitgaand dat iemand al een pc heeft staan kan het een kwestie zijn van CPU, moederboard en RAM kopen. als iemand een beetje recente pc heeft heb je zelfs die ram neit eens nodig. je kan de case evt. hergebruiken, muizen e.d. kunnen mee, harde schijf kan erin worden gemikt. ik heb nu zo'n 2 jaar geleden mijn huidige pc gebouwt, en was toen 1050 euro kwijt. 440 daarvan was voor de videokaart, en dat was het bouwen van een pc vanaf 0 - ik moest toen echt alles hebben. zo optimistisch is het dus niet.

sterker nog, met een hele snelle blik over de pricewatch kan ik al een OK processor met moederboard zien voor 220 euro. ik denk best dat je voor 120 euro een case, RAM en een aftermarket cooler kan vinden.

daarbij komt dat je vaak een godsvermogen kwijt bent aan rand apperatuur en spellen op een console. en uiteindelijk is die console dan ook niet al te geweldig. de eerste "next gen" games zoals unity draaien geen 1080p 60fps. verre van. zou dus ook neit weten waarom een pc dat wel zou moeten halen. deze videokaarten bieden op zijn minst een gelijkwaardige kwalitiet als console.

al met al als je niet alles meteen wil pre-orderen zal een pc erg snel goedkoper uitpakken, al is het maar omdat je met een pc ook gewoon andere dingen kan doen. ik geloof niet dat als je een console zou kopen je geen computer in huis zou hebben.
Nog een opmerking hier aan toe voegen, consolegames zijn vaak duurder dan de pc versies.

(geen idee waarom)
als ik me het goed herinner komt dat vanwege licentiekosten die dus steeds een deel van de omzet afsnoepen. ook zijn op de consolemarkt de digital downloads nog niet zo doorgedrongen als op de pc markt wat dus ook meer kost. of ten minste, niet in mijn omgeving. iedereen die ik spreek die een beetje op een cosnoel speelt haalt ze toch voornamelijk in de winkel.
Helaas heb ik geen windmolen in mijn tuin en zal die R290 aan het einde van het jaar toch lichtjes de elektriciteitsrekening hoger maken:

http://techreport.com/r.x/geforce-gtx-960/power-99th.gif
Haha, daar heb je gelijk in, al zou die de 300W niet heel vaak aanspreken...maar ik ben er mee eens dat het geen zuinigheidskapioen is :) Al heb je voor dat geld van de 960 een veel betere kaart...maar uiteraard moet het ieder voor zich weten.
Klinkt reeël gezien je eisen. Ik zou jezelf de vraag stellen of je de PC als multifunctioneel apparaat gaat gebruiken. Zelf zou ik niet zonder kunnen, het werkt een heel stuk efficiënter dan een laptop o.i.d. Tel daarbij ook nog eens de goedkope Steam keys op, en ik denk dat je op de lange termijn goedkoper uitkomt. Ook is het een genot om games om 60fps+ te spelen t.o.v. de 30 op een console.

De initiële aanschaf is hoger, maar daar krijg je in mijn ogen meer dan genoeg voor terug.

[Reactie gewijzigd door GekkeHenk op 23 juli 2024 02:36]

Vergeet 60hz, je kan met een 2de hands R9 290(X) gemakkelijk de 144hz halen.
2de hands R9 290 heb je al vanaf 170€!
Het is dat het niet voordehandliggend is voor iedere gamer om een 144Hz scherm te hebben, anders kon ik me blindelings vinden in je uitspraak. :P
Ach je moet ook niet vergeten dat de testen hier op ultra gedaan zijn. Daar zijn de grafische setting op de console ook niet met te vergelijken. Daarnaast verwacht ik ook echt wel dat de kaart in prijs gaat dalen. Wil je een goede prijs zul je zelden (lees nooit) iets net na release hebben.

Voor 370 euro een stevige game-pc bouwen zal lastig blijven.Maar vergeet niet dat pc versies van games vaak een heel stukje goedkoper zijn/ je niet betaald om online te mogen.
Ja inderdaad! Het is zelfs zo erg dat je het verschil tussen high en ultra amper ziet...en toch redelijk wat fps scheelt. Ik ben wel eens dat de aanschafkosten duurder zijn, maar geen andere jaarlijkse kosten hebt.
Dit is inderdaad helemaal correct. Ik zou zeggen dat je het zou moeten vergelijken met med/high settings? Dan kan een kaartje van rond de 200 euro volgens mij nog prima meekomen en op 60fps draaien. Mijn gtx670, die je 2e hands voor rond de 100 euro kan krijgen draait DA inquisition nog 40fps op bijna alles ultra geen aa alleen. (bind me er niet op vast ik heb het al een tijdje niet meer gespeeld.)
Ik denk dat je de GTX 670 heel mooi met de GTX 960 kan vergelijken qua prestaties. Toch verbruikt ook de 670 niet te veel. Een veel betere keus om de 670 dan tweedehands te halen.

Ik moet zeggen dat ik zelf de performance van deze dingen in SLI op 4K echt zwaar vind tegenvallen. Het zal wellicht de ongelooflijk geknepen busbreedte en geheugengrootte zijn. Ik wil binnenkort naar 4K en een R9 290 i s soms sneller, en dat is ruim 400 euro tegen minder dan 300...
daarnaast heb ik toch maar ruimte voor één kaart, maar goed.
nou is deze videokaart natuurlijk helemaal niet ontworpen voor 4k natuurlijk.

4k gaming is een enorme niche. de andere componenten zijn vrij prijzig. ik denk dat de fabrikant ervan uitgaat dat mensen die voor 4k gaan geen middle tier videokaart kiezen.
Het kan wel hoor. Ik merk dat men een beetje geïntimideerd raakt van 4K maar dat is helemaal niet nodig. Ik heb een beetje mogen spelen met 4K en voor alles behalve echte benchmarkgames met overkill grafische opties kun je prima met één high end GPU af, en zoveel meer dan een mid range kaartje kosten die nu ook weer niet. En mocht je een spel hebben wat alsnog niet fijn speelt op 4K, kun je altijd nog terugschakelen naar 1080p.

De monitors zijn duur, maar in 2015 wil ik wel één die een hogere resolutie heeft als mijn telefoon. Bovendien kan je best lang met een goede monitor doen.
Voor 370 euro wordt het een lastig verhaal inderdaad. Als je goedkoop wil PC-gamen, koop dan een tweedehands R9 280X, die gaan voor 120 euro weg hier op V&A. Daarmee speel je alle huidige games in 1080p op high.

Sowieso zijn games op de pc stukken goedkoper dan voor de console. Een nieuwe titel kost je op de console sowieso 50 euro. Op de PC scoor je die vaak al bij de release voor 30 euro of minder.
Ja, die jongen van Tweakers test op High Quality of Ultra e.d. Op console zal je misschien medium meekrijgen dus in dat geval zal je scores slecht kunnen vergelijken. Een xbox schaalt een lagere render resolutie op naar 1080p en een PS4 doet netjes 1080p maar niet op 60 plus FPS.

Persoonlijk zou ik voor een console kiezen als je maten er ook een hebben en voor de seamless integratie met het PSN of Xbox gold netwerk. Of al mocht je van controller based spelen houden. Ookal zijn ook hier prima pc alternatieven voor. Blijft de prijs over.

Ps. Mocht je veel games kopen kan je al snel 100 euro voor kosten aan pc games tov console schijfjes aftrekken. De prijzen op pc zijn vrij schappelijk, 65 euro voor een console game is huilen.

[Reactie gewijzigd door HgnX op 23 juli 2024 02:36]

Anoniem: 524287 @hiostu22 januari 2015 21:45
Je mist een paar dingen:
- PC heeft 99% backwards compatibility. D.w.z. dat je bij aanschaf van een game pc nagenoeg alle pc games van 2015 t/m 1952 kan spelen. Het houdt alleen niet op bij pc games: je kunt ook games van de PS2, PS1, alle Nintendo consoles behalve de Wii-U en alle Sega consoles spelen via emulators die vaak betere resultaten geven dan de officiële remakes. Als je nu een PS4 of XB1 koopt heb je enkel toegang tot PS4, XB1 of dure HD remake games.
- Zoals hier al eerder gezegd: pc games zijn veel goedkoper dan console games (€35 voor een nieuwe game i.t.t. €60), dus als je veel games koopt ben je op de lange termijn dik goedkoper uit.
- Volledige vrijheid van besturing. Het merendeel van de games tegenwoordig heeft native Xbox controller support. Wil je dat echter niet, dan gebruik je toch keyboard en muis? Hang je pc aan je tv via hdmi, hang er een controller aan en laat Steam Big Screen opstarten met je besturingssysteem en je hebt niet eens door dat je op een pc aan het spelen bent. (Tip: sommige oude games hebben een launcher waar je op een knop moet klikken, dus draadloze goedkope €15 kutmuis is wel handig).

Ik was vroeger fervent console gamer tot ik een fatsoenlijke game pc kreeg. Sindsdien fervent pc gamer juist om bovenstaande voordelen.
Ik was vroeger fervent console gamer tot ik een fatsoenlijke game pc kreeg. Sindsdien fervent pc gamer juist om bovenstaande voordelen.
Je bent niet de enige.
Heb Farcry 3 op mijn xbox 360 gespeeld en nu Farcry 4 op mijn game pc met alles op max.
Dat is wel een behoorlijk verschil moet ik zeggen en speel nog steeds lekker met een xbox controller :D
Vergeet niet dat je naast een game-systeem ook een volledige computer hebt, waar je meer op kunt doen dan alleen gamen.
Daarnaast halen consoles ook lang niet altijd 1080p60.
Je hoeft ook niet jaarlijks te betalen voor online, en games zijn vaak een stuk goedkoper met een groter aanbod.
Een computer kopen is een flinke investering.

hoe meer geld je erin steekt in het begin hoe meer profijt je er later van hebt.
koop jij een degelijke moederbord, processor waterkoelset en alles erop en eraan. kun je vrij lang met 1 pc doen. lekker overclocken etc en als de videokaart niet meer bevalt even een nieuwe videokaart erin proppen.

dat kun je weer niet bij de console, die schalen de graphics elke keer naar beneden, of de game makers moeten tijd in de optimalisatie steken. of het word dus op 30fps.

dat erbij heeft de console maand kosten en betaal je ~10 euro meer dan bij pc spellen.
reken maar uit wanneer je dus goedkoper uit bent met een pc. Dat erbij pc kun je up to date houden een console niet (ja een nieuwe kopen, moet die er wel zijn ;) en dat duurt altijd wel een tijdje want ze willen zo veel mogelijk rekken!)
Een (goede) gamepc gaat nooit goedkoper zijn in aanschaf dan een console, dat niet inderdaad. Wanneer de PC er wel beter uit kan komen qua prijs is als je de aanschafprijs van games over de jaren mee gaat rekenen. PC games zijn bij release meteen al een stuk goedkoper dan de console variant en zakken meestal ook nog sneller in prijs (vooral als je even wacht op de steam sales).

Verder moet je je zoals anderen zeggen inderdaad niet verkijken op die ultra settings met maximale antialiasing. Dat wordt bij benchmarks gedaan omdat het de beste manier is om de GPU's het vuur aan de schenen te leggen en dus de verschillen tussen de kaarten zichtbaar te maken. In de praktijk is dat vaak echter nergens voor nodig tenzij je echt flink geld tegen je PC aangesmeten hebt en daar de vruchten van wil plukken. Zelf gebruik ik bijna nooit AA want dat zie ik toch niet. Zelfs als ik wel stabiel 60 FPS met AA haal doe ik het vaak niet, simpelweg omdat mijn videokaart dan minder geluid maakt zonder AA :) (en dan even de opmerking dat ik mijn PC direct naast me op tafel heb staan, wat niet ideaal is voor geluid, maar bij mij even niet goed anders gaat)
Op het laatste systeem na halen die systemen niet betere resultaten dan de consoles. En dat systeem is 700 dollar ex btw. Dus ik mis blijkbaar niet iets :+
Anoniem: 524287 @hiostu24 januari 2015 09:01
Je mist dat je op je next gen console geen huiswerk of administratie kan doen en je naast je console dus nog een >€300 tablet, pc of laptop nodig hebt. Dat bedrag mag je even bij je console optellen.
Dat geldt niet voor iedereen er zijn genoeg mensen met een laptop en tablet van de werkgever. Daarnaast zijn er genoeg mensen die een laptop of tablet kopen, omdat die graag het device ook mee moeten of willen nemen. Zeker voor bv studenten is een laptop of hybrid interessant, omdat ze die mee kunnen nemen naar college.

Dus die mensen moeten een dergelijk systeem dan puur voor gamen kopen.
Mis ik nou iets?
Als je de eis van 60fps los laat, heb je veel meer ruimte en kan je goedkoop een pc in elkaar zetten die de consoles wegblaast en betere graphics kan produceren.

voor mij is 35+ fps voldoende, maar dat geld natuurlijk niet voor iedereen.
Dan moeten de GTX 960 eerst eens voor €210 beschikbaar komen. Wat ik nu zie zit het in dezelfde prijsklasse als de R9 280x welke toch wel een aanzienlijk stukje sneller is. Niet te min een leuke kaart.
Voor mij nog steeds geen reden om mijn Geforce GTX 680 (MSI) te vervangen, hij is nog steeds ietsjes sneller dan de Geforce GTX 960, alleen niet in Metro Last Light.

Mijn Geforce GTX 680 is standaard ongeveer net zo snel als de Geforce GTX 770.

http://www.guru3d.com/articles_pages/msi_geforce_gtx_960_gaming_oc_review,1.html

Ik vind het nog steeds erg jammer dat Tweakers zo weinig andere Grafische Kaarten mee testen, of als ze al getest zijn er bij halen, dat doet Guru3D wel, en ook meer spellen en meer info.


Werk daar nog aan Tweakers, want dat is nog steeds de reden dat ik niet veel heb aan jullie Grafische Kaarten Reviews.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 02:36]

Inderdaad zeg. De webshops hanteren nu echt woekerprijzen. Ik zie zelfs 270 euro voorbij komen.
Als hij onder de 200 komt, wordt deze kaart wel interessant.
We moeten de webwinkels ook even de kans geven om een normaal prijspeil te bereiken. Het is nogal wiedes dat de prijs tijdens de release even spiket door het grote vraag-aanbod verschil op de inkoopmarkt!
De buren hebben een heel artikel geschreven, dat in detail verklaart waarom de vraagprijzen momenteel zo hoog zijn: http://nl.hardware.info/n...deokaart-moet-pre-orderen
Er speelt toch heel wat meer dan alleen de wetten van vraag en aanbod! Lees het artikel maar eens door.
Thanks voor de bron, dat verklaart dat het dus zo lijkt op een vraag-aanbod spike! Pre-orderen is trouwens sowieso een slecht idee. Eerst zien, dan pas kopen!
Duurt een weekje, en voorlopig verwacht ik niet dat je em binnen 24 uur op je deurmat hebt liggen, dus doe het rustig aan. Prijzen beginnen altijd hoog, omdat winkels dan maximale winst erop willen draaien. Er is meer vraag dan aanbod, dus prijzen zijn hoog. Over een paar weken komt een hele container met kaarten aan, en dan opeens heeft iedereen ze, en zijn ze 210 euro. Probleem opgelost, een paar fanboys hadden hun kaart al (en betaalden 60 euro meer), en de rest van de wereld vindt het ook goed.
Die 2gb geheugen is echt een killer voor hoge resoluties.... Beetje jammer
4GB over 128 bit gaat zelfs met Maxwell bijzonder krap worden hoor.

Het heeft geen nut. Als je verwacht met een 960 op 1440p lekker te gaan gamen, tja, dan heb je je research gewoon niet gedaan.

[Reactie gewijzigd door Vayra op 23 juli 2024 02:36]

Toch is het naar mijn mening geen goede stap van nVidia. Op deze manier dwingen zij de consument een duurder model te kiezen, bijvoorbeeld de GTX 970.

Op dit moment zou ik iemand niet zo snel een GTX 960 aanraden. Iemand die over 2 jaar zijn beeldscherm vervangt naar een 1440p scherm is direct de dupe van de keuze van nVidia. De 280X is naar mijn mening veel meer futureproof en dus een betere keuze.
Hoe is het geen goede stap van Nvidia om potentiele kopers te bewegen naar een duurder product?

Zij weten ook dat je niet gauw een stap terug doet, maar wel eerder een stap 'omhoog'.
Naar mijn idee is het geen goede stap van nVidia aangezien de stap naar de concurrent nu erg op de loer ligt. Ook voor de consument is het niet erg fijn, omdat de concurrentie op deze manier verdwijnt op dit prijsniveau.

Op dit moment biedt de 280X gewoonweg meer waar voor zijn geld, waardoor de keuze voor AMD al snel gemaakt is.
Als je over twee jaar zo'n monitor aanschaft en dan ook op die resolutie wil gamen dan zul je toch al snel ook een dan nieuwe GPU aan willen schaffen hoor, anders zul je denk ik voor die resolutie teveel concessies moeten doen. Tenzij je alleen oudere games speelt, maar dan is het ook de vraag hoe vaak je nou echt last hebt van die 2 GB.
Het is het een of het ander, of je speelt graag de nieuwste games op hoge settings en je zou wat aan meer geheugen hebben, maar dan wil je eigenlijk ook een snellere kaart... of je doet dat niet en dat geheugen maakt ook niet zoveel uit als jij hier nu doet voorkomen.
Over 2 jaar de nieuwe games op 1440p spelen gaat je met een 280x ook niet lukken.

Het is allemaal gewoon erop berekent, die 2GB is pas een limitatie als de GPU het niet trekt en je sowieso al <30fps zit.

Zelfde verhaal met de 680, de 4GB versie was pas beter in situaties waar je er niks aan had ;)
zelf op 1080p is 2GB momenteel redelijk krap, games vragen steeds meer en meer vRAM
Vind ik eigenlijk niet zo´n groot probleem. Bij hogere resoluties gaat meer geheugen ook niet heel veel meer helpen denk ik zo, omdat dit sowieso al te hoog gegrepen is voor een dergelijk mid-range kaartje. Iemand die op 4K wilt gamen gaat überhaupt niet voor een dergelijke kaart zal NVIDIA denken (en ik ben het daar dus wel mee eens).
blijf erbij dat de steeds meer spellen gaan komen die verwachten dat er 4gb (of zelfs meer) videoram aanwezig is, al is het maar omdat de consoles dit op dit moment bieden.

Als je dan op de pc met minder videoram toch de hogere texture settings wil (ook al draai je nog op 1920x1080 met niet al te veel AA) worden er constant textures geupload wat de fps zal doen plunderen.

Ik blijf mensen aanraden dat als ze nu kaartjes 'een beetje voor de toekomst kiezen' dat 3gb rn liever wat meer toch echt het minimum is, ongeacht je resolutie.

Maar hangt er ook van af wat je wil natuurlijk, als je het niet erg vind om de textures een (klein) tandje terug te zetten dan is die 2gb meer dan genoeg op 1920x1080 en kan de rekenkracht van de kaart zijn ding doen en zal het heerlijk lopen.

Ik 'voorspel' dit ook meer kijkende naar de vorige generatie van games, waar alles met de consoles van die tijd (ps3/xbox360) eigenlijk werd gemaakt, en er bakken met 'slordige' snelle ports naar de PC waren. In dat geval was de PC alleen ver uit beter op elke gebied van specs en werd er dus gezeurd dat er geen rekening met de PC werd gehouden om even wat meer 'bling' er in te stoppen bijvoorbeeld.
Als datzelfde nu weer gaat gebeuren, dan heeft de PC weer op elk gebied na betere specs (meestal), op dus een klein dingetje na: de hoeveelheid RAM en hoe dat te delen / benaderen is door CPU / GPU. Er zijn nu dus al wat spellen die 'advies' geven voor een videokaart van 4GB voor full-hd gaming en de hoogste texture settings.

Wie weet heb ik het mis en blijven spellen netjes rekening houden met de 2GB aan 3GB van de gemiddelde 'redelijke' gaming kaart.. wie weet (more likely) ben jij als consument nuchter genoeg om te zeggen 'zo bijzonder vind ik de 'ulra' textures niet, ik zet ze wel een tandje terug', kan ook heel goed natuurlijk :). Het is gewoon iets om in de gaten de houden en te kijken wat de games gaan doen de komende paar jaar.

Je merkt al heel snel nu ze alles op bluray op consoles kunnen doen, dat 30gb a 40gb 'installs' op de PC ook opeens heel normaal zijn. Meestal wennen developers snel aan 'een overvloed' aan specs, en langzaam aan 'hoe te optimizen voor het gebrek aan...' :).
Ik denk persoonlijk dat 3GB een betere keuze was geweest, dan heeft het ook nog wat meerwaarde door het geheugen.
Want voor 40 Euro meer heb je een 280X die soms gewoon 20FPS meer haalt.
Gezien de prijzen is de r9 290 van ATi op dit moment toch een betere keus, ondanks het hogere vermogen. Jammer dat dat en het geluidsniveau niet is meegenomen in de verglijking.

Ik wil een Nvidia, maar dit is niet echt een goede stap als een r9 290 voor hetzelfde te koop is.

De 960 is IMO alleen maar interessant voor zo'n 150-175 euro. Hij doet mij niet mijn 6870 vervangen die ik 3 jaar terug wel voor 150 euro kon kopen.
Ik zou geen r9 290 kopen ik had er 1 gekocht voor €150 leek me een goeie deal, niet dus vreselijke herrie en ik kon het niet verkroppen dat zo'n heet ding in mijn computer zat.
Hij downclocked zich ook wanneer hij te heet wordt dat is 95 graden wat altijd is. Ik heb hem de volgende dag weer op V&A gezet voor dezelfde €150.
Ik heb meteen toch mijn portemonnee getrokken voor een degelijke GTX 970.
Ik weet ook nog niet wat ik ga kopen, maar zelfs een lagere ATI die nog goedkoper is, doet het beter dan deze. Ik wil ook geen 350 euro aan een videokaart uitgeven. Die tijd is wel voorbij. Overigens speel ik nu nog alles op 1080 met mn 6870, dus de vraag is of ik uberhaupt al moet upgraden. Zelfs mn Core i5-2500 doet nog prima mee eigenlijk.

Wel apart, als ik nu een kaart moet kopen, zou het denk ik zelfs een r270 voor 130 euro worden. Die is al 2 keer zo snel als mijn huidige 6870 waar ik dus alles tot nu toe goed kan spelen. Metro en crysis moesten dan in detail wel wat omlaag, maar dat merk ik binnen 5 minuten toch niet meer

[Reactie gewijzigd door basset op 23 juli 2024 02:36]

Is het misschien een optie om even af te wachten wat de R9 3xx gaat doen?
Als je nog geen kaart hebt dus een nieuwe pc opbouwd is het zeker een leuke instap kaart tov de r285, als vervanger van een enigszins recente kaart echter niet echt, gezien de meeste kaarten van afgelopen jaar redelijk dichtbij deze prestaties komen zou ik doorsparen voor een 970 als ik nu een kaart zou moeten halen (heb nu de inno3d gtx970 al gehaald in januari, was een 20-30% boost over de gtx670)
Meestal houd ik de tomshardware lijst aan waarbij je dan voor een upgrade minimaal 2 'tiers' omhoog moet gaan om wezenlijke verbetering te zien in je framerates.
Anders heeft het weinig zin/levert het te weinig extra's op tenzij er een speciale reden is om van merk of generatie over te stappen, zoals true audio van amd of nvidia voor specifieke games die beter op nvidia draait.
Ik zou wel een vergelijking met deze kaart willen zien. Bijvoorbeeld met andere budgetopties van Nvidia. Kan ik eens even kijken of het de moeite waard is om mijn GTX 660 te vervangen. Die is immers ook al weer een paar jaar oud. Kan overigens nog prima meekomen maar als je ziet dat sommige games al 4Gb als recommended aangeven ga ik al twijfelen, zelfs over de 960, totdat de geheugenlimiet wordt losgelaten althans.

Edit: Wou nog even zeggen dat sommige features als HDMI 2.0 ook als overkill voelen voor een kaart van deze prijs en mogelijkheden.

[Reactie gewijzigd door bento smit op 23 juli 2024 02:36]

Guru3d heeft em ook getest en heeft vaak grafieken met behoorlijk veel kaarten. Jouw GTX 660 staat er her en der nog tussen:

http://www.guru3d.com/art..._g1_gaming_review,13.html
Thanks. Volgens die link kan ik toch 30/40% verbetering halen in fps bij bepaalde games. Zeker iets om te overwegen dus.
4k tv kijken heb je hdmi 2.0 voor nodig dus als je dat met de kaart wil doen is het zeker geen overkill en kost de kaart ook vast niet veel duurder door.
Ik sta een beetje vreemd te kijken van de vermogens. Ik snap dat dit van het hele systeem is, maar waarom verbruikt het systeem + MSI 199 watt terwijl het systeem met 2 MSI-kaarten maar 70 watt meer verbruikt... Hoe kan dit? De framerates verdubbelen, maar de tweede kaart haalt nauwelijks de helft van zijn TDP :/
Omdat TDP niet per se wat zegt over daadwerkelijk verbruik. Daarbij is misschien de load bij SLI minder dan op 1 kaart, waardoor SLI minder verbruikt tov een enkele maar wel de FPS omhooggaat door gedeelde rekenkracht. Je ziet dat wel vaker bij reviews met 2-3-4 kaarten.
Omdat met sli de load voor de cpu omhoog gaat. Vaak zie je dat in enkele opstelling de grafische kaart nekt en dus op 100% draait en in sli dat de CPU nekt en de kaarten maar op 70% draaien.

Grafische kaarten neigen om heel veel te verbruiken als je ze maxed maar een kaart underclocken zodat hij maar 80% meer kan halen doet wonderen met het verbruik.
zo onlogisch is dat niet
bv de MSI:
idle is 71W
ingame is 199W
wanneer de pc idle is, verbruikt zo'n videokaart 5 à 10W, maar ook de cpu en het moederbord
het verschil tussen 199 en 71 (128W) gaat dus niet enkel naar de videokaart, ook het moederbord trekt 10 à 20W extra, de cpu 50 à 60W en de videokaart ook een 75W
(geschatte waarden)
het TDP is piekvermogen, niet een gemiddelde

Op dit item kan niet meer gereageerd worden.