Door Jelle Stuip

Redacteur

GTX 760: kiezen tussen twee en vier gigabyte

13-09-2013 • 08:00

112

Multipage-opmaak

Inleiding

Inleiding

Eind juni bracht Nvidia zijn nieuwe mainstream-videokaart uit: de GTX 760. De GTX 760 volgt de GTX 660 Ti op, die op dezelfde GK104-gpu is gebaseerd. Ondanks Nvidia's keuze om geen nieuwe gpu, maar een iets gewijzigde, oude gpu te gebruiken, waren we onder de indruk van de prestaties van de GTX 760. De videokaart, die een adviesprijs van 240 euro meekreeg, bleek beter te presteren dan zijn voorganger en de concurrentie in die prijsklasse. We hebben toen alleen het referentieontwerp getest, omdat er nog geen andere videokaarten beschikbaar waren, maar intussen is dat wel het geval.

MSI en Asus GTX 760

Daarom zetten we drie GTX 760's tegenover elkaar om te zien welke van die drie het interessantst is. De drie geteste kaarten zijn overgeklokte varianten en zijn afkomstig van Asus, Gigabyte en MSI. Naast de kloksnelheden zijn ook de koelers van de videokaarten gewijzigd; iedere fabrikant heeft een eigen exemplaar geplaatst.

Van het drietal is Gigabytes 760 een vreemde eend in de bijt, omdat de kaart met 4GB geheugen is uitgerust, waar de andere kaarten het met 2GB moeten doen. Dat schept echter wel meteen een mooie gelegenheid om te kijken hoeveel invloed dat videogeheugen op de prestaties van de 760 heeft.

In deze review houden we het bij de vergelijking tussen de drie verschillende videokaarten. De prestaties van de GTX 760 ten opzichte van andere videokaarten is te lezen in de review van het referentieontwerp.Gigabyte GTX 760

Trio: Asus, MSI, Gigabyte

Asus GTX760-DC2OC-2GD5

De DC2OC-2GD5 is onmiskenbaar afkomstig van Asus. De fabrikant heeft een compacte variant van de welbekende DirectCU II-koeler op de kaart gemonteerd. Het pcb van de videokaart is korter dan die van de concurrenten, waardoor de uiteindelijke lengte op 21,5 centimeter uitkomt. De beide fans hebben een doorsnede van 80 millimeter.

Asus GTX 760

Asus klokt de gpu van de videokaart op 1006MHz en de boostfrequentie haalt 1072MHz. Het geheugen draait op 1502MHz, wat resulteert in een gddr5-snelheid van 6008MHz. Om de videokaart compact te houden heeft Asus ervoor gekozen om de stroomtoevoer van de kaart via één achtpinsconnector te laten verlopen.

MSI N760 TF 2GD5/OC

Net als Asus monteert MSI een bekende koeler op zijn GTX 760. De Twin Frozr-koeler van MSI is wel flink groter dan die van Asus, wat resulteert in een langere videokaart. De doorsnede van de twee fans is 92 millimeter.

MSI GTX 760

Ten opzichte van de videokaart van Asus doet MSI nog een schepje boven op de klokfrequenties. De gpu is standaard overgeklokt naar 1020MHz. De boostfrequentie bedraagt 1085MHz en het werkgeheugen tikt op een ongewijzigde gddr5-snelheid van 6008MHz. MSI monteert een zespins- en een achtpinsconnector voor de stroomtoevoer.

Gigabyte GV-N760OC-4GD

De derde videokaart in de vergelijking is de imposantste van het trio. Gigabytes Windforce-koeler beschikt over maar liefst drie fans, waardoor de totale lengte van de videokaart 28 centimeter bedraagt.

Gigabyte GTX 760De Gigabyte is van het drietal ook het hoogst geklokt; met 1085MHz gaat het bij Gigabyte verder waar het bij MSI ophoudt. De boostfrequentie ligt nog eens 65MHz hoger, op 1150MHz. Gigabyte heeft de geheugensnelheid ongemoeid gelaten. Net als de GTX 760 van MSI krijgt de Gigabyte zijn prik via een zespins- en een achtpinsconnector.

Benchmarks en testsysteem

De games die we hebben getest zullen de regelmatige bezoeker bekend voorkomen; we doorliepen het gebruikelijke lijstje van Aliens vs Predator tot aan The Witcher 2, zodat we een beeld kregen van de prestaties van de drie videokaarten. Omdat een aantal games al redelijk verouderd is en er ook een aantal mooie, nieuwe games in het verschiet ligt, zullen we de testsuite binnenkort aanpassen.

De gebruikte driver heeft versienummer 320.39 meegekregen van Nvidia. Deze driver kwam beschikbaar toen Nvidia de GTX 760 uitbracht. Intussen heeft Nvidia de 320.49 whql-driver beschikbaar gesteld, maar omdat we al een videokaart volledig getest en teruggestuurd hadden, zijn we de 320.39-driver blijven gebruiken. Wel draaiden we een aantal benchmarks opnieuw met de nieuwe driver en daaruit bleek dat de 320.49 whql-driver geen snelheidswinst laat zien in de door ons gebruikte games.

Om te testen of vier gigabyte werkgeheugen een prestatiewinst oplevert ten opzichte van de standaard twee gigabyte, hebben we de videokaart van Gigabyte ietsje teruggeklokt, zodat deze even snel loopt als de kaart van MSI. De resultaten van de teruggeklokte videokaart van Gigabyte zijn in de tabellen weergegeven als 'Gigabyte (1020/1085)'.

Testsysteem

Het testsysteem bevat Intels Sandy Bridge E-cpu, gecombineerd met de X79-chipset. Van Intel kregen we een Core i7 3960X-cpu, die in een Asus Rampage IV Extreme-moederbord wordt gestoken. Deze cpu wordt naar 4,3GHz overgeklokt en met de standaardwaterkoeler van Intel op temperatuur gehouden. Verder gebruiken we 8GB op 1600MHz geklokt ddr3-geheugen, een Kingston Sandforce 2281-ssd van 240GB en een Corsair AX750W Gold-voeding. Alle hardware wordt op een benchtable van CoolerMaster gemonteerd.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 3960X
Geheugen Kingston KHX1600C9D3K4/8GX
Ssd Kingston HyperX 240GB
Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750

Als benchmarks hebben we gekozen voor de games Battlefield 3, Aliens vs. Predator, DiRT: Showdown, Sleeping Dogs, The Witcher 2, Shogun 2: Total War, Crysis 3 en Far Cry 3. Van deze games worden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk worden de interne benchmarks van de games gebruikt. Voor de benchmarks gebruiken we Nvidia's 320.39-driver.

Dell U3011Elke game wordt getest met een Dell U2711-beeldscherm, dat een maximale resolutie van 2560x1440 pixels kan weergeven. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-instellingen, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook passen we altijd 16x af toe. Bij games die dat niet ondersteunen, wordt deze instelling afgedwongen met behulp van Nvidia's Control Panel. In Nvidia's Control Panel staat de anti-aliasing-transparancy-modus op multisampling en is de texture quality op 'quality' ingesteld.

3DMark en Unigine Heaven

Om een idee te krijgen van de verschillen tussen de drie videokaarten draaien we de synthetische benchmarks van 3DMark en Unigine.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
Nvidia GTX 780
*******
9435
HD 7970 GHz
******
7800
Gigabyte GTX 760
*****
6532
Gigabyte GTX 760 (1020/1085)
*****
6264
Asus GTX 760
*****
6131
MSI GTX 760
*****
6124
Nvidia GTX 760 (320.39)
****
6012
Nvidia GTX 760 (320.49)
****
6008
HD 7950 AMD
****
5988

In 3DMark Fire Strike scoort de Gigabyte-kaart duidelijk een stuk hoger dan de rest. Zowel de grotere hoeveelheid werkgeheugen als de hogere klokfrequentie draagt daaraan bij. Verlagen we de klokfrequentie naar het niveau van de MSI, dan ligt de score nog ruim honderd punten hoger. Ondanks de lagere klokfrequentie scoort de Asus negen punten hoger dan de MSI. Het verschil tussen de beide drivers is verwaarloosbaar.

Unigine Heaven 4.0 - Normal
VideokaartIn punten, hoger is beter
GTX 780
*******
2437,00
Asus GTX 770 DirectCU II OC
*****
1678,00
HD 7970 GHz
*****
1657,00
Gigabyte GTX 760
****
1469,00
Gigabyte GTX 760 (1020/1085)
****
1422,00
Asus GTX 760
****
1358,00
MSI GTX 760
****
1349,00
Nvidia GTX 760 (320.49)
****
1318,00
HD 7950 AMD
****
1303,00
Nvidia GTX 760 (320.39)
****
1293,00

In Unigine Heaven ontstaat hetzelfde beeld, ook hier is het verschil tussen de driverversies verwaarloosbaar.

AvP en Battlefield 3

We draaien het lijstje alfabetisch af en beginnen de benchmarks met Aliens vs Predator en Battlefield 3.

Aliens vs Predator - 1920x1080 - High - 2x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
****
+
***
42,7 / 69,5
Gigabyte GTX 760 (1020/1085)
****
+
***
41,7 / 67,9
MSI GTX 760
****
+
***
41,0 / 67,0
Asus GTX 760
****
+
***
40,7 / 67,0
Nvidia GTX 760 (320.39)
****
+
***
39,7 / 67,0
Nvidia GTX 760 (320.49)
****
+
***
39,8 / 66,8

In AvP ontlopen de prestaties van de drie videokaarten elkaar nauwelijks. De GTX 760 van Gigabyte is de snelste, dankzij de hoge kloksnelheid. Als we de gpu-snelheid omlaag bijstellen naar 1020MHz om de snelheden van MSI's GTX 760 te matchen, blijkt het verschil nihil. In AvP heeft de verdubbeling van het werkgeheugen duidelijk geen zin.

Battlefield 3 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
*****
+
**
46,0 / 60,9
MSI GTX 760
*****
+
**
43,7 / 60,1
Asus GTX 760
*****
+
**
44,3 / 59,7
Nvidia GTX 760
*****
+
**
42,8 / 58,8
Gigabyte GTX 760 (1020/1085)
*****
+
**
44,3 / 58,3

Ook Battlefield 3 loopt het lekkerst op de kaart van Gigabyte, maar de kaarten van MSI en Asus volgen in zijn kielzog. Gemiddeld gezien is de MSI met 2GB geheugen sneller af dan een gelijkgeklokte kaart met 4GB geheugen.

Crysis 3 en DiRT: Showdown

Crysis 3 is een van de zwaarste spellen die we testen. DiRT: Showdown is juist een van de makkelijkst te draaien spellen.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
******
+
*
38,0 / 46,1
Gigabyte GTX 760 (1020/1085)
*****
+
*
36,7 / 44,2
Asus GTX 760
*****
+
*
36,0 / 43,9
MSI GTX 760
*****
+
*
34,0 / 42,6
Nvidia GTX 760
*****
+
*
31,7 / 40,6

Met Crysis 3 moeten de drie videokaarten zich flink in het zweet werken. Speelbare minimumframerates worden gehaald, maar het houdt niet over. De videokaart van Asus doet het opvallend goed, terwijl we van de MSI iets meer hadden verwacht. Alle overgeklokte exemplaren doen het in ieder geval een stuk beter dan het referentieontwerp.

DiRT: Showdown - 1920x1080 - Ultra - 4x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
******
+
*
86,6 / 105,8
Gigabyte GTX 760 (1020/1085)
*****
+
*
83,7 / 101,9
Asus GTX 760
*****
+
*
82,4 / 101,7
Nvidia GTX 760 (320.39)
*****
+
*
80,3 / 98,2
Nvidia GTX 760 (320.49)
*****
+
*
79,7 / 97,5
MSI GTX 760
*****
+
*
72,0 / 89,6

DiRT: Showdown is een ander verhaal dan Crysis 3; het spel is op de hoogste instellingen makkelijk te spelen en gemiddeld komen we rond de 100fps uit. Met het testen van MSI's GTX 760 is duidelijk iets misgegaan. Helaas kwamen we daar te laat achter en kon de benchmark niet opnieuw gedraaid worden.

Far Cry 3 en Shogun 2

Far Cry 3 weet de geteste videokaarten meestal aardig te belasten. Shogun 2 is wat lichter.

Far Cry 3 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
******
+
*
39,8 / 46,2
MSI GTX 760
******
+
*
38,7 / 44,7
Asus GTX 760
******
+
*
38,7 / 44,3
GTX 760
******
+
*
37,0 / 42,9
Gigabyte GTX 760 (1020/1085)
*****
+
*
35,7 / 40,9

De framerates in Far Cry 3 zijn acceptabel bij 1920x1080 pixels op ultra-instellingen. Met dezelfde kloksnelheden als de MSI-kaart presteert de Gigabyte met 4GB geheugen beduidend slechter dan de rest.

Shogun 2: Total War - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
*****
+
**
44,0 / 57,8
Gigabyte GTX 760 (1020/1085)
*****
+
**
42,7 / 55,5
MSI GTX 760
*****
+
**
42,0 / 55,1
Asus GTX 760
*****
+
**
42,0 / 55,1
Nvidia GTX 760 (320.39)
*****
+
**
39,3 / 52,7
Nvidia GTX 760 (320.49)
*****
+
**
38,7 / 52,1

In Shogun 2 leidt de extra hoeveelheid geheugen weer tot een paar tienden extra. Gecombineerd met de hogere klokfrequenties gaat de Gigabyte in deze benchmark weer met de winst aan de haal. Het verschil met de andere videokaarten bedraagt niet meer dan vijf procent.

Sleeping dogs en The Witcher 2

We besluiten het rijtje benchmarks met Sleeping Dogs en The Witcher 2.

Sleeping Dogs - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
****
+
***
49,7 / 80,5
MSI GTX 760
****
+
***
46,9 / 76,7
Gigabyte GTX 760 (1020/1085)
****
+
***
46,8 / 75,1
Asus GTX 760
****
+
***
45,5 / 73,5
Nvidia GTX 760 (320.49)
****
+
***
43,7 / 73,4
Nvidia GTX 760 (320.39)
****
+
***
42,6 / 72,1

In Sleeping Dogs is MSI's GTX 760 sneller dan de gelijkgeklokte GTX 760 met 4GB. Asus is de langzaamste van de overgeklokte kaarten, maar het verschil in framerates met het referentieontwerp is duidelijk zichtbaar.

The Witcher 2 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760
*****
+
**
45,7 / 61,8
Gigabyte GTX 760 (1020/1085)
*****
+
**
44,5 / 59,6
MSI GTX 760
*****
+
**
43,7 / 59,6
Asus GTX 760
*****
+
**
44,0 / 59,4
Nvidia GTX 760
*****
+
**
44,3 / 58,1

Geen verrassingen bij The Witcher 2; de videokaarten komen netjes binnen in de volgorde waarin je ze zou verwachten. Gigabyte scoort opnieuw goed, terwijl MSI en Asus op kleine afstand volgen.

En 2560x1440 dan?

Nvidia heeft bij het uitbrengen van de GTX 760 aangegeven dat het de videokaart bedoeld heeft voor games die op een resolutie van 1920x1080 pixels draaien. Wil je op hogere resoluties gamen, dan moet je blijkbaar een GTX 770 of 780 aanschaffen. Toch zijn we benieuwd of de dubbele hoeveelheid geheugen op Gigabytes GTX 760 bij een resolutie van 2560x1440 pixels een groter verschil maakt dan op 1920x1080 beeldpunten. We klokken daarom de videokaarten van Asus en Gigabyte op dezelfde frequentie en draaien drie benchmarks nog eens.

Alien vs Predator - 2560x1440 - High - 2x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760 (1020/1085)
****
+
***
24,8 / 41,5
Asus GTX 760 (1020/1085)
****
+
***
24,0 / 41,2
Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760 (1020/1085)
******
+
*
22,7 / 27,8
Asus GTX 760 (1020/1085)
*****
+
**
22,0 / 27,6
Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
Gigabyte GTX 760 (1020/1085)
******
+
*
23,6 / 26,8
Asus GTX 760 (1020/1085)
******
+
*
23,5 / 26,6

Net als bij 1920x1080 beeldpunten zijn de verschillen bij een nog hogere resolutie van 2560x1440 pixels nauwelijks aanwezig. Wellicht is het verschil tussen de 2GB- en 4GB-modellen bij een set-up met drie beeldschermen en een resolutie van 5760x1080 pixels groter, maar het is dan nog maar de vraag of de gpu snel genoeg is om al dat geheugen te benutten.

Geluid, energie en warmte

Uit de benchmarks blijkt dat de verschillen in prestaties tussen de drie kaarten vrij subtiel zijn. Het ontwerp van de gemonteerde koelers verschilt echter wel behoorlijk en daarom waren we benieuwd naar de verschillen in energieverbruik, warmte en natuurlijk de geluidsproductie van de fans.

Energieverbruik

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
MSI GTX 760
*******
76,90
Asus GTX 760
*******
77,00
Nvidia GTX 760
*******
77,90
Gigabyte GTX 760
*******
80,10

Om het idle-verbruik te testen starten we het testsysteem en wachten tot het draait, met zo weinig mogelijk achtergrondprocessen. Gigabytes GTX 760 blijkt iets meer stroom te verbruiken dan de andere drie kaarten, waarvan het verschil in verbruik beneden één watt ligt.

Energieverbruik systeem - Ingame
VideokaartVermogen in watt, lager is beter
Nvidia GTX 760
******
276,20
MSI GTX 760
******
288,50
Asus GTX 760
*******
311,37
Gigabyte GTX 760
*******
317,53

We hebben de benchmark voor het in-gameverbruik van de videokaart enigszins aangepast. Voorheen draaiden we onze gebruikelijke benchmarks in Far Cry 3 en Crysis 3, en keken we naar het maximale verbruik in die games. Omdat de benchmarks van de games vrij kort duren en de cpu-belasting per game verschilt, hebben we voor een preciezere, nieuwe methode gekozen. We draaien de Valley-test van Unigine gedurende twintig minuten en gebruiken de registratiemogelijkheid van de Voltcraft Energy Logger 3500 om het gemiddelde verbruik vast te leggen.

Voordeel van deze test is een langere duur, waardoor we preciezere meetresultaten krijgen, en de lagere processorbelasting in deze benchmark, waardoor het verbruik van de videokaart een grotere invloed heeft op de gemeten waarde. Het gemeten verbruik valt daardoor lager uit dan bij de testmethode die we voorheen gebruikten en moet daarmee dus ook niet vergeleken worden. Ook in deze test blijkt de Gigabyte weer het meest te verbruiken. Het verschil met het reference design van Nvidia is bijna 15 procent.

Geluidsproductie en temperaturen

Op alle drie de videokaarten treffen we bekende custom koelers aan. Op een open testopstelling richten we de geluidsmeter op een afstand van twintig centimeter op de videokaarten.

Geluidsdruk - Idle 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
Asus GTX 760
*******
33,1
Gigabyte GTX 760
*******
33,7
MSI GTX 760
*******
34,0

Als de gpu's geen noemenswaardige taken uit te voeren hebben, zijn de koelers van alle drie de kaarten fluisterstil en is er nauwelijks verschil in geluidsproductie te onderscheiden.

Geluidsdruk - Load 20cm
VideokaartGeluidsdruk in dB(A), lager is beter
MSI GTX 760
****
39,6
Asus GTX 760
******
45,5
Gigabyte GTX 760
*******
47,4
Gpu-temp - Furmark
VideokaartTemperatuur in °C, lager is beter
Asus GTX 760
******
70,0
Gigabyte GTX 760
*******
73,0
MSI GTX 760
*******
77,0

Met behulp van Furmark kijken we hoeveel warmte de videokaarten maximaal produceren en hoeveel herrie de koeling daarbij maakt. MSI's TwinFrozr-koeler blijkt met een geluidsproductie van 39,6dB erg stil te zijn. De temperatuur loopt daarbij op tot maximaal 77°C, wat voor een gpu niet alarmerend hoog is. De koelers van Asus en Gigabyte zijn het luidst, maar de videokaart van Asus blijft wel de koelste van het trio. Gigabyte scoort het slechtst in deze test; de koeling produceert het meeste geluid, maar koelt niet als beste.

Geluidsdruk - Fan 100%
VideokaartGeluidsdruk in dB(A), lager is beter
Asus GTX 760
****
54,9
Gigabyte GTX 760
*******
62,6
MSI GTX 760
*******
63,2

De geluidsmetingen worden, zoals gezegd, op een open testbench uitgevoerd, waardoor de resultaten zullen verschillen met de temperaturen en de geluidsdruk die de kaarten in een gesloten behuizing produceren. Om de maximale geluidsproductie te meten laten we de ventilators op hun maximale snelheid draaien en meten we de geluidsdruk. De koeling van Asus scoort dan opvallend goed, maar lijkt wel een stuk minder lucht te verplaatsen dan de koelers van MSI en Gigabyte.

Specificaties en fotogalerij

Merk en productserie Asus MSI Gigabyte
Type GTX760-DC2OC-2GD5 N760 Twin Frozr Gaming 2GD5/OC GV-N760OC-4GD
Prijs en waardering
Prijs Onbekend (31 winkels) Onbekend (18 winkels) Onbekend (6 winkels)
Eerste prijsvermelding Woensdag 26 juni 2013 Woensdag 26 juni 2013 Vrijdag 2 augustus 2013
Waardering 4.5 van 5 sterren
4.5 van 5 sterren
5 van 5 sterren
Videochip
1,006GHz 1,085GHz 1,085GHz
1,072GHz 1,15GHz 1,15GHz
1.152 1.152 1.152
Geheugen
2GB 2GB 4GB
6,008GHz 6,008GHz 6,008GHz
256bit 256bit 256bit
Ondersteuning
11.1 11.1 11.1
4.3 4.3 4.3
Afmetingen
218mm 260mm 280mm

Fotogalerij

MSI GTX 760 Twin Frozr MSI GTX 760 Twin Frozr MSI GTX 760 Twin Frozr Asus GTX 760 Asus GTX 760 Asus GTX 760 Gigabyte GTX 760 Gigabyte GTX 760 Gigabyte GTX 760 Gigabyte GTX 760

Conclusie

We hebben drie verschillende videokaarten met drie dezelfde gpu's naast elkaar gelegd en gekeken welke van het trio de snelste is. Die bleek uiteindelijk bij Gigabyte vandaan te komen. Die conclusie kwam niet bepaald uit de lucht vallen, want de Gigabyte-kaart beschikt over de hoogste klokfrequenties en het meeste werkgeheugen.

Een kanttekening bij de goede scores van de Gigabyte-kaart is dat de voorsprong niet enorm is. Het verschil ten opzichte van een standaard-GTX 760 bedraagt, afhankelijk van de benchmark, twee tot zeven procent. Als we de klokfrequenties gelijktrekken, blijkt de invloed van de grotere hoeveelheid geheugen helemaal klein en in sommige gevallen blijkt 4GB langzamer dan een gelijkgeklokte kaart met 2GB geheugen. Tel daarbij op dat de geluidsdruk van de fans en het energieverbruik van de kaart tegenvallen ten opzichte van wat de concurrenten doen, en wij houden de vijftig euro die de Gigabyte extra kost liever in de portemonnee.

MSI GTX 760 Twin Frozr

Voor iets minder dan 230 euro ligt de GTX 760 van Asus in de schappen. Het kaartje is met een lengte van 21,5 centimeter lekker compact en presteert ongeveer even goed als de kaart van MSI, die 14MHz sneller geklokt is. Voor gamers met een mITX-systeem is dezelfde kaart zelfs nog in een extra korte variant te krijgen, die slechts 17 centimeter lang is. De compacte koeler levert wel een hogere geluidsproductie op dan die van de kaarten van Gigabyte en MSI. Bovendien lijken de twee relatief kleine ventilators van de Asus minder lucht te kunnen verplaatsen dan de twee concurrenten, dus in behuizingen met weinig airflow is de GTX 760 van Asus wellicht niet de beste optie.

Onze keuze zou daarom op MSI's GTX 760 vallen. De koeler produceert de minste herrie en het energieverbruik is het laagste, terwijl de prestaties niet onderdoen voor die van de concurrentie. De koeler is duidelijk afgesteld op een lage geluidsproductie en daarom wordt de gpu tijdens de stresstest wat warmer dan de concurrenten, maar 77°C is voor een gpu een prima maximum. Met een prijs van 236 euro is MSI's GTX 760 met Twin Frozr-koeler bovendien niet enorm veel duurder dan de goedkoopste 760 in de Pricewatch, waarvoor 220 euro neergelegd moet worden.

Reacties (112)

112
112
58
13
0
50
Wijzig sortering
Tweakers adviseert een GTX760 met 2GB terwijl EA/DICE voor volgende maand een GTX660 (of beter) met 3GB adviseert? Dit voorbeeld, gevoed door recente specs vanuit EA, levert toch enige verwarring op over hoe games nou daadwerkelijk omgaan met videogeheugen en in hoeverre dit te wijten is aan het wel/niet efficient programmeren door de developers.

Daarnaast vind ik het grappig/opvallend dat er toch regelmatig BBG's of forum-topics zijn waar men al snel de grens van 4GB of 8GB RAM voor een moederbord als "wel het maximale vindt" want het wordt toch niet gebruikt. En daarnaast/tegenover zijn er toch voldoende aanwijzingen dat er een veel grotere markt lijkt te ontstaan voor GPU's met meer dan xx GB videogeheugen terwijl ook hier het nut niet altijd bekend is.
Ik ben sinds een paar dagen reviews aan het lezen om een keuze te maken voor een nieuwe kaart. Mijn keuze ligt eigenlijk tussen 770 en 760. En inderdaad de recommended specs voor BF4 maakt het een stuk moeilijker en meer verwarrend. Ik had eigenlijk het idee om te kiezen voor een 760 4GB.

Een artikel met een titel als "kiezen tussen 2 en 4 GB" had ik toch verwacht om een goede keuze te kunnen maken en wat meer technische info over de invloed van geheugen nu en in de toekomst. Misschien dat de schrijver niet weet wat de recommended specs zijn van BF4.

Waarschijnlijk dan toch maar de specs voor BF4 aanhouden en voor de 4GB gaan ondanks dat het voor de games nu geen prestatie winst oplevert. Dit kan namelijk eind volgende maand de nieuwe standaard worden voor toekomstige games.

EDIT:

Interessante link gevonden op youtube waar gekeken wordt hoe verschillende game settings het geheugen verbruik beïnvloedt: https://www.youtube.com/watch?v=XdkLhMhnTa4
BF3, ultra settings op een 64 player map gebruikt 1460 MB max. Geen idee wat ze met BF4 gedaan hebben dat ze meer dan 2GB nodig hebben. Misschien dat ze maar net over de grens van 2GB gaan, of juist heel veel. Geen idee, de tijd zal het leren.

[Reactie gewijzigd door gpe op 22 juli 2024 18:05]

Even flink versimpeld: Hedendaagse games streamen de textures vaak. Er is heel veel tijd gestoken in het optimaliseren van het streamend laden van textures die nodig zijn(denk aan de textures die langzamerhand scherper worden bij sommige games).

Dit systeem zit momenteel (dankzij de consoles) heel erg diep in de engines gebakken en werkt prima. Maar naar mate de textures groter worden en lastiger "on the fly" te decomprimeren/optimaliseren worden zullen game developers toch steeds meer gewoon alle textures verwerkt in het VRAM willen gooien zodat het onmiddelijk klaar is voor gebruik, en de processor van het systeem ook niet meer steeds bezig hoeft te zijn met het van de schijf laden, decomprimeren, en voor de GPU optimaliseren van de textures.

Ik verwacht dat in de nabije toekomst er steeds meer behoefte gaat zijn aan het al in het VRAM hebben van de data, omdat anders de CPU, maar ook de PCI-e bus wel eens een beperkende factor kan worden.
Het streamen van textures is juist ontstaan door VRAM-beperkingen. Het feit dat textures groter worden maakt met dit principe juist niet meer uit; je streamt puur datgene wat je nodig hebt (bijv. MegaTextures in de id Tech 5 engine).

edit: overigens behoort de behoefte tot meer VRAM niet meer tot het verleden met streamen, de ontwikkelingen beginnen nu al te verschuiven naar voxels, welke meer dan ooit RAM-vreters zijn)

[Reactie gewijzigd door Sgreehder op 22 juli 2024 18:05]

edit: overigens behoort de behoefte tot meer VRAM niet meer tot het verleden met streamen, de ontwikkelingen beginnen nu al te verschuiven naar voxels, welke meer dan ooit RAM-vreters zijn)
Wil je daar geld op zetten, dat voxels de toekomst zijn ?
Dat lijkt me juist een broodje aap verhaal. Juist als de textures nog groter worden, is er meer en meer behoefte aan compressie, hoe efficienter , hoe beter.

Kijk naar flims b.v, Blueray = ook veel meer data geworden, zijn die van compressie afgestapt? Natuurlijk niet, ze kiezen juist voor nieuwere, betere compressie.
Wat je omschrijft is het eeuwige probleempunt met net geïntroduceerde videokaarten met 2 formaten geheugen. Toen ik "vroegah" mijn Geforce Ti4400 kocht was er een 64MB en een 128MB-versie. In eerste instantie was iedereen ervan overtuigd dat de 64MB-versie beter was, die was immers beter te overklokken en bovendien maakten de spellen van dat moment amper gebruik van >64MB videogeheugen.

Maar... na een jaar kwamen daar de eerste games die aan 64MB niet genoeg hadden en was ineens de 128MB-versie beter. Je moet ook niet teveel focussen op wat NU nodig is, zo'n videokaart koop je niet voor 6-12 maanden, waarschijnlijk doe je er zeker 2 jaar mee (ik wel iig). En over 2 jaar is 4GB op je videokaart gemeengoed en daar rekenen games dus ook op!
Ik had toen een XFX Ti4200 128MB. Ding liep lekker hard. 350 ipv 250 op de core en 630 op het geheugen ipv 444. Was toen het beste van 2 werelden wel 128MB geheugen maar toch goed overclockbaar.

Over OCen gesproken... volgens mij mis ik een onderdeel in deze review.
Asus Ti4600 128mb.. dat ding heb ik pas hoeven vervangen uiteindelijk voor een Asus 9800GTX+, tot die tijd ging die nog prima mee.

Destijds wel iets van 450 gulden voor betaald maarja. :+
Ik zou zeggen, overweeg ook eens de 670. Loopt sneller dan de 760 en is vergelijkbaar in prijs.
pricewatch: Zotac GeForce GTX 670 4GB
Of deze: pricewatch: Asus GTX670-DCMOC-2GD5 Hij bevalt me erg goed.
Hij is totaal niet vergelijkbaar.
300 euro voor een bijna reference 670 terwijl een reference 760 een stuk goedkoper is, iets boven de 200 euro voor 2 GB en rond de 250 voor 4 GB.
Kijk niet naar recommended settings van BF4.
AMD verkoopt zijn standaard mid-range kaarten met 3 GB, NVIDIA met 2 GB.
En DICE en AMD hebben een lang lopende relatie.

Je moet wel erg dom zijn om niet in te zien dat dit puur marketing is. Mensen denken dan dat ze 3 GB nodig hebben, en gaan dus voor de AMD videokaart.

En als je een kaart zoekt voor BF4, wacht dan totdat de beta uit is, dan kun je zo zien of 4 GB echt nodig is voor BF4.
De hoeveelheid videogeheugen hangt vooral af van 2 zaken:
- de resolutie waarop gespeeld wordt
- de hoeveelheid geheugen, nodig om een frame van een bepaalde game op te slaan

Dat tweede puntje hangt ook af van je videokaart: als je een beest van een kaart hebt, dat alle frames op ultrahigh weergeeft, met alle bellen en toeters, dan neemt dat meer geheugen in.
Naar mate op hogere resoluties gespeeld wordt, en games uitkomen die héél gedetailleerd zijn (en dus meer geheugen per frame vragen), ga je steeds meer videogeheugen nodig hebben om een soepele framerate vast te houden. Hier bestaan geen "theoretische" methodes voor, aangezien dit ook afhankelijk is van de game die gespeeld wordt. Vandaar dat reviews die de verschillende uitvoeringen testen, best hun nut hebben.
De hoge resolutie... Kun je dat uitleggen?

Zou kunnen hoor, maar technisch zie ik niet hoe dat een grote impact zou moeten hebben. Zelfs als je drie grote schermen hebt, dus 7680x1600 of zo, in drie kleuren, dan is een frame zo'n 36MB. Hoeveel halffabrikaat frames hoeft een kaart op elkaar te leggen qua transparantie, schaduwen, z-index etc voordat het richting monitors gestuurd wordt? 3? 10? 2GB zou genoeg moeten zijn lijkt me...

Volgens mij is het meer een kwestie van een grotere buffer voor allerlei textures en zolang een spel geen honderden varianten heeft van een baksteen-met-hoekje-eraf dan is 4GB geen groot voordeel, of mis ik toch iets belangrijks?
Je kunt op twee manieren zelf experimenteren met VRAM.

De eerste is GTA 4 opstarten en dan krijg je direct een voorspelling van het gebruikte vram te zien. Deze is dus afhankelijk van texure details, resolutie, enz. Destijds was dit een belangrijk punt omdat niet elke kaart toen voldoende vram had (zat zelf toevallig met 896mb ipv 512). Die 36 mb slaat kant nog wal ;).

Verder kun je bij elke game je vram uitlezen met gpu-z of rivatuner (msi afterburner, evga precision, etc).
http://www.techpowerup.com/gpuz/


Voorbeeld:
Total War 2 Extreme 1680x1050 (Historic Battle Carthage): 1720MB max
Civilization V Ultra 1680x1050 (Huge map, honderden steden): 950-1170 MB (nadat je de hele map hebt gezien). 1255MB pc RAM.
Grid 2 Ultra 1680x1050 (Hong Kong Descent Day): 602 MB (608 MB pc RAM).
Rift 1680x1050 Ultra 726 MB/ 1518 MB pc ram.

Zijn verder aardig wat games die erg laag blijven, denk aan planetside 2. Het is voorlopig eerder regel dan uitzondering dat je 2 GB vram niet vol krijgt. Bij een game als Civilization is het ook niet zo erg (dan zie je hem even bijladen in het ergste geval). Bij een shooter als Bf3 is het natuurlijk wel storend, dan kun je haperingen krijgen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 18:05]

Je kunt op twee manieren zelf experimenteren met VRAM.

De eerste is GTA 4 opstarten en dan krijg je direct een voorspelling van het gebruikte vram te zien. Deze is dus afhankelijk van texure details, resolutie, enz. Destijds was dit een belangrijk punt omdat niet elke kaart toen voldoende vram had (zat zelf toevallig met 896mb ipv 512). Die 36 mb slaat kant nog wal ;).

Verder kun je bij elke game je vram uitlezen met gpu-z of rivatuner (msi afterburner, evga precision, etc).
http://www.techpowerup.com/gpuz/


Voorbeeld:
Total War 2 Extreme 1680x1050 (Historic Battle Carthage): 1720MB max
Civilization V Ultra 1680x1050 (Huge map, honderden steden): 950-1170 MB (nadat je de hele map hebt gezien). 1255MB pc RAM.
Grid 2 Ultra 1680x1050 (Hong Kong Descent Day): 602 MB (608 MB pc RAM).
Rift 1680x1050 Ultra 726 MB/ 1518 MB pc ram.

Zijn verder aardig wat games die erg laag blijven, denk aan planetside 2. Het is voorlopig eerder regel dan uitzondering dat je 2 GB vram niet vol krijgt. Bij een game als Civilization is het ook niet zo erg (dan zie je hem even bijladen in het ergste geval). Bij een shooter als Bf3 is het natuurlijk wel storend, dan kun je haperingen krijgen.
1680 bij 1050 is dan ook wel een lage resolutie te noemen. Dat zijn maar 1764000 pixels, terwijl 1920 bij 1080 al 2073600 pixels zijn. Da's toch alweer 17% meer waardoor jij (even uitgaande van lineaire schaling) in het eerste geval toch al aardig op de grens zit.

Zelf game ik op 2560 * 1440, meer dan een verdubbeling van het aantal pixels bij 1680 * 1050 en dan zou 2 GB theoretisch wel limiterend zijn bij ultra settings.

That said, bij zulke resoluties hoef je ook geen 16/32X AA aan te zetten, dat is volledige onzin. Dus je kan ook nog wel fatsoenlijk gamen met 2 GB. Ik heb nu nog geen serieuze problemen ondervonden met m'n 560 Ti met 1 GB, maar Ultra lukt natuurlijk niet meer, in ieder geval niet op m'n hoofdscherm.
Total War 2 zit er speciaal bij omdat dit het nieuwste van het nieuwste is, inclusief DRA (Direct, Resource, Access Haswell only). Daarnaast staat hij nog iets hoger dan Extreme; Depth of Field en Vegitation Alpha staan ook aan (custom).

Je verwart geheugen gebruik met GPU load. Dat is nu juist de reden dat ik absoluut geen haast heb met "upgraden" naar 1920x1080 (omdat het dus bijna 20% zwaarder is terwijl het niet mooier wordt).

Geheugen gebruik van TW2 op 1366x768 is 1650MB, slechts 4% verschil terwijl het aantal pixels met 1M dus 68% lager ligt.

Dus nee, geheugen schaalt absoluut niet zoals jij suggereert.

Dat is te verklaren doordat alleen het geheugen deel gerelateerd aan de resolutie mee schaalt. Het grootste deel bestaat uit de models en textures. Die hebben een bepaalde grootte afhankelijk van de gekozen setting (e.g. ultra).

Mbt die textures is het vaak ook geen wereld ramp als het net niet past aangezien veel games streamen. Wat mij betreft is de kans dat je binnenkort 2 GB+ nodig hebt erg klein. In theorie zou er een game kunnen komen (Bf4?) die zoveel gebruikt. In de praktijk ga je dan op huidige kaarten praten over te lage fps. Dat is het moment waarop eye candy niet meer nuttig is.

Die game kan er dus wel komen maar dan heb je ook een krachtigere kaart nodig, dat is in ieder geval de afgelopen 15 jaar zo geweest. Nu al praten over een 4 GB kaart is in dat opzicht niet zinnig.

Los daarvan is 2560 * 1440 gaming met een 560 TI gekken werk. Daar heb je echt een gtx780 voor nodig voor je op acceptabele framerates op ultra uit komt. Zelf kom ik momenteel met een 660 Ti prima uit op 1680x1050.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 18:05]

GTA4 is ook een slecht vb. Zo zou je er perse een quadcore voor nodig hebben. Onzin, Rockstar heeft gewoon een slechte port geleverd waar veel winste te halen viel. Na wat custom tweaks, kon ik met een E8400 + "slechts" een 1GB videokaart gewoon rond de 60FPS noteren.

Het enige wat af en toe gebeurde (=zelden) dat je ff de textuur van het wegdek kwijt was, wat slechts op enkele plekjes gebeurde. Zag er vreemd uit, maar was prima mee te leven, het duurde ook maar een luttele sec ofzo.
Textures moeten worden gerendered, de resolutie waar op word gespeeld bepaald hoe gedetailleerd een texture moet worden gerendered. Een gedetailleerde texture neemt meer vram in beslag dan een minder gedetailleerde texture.
Dingen als bijvoorbeeld een baksteen worden gerendered met behulp van een texture van een complete muur, daar overheen komen reflection, refraction en bumpmaps om het structuur en de juiste belichting te geven. Ik raad aan om eens iets op te zoeken over textures en bumpmaps in de Unreal engine. Erg interessant en er is een hoop over te vinden omdat de engine een hoop door hobby developers word gebruikt.

edit: typo

[Reactie gewijzigd door HKS-Skyline op 22 juli 2024 18:05]

Je vergeet nog het feit dat naast een texture van een baksteen deze tegenwoordig ook nog wordt gerendered met diepte. Je ziet dus ook echt de voegen van een oppervlakte. Deze voegen genereren op hun beurt weer een schaduw in de voeg.

Wat er tegenwoordig gebeurt is dat je niet meer kunt spreken van een vast texture zoals in doom was opgebouwd uit alleen een platte plaat met pixels. Video kaarten krijgen tegenwoordig een "opdracht" van de CPU en een gedeelte van het oppervlak wordt gemaakt door de videokaart. hier heb je veel meer voor nodig dan simpel een paar pixels opslaan. Met 16x antialiasing wordt de hoeveelheid plaatsjes die daarnaast gerendered moeten worden zelfs nog veel meer.

Ook geldt nog hoe de game is gebouwd en welke kleur de pixels zijn hoe groot een uiteindelijke texture is. Een volledig zwart oppervlak zal amper data verbruiken voor het geheugen op de GPU.

Aan de andere kant is het belangrijk dat de game goed is opgebouwd. In vroegere spellen was het vaak zo dat deze niet kon herkennen als je naar een muur keek en werden ook alle oppervlaktes en textures achter deze muur door de videokaart gerendered, terwijl je ze niet kon zien. Tegenwoordig worden textures en objecten vaak ook niet gerendered als je ze niet kunt zien, waardoor de videokaart meer ontlast wordt dan vroeger, hierdoor kunnen mooiere textures op het beeld verschijnen.

Resolutie is inderdaad een hele grote factor. 800 x 600 renderen of 1920 x 1080 is een groot verschil. Toch zijn er ook zaken als physics die steeds vaker door de gpu berekent worden.

De simpele berekening van het aantal mb's per frame is dus maar een deel van wat een CPU in het geheugen opslaat

[Reactie gewijzigd door sygys op 22 juli 2024 18:05]

Snap niet dat er geen GeForce GTX 660Ti tussen staat, aangezien de GeForce GTX 760 daar tegen moet concurreren, en aangezien ze bijna net zo snel zijn.

http://www.guru3d.com/articles_pages/geforce_gtx_760_review,1.html

En vind het erg triest dat de Geforce GTX 760 nu bijna net zo duur is als de Geforce GTX 660Ti, waneer er nog HEEL VEEL Geforce GTX 660Ti zijn, het scheelt maar €34,-

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 18:05]

Eerlijk gezegd is die '3GB recommended VRAM' gewoon marketing. Vergeet niet dat de demo gespeeld werd (zoals geadverteerd) op een AMD HD 7990 en dat de titel ook onderdeel van AMD's Never Settle bundle wordt.

Bijna elke high-end achtige kaart van AMD beschikt over 3GB VRAM waar Nvidia kaarten vaak 2GB hebben. Als je dan denkt 3GB VRAM nodig te hebben ga je natuurlijk voor een AMD kaart.

En dus; Partnership tussen EA en AMD. Wat totaal geen geheim is. Ik durf vrij zeker te zeggen dat 2GB VRAM meer dan zat is om BF4 gewoon op ultra op 1080p te kunnen spelen, mits je een fatsoenlijke kaart hebt (GTX 760 +).
De gtx 760 ligt tussen de 660 ti en 670, terwijl de 660 ti duurder is.
Mensen gaan dus voor een 760 omdat die goedkoper en net iets beter is.
Vergeet ook je 3d modellen niet, die staan ook in je vram.
''En daarnaast/tegenover zijn er toch voldoende aanwijzingen dat er een veel grotere markt lijkt te ontstaan voor GPU's met meer dan xx GB videogeheugen terwijl ook hier het nut niet altijd bekend is.''

Ik denk dat dit hetzelfde principe is als de megapixel race bij camera's. Mensen denken dat meer altijd beter is, maar dat is dus niet het geval. Toch verkoopt het wel meer.
Lijkt me een erg kromme vergelijking. Met een oude 5MP camera kan je nog steeds prachtige plaatjes schieten, Met een 256MB kaart kom je niet ver meer, zelfs al zou er een retesnelle GPU op zitten..
Klopt maar met een oude G-Force 6600gs met 2GB kom je ook nergens meer.
EA raad dat aan voor BF4. Dat spel is hier niet getest. Dus de conclussie van tweakers klopt als je kijkt naar de applicaties die getest zijn.

meer dan 2GB heeft wel nut maar pas bij 2560x1600 in zware applicaties. Of nog hogere resoluties zoals bij Eyefinity. Maar dan heb je het niet meer over dit segment qua kaarten. Dan wil je minimaal een HD7970/GTX770 hebben. Het liefst twee om echt soepele game play te hebben.
maar wat als je sli gaat draaien,dan denk ik dat het beter is om voor de 4gb kaart te gaan!
Tja dan kun je in mijn ogen beter voor een GTX780/Titan gaan. Single GPU heeft bij mij toch de voorkeur zolang dat kan. Je hebt nog minder latency en geen geklooi met SLI profiles daarnaast heb je vaak een voordeel qua verbruik. Pas als een Single GPU niet snel genoeg is zou ik naar dual GPU setups gaan kijken,
Ik vind het ook nog steeds twijfelachtig. Uit de review blijkt niet of het volledige vram nu gebruikt wordt of niet, en wat dán de voordelen zijn.

Edit: zie de review van de buren:

http://nl.hardware.info/r...li-metro-2033---1920x1080

"Metro 2033 schaalt er netjes met SLI en 3-way SLI. Bekijk vooral de laatste grafiek op de volgende pagina, 5760x1080 Very High: hier zie je dat de GTX 780's vanwege de 3 GB in plaats van 2 GB geheugen als enige capabele framerates produceren."

Dus bij de weinig VRAM kakt je fps totaal in, maar ook MÉT voldoende vram moet je behoorlijk wat power hebben om daadwerkelijk te kunnen spelen.

[Reactie gewijzigd door ToWi1989 op 22 juli 2024 18:05]

Ben het eens, het niet inzien dat je een 4GB model neemt als je van plan bent SLI te gruiken op hoge resoluties is een gebrek aan inzicht van de reviewer.

Bij non-SLI opstellingen is voor een 680 aka 760 2GB meer dan voldoende in nagenoeg alle gevallen, maar ga je over naar SLI dan heeft de 4GB zeker wel voordelen, zeker bij multi-monitor opstelling.

Ik ben dan ook best blij dat de Titan 6GB heeft daar ik soms pieken van 5GB VRAM gebruik zie op mijn 7680x1600 SLI opstelling

[Reactie gewijzigd door player-x op 22 juli 2024 18:05]

Tweakers adviseert de 2GB 760 vergeleken met 2 andere kaarten, wat heeft de 660 en EA daarmee te maken?
Het lijkt me redelijk duidelijk naar voren komen uit deze test dat er (voor deze kaart) amper verschil is tussen 2 of 4GB kwa prestaties voor ALLE spellen tot nu toe. Het lijkt me dus sterk dat dit 'ineens' gaat veranderen, dus om nu ineens een advies te gaan veranderen omwege vage system requirements van een nog uit te brengen spel lijkt me nogal radicaal. System requirements zijn voor mijn gevoel altijd al redelijk nutteloos geweest behalve voor een grove indicatie.

Wat ze wel nog even moeten vermelden is als je in SLI wilt gaan draaien, dan zou je eventueel voor de 4GB versie kunnen kiezen omdat je het geheugen dan deelt tussen twee kaarten. (Jammer dat dit niet is getest)

Edit: Dit was eigenlijk een reactie op MAX3400

[Reactie gewijzigd door imdoctorbob op 22 juli 2024 18:05]

Wat bij mij redelijk naar voren komt is dat dit een hele slechte test is. Het enige dat je kunt concluderen is dat als je deze games speelt bij deze settings je weinig hebt aan extra videogeheugen.
Meer videogeheugen gaat je prestaties meestal nauwelijks beïnvloeden, of juist een enorme impact hebben. De vraag is, had je te weinig of niet? Je zult dus niet snel ineens ipv 40 fps nu 50 fps halen, maar als die extra sloot geheugen nodig is dan zul je wellicht 50 fps halen ipv 10 of zo. Als de videokaart met 2 GB geheugen op dezelfde settings al speelbare prestaties neerzet dan ga er maar vanuit dat er geen vram bottleneck is.
Als je dus wil testen of je iets aan die 4 GB hebt dan zul je dus de situaties op moeten zoeken waarbij meer dan 2 GB geheugen gebruikt wordt, anders dan is het hetzelfde als het verschil testen tussen 16 of 32 GB ram in je PC als je game maar 4 GB gebruikt. Dat gebeurt hier niet echt, er worden gewoon scenarios afgespeeld waarvan bekend is dat de huidige lichting kaarten ze prima kunnen draaien en waarvan je dus vantevoren ook wel kunt zeggen dat 4GB of 2GB videogeheugen weinig invloed gaat hebben.

Het is inderdaad jammer dat ze geen SLI in een 5760x1080/1200 getest hebben. Nou snap ik dat je het maar moet doen met wat de fabrikant beschikbaar stelt, maar er wordt nauwelijk ook maar iets over gezegd. Deze speculatie had op zijn minst in het artikel moeten staan, had er in gezet dat je het met gigabyte overlegd hebt (moet je dat natuurlijk wel ook doen) omdat een SLI test hun kaart er misschien beter uit zou kunnen laten zien maar dat het helaas niet gelukt is om een 2e te krijgen...

Verder ook zaken als dat er nauwelijks iets gezegd wordt over het feit dat die MSI toch echt wel heel significant veel stiller is zo te zien (en een 100% fan speed test? Waar slaat dat nou weer op? dat zegt helemaal niks) en ik vraag me maar weer eens af waarom ik de moeite neem om t.net hardware reviews te lezen.
Bij SLI/CF verwacht ik juist wel de grootste verschillen, aangezien de ''GPU power/GB GPU-ram'' gelijk is aan een referentie 760 met 2GB ram. Vaak is 760-SLI sneller dan één GTX780.

De GPU capaciteit zelf bepaalt al voor een groot gedeelte hoeveel GPU-RAM zinvol is. Een ''grotere'' GTX 780 kan meer FPS draaien, draait hogere resoluties en vereist dus meer RAM. Daarom zit hier standaard ook net iets meer RAM op.

Je zou zeggen dat de 4GB editie iets meer futureproof is, maar ik gok dat een enkele 760-GPU echt te kort komt binnen 2 jaar. Een 760(4GB)-SLI daarentegen is (wss) beter dan een GTX780, ook als je meeneemt dat Multi-GPU support zal (en moet) verbeteren.

Mijn conclusie: Test GTX760-SLI (4GB) en vergelijk deze t.o.v. GTX770,GTX780, Titan en AMD kaarten met veel RAM. Gewoon maar een paar benchmarks zoals nu voor 1 of 2 games, Crysis 3 en Battlefield bijv.
GTX760 SLI met 2GB is al sneller dan de GTX780, de GTX770 en de Titan:

http://www.guru3d.com/art...gtx_760_sli_review,8.html

Dat zullen 2 GTX760's 4GB dus ook zijn. Waarom zou je die dan alsnog in een test met de Titan etc willen zien?

Test dan gewoon GTX760 2GB SLI vs GTX760 4GB SLI, dan weet je tenminste of daar het extra geheugen misschien WEL interessant is. Overigens denk ik dat het niet echt uit gaat maken...met de huidige games.

Verder: goed artikel, altijd leuk om de mythe van extra veel geheugen op videokaartjes te busten! Blijkt dat 't nog steeds meer voor show is dan wat anders.


Edit @ reactie hieronder:
Je vergeet dat vele mensen een 80/90 of titan niet alleen kopen voor de prestaties. Maar ook zodat de dubbele warmte niet word gecreerd.

Ik vergeet helemaal niks over de Titan, ik doe namelijk geen uitspraak over welke beter is. Ik zeg enkel dat het totaal geen zin heeft om een GTX760 4GB tegenover een Titan te zetten als je dat al met een GTX760 2GB gedaan hebt, OMDAT de GTX760 2GB ook al sneller is dan de Titan. Dat jij dat interpreteert als dat ik automatisch concludeer dat de GTX760 SLI beter is dan een Titan, is verkeerd begrijpend lezen.

Je neomt het al busten xD Zo zie je maar dat de meeste niet weten waarvoor deze kaarten zijn^ En 2GB vs 4GB is alles behalve show..

Je doet de aanname dat ik niet weet waar die kaarten voor zijn, namelijk extreem hoge resoluties op bv multi-monitor, maar je komt met 0 bewijzen dat ze daadwerkelijk verschil maken in dat gebied. Dan kun je wel gaan speculeren dat dat wel zo is, maar zonder benchmarks heb ik daar dus niks aan. Myth nog steeds busted dus.

[Reactie gewijzigd door A Lurker op 22 juli 2024 18:05]

Wat ook belangrijk is voor vele mensen een 80/90 of titan niet alleen kopen voor de prestaties. Maar ook zodat de dubbele warmte niet word gecreerd. En de stroom wat het nodig zal hebben. En de geluid wat voor vele blijkbaar een buzzkiller is. Ruimte in de kast en noem maar op^ Ook zeker rede wat genoemd mag worden hoor. Niet alleen 2 SLI setups te laten concureren.. vooral vram SLI setups^

De vraag is ook oa hoe efficient die 4GB tegenover de 2GB is met resolutie, meerdere monitors, en ga zo maar verder. Het is helemaal niet intersant voor de huidige games of gamers..
En daar heb je het al, dit segment en gebruikers van deze 60 kaarten hebben over het algemeen geen meerdere monitoren. Laat staan voor daadwerkelijk gamen. Dus het is wachten op BF4 of andere nextgen games.

Want over algemeen is dit toch een slechte test en helemaal niet duidelijk waarvoor die kaarten er uberhaupt zijn. Je neomt het al busten xD Zo zie je maar dat de meeste niet weten waarvoor deze kaarten zijn^ En 2GB vs 4GB is alles behalve show..

Edit @ reactie hier boven.

Nee je deed een uitspraak over een SLI setup vs een kaart qua prestaties. Terwijl er vaak juist vanwegen de voordelen van 1 kaart die aankoop word gedaan. Kijk dat 1 kaart van de huidige generatie beter is dan een van de vorige limited editions of andere moet toch niet als een verassing komen ofwel? Zo schuift het iedere generatie weer..
Kan me eerlijk gezegd ook niet veel interseren als 2 760's beter zijn dan 1 titan wat gelimiteerd is uitgebracht en voor een kleine markt is. Het ging mij echter alleen om de keuze tussen 1 en 2 kaarten in een kast te hebben.. Sterker nog ik attendeer je helemaal nogeens niet op de prestaties, alleen de voordelen en nadelen van 1 en 2 kaarten.. Begrijpend lezen zei je?

Oh ik dacht het algemeen bekend was dat de vram scaled met de resolutie en de aantal monitoren in gebruik. En dan moet ik met bewijzen komen? 8)7 Is google.nl offline ofzo? Is best een intersant onderwerp om op te zoeken..

Juist waar ik het dus ook over had. De huidige generatie games, het segment waar deze kaart onder valt, en de consumenten die deze kaarten kiezen en hun setups.. Of denk je dat deze gebruikers ook een Intel Core i7 3960X of een Asus RoG Rampage IV Extreme gebruiken voor hun gaming rigs? Nee meesten zullen die niet hebben. Laat staan meerdere monitoren voor het gamen. En das waar die vram oa voor bedoeld is. Probleem is ook de memorybussen voor de meeste moederborden atm.

Maar je mag gerust verder blindelings op deze ''review'' staren. Ik ben niet onder de indruk van deze review, en vond hem eigenlijk nogal slecht. Deze games hebben niet veel meer aan extra geheugen. Wat deze test zo goed als nuteloos maakt. Je kon mss zelfs een quad SLI setup doen, en zelfs dan scaled het niet of nauwelijks. Het is even wachten of de SLI en de juiste resolutie gebruiken om te scalen.. Maar voor jou is het meer show eh..

[Reactie gewijzigd door Anoniem: 291608 op 22 juli 2024 18:05]

Mijn ervaring met multi-screen gaming is dat je niet alles kan meten. Met 4GB per kaart is de ervaring wat mij betreft vele malen beter dan met 2GB kaartjes. Dit komt echter niet in benchmarks naar voren, aangezien er enkel fps worden gemeten, niet hoe de game ervaring is (framedrops bv).

Voor 1080p is 2GB meer dan voldoende (je zal max 1.5 gebruiken in de meeste games), daarboven zou ik voor 3GB of 4GB gaan. Dan heb je immers voldoende speling. :)
Nee dat is ook zo, en het heeft ook een groot aantal problemen. Mijn eigen ervaring is idem. Zelfs met SLI en shared memory. Nee het is inderdaad geen real time benchmarking.

Met een setup zoals deze, zal het inderdaad niet boven de 2GB gaan. En sowieso niet met 1080p en deze generatie games.

Het is nog even wachten dat de norm en games veranderen en dan gaan deze kaarten echt uitschieten.
Ik ga niet meer inhoudelijk erop in, want het is me duidelijk dat we voornamelijk langs mekaar heen lullen, ik begrijp delen van je stelling. Maar één ding:

Nee je deed een uitspraak over een SLI setup vs een kaart qua prestaties. Terwijl er vaak juist vanwegen de voordelen van 1 kaart die aankoop word gedaan.
...
Het ging mij echter alleen om de keuze tussen 1 en 2 kaarten in een kast te hebben..

Deze woordkeuzes geven aan dat jij het er graag over wil hebben dat er meer aan de hand is bij de keuze tussen 1 of 2 kaarten dan alleen prestaties.

Prima, ik ben het daar zelfs mee eens, maar aangezien je zelf aangeeft dat 't mij in deze om de prestaties ging, moet je me niet verwijten dat ik de overige informatie niet gemeld heb. Attenderen is niet hetzelfde als iemand verwijten dat ie iets vergat. Dat bedoelde ik dus met begrijpend lezen.

Case closed wat mij betreft.

[Reactie gewijzigd door A Lurker op 22 juli 2024 18:05]

Nee je was het ook niet te vergeten te melden, je had het uberhaupt niet vermeld. Prima dus misschien ook niet noemenswaardig volgens jou. Meer geheugen/meer stroom/meer warmte, leek me toch zeer noemenswaardig ipv 2 budget SLI setups vs elkaar te benchmarken. Maar ik had het inderdaad anders kunnen formuleren. Dacht ook dat de gemiddelde tweaker meer wist..

Maar sorry als ik op je zere teentje hebt getrapt allemaal vanwegen 1 verkeerde woordkeuze, waar ik nogeens niet op had gelet(moet je nagaan..)was niet de bedoeling, noch je iets verwijten.

And grow a pair plz^ zal er wel iets anders van maken^ 1 woord 8)7

[Reactie gewijzigd door Anoniem: 291608 op 22 juli 2024 18:05]

een gtx 760 sneller als een Titan?? Titan is 60 % sneller als die 760, in sli is de 760 maar 10% sneller.(zet 2 titans in sli en je schrikt je kapot van de kracht;) Buiten dat moet je rekening houden dat Titan een enkele gpu bevat, een Beest van een gpu.
Titan is een fantastische kaart, wel duur maar toekomst vast. SLI is leuk in benchmarks maar de frametime is waardeloos, tuurlijk is et leuk af en toe hoge pieken in fps(wat resulteerd in een hogere score) maar die zijn vaak niet constant. Titan heeft een perfecte frametime (das et belangrijkste voor stabiele performance) en draait alle games die nog gaan komen voorlopig volluit zonder microstutter of wat dan ook. Buiten dat is de Titan ook energie zuinig en wordt niet bloedheet, zoals dat wel is met sli opstellingen.
Bij de 4GB vs 2GB benchmark had ik wel willen zien:
1. aantal vram in gebruik (msi aftherburner?)
2. SLI opstelling, 2 of 3 gpu,s met 2GB vs 4GB op 2560x1440 natuurlijk
Vram gebruik enkel vs SLI is het zelfde.
Tenminste hier bij een enkele 670 vs SLI 670 op 2560x1440, je verandert enkel de rekenkracht met SLI. Ik heb dit gechecked in BF3

Hoeveelheid Vram in gebruik lijkt me niet echt boeiend, toch? Dit zou ook niet echt veel verschillen tussen 2 vs 4GB. De druk ligt hier meer op welke resolutie je gamed.

Weer even terug komend op BF3 / ultra setting.
Vram gebruik op 1920x1080 +/- 1500MB
Vram gebruik op 2560x1440 +/- 1900MB

Je zou het iets kunnen verlagen met een hogere reso, door de AA & AF wat terug te schroeven.
DAt zie je toch amper / niet op die resolutie.
denk ook dat hij een test hadden willen zien van de 2gb versie in SLI en van de 4gb versie in SLI...

Juist omdat je de resolutie vergroot kan het zijn dat je met de 2gb versie weer tegen een RAM-limit aan komt, en de 4gb versie zou daar dan minder last van moeten hebben.
Op een enkel 1440P scherm heb je momenteel aan 2GB genoeg en heb je nergens een Vram limit. BF3 is imo de meest vram slurpende game die momenteel op de markt is.
Deze blijft net onder de 2GB / ultra setting @ 2560x1440.

Overige games zoals CH2 / Bioshock infinity / Metro LL / ect. tikken amper de 1000-1500MB aan.

Voor een multimonitor setupje is meer Vram gewenst, maar dat staat ook vermeld in deze "review". Rayhvh heeft het over een enkel schermpie.

[Reactie gewijzigd door mukkel op 22 juli 2024 18:05]

Dat is dus wat hij graag had willen zien in een benchmark....
Daar staan zat benchmarks van op the world wide webz

Bv hier een uitgebreide, met msi afterburner en een berg games / benchmarks. 2560x1440 & multi monitor.
Waar grof gezegd uitkomt dat het bar weinig scheelt 2 vs 4 GB


http://www.xbitlabs.com/a...-geforce-gtx-670-4gb.html
Bij de metro 2033 resultaten zie je duidelijk dat de FPS behoorlijk terug loopt bij de 2gb kaart t.o.v. 4gb kaart!

Hier ben ik dus heel benieuwd naar de resultaten met 2 en 4GB GTX 760 SLI vs non-SLI.
Dat is bij een enkele kaart op een tripple monitor setup...
14fps vs < 5 Dat gaat nergens over... een vergelijking die niets in kaart zet, maar waar niemand gebruik van maakt.

[Reactie gewijzigd door mukkel op 22 juli 2024 18:05]

Op een enkel 1440P scherm heb je momenteel aan 2GB genoeg en heb je nergens een Vram limit. BF3 is imo de meest vram slurpende game die momenteel op de markt is.
Deze blijft net onder de 2GB / ultra setting @ 2560x1440.

Overige games zoals CH2 / Bioshock infinity / Metro LL / ect. tikken amper de 1000-1500MB aan.

Voor een multimonitor setupje is meer Vram gewenst, maar dat staat ook vermeld in deze "review". Rayhvh heeft het over een enkel schermpie.
Nee daar klopt echt niks van.
Battlefield 3 is helemaal niet zo zwaar.
mijn pc had veeel meer moeite met metro2033 ,farcry3!! en nog een paar spellen als dat.

Battlefield 3 was juist het enige spel waar ik 120 fps zonder probleem aantikte.

En in die benchmarks word er weer met een enkele kaart getest.
ik kom toch met veel games tegen me max 3gb vram aan toen met me crossfire opstelling,

[Reactie gewijzigd door rayhvh op 22 juli 2024 18:05]

Het gaat niet over hoe "zwaar" een game is.

Ik heb het over VRAM verbruik...staat totaal los van het feit hoeveel FPS je hebt of hoeveel GPU gebruik je hebt.
Op 2560x1440 met Far cry 3 op max.
Zat ik al met mijn Vram op 100% van mijn hd7970 3GB. (crossfire)

Dus ik dacht, als je een 760 SLI neemt met 2GB vram.
(Zeker minder als je nodig hebt in Far Cry 3 alles max)

En een SLI 760 met 4GB. wil ik wel zien wat er gebeurt.
Ja ok FC3, dat spel is om te janken hoe dat opgezet is voor Multi GPU's.
SP loopt geweldig, MP is een ramp.. loopt voor geen meter, slechter als een enkele kaart en crashed na elk potje.

Heb daar elle lange discussies gehad met de "support" afdeling. Waaruit komt dat je SLI / crosfire maar moet uitzetten als je MP ingaat ..
En ik ben niet de enige. :)

FC3 (mp) + multiu GPU = vragen om problemen
bij mij ook single player.
http://www.youtube.com/watch?v=inUsXEM2Tms
(zie daar ook het gebruik in VRAM. en dat is op een "rustige" plek)

[Reactie gewijzigd door rayhvh op 22 juli 2024 18:05]

Weer even terug komend op BF3 / ultra setting.
Vram gebruik op 1920x1080 +/- 1500MB
Vram gebruik op 2560x1440 +/- 1900MB
En dat is dus precies wat ik had willen zien in deze review: 2560x1440 in SLI met 2 van zulke kaarten op Ultra, bij een Battlefield 4 techdemo of zoiets.

Mijn vermoeden is dat BF4 op die resolutie op Ultra toch zéker boven die 2GB VRAM gaat uitkomen. Er zit in de screenshots alleen al véél meer effecten wat uiteraard ergens vandaan zal moeten komen.

Een ander voorbeeld: toen ik een HD5970 had, was dat eigenlijk een crossfire HD5870 op één kaart. In principe had ik genoeg GPU-kracht in BF3, maar als ik op Ultra wilde spelen ging het VRAM per kaart vér boven de 1GB uitkomen. Het gevolg: ik stond een paar seconden onbestuurbaar op het veld voordat m'n FPS weer door ging lopen, terwijl het echt niet aan GPU-kracht lag.
De overstap op een andere GPU met meer RAM (in mijn geval een HD7970 met 3GB VRAM) gebruikt nu al op 1920x1200 zo'n 1,5-1,7 GB aan VRAM.

Wat mij betreft moet je voor BF4 toch zeker de 4GB VRAM variant halen, mijn voorgevoel zegt dat BF4 op 1080P Ultra toch zéker boven de 2GB VRAM uit gaat komen, zeker ook vanwege de aangekondigde systeemeisen van EA/DICE waarbij 3GB VRAM als aangeraden wordt bestempeld.

Het zou namelijk gewoon zonde zijn als je een kaart van 2GB VRAM koopt, en straks niet alles uit je GPU kunt halen omdat er niet genoeg geheugen op de kaart zit.
EA heeft er met de BF3 "required specs" inderdaad aardig naast gezeten :/
1GB Vram opleggen terwijl dit een dikke bottle is en lekker gaat haperen.

BF4 is nagenoeg even zwaar. Een iets wat getweakte engine, maar geen grote veranderingen. Ik verwacht eigenlijk niet dat het een grote impact heeft op het toenemen van de Vram tov BF3.

Ik denk meer dat EA nu extra "veilig" wilt zitten en de requirements erg ruim heeft genomen om enig gezeik en gezeur te voorkomen. Ach over een paar weekjes weten we het met de beta. ALs je perse een andere graka wilt hebben voor dit spel, dan kan een maandje wachten met de aanschaf er ook wel bij. Dan kun je gelijk reviews / ervaringen lezen op inet.
Persoonlijk vind ik de Gigabyte GV-N760OC-4GD versie wat mooier ogen,
Hij is igg wel wat duurder maar ja, daar voor krijg je ook 4GB en drie dikke fan's

2 van de zelfde van een van deze kaarten in je systeem en je hebt voor een lange tijd genoeg
Mooie kaarten.
Wat maakt het uiterlijk nu eigenlijk uit van een videokaart? Hij zit er ten eerste al naar beneden gericht in je behuizing.. daarnaast krijg je 3 dikke fans die in deze GTX 760 minder goed koelen dan 2 grotere fans en dan nog eens luider zijn ook?
Wat maakt het uiterlijk nu eigenlijk uit van een videokaart? Hij zit er ten eerste al naar beneden gericht in je behuizing..
Vind het altijd grappig dat er mensen zijn die voor het uiterlijk kiezen. Zoals je al zei je stopt hem in je kast en je ziet hem niet meer, alleen wanneer je hem schoonmaakt.. :)
Ik heb een inkijkraam. :) Maarja, meest boeiende aan de videokaart is de zijkant, want de bovenkant wijst toch naar beneden, die zie je uiteraard niet. 8)7
Pff, wat is nu de logica in de conclusie?
Volgensmij is de Gigabyte toch echt een graadje minder als de Asus, heeft zelfs in jullie oordeel een paar sterren meer? Hier ontgaat het me toch echt, ik herriner me van een van de eerdere tests dat het oordeel ook al zo raar was...

Verder wel een goede review...
temperatuur & geluid is hoger bij de gigabyte..
reviews: GTX 760: kiezen tussen twee en vier gigabyte

Furmark
Gigabyte: 73°C
Asus: 70°C

Geluidsdruk load 20cm
gigabyte: 47,4 dB(A)
Asus: 45,4 dB(A)

Dus een half sterretje meer is toch correct?

[Reactie gewijzigd door SmokingCrop op 22 juli 2024 18:05]

Gigabyte heeft een halve ster minder dan de Asus gpu...Dus in de review is die inderdaad een graadje minder dan de Asus.

Verder is de conclusie duidelijk; Je kan beter het geld wat je extra betaald voor een 4GB gpu in je zak houden en een 2 GB gpu kopen.
Die fout heb ik ooit ook gemaakt, later alsnog 'moeten' upgraden naar 4GB kaartjes. Overigens wel tripple HD.
Mja, er is wel een groot verschil tussen 5760x1080 en 1920x1080.
Gisteren de gtx 760 van MSI in mijn kast gezet :)
En ik kan bevestigen dat de kaart van MSI inderdaad zeer still is (bij normaal gebruik)!

[Reactie gewijzigd door carbonspeed op 22 juli 2024 18:05]

Alle kaarten met die Twin Frozer zijn stil, echt een goede koeler!
Alleen zijn de fans zelf niet zomaar uitwisselbaar met iets anders (en totaal niet onderhoudbaar).
Goede review, zoals al wordt aangegeven heeft de gebruikte open testbench invloed op de temperatuur. Ik heb zelf de Asus 760, in mijn Antec P180 schommelt de temperatuur na een sessie BF3 zo rond e 74 a 77 graden. Prima kaartje, lekker compact wat in mijn kast goed tot z'n recht komt (zie foto's: http://nl.hardware.info/usersystemen/19781/-d#)

Nog wel een vraag, klopt dat de 760 kaarten bij 81 graden zichzelf terug klokt (schakelt boost uit)?
Bij het overschrijden van de thermal limit (default 80 graden, is instelbaar via Afterburner) gaat de kaart zich inderdaad terugclocken. Dat gebeurt in kleine stapjes (13 MHz als ik me niet vergis) totdat er weer een balans is.

Hier heb ik wat testjes mee gedaan die ik nog in een review moet zetten...ik zal dit weekend eens kijken.

Boost 2.0 is in die zin erg verstorend voor benchmarks en zeker bij vergelijk met AMD kaarten of "oudere" Nvidia kaarten. Bij Boost 2.0 zegt de base clock namelijk niets; de kaart draait daar nooit op. Er wordt altijd gedraaid op de boost clock snelheid, tenzij dat niet vol te houden is (door temperatuur of power limits). Wat je in benchmark resultaten dus eigenlijk altijd moet weten is "Wat is het verloop van de clock speed gedurende de benchmark?".

Dit heeft ook direct zijn weerslag op power consumption. Bij deze kaarten wordt echt heel dynamisch de clock speed geregeld op basis van de behoefte. In Diablo III zie ik bijvoorbeeld dat de kaart op een clock van zo'n 600-700 MHz draait....ver onder de base clock van 1050 MHz. Bij gelijke FPS (constant 60 wegens VSync) verbruikt deze kaart dus minder dan de vorige kaart die ik had, een MSI HD 7850 Power Edition (core clock 950 MHz). Een zwaardere kaart met een hogere TDP verbruikt bij gelijke gevraagde prestaties dus minder.

Geluidproductie is ook zoiets...hier wordt de 100% fans neergezet...waarom? De fans op de MSI kaart gaan echt nooit 100% draaien hoor, tenzij je een isolerend materiaal tussen de koelfinnen stopt ofzo (lees: bewust oververhitten).

Ik heb m'n fan profiel zo ingesteld dat ik altijd op 34% draai (het minimum wat je in kunt stellen). Tijdens het spelen van Tomb Raider (FXAA, double buffer, TessFX uit, rest maximum) is de kaart nog nooit boven de 80 graden gekomen, dus ik heb altijd maximum clock en minimum geluid. Doordat de clock nooit omlaag getrapt wordt, is de performance dus exact gelijk aan wat je in benchmarks ziet, maar dan tegen een geluidsniveau dat lager ligt dan de idle metingen in benchmarks (het default fan profiel start op 40%, dus hoger dan de 34% die ik erop heb gezet).

De standaard benchmarks zijn dus steeds minder een weergave van 'echt gebruik'...
Grappig!

Deze week mijn MSI 560 TI vernieuwd met de MSI 760 van deze review.

Al waren de andere kaarten nog beter, MSI vindt ikzelf persoonlijk altijd de beste. En ook nu weer blijkt dat ik de goede keuze had gemaakt.

De MSI heb ik standaard al kunnen overklokken op: http://i.imgur.com/JhpibLl.jpg.

Als je de afbeelding niet kan benaderen dan zal ik je zeggen wat mijn clocks zijn:

GPU Clock = 1120 | Memory = 3229 | Boost = 1184

Standaard is het:

GPU Clock = 1020 | Memory = 3004 | Boost = 1084

Dit zijn mijn veilige waardes. HardOCP wist het nog wat hoger te krijgen. Zie hun overclocking review op www.hardocp.com/article/2...760_overclocking_review/1.

Al met al, een fijne kaart!
Het is natuurlijk leuk dat je deze waardes weet te behalen met deze kaart, maar het zegt eerlijk gezegd vrij weinig over deze review welke draait om de invloed van de hoeveelheid videogeheugen.

Tevens zegt het ook helemaal niks over de kwaliteit en prestaties van andere merk videokaarten van hetzelfde type...

Op deze manier lijkt het bijna alsof je reclame maakt voor MSI. ;)


Overigens gaat het overklokken van de Gigabyte GTX 760 OC 2GB nog beter dan de MSI. :Y)


Tot nu toe komt uit de meeste reviews die ik lees de conclusie dat enkel en alleen bij extreme opstellingen met hele hoge resoluties/verdeeld over meer dan 1 monitor en veelal zelfs alleen bij zware benchmarks er een voordeel is voor 4GB videogeheugen. Tevens zijn dit soort extremen ook alleen maar weggelegd voor high-end kaarten, dus de betere midrange kaarten zijn bij voorbaat al niet geschikt voor dit gebruik en dus is deze hoeveelheid videogeheugen ook vrij zinloos (op dit moment).
Verder is het vrij aannemelijk dat met de komende generatie games er meer behoefte zal gaan komen voor grotere hoeveelheden videogeheugen. Een paar jaar geleden was een videokaart met 1GB ook meer dan voldoende.

Pas als een bepaalde hoeveelheid videogeheugen standaard op een midrange videokaart zit mag je wel aannemen dat dit het minimale benodigde is voor een game van dat moment. Anders is het gewoon een beetje mooie marketingpraat... :*)

[Reactie gewijzigd door R0KH op 22 juli 2024 18:05]

Mooie review, alleen waar zijn de overcloking resultaten!?
Het hele idee van de 4gb versie is toch om voor te bereiden op wat de nieuwe console generatie gaat doen? Er worden op dit moment spellen gemaakt die toegang hebben tot 4gb (shared weliswaar) memory en dat voornamelijk voor de gpu gebruiken. Op de (huidige) PC markt is > 2gb gewoon alleen aan de high-end toegewezen.

Dus als je later 'dirty ports' krijgt van console games naar de PC (of andersom, boeit niet echt) zijn die spellen gemaakt met +/- 4GB shared ram in gedachten.... dan loopt de PC gewoon achter. Of dat heel erg gaat zijn voor performance, daar durf ik niks over te zeggen.

Dus ik denk dat daarom 4gb kaartjes voor het midden segment gemaakt worden. Op z'n minst het matchen van de specs van de console generatie die er aan zit te komen.

Op dit item kan niet meer gereageerd worden.