Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 112, views: 251.192 •

Conclusie

We hebben drie verschillende videokaarten met drie dezelfde gpu's naast elkaar gelegd en gekeken welke van het trio de snelste is. Die bleek uiteindelijk bij Gigabyte vandaan te komen. Die conclusie kwam niet bepaald uit de lucht vallen, want de Gigabyte-kaart beschikt over de hoogste klokfrequenties en het meeste werkgeheugen.

Een kanttekening bij de goede scores van de Gigabyte-kaart is dat de voorsprong niet enorm is. Het verschil ten opzichte van een standaard-GTX 760 bedraagt, afhankelijk van de benchmark, twee tot zeven procent. Als we de klokfrequenties gelijktrekken, blijkt de invloed van de grotere hoeveelheid geheugen helemaal klein en in sommige gevallen blijkt 4GB langzamer dan een gelijkgeklokte kaart met 2GB geheugen. Tel daarbij op dat de geluidsdruk van de fans en het energieverbruik van de kaart tegenvallen ten opzichte van wat de concurrenten doen, en wij houden de vijftig euro die de Gigabyte extra kost liever in de portemonnee.

MSI GTX 760 Twin Frozr

Voor iets minder dan 230 euro ligt de GTX 760 van Asus in de schappen. Het kaartje is met een lengte van 21,5 centimeter lekker compact en presteert ongeveer even goed als de kaart van MSI, die 14MHz sneller geklokt is. Voor gamers met een mITX-systeem is dezelfde kaart zelfs nog in een extra korte variant te krijgen, die slechts 17 centimeter lang is. De compacte koeler levert wel een hogere geluidsproductie op dan die van de kaarten van Gigabyte en MSI. Bovendien lijken de twee relatief kleine ventilators van de Asus minder lucht te kunnen verplaatsen dan de twee concurrenten, dus in behuizingen met weinig airflow is de GTX 760 van Asus wellicht niet de beste optie.

Onze keuze zou daarom op MSI's GTX 760 vallen. De koeler produceert de minste herrie en het energieverbruik is het laagste, terwijl de prestaties niet onderdoen voor die van de concurrentie. De koeler is duidelijk afgesteld op een lage geluidsproductie en daarom wordt de gpu tijdens de stresstest wat warmer dan de concurrenten, maar 77°C is voor een gpu een prima maximum. Met een prijs van 236 euro is MSI's GTX 760 met Twin Frozr-koeler bovendien niet enorm veel duurder dan de goedkoopste 760 in de Pricewatch, waarvoor 220 euro neergelegd moet worden.

 Asus GTX760-DC2OC-2GD5MSI GeForce GTX 760 2GB GamingGigabyte GV-N760OC-4GD
  Asus GTX760-DC2OC-2GD5 MSI GeForce GTX 760 2GB Gaming Gigabyte GV-N760OC-4GD
Algemene beoordeling Score: 4Score: 4.5Score: 3.5
Prijs Score: 4.5Score: 4Score: 2.5
Featureset Score: 4Score: 4Score: 4
Prestaties Score: 4Score: 4Score: 4.5
Warmte en geluid Score: 3Score: 4.5Score: 2.5
 Tweakers zegt: goed!Tweakers zegt: zeer goed!Tweakers zegt: bovengemiddeld

Lees ook de gebruikersreviews

Populaire gebruikersreviews

Alle gebruikersreviews over:

MSI GeForce GTX 760
Asus GeForce GTX 760
Gigabyte GV-N760OC


Door Jelle Stuip

- Reviewer

Jelle werkt sinds 2013 bij Tweakers en kan zijn kennis en voorliefde voor hardware gebruiken in het testlab. Hij test en bespreekt vooral videokaarten en laptops, waarbij niet alleen op de binnenkant wordt gelet maar ook naar de buitenkant wordt gekeken. Een paar keer per jaar vliegt Jelle naar het buitenland om op beurzen het nieuwste van het nieuwste te zien en uit te proberen.

Reacties (112)

Reactiefilter:-11120112+158+213+30
Tweakers adviseert een GTX760 met 2GB terwijl EA/DICE voor volgende maand een GTX660 (of beter) met 3GB adviseert? Dit voorbeeld, gevoed door recente specs vanuit EA, levert toch enige verwarring op over hoe games nou daadwerkelijk omgaan met videogeheugen en in hoeverre dit te wijten is aan het wel/niet efficient programmeren door de developers.

Daarnaast vind ik het grappig/opvallend dat er toch regelmatig BBG's of forum-topics zijn waar men al snel de grens van 4GB of 8GB RAM voor een moederbord als "wel het maximale vindt" want het wordt toch niet gebruikt. En daarnaast/tegenover zijn er toch voldoende aanwijzingen dat er een veel grotere markt lijkt te ontstaan voor GPU's met meer dan xx GB videogeheugen terwijl ook hier het nut niet altijd bekend is.
Ik vind het ook nog steeds twijfelachtig. Uit de review blijkt niet of het volledige vram nu gebruikt wordt of niet, en wat dán de voordelen zijn.

Edit: zie de review van de buren:

http://nl.hardware.info/r...li-metro-2033---1920x1080

"Metro 2033 schaalt er netjes met SLI en 3-way SLI. Bekijk vooral de laatste grafiek op de volgende pagina, 5760x1080 Very High: hier zie je dat de GTX 780's vanwege de 3 GB in plaats van 2 GB geheugen als enige capabele framerates produceren."

Dus bij de weinig VRAM kakt je fps totaal in, maar ook MÉT voldoende vram moet je behoorlijk wat power hebben om daadwerkelijk te kunnen spelen.

[Reactie gewijzigd door ToWi1989 op 13 september 2013 12:55]

Ben het eens, het niet inzien dat je een 4GB model neemt als je van plan bent SLI te gruiken op hoge resoluties is een gebrek aan inzicht van de reviewer.

Bij non-SLI opstellingen is voor een 680 aka 760 2GB meer dan voldoende in nagenoeg alle gevallen, maar ga je over naar SLI dan heeft de 4GB zeker wel voordelen, zeker bij multi-monitor opstelling.

Ik ben dan ook best blij dat de Titan 6GB heeft daar ik soms pieken van 5GB VRAM gebruik zie op mijn 7680x1600 SLI opstelling

[Reactie gewijzigd door player-x op 14 september 2013 19:19]

De hoeveelheid videogeheugen hangt vooral af van 2 zaken:
- de resolutie waarop gespeeld wordt
- de hoeveelheid geheugen, nodig om een frame van een bepaalde game op te slaan

Dat tweede puntje hangt ook af van je videokaart: als je een beest van een kaart hebt, dat alle frames op ultrahigh weergeeft, met alle bellen en toeters, dan neemt dat meer geheugen in.
Naar mate op hogere resoluties gespeeld wordt, en games uitkomen die héél gedetailleerd zijn (en dus meer geheugen per frame vragen), ga je steeds meer videogeheugen nodig hebben om een soepele framerate vast te houden. Hier bestaan geen "theoretische" methodes voor, aangezien dit ook afhankelijk is van de game die gespeeld wordt. Vandaar dat reviews die de verschillende uitvoeringen testen, best hun nut hebben.
De hoge resolutie... Kun je dat uitleggen?

Zou kunnen hoor, maar technisch zie ik niet hoe dat een grote impact zou moeten hebben. Zelfs als je drie grote schermen hebt, dus 7680x1600 of zo, in drie kleuren, dan is een frame zo'n 36MB. Hoeveel halffabrikaat frames hoeft een kaart op elkaar te leggen qua transparantie, schaduwen, z-index etc voordat het richting monitors gestuurd wordt? 3? 10? 2GB zou genoeg moeten zijn lijkt me...

Volgens mij is het meer een kwestie van een grotere buffer voor allerlei textures en zolang een spel geen honderden varianten heeft van een baksteen-met-hoekje-eraf dan is 4GB geen groot voordeel, of mis ik toch iets belangrijks?
Textures moeten worden gerendered, de resolutie waar op word gespeeld bepaald hoe gedetailleerd een texture moet worden gerendered. Een gedetailleerde texture neemt meer vram in beslag dan een minder gedetailleerde texture.
Dingen als bijvoorbeeld een baksteen worden gerendered met behulp van een texture van een complete muur, daar overheen komen reflection, refraction en bumpmaps om het structuur en de juiste belichting te geven. Ik raad aan om eens iets op te zoeken over textures en bumpmaps in de Unreal engine. Erg interessant en er is een hoop over te vinden omdat de engine een hoop door hobby developers word gebruikt.

edit: typo

[Reactie gewijzigd door HKS-Skyline op 13 september 2013 10:28]

Je vergeet nog het feit dat naast een texture van een baksteen deze tegenwoordig ook nog wordt gerendered met diepte. Je ziet dus ook echt de voegen van een oppervlakte. Deze voegen genereren op hun beurt weer een schaduw in de voeg.

Wat er tegenwoordig gebeurt is dat je niet meer kunt spreken van een vast texture zoals in doom was opgebouwd uit alleen een platte plaat met pixels. Video kaarten krijgen tegenwoordig een "opdracht" van de CPU en een gedeelte van het oppervlak wordt gemaakt door de videokaart. hier heb je veel meer voor nodig dan simpel een paar pixels opslaan. Met 16x antialiasing wordt de hoeveelheid plaatsjes die daarnaast gerendered moeten worden zelfs nog veel meer.

Ook geldt nog hoe de game is gebouwd en welke kleur de pixels zijn hoe groot een uiteindelijke texture is. Een volledig zwart oppervlak zal amper data verbruiken voor het geheugen op de GPU.

Aan de andere kant is het belangrijk dat de game goed is opgebouwd. In vroegere spellen was het vaak zo dat deze niet kon herkennen als je naar een muur keek en werden ook alle oppervlaktes en textures achter deze muur door de videokaart gerendered, terwijl je ze niet kon zien. Tegenwoordig worden textures en objecten vaak ook niet gerendered als je ze niet kunt zien, waardoor de videokaart meer ontlast wordt dan vroeger, hierdoor kunnen mooiere textures op het beeld verschijnen.

Resolutie is inderdaad een hele grote factor. 800 x 600 renderen of 1920 x 1080 is een groot verschil. Toch zijn er ook zaken als physics die steeds vaker door de gpu berekent worden.

De simpele berekening van het aantal mb's per frame is dus maar een deel van wat een CPU in het geheugen opslaat

[Reactie gewijzigd door sygys op 13 september 2013 16:37]

Snap niet dat er geen GeForce GTX 660Ti tussen staat, aangezien de GeForce GTX 760 daar tegen moet concurreren, en aangezien ze bijna net zo snel zijn.

http://www.guru3d.com/articles_pages/geforce_gtx_760_review,1.html

En vind het erg triest dat de Geforce GTX 760 nu bijna net zo duur is als de Geforce GTX 660Ti, waneer er nog HEEL VEEL Geforce GTX 660Ti zijn, het scheelt maar ¤34,-

[Reactie gewijzigd door AmigaWolf op 13 september 2013 20:24]

Eerlijk gezegd is die '3GB recommended VRAM' gewoon marketing. Vergeet niet dat de demo gespeeld werd (zoals geadverteerd) op een AMD HD 7990 en dat de titel ook onderdeel van AMD's Never Settle bundle wordt.

Bijna elke high-end achtige kaart van AMD beschikt over 3GB VRAM waar Nvidia kaarten vaak 2GB hebben. Als je dan denkt 3GB VRAM nodig te hebben ga je natuurlijk voor een AMD kaart.

En dus; Partnership tussen EA en AMD. Wat totaal geen geheim is. Ik durf vrij zeker te zeggen dat 2GB VRAM meer dan zat is om BF4 gewoon op ultra op 1080p te kunnen spelen, mits je een fatsoenlijke kaart hebt (GTX 760 +).
De gtx 760 ligt tussen de 660 ti en 670, terwijl de 660 ti duurder is.
Mensen gaan dus voor een 760 omdat die goedkoper en net iets beter is.
Vergeet ook je 3d modellen niet, die staan ook in je vram.
Je kunt op twee manieren zelf experimenteren met VRAM.

De eerste is GTA 4 opstarten en dan krijg je direct een voorspelling van het gebruikte vram te zien. Deze is dus afhankelijk van texure details, resolutie, enz. Destijds was dit een belangrijk punt omdat niet elke kaart toen voldoende vram had (zat zelf toevallig met 896mb ipv 512). Die 36 mb slaat kant nog wal ;).

Verder kun je bij elke game je vram uitlezen met gpu-z of rivatuner (msi afterburner, evga precision, etc).
http://www.techpowerup.com/gpuz/


Voorbeeld:
Total War 2 Extreme 1680x1050 (Historic Battle Carthage): 1720MB max
Civilization V Ultra 1680x1050 (Huge map, honderden steden): 950-1170 MB (nadat je de hele map hebt gezien). 1255MB pc RAM.
Grid 2 Ultra 1680x1050 (Hong Kong Descent Day): 602 MB (608 MB pc RAM).
Rift 1680x1050 Ultra 726 MB/ 1518 MB pc ram.

Zijn verder aardig wat games die erg laag blijven, denk aan planetside 2. Het is voorlopig eerder regel dan uitzondering dat je 2 GB vram niet vol krijgt. Bij een game als Civilization is het ook niet zo erg (dan zie je hem even bijladen in het ergste geval). Bij een shooter als Bf3 is het natuurlijk wel storend, dan kun je haperingen krijgen.

[Reactie gewijzigd door sdk1985 op 13 september 2013 14:29]

Je kunt op twee manieren zelf experimenteren met VRAM.

De eerste is GTA 4 opstarten en dan krijg je direct een voorspelling van het gebruikte vram te zien. Deze is dus afhankelijk van texure details, resolutie, enz. Destijds was dit een belangrijk punt omdat niet elke kaart toen voldoende vram had (zat zelf toevallig met 896mb ipv 512). Die 36 mb slaat kant nog wal ;).

Verder kun je bij elke game je vram uitlezen met gpu-z of rivatuner (msi afterburner, evga precision, etc).
http://www.techpowerup.com/gpuz/


Voorbeeld:
Total War 2 Extreme 1680x1050 (Historic Battle Carthage): 1720MB max
Civilization V Ultra 1680x1050 (Huge map, honderden steden): 950-1170 MB (nadat je de hele map hebt gezien). 1255MB pc RAM.
Grid 2 Ultra 1680x1050 (Hong Kong Descent Day): 602 MB (608 MB pc RAM).
Rift 1680x1050 Ultra 726 MB/ 1518 MB pc ram.

Zijn verder aardig wat games die erg laag blijven, denk aan planetside 2. Het is voorlopig eerder regel dan uitzondering dat je 2 GB vram niet vol krijgt. Bij een game als Civilization is het ook niet zo erg (dan zie je hem even bijladen in het ergste geval). Bij een shooter als Bf3 is het natuurlijk wel storend, dan kun je haperingen krijgen.
1680 bij 1050 is dan ook wel een lage resolutie te noemen. Dat zijn maar 1764000 pixels, terwijl 1920 bij 1080 al 2073600 pixels zijn. Da's toch alweer 17% meer waardoor jij (even uitgaande van lineaire schaling) in het eerste geval toch al aardig op de grens zit.

Zelf game ik op 2560 * 1440, meer dan een verdubbeling van het aantal pixels bij 1680 * 1050 en dan zou 2 GB theoretisch wel limiterend zijn bij ultra settings.

That said, bij zulke resoluties hoef je ook geen 16/32X AA aan te zetten, dat is volledige onzin. Dus je kan ook nog wel fatsoenlijk gamen met 2 GB. Ik heb nu nog geen serieuze problemen ondervonden met m'n 560 Ti met 1 GB, maar Ultra lukt natuurlijk niet meer, in ieder geval niet op m'n hoofdscherm.
Total War 2 zit er speciaal bij omdat dit het nieuwste van het nieuwste is, inclusief DRA (Direct, Resource, Access Haswell only). Daarnaast staat hij nog iets hoger dan Extreme; Depth of Field en Vegitation Alpha staan ook aan (custom).

Je verwart geheugen gebruik met GPU load. Dat is nu juist de reden dat ik absoluut geen haast heb met "upgraden" naar 1920x1080 (omdat het dus bijna 20% zwaarder is terwijl het niet mooier wordt).

Geheugen gebruik van TW2 op 1366x768 is 1650MB, slechts 4% verschil terwijl het aantal pixels met 1M dus 68% lager ligt.

Dus nee, geheugen schaalt absoluut niet zoals jij suggereert.

Dat is te verklaren doordat alleen het geheugen deel gerelateerd aan de resolutie mee schaalt. Het grootste deel bestaat uit de models en textures. Die hebben een bepaalde grootte afhankelijk van de gekozen setting (e.g. ultra).

Mbt die textures is het vaak ook geen wereld ramp als het net niet past aangezien veel games streamen. Wat mij betreft is de kans dat je binnenkort 2 GB+ nodig hebt erg klein. In theorie zou er een game kunnen komen (Bf4?) die zoveel gebruikt. In de praktijk ga je dan op huidige kaarten praten over te lage fps. Dat is het moment waarop eye candy niet meer nuttig is.

Die game kan er dus wel komen maar dan heb je ook een krachtigere kaart nodig, dat is in ieder geval de afgelopen 15 jaar zo geweest. Nu al praten over een 4 GB kaart is in dat opzicht niet zinnig.

Los daarvan is 2560 * 1440 gaming met een 560 TI gekken werk. Daar heb je echt een gtx780 voor nodig voor je op acceptabele framerates op ultra uit komt. Zelf kom ik momenteel met een 660 Ti prima uit op 1680x1050.

[Reactie gewijzigd door sdk1985 op 14 september 2013 02:44]

GTA4 is ook een slecht vb. Zo zou je er perse een quadcore voor nodig hebben. Onzin, Rockstar heeft gewoon een slechte port geleverd waar veel winste te halen viel. Na wat custom tweaks, kon ik met een E8400 + "slechts" een 1GB videokaart gewoon rond de 60FPS noteren.

Het enige wat af en toe gebeurde (=zelden) dat je ff de textuur van het wegdek kwijt was, wat slechts op enkele plekjes gebeurde. Zag er vreemd uit, maar was prima mee te leven, het duurde ook maar een luttele sec ofzo.
Ik ben sinds een paar dagen reviews aan het lezen om een keuze te maken voor een nieuwe kaart. Mijn keuze ligt eigenlijk tussen 770 en 760. En inderdaad de recommended specs voor BF4 maakt het een stuk moeilijker en meer verwarrend. Ik had eigenlijk het idee om te kiezen voor een 760 4GB.

Een artikel met een titel als "kiezen tussen 2 en 4 GB" had ik toch verwacht om een goede keuze te kunnen maken en wat meer technische info over de invloed van geheugen nu en in de toekomst. Misschien dat de schrijver niet weet wat de recommended specs zijn van BF4.

Waarschijnlijk dan toch maar de specs voor BF4 aanhouden en voor de 4GB gaan ondanks dat het voor de games nu geen prestatie winst oplevert. Dit kan namelijk eind volgende maand de nieuwe standaard worden voor toekomstige games.

EDIT:

Interessante link gevonden op youtube waar gekeken wordt hoe verschillende game settings het geheugen verbruik beďnvloedt: https://www.youtube.com/watch?v=XdkLhMhnTa4
BF3, ultra settings op een 64 player map gebruikt 1460 MB max. Geen idee wat ze met BF4 gedaan hebben dat ze meer dan 2GB nodig hebben. Misschien dat ze maar net over de grens van 2GB gaan, of juist heel veel. Geen idee, de tijd zal het leren.

[Reactie gewijzigd door gpe op 13 september 2013 09:12]

Wat je omschrijft is het eeuwige probleempunt met net geďntroduceerde videokaarten met 2 formaten geheugen. Toen ik "vroegah" mijn Geforce Ti4400 kocht was er een 64MB en een 128MB-versie. In eerste instantie was iedereen ervan overtuigd dat de 64MB-versie beter was, die was immers beter te overklokken en bovendien maakten de spellen van dat moment amper gebruik van >64MB videogeheugen.

Maar... na een jaar kwamen daar de eerste games die aan 64MB niet genoeg hadden en was ineens de 128MB-versie beter. Je moet ook niet teveel focussen op wat NU nodig is, zo'n videokaart koop je niet voor 6-12 maanden, waarschijnlijk doe je er zeker 2 jaar mee (ik wel iig). En over 2 jaar is 4GB op je videokaart gemeengoed en daar rekenen games dus ook op!
Ik had toen een XFX Ti4200 128MB. Ding liep lekker hard. 350 ipv 250 op de core en 630 op het geheugen ipv 444. Was toen het beste van 2 werelden wel 128MB geheugen maar toch goed overclockbaar.

Over OCen gesproken... volgens mij mis ik een onderdeel in deze review.
Asus Ti4600 128mb.. dat ding heb ik pas hoeven vervangen uiteindelijk voor een Asus 9800GTX+, tot die tijd ging die nog prima mee.

Destijds wel iets van 450 gulden voor betaald maarja. :+
Even flink versimpeld: Hedendaagse games streamen de textures vaak. Er is heel veel tijd gestoken in het optimaliseren van het streamend laden van textures die nodig zijn(denk aan de textures die langzamerhand scherper worden bij sommige games).

Dit systeem zit momenteel (dankzij de consoles) heel erg diep in de engines gebakken en werkt prima. Maar naar mate de textures groter worden en lastiger "on the fly" te decomprimeren/optimaliseren worden zullen game developers toch steeds meer gewoon alle textures verwerkt in het VRAM willen gooien zodat het onmiddelijk klaar is voor gebruik, en de processor van het systeem ook niet meer steeds bezig hoeft te zijn met het van de schijf laden, decomprimeren, en voor de GPU optimaliseren van de textures.

Ik verwacht dat in de nabije toekomst er steeds meer behoefte gaat zijn aan het al in het VRAM hebben van de data, omdat anders de CPU, maar ook de PCI-e bus wel eens een beperkende factor kan worden.
Het streamen van textures is juist ontstaan door VRAM-beperkingen. Het feit dat textures groter worden maakt met dit principe juist niet meer uit; je streamt puur datgene wat je nodig hebt (bijv. MegaTextures in de id Tech 5 engine).

edit: overigens behoort de behoefte tot meer VRAM niet meer tot het verleden met streamen, de ontwikkelingen beginnen nu al te verschuiven naar voxels, welke meer dan ooit RAM-vreters zijn)

[Reactie gewijzigd door Sgreehder op 13 september 2013 12:18]

edit: overigens behoort de behoefte tot meer VRAM niet meer tot het verleden met streamen, de ontwikkelingen beginnen nu al te verschuiven naar voxels, welke meer dan ooit RAM-vreters zijn)
Wil je daar geld op zetten, dat voxels de toekomst zijn ?
Dat lijkt me juist een broodje aap verhaal. Juist als de textures nog groter worden, is er meer en meer behoefte aan compressie, hoe efficienter , hoe beter.

Kijk naar flims b.v, Blueray = ook veel meer data geworden, zijn die van compressie afgestapt? Natuurlijk niet, ze kiezen juist voor nieuwere, betere compressie.
Ik zou zeggen, overweeg ook eens de 670. Loopt sneller dan de 760 en is vergelijkbaar in prijs.
pricewatch: Zotac GeForce GTX 670 4GB
Of deze: pricewatch: Asus GTX670-DCMOC-2GD5 Hij bevalt me erg goed.
Hij is totaal niet vergelijkbaar.
300 euro voor een bijna reference 670 terwijl een reference 760 een stuk goedkoper is, iets boven de 200 euro voor 2 GB en rond de 250 voor 4 GB.
Kijk niet naar recommended settings van BF4.
AMD verkoopt zijn standaard mid-range kaarten met 3 GB, NVIDIA met 2 GB.
En DICE en AMD hebben een lang lopende relatie.

Je moet wel erg dom zijn om niet in te zien dat dit puur marketing is. Mensen denken dan dat ze 3 GB nodig hebben, en gaan dus voor de AMD videokaart.

En als je een kaart zoekt voor BF4, wacht dan totdat de beta uit is, dan kun je zo zien of 4 GB echt nodig is voor BF4.
''En daarnaast/tegenover zijn er toch voldoende aanwijzingen dat er een veel grotere markt lijkt te ontstaan voor GPU's met meer dan xx GB videogeheugen terwijl ook hier het nut niet altijd bekend is.''

Ik denk dat dit hetzelfde principe is als de megapixel race bij camera's. Mensen denken dat meer altijd beter is, maar dat is dus niet het geval. Toch verkoopt het wel meer.
Lijkt me een erg kromme vergelijking. Met een oude 5MP camera kan je nog steeds prachtige plaatjes schieten, Met een 256MB kaart kom je niet ver meer, zelfs al zou er een retesnelle GPU op zitten..
Klopt maar met een oude G-Force 6600gs met 2GB kom je ook nergens meer.
EA raad dat aan voor BF4. Dat spel is hier niet getest. Dus de conclussie van tweakers klopt als je kijkt naar de applicaties die getest zijn.

meer dan 2GB heeft wel nut maar pas bij 2560x1600 in zware applicaties. Of nog hogere resoluties zoals bij Eyefinity. Maar dan heb je het niet meer over dit segment qua kaarten. Dan wil je minimaal een HD7970/GTX770 hebben. Het liefst twee om echt soepele game play te hebben.
maar wat als je sli gaat draaien,dan denk ik dat het beter is om voor de 4gb kaart te gaan!
Tja dan kun je in mijn ogen beter voor een GTX780/Titan gaan. Single GPU heeft bij mij toch de voorkeur zolang dat kan. Je hebt nog minder latency en geen geklooi met SLI profiles daarnaast heb je vaak een voordeel qua verbruik. Pas als een Single GPU niet snel genoeg is zou ik naar dual GPU setups gaan kijken,
Tweakers adviseert de 2GB 760 vergeleken met 2 andere kaarten, wat heeft de 660 en EA daarmee te maken?
Pff, wat is nu de logica in de conclusie?
Volgensmij is de Gigabyte toch echt een graadje minder als de Asus, heeft zelfs in jullie oordeel een paar sterren meer? Hier ontgaat het me toch echt, ik herriner me van een van de eerdere tests dat het oordeel ook al zo raar was...

Verder wel een goede review...
temperatuur & geluid is hoger bij de gigabyte..
reviews: GTX 760: kiezen tussen twee en vier gigabyte

Furmark
Gigabyte: 73°C
Asus: 70°C

Geluidsdruk load 20cm
gigabyte: 47,4 dB(A)
Asus: 45,4 dB(A)

Dus een half sterretje meer is toch correct?

[Reactie gewijzigd door SmokingCrop op 13 september 2013 08:29]

Gigabyte heeft een halve ster minder dan de Asus gpu...Dus in de review is die inderdaad een graadje minder dan de Asus.

Verder is de conclusie duidelijk; Je kan beter het geld wat je extra betaald voor een 4GB gpu in je zak houden en een 2 GB gpu kopen.
Die fout heb ik ooit ook gemaakt, later alsnog 'moeten' upgraden naar 4GB kaartjes. Overigens wel tripple HD.
Mja, er is wel een groot verschil tussen 5760x1080 en 1920x1080.
Het lijkt me redelijk duidelijk naar voren komen uit deze test dat er (voor deze kaart) amper verschil is tussen 2 of 4GB kwa prestaties voor ALLE spellen tot nu toe. Het lijkt me dus sterk dat dit 'ineens' gaat veranderen, dus om nu ineens een advies te gaan veranderen omwege vage system requirements van een nog uit te brengen spel lijkt me nogal radicaal. System requirements zijn voor mijn gevoel altijd al redelijk nutteloos geweest behalve voor een grove indicatie.

Wat ze wel nog even moeten vermelden is als je in SLI wilt gaan draaien, dan zou je eventueel voor de 4GB versie kunnen kiezen omdat je het geheugen dan deelt tussen twee kaarten. (Jammer dat dit niet is getest)

Edit: Dit was eigenlijk een reactie op MAX3400

[Reactie gewijzigd door imdoctorbob op 13 september 2013 08:31]

Bij SLI/CF verwacht ik juist wel de grootste verschillen, aangezien de ''GPU power/GB GPU-ram'' gelijk is aan een referentie 760 met 2GB ram. Vaak is 760-SLI sneller dan één GTX780.

De GPU capaciteit zelf bepaalt al voor een groot gedeelte hoeveel GPU-RAM zinvol is. Een ''grotere'' GTX 780 kan meer FPS draaien, draait hogere resoluties en vereist dus meer RAM. Daarom zit hier standaard ook net iets meer RAM op.

Je zou zeggen dat de 4GB editie iets meer futureproof is, maar ik gok dat een enkele 760-GPU echt te kort komt binnen 2 jaar. Een 760(4GB)-SLI daarentegen is (wss) beter dan een GTX780, ook als je meeneemt dat Multi-GPU support zal (en moet) verbeteren.

Mijn conclusie: Test GTX760-SLI (4GB) en vergelijk deze t.o.v. GTX770,GTX780, Titan en AMD kaarten met veel RAM. Gewoon maar een paar benchmarks zoals nu voor 1 of 2 games, Crysis 3 en Battlefield bijv.
GTX760 SLI met 2GB is al sneller dan de GTX780, de GTX770 en de Titan:

http://www.guru3d.com/art...gtx_760_sli_review,8.html

Dat zullen 2 GTX760's 4GB dus ook zijn. Waarom zou je die dan alsnog in een test met de Titan etc willen zien?

Test dan gewoon GTX760 2GB SLI vs GTX760 4GB SLI, dan weet je tenminste of daar het extra geheugen misschien WEL interessant is. Overigens denk ik dat het niet echt uit gaat maken...met de huidige games.

Verder: goed artikel, altijd leuk om de mythe van extra veel geheugen op videokaartjes te busten! Blijkt dat 't nog steeds meer voor show is dan wat anders.


Edit @ reactie hieronder:
Je vergeet dat vele mensen een 80/90 of titan niet alleen kopen voor de prestaties. Maar ook zodat de dubbele warmte niet word gecreerd.

Ik vergeet helemaal niks over de Titan, ik doe namelijk geen uitspraak over welke beter is. Ik zeg enkel dat het totaal geen zin heeft om een GTX760 4GB tegenover een Titan te zetten als je dat al met een GTX760 2GB gedaan hebt, OMDAT de GTX760 2GB ook al sneller is dan de Titan. Dat jij dat interpreteert als dat ik automatisch concludeer dat de GTX760 SLI beter is dan een Titan, is verkeerd begrijpend lezen.

Je neomt het al busten xD Zo zie je maar dat de meeste niet weten waarvoor deze kaarten zijn^ En 2GB vs 4GB is alles behalve show..

Je doet de aanname dat ik niet weet waar die kaarten voor zijn, namelijk extreem hoge resoluties op bv multi-monitor, maar je komt met 0 bewijzen dat ze daadwerkelijk verschil maken in dat gebied. Dan kun je wel gaan speculeren dat dat wel zo is, maar zonder benchmarks heb ik daar dus niks aan. Myth nog steeds busted dus.

[Reactie gewijzigd door A Lurker op 13 september 2013 12:35]

Wat ook belangrijk is voor vele mensen een 80/90 of titan niet alleen kopen voor de prestaties. Maar ook zodat de dubbele warmte niet word gecreerd. En de stroom wat het nodig zal hebben. En de geluid wat voor vele blijkbaar een buzzkiller is. Ruimte in de kast en noem maar op^ Ook zeker rede wat genoemd mag worden hoor. Niet alleen 2 SLI setups te laten concureren.. vooral vram SLI setups^

De vraag is ook oa hoe efficient die 4GB tegenover de 2GB is met resolutie, meerdere monitors, en ga zo maar verder. Het is helemaal niet intersant voor de huidige games of gamers..
En daar heb je het al, dit segment en gebruikers van deze 60 kaarten hebben over het algemeen geen meerdere monitoren. Laat staan voor daadwerkelijk gamen. Dus het is wachten op BF4 of andere nextgen games.

Want over algemeen is dit toch een slechte test en helemaal niet duidelijk waarvoor die kaarten er uberhaupt zijn. Je neomt het al busten xD Zo zie je maar dat de meeste niet weten waarvoor deze kaarten zijn^ En 2GB vs 4GB is alles behalve show..

Edit @ reactie hier boven.

Nee je deed een uitspraak over een SLI setup vs een kaart qua prestaties. Terwijl er vaak juist vanwegen de voordelen van 1 kaart die aankoop word gedaan. Kijk dat 1 kaart van de huidige generatie beter is dan een van de vorige limited editions of andere moet toch niet als een verassing komen ofwel? Zo schuift het iedere generatie weer..
Kan me eerlijk gezegd ook niet veel interseren als 2 760's beter zijn dan 1 titan wat gelimiteerd is uitgebracht en voor een kleine markt is. Het ging mij echter alleen om de keuze tussen 1 en 2 kaarten in een kast te hebben.. Sterker nog ik attendeer je helemaal nogeens niet op de prestaties, alleen de voordelen en nadelen van 1 en 2 kaarten.. Begrijpend lezen zei je?

Oh ik dacht het algemeen bekend was dat de vram scaled met de resolutie en de aantal monitoren in gebruik. En dan moet ik met bewijzen komen? 8)7 Is google.nl offline ofzo? Is best een intersant onderwerp om op te zoeken..

Juist waar ik het dus ook over had. De huidige generatie games, het segment waar deze kaart onder valt, en de consumenten die deze kaarten kiezen en hun setups.. Of denk je dat deze gebruikers ook een Intel Core i7 3960X of een Asus RoG Rampage IV Extreme gebruiken voor hun gaming rigs? Nee meesten zullen die niet hebben. Laat staan meerdere monitoren voor het gamen. En das waar die vram oa voor bedoeld is. Probleem is ook de memorybussen voor de meeste moederborden atm.

Maar je mag gerust verder blindelings op deze ''review'' staren. Ik ben niet onder de indruk van deze review, en vond hem eigenlijk nogal slecht. Deze games hebben niet veel meer aan extra geheugen. Wat deze test zo goed als nuteloos maakt. Je kon mss zelfs een quad SLI setup doen, en zelfs dan scaled het niet of nauwelijks. Het is even wachten of de SLI en de juiste resolutie gebruiken om te scalen.. Maar voor jou is het meer show eh..

[Reactie gewijzigd door luqa1337 op 13 september 2013 18:07]

Mijn ervaring met multi-screen gaming is dat je niet alles kan meten. Met 4GB per kaart is de ervaring wat mij betreft vele malen beter dan met 2GB kaartjes. Dit komt echter niet in benchmarks naar voren, aangezien er enkel fps worden gemeten, niet hoe de game ervaring is (framedrops bv).

Voor 1080p is 2GB meer dan voldoende (je zal max 1.5 gebruiken in de meeste games), daarboven zou ik voor 3GB of 4GB gaan. Dan heb je immers voldoende speling. :)
Nee dat is ook zo, en het heeft ook een groot aantal problemen. Mijn eigen ervaring is idem. Zelfs met SLI en shared memory. Nee het is inderdaad geen real time benchmarking.

Met een setup zoals deze, zal het inderdaad niet boven de 2GB gaan. En sowieso niet met 1080p en deze generatie games.

Het is nog even wachten dat de norm en games veranderen en dan gaan deze kaarten echt uitschieten.
Ik ga niet meer inhoudelijk erop in, want het is me duidelijk dat we voornamelijk langs mekaar heen lullen, ik begrijp delen van je stelling. Maar één ding:

Nee je deed een uitspraak over een SLI setup vs een kaart qua prestaties. Terwijl er vaak juist vanwegen de voordelen van 1 kaart die aankoop word gedaan.
...
Het ging mij echter alleen om de keuze tussen 1 en 2 kaarten in een kast te hebben..

Deze woordkeuzes geven aan dat jij het er graag over wil hebben dat er meer aan de hand is bij de keuze tussen 1 of 2 kaarten dan alleen prestaties.

Prima, ik ben het daar zelfs mee eens, maar aangezien je zelf aangeeft dat 't mij in deze om de prestaties ging, moet je me niet verwijten dat ik de overige informatie niet gemeld heb. Attenderen is niet hetzelfde als iemand verwijten dat ie iets vergat. Dat bedoelde ik dus met begrijpend lezen.

Case closed wat mij betreft.

[Reactie gewijzigd door A Lurker op 13 september 2013 15:32]

Nee je was het ook niet te vergeten te melden, je had het uberhaupt niet vermeld. Prima dus misschien ook niet noemenswaardig volgens jou. Meer geheugen/meer stroom/meer warmte, leek me toch zeer noemenswaardig ipv 2 budget SLI setups vs elkaar te benchmarken. Maar ik had het inderdaad anders kunnen formuleren. Dacht ook dat de gemiddelde tweaker meer wist..

Maar sorry als ik op je zere teentje hebt getrapt allemaal vanwegen 1 verkeerde woordkeuze, waar ik nogeens niet op had gelet(moet je nagaan..)was niet de bedoeling, noch je iets verwijten.

And grow a pair plz^ zal er wel iets anders van maken^ 1 woord 8)7

[Reactie gewijzigd door luqa1337 op 13 september 2013 18:09]

een gtx 760 sneller als een Titan?? Titan is 60 % sneller als die 760, in sli is de 760 maar 10% sneller.(zet 2 titans in sli en je schrikt je kapot van de kracht;) Buiten dat moet je rekening houden dat Titan een enkele gpu bevat, een Beest van een gpu.
Titan is een fantastische kaart, wel duur maar toekomst vast. SLI is leuk in benchmarks maar de frametime is waardeloos, tuurlijk is et leuk af en toe hoge pieken in fps(wat resulteerd in een hogere score) maar die zijn vaak niet constant. Titan heeft een perfecte frametime (das et belangrijkste voor stabiele performance) en draait alle games die nog gaan komen voorlopig volluit zonder microstutter of wat dan ook. Buiten dat is de Titan ook energie zuinig en wordt niet bloedheet, zoals dat wel is met sli opstellingen.
Wat bij mij redelijk naar voren komt is dat dit een hele slechte test is. Het enige dat je kunt concluderen is dat als je deze games speelt bij deze settings je weinig hebt aan extra videogeheugen.
Meer videogeheugen gaat je prestaties meestal nauwelijks beďnvloeden, of juist een enorme impact hebben. De vraag is, had je te weinig of niet? Je zult dus niet snel ineens ipv 40 fps nu 50 fps halen, maar als die extra sloot geheugen nodig is dan zul je wellicht 50 fps halen ipv 10 of zo. Als de videokaart met 2 GB geheugen op dezelfde settings al speelbare prestaties neerzet dan ga er maar vanuit dat er geen vram bottleneck is.
Als je dus wil testen of je iets aan die 4 GB hebt dan zul je dus de situaties op moeten zoeken waarbij meer dan 2 GB geheugen gebruikt wordt, anders dan is het hetzelfde als het verschil testen tussen 16 of 32 GB ram in je PC als je game maar 4 GB gebruikt. Dat gebeurt hier niet echt, er worden gewoon scenarios afgespeeld waarvan bekend is dat de huidige lichting kaarten ze prima kunnen draaien en waarvan je dus vantevoren ook wel kunt zeggen dat 4GB of 2GB videogeheugen weinig invloed gaat hebben.

Het is inderdaad jammer dat ze geen SLI in een 5760x1080/1200 getest hebben. Nou snap ik dat je het maar moet doen met wat de fabrikant beschikbaar stelt, maar er wordt nauwelijk ook maar iets over gezegd. Deze speculatie had op zijn minst in het artikel moeten staan, had er in gezet dat je het met gigabyte overlegd hebt (moet je dat natuurlijk wel ook doen) omdat een SLI test hun kaart er misschien beter uit zou kunnen laten zien maar dat het helaas niet gelukt is om een 2e te krijgen...

Verder ook zaken als dat er nauwelijks iets gezegd wordt over het feit dat die MSI toch echt wel heel significant veel stiller is zo te zien (en een 100% fan speed test? Waar slaat dat nou weer op? dat zegt helemaal niks) en ik vraag me maar weer eens af waarom ik de moeite neem om t.net hardware reviews te lezen.
Persoonlijk vind ik de Gigabyte GV-N760OC-4GD versie wat mooier ogen,
Hij is igg wel wat duurder maar ja, daar voor krijg je ook 4GB en drie dikke fan's

2 van de zelfde van een van deze kaarten in je systeem en je hebt voor een lange tijd genoeg
Mooie kaarten.
Wat maakt het uiterlijk nu eigenlijk uit van een videokaart? Hij zit er ten eerste al naar beneden gericht in je behuizing.. daarnaast krijg je 3 dikke fans die in deze GTX 760 minder goed koelen dan 2 grotere fans en dan nog eens luider zijn ook?
Wat maakt het uiterlijk nu eigenlijk uit van een videokaart? Hij zit er ten eerste al naar beneden gericht in je behuizing..
Vind het altijd grappig dat er mensen zijn die voor het uiterlijk kiezen. Zoals je al zei je stopt hem in je kast en je ziet hem niet meer, alleen wanneer je hem schoonmaakt.. :)
Ik heb een inkijkraam. :) Maarja, meest boeiende aan de videokaart is de zijkant, want de bovenkant wijst toch naar beneden, die zie je uiteraard niet. 8)7
Bij de 4GB vs 2GB benchmark had ik wel willen zien:
1. aantal vram in gebruik (msi aftherburner?)
2. SLI opstelling, 2 of 3 gpu,s met 2GB vs 4GB op 2560x1440 natuurlijk
Vram gebruik enkel vs SLI is het zelfde.
Tenminste hier bij een enkele 670 vs SLI 670 op 2560x1440, je verandert enkel de rekenkracht met SLI. Ik heb dit gechecked in BF3

Hoeveelheid Vram in gebruik lijkt me niet echt boeiend, toch? Dit zou ook niet echt veel verschillen tussen 2 vs 4GB. De druk ligt hier meer op welke resolutie je gamed.

Weer even terug komend op BF3 / ultra setting.
Vram gebruik op 1920x1080 +/- 1500MB
Vram gebruik op 2560x1440 +/- 1900MB

Je zou het iets kunnen verlagen met een hogere reso, door de AA & AF wat terug te schroeven.
DAt zie je toch amper / niet op die resolutie.
denk ook dat hij een test hadden willen zien van de 2gb versie in SLI en van de 4gb versie in SLI...

Juist omdat je de resolutie vergroot kan het zijn dat je met de 2gb versie weer tegen een RAM-limit aan komt, en de 4gb versie zou daar dan minder last van moeten hebben.
Op een enkel 1440P scherm heb je momenteel aan 2GB genoeg en heb je nergens een Vram limit. BF3 is imo de meest vram slurpende game die momenteel op de markt is.
Deze blijft net onder de 2GB / ultra setting @ 2560x1440.

Overige games zoals CH2 / Bioshock infinity / Metro LL / ect. tikken amper de 1000-1500MB aan.

Voor een multimonitor setupje is meer Vram gewenst, maar dat staat ook vermeld in deze "review". Rayhvh heeft het over een enkel schermpie.

[Reactie gewijzigd door mukkel op 13 september 2013 10:46]

Dat is dus wat hij graag had willen zien in een benchmark....
Daar staan zat benchmarks van op the world wide webz

Bv hier een uitgebreide, met msi afterburner en een berg games / benchmarks. 2560x1440 & multi monitor.
Waar grof gezegd uitkomt dat het bar weinig scheelt 2 vs 4 GB


http://www.xbitlabs.com/a...-geforce-gtx-670-4gb.html
Bij de metro 2033 resultaten zie je duidelijk dat de FPS behoorlijk terug loopt bij de 2gb kaart t.o.v. 4gb kaart!

Hier ben ik dus heel benieuwd naar de resultaten met 2 en 4GB GTX 760 SLI vs non-SLI.
Dat is bij een enkele kaart op een tripple monitor setup...
14fps vs < 5 Dat gaat nergens over... een vergelijking die niets in kaart zet, maar waar niemand gebruik van maakt.

[Reactie gewijzigd door mukkel op 13 september 2013 17:24]

Op een enkel 1440P scherm heb je momenteel aan 2GB genoeg en heb je nergens een Vram limit. BF3 is imo de meest vram slurpende game die momenteel op de markt is.
Deze blijft net onder de 2GB / ultra setting @ 2560x1440.

Overige games zoals CH2 / Bioshock infinity / Metro LL / ect. tikken amper de 1000-1500MB aan.

Voor een multimonitor setupje is meer Vram gewenst, maar dat staat ook vermeld in deze "review". Rayhvh heeft het over een enkel schermpie.
Nee daar klopt echt niks van.
Battlefield 3 is helemaal niet zo zwaar.
mijn pc had veeel meer moeite met metro2033 ,farcry3!! en nog een paar spellen als dat.

Battlefield 3 was juist het enige spel waar ik 120 fps zonder probleem aantikte.

En in die benchmarks word er weer met een enkele kaart getest.
ik kom toch met veel games tegen me max 3gb vram aan toen met me crossfire opstelling,

[Reactie gewijzigd door rayhvh op 13 september 2013 11:43]

Het gaat niet over hoe "zwaar" een game is.

Ik heb het over VRAM verbruik...staat totaal los van het feit hoeveel FPS je hebt of hoeveel GPU gebruik je hebt.
Op 2560x1440 met Far cry 3 op max.
Zat ik al met mijn Vram op 100% van mijn hd7970 3GB. (crossfire)

Dus ik dacht, als je een 760 SLI neemt met 2GB vram.
(Zeker minder als je nodig hebt in Far Cry 3 alles max)

En een SLI 760 met 4GB. wil ik wel zien wat er gebeurt.
Ja ok FC3, dat spel is om te janken hoe dat opgezet is voor Multi GPU's.
SP loopt geweldig, MP is een ramp.. loopt voor geen meter, slechter als een enkele kaart en crashed na elk potje.

Heb daar elle lange discussies gehad met de "support" afdeling. Waaruit komt dat je SLI / crosfire maar moet uitzetten als je MP ingaat ..
En ik ben niet de enige. :)

FC3 (mp) + multiu GPU = vragen om problemen
bij mij ook single player.
http://www.youtube.com/watch?v=inUsXEM2Tms
(zie daar ook het gebruik in VRAM. en dat is op een "rustige" plek)

[Reactie gewijzigd door rayhvh op 13 september 2013 11:36]

Weer even terug komend op BF3 / ultra setting.
Vram gebruik op 1920x1080 +/- 1500MB
Vram gebruik op 2560x1440 +/- 1900MB
En dat is dus precies wat ik had willen zien in deze review: 2560x1440 in SLI met 2 van zulke kaarten op Ultra, bij een Battlefield 4 techdemo of zoiets.

Mijn vermoeden is dat BF4 op die resolutie op Ultra toch zéker boven die 2GB VRAM gaat uitkomen. Er zit in de screenshots alleen al véél meer effecten wat uiteraard ergens vandaan zal moeten komen.

Een ander voorbeeld: toen ik een HD5970 had, was dat eigenlijk een crossfire HD5870 op één kaart. In principe had ik genoeg GPU-kracht in BF3, maar als ik op Ultra wilde spelen ging het VRAM per kaart vér boven de 1GB uitkomen. Het gevolg: ik stond een paar seconden onbestuurbaar op het veld voordat m'n FPS weer door ging lopen, terwijl het echt niet aan GPU-kracht lag.
De overstap op een andere GPU met meer RAM (in mijn geval een HD7970 met 3GB VRAM) gebruikt nu al op 1920x1200 zo'n 1,5-1,7 GB aan VRAM.

Wat mij betreft moet je voor BF4 toch zeker de 4GB VRAM variant halen, mijn voorgevoel zegt dat BF4 op 1080P Ultra toch zéker boven de 2GB VRAM uit gaat komen, zeker ook vanwege de aangekondigde systeemeisen van EA/DICE waarbij 3GB VRAM als aangeraden wordt bestempeld.

Het zou namelijk gewoon zonde zijn als je een kaart van 2GB VRAM koopt, en straks niet alles uit je GPU kunt halen omdat er niet genoeg geheugen op de kaart zit.
EA heeft er met de BF3 "required specs" inderdaad aardig naast gezeten :/
1GB Vram opleggen terwijl dit een dikke bottle is en lekker gaat haperen.

BF4 is nagenoeg even zwaar. Een iets wat getweakte engine, maar geen grote veranderingen. Ik verwacht eigenlijk niet dat het een grote impact heeft op het toenemen van de Vram tov BF3.

Ik denk meer dat EA nu extra "veilig" wilt zitten en de requirements erg ruim heeft genomen om enig gezeik en gezeur te voorkomen. Ach over een paar weekjes weten we het met de beta. ALs je perse een andere graka wilt hebben voor dit spel, dan kan een maandje wachten met de aanschaf er ook wel bij. Dan kun je gelijk reviews / ervaringen lezen op inet.
Gisteren de gtx 760 van MSI in mijn kast gezet :)
En ik kan bevestigen dat de kaart van MSI inderdaad zeer still is (bij normaal gebruik)!

[Reactie gewijzigd door carbonspeed op 13 september 2013 09:05]

Alle kaarten met die Twin Frozer zijn stil, echt een goede koeler!
Alleen zijn de fans zelf niet zomaar uitwisselbaar met iets anders (en totaal niet onderhoudbaar).
was het niet aardig geweest om bijv. de 7950/7870xt mee te nemen in de benches?
Grappig!

Deze week mijn MSI 560 TI vernieuwd met de MSI 760 van deze review.

Al waren de andere kaarten nog beter, MSI vindt ikzelf persoonlijk altijd de beste. En ook nu weer blijkt dat ik de goede keuze had gemaakt.

De MSI heb ik standaard al kunnen overklokken op: http://i.imgur.com/JhpibLl.jpg.

Als je de afbeelding niet kan benaderen dan zal ik je zeggen wat mijn clocks zijn:

GPU Clock = 1120 | Memory = 3229 | Boost = 1184

Standaard is het:

GPU Clock = 1020 | Memory = 3004 | Boost = 1084

Dit zijn mijn veilige waardes. HardOCP wist het nog wat hoger te krijgen. Zie hun overclocking review op www.hardocp.com/article/2...760_overclocking_review/1.

Al met al, een fijne kaart!
Het is natuurlijk leuk dat je deze waardes weet te behalen met deze kaart, maar het zegt eerlijk gezegd vrij weinig over deze review welke draait om de invloed van de hoeveelheid videogeheugen.

Tevens zegt het ook helemaal niks over de kwaliteit en prestaties van andere merk videokaarten van hetzelfde type...

Op deze manier lijkt het bijna alsof je reclame maakt voor MSI. ;)


Overigens gaat het overklokken van de Gigabyte GTX 760 OC 2GB nog beter dan de MSI. :Y)


Tot nu toe komt uit de meeste reviews die ik lees de conclusie dat enkel en alleen bij extreme opstellingen met hele hoge resoluties/verdeeld over meer dan 1 monitor en veelal zelfs alleen bij zware benchmarks er een voordeel is voor 4GB videogeheugen. Tevens zijn dit soort extremen ook alleen maar weggelegd voor high-end kaarten, dus de betere midrange kaarten zijn bij voorbaat al niet geschikt voor dit gebruik en dus is deze hoeveelheid videogeheugen ook vrij zinloos (op dit moment).
Verder is het vrij aannemelijk dat met de komende generatie games er meer behoefte zal gaan komen voor grotere hoeveelheden videogeheugen. Een paar jaar geleden was een videokaart met 1GB ook meer dan voldoende.

Pas als een bepaalde hoeveelheid videogeheugen standaard op een midrange videokaart zit mag je wel aannemen dat dit het minimale benodigde is voor een game van dat moment. Anders is het gewoon een beetje mooie marketingpraat... :*)

[Reactie gewijzigd door R0KH op 13 september 2013 14:12]

Mooie review, alleen waar zijn de overcloking resultaten!?
Goede review, zoals al wordt aangegeven heeft de gebruikte open testbench invloed op de temperatuur. Ik heb zelf de Asus 760, in mijn Antec P180 schommelt de temperatuur na een sessie BF3 zo rond e 74 a 77 graden. Prima kaartje, lekker compact wat in mijn kast goed tot z'n recht komt (zie foto's: http://nl.hardware.info/usersystemen/19781/-d#)

Nog wel een vraag, klopt dat de 760 kaarten bij 81 graden zichzelf terug klokt (schakelt boost uit)?
Bij het overschrijden van de thermal limit (default 80 graden, is instelbaar via Afterburner) gaat de kaart zich inderdaad terugclocken. Dat gebeurt in kleine stapjes (13 MHz als ik me niet vergis) totdat er weer een balans is.

Hier heb ik wat testjes mee gedaan die ik nog in een review moet zetten...ik zal dit weekend eens kijken.

Boost 2.0 is in die zin erg verstorend voor benchmarks en zeker bij vergelijk met AMD kaarten of "oudere" Nvidia kaarten. Bij Boost 2.0 zegt de base clock namelijk niets; de kaart draait daar nooit op. Er wordt altijd gedraaid op de boost clock snelheid, tenzij dat niet vol te houden is (door temperatuur of power limits). Wat je in benchmark resultaten dus eigenlijk altijd moet weten is "Wat is het verloop van de clock speed gedurende de benchmark?".

Dit heeft ook direct zijn weerslag op power consumption. Bij deze kaarten wordt echt heel dynamisch de clock speed geregeld op basis van de behoefte. In Diablo III zie ik bijvoorbeeld dat de kaart op een clock van zo'n 600-700 MHz draait....ver onder de base clock van 1050 MHz. Bij gelijke FPS (constant 60 wegens VSync) verbruikt deze kaart dus minder dan de vorige kaart die ik had, een MSI HD 7850 Power Edition (core clock 950 MHz). Een zwaardere kaart met een hogere TDP verbruikt bij gelijke gevraagde prestaties dus minder.

Geluidproductie is ook zoiets...hier wordt de 100% fans neergezet...waarom? De fans op de MSI kaart gaan echt nooit 100% draaien hoor, tenzij je een isolerend materiaal tussen de koelfinnen stopt ofzo (lees: bewust oververhitten).

Ik heb m'n fan profiel zo ingesteld dat ik altijd op 34% draai (het minimum wat je in kunt stellen). Tijdens het spelen van Tomb Raider (FXAA, double buffer, TessFX uit, rest maximum) is de kaart nog nooit boven de 80 graden gekomen, dus ik heb altijd maximum clock en minimum geluid. Doordat de clock nooit omlaag getrapt wordt, is de performance dus exact gelijk aan wat je in benchmarks ziet, maar dan tegen een geluidsniveau dat lager ligt dan de idle metingen in benchmarks (het default fan profiel start op 40%, dus hoger dan de 34% die ik erop heb gezet).

De standaard benchmarks zijn dus steeds minder een weergave van 'echt gebruik'...

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013