Door Jelle Stuip

Redacteur

Titaantje: Nvidia's GTX 780

23-05-2013 • 15:00

170

Multipage-opmaak

Inleiding

Inleiding

In februari introduceerde Nvidia een nieuwe monsterkaart: de GTX Titan. De kaart heeft een enorme rekencapaciteit en moest korte metten maken met de concurrentie. Dat bleek hij inderdaad te doen. In onze benchmarks moesten we de resolutie naar 5760x1080 pixels opschroeven om de Titan op zijn knieën te krijgen en een minimale framerate te laten zien die lager is dan 30fps. Mooi werk van de fabrikant, maar met een prijs van minstens 900 euro was de videokaart voorbehouden aan de happy few. Wilde je bij Nvidia voor een iets eenvoudiger model gaan, dan was de GTX 680 de eerstvolgende videokaart, die de helft kost, maar wel al sinds maart 2012 meedraait. Met de GTX 780 heeft Nvidia het gat opgevuld en een opvolger voor de GTX 680 in de schappen gezet.GTX 780 en Titan

Het gpu-ontwerp van de GTX 780 is geleend van de GTX Titan, die weer gebaseerd is op de Tesla K20-videokaarten. Daardoor krijgt de GTX 780 dezelfde monsterlijk grote gpu, met meer dan 7 miljard transistors mee. De Kepler-gpu heeft vijftien smx-units aan boord, waarvan er drie uitgeschakeld zijn. Iedere smx-unit bestaat uit 192 cuda-cores, waardoor het totale aantal cores op 2304 uitkomt.

GTX TitanGTX 780GTX 680
Gpu GK110 GK110 GK104
Productieprocédé 28nm 28nm 28nm
Cuda-cores 2688 2304 1536
Baseclock 837MHz 863MHz 1006MHz
Boost-clock 876MHz 900MHz 1058MHz
Geheugengrootte 6GB gddr5 3GB gddr5 2GB gddr5
Geheugensnelheid 6000MHz 6000MHz 6000MHz
Geheugenbus 384bit 384bit 256bit
Tdp 250W 250W 195W

Zoals vermeld heeft Nvidia de GTX 780 net onder de Titan gepositioneerd en moet de kaart de GTX 680, die al meer dan een jaar meegaat, opvolgen. Op papier is het in ieder geval een waardige opvolger; de GTX 780 heeft anderhalf keer zo veel cuda-cores als zijn voorganger en eveneens anderhalf keer zo veel geheugen. Om dat geheugen nog wat beter toegankelijk te maken heeft Nvidia de geheugenbus verbreed tot 384 bit. Ten opzichte van de GTX Titan heeft Nvidia de cores van de GK110-gpu ietsje hoger geklokt; de base-clock is 863MHz en de boost-clock komt op 900MHz uit.Nvidia GeForce GTX 780

Benchmarks en testsysteem

Het belangrijkste aan de GTX 780 zijn natuurlijk de prestaties die in games worden neergezet. Daartoe hebben we de gebruikelijke benchmarks gedraaid en gekozen voor een resolutie van 2560x1440 pixels. Uiteraard vergelijken we de GTX 780 met de Titan om te zien hoeveel verschil 384 cuda-cores en 3GB geheugen maken. Voorganger GTX 680 wordt ook in de benchmarkresultaten meegenomen, net als AMD's snelste single-gpu-kaart; de HD 7970GHz Edition. Meer ter illustratie zijn de resultaten van de GTX 690 en de HD 7990. Deze kaarten vormen geen echt vergelijkingsmateriaal, omdat ze over twee gpu's beschikken.

GTX 780 en Titan

Testsysteem

Het testsysteem bevat Intels Sandy Bridge E-cpu, gecombineerd met de X79-chipset. Van Intel kregen we een Core i7 3960X-cpu, die in een Asus Rampage IV Extreme-moederbord wordt gestoken. Deze cpu wordt naar 4,3GHz overgeklokt en met de standaardwaterkoeler van Intel op temperatuur gehouden. Verder gebruiken we 8GB op 1600MHz geklokt ddr3-geheugen, een Kingston Sandforce 2281-ssd van 240GB en een Corsair AX750W Gold-voeding. Alle hardware wordt op een benchtable van CoolerMaster gemonteerd.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 3960X
Geheugen Kingston KHX1600C9D3K4/8GX
Ssd Kingston HyperX 240GB
Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750

Als benchmarks kiezen we de games Battlefield 3, Alien vs. Predator, DiRT: Showdown, Sleeping Dogs, The Witcher 2, Shogun 2: Total War, Crysis 3 en Far Cry 3. Van deze games worden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk worden de interne benchmarks van de games gebruikt. Voor alle benchmarks gebruiken we Nvidia's 320.18.

Dell U3011Elke game wordt getest met een Dell U2711-beeldscherm op de resolutie 2560x1440 pixels. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-instellingen, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook passen we altijd 16x af toe. Bij games die dat niet ondersteunen wordt deze instelling afgedwongen met behulp van Nvidia's Control Panel. In Nvidia's Control Panel staat de anti-aliasing-transparancy-modus op multisampling en is de texture quality op 'quality' ingesteld.

3Dmark en Unigine

We trappen af met 3DMark en Unigine Heaven uit het rijtje benchmarks. Uit de meeste benchmarks blijkt dat de GTX 780 de GTX Titan op de voet volgt. Dat is niet verwonderlijk, omdat het om dezelfde gpu gaat, maar dan met wat minder cores.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
HD 7990
*******
13993
EVGA GTX 690
******
11808
GTX Titan
*****
9771
Nvidia GTX 780
*****
9435
HD 7970 GHz
****
7800
Nvidia GTX 680
***
6783

In 3DMark verslaat de GTX 780 de snelste single gpu-kaart van AMD met gemak; hij zet een ruim twintig procent hogere score neer dan de HD 7970 GHz. Ten opzichte van voorganger GTX 680 ligt de score zelfs bijna 40 procent hoger. De Titan wordt in deze benchmark goed bijgehouden; de score van de GTX 780 ligt slechts 3,5 procent lager dan die van de GTX Titan. De dual-gpu-kaarten gaan in deze benchmark uiteraard met de prestatiekroon aan de haal.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
HD 7990
*******
3072,00
EVGA GTX 690
*******
2910,00
GTX Titan
******
2528,00
Nvidia GTX 780
*****
2279,00
HD 7970 GHz
*****
2229,00
Nvidia GTX 680
****
1550,00

In Heaven 4.0 blijft de slagorde gehandhaafd, maar is het gat tussen de GTX 780 en de Titan relatief groot, terwijl de HD 7970 GHz dicht in de buurt komt van Nvidia's nieuwste.

Battlefield 3, Crysis 3 en Far Cry 3

Battlefield 3, Crysis 3 en Far Cry 3 hebben we op de hoogste instellingen, met 4x aa en 16x af gedraaid op een resolutie van 2560x1440 pixels. Battlefield 3 is met die instellingen prima speelbaar, maar Crysis 3 en Far Cry 3 zitten hiermee op het randje.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*****
+
**
60,0 / 80,1
EVGA GTX 690
*****
+
**
55,0 / 73,5
GTX Titan
****
+
**
42,6 / 59,9
Nvidia GTX 780
****
+
*
44,0 / 57,0
HD 7970 GHz
***
+
*
32,0 / 43,1
Nvidia GTX 680
***
+
*
29,8 / 41,5

De minimale framerate van de GTX 780 blijkt met 44fps nog wat hoger te liggen dan die van de GTX Titan. Gemiddeld ligt de framerate, zoals verwacht, weer wat lager.

Crysis 3 - 2560x1440 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
*
45,3 / 55,0
HD 7990
*****
+
*
41,5 / 51,1
GTX Titan
****
+
*
33,0 / 42,3
Nvidia GTX 780
****
+
*
30,0 / 38,0
HD 7970 GHz
***
+
*
24,5 / 30,9
Nvidia GTX 680
***
+
*
24,0 / 28,9

In Crysis 3 zit de GTX 780 met een minimale framerate van 30fps op de grens van wat bij de meeste mensen voor speelbaar doorgaat. Zeker tijdens multiplayer-games is het aan te bevelen om de instellingen van Crysis wat omlaag te schroeven.

Far Cry 3 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
*
48,5 / 56,2
HD 7990
*****
+
**
39,0 / 51,9
GTX Titan
*****
+
*
39,7 / 45,4
Nvidia GTX 780
****
+
*
35,0 / 41,0
HD 7970 GHz
***
+
*
28,0 / 32,6
Nvidia GTX 680
***
+
*
27,0 / 30,7

Ook in Far Cry 3 heeft de GTX 780 geen verrassingen in petto; de kaart zet opnieuw een score neer die ruim boven die van de HD 7970 GHz en net onder die van de GTX Titan ligt.

DiRT, Shogun en Sleeping Dogs

DiRT Showdown, Shogun 2 en Sleeping Dogs zijn alle drie op ultra-instellingen getest en uit de resultaten blijkt dat de GTX 780 weer geen moeite heeft om speelbare framerates neer te zetten.

DiRT: Showdown - 2560x1440 - Ultra - 4x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
*****
+
**
109,6 / 145,7
EVGA GTX 690
****
+
**
92,5 / 121,8
GTX Titan
****
+
*
90,9 / 110,8
Nvidia GTX 780
****
+
*
84,0 / 105,0
HD 7970 GHz
****
+
*
82,5 / 102,4
Nvidia GTX 680
***
+
*
66,6 / 80,8

DiRT: Showdown is voor de meeste recente videokaarten een peulenschil. AMD-kaarten presteren over het algemeen wat beter dan Nvidia-kaarten in deze game en dat is te zien aan de HD 7970 GHz, die dicht in de buurt van de GTX 780 komt. Ten opzichte van de GTX 680 presteert de GTX 780 ruim 25 procent beter.

Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
******
+
**
57,0 / 70,5
HD 7990
*****
+
**
47,5 / 63,1
GTX Titan
****
+
*
45,0 / 55,8
Nvidia GTX 780
****
+
*
42,0 / 51,0
Nvidia GTX 680
***
+
*
30,0 / 38,1
HD 7970 GHz
**
+
*
20,5 / 30,9

In Shogun 2 zijn de Nvidia-kaarten weer in het voordeel. Oudgediende GTX 680 zet hogere scores neer dan de HD 7970 GHz en de GTX 780 gaat daar nog eens overheen. Het verschil met de GTX Titan blijft klein.

Sleeping Dogs - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
****
+
***
57,4 / 98,4
EVGA GTX 690
****
+
**
52,7 / 85,5
GTX Titan
***
+
**
41,6 / 67,0
Nvidia GTX 780
***
+
**
38,0 / 66,0
HD 7970 GHz
***
+
*
38,2 / 56,0
Nvidia GTX 680
**
+
*
31,6 / 48,1

Sleeping Dogs is de enige game waarin AMD's HD 7970 een, verwaarloosbaar, hogere minimale framerate kan laten zien dan de GTX 780. De gemiddelde framerate van de 780 ligt 10fps hoger dan die van de concurrent van AMD en is vergelijkbaar met de framerate van de Titan.

AvP en The Witcher

De laatste twee benchmarks zijn Alien vs Predator en The Witcher. Hoewel Alien vs Predator al een tijdje meedraait, blijken recente videokaarten, getuige de minimumframerates, nog een flinke kluif aan de game te hebben.

Alien vs Predator - 2560x1440 - High - 2x aa
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
HD 7990
****
+
***
48,0 / 85,9
EVGA GTX 690
****
+
***
48,7 / 82,3
GTX Titan
***
+
**
40,7 / 64,5
Nvidia GTX 780
***
+
**
35,0 / 60,0
HD 7970 GHz
***
+
**
32,0 / 53,3
Nvidia GTX 680
**
+
**
25,5 / 43,6

In Alien vs Predator blijft de minimale framerate voor de GTX 780 op 35fps steken, terwijl de kaart er gemiddeld 60fps weet uit te persen.

The Witcher 2 - 2560x1440 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
EVGA GTX 690
*****
+
**
60,5 / 79,0
HD 7990
***
+
****
36,0 / 74,8
GTX Titan
***
+
**
30,0 / 54,4
Nvidia GTX 780
***
+
*
40,0 / 53,0
HD 7970 GHz
**
+
**
26,5 / 42,4
Nvidia GTX 680
***
+
*
30,0 / 41,5

In The Witcher 2 laat de GTX 780 een uitschieter in de minimale framerate zien, terwijl de gemiddelde framerate wel netjes tussen die van de GTX Titan en de HD 7970 GHz inzit. Waarschijnlijk is hier iets misgegaan, want een 25 procent hogere minimale score dan de GTX Titan is niet aannemelijk.

Conclusie: Nvidia's nieuwe topper

Toen Nvidia de GTX Titan in februari introduceerde, leverde dat wat verwarring op. Was dit de topkaart van de nieuwe 700-serie? Of ging het om een eenmalige actie met een beperkt aantal exemplaren? De prijs van de GTX Titan bleek, afhankelijk van de uitvoering, tussen de 900 en 1100 euro uit te komen. Dat was een ongekend hoog bedrag voor een 'standaard'-videokaart van Nvidia, zonder speciale koeling of overklokmogelijkheden.

Nvidia GeForce GTX 780

Met de GTX 780 schept Nvidia enige duidelijkheid in de line-up; de Titan blijkt inderdaad een extravagant model te zijn, terwijl de 700-serie aangevoerd wordt door een afgeslankte variant van de Titan. 'Daar hoort ook een vriendelijkere prijs bij', moet men bij Nvidia gedacht hebben. Dat resulteerde in een adviesprijs van 650 euro, wat nog steeds een hoop geld is; voorganger GTX 680 kostte bij de introductie 150 euro minder. De GTX 780 is echter wel 250 euro goedkoper dan de GTX Titan en daarmee denken wij dat de 780 meteen de grootste concurrent van de Titan zal worden. Ga maar na: de GTX 780 heeft dezelfde gpu onder de motorkap, minus twee smx-units en drie gigabyte geheugen. Daarnaast heeft de 780 standaard al een iets hogere kloksnelheid en bovendien blijkt uit onze benchmarks dat het verschil tussen de beide videokaarten op een resolutie van 2560x1440 pixels zich nauwelijks laat uitbetalen. Het bijleggen van 250 euro voor een Titan is dan ook alleen zinvol voor gamers die het onderste uit de kan willen, maar geen dual-gpu-videokaart willen aanschaffen. Dat maakt de GTX 780 momenteel een heel interessante videokaart voor gamers met een ruime beurs.

De directe, van AMD afkomstige concurrent van de GTX 780 moet ook nog even genoemd worden in de eeuwige strijd tussen het rode en het groene kamp. De snelste HD 7970, de GHz Edition, staat momenteel al voor 370 euro in de Pricewatch en is daarmee een stuk goedkoper dan de GTX 780. De in januari 2012 geïntroduceerde kaart kan echter niet op tegen het grafische geweld van Nvidia's GTX 780 en blijkt in iedere benchmark het onderspit te delven. Daarmee is de HD 7970 vooral interessant als het budget geen snellere kaart toelaat. We zijn in ieder geval benieuwd naar het eind van 2013, als AMD op Nvidia's nieuwe kaarten moet reageren met de HD 8000-serie. De prestatiekroon onder de single-gpu-videokaarten lag immers met de GTX Titan al bij Nvidia en met de GTX 780 verstevigt de fabrikant zijn grip nog verder.

Pluspunten

  • Op één na snelste single gpu-kaart
  • Prijs ten opzichte van de Titan is gunstig

Minpunten

  • 650 euro blijft veel geld voor een videokaart

Eindoordeel

Tweakers zegt: 9

Reacties (170)

170
162
70
10
1
46

Sorteer op:

Weergave:

Een belangrijk verschil tussen de 680 en 780/Titan wordt in mijn ogen onderbelicht: De GK110 heeft veel meer 64-bit floating point cuda cores.

De 64 bit floating point performance van de GTX 680 was een regressie ten opzichte van de GTX 580. De Titan en GK2 presteren op dat gebied weer erg goed, omdat ze veel meer fp64 cores hebben.

edit:
In de GTX 780 zijn deze cores volgens Anandtech weer gecapped.

Ik heb meer CUDA benchmarks nodig voordat ik deze kaart kan plaatsen ten opzichte van de GTX 580 en de Titan.

[Reactie gewijzigd door ANdrode op 22 juli 2024 13:26]

in double precision wel ja:
http://images.anandtech.com/graphs/graph6973/54899.png

voor de rest doet het er weinig toe,
een apar procent minder performance overal, maar de hogere clock vangt veel op.
maargoed als je perse double precision nodig hebt dan is de titan het wel waard.
Ik lees in de introductie dat de Titan pas lage framerates van onder de 30 vertoonde bij enorm hoge resoluties. In de benchmark tabellen zie ik de resolutie 2560x1440 met hoogste grafische settings. Persoonlijk vind ik het veel interssanter om te weten of een grafische kaart stabiel op de hoogste grafische settings in 1920x1080 mij 60fps kan leveren. Loop ik inmiddels erg achter met mijn resolutie of hebben moderne high end kaarten gewoon totaal geen moeite om dat voor elkaar te krijgen?
Inderdaad, ik zie liever ook wat meer 1920x1080 benchmarks aangezien dat nog steeds de meest gangbare resolutie is voor menig gamer.
Ik ben vooral benieuwd naar welke kaart minimaal 120fps kan leveren op 1920x1080 om mijn 6970 te vervangen en game op een 120hz scherm. Ik zet nog liever de grafische settings omlaag om die 120fps te halen dan dat ik meer detail wil, zij het door de resolutie.

Veel games hebben het moeilijk om 120fps constant te leveren en daarom zie ik graag welke videokaart daar het beste mee om gaat. Met deze hoge settings en daardoor lage framerates zijn dit voor mij dan ook geen intressante benchmarks en alleen een leuke vergelijking op 'langzame' hoge resolutieschermen.
Veel meer eens kan ik het met de reactie niet worden.
In onze benchmarks moesten we de resolutie naar 5760x1080 pixels opschroeven om de Titan op zijn knieën te krijgen en een minimale framerate te laten zien die lager is dan 30fps.
Ikzelf heb er een hekel aan als mijn games onder de 60 FPS komen. Het liefst gewoon 100+. Vaak vind ik deze reviews dan ook zo weinig zeggen.

1920x1080 mag van mij echt wel even weer terug komen in alle benchmarks... Beetje raar dat er ook niet voor gekozen wordt. Lagere resolutions heb ik ook absoluut geen moeite mee. Er zijn spellen die ik nog op 1200x800 speel omdat ik dan gewoon smoother game...
Ik ben vooral benieuwd naar welke kaart minimaal 120fps kan leveren op 1920x1080 om mijn 6970 te vervangen en game op een 120hz scherm. Ik zet nog liever de grafische settings omlaag om die 120fps te halen dan dat ik meer detail wil, zij het door de resolutie.
120Hz bij LCD monitors is niet gelijk aan de 120 refreshes per seconde die we kenden van bij de CRT monitors. Bijgevolg is eisen dat een game op 120fps loopt niet echt zinvol als je een LCD hebt.
Ik heb daar al over "geklaagd" op het forum, het antwoord was dat ze dit nutteloos vonden.
AMD vs NVIDIA reviews

De reactie die daar in staat:
1920x1080 wordt weggelaten omdat videokaarten zoals de HD 7990 en GTX 690 dan veelal tegen een bottleneck aanlopen. De prestaties kun je beter meten met een hogere resolutie, waar dat niet gebeurt. Sowieso hebben we het over kaarten van 900+ euro, dan is 2560x1440 of 5760x1080 helemaal niet zo vreemd.
Dat is toch zo? Alle kaarten zouden dan de maximum fps aangeven en volledig cpu bound zijn. Daar heb je helemaal niets aan in een review over grafische kaarten.
Je loopt niet achter, Tweakers loopt voor.
Uit de reviews blijkt al dat betere koelers echt een behoorlijk effect hebben icm Boost 2.0.

Een Gigabyte Windforce 3 GTX780 gaat bijna in elk spel de Titan voorbij en draait continu op max boost clocks, door de goede koeling!
Waar kan jij een Gigabyte Windforce 3 GTX780 vinden?
Ik heb even geGoogled, maar zie nog niks ...
Ben ik nou gek aan het worden |:(

EDIT: Gevonden !!! http://www.techpowerup.co...abyte/GeForce_GTX_780_OC/ :9~

[Reactie gewijzigd door Dubrillion op 22 juli 2024 13:26]

Meer bang for yah buck, ze kosten evenveel en hij is sneller dan de standaard.
Verwijderd @Damic26 mei 2013 20:47
En maakt vaak meer herrie.. Heb ook zo'n Windforce ... een 680 dan. Maar toch.
Had toch nog graag het energieverbruik, temperaturen en geluidsproductie gezien voor alle kaarten... sommigen hechten daar ook waarde aan...
Kan je hier zien:

Power consumption:
http://www.techpowerup.co...eForce_GTX_780_OC/24.html

Noise:
http://www.techpowerup.co...eForce_GTX_780_OC/25.html

Kaart ziet er aardig uit zit nog even te twijfelen om me gtx580 hiervoor te vervangen :) speel op 2560x1440 en daarop ziet deze er wel aardig beter uit.

[Reactie gewijzigd door William/Ax3 op 22 juli 2024 13:26]

Hele mooie videokaart, maar de prijs is wel schrikbarend hoog. De prestaties zijn daarentegen wel weer erg goed te noemen.

Toch zal ook deze GTX 780 weer ontzettend goed verkopen. De GTX Titan is ondanks zijn hoge prijs in 3 maanden tijd toch al meer verkocht dan de één jaar oude GTX 690. De Titan is op dit moment niet aan te slepen en dit zal waarschijnlijk ook straks voor de GTX 780 gelden. Bron

Jullie spreken in de conclusie over de AMD Radeon HD8000 series, maar naar alle waarschijnlijkheid wordt deze naam overgeslagen. AMD komt waarschijnlijk gelijk met de Radeon HD9000 series op de proppen.
De prijs is behoorlijk fors inderdaad, zeker gezien het feit dat je nu twee HD7970 (ghz editions) kan kopen voor die prijs (wat ook nog eens sneller is)
Dat is dan ook simpelweg het enige issue met de 780 momenteel:

De competitie is 75-80% wat perforamance betreft, maar wel onder de 50% wat de prijs betreft! En dan heb ik het over een vergelijking met de 780 OC van GB...

Dual card is inderdaad een no-brainer als je de reviews mag geloven, maar de stutters en frametiming (dus resulterende frame-times) gooien behoorlijk roet in het eten.

Gezien de hoge resoluties waarvoor deze kaarten interessant worden (1920x1200 maxed of 2560x1440 super-high no-AA) en het feit dat deze de 3GB niet snel overstijgen op dergelijke instellingen, vraag ik me echt af waarom je nog een Titan zou kopen momenteel.

Ik vermoed daarom ook dat de prijs van de 780 bewust hoog is gehouden om zo de retailer nog de kans te geven de Titans die op voorraad liggen nog weg te krijgen. Als de 780 voor 450 a 500 zou gaan, zou dat toch anders liggen. Ik hoop persoonlijk wel dat deze kaart die kant op gaat met een aantal maanden...
Lees gewoon de review van anandtech en dit stukje van SA over de gtx 770/680.

Waar het op neerkomt:
- De 7xx reeks wordt een rebrand of slechts hele kleine update van de 6xx reeks.
- De 770 wordt gewoon compleet identiek aan de 680, waarbij de prijs ongeveer gelijk blijft. Fabrikanten kunnen op die manier gewoon een nieuwe sticker op de 680 plakken om zo van hun stock af te kunnen geraken.
- Nvidia heeft gewoon de x80 versie hoger in de markt geplaatst (€650 launch prijs ipv € 500 van laatste 5 jaar), dit om het gat dat ontstaan is tussen Titan en 680 te vullen.
- Van de 7xx onder de 770 is nog niks bekend, maar die is of nog ver weg of wordt eveneens gewoon identiek aan de 6xx reeks; net als bij AMD trouwens.

Verder nog dit: de Titan is in de markt geplaatst als een zogenaamde "Prosumer" kaart. Het heeft namelijk heel wat meer computing power vergelijkbaar met de enterprise Nvidia kaarten. Bij de 780 is dit echter uitgeschakeld:
quote: Anandtech
GTX 780 doesn’t necessarily benefit from GK110’s extra compute functionality, but it does see a performance improvement over GTX 680 that’s close to the theoretical difference in shader performance. Meanwhile in double precision mode, the lack of an uncapped double precision mode for GTX 780 means that it brings up the bottom of the charts compared to Titan and its 1/3 FP64 rate. Compute customers looking for a bargain NVIDIA card (relatively speaking) will need to stick with Titan.
Bottom line:
- In het middensegment is de 7950 boost min of meer de kaart met beste prijs/kwaliteit verhouding.
- In het topsegment de 7970/670.
- Mensen die op resoluties vanaf 2560x1440 gamen of mensen die per se het beste willen ongeacht de prijs kunnen met de 780 prima verder, al is die voor zijn extra prestaties onevenredig duurder dan bovenstaande kaarten.
- Dan heb je nog de Titan, die min of meer naar prosumers gericht is. Gamen kan natuurlijk ook maar de 780 biedt 90% van de gaming performance voor 2/3de van de prijs.

Edit: eigenlijk is het nogal grof het zo te stellen; maar als je een review doet, doe het dan goed. Ik mis "basis" zoals 1080p benchmarks, overclocking, temperaturen, geluidsniveaus en verbruik. Ook een fatsoenlijke, kritische reflectie mag. Kijk eens naar de reviews van sites als Hardocp, een niveau dat Tweakers wel mag halen. (En dan zwijg ik nog over Anandtech maarja dat verwacht niemand hier denk ik.)

[Reactie gewijzigd door bertp1 op 22 juli 2024 13:26]

Stutter en frametiming is bij NVIDIA nooit zo'n probleem geweest. Die hebben het redelijk goed onder controle met hun drivers. AMD heeft daar een veel groter probleem mee. Kan de grafiek even niet vinden maar het verschil in stutter tussen de twee is bij NVIDIA bjina 40% minder, al zou de nieuwe driver van AMD veel moeten oplossen (heb geen AMD, dus zou het ook niet weten).

De Titan wordt naar mijn mening ook vrijwel geheel weggecijferd hiermee, en ik denk dat de stockvoorraad sowieso niet opkomt dankzij deze kaart. Ik vraag me ook steeds meer af wat de reden voor die Titan was. Experimentje misschien?
bij dual videokaarten is er altijd stuttering, is weinig aan te doen, het verschilt per game per fabrikant, maar uiteindelijk is het er,

bij de buren hebben ze nu van die mooie frametime tests waar je kan zien hoeveel ms het duurt om een frame te renderen, en zo gouw dat boven de 33ms komt heb je een probleem, in essentie als je echt 60FPS solide wilt dan moeten al je frametimes dus onder de 16ms liggen, (en dan meet je pc al snel 80-90 fps)

dit is dus ook de reden dat sommige games er ok uitzien op 30 fps en andere niet.
het gaat niet om 30-60 fps het gaat om de consistentie van die frames. een film op 24fps hakkelt niet, sure op 60 fps is het nog vloeiender maar het is geen probleem omdat de frametimes consistent zijn. kortom, de 30 fps regel is om het ok te krijgen (en te mikken op de v-sync snelheid van monitoren)

maar wil je echt vloeiend dan moet je over de 90 fps zitten om echt elke 60e seconde een frame af te leveren.
Klopt, klopt en klopt. Maar; Die frames die gerendered worden die eigenlijk niet echt worden weergegeven (of een losse frame die tussen twee frames door voor slechts een breedte van 5 pixels wordt weergegeven) worden volledig gedropt bij Nvidia software. Daardoor is de stutter dusdanig laag bij duel kaarten dat je het niet merkt tijdens een normale gamesessie.

Daarbij is het ook nog een keer zo dat bij 3 GPU's het probleem vrijwel in zijn geheel verdwijnt.

http://www.tomshardware.c...ter-crossfire,2995-5.html

dit artikel vat het goed samen en is ook de grafiek die ik mijn voorgaande post bedoelde.
Een tripple monitor opstelling wordt steeds meer gebruikt door heel wat gamers en dan wil je juist zoveel mogelijk RAM op je videokaart en is 6 GB heel erg welkom :)

De stutter hype die de laatste tijd actief is op het internet kan je rustig negeren, tenzij je het zelf ook echt daadwerkelijk ziet en de kans daarop is heel erg laag...

Ik heb verschillende dual setups gezien met zowel 2 losse ATI kaarten als de 7990 bijvoorbeeld en geen stotter te zien :)
Als je de kracht nodig hebt van 2 of meer kaarten : Gewoon doen en ATI of nVidia kies je op basis van de games die je speelt. That's it!
Stutter Hype?!
Ik heb meerdere stutter gevoelige systemen onder de vingers gehad, kennelijk ben ik er dan gevoelig voor want ik vind microstutter zeer storend en zie het direct. Voor mij is dat ook DE reden dat ik nooit voor een multi GPU systeem zou gaan, zelfs niet van Nvidia.

En het is ook gemeten. Tests met piloten wezen uit dat als je gefocussed bent, vooral onder stress -wat grappig genoeg biologisch erg vergelijkbaar is met je state of mind tijdens een goede gamesessie- dat ze zelfs frametijd verschillen tussen de 200 en 300 FPS nog konden opmerken.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:26]

Dual card is inderdaad een no-brainer als je de reviews mag geloven, maar de stutters en frametiming (dus resulterende frame-times) gooien behoorlijk roet in het eten.
Klopt dan moet je al kijken naar de HD7990 want daar heb je weer geen last van de stutters (ga ik vanuit gezien ik met mijn HD6990 ook geen last heb maar met HD6970 in CF wel, wat theoretisch 2x dezelfde opstelling zou moeten zijn), en die is weer in dezelfde prijscategorie of hoger...
Overigens heb ik zeker 2 jaar 6970 CF gehad en die rare stutterzooi alleen maar met FarCry 3 (en blood dragon) gehad. Daarnaast zijn de prestaties bij AMD onder deze games ook beroerd. Mijn huidige 2x660GTX presteert zeker 2x zo goed in FarCry 3 terwijl de gemiddelde snelheid van de nVidia kaarten in veel andere games 10% hoger is dan 2x6970.

Battlefield3 is ook een rare, met de AMD's zat ik altijd rond de 60-70 FPS in 1920x1200, maar met 2x GTX660 heb ik 120-180FPS ineens. Dat is absurd veel beter. Toch zijn er ook games waarbij de AMD's beter presteren, zoals Tombraider en vooral BioShock Infinite, daar is 6970CF echt heer en meester en valt me echt op hoe slecht nVidia daar presteert.
Wat dus erg opvalt is dat je uit benchmarks deze verschillen niet kunt opmaken, maar dat in de praktijk de verschillen soms enorm groot zijn. Zo heeft nVidia ook beduidend minder lag met vSync aan. Wat me echt erg verbaasde is hoe absurd veel beter nVidia omgaat met Farcry3/Crysis etc. Dat draait echt niet lekker op AMD kaarten ookal beweren de benchmarks iets anders.

Dan heb je ook nog de schaling bij meerdere videokaarten, daarbij vind ik AMD een stuk beter, die haalt vaak meer dan 95% winst uit de 2e kaart, dit is bij nVidia een stuk minder. In 3dmark heb ik zelfs een aantal keer gemeten dat een 2e kaart meer dan 100% winst oplevert en dat is toch wel apart te noemen.

Ook dacht ik dat de Physix van nVidia mogelijk nog een leuke bijkomstigheid was, maar dat is nu echt pure onzin gebleken. Bij Games zoals Borderlands2 is het verschil gewoonweg niet te zien tussen CPU of GPU physix, het gaat nogsteeds net zo schokkerig met Physix op high en is eigenlijk niet echt speelbaar, frames zakken soms naar 40FPS en dit is met AMD kaarten precies hetzelfde. Physix zelf zijn hier niet de oorzaak van maar de 10000 extra polygonen die op het scherm verschijnen door een explosie wel. In Hawken en Metro Last Light is Physix netzogoed not-done, het voegt eigenlijk niets noemenswaardigs toe maar de framerate daalt aanzienlijk. Te erg om nog lekker te kunnen gamen. Verschil tussen physix aan/uit met AMD/nVidia is in Metro Last Light wel erg groot, daalt de framerate bij nVidia van zo'n 60FPS naar 50FPS, bij AMD van 60 naar 15FPS, totaal onspeelbaar.

[Reactie gewijzigd door BruT@LysT op 22 juli 2024 13:26]

En toch zijn de high-end kaarten ALTIJD minder qua prijsperformance!

Sommige mensen willen nou eenmaal het beste van het beste, no matter the costs. Dat is zo met auto's, met kleding en dus ook met technologie.

Waarom brengt Intel nog een 3960X uit als de 3930K veel kosteneffectiever is? Omdat er blijkbaar toch mensen zijn die onevenredig veel geld uit willen geven voor dat laatste beetje performance.
Ja maar dan moet je wel microstutter en framedrops op de koop toe nemen. Kan me nog een review van de 7990 herinneren, hier of op Anandtech, waar bleek dat een aantal frames volledig gedropt werden en de frametijd variaties de spuigaten uitliepen, wat dus een veel lagere visuele framerate oplevert. Bij Nvidia koop je een topproduct, voor een top prijs dat wel, AMD kan hun "top" model nog niet eens perfect laten werken.

Lijkt me wel duidelijk wie hier de markt naar zich toe trekt. Van de single GPU kaarten zijn de twee snelste op de markt nu allebij van Nvidia en die van AMD komen nog geeneens in de buurt, zelfs de GTX680 streeft de 7970 op sommige punten nog voorbij, de GTX670 doet het in vergelijking zelfs nog redelijk. En ook in het midden/mainstream segment geeft Nvidia goed tegengas, in de GPU comparison op Tom's van een maandje terug is Nvidia in alle prijscategorien minstens zo goed vertegenwoordigd als AMD. Jammer voor AMD maar ik kan er niet rouwig om zijn, heb twee van hun kaarten gehad en heb er alleen maar gedonder mee gehad.

Het enige bestaansrecht dat AMD voor mij nog heeft in de GPU markt is als concurrent en om console chips te bakken, in de PC markt lopen ze steeds verder achter.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:26]

Je vergeet voor het gemak even dat er ook mensen zijn die niet 500 tot 900 aan een videokaart uitgeven. Bij amd koop je foor een nette prijs een 7950 of 7870xt waar je prima op kunt gamen. Niet iedereen gaat voor het duurste!
Ik ook niet.
Nvidia is tegenwoordig in elk prijssegment concurrerend:
http://www.tomshardware.c...ics-card-review,3107.html
Alleen onder de $125,- is AMD nog de onbetwiste leider.

Heb nu een hele bescheiden GTX560 en daarvoor had ik een 7780, los van het grafische krachtsverschil tussen de kaarten heb ik met de AMD alleen maar gedonder gehad. Driver issues, spellen die onverklaarbaar slecht liepen, spellen die wel goed liepen maar dan om de tien minuten ineens gigantisch gingen hakkelen voor een twintigtal seconden. Heb alles gedaan, overnieuw geinstalleerd, bij een computerzaak ermee geweest etc etc, en dit was een kant en klaar systeem van Asus die ik nog express op compatibiliteit heb laten testen voor hij verstuurd werd. Daarna maar een GTX560'je gekocht voor hetzelfde systeem en nooit meer een enkel probleem gehad.

Wat jaren terug terug een HD 4??? gehad, een goeie, en het zelfde verhaal. Zat toen krap bij kas dus ingewisseld voor een GT230 en wederom nooit spijt van gehad, ondanks dat de Nvidia GT's over het algemeen nog geen worst van tafel kunnen trekken.
De gigabyte editie is nog vol op te koop, bij Alternate hadden ze er nog 17 liggen ongeveer een week geleden!
Met deze kaarten zijn cuda benchmarks wel interresant.
Waarom? CUDA is een techniek die alleen door nvidia word gebruikt en niet breed inzetbaar is.
Blijft dat het interessant is. Ik wil graag zien hoe deze CUDA kaarten tenopzichte van elkaar presteren in programma's die zwaar op CUDA leunen.
luxmark zou bijv ook een goede benchmark zijn,
dit is een op openCL gebaseerde pathtracer, maar bijv ook octane of arion render zouden interessant kunnen zijn voor de mensen die interese hebben in compute.

want deze kaart is qua performance in compute fantastisch, maar relevant is dat de 6gb van de GTX Titan erg goed kan zijn voor bijv fluidDynamics met erg grote scenes. want laten we eerlijk zij n 3 gb aan extra GDDR5 is niet niets en al heb je er (nog) niets aan met gaming, zijn er andere toepassingen die er zeker baat bij kunnen hebben.

Edit:
Houdini een visual fx package (waarvoor een gratis test versie te gebruiken is) heeft overigends ook fluid/smoke/pyro simulaties die op OpenCL werken, mochten jullie dat willen testen ben ik best bereid mee te helpen in de generel setup van zo'n test.

verder natuurlijk een prachtige kaart dit, ik hoop dat AMD echter snel met iets vergelijkbaars komt anders dan zal de prijs ook erg hoog blijven.

[Reactie gewijzigd door freaq op 22 juli 2024 13:26]

Anand heeft deze wel gebenched

http://www.anandtech.com/...geforce-gtx-780-review/18

Maar voor luxmark en veel compute taken kun je dus beter een AMD gebruiken.
Ik ook! We gebruiken hier dagelijks Lumion en VRay RT, deze moeten altijd zoveel mogelijk CUDA's hebben.

2304 van deze jongens lijkt me opzich niet slecht voor één kaart. :*)
Wat is en doet CUDA precies?, Pluspunt van Nvidia ? ipv AMD?
http://en.wikipedia.org/wiki/CUDA
Het is een bepaalde techniek die verzonnen is door NVIDIA en dus alleen door hun gebruikt word.
Het is vooral nuttig bij rendering werk en geeft dus geen + voor gamen.
En wanneer al die realtime renderers eindelijk eens uit de BETA-fase komen gaan dit soort kaarten echt een vlucht nemen!
Bijvoorbeeld bitcoin mining. (AMD is daar veel efficienter mee: http://www.extremetech.co...oys-nvidia-bitcoin-mining )
Er zijn ook rekenintensieve programma's (rendering bv.) die cuda only zijn. Ik zou willen dat iedereen alleen open standaarden gebruikten, maar helaas is dat niet zo. Cuda is al wat langer op de markt waardoor het nu ook meer gebruikt is.
Bitcoinmining heeft op het moment niet veel zin meer om met een GPU te doen. De afgelopen maanden zijn ASIC en FPGA enorm in opkomst geraakt waardoor de moeilijkheidsgraad van het minen stijgt en de hoeveelheid coins/dag drastisch doet verlagen. Daarbij is een CPU inefficient, een GPU matig efficient en een speciale chip (ASIC/FPGA) bijzonder efficient op basis van kosten/stroomgebruik/opbrengsten.

Persoonlijk zou ik deze kaart gebruiken om een flinke multi-monitor setup te draaien ;)
De afgelopen maanden zijn ASIC [...]
Heb jij al een geleverde ASIC gezien dan?
BFL zegt al een jaar dat ie er aan komt, maar is er nog steeds niet.
Qua efficientie ben ik het 300% met je eens dat je met een ASIC/FPGA wel vele malen beter zit dan met de GPU.
Eh, het is nog steeds flink winstgevend anders. Je haalt je stroomkosten er 2 tot 3 keer uit momenteel, en je hoeft er niks voor te doen. Weldegelijk dat het interessant is. Het marktaandeel van AMD is dan ook flink gestegen sinds de opkomst van bitcoins - juist omdat die zo efficient zijn met bitcoin/litecoin hashen.
je videokaart gebruiken voor mining is totaal oninterresant geworden met FGPA's. Je gaat 250 watt verstoken terwijl een FGPA van 20 watt 10x zo snel is.
Je kan ook nog altijd lite coins gaan minen, Dit is met scrypt waardoor het niet mogelijk is met FGPA's.
Ik heb net daarvoor mijn GTX680 van Asus verkocht. Prima kaart om mee te gamen , maar Bitcoin hashes berekenen was veel trager dan zelfs mijn oude 5850. Heb nu een 7970Ghz AMD/ATI in de plaats en ik haal 4 keer zo'n hoge scores ( 687MH/s ).
Als je zin hebt in Bitcoin mining , dan is het nog steeds interessant. Kost me nu 5 weken voor een Bitcoin ( die momenteel weer goed aan het opbrengen is : vandaag 1 verkocht voor 102€ ). Helaas heb ik slechts 1 groen tarief , dus 's nachts goedkoper minen zit er niet in. Maandopbrengst is nu +/-30€ met een energieprijs van 0.22 € kWh. ALS het zo blijft duren heb je je videokaart gewoon op 1 jaar terug }>

[Reactie gewijzigd door MPAnnihilator op 22 juli 2024 13:26]

Voor mij de hoofdreden om voor een Nvidia kaart te gaan en niet voor een AMD.
Als benchmarks een doel op zichzelf zijn geworden, i.p.v. een meetinstrument voor real-life prestaties... ja dan zijn ze misschien interessant... dan wel...
Waarom is AMD aan het falen qua GPU's? Tot aan de 7970 heeft nvidia eigenlijk geen antwoord. Alle kaarten van nvidia zijn veel hoger geprijsd voor de zelfde prestaties en minder geheugen. Helemaal met de 7870XT niet. Alleen het segment boven de 7970 heeft AMD geen single kaart, maar daar hebben we crossfire voor :)
en als je naar de geruchten van AMD's Volcanic Islands kijkt, vraag ik mij af wat Nvidia daar nog tegen kan doen.
dat is altijd een varierende markt geweest, eerst natuurlijk met ATI en later dus als AMD. Nu heeft Nvidia weer de prestatiekroon, dan weer AMD.

Was dat met de CPU's nou ook nog maar zo, dan betaalden we ook flink wat minder voor die hi end Intels.
Geen één partij faalt op dit moment in GPU land en hopelijk blijven ze beide mooie GPU's ontwikkelen en produceren. Typische fanboy reacties voor AMD of nVidia vertroebelen het GPU beeld. Voor elke fanboy is er toch heel wat moois te koop en voor elk budget is er wel wat te vinden van AMD of nVidia. Maar nVidia heeft toch een prima antwoord in het hele AMD bereik? Afhankelijk van je voorkeur voor merk en game zijn er genoeg feiten te vinden die in je voordeel spreken maar voor het gemak laten de mensen de feiten die tegen hun spreken weer weg.

Conclusie, welke voorkeur voor merk heb je, welk budget heb je en welke games speel je, kies dan je kaart.
@RHF nvidia slaat gewoon langs de plank met over-priced kaarten, dat is geen persoonlijke voorkeur (dat is een feit)
Ik vind de plus punten wel zwak.. Dat je de prijs tov de titan als pluspunt gaat opgeven vindt ik 3 keer niks.. Je kan beter de pluspunten van de kaart opnoemen..bijv warmte geluid oid.
Inderdaad, de Titan was heel ongunstig, maar deze is qua prijs/prestatie nog steeds bagger. Je hebt er al makkelijk twee 7950's voor. Nu kun je aanvoeren dat die slechte Crossfire performance hebben (frametimes :( ) maar zoals het er naar uit ziet heeft AMD dat waarschijnlijk binnen enkele maanden gefixt, bovendien heeft nVidia ook wel wat leukers (denk Tri-SLI GTX 660).
Een klein pluspuntje is de mooie koeler, maar die presteert niet echt geweldig, als ik die TPU review erbijpak.
GTX 660 kan maar 1 SLI brug bevatten, kan je dus geen Tripple setup van maken. Overigens wel leuke performance voor weinig, heb zelf 2x GTX660
frametimes heb je geen last meer van rond 100 fps
Ja daar ben ik het wel mee eens, dat lijkt op plus punten zoeken, en als de review mag geloven is dat niet echt nodig
Is inderdaad een prima kaart voor gaming. Op 1080P misschien overkill, maar dan kun je er nog wel even mee door ;)
Op deze resolutie vind ik het verschil met een 7970GHz edition niet zo super groot, dus ik denk dat AMD zeker eens kans maakt om met hun nieuwe topmodel (9970?) de GTX780 zeker voorbij te kunnen gaan en zeker een lagere prijs ervoor te kunnen vragen, alhoewel NVIDIA de prijs kan laten zakken natuurlijk.
Wat ik fijn vind bij deze kaart, is dat hij 3GB heeft, alleen duur is helaas. NVIDIA komt heel erg op mij over om per generatie te kijken welke games er zijn en daar dan net genoeg VRAM voor op te solderen. AMD heeft in mijn ogen toch wel een voordeel hierin.
Nvidia maakt enkel een referentie model. Fabrikanten zijn vrij om daar van af te wijken en er meer RAM op te plaatsen. Dat doen ze ook vaak genoeg.
Verwijderd @Mosin23 mei 2013 19:08
Nvidia bouwt gewoon betere chips. De enige manier waarop AMD ze nog een beetje bijhoudt is door te gaan brute-forcen met geheugen en het stapelen van architecturen/cores. Het is ook uit meerdere benchmarks gebeleken dat bij normaal gebruik, en zelfs bij hele hoge resoluties, het extra geheugen een stuk minder verschil maakt dan je zou verwachten, soms zelfs niets. Die GTX670 van Gigabyte (volgens mij) met 3Gb VRAM deed in de tests niets beter dan de standaard GTX670 met 2 Gb. En ook hier maakt de 6Gb van de Titan tov de GTX780 lang niet het verschil dat je zou verwachten, andere verschillen even daargelaten.

En het er net genoeg RAM op solderen doet iedereen, die chips kosten goed geld en als je er teveel op doet en niemand merkt wezenlijk verschil dan klaagt iedereen dat de kaart te duur is. Elke producent zoekt een optiumum, en kennelijk is voor deze kaart, bij deze prijs, 3Gb dat. Het is echt niet zo dat AMD wat royaler is met geheugen omdat ze jou een lol willen doen hoor ;)

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:26]

Wauw, zit sinds kort te wachten op een nieuw kaartje voor mijn nieuwe mini-itx game bak. Deze ziet er geweldig uit, het enigste wat ik nog ontbreek is de warmte, verbruik én zeker geluidstesten, waar zijn deze? Want echt benieuwd naar...
ik denk niet dat hij een in een itx kast past :+
Heb een Bitfenix Prodigy black en de 7970 past er wel in dus deze zal ook wel passen. Geen volledige custom waterkoeling inbouwen, hier wacht ik nog mee tot als deze of de 770 uitkomt met een EK block.

Op dit item kan niet meer gereageerd worden.