Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 170, views: 202.148 •

Conclusie: Nvidia's nieuwe topper

Toen Nvidia de GTX Titan in februari introduceerde, leverde dat wat verwarring op. Was dit de topkaart van de nieuwe 700-serie? Of ging het om een eenmalige actie met een beperkt aantal exemplaren? De prijs van de GTX Titan bleek, afhankelijk van de uitvoering, tussen de 900 en 1100 euro uit te komen. Dat was een ongekend hoog bedrag voor een 'standaard'-videokaart van Nvidia, zonder speciale koeling of overklokmogelijkheden.

Nvidia GeForce GTX 780

Met de GTX 780 schept Nvidia enige duidelijkheid in de line-up; de Titan blijkt inderdaad een extravagant model te zijn, terwijl de 700-serie aangevoerd wordt door een afgeslankte variant van de Titan. 'Daar hoort ook een vriendelijkere prijs bij', moet men bij Nvidia gedacht hebben. Dat resulteerde in een adviesprijs van 650 euro, wat nog steeds een hoop geld is; voorganger GTX 680 kostte bij de introductie 150 euro minder. De GTX 780 is echter wel 250 euro goedkoper dan de GTX Titan en daarmee denken wij dat de 780 meteen de grootste concurrent van de Titan zal worden. Ga maar na: de GTX 780 heeft dezelfde gpu  onder de motorkap, minus twee smx-units en drie gigabyte geheugen. Daarnaast heeft de 780 standaard al een iets hogere kloksnelheid en bovendien blijkt uit onze benchmarks dat het verschil tussen de beide videokaarten op een resolutie van 2560x1440 pixels zich nauwelijks laat uitbetalen. Het bijleggen van 250 euro voor een Titan is dan ook alleen zinvol voor gamers die het onderste uit de kan willen, maar geen dual-gpu-videokaart willen aanschaffen. Dat maakt de GTX 780 momenteel een heel interessante videokaart voor gamers met een ruime beurs.

De directe, van AMD afkomstige concurrent van de GTX 780 moet ook nog even genoemd worden in de eeuwige strijd tussen het rode en het groene kamp. De snelste HD 7970, de GHz Edition, staat momenteel al voor 370 euro in de Pricewatch en is daarmee een stuk goedkoper dan de GTX 780. De in januari 2012 geïntroduceerde kaart kan echter niet op tegen het grafische geweld van Nvidia's GTX 780 en blijkt in iedere benchmark het onderspit te delven. Daarmee is de HD 7970 vooral interessant als het budget geen snellere kaart toelaat. We zijn in ieder geval benieuwd naar het eind van 2013, als AMD op Nvidia's nieuwe kaarten moet reageren met de HD 8000-serie. De prestatiekroon onder de single-gpu-videokaarten lag immers met de GTX Titan al bij Nvidia en met de GTX 780 verstevigt de fabrikant zijn grip nog verder.

Pluspunten

  • Op één na snelste single gpu-kaart
  • Prijs ten opzichte van de Titan is gunstig

Minpunten

  • 650 euro blijft veel geld voor een videokaart

Eindoordeel

Tweakers zegt: zeer goed!

Sub-beoordelingen

Prijs Score: 4
Featureset Score: 4
Prestaties Score: 4.5

Lees ook de gebruikersreviews

Populaire gebruikersreviews

Alle gebruikersreviews over:

Asus GeForce GTX 780
EVGA GeForce GTX 780
MSI GeForce GTX 780
Gigabyte GeForce GTX 780
Galaxy GeForce GTX780
Zotac GeForce GTX 780


Reacties (170)

Reactiefilter:-11700162+170+210+31
1 2 3 ... 6
Met deze kaarten zijn cuda benchmarks wel interresant.
Waarom? CUDA is een techniek die alleen door nvidia word gebruikt en niet breed inzetbaar is.
Blijft dat het interessant is. Ik wil graag zien hoe deze CUDA kaarten tenopzichte van elkaar presteren in programma's die zwaar op CUDA leunen.
Ik ook! We gebruiken hier dagelijks Lumion en VRay RT, deze moeten altijd zoveel mogelijk CUDA's hebben.

2304 van deze jongens lijkt me opzich niet slecht voor één kaart. :*)
Wat is en doet CUDA precies?, Pluspunt van Nvidia ? ipv AMD?
http://en.wikipedia.org/wiki/CUDA
Het is een bepaalde techniek die verzonnen is door NVIDIA en dus alleen door hun gebruikt word.
Het is vooral nuttig bij rendering werk en geeft dus geen + voor gamen.
En wanneer al die realtime renderers eindelijk eens uit de BETA-fase komen gaan dit soort kaarten echt een vlucht nemen!
luxmark zou bijv ook een goede benchmark zijn,
dit is een op openCL gebaseerde pathtracer, maar bijv ook octane of arion render zouden interessant kunnen zijn voor de mensen die interese hebben in compute.

want deze kaart is qua performance in compute fantastisch, maar relevant is dat de 6gb van de GTX Titan erg goed kan zijn voor bijv fluidDynamics met erg grote scenes. want laten we eerlijk zij n 3 gb aan extra GDDR5 is niet niets en al heb je er (nog) niets aan met gaming, zijn er andere toepassingen die er zeker baat bij kunnen hebben.

Edit:
Houdini een visual fx package (waarvoor een gratis test versie te gebruiken is) heeft overigends ook fluid/smoke/pyro simulaties die op OpenCL werken, mochten jullie dat willen testen ben ik best bereid mee te helpen in de generel setup van zo'n test.

verder natuurlijk een prachtige kaart dit, ik hoop dat AMD echter snel met iets vergelijkbaars komt anders dan zal de prijs ook erg hoog blijven.

[Reactie gewijzigd door freaq op 23 mei 2013 17:45]

Anand heeft deze wel gebenched

http://www.anandtech.com/...geforce-gtx-780-review/18

Maar voor luxmark en veel compute taken kun je dus beter een AMD gebruiken.
Bijvoorbeeld bitcoin mining. (AMD is daar veel efficienter mee: http://www.extremetech.co...oys-nvidia-bitcoin-mining )
Er zijn ook rekenintensieve programma's (rendering bv.) die cuda only zijn. Ik zou willen dat iedereen alleen open standaarden gebruikten, maar helaas is dat niet zo. Cuda is al wat langer op de markt waardoor het nu ook meer gebruikt is.
Bitcoinmining heeft op het moment niet veel zin meer om met een GPU te doen. De afgelopen maanden zijn ASIC en FPGA enorm in opkomst geraakt waardoor de moeilijkheidsgraad van het minen stijgt en de hoeveelheid coins/dag drastisch doet verlagen. Daarbij is een CPU inefficient, een GPU matig efficient en een speciale chip (ASIC/FPGA) bijzonder efficient op basis van kosten/stroomgebruik/opbrengsten.

Persoonlijk zou ik deze kaart gebruiken om een flinke multi-monitor setup te draaien ;)
De afgelopen maanden zijn ASIC [...]
Heb jij al een geleverde ASIC gezien dan?
BFL zegt al een jaar dat ie er aan komt, maar is er nog steeds niet.
Qua efficientie ben ik het 300% met je eens dat je met een ASIC/FPGA wel vele malen beter zit dan met de GPU.
Eh, het is nog steeds flink winstgevend anders. Je haalt je stroomkosten er 2 tot 3 keer uit momenteel, en je hoeft er niks voor te doen. Weldegelijk dat het interessant is. Het marktaandeel van AMD is dan ook flink gestegen sinds de opkomst van bitcoins - juist omdat die zo efficient zijn met bitcoin/litecoin hashen.
je videokaart gebruiken voor mining is totaal oninterresant geworden met FGPA's. Je gaat 250 watt verstoken terwijl een FGPA van 20 watt 10x zo snel is.
Je kan ook nog altijd lite coins gaan minen, Dit is met scrypt waardoor het niet mogelijk is met FGPA's.
Ik heb net daarvoor mijn GTX680 van Asus verkocht. Prima kaart om mee te gamen , maar Bitcoin hashes berekenen was veel trager dan zelfs mijn oude 5850. Heb nu een 7970Ghz AMD/ATI in de plaats en ik haal 4 keer zo'n hoge scores ( 687MH/s ).
Als je zin hebt in Bitcoin mining , dan is het nog steeds interessant. Kost me nu 5 weken voor een Bitcoin ( die momenteel weer goed aan het opbrengen is : vandaag 1 verkocht voor 102¤ ). Helaas heb ik slechts 1 groen tarief , dus 's nachts goedkoper minen zit er niet in. Maandopbrengst is nu +/-30¤ met een energieprijs van 0.22 ¤ kWh. ALS het zo blijft duren heb je je videokaart gewoon op 1 jaar terug }>

[Reactie gewijzigd door MPAnnihilator op 24 mei 2013 22:45]

Voor mij de hoofdreden om voor een Nvidia kaart te gaan en niet voor een AMD.
Als benchmarks een doel op zichzelf zijn geworden, i.p.v. een meetinstrument voor real-life prestaties... ja dan zijn ze misschien interessant... dan wel...
Uit de reviews blijkt al dat betere koelers echt een behoorlijk effect hebben icm Boost 2.0.

Een Gigabyte Windforce 3 GTX780 gaat bijna in elk spel de Titan voorbij en draait continu op max boost clocks, door de goede koeling!
Waar kan jij een Gigabyte Windforce 3 GTX780 vinden?
Ik heb even geGoogled, maar zie nog niks ...
Ben ik nou gek aan het worden |:(

EDIT: Gevonden !!! http://www.techpowerup.co...abyte/GeForce_GTX_780_OC/ :9~

[Reactie gewijzigd door Dubrillion op 23 mei 2013 15:23]

Meer bang for yah buck, ze kosten evenveel en hij is sneller dan de standaard.
En maakt vaak meer herrie.. Heb ook zo'n Windforce ... een 680 dan. Maar toch.
Ben erg benieuwd hoe de prijzen van de 6xx gaan bewegen, wanneer de 770 en 760(ti) uitkomen.
Denk zelf dat ze niet veel goedkoper zullen worden jammer genoeg.
Wanneer is de release werd me niet hellemaal duidelijk uit de tekst.
Interessant heb zelf 2 Titan's en enige voordeel is de 6 gig die daar op zit voor de rest zou ik zeggen ga voor een 780 meer bang voor de buck.
Een belangrijk verschil tussen de 680 en 780/Titan wordt in mijn ogen onderbelicht: De GK110 heeft veel meer 64-bit floating point cuda cores.

De 64 bit floating point performance van de GTX 680 was een regressie ten opzichte van de GTX 580. De Titan en GK2 presteren op dat gebied weer erg goed, omdat ze veel meer fp64 cores hebben.

edit:
In de GTX 780 zijn deze cores volgens Anandtech weer gecapped.

Ik heb meer CUDA benchmarks nodig voordat ik deze kaart kan plaatsen ten opzichte van de GTX 580 en de Titan.

[Reactie gewijzigd door ANdrode op 23 mei 2013 15:30]

in double precision wel ja:
http://images.anandtech.com/graphs/graph6973/54899.png

voor de rest doet het er weinig toe,
een apar procent minder performance overal, maar de hogere clock vangt veel op.
maargoed als je perse double precision nodig hebt dan is de titan het wel waard.
Ik vind de plus punten wel zwak.. Dat je de prijs tov de titan als pluspunt gaat opgeven vindt ik 3 keer niks.. Je kan beter de pluspunten van de kaart opnoemen..bijv warmte geluid oid.
Ja daar ben ik het wel mee eens, dat lijkt op plus punten zoeken, en als de review mag geloven is dat niet echt nodig
Inderdaad, de Titan was heel ongunstig, maar deze is qua prijs/prestatie nog steeds bagger. Je hebt er al makkelijk twee 7950's voor. Nu kun je aanvoeren dat die slechte Crossfire performance hebben (frametimes :( ) maar zoals het er naar uit ziet heeft AMD dat waarschijnlijk binnen enkele maanden gefixt, bovendien heeft nVidia ook wel wat leukers (denk Tri-SLI GTX 660).
Een klein pluspuntje is de mooie koeler, maar die presteert niet echt geweldig, als ik die TPU review erbijpak.
GTX 660 kan maar 1 SLI brug bevatten, kan je dus geen Tripple setup van maken. Overigens wel leuke performance voor weinig, heb zelf 2x GTX660
frametimes heb je geen last meer van rond 100 fps
Hele mooie videokaart, maar de prijs is wel schrikbarend hoog. De prestaties zijn daarentegen wel weer erg goed te noemen.

Toch zal ook deze GTX 780 weer ontzettend goed verkopen. De GTX Titan is ondanks zijn hoge prijs in 3 maanden tijd toch al meer verkocht dan de één jaar oude GTX 690. De Titan is op dit moment niet aan te slepen en dit zal waarschijnlijk ook straks voor de GTX 780 gelden. Bron

Jullie spreken in de conclusie over de AMD Radeon HD8000 series, maar naar alle waarschijnlijkheid wordt deze naam overgeslagen. AMD komt waarschijnlijk gelijk met de Radeon HD9000 series op de proppen.
De gigabyte editie is nog vol op te koop, bij Alternate hadden ze er nog 17 liggen ongeveer een week geleden!
De prijs is behoorlijk fors inderdaad, zeker gezien het feit dat je nu twee HD7970 (ghz editions) kan kopen voor die prijs (wat ook nog eens sneller is)
Dat is dan ook simpelweg het enige issue met de 780 momenteel:

De competitie is 75-80% wat perforamance betreft, maar wel onder de 50% wat de prijs betreft! En dan heb ik het over een vergelijking met de 780 OC van GB...

Dual card is inderdaad een no-brainer als je de reviews mag geloven, maar de stutters en frametiming (dus resulterende frame-times) gooien behoorlijk roet in het eten.

Gezien de hoge resoluties waarvoor deze kaarten interessant worden (1920x1200 maxed of 2560x1440 super-high no-AA) en het feit dat deze de 3GB niet snel overstijgen op dergelijke instellingen, vraag ik me echt af waarom je nog een Titan zou kopen momenteel.

Ik vermoed daarom ook dat de prijs van de 780 bewust hoog is gehouden om zo de retailer nog de kans te geven de Titans die op voorraad liggen nog weg te krijgen. Als de 780 voor 450 a 500 zou gaan, zou dat toch anders liggen. Ik hoop persoonlijk wel dat deze kaart die kant op gaat met een aantal maanden...
Dual card is inderdaad een no-brainer als je de reviews mag geloven, maar de stutters en frametiming (dus resulterende frame-times) gooien behoorlijk roet in het eten.
Klopt dan moet je al kijken naar de HD7990 want daar heb je weer geen last van de stutters (ga ik vanuit gezien ik met mijn HD6990 ook geen last heb maar met HD6970 in CF wel, wat theoretisch 2x dezelfde opstelling zou moeten zijn), en die is weer in dezelfde prijscategorie of hoger...
Overigens heb ik zeker 2 jaar 6970 CF gehad en die rare stutterzooi alleen maar met FarCry 3 (en blood dragon) gehad. Daarnaast zijn de prestaties bij AMD onder deze games ook beroerd. Mijn huidige 2x660GTX presteert zeker 2x zo goed in FarCry 3 terwijl de gemiddelde snelheid van de nVidia kaarten in veel andere games 10% hoger is dan 2x6970.

Battlefield3 is ook een rare, met de AMD's zat ik altijd rond de 60-70 FPS in 1920x1200, maar met 2x GTX660 heb ik 120-180FPS ineens. Dat is absurd veel beter. Toch zijn er ook games waarbij de AMD's beter presteren, zoals Tombraider en vooral BioShock Infinite, daar is 6970CF echt heer en meester en valt me echt op hoe slecht nVidia daar presteert.
Wat dus erg opvalt is dat je uit benchmarks deze verschillen niet kunt opmaken, maar dat in de praktijk de verschillen soms enorm groot zijn. Zo heeft nVidia ook beduidend minder lag met vSync aan. Wat me echt erg verbaasde is hoe absurd veel beter nVidia omgaat met Farcry3/Crysis etc. Dat draait echt niet lekker op AMD kaarten ookal beweren de benchmarks iets anders.

Dan heb je ook nog de schaling bij meerdere videokaarten, daarbij vind ik AMD een stuk beter, die haalt vaak meer dan 95% winst uit de 2e kaart, dit is bij nVidia een stuk minder. In 3dmark heb ik zelfs een aantal keer gemeten dat een 2e kaart meer dan 100% winst oplevert en dat is toch wel apart te noemen.

Ook dacht ik dat de Physix van nVidia mogelijk nog een leuke bijkomstigheid was, maar dat is nu echt pure onzin gebleken. Bij Games zoals Borderlands2 is het verschil gewoonweg niet te zien tussen CPU of GPU physix, het gaat nogsteeds net zo schokkerig met Physix op high en is eigenlijk niet echt speelbaar, frames zakken soms naar 40FPS en dit is met AMD kaarten precies hetzelfde. Physix zelf zijn hier niet de oorzaak van maar de 10000 extra polygonen die op het scherm verschijnen door een explosie wel. In Hawken en Metro Last Light is Physix netzogoed not-done, het voegt eigenlijk niets noemenswaardigs toe maar de framerate daalt aanzienlijk. Te erg om nog lekker te kunnen gamen. Verschil tussen physix aan/uit met AMD/nVidia is in Metro Last Light wel erg groot, daalt de framerate bij nVidia van zo'n 60FPS naar 50FPS, bij AMD van 60 naar 15FPS, totaal onspeelbaar.

[Reactie gewijzigd door BruT@LysT op 24 mei 2013 16:23]

En toch zijn de high-end kaarten ALTIJD minder qua prijsperformance!

Sommige mensen willen nou eenmaal het beste van het beste, no matter the costs. Dat is zo met auto's, met kleding en dus ook met technologie.

Waarom brengt Intel nog een 3960X uit als de 3930K veel kosteneffectiever is? Omdat er blijkbaar toch mensen zijn die onevenredig veel geld uit willen geven voor dat laatste beetje performance.
Een tripple monitor opstelling wordt steeds meer gebruikt door heel wat gamers en dan wil je juist zoveel mogelijk RAM op je videokaart en is 6 GB heel erg welkom :)

De stutter hype die de laatste tijd actief is op het internet kan je rustig negeren, tenzij je het zelf ook echt daadwerkelijk ziet en de kans daarop is heel erg laag...

Ik heb verschillende dual setups gezien met zowel 2 losse ATI kaarten als de 7990 bijvoorbeeld en geen stotter te zien :)
Als je de kracht nodig hebt van 2 of meer kaarten : Gewoon doen en ATI of nVidia kies je op basis van de games die je speelt. That's it!
Stutter Hype?!
Ik heb meerdere stutter gevoelige systemen onder de vingers gehad, kennelijk ben ik er dan gevoelig voor want ik vind microstutter zeer storend en zie het direct. Voor mij is dat ook DE reden dat ik nooit voor een multi GPU systeem zou gaan, zelfs niet van Nvidia.

En het is ook gemeten. Tests met piloten wezen uit dat als je gefocussed bent, vooral onder stress -wat grappig genoeg biologisch erg vergelijkbaar is met je state of mind tijdens een goede gamesessie- dat ze zelfs frametijd verschillen tussen de 200 en 300 FPS nog konden opmerken.

[Reactie gewijzigd door Kasparov13 op 23 mei 2013 19:50]

Lees gewoon de review van anandtech en dit stukje van SA over de gtx 770/680.

Waar het op neerkomt:
- De 7xx reeks wordt een rebrand of slechts hele kleine update van de 6xx reeks.
- De 770 wordt gewoon compleet identiek aan de 680, waarbij de prijs ongeveer gelijk blijft. Fabrikanten kunnen op die manier gewoon een nieuwe sticker op de 680 plakken om zo van hun stock af te kunnen geraken.
- Nvidia heeft gewoon de x80 versie hoger in de markt geplaatst (¤650 launch prijs ipv ¤ 500 van laatste 5 jaar), dit om het gat dat ontstaan is tussen Titan en 680 te vullen.
- Van de 7xx onder de 770 is nog niks bekend, maar die is of nog ver weg of wordt eveneens gewoon identiek aan de 6xx reeks; net als bij AMD trouwens.

Verder nog dit: de Titan is in de markt geplaatst als een zogenaamde "Prosumer" kaart. Het heeft namelijk heel wat meer computing power vergelijkbaar met de enterprise Nvidia kaarten. Bij de 780 is dit echter uitgeschakeld:
quote: Anandtech
GTX 780 doesn’t necessarily benefit from GK110’s extra compute functionality, but it does see a performance improvement over GTX 680 that’s close to the theoretical difference in shader performance. Meanwhile in double precision mode, the lack of an uncapped double precision mode for GTX 780 means that it brings up the bottom of the charts compared to Titan and its 1/3 FP64 rate. Compute customers looking for a bargain NVIDIA card (relatively speaking) will need to stick with Titan.
Bottom line:
- In het middensegment is de 7950 boost min of meer de kaart met beste prijs/kwaliteit verhouding.
- In het topsegment de 7970/670.
- Mensen die op resoluties vanaf 2560x1440 gamen of mensen die per se het beste willen ongeacht de prijs kunnen met de 780 prima verder, al is die voor zijn extra prestaties onevenredig duurder dan bovenstaande kaarten.
- Dan heb je nog de Titan, die min of meer naar prosumers gericht is. Gamen kan natuurlijk ook maar de 780 biedt 90% van de gaming performance voor 2/3de van de prijs.

Edit: eigenlijk is het nogal grof het zo te stellen; maar als je een review doet, doe het dan goed. Ik mis "basis" zoals 1080p benchmarks, overclocking, temperaturen, geluidsniveaus en verbruik. Ook een fatsoenlijke, kritische reflectie mag. Kijk eens naar de reviews van sites als Hardocp, een niveau dat Tweakers wel mag halen. (En dan zwijg ik nog over Anandtech maarja dat verwacht niemand hier denk ik.)

[Reactie gewijzigd door bertp1 op 23 mei 2013 20:41]

Stutter en frametiming is bij NVIDIA nooit zo'n probleem geweest. Die hebben het redelijk goed onder controle met hun drivers. AMD heeft daar een veel groter probleem mee. Kan de grafiek even niet vinden maar het verschil in stutter tussen de twee is bij NVIDIA bjina 40% minder, al zou de nieuwe driver van AMD veel moeten oplossen (heb geen AMD, dus zou het ook niet weten).

De Titan wordt naar mijn mening ook vrijwel geheel weggecijferd hiermee, en ik denk dat de stockvoorraad sowieso niet opkomt dankzij deze kaart. Ik vraag me ook steeds meer af wat de reden voor die Titan was. Experimentje misschien?
bij dual videokaarten is er altijd stuttering, is weinig aan te doen, het verschilt per game per fabrikant, maar uiteindelijk is het er,

bij de buren hebben ze nu van die mooie frametime tests waar je kan zien hoeveel ms het duurt om een frame te renderen, en zo gouw dat boven de 33ms komt heb je een probleem, in essentie als je echt 60FPS solide wilt dan moeten al je frametimes dus onder de 16ms liggen, (en dan meet je pc al snel 80-90 fps)

dit is dus ook de reden dat sommige games er ok uitzien op 30 fps en andere niet.
het gaat niet om 30-60 fps het gaat om de consistentie van die frames. een film op 24fps hakkelt niet, sure op 60 fps is het nog vloeiender maar het is geen probleem omdat de frametimes consistent zijn. kortom, de 30 fps regel is om het ok te krijgen (en te mikken op de v-sync snelheid van monitoren)

maar wil je echt vloeiend dan moet je over de 90 fps zitten om echt elke 60e seconde een frame af te leveren.
Klopt, klopt en klopt. Maar; Die frames die gerendered worden die eigenlijk niet echt worden weergegeven (of een losse frame die tussen twee frames door voor slechts een breedte van 5 pixels wordt weergegeven) worden volledig gedropt bij Nvidia software. Daardoor is de stutter dusdanig laag bij duel kaarten dat je het niet merkt tijdens een normale gamesessie.

Daarbij is het ook nog een keer zo dat bij 3 GPU's het probleem vrijwel in zijn geheel verdwijnt.

http://www.tomshardware.c...ter-crossfire,2995-5.html

dit artikel vat het goed samen en is ook de grafiek die ik mijn voorgaande post bedoelde.
Ja maar dan moet je wel microstutter en framedrops op de koop toe nemen. Kan me nog een review van de 7990 herinneren, hier of op Anandtech, waar bleek dat een aantal frames volledig gedropt werden en de frametijd variaties de spuigaten uitliepen, wat dus een veel lagere visuele framerate oplevert. Bij Nvidia koop je een topproduct, voor een top prijs dat wel, AMD kan hun "top" model nog niet eens perfect laten werken.

Lijkt me wel duidelijk wie hier de markt naar zich toe trekt. Van de single GPU kaarten zijn de twee snelste op de markt nu allebij van Nvidia en die van AMD komen nog geeneens in de buurt, zelfs de GTX680 streeft de 7970 op sommige punten nog voorbij, de GTX670 doet het in vergelijking zelfs nog redelijk. En ook in het midden/mainstream segment geeft Nvidia goed tegengas, in de GPU comparison op Tom's van een maandje terug is Nvidia in alle prijscategorien minstens zo goed vertegenwoordigd als AMD. Jammer voor AMD maar ik kan er niet rouwig om zijn, heb twee van hun kaarten gehad en heb er alleen maar gedonder mee gehad.

Het enige bestaansrecht dat AMD voor mij nog heeft in de GPU markt is als concurrent en om console chips te bakken, in de PC markt lopen ze steeds verder achter.

[Reactie gewijzigd door Kasparov13 op 24 mei 2013 17:38]

Je vergeet voor het gemak even dat er ook mensen zijn die niet 500 tot 900 aan een videokaart uitgeven. Bij amd koop je foor een nette prijs een 7950 of 7870xt waar je prima op kunt gamen. Niet iedereen gaat voor het duurste!
Ik ook niet.
Nvidia is tegenwoordig in elk prijssegment concurrerend:
http://www.tomshardware.c...ics-card-review,3107.html
Alleen onder de $125,- is AMD nog de onbetwiste leider.

Heb nu een hele bescheiden GTX560 en daarvoor had ik een 7780, los van het grafische krachtsverschil tussen de kaarten heb ik met de AMD alleen maar gedonder gehad. Driver issues, spellen die onverklaarbaar slecht liepen, spellen die wel goed liepen maar dan om de tien minuten ineens gigantisch gingen hakkelen voor een twintigtal seconden. Heb alles gedaan, overnieuw geinstalleerd, bij een computerzaak ermee geweest etc etc, en dit was een kant en klaar systeem van Asus die ik nog express op compatibiliteit heb laten testen voor hij verstuurd werd. Daarna maar een GTX560'je gekocht voor hetzelfde systeem en nooit meer een enkel probleem gehad.

Wat jaren terug terug een HD 4??? gehad, een goeie, en het zelfde verhaal. Zat toen krap bij kas dus ingewisseld voor een GT230 en wederom nooit spijt van gehad, ondanks dat de Nvidia GT's over het algemeen nog geen worst van tafel kunnen trekken.
Is inderdaad een prima kaart voor gaming. Op 1080P misschien overkill, maar dan kun je er nog wel even mee door ;)
Op deze resolutie vind ik het verschil met een 7970GHz edition niet zo super groot, dus ik denk dat AMD zeker eens kans maakt om met hun nieuwe topmodel (9970?) de GTX780 zeker voorbij te kunnen gaan en zeker een lagere prijs ervoor te kunnen vragen, alhoewel NVIDIA de prijs kan laten zakken natuurlijk.
Wat ik fijn vind bij deze kaart, is dat hij 3GB heeft, alleen duur is helaas. NVIDIA komt heel erg op mij over om per generatie te kijken welke games er zijn en daar dan net genoeg VRAM voor op te solderen. AMD heeft in mijn ogen toch wel een voordeel hierin.
Nvidia maakt enkel een referentie model. Fabrikanten zijn vrij om daar van af te wijken en er meer RAM op te plaatsen. Dat doen ze ook vaak genoeg.
Nvidia bouwt gewoon betere chips. De enige manier waarop AMD ze nog een beetje bijhoudt is door te gaan brute-forcen met geheugen en het stapelen van architecturen/cores. Het is ook uit meerdere benchmarks gebeleken dat bij normaal gebruik, en zelfs bij hele hoge resoluties, het extra geheugen een stuk minder verschil maakt dan je zou verwachten, soms zelfs niets. Die GTX670 van Gigabyte (volgens mij) met 3Gb VRAM deed in de tests niets beter dan de standaard GTX670 met 2 Gb. En ook hier maakt de 6Gb van de Titan tov de GTX780 lang niet het verschil dat je zou verwachten, andere verschillen even daargelaten.

En het er net genoeg RAM op solderen doet iedereen, die chips kosten goed geld en als je er teveel op doet en niemand merkt wezenlijk verschil dan klaagt iedereen dat de kaart te duur is. Elke producent zoekt een optiumum, en kennelijk is voor deze kaart, bij deze prijs, 3Gb dat. Het is echt niet zo dat AMD wat royaler is met geheugen omdat ze jou een lol willen doen hoor ;)

[Reactie gewijzigd door Kasparov13 op 23 mei 2013 19:16]

Wauw, zit sinds kort te wachten op een nieuw kaartje voor mijn nieuwe mini-itx game bak. Deze ziet er geweldig uit, het enigste wat ik nog ontbreek is de warmte, verbruik én zeker geluidstesten, waar zijn deze? Want echt benieuwd naar...
ik denk niet dat hij een in een itx kast past :+
Heb een Bitfenix Prodigy black en de 7970 past er wel in dus deze zal ook wel passen. Geen volledige custom waterkoeling inbouwen, hier wacht ik nog mee tot als deze of de 770 uitkomt met een EK block.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013