Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 186 reacties, 215.561 views •

Conclusie

Het is stuivertje wisselen. De HD 7990 is sneller in Battlefield 3, maar de GTX 690 maakt dit goed in bijvoorbeeld The Witcher 2. De HD 7990 is ook sneller in AvP, maar de GTX 690 is sneller in Shogun 2. In de overige benchmarks gaan ze nagenoeg gelijk op. Vergeleken met twee GTX 680's of HD 7970 GHz Editions, zijn de GTX 690 en HD 7990 nauwelijks langzamer, en dat is al een prestatie van formaat.

De GTX 690 wint het wel op energieverbruik en geluidsproductie. Vooral de geluidsproductie is een pijnlijke nederlaag voor de HD 7990. We hebben dit namelijk gemeten tijdens het draaien van Furmark en op dat moment ligt het verbruik van de HD 7990 zelfs lager dan dat van de GTX 690. Daar staat tegenover dat de gpu's van de HD 7990 gemiddeld 62°C worden, terwijl de gpu's van de GTX 690 een temperatuur bereiken van 85°C. Wie bereid is de HD 7990 warmer te laten worden, hoeft minder geluid te tolereren.

Het komt dus aan op de prijs, maar ook daarin zijn de videokaarten aardig aan elkaar gewaagd. De Club3D HD 7990 kost rond de 950 euro, net zo veel als de GTX 690 van EVGA. Overigens zijn er wel goedkopere GTX 690's, die verder identiek zijn aan die van EVGA. Alleen de garantie kan verschillen tussen de verschillende fabrikanten. Vergeleken met twee GTX 680's is de GTX 690 ook amper duurder. Hetzelfde geldt niet voor de HD 7990 van Club3D. Twee normale HD 7970 GHz Editions, van Club3D bijvoorbeeld, zijn aanzienlijk goedkoper.

We begonnen de review met de HD 7990 als uitgangspunt. De videokaart is een technisch hoogstandje, met een immense koeler en rekenkracht te over. Club3D liet echter enkele steekjes vallen. Het tweede bios klokt de gpu over van 900MHz naar een magere 925MHz. Dat levert geen meetbaar verschil op. Had Club3D het iets grootser aangepakt en de gpu overgeklokt naar 1000MHz, zoals bij de HD 7990 van PowerColor, dan hadden ze de GTX 690 in meer benchmarks kunnen verslaan. Ook zien wij geen enkele reden om de gpu's onder de 65°C te houden; 80°C is volkomen acceptabel voor Tahiti-gpu's.

De GTX 690 mag er dan minder indrukwekkend uitzien, de koeler presteert ook erg goed, wat mede mogelijk wordt gemaakt door de hogere gpu-temperaturen, maar ook door het feit dat de gpu's zuiniger zijn. De GTX 690 kost daarbovenop iets minder en komt dan ook, zij het met een kleine marge, als winnaar uit deze test. Club3D heeft echter nog een troef achter de hand: een stapel games. Zo worden Far Cry 3, Hitman Absolution, Shogun 2: Total War, DiRT Showdown, Deus Ex, Sleeping Dogs en Nexuiz allemaal meegeleverd. Die games zijn ook een aardige duit waard, en zou ons in ieder geval nog wel eens over kunnen halen om alsnog voor de HD 7990 te kiezen, aangezien de kaart met wat tweakwerk net zo stil kan zijn als de GTX 690.

 Club 3D Radeon HD 7990 Dual GPUEVGA GTX 690
  Club 3D Radeon HD 7990 Dual GPU EVGA GTX 690
Warmte en geluid Score: 3Score: 4
Prestaties Score: 5Score: 5
Featureset Score: 4Score: 4
Prijs Score: 3Score: 4
Algemene beoordeling Score: 4Score: 5
 Tweakers zegt: 8Tweakers zegt: 10

Reacties (186)

Reactiefilter:-11860180+1119+221+32
Moderatie-faq Wijzig weergave
Ik ben tegenwoordig niet meer echt een gamer en niet helemaal meer bij in het hardware wereldje, maar freaking 523 watt?!!!!
Dat ben ik volledig met je eens, absurde hoeveelheden. Mijn 42inch Toshiba, 4 jaar geleden aangeschaft slurpt al 140 watt. Gamers verbruiken tijd als water. De kosten zullen (meestal voor vader) behoorlijk uit de klauw lopen. En pa zich maar afvragen hoe het toch komt dat zijn energierekening toch zo oploopt. 8)7
Toen ik met me pa op het circuit paar rondjes reed was het 50 euro in 1 uur aan benzine, tja 450 pk . Wat een gezeur om een pc die een beetje stroom verbruikt.. poe poe .

Kan er echt niet tegen als mensen weer gaan zeuren over een High-end kaart die dan veel stroom verbuikt. Dat is te verwachten bij de Ultra high end pc onderdelen.

Je kan ook gewoon een onboard chip gebruiken ;) hoef je ook niet te zeuren.

250w per chip is best netjes vind ik zelf. Verder zullen ze ook nooit gaan bij videokaarten. Aangezien ze anders al de 250w gepasseerd waren per single chip

[Reactie gewijzigd door A87 op 21 november 2012 11:15]

Iets signaleren en erover zeuren zijn twee verschillende dingen.

Begrijpend lezen. Niemand die klaagt over die 523 watt. Het wordt gewoon gezien.
#Toen ik met me pa op het circuit paar rondjes reed#

Ja, als pa de energierekening betaal, is zo,n reactie wel te verwachten.
De gemeten waarden waren voor het complete systeem. Gezien voedingen ongeveer 80% efficiëntie hebben kan je zo ook goed inschatten watt voor voeding je nodig hebt.
Zoveel verbruikte mijn dubbele GTX295 setup ook... Dus hiermee krijg je een veelvoud aan snelheid bij hetzelfde verbruik!
Dat is uit het stopcontact, dus het complete systeem.
Los van de bijkomende rendementsverlies van de voeding.
alsnog wat verbruikt een CPU met daarbij een ssd en/of een hdd. niet zo heel veel, ze zijn inderdaad niet eco vriendelijk maar hoe vaak per dag gebruik je de gpu's op 100% ,, niet al te vaak lijkt me (zelfs niet in spellen) daarbij als je zo'n kaart koopt (het geld er voor hebt) dan kijk je denk ik niet op van de wat extra kosten per jaar :P
Dit zijn kaarten die gemaakt zijn om zo snel mogelijk te zijn, zonder enig compromis. Een Ferrari rijdt ook niet zuinig ;)
Al met al is het nog steeds een slechte investering om deze kaarten te kopen, je bent namelijk beter en goedkoper af met losse kaarten.
Vooral de 7990 is extreem duur in verhouding met twee losse 7970s.

Er is dus wel degelijk een compromis gemaakt, daar deze kaarten hun koeling moeten delen met twee GPUs ipv een.
Niet echt een compromis want het zou anders niet mogelijk zijn om deze kaarten te laten draaien met normale luchkoeling. Je kunt het niet echt vergelijken met twee losse kaarten want dat zijn nog steeds twee losse kaarten. Dit is een enkele monster kaart met twee chips er op.

En natuurlijk is het een slechte investering. Alle computer shit is een slechte investering en dat telt keer tien als je het allersnelste van het allersnelste wilt. Maar, het is wel heel tof om het allersnelste van het allersnelste te hebben ;) Deze kaarten zijn eigenlijk niets anders dan Nvidia en Ati die een wedstrijd doen om te kijken wie de langste pik heeft. Deze kaarten zijn belachelijk op ieder front; verbruik, afmetingen, de prijs en de prestaties. Je moet een beetje gek zijn om zo iets te kopen en daarom vind ik dit soort kaarten ook wel gaaf.

Uiteindelijk zou ik ze persoonlijk niet snel kopen tenzij ik ineens een miljoen binnenhark of zo. Dan nog zou ik eerst een wereldreis of een cross country road-trip door de USA maken of.

Mensen die dit kopen a) hebben zoveel geld dat ze er mee kunnen smijten of b) zijn hardcore no-life gamers/tweakers.
Ieder heeft recht op z'n mening, niet? Ik vind het ook belachelijk als je bereid bent dit geld neer te leggen voor een GPU, die ook maar een beperkte levensduur heeft. Als je het hebt over 'waar voor je geld' of andere gevleugelde termen uit de consumentenwereld over slim geld uitgeven, dan staat deze GPU helemaal onderaan de lijst.

De benchmark bewijst het zelfs - een Xfire opstelling biedt je meer rendement. Plus het feit dat twee losse kaarten niet tegelijk naar z'n grootje gaan (minder waarschijnlijk als een enkele GPU) en daarbij ook nog dat de 7990 veel warmer wordt... het zijn allemaal niet bepaald eigenschappen van een goed gebalanceerde, slimme aankoop.

Niet te snel op je tenen getrapt zijn de volgende keer, probeer wat breder te kijken dan alleen je eigen ervaring/kijk op de wereld.

De vergelijking met de Ferrari of Maserati gaat hier ook op; de meeste 'plebs' noemen mensen die zo'n auto rijden ook snobs of kakkers, en eigenlijk weet iedereen ook dat het vooral een status item is. Want echt fijn rijden zonder je blauw te betalen, daar heb je andere auto's voor.

[Reactie gewijzigd door Vayra op 22 november 2012 13:57]

Gast jij bent echt zowat de nummer 1 ergernis hier op tweakers.
Elke post van jou in het forum of hier heeft wel een grove ondertoon, fatsoen heb je nog nooit van gehoord en je praat zelf vaak zat totale onzin.
Altijd met groot geweld je eigen mening doordouwen en alles en iedereen zwart maken wat jou mening niet deelt.

Nu zeg je in je eerste zin het volgende:

Bah walgelijk om mensen no life gamer te noemen ''die zo' n kaart aanschaffen'', wat is hier de toegevoegde waarde van?

En je laatste zin:
Get a life kerel, want je hebt er geen.

Hypocriet much?

Het enige wat je met je posts doet is iemand op de man af zo veel mogelijk afbranden en prutser oid. noemen terwijl je zelf een van de grootste beunhazen op heel tweakers bent met je ik weet alles beter mentaliteit.

Even nog een zinnetje uit je post:
mensen zoals jij horen hier helemaal niet thuis op tweakers, imo.

Wat de neuk doe jij hier zelf dan nog.. Ga even lekker op een ander forum zitten met je grote mondje en ALT + F4 je account aub...


/Rant

Ontopic:

Dit soort kaarten blijven showbeestjes. Je koopt ze niet vanwege hun praktisch nut maar omdat het kan en omdat het status heeft. Ze zijn niet voor niets in vrij gelimiteerde oplage beschikbaar. Het energieverbruik verbaasd me dan wel weer positief juist omdat de kaarten toch fiks zuiniger zijn dan hun SLI / CF varianten. Ook logisch met maar 1 PCB maar dan nog. Ook is die load inderdaad volledig systeem dus een kwaliteit 550w voeding welke al z'n vermogen op de 12v kan leveren kan met beide kaarten probleemloos overweg. Inclusief extra's zoals veel fans, waterkoeling of lampjes en overclocken is een 650w met al het vermogen op 12v dus meer dan voldoende.
Ik houd het zelf lekker bij SLI/CF. Lijkt me toch allemaal net even wat beter ontwikkeld en degelijker ook al neemt het meer stroom.
" Dit soort kaarten blijven showbeestjes"

Ben ik dus echt niet met jou eens, Ten eerste was het voor mij goedkoper om 1 gtx 690 te kopen dan 2 keer een gtx 680, ten tweede is hij zuiniger en stiller tijdens gebruik. Ten derde als je zoals mij veel 3d vision gebruikt, dan heb je die extra fps echt wel nodig, ook voor 1 scherm. Games als The Witcher 2, en battlefield 3 hebben echt wel een GTX690 nodig om alles op max en 3d soepel te kunnen spelen.

Dus het zijn echt niet alleen maar showbeestjes, dit zijn wel degelijk werkpaarden.
Toch had ik persoonlijk in zo'n geval 2x een GTX670 verstandiger gevonden en dan nog, een GTX690 kost op z'n goedkoopst: ¤899 (ASUS).
2x een GTX680 kost op z'n goedkoopst: ¤868. (MSI Reference). 2 enkele 680's zijn dus wel degelijk goedkoper ;)
Deze kaarten zijn eigenlijk niets anders dan Nvidia en Ati die een wedstrijd doen om te kijken wie de langste pik heeft.
Niet echt. AMD heeft nooit een HD7990 gemaakt. Dit is een eigen initiatief van Club3D.
En AMD zou absoluut niks geholpen hebben? Ik denk dat AMD indirect JUIST geholpen heeft, vooral vanwege het feit dat er 2 AMD Gpu's op 1 kaart zitten!! En juist die kaart is in hun opinie het snelst! Dus waarom zou AMD in dit geval niet helpen? ;)
Hoe moeten ze helpen dan? Club 3d pakt gewoon 2 chips van AMD, en maakt hun eigen PCB, koeling, et cetera.

Daar is helemaal geen bemoeienis van AMD bij. Ze mogen zelfs kiezen om het een 7990 te noemen, terwijl het eigenlijk een 7970 x2 is!

Fabrikant HIS noemt zijn dual 7970 dan ook een 7970X2, terwijl Powercolor ook zo brutaal is om het een 7990 te noemen. Zie je dat AMD hier niets mee te maken heeft?

Ze profiteren er wel van, dat is zeker waar.
ik vind het wel een logische naamgeving aangezien de 5990 en 6990 ook dual GPU kaarten zijn die op een PCB gesoldeerd zijn. Een 7970X2 kan je ook opvatten als twee losse PCB's die via CF op één PCIe poort zitten
Tsja en de 4870X2 was wel weer een model met 2 GPU's op 1 PCB.

Het is dus al niet consistent, alleen is het verschil hier dat de 6990 ook als een reference card van AMD is uitgebracht. Dat is hier niet het geval.
De 4870x2 hoort ondertussen thuis in een museum bij wijze van spreken.

Hoe dan ook, als je 1000 euro aan een graka uitgeeft ge ik er toch echt wel van uit dat je weet wat je koopt of dat het je absoluut niets kan schelen. Het duurt misschien een minuut om van scratch op te zoeken wat nu het verschil tussen een 7990 en een 7970X2 moet zijn. In het andere geval dat je zo veel geld over hebt dat je het koopt zonder ook maar iets op te zoeken maakt het ook niet uit, want je krijgt gewoon exact hetzelfde voor dezelfde prijs.
4870x2 is anders een erg bekende gaming videokaart, die overigens nog prima mee kan met de huidige games, en bij de meeste huidige games zelfs op maximale settings en 30+ fps!

Natuurlijk zal iemand die een videokaart van 1000 euro koopt ook goed naar de specs kijken, maar het gaat mij om de misplaatste inconsistentie in naamgeving. En dit is niet alleen de schuld van AMD, maar ook van de andere fabrikanten.
Pardon my ignorance, maar omzijlt zo'n kaart met twee chips op het PCB nu de problemen die je normaal gesproken met een crossfire/sli setup kan hebben, zoals microstutter and compatibility issues?

[Reactie gewijzigd door Forsakeneyes op 21 november 2012 20:51]

Voor zover ik weet maakt het helemaal geen verschil. Het enige is dat je de bandbreedte van de PCI-E slot moet verdelen over 2 kaarten. Maar dit levert geen tot marginale verschillen op in de praktijk bij PCI-E 2.0 16x of sneller
Wat ik vooral jammer vind is dat in behoorlijk wat benchmarks instellingen niet gewoon op max worden gedraaid.
Die instellingen zijn er toch niet voor niets?
Dit zijn de echte top van de grafische kaarten, ik verwacht gewoon games volledig maxed out te draaien.
De verschillende resoluties vind ik wel erg fijn, laat ook zien hoe je performance achteruit gaat als je een groter scherm overweegt.
Alleen als je de gelukkige eigenaar bent van 3 schermen en eyefinity, dan word je als lezer volledig genegeerd. Terwijl in de BBG dit wel wordt geadviseerd!
Beide super kaarten, ik zou niet kunnen kiezen tussen deze twee. En daarom gekozen hebben voor of SLI / XFIRE.

Al heb ik een kleinere voorkeur voor Nvidia omdat ik Physx in Borderlands2 wel vet vind :)

Bedankt voor de review van deze toppers.
Hm, ik heb zelf 2 Radeon HD 6850's (AMD kaarten dus) en met Physx in Borderlands 2 krijg ik exact dezelfde effecten en resultaten als mijn vrienden met Nvidia kaarten. Kan Physx gewoon op high zetten en knallen maar. Bloed, opspattende steentjes door granaten, lappen stof die je kapot kunt shieten, etc. Werkt perfect.

Echter, veel games zullen niet toestaan dat je dit doet met een AMD kaart, aangezien je een vrij dikke CPU moet hebben om dit zonder fps verlies te kunnen doen. Physx draait gewoonweg niet op AMD GPU's onder normale omstandigheden. Daarom wordt er vaak vermeld dat je zonder Nvidia kaart geen Physx kan hebben.

Nvidia doet er zelfs de nodige moeite voor om Physx op AMD kaarten te blokkeren. Kijk maar eens naar dit filmpje waarin je de gevolgen ziet van Nvidia's antwoord op een driver hack die het aanzette. Het stukje waar je op wilt letten gebeurd ongeveer na 20 seconden. http://www.youtube.com/watch?v=2TOXo98l4aU
ik vind de scorekaart maar een rare beoordeling geven...beide kaarten zijn even duur maar de GTX krijgt een hogere score en daardoor het verschil tussen goed en zeer goed? ik zou ze allebei toch ongeveer hetzelfde laten scoren naar aanleiding van deze review. en al helemaal als het verschil (in beoordeling) bij de prijs vandaan komt die dus gewoon hetzelfde is. 8)7

edit: bij het andere verschil (temp en geluid) is de radeon het koelst maar het luidst en de GTX het warmst maar het stilst. ondanks dat je het niet 1 op 1 mag vergelijken zou ik ze zonder verder onderzoek ook gelijk scoren. misschien is het een idee om een vaste temp af te spreken en dan klooien met de snelheden van de fans totdat de kaart die temp heeft waarna je het geluid kan meten?

[Reactie gewijzigd door superwashandje op 21 november 2012 08:52]

Helemaal mee eens op het warmte geluid gebied:

Als er dan een gecombineerde categorie moet zijn van warmte en geluid, kan ik moeilijk accepteren dat laag geluid + bijna hoogste temps beter is dan hoog geluid (weinig hoger dan stock 7970 zelfs) en ruim laagste temps.. en dan in de conclusie ook een opmerking maken dat dit met tweaken wellicht te verhelpen is.. een simpel fan profieltje in afterburner is teveel?

Ik ga niet zeggen dat ik 1 van de 2 beter vind dan de andere: ik heb ze niet en zou er niet voor gaan, maar de warmte-geluid resultaten in de conclusie sluiten wat mij betreft niet aan bij de review die ervoor staat.. wanneer daardoor de resultaten ineens een goed-zeer goed veroorzaken slaat de conclusie van de review de plank redelijk mis lijkt het..
Tuurlijk is laag geluid + hogere temps beter dan hoog geluid + lagere temps.

Dat betekent dat ze bij de GTX690 gewoon beter naar het default fan profiel hebben gekeken.
Die temps kan de kaart echt wel aan, dus als hij daarbij lekker stil is, prima.

Bij de 7990 moet je dan zelf in de weer met een fanprofiel. Dat is misschien niet veel moeite, maar wel iets wat ze hadden kunnen doen, aangezien het bij de GTX690 wel voor mekaar is.
Betekent alleen dat ze ander prioritetien hebben
Bij een kaart van 1000 euro mag je verwachten dat de fabrikant de prioriteit bij het gemak van de consument legt.
Wat een waanzinnige prestaties. Ik ben zelf erg tevreden met mijn GTX 680 Lightning en zou ook niet hoger hoeven dan dat maar dat doet niks af aan deze modellen.

Maar 1000 euro aan een kaart zou ik echt nooit doen vrees ik. Het werkelijke verschil tussen mijn model en bijv de 690gtx is mij te minimaal om er nog eens 500 euro extra aan uit te geven. Maar goed, zo gaat het altijd als je je in het high end circuit bevindt. Je betaald de hoofdprijs voor soms kleine verschillen.
De verschillen zijn absoluut merkbaar bij surround/eyefinity, bij een gewone 1920x1080 resolutie niet echt nee. De mensen die dachten dat dat verschil merkbaar was, dumpten hun kaarten massaal hier in de Vraag & Aanbod sectie.

Echter is met een gewone 7970 niet helemaal vloeiend in eyefinity te gamen als je battlefield op maximale settings zet. Dan heeft een extra 7970 juist enorm veel toegevoegde waarde.
Dit was ik er inderdaad vergeten bij te melden. Ik draai zelf 1920x1080 en dan is hoger dan een GTX 680 niet echt een aanwinst.
"Had Club3D het iets grootser aangepakt en de gpu overgeklokt naar 1000MHz, zoals bij de HD 7990 van PowerColor, dan hadden ze ....."
Ik vond de bovenstaande regel opvallen.

Vraag: Waarom is in de test dan gekozen voor de Club3D versie ipv PowerColor?
Volgens pricewatch zijn beiden verkrijgbaar. >click<

Overigens vind ik het een interessant stuk om te lezen. Mooi om te zien wat ze nu al kunnen.

[Reactie gewijzigd door edterbak op 21 november 2012 08:39]

Misschien omdat de kaartjes gesponsord / aangeleverd worden en dat je dan moet roeien met de riemen die je hebt ?

Je kan moeilijk zeggen: " nee die wil ik niet, doe de Powercolor maar"
Kaartjes kost bijna 1000,- ..
Mijn voorkeur gaat uit naar de gtx690 dat is echt een mooie kaart en maar 2 slots dik.
Echter als je nu in de markt bent voor een nwe high-end kaart zou je beter nog even wachten want echt lang zal het niet meer duren voor de next gen zijn intrede doet.
Dat is altijd, zo kun je blijven wachten.

Als de kaarten pas uit zijn => wachten want ze worden goedkoper.
Zijn ze goedkoper => wachten want er komt een nieuwe serie ..

Met een van deze kaarten zit je de komende jaren wel gebakken hoor.
Kwa engine zie ik het in 2013 nog niet veranderen (DX versie ect)
Een paar maanden wachten loont - een jaar wachten is onzin.
En een beetje gamer gaat geen jaren met zijn kaart doen hoor.
Waarom niet, ik heb al ruim 2 jaar m'n GTX570.

Laatst een 2de er naast geprikt en dat was opzich niet eens nodig.
Enkele op uiltra 50-80 en twee 570's BF3 op ultra met gemak min85- max 125 FPS.

Ik verwacht niet dat er snel iets zwaarders komt (op BF4 volgend jaar na)
Dan heb ik het kaartje dus ruim 3 jaar.

[Reactie gewijzigd door mukkel op 21 november 2012 11:58]

echt wel ik heb nog een 6870 omdat een nieuwe kaart simpelweg onzin is.
er zijn geen games die ik niet op max kan spelen op 1920x1200.
dus waarom zou ik een nieuwe kaart kopen?
in plaats daarvan koop ik een ssd om de games op te instaleren zodat alles nog vloeiender gaat.
De 6870 (met stille koeler) is één van de beste kaarten als je kijkt naar prijs/prestatie verhouding. T/m 1920 x 1080 voor de meeste games snel genoeg, maar de 1GB is nu toch wel een grensgeval, neem bf3 op ultra settings en je merkt het gelijk. Maar mijn 6870's in CF voor EUR 139,- per stuk nieuw was een top deal.
BF3 heb ik anders zonder probleem op max settings gespeeld zonder lage fps dips.
denk dat veel mensen gewoon een gpu niet tot zijn recht laten komen door traag geheugen en een oude cpu.

ik heb mijn amd 955 BE op 3.6 ghz + 2x2gb ddr3 1600 een paar maanden geleden omgeruild voor een 3770k + ddr3 2133 CL9 e heb gewoon met dezelfde kaart 40% meer prestatie uit dezelfde gpu.

veel mensen zeggen dat een quad core cpu meer dan genoeg is voor huidige gpu's maar dat is gewoo niet waar de prestatueboost die je van een snellere cpu krijgt is best wel groot.
Dat hangt er heel erg vanaf in hoeverre de game CPU bound is tov GPU bound.
veel mensen zeggen dat een quad core cpu meer dan genoeg is voor huidige gpu's maar dat is gewoo niet waar de prestatueboost die je van een snellere cpu krijgt is best wel groot.
Hangt van de game af... 9 van de 10 games presteren bijna identiek op verschillende processors, omdat de Grafische kaart eerder een bottleneck vormt als een processor

zie ook de Game benchmarks die Tweakers tegenwoordig doen
Ik speel nu al (bijna) 4 jaar op mijn HD5870, nog steeds alles zonder problemen (med-high, verschilt per game)
:) Met een van deze beesten kan je het met de huidige ontwikkelingen nog wel langer uithouden als dat ik nu doe met mijn toen ¤389 kostende kaartje. +)
Dat 'probleem' heb ik dus ook, nogsteeds vrolijk aan het gamen op mijn 5870, 6800/6900 series was geen vooruitgang, 7850 ook niet echt pas bij de 7870/79xx begint het er op te lijken. Ik wacht lekker op de 8??? serie, of de 79xx moeten wat goedkoper worden.

Ik wacht vrolijk af.
Een beetje gamer doet tegenwoordig zo 1,5-2 jaar met een videokaart. Zulke enorme stappen worden er niet meer gemaakt qua graphics/physx dat je elk half jaar een nieuwe kaart moet kopen.
Tegenwoordig kan je gerust 5 jaar met een kaart doen, als je op dat moment maar 1 van de beste kaarten hebt gekocht

Mijn 4830 in een oude pc doet het nog uitstekend op 1440x900 met zo'n beetje elke nieuwe game, vooral als de game goed geoptimaliseerd is
Jawel hoor. Gewoon wanneer de prijs een beetje gedaald is een tweede zelfde kaart erbij in SLI / Crossfire. Gaat je kaart meestal nog een aardig tijdje door voor minder dan een enkele nieuwe kaart die het beter doet. Zo heb ik nu 2 Radeon HD 6850's in mijn systeem. Werkt lekker. :)
2 kaarten lopen op den duur vaak achter met geheugen
Met 2 GB ben je al lang en breed klaar tenzij je meer dan een scherm hebt staan.

Met een dual gpu zit je nooit onder de 4 GB tegenwoordig.

Dus dat is gewoon niet waar.

[Reactie gewijzigd door Vayra op 22 november 2012 14:17]

Leuk om hier ook eens een review over te lezen! Echter, ben ik de enigste die opvalt dat jullie altijd dezelfde teksten bij de uitleg van de games gebruiken?

Ik vind het verder ook onacceptabel dat als je een 7990 of 690 gaat testen dat je je games NIET met alles op maximum draait. Alien VS Predator had heus wel met 4x AA gekunt. Sleeping Dogs had heus ook wel met EXTREME AA gekunt, ik speel deze spellen met een enkele 7970 op maximum settings dus waarom niet met de sterkere kaarten?

Hetzelfde voor The Witcher 2, ik had wel graag gezien of deze twee beesten van kaarten WEL kunnen omgaan met ubersampling zonder het in hun broek te doen. Beetje jammer dit.

Edit: Oh en overclock potentieel had ik ook wel willen weten :)

[Reactie gewijzigd door CobyBE op 21 november 2012 08:52]

Leuk om hier ook eens een review over te lezen! Echter, ben ik de enigste die opvalt dat jullie altijd dezelfde teksten bij de uitleg van de games gebruiken?

Ik vind het verder ook onacceptabel dat als je een 7990 of 690 gaat testen dat je je games NIET met alles op maximum draait. Alien VS Predator had heus wel met 4x AA gekunt. Sleeping Dogs had heus ook wel met EXTREME AA gekunt, ik speel deze spellen met een enkele 7970 op maximum settings dus waarom niet met de sterkere kaarten?

Hetzelfde voor The Witcher 2, ik had wel graag gezien of deze twee beesten van kaarten WEL kunnen omgaan met ubersampling zonder het in hun broek te doen. Beetje jammer dit.

Edit: Oh en overclock potentieel had ik ook wel willen weten :)
Mee eens, de kaarten moeten wel "Maxxed out" getest worden. en ook overclocking is belangrijk.
De kaart van AMD zou daar namelijk best hoog kunnen scoren mode door zijn goede cooler.

De beoordeling is naar mijn idee dan ook niet in orde!


Wat ik me ook altijd ofvraag of deze setting wel volledig opengredraaid is:

Power Control:
http://content.hwigroup.n...hd7970oc-powercontrol.png

[Reactie gewijzigd door nl-chrs op 21 november 2012 09:06]

De reden voor de settings is dat we op deze manier elke keer kaarten kunnen vergelijken met elkaar. Als we elke keer de settings naar willekeur aanpassen, valt er niet meer te vergelijken (of moeten we alles compleet opnieuw testen, wat veel te veel tijd kost).

En als we de settings omhoog schroeven, dalen de fps, maar dat zal bij elke kaart nagenoeg evenveel gebeuren. De resultaten ten opzichte van elkaar blijven dus hetzelfde!
Bedankt voor je reactie:

Wat kan je hier over zeggen?

Wat ik me ook altijd ofvraag of deze setting wel volledig opengredraaid is:

Power Control:
http://content.hwigroup.n...hd7970oc-powercontrol.png

Laat je dit op 0 staan dan gaat de GPU clocksnelheid(te zien in afterburner) namelijk fluctureren en draaid de kaart dus veeel langzamer!

[Reactie gewijzigd door nl-chrs op 21 november 2012 09:23]

Staat inderdaad op 0, omdat dat standaard is.

Toen deze setting werd geintroduceerd heb ik er meermaals mee gespeeld en destijds leverde het geen extra performance op, behalve in furmark-achtige programma's.
Hoe kan het in-game verbruik van de Club 3D HD 7990 hoger zijn dan onder full load?
Ik vermoed dat de HD7990 een aantal truukjes toepast om de energieconsumptie niet te hoog laat worden in Furmark. Dat zou ook verklaren waarom de temperatuur van de HD7990 zo laag is. Furmark is nu eenmaal een bekende GPU stress test die veel gebruikt wordt met benchmarks. Aangezien je toch niet kijkt wat de FPS is tijdens Furmark, kun je makkelijk de GPU laten draaien op bijv 50% met bijbehorende winst in temperatuur en energieverbruik. In hoeverre Furmark dan nog representatief is voor warmte en energie is dus nog te bezien.
IDD ook dat lijkt me niet realistisch, of het is het totaal gebruik van het systeem inclusief CPU.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True