Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 186, views: 214.309 •

Conclusie

Het is stuivertje wisselen. De HD 7990 is sneller in Battlefield 3, maar de GTX 690 maakt dit goed in bijvoorbeeld The Witcher 2. De HD 7990 is ook sneller in AvP, maar de GTX 690 is sneller in Shogun 2. In de overige benchmarks gaan ze nagenoeg gelijk op. Vergeleken met twee GTX 680's of HD 7970 GHz Editions, zijn de GTX 690 en HD 7990 nauwelijks langzamer, en dat is al een prestatie van formaat.

De GTX 690 wint het wel op energieverbruik en geluidsproductie. Vooral de geluidsproductie is een pijnlijke nederlaag voor de HD 7990. We hebben dit namelijk gemeten tijdens het draaien van Furmark en op dat moment ligt het verbruik van de HD 7990 zelfs lager dan dat van de GTX 690. Daar staat tegenover dat de gpu's van de HD 7990 gemiddeld 62°C worden, terwijl de gpu's van de GTX 690 een temperatuur bereiken van 85°C. Wie bereid is de HD 7990 warmer te laten worden, hoeft minder geluid te tolereren.

Het komt dus aan op de prijs, maar ook daarin zijn de videokaarten aardig aan elkaar gewaagd. De Club3D HD 7990 kost rond de 950 euro, net zo veel als de GTX 690 van EVGA. Overigens zijn er wel goedkopere GTX 690's, die verder identiek zijn aan die van EVGA. Alleen de garantie kan verschillen tussen de verschillende fabrikanten. Vergeleken met twee GTX 680's is de GTX 690 ook amper duurder. Hetzelfde geldt niet voor de HD 7990 van Club3D. Twee normale HD 7970 GHz Editions, van Club3D bijvoorbeeld, zijn aanzienlijk goedkoper.

We begonnen de review met de HD 7990 als uitgangspunt. De videokaart is een technisch hoogstandje, met een immense koeler en rekenkracht te over. Club3D liet echter enkele steekjes vallen. Het tweede bios klokt de gpu over van 900MHz naar een magere 925MHz. Dat levert geen meetbaar verschil op. Had Club3D het iets grootser aangepakt en de gpu overgeklokt naar 1000MHz, zoals bij de HD 7990 van PowerColor, dan hadden ze de GTX 690 in meer benchmarks kunnen verslaan. Ook zien wij geen enkele reden om de gpu's onder de 65°C te houden; 80°C is volkomen acceptabel voor Tahiti-gpu's.

De GTX 690 mag er dan minder indrukwekkend uitzien, de koeler presteert ook erg goed, wat mede mogelijk wordt gemaakt door de hogere gpu-temperaturen, maar ook door het feit dat de gpu's zuiniger zijn. De GTX 690 kost daarbovenop iets minder en komt dan ook, zij het met een kleine marge, als winnaar uit deze test. Club3D heeft echter nog een troef achter de hand: een stapel games. Zo worden Far Cry 3, Hitman Absolution, Shogun 2: Total War, DiRT Showdown, Deus Ex, Sleeping Dogs en Nexuiz allemaal meegeleverd. Die games zijn ook een aardige duit waard, en zou ons in ieder geval nog wel eens over kunnen halen om alsnog voor de HD 7990 te kiezen, aangezien de kaart met wat tweakwerk net zo stil kan zijn als de GTX 690.

 Club3D Radeon HD 7990 Dual GPUEVGA GTX 690
  Club3D Radeon HD 7990 Dual GPU EVGA GTX 690
Algemene beoordeling Score: 4Score: 5
Prijs Score: 3Score: 4
Featureset Score: 4Score: 4
Prestaties Score: 5Score: 5
Warmte en geluid Score: 3Score: 4
 Tweakers zegt: goed!Tweakers zegt: uitstekend!

Reacties (186)

Reactiefilter:-11860180+1119+221+32
1 2 3 ... 6
Dit zijn kaarten die gemaakt zijn om zo snel mogelijk te zijn, zonder enig compromis. Een Ferrari rijdt ook niet zuinig ;)
Al met al is het nog steeds een slechte investering om deze kaarten te kopen, je bent namelijk beter en goedkoper af met losse kaarten.
Vooral de 7990 is extreem duur in verhouding met twee losse 7970s.

Er is dus wel degelijk een compromis gemaakt, daar deze kaarten hun koeling moeten delen met twee GPUs ipv een.
Niet echt een compromis want het zou anders niet mogelijk zijn om deze kaarten te laten draaien met normale luchkoeling. Je kunt het niet echt vergelijken met twee losse kaarten want dat zijn nog steeds twee losse kaarten. Dit is een enkele monster kaart met twee chips er op.

En natuurlijk is het een slechte investering. Alle computer shit is een slechte investering en dat telt keer tien als je het allersnelste van het allersnelste wilt. Maar, het is wel heel tof om het allersnelste van het allersnelste te hebben ;) Deze kaarten zijn eigenlijk niets anders dan Nvidia en Ati die een wedstrijd doen om te kijken wie de langste pik heeft. Deze kaarten zijn belachelijk op ieder front; verbruik, afmetingen, de prijs en de prestaties. Je moet een beetje gek zijn om zo iets te kopen en daarom vind ik dit soort kaarten ook wel gaaf.

Uiteindelijk zou ik ze persoonlijk niet snel kopen tenzij ik ineens een miljoen binnenhark of zo. Dan nog zou ik eerst een wereldreis of een cross country road-trip door de USA maken of.

Mensen die dit kopen a) hebben zoveel geld dat ze er mee kunnen smijten of b) zijn hardcore no-life gamers/tweakers.
Deze kaarten zijn eigenlijk niets anders dan Nvidia en Ati die een wedstrijd doen om te kijken wie de langste pik heeft.
Niet echt. AMD heeft nooit een HD7990 gemaakt. Dit is een eigen initiatief van Club3D.
En AMD zou absoluut niks geholpen hebben? Ik denk dat AMD indirect JUIST geholpen heeft, vooral vanwege het feit dat er 2 AMD Gpu's op 1 kaart zitten!! En juist die kaart is in hun opinie het snelst! Dus waarom zou AMD in dit geval niet helpen? ;)
Hoe moeten ze helpen dan? Club 3d pakt gewoon 2 chips van AMD, en maakt hun eigen PCB, koeling, et cetera.

Daar is helemaal geen bemoeienis van AMD bij. Ze mogen zelfs kiezen om het een 7990 te noemen, terwijl het eigenlijk een 7970 x2 is!

Fabrikant HIS noemt zijn dual 7970 dan ook een 7970X2, terwijl Powercolor ook zo brutaal is om het een 7990 te noemen. Zie je dat AMD hier niets mee te maken heeft?

Ze profiteren er wel van, dat is zeker waar.
ik vind het wel een logische naamgeving aangezien de 5990 en 6990 ook dual GPU kaarten zijn die op een PCB gesoldeerd zijn. Een 7970X2 kan je ook opvatten als twee losse PCB's die via CF op één PCIe poort zitten
Tsja en de 4870X2 was wel weer een model met 2 GPU's op 1 PCB.

Het is dus al niet consistent, alleen is het verschil hier dat de 6990 ook als een reference card van AMD is uitgebracht. Dat is hier niet het geval.
Gast jij bent echt zowat de nummer 1 ergernis hier op tweakers.
Elke post van jou in het forum of hier heeft wel een grove ondertoon, fatsoen heb je nog nooit van gehoord en je praat zelf vaak zat totale onzin.
Altijd met groot geweld je eigen mening doordouwen en alles en iedereen zwart maken wat jou mening niet deelt.

Nu zeg je in je eerste zin het volgende:

Bah walgelijk om mensen no life gamer te noemen ''die zo' n kaart aanschaffen'', wat is hier de toegevoegde waarde van?

En je laatste zin:
Get a life kerel, want je hebt er geen.

Hypocriet much?

Het enige wat je met je posts doet is iemand op de man af zo veel mogelijk afbranden en prutser oid. noemen terwijl je zelf een van de grootste beunhazen op heel tweakers bent met je ik weet alles beter mentaliteit.

Even nog een zinnetje uit je post:
mensen zoals jij horen hier helemaal niet thuis op tweakers, imo.

Wat de neuk doe jij hier zelf dan nog.. Ga even lekker op een ander forum zitten met je grote mondje en ALT + F4 je account aub...


/Rant

Ontopic:

Dit soort kaarten blijven showbeestjes. Je koopt ze niet vanwege hun praktisch nut maar omdat het kan en omdat het status heeft. Ze zijn niet voor niets in vrij gelimiteerde oplage beschikbaar. Het energieverbruik verbaasd me dan wel weer positief juist omdat de kaarten toch fiks zuiniger zijn dan hun SLI / CF varianten. Ook logisch met maar 1 PCB maar dan nog. Ook is die load inderdaad volledig systeem dus een kwaliteit 550w voeding welke al z'n vermogen op de 12v kan leveren kan met beide kaarten probleemloos overweg. Inclusief extra's zoals veel fans, waterkoeling of lampjes en overclocken is een 650w met al het vermogen op 12v dus meer dan voldoende.
Ik houd het zelf lekker bij SLI/CF. Lijkt me toch allemaal net even wat beter ontwikkeld en degelijker ook al neemt het meer stroom.
" Dit soort kaarten blijven showbeestjes"

Ben ik dus echt niet met jou eens, Ten eerste was het voor mij goedkoper om 1 gtx 690 te kopen dan 2 keer een gtx 680, ten tweede is hij zuiniger en stiller tijdens gebruik. Ten derde als je zoals mij veel 3d vision gebruikt, dan heb je die extra fps echt wel nodig, ook voor 1 scherm. Games als The Witcher 2, en battlefield 3 hebben echt wel een GTX690 nodig om alles op max en 3d soepel te kunnen spelen.

Dus het zijn echt niet alleen maar showbeestjes, dit zijn wel degelijk werkpaarden.
Dat is uit het stopcontact, dus het complete systeem.
Los van de bijkomende rendementsverlies van de voeding.
alsnog wat verbruikt een CPU met daarbij een ssd en/of een hdd. niet zo heel veel, ze zijn inderdaad niet eco vriendelijk maar hoe vaak per dag gebruik je de gpu's op 100% ,, niet al te vaak lijkt me (zelfs niet in spellen) daarbij als je zo'n kaart koopt (het geld er voor hebt) dan kijk je denk ik niet op van de wat extra kosten per jaar :P
De gemeten waarden waren voor het complete systeem. Gezien voedingen ongeveer 80% efficiëntie hebben kan je zo ook goed inschatten watt voor voeding je nodig hebt.
Zoveel verbruikte mijn dubbele GTX295 setup ook... Dus hiermee krijg je een veelvoud aan snelheid bij hetzelfde verbruik!
In ieder geval "gestoorde shit".

Twee bazen? In wat, micro-stuttering, warmte-productie en geluid?

Micro-stuttering blijf je houden bij dual-gpu kaarten, wat ze ook verzinnen met Vsync en dergelijke.
Volgens mij had hardocp er een mooi artikel over, waarin duidelijk werd dat een goede single-gpu veel prettiger werkt.

En over dat Vsync gebeuren. Ja, dus om de micro-stuttering net zo goed te krijgen als een single-gpu kaart, ga je hem cappen op 40FPS... daar geef je dan 1000 euro aan uit. Om op 40FPS te spelen/
En juist bij Anandtech (dacht ik) laatst een artikel dat Crossfire zelfs soepeler (minder stutters, extra lang wachten op één frame dus) speelt dan een enkele kaart. Het verbaasde mij ook maar ik geloof best dat Crossfire heel wat beter werkt dan sommigen beweren.
Microstuttering is reeds verleden tijd, nvidea heeft hier een hardware oplossing voor, en voor AMD is er RadeonPro, een software oplossing die microstuttering nog minder dan een enkele kaart maakt.

WSFG- Microstuttering gone
Beetje raar, waarom krijgt de Nvidia 1 ster meer voor Prijs terwijl in de review verteld wordt dat de twee kaarten nagenoeg hetzelfde kosten? :?

edit: Volgens de PW is de goedkoopste 7990 zelfs een paar euro goedkoper dan de goedkoopste 690...

[Reactie gewijzigd door Meekoh op 21 november 2012 08:23]

Diezelfde gedachte heb ik ook. Daarbij vind ik de beoordeling "zeer goed" voor de GTX690 onterecht. Puur kijkend naar het aantal sterren wat gegeven is, komt dat neer op een gemiddelde van 4.4 uit 5, wat naar mijn inziens afgerond geen 5 is.

Goede review, 2 beesten van grafische kaarten, alleen de conclusie laat te wensen over.
Mee eens. Nog een paar punten van kritiek

Je reviewed welliswaar de CLUB3D versie, maar zo'n review wordt gebruikt voor alle 7990's. Waarbij de koeler van een ander merk aanzienlijk stiller kan zijn.

Wat ik vreemd vind, is het volgende:

Wie bereid is de HD 7990 warmer te laten worden, hoeft minder geluid te tolereren.

Het zal wel kloppen, maar het leest erg vreemd.

Als ik het zo lees zijn beide kaarten net zo goed en het lijkt er nu in mijn ogen te sterk op of de 690 de absolute winnaar is.
Ik ben ook wel benieuwt hoeveel geluid de HD 7990 produceerd als de fan's zo worden geconfigureerd dat de temperatuur ongeveer hetzelfde is. Het lijkt alsof de NVIDIA o.a. wint omdat deze een hogere temperatuur tolereerd met betrekking tot het management van de fanregeling.
Powercolor en de anderen gebruiken dezelfde koeler als deze voor hun 7990 varianten. AMD heeft geen reference ontwerp gemaakt, maar toch gebruiken ze allemaal dit ontwerp.

[Reactie gewijzigd door Rin op 21 november 2012 15:15]

Ik heb een Arctic aftermarket cooler op mijn 6990 en die is daardoor gewoon helemaal stil! Daarvoor was het een vliegtuig of grasmaaier!

Dus als je een 7990 wilt, gewoon wachten op de Arctic versie voor deze kaart.

Zie ook;
http://www.kitguru.net/co...turbo-6990-cooler-review/
De stock koelers zijn stil zat en tijdens gamen ma het wel wat harder natuurlijk
Je reviewed welliswaar de CLUB3D versie, maar zo'n review wordt gebruikt voor alle 7990's. Waarbij de koeler van een ander merk aanzienlijk stiller kan zijn.
Behalve het feit dat er geen reference bestaat van de hd7990... de productie dus volledig fabrikant afhankelijk is... en er naar mijn weten ook maar 2 verschillende HD7990 bestaan en die tweede van Powercolor is exact dezelfde kaart, alleen wat hoger geclocked en de koeler heeft een ander kleurtje... maar het is dezelfde koeler. Er is dus geen vergelijkingsmateriaal op een kopie na die 100% zeker nog warmer is en dus lawaaiiger zal zijn.

Ik ben het verder wel met je eens, het is moeilijk vergelijken zo en als je de tekst leest dan zou ik het probleem van die warmte ook bij de koeler kunnen liggen. Wat daaraan overigens ook verwarrend is dat er eerst wordt gezegd dat de 690 zuiniger is, maar het verbruik vervolgens tijdens bijvoorbeeld furmark toch in het voordeel van AMD ligt... maar toch de warmere en luidere kaart is... dan kan je bijna niet anders dan de koeler als de schuldige aanwijzen.

Dat zijn misschien toch aspecten waarin men wat meer onderzoek had kunnen doen, beetje meer verdieping om de oorzaak naar boven te krijgen. Was onlangs overigens ook al met 3570k vs FX8350... waarin de laatste door tweakers een belachelijk hoog verbruik liet neerzetten waar verder niet op ingegaan werd behalve dan de stelling dat AMD flink zou achterlopen op Intel op dat gebied. Daar had men ook wel wat dieper op in mogen gaan want andere reviews toonden toch eigenlijk wel aan dat het ook heel veel te maken heeft met het gebruikte moederbord...
ik vond het ook wel raar dat de 7990 maar 3 sterren krijgt terwijl hij een acceptabele geluidsproductie maakt. (iig minder dan een stofzuiger) en de boel ook flink koel kan houden. onthoud wel dat de warme lucht direct in je kast komt en je met een GPU van 85 graden je CPU en HDD's aardig kan pesten.
Omdat 2 losse 7970's goedkoper zijn dan die 7990. Terwijl 2x 680 ongeveer het zelde kost als een 690.
Dus de GTX690 wordt hoger beoordeeld omdat deze duurder is, terwijl beide AMD kaarten beter geprijsd zijn? Je kan het moeilijk de hardware aanrekenen dat door markteffecten een alternatief goedkoper is.
Ze zijn beide ongeveer even snel maar de HD7990 krijgt een lagere score door de prijs. Dit terwijl de pricewatch ze ongeveer gelijk plaatst en je in je eigen tekst al aanhaald dat je bij de HD7990 ook nog eens een heleboel games krijgt.

Dit is de zoveelste tweakers review die interessant leest tot je bij de conclusie komt...

Als je vindt dat de HD7990 het geld niet waard is omdat 2x7970 beter en goedkoper is dat kan je dat ook zeggen van de GTX690. Zowel de GTX680 als GTX690 zijn dan te duur tov 1x of 2x HD7970...

Hoe belangrijk is een prijs verschil van enkele euro's eigenlijk als je over kaarten van bijna 1000¤ spreekt?

Een flauwe reactie trouwens die "En we hebben een winnaar!" ...

Misschien toch de conclusie eens herbekijken en de rest van de text ook, want GTX690 en GTX590 worden wel eens verward en er staat zelfs vermelding in van een GTX460... copy paste van een oude review?
Dat staat toch op alle vlakken los van een review van deze twee kaarten? Wat heeft de prijs van 2x 7970 nou te maken met die van de 7990. Hier wordt toch de 7990 bekeken.

Ik vind dit een behoorlijk rare manier van waarderingen geven.....

edit:

Leg me eens uit waarom dit offtopic is? Als iets je niet aanstaat moet je het niet wegmodden...

[Reactie gewijzigd door Schnoop op 21 november 2012 09:50]

Nee, niet echt. Laat ik het zo stellen: waarom zou iemand een GTX690 of HD7990 aanschaffen? Wellicht voor de epeen, maar waarschijnlijk omdat ie maximale performance wil en dat liefst zo goedkoop mogelijk. Als je dan dezelfde performance als een HD7990 kan krijgen met 2 HD7970 kaarten, maar voor aanzienlijk minder geld, dan lijkt mij de keuze vrij duidelijk.
Het enige voordeel wat een HD7990 zou kunnen hebben is dat ie stiller en/of koeler is dan 2 HD7970's en dan is het een afweging maken van alle bovenstaande punten.
Dan ga je dus een vergelijking maken.

2 kaarten
-meer energie
-meer lawaai
-minder upgrade mogelijkheid in de toekomst

Dat zijn allemaal dingen die gewoon geen bal te maken hebben met de prijs beoordeling van deze review.

En al ZOUW je het meenemen in deze review dan moet je de 690 ook afstraffen omdat die 2x 7970 minimaal net zo goed performen als de 690 EN goedkoper zijn en dus om die reden je ook beter 2x 7990 kun pakken dan de 690.....
Meer energie: ja, 2x HD7970 verbruikt ongeveer 10% meer op load. Meer lawaai: zal niet heel veel schelen. Minder upgrade mogelijkheden: totaal niet waar. Je kunt maximaal 4 chips in Crossfire zetten. Dit kan zijn 4x een HD7970 of 2x een HD7990.

Daarbij vind ik de comment dat deze zaken "er geen bal mee te maken hebben" nergens op slaan. Dat in deze review 2 kaarten worden uitgelicht betekent niet dat een consument niet alle opties wil bekijken. Als een makelaar jouw 2 huizen voorschotelt maar je ze wat prijzig vindt, dan ga je toch ook eens kijken naar wat er verder nog op de markt is?
Er stond ook dat er waarschijnlijk een issue was met de zero core techniek. Het kan dus zijn dat een driver update dit oplost en het verbruik dus uit eindelijk veel lager uitvalt dan nu gemeten.
Die reviews die jij aanhaalt zijn met oude 12.7 beta drivers. De laatste drivers laten aanzienlijk betere prestaties zien.
Plankjes voor vier dual-slot videokaarten zijn echter schaars en vaak ook in de prijzige categorie; daar gaat je prijs voordeel!

Schnoop heeft wel degelijk valide punten. Een single-slot kaart is alitjd nog praktischer dan een CF-setup. Een Dual CF setup is weer veel praktischer dan een quad CF setup.

Iig geeft het oordeel goed vs zeer goed een verkeerd beeld. De strijd ging tussen deze twee kaarten, de beoordeling moet dan ook worden afgezet tussen deze twee kaarten. En dan zijn de verschillen miniem en is het vreemd dat de een zeer goed krijgt en de ander niet.

Zowiezo zou ik in deze categorie niet verder willen gaan dan goed, want de prijs is, onder alle omstandigheden ronduit slecht. Bijna 100o euro voor een videokaart == slechte prijs == 1 ster.

Een Ferrari F40 is bijv ook "de beste auto" , kost echter een vermogen. Dat soort wagens geef je ook geen 34 of 5 sterren voor de prijs. Dat je dan het neusje van de zalm hebt, snapt iedereen wel. dat het peperduur is, ook. Daarom is een label erop van "goede prijs" nogal lachwekkend.

[Reactie gewijzigd door Madrox op 21 november 2012 10:59]

Qua prijs zal je dat netto niets schelen hoor. Iemand die een HD7990 aanschaft zal dit niet doen op een H77 plankje van 70 euro, maar minimaal op een Z77 moederbord van zo'n 120-150 euro (wellicht nog duurdere versies). Moederborden die 4 dualslot kaarten aankunnen zijn schaars maar zijn er wel, zoals de ASRock Extreme 9 of Asus Maximus V Extreme. Het moederbord kost je dan zo'n 100-150 euro meer.
Een degelijk HD7970 (bv. de Gigabyte OC edition) heb je vanaf 375 euro, voor 2 stuks dus 750 euro. Dit is een kleine 200 euro minder dan een HD7990. Oftewel, 2xHD7970 + duur moederbord is nog altijd goedkoper dan een HD7990 + gemiddeld moederbord.

Maar ook hier geldt dat dit afhankelijk is van eigen voorkeur en welke punten voor jou het zwaarst meetellen. Persoonlijk zou ik, mocht ik de keuze hebben uit alle genoemde optie (en middelen hebben), gaan voor een GTX690. Dit omdat ik het ding er geweldig vind uitzien.
De prijs mag dan gelijk zijn, bij een quad opstelling heb je nul komma nul ruimte voor extra kaarten, zoals soundcards of iets anders. Verder stijgt het stroomverbruik navenant mee en het geluidsniveau zal ook flink toenemen. Nu kan je natuurlijk voor waterkoeling kiezen, maar 2x een wc blok lijkt mij altijd voordeliger dan vier wc bloks!
Upgrademogelijkheden betekent niet alleen, zoals jij dat suggereert, een uitbreiding in de vorm van een tweede GPU. Het kan natuurlijk ook een ander PCI-kaartje zijn zoals een soundcard.

Dus het argument om hiermee rekening te houden bij de keuze tussen een CF/SLI configuratie of een dual GPU card vind ik zeker gegrond.

[Reactie gewijzigd door Oemfoefoe op 23 november 2012 01:33]

Of omdat crossfire bij de helft de spellen niet goed werkt (twee HD 6970's hier).

Volgens mij werken de 2 GPU's op de 7990 ook samen door Crossfire.
klopt volledig! De drivers zien ook als 2 kaarten en behandelen ze zo ook.
Ik heb nog de 7950GX2 liggen die nu stof hapt maar dat was ook 1 met 2 gpu's met elk 512MB, de laatste (en snelste) dictated DX9 kaart die nvidia gemaakt heeft.

En de problemen van crossfire/sli blijven behouden. Sommige spelletjes konden overweg met sli maar andere niet met grote performance hits. Voor nog andere spelletjes moest ik zelfs sli volledig uitzetten of het wou niet eens draaien.

Toen was ook de gedachte om naar quad sli te gaan maar de markt was er niet gereed voor. 64bit moest nog doorbreken (is pas echt bij het grote publiek met win7 gekomen) waardoor het geheugen de pan uitliep (4 x 512 = 2024MB juist voor de gpu waar x86 een geheugen limiet heeft van 4048MB in totaal)

Maar veel games konden toen nog niet overweg met dual gpu laat staan met quad.
Vandaag is dat, indien de game dictated pc is, anders, die kunnen wel al goed gebruik maken van sli/crosfire maar ik vermoed dat quad nog een brug te ver zal zijn.
De crappy console ports naar pc geven echter wel volop problemen met crossfire/sli. Maar die draaien doorgaans in het algemeen vrij brak op de pc.
Ruimte in de kast is inderdaad nog een factor die je kunt meenemen in de vergelijking en zo zijn er nog een heel aantal. Zo zou je bijvoorbeeld als consument kunnen overwegen dat een dual HD7970 set "verstandiger" is, omdat een enkele nu voldoende is en je over een jaartje er (tegen een aanzienlijk lagere prijs) een tweede bij kunt nemen. Echter is het niet verstandig om al deze punten mee te nemen in een review, omdat ze steeds meer en meer subjectiever en persoonlijker worden.

Dat Crossfire niet altijd super werkt is waar, maar bij de eerste reviews van de Powercolor HD7990 Devil13 waren er ook flinke issues met drivers. Verder begrijp ik je reactie niet over het verlagen van de score van een HD7990. Ik stel nergens dat ik van mening ben dat de HD7990 een lagere score moet krijgen. Het enige wat ik aangaf is dat de GTX690 op de scorekaart een te hoge score krijgt: de HD7990 en GTX690 zijn even duur, dus dienen ze een gelijke score te krijgen voor de prijs. Daarbij is het gemiddelde van de GTX690 4.4 uit 5, wat afgerond 4 (eindoordeel "Goed") moet zijn en niet 5 ("Zeer goed").
Beetje raar, waarom krijgt de Nvidia 1 ster meer voor Prijs terwijl in de review verteld wordt dat de twee kaarten nagenoeg hetzelfde kosten?
Wellicht omdat een 7990 zowel idle als in game ~60W meer verbruikt dan een GTX690? Indien dat de redenatie is vergeet de reviewer hem alleen wel te vermelden... :)

Die 60W vertaalt zich - bij gemiddeld 5 uur PC gebruik per dag - ieder jaar naar ongeveer: EUR 27,50 aan extra kosten. Uitgaande van 2-3 jaar gebruiksduur zou dat komen op zo'n 50-75 Euro totaal extra.

Overigens niet een verschil waarvoor een gamer die +/- 1000 Euro uitgeeft aan een videokaart een radicaal andere keuze zou maken lijkt me...

PS: Als je je PC vaak 24u per dag aan laat staan (bijv ivm rendering/server etc) kan dit wel behoorlijk snel oplopen overigens. Uitgaande van 24/4 (dus dat de PC 4 dagen in de week aan staat) praten we met die 60W verschil al over ~300.000W (60*24*4*52) per jaar. Dat vertaalt zich al naar zo'n 75 Euro op jaarbasis, en dus zo'n 150-225 Euro over de gebruiksduur van 2-3 jaar. 24/7 scheelt nog meer.
Als dat een normaal gebruikscenario voor je is zeker wel iets om in de afweging mee te nemen.

[Reactie gewijzigd door Cheetah op 21 november 2012 12:41]

prijs prestatie en stroomverbruik zijn beter dus zo heel gek is dat niet.
als ze dat teminste met prijs bedoelen.
al ze puur de prijs bedoelen klopt het niet maar ik neem aan dat er prijs in verhouding tot features en prestatie bedoeld word.
Daarnaast zeggen ze als je de amd laat lopen op de temperatuur van de nvidia je het zelfde resultaat hebt. Dus ook dat sterretje is derppp. Want ik heb liever de optie koud en luid dan warm en normaal zodat ik die optie altijd nog kan kiezen.
Dus conclusie amd +1 ster warmte geluid en nvidia -1 prijs.
Mijn voorkeur gaat uit naar de gtx690 dat is echt een mooie kaart en maar 2 slots dik.
Echter als je nu in de markt bent voor een nwe high-end kaart zou je beter nog even wachten want echt lang zal het niet meer duren voor de next gen zijn intrede doet.
Dat is altijd, zo kun je blijven wachten.

Als de kaarten pas uit zijn => wachten want ze worden goedkoper.
Zijn ze goedkoper => wachten want er komt een nieuwe serie ..

Met een van deze kaarten zit je de komende jaren wel gebakken hoor.
Kwa engine zie ik het in 2013 nog niet veranderen (DX versie ect)
Jawel hoor. Gewoon wanneer de prijs een beetje gedaald is een tweede zelfde kaart erbij in SLI / Crossfire. Gaat je kaart meestal nog een aardig tijdje door voor minder dan een enkele nieuwe kaart die het beter doet. Zo heb ik nu 2 Radeon HD 6850's in mijn systeem. Werkt lekker. :)
2 kaarten lopen op den duur vaak achter met geheugen
Met 2 GB ben je al lang en breed klaar tenzij je meer dan een scherm hebt staan.

Met een dual gpu zit je nooit onder de 4 GB tegenwoordig.

Dus dat is gewoon niet waar.

[Reactie gewijzigd door Vayra op 22 november 2012 14:17]

Een beetje gamer doet tegenwoordig zo 1,5-2 jaar met een videokaart. Zulke enorme stappen worden er niet meer gemaakt qua graphics/physx dat je elk half jaar een nieuwe kaart moet kopen.
Ik speel nu al (bijna) 4 jaar op mijn HD5870, nog steeds alles zonder problemen (med-high, verschilt per game)
:) Met een van deze beesten kan je het met de huidige ontwikkelingen nog wel langer uithouden als dat ik nu doe met mijn toen ¤389 kostende kaartje. +)
veel mensen zeggen dat een quad core cpu meer dan genoeg is voor huidige gpu's maar dat is gewoo niet waar de prestatueboost die je van een snellere cpu krijgt is best wel groot.
Hangt van de game af... 9 van de 10 games presteren bijna identiek op verschillende processors, omdat de Grafische kaart eerder een bottleneck vormt als een processor

zie ook de Game benchmarks die Tweakers tegenwoordig doen
Dat hangt er heel erg vanaf in hoeverre de game CPU bound is tov GPU bound.
Ik dacht altijd dat de Club 3D kaarten de iets goedkopere waren onder de videokaarten en de EVGA de toch wat duurdere. Dus dat verklaard misschien waarom ze niet het onderste uit de kan kunnen krijgen bij de HD7990. Als ze nou van allebei de merken dezelfde types hadden gehad misschien zat het dan nog dichter bij elkaar, maar ik weet niet of ze ze allebei leveren.

Al met al indrukwekkende resultaten ;) Maar te duur voor mij, dat ga ik er nooit uit halen.
Heb zelf al sinds enige tijd een 690 in m'n systeem. Mocht je deze kaart ook willen aanschaffen let er dan op dat je een goede airflow door je kast heb met een grote fan voorin je kast. Door het ontwerp van de kaart wordt de helft van de warme lucht aan achterzijde en de andere helft aan de voorzijde van de kaart er uit geblazen. De helft komt dus regelrecht je kast in ipv aan de achterkant er uit. Iets op rekening mee te houden.

Voor de rest absoluut een top kaart!
huh.. een Fan voorin de kast moet toch juist lucht in de kast blazen, zodat de Fan achter in de kast het er weer uit blaast.. dan krijg je goede airflow... of heb ik dit nu helemaal fout?
"Had Club3D het iets grootser aangepakt en de gpu overgeklokt naar 1000MHz, zoals bij de HD 7990 van PowerColor, dan hadden ze ....."
Ik vond de bovenstaande regel opvallen.

Vraag: Waarom is in de test dan gekozen voor de Club3D versie ipv PowerColor?
Volgens pricewatch zijn beiden verkrijgbaar. >click<

Overigens vind ik het een interessant stuk om te lezen. Mooi om te zien wat ze nu al kunnen.

[Reactie gewijzigd door edterbak op 21 november 2012 08:39]

Misschien omdat de kaartjes gesponsord / aangeleverd worden en dat je dan moet roeien met de riemen die je hebt ?

Je kan moeilijk zeggen: " nee die wil ik niet, doe de Powercolor maar"
Kaartjes kost bijna 1000,- ..
Wat een waanzinnige prestaties. Ik ben zelf erg tevreden met mijn GTX 680 Lightning en zou ook niet hoger hoeven dan dat maar dat doet niks af aan deze modellen.

Maar 1000 euro aan een kaart zou ik echt nooit doen vrees ik. Het werkelijke verschil tussen mijn model en bijv de 690gtx is mij te minimaal om er nog eens 500 euro extra aan uit te geven. Maar goed, zo gaat het altijd als je je in het high end circuit bevindt. Je betaald de hoofdprijs voor soms kleine verschillen.
De verschillen zijn absoluut merkbaar bij surround/eyefinity, bij een gewone 1920x1080 resolutie niet echt nee. De mensen die dachten dat dat verschil merkbaar was, dumpten hun kaarten massaal hier in de Vraag & Aanbod sectie.

Echter is met een gewone 7970 niet helemaal vloeiend in eyefinity te gamen als je battlefield op maximale settings zet. Dan heeft een extra 7970 juist enorm veel toegevoegde waarde.
ik vind de scorekaart maar een rare beoordeling geven...beide kaarten zijn even duur maar de GTX krijgt een hogere score en daardoor het verschil tussen goed en zeer goed? ik zou ze allebei toch ongeveer hetzelfde laten scoren naar aanleiding van deze review. en al helemaal als het verschil (in beoordeling) bij de prijs vandaan komt die dus gewoon hetzelfde is. 8)7

edit: bij het andere verschil (temp en geluid) is de radeon het koelst maar het luidst en de GTX het warmst maar het stilst. ondanks dat je het niet 1 op 1 mag vergelijken zou ik ze zonder verder onderzoek ook gelijk scoren. misschien is het een idee om een vaste temp af te spreken en dan klooien met de snelheden van de fans totdat de kaart die temp heeft waarna je het geluid kan meten?

[Reactie gewijzigd door superwashandje op 21 november 2012 08:52]

Helemaal mee eens op het warmte geluid gebied:

Als er dan een gecombineerde categorie moet zijn van warmte en geluid, kan ik moeilijk accepteren dat laag geluid + bijna hoogste temps beter is dan hoog geluid (weinig hoger dan stock 7970 zelfs) en ruim laagste temps.. en dan in de conclusie ook een opmerking maken dat dit met tweaken wellicht te verhelpen is.. een simpel fan profieltje in afterburner is teveel?

Ik ga niet zeggen dat ik 1 van de 2 beter vind dan de andere: ik heb ze niet en zou er niet voor gaan, maar de warmte-geluid resultaten in de conclusie sluiten wat mij betreft niet aan bij de review die ervoor staat.. wanneer daardoor de resultaten ineens een goed-zeer goed veroorzaken slaat de conclusie van de review de plank redelijk mis lijkt het..
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013