Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 186 reacties, 215.244 views •

Conclusie

Het is stuivertje wisselen. De HD 7990 is sneller in Battlefield 3, maar de GTX 690 maakt dit goed in bijvoorbeeld The Witcher 2. De HD 7990 is ook sneller in AvP, maar de GTX 690 is sneller in Shogun 2. In de overige benchmarks gaan ze nagenoeg gelijk op. Vergeleken met twee GTX 680's of HD 7970 GHz Editions, zijn de GTX 690 en HD 7990 nauwelijks langzamer, en dat is al een prestatie van formaat.

De GTX 690 wint het wel op energieverbruik en geluidsproductie. Vooral de geluidsproductie is een pijnlijke nederlaag voor de HD 7990. We hebben dit namelijk gemeten tijdens het draaien van Furmark en op dat moment ligt het verbruik van de HD 7990 zelfs lager dan dat van de GTX 690. Daar staat tegenover dat de gpu's van de HD 7990 gemiddeld 62°C worden, terwijl de gpu's van de GTX 690 een temperatuur bereiken van 85°C. Wie bereid is de HD 7990 warmer te laten worden, hoeft minder geluid te tolereren.

Het komt dus aan op de prijs, maar ook daarin zijn de videokaarten aardig aan elkaar gewaagd. De Club3D HD 7990 kost rond de 950 euro, net zo veel als de GTX 690 van EVGA. Overigens zijn er wel goedkopere GTX 690's, die verder identiek zijn aan die van EVGA. Alleen de garantie kan verschillen tussen de verschillende fabrikanten. Vergeleken met twee GTX 680's is de GTX 690 ook amper duurder. Hetzelfde geldt niet voor de HD 7990 van Club3D. Twee normale HD 7970 GHz Editions, van Club3D bijvoorbeeld, zijn aanzienlijk goedkoper.

We begonnen de review met de HD 7990 als uitgangspunt. De videokaart is een technisch hoogstandje, met een immense koeler en rekenkracht te over. Club3D liet echter enkele steekjes vallen. Het tweede bios klokt de gpu over van 900MHz naar een magere 925MHz. Dat levert geen meetbaar verschil op. Had Club3D het iets grootser aangepakt en de gpu overgeklokt naar 1000MHz, zoals bij de HD 7990 van PowerColor, dan hadden ze de GTX 690 in meer benchmarks kunnen verslaan. Ook zien wij geen enkele reden om de gpu's onder de 65°C te houden; 80°C is volkomen acceptabel voor Tahiti-gpu's.

De GTX 690 mag er dan minder indrukwekkend uitzien, de koeler presteert ook erg goed, wat mede mogelijk wordt gemaakt door de hogere gpu-temperaturen, maar ook door het feit dat de gpu's zuiniger zijn. De GTX 690 kost daarbovenop iets minder en komt dan ook, zij het met een kleine marge, als winnaar uit deze test. Club3D heeft echter nog een troef achter de hand: een stapel games. Zo worden Far Cry 3, Hitman Absolution, Shogun 2: Total War, DiRT Showdown, Deus Ex, Sleeping Dogs en Nexuiz allemaal meegeleverd. Die games zijn ook een aardige duit waard, en zou ons in ieder geval nog wel eens over kunnen halen om alsnog voor de HD 7990 te kiezen, aangezien de kaart met wat tweakwerk net zo stil kan zijn als de GTX 690.

 Club 3D Radeon HD 7990 Dual GPUEVGA GTX 690
  Club 3D Radeon HD 7990 Dual GPU EVGA GTX 690
Algemene beoordeling Score: 4Score: 5
Prijs Score: 3Score: 4
Featureset Score: 4Score: 4
Prestaties Score: 5Score: 5
Warmte en geluid Score: 3Score: 4
 Tweakers zegt: goed!Tweakers zegt: uitstekend!

Reacties (186)

Reactiefilter:-11860180+1119+221+32
Moderatie-faq Wijzig weergave
1 2 3 ... 6
Ik heb al enige tijd geleden de PowerColor HD 7990 Devil 13 aangeschaft. Waarom? Voordat ik deze kaart had aangeschaft, had mijn systeem 2x R6970 Lightnings in crossfire. En in het begin van BF3 waren er crossfire issues bekend. Google er maar eens op of neus maar eens rond in Battlelog. Er zijn legio voorbeelden te vinden van mensen met dit probleem. Ook mijn systeem had hier last van. Het crossfire probleem zou voor veel mensen moeten zijn opgelost, maar ik kreeg mijn systeem maar niet stabiel. Vandaar heb ik besloten om mijn crossfire configuratie te vervangen door één fysieke kaart.

Aangezien ik een eyefinity setup heb van drie monitoren, moest ik een GPU hebben die zonder problemen goede grafische kwaliteit kan weergeven én een behoorlijke fps genereren in eyefinty modus. Ik weet dat de HD7990 ansich nog steeds crossfire is, maar wel fysiek op 1 PCIe slot.
Misschien had één HD7970 of één GTX680 ook wel gedraaid met een eyefinity setup, maar gezien R6970 Lighting nauwelijks eyefinity met hoge videosettings in BF3 aankon, heeft mij doen besluiten om een dual GPU kaart aan te schaffen. Gewoon om zeker van de zaak te zijn.
Daar komt bij dat een Tweaker weleens een keuze maakt met zijn hart in plaats van zijn verstand. Los van de mening van sommigen dat de GPU overpriced is, het is gewoon een fantastische kaart die de komende tijd niet de bottleneck zal zijn in mijn PC.

De review van Hardwareheaven heeft mij doen overhalen om de HD7990 te verkiezen boven de GTX690. Over het algemeen liggen de uitkomsten dichtbij elkaar, maar er zijn een aantal spellen waarin de HD7990 significant hoger scoort dan de GTX690.


Nu zie ik hier een aantal keer de vraag voorbij komen wat de een 7990 doet in eyefinity. Ik weet niet of jullie het een toevoeging geven tot deze review, maar ik zal mijn ervaringen met jullie delen.

Een kwartiertje Furmark resulteerde een gemiddelde fps van 73 op, met een temperatuur van omstreeks 70’C.
http://sonny.tweakdsl.nl/HD7990/Furmark.jpg

Ik speel Battlefield 3 in eyefinity mode met alle videosettings op maximaal. Het enige dat ik heb uitgezet is motionblur omdat ik daar zelf niet zo tegen kan. http://sonny.tweakdsl.nl/HD7990/BF3_videosettings.jpg

De resultaten zijn in bijvoorbeeld Operation Métro een gemiddelde fps van ongeveer 100 en de temperaturen blijven stabiel 67'C met beide GPU's op 100% load. Het spel loopt mooi vloeiend zonder microstutter of iets dergelijks. http://sonny.tweakdsl.nl/HD7990/BF3_FPS_LOAD_TEMPS_7990.jpg

Uiteraard gaat de HD7990 meer herrie maken wanneer deze moet presteren, echter persoonlijk vind ik de geluidsproductie zéér acceptabel.

Voor de geïnteresseerden, hier kun je de volledige specificaties van mijn PC vinden.

[Reactie gewijzigd door Oemfoefoe op 22 november 2012 17:16]

Beetje raar, waarom krijgt de Nvidia 1 ster meer voor Prijs terwijl in de review verteld wordt dat de twee kaarten nagenoeg hetzelfde kosten? :?

edit: Volgens de PW is de goedkoopste 7990 zelfs een paar euro goedkoper dan de goedkoopste 690...

[Reactie gewijzigd door Meekoh op 21 november 2012 08:23]

Diezelfde gedachte heb ik ook. Daarbij vind ik de beoordeling "zeer goed" voor de GTX690 onterecht. Puur kijkend naar het aantal sterren wat gegeven is, komt dat neer op een gemiddelde van 4.4 uit 5, wat naar mijn inziens afgerond geen 5 is.

Goede review, 2 beesten van grafische kaarten, alleen de conclusie laat te wensen over.
Mee eens. Nog een paar punten van kritiek

Je reviewed welliswaar de CLUB3D versie, maar zo'n review wordt gebruikt voor alle 7990's. Waarbij de koeler van een ander merk aanzienlijk stiller kan zijn.

Wat ik vreemd vind, is het volgende:

Wie bereid is de HD 7990 warmer te laten worden, hoeft minder geluid te tolereren.

Het zal wel kloppen, maar het leest erg vreemd.

Als ik het zo lees zijn beide kaarten net zo goed en het lijkt er nu in mijn ogen te sterk op of de 690 de absolute winnaar is.
Je reviewed welliswaar de CLUB3D versie, maar zo'n review wordt gebruikt voor alle 7990's. Waarbij de koeler van een ander merk aanzienlijk stiller kan zijn.
Behalve het feit dat er geen reference bestaat van de hd7990... de productie dus volledig fabrikant afhankelijk is... en er naar mijn weten ook maar 2 verschillende HD7990 bestaan en die tweede van Powercolor is exact dezelfde kaart, alleen wat hoger geclocked en de koeler heeft een ander kleurtje... maar het is dezelfde koeler. Er is dus geen vergelijkingsmateriaal op een kopie na die 100% zeker nog warmer is en dus lawaaiiger zal zijn.

Ik ben het verder wel met je eens, het is moeilijk vergelijken zo en als je de tekst leest dan zou ik het probleem van die warmte ook bij de koeler kunnen liggen. Wat daaraan overigens ook verwarrend is dat er eerst wordt gezegd dat de 690 zuiniger is, maar het verbruik vervolgens tijdens bijvoorbeeld furmark toch in het voordeel van AMD ligt... maar toch de warmere en luidere kaart is... dan kan je bijna niet anders dan de koeler als de schuldige aanwijzen.

Dat zijn misschien toch aspecten waarin men wat meer onderzoek had kunnen doen, beetje meer verdieping om de oorzaak naar boven te krijgen. Was onlangs overigens ook al met 3570k vs FX8350... waarin de laatste door tweakers een belachelijk hoog verbruik liet neerzetten waar verder niet op ingegaan werd behalve dan de stelling dat AMD flink zou achterlopen op Intel op dat gebied. Daar had men ook wel wat dieper op in mogen gaan want andere reviews toonden toch eigenlijk wel aan dat het ook heel veel te maken heeft met het gebruikte moederbord...
Ik heb een Arctic aftermarket cooler op mijn 6990 en die is daardoor gewoon helemaal stil! Daarvoor was het een vliegtuig of grasmaaier!

Dus als je een 7990 wilt, gewoon wachten op de Arctic versie voor deze kaart.

Zie ook;
http://www.kitguru.net/co...turbo-6990-cooler-review/
De stock koelers zijn stil zat en tijdens gamen ma het wel wat harder natuurlijk
Ik ben ook wel benieuwt hoeveel geluid de HD 7990 produceerd als de fan's zo worden geconfigureerd dat de temperatuur ongeveer hetzelfde is. Het lijkt alsof de NVIDIA o.a. wint omdat deze een hogere temperatuur tolereerd met betrekking tot het management van de fanregeling.
Powercolor en de anderen gebruiken dezelfde koeler als deze voor hun 7990 varianten. AMD heeft geen reference ontwerp gemaakt, maar toch gebruiken ze allemaal dit ontwerp.

[Reactie gewijzigd door Rin op 21 november 2012 15:15]

ik vond het ook wel raar dat de 7990 maar 3 sterren krijgt terwijl hij een acceptabele geluidsproductie maakt. (iig minder dan een stofzuiger) en de boel ook flink koel kan houden. onthoud wel dat de warme lucht direct in je kast komt en je met een GPU van 85 graden je CPU en HDD's aardig kan pesten.
Omdat 2 losse 7970's goedkoper zijn dan die 7990. Terwijl 2x 680 ongeveer het zelde kost als een 690.
Dus de GTX690 wordt hoger beoordeeld omdat deze duurder is, terwijl beide AMD kaarten beter geprijsd zijn? Je kan het moeilijk de hardware aanrekenen dat door markteffecten een alternatief goedkoper is.
Ze zijn beide ongeveer even snel maar de HD7990 krijgt een lagere score door de prijs. Dit terwijl de pricewatch ze ongeveer gelijk plaatst en je in je eigen tekst al aanhaald dat je bij de HD7990 ook nog eens een heleboel games krijgt.

Dit is de zoveelste tweakers review die interessant leest tot je bij de conclusie komt...

Als je vindt dat de HD7990 het geld niet waard is omdat 2x7970 beter en goedkoper is dat kan je dat ook zeggen van de GTX690. Zowel de GTX680 als GTX690 zijn dan te duur tov 1x of 2x HD7970...

Hoe belangrijk is een prijs verschil van enkele euro's eigenlijk als je over kaarten van bijna 1000¤ spreekt?

Een flauwe reactie trouwens die "En we hebben een winnaar!" ...

Misschien toch de conclusie eens herbekijken en de rest van de text ook, want GTX690 en GTX590 worden wel eens verward en er staat zelfs vermelding in van een GTX460... copy paste van een oude review?
Deze review is sowieso niet serieus te nemen. Tenzij je natuurlijk voor 1000 euro een videokaart koopt en vervolgens maar één monitor koopt van vijf a zeshonderd euro... Koop dan i.i.g. 3 monitoren van twee a driehonderd euro.
point taken. waar zijn de AMD eyefinity kaarten met 12 mini displayport aansluitingen gebleven? tot op heden is powercolor de enige die zo'n monsterkaart heeft gemaakt in de vorm van een HD5990 12MDP. Pas dan is zo'n kaart echt interessant.
Dat staat toch op alle vlakken los van een review van deze twee kaarten? Wat heeft de prijs van 2x 7970 nou te maken met die van de 7990. Hier wordt toch de 7990 bekeken.

Ik vind dit een behoorlijk rare manier van waarderingen geven.....

edit:

Leg me eens uit waarom dit offtopic is? Als iets je niet aanstaat moet je het niet wegmodden...

[Reactie gewijzigd door Schnoop op 21 november 2012 09:50]

Nee, niet echt. Laat ik het zo stellen: waarom zou iemand een GTX690 of HD7990 aanschaffen? Wellicht voor de epeen, maar waarschijnlijk omdat ie maximale performance wil en dat liefst zo goedkoop mogelijk. Als je dan dezelfde performance als een HD7990 kan krijgen met 2 HD7970 kaarten, maar voor aanzienlijk minder geld, dan lijkt mij de keuze vrij duidelijk.
Het enige voordeel wat een HD7990 zou kunnen hebben is dat ie stiller en/of koeler is dan 2 HD7970's en dan is het een afweging maken van alle bovenstaande punten.
Dan ga je dus een vergelijking maken.

2 kaarten
-meer energie
-meer lawaai
-minder upgrade mogelijkheid in de toekomst

Dat zijn allemaal dingen die gewoon geen bal te maken hebben met de prijs beoordeling van deze review.

En al ZOUW je het meenemen in deze review dan moet je de 690 ook afstraffen omdat die 2x 7970 minimaal net zo goed performen als de 690 EN goedkoper zijn en dus om die reden je ook beter 2x 7990 kun pakken dan de 690.....
Meer energie: ja, 2x HD7970 verbruikt ongeveer 10% meer op load. Meer lawaai: zal niet heel veel schelen. Minder upgrade mogelijkheden: totaal niet waar. Je kunt maximaal 4 chips in Crossfire zetten. Dit kan zijn 4x een HD7970 of 2x een HD7990.

Daarbij vind ik de comment dat deze zaken "er geen bal mee te maken hebben" nergens op slaan. Dat in deze review 2 kaarten worden uitgelicht betekent niet dat een consument niet alle opties wil bekijken. Als een makelaar jouw 2 huizen voorschotelt maar je ze wat prijzig vindt, dan ga je toch ook eens kijken naar wat er verder nog op de markt is?
Plankjes voor vier dual-slot videokaarten zijn echter schaars en vaak ook in de prijzige categorie; daar gaat je prijs voordeel!

Schnoop heeft wel degelijk valide punten. Een single-slot kaart is alitjd nog praktischer dan een CF-setup. Een Dual CF setup is weer veel praktischer dan een quad CF setup.

Iig geeft het oordeel goed vs zeer goed een verkeerd beeld. De strijd ging tussen deze twee kaarten, de beoordeling moet dan ook worden afgezet tussen deze twee kaarten. En dan zijn de verschillen miniem en is het vreemd dat de een zeer goed krijgt en de ander niet.

Zowiezo zou ik in deze categorie niet verder willen gaan dan goed, want de prijs is, onder alle omstandigheden ronduit slecht. Bijna 100o euro voor een videokaart == slechte prijs == 1 ster.

Een Ferrari F40 is bijv ook "de beste auto" , kost echter een vermogen. Dat soort wagens geef je ook geen 34 of 5 sterren voor de prijs. Dat je dan het neusje van de zalm hebt, snapt iedereen wel. dat het peperduur is, ook. Daarom is een label erop van "goede prijs" nogal lachwekkend.

[Reactie gewijzigd door Madrox op 21 november 2012 10:59]

Qua prijs zal je dat netto niets schelen hoor. Iemand die een HD7990 aanschaft zal dit niet doen op een H77 plankje van 70 euro, maar minimaal op een Z77 moederbord van zo'n 120-150 euro (wellicht nog duurdere versies). Moederborden die 4 dualslot kaarten aankunnen zijn schaars maar zijn er wel, zoals de ASRock Extreme 9 of Asus Maximus V Extreme. Het moederbord kost je dan zo'n 100-150 euro meer.
Een degelijk HD7970 (bv. de Gigabyte OC edition) heb je vanaf 375 euro, voor 2 stuks dus 750 euro. Dit is een kleine 200 euro minder dan een HD7990. Oftewel, 2xHD7970 + duur moederbord is nog altijd goedkoper dan een HD7990 + gemiddeld moederbord.

Maar ook hier geldt dat dit afhankelijk is van eigen voorkeur en welke punten voor jou het zwaarst meetellen. Persoonlijk zou ik, mocht ik de keuze hebben uit alle genoemde optie (en middelen hebben), gaan voor een GTX690. Dit omdat ik het ding er geweldig vind uitzien.
De prijs mag dan gelijk zijn, bij een quad opstelling heb je nul komma nul ruimte voor extra kaarten, zoals soundcards of iets anders. Verder stijgt het stroomverbruik navenant mee en het geluidsniveau zal ook flink toenemen. Nu kan je natuurlijk voor waterkoeling kiezen, maar 2x een wc blok lijkt mij altijd voordeliger dan vier wc bloks!
Ja maar in Idel verbruikt de AMD Radeon HD 7990 ruim 60% meer dan de Nvidia Geforce GTX 690, en dat is belangrijker, aangezien hij meer Idel staat dan in Load staat.

En dan kan je overwegen om toch voor de Nvidia Geforce GTX 690 te gaan.

Update: de Benchmark van Battlefield 3 klopt niet op Tweakers, aangezien op andere Review sites de Geforce GTX 680 sneller is dan de AMD Radeon HD 7970 GHz.

AnandTech

Guru3D
Die reviews die jij aanhaalt zijn met oude 12.7 beta drivers. De laatste drivers laten aanzienlijk betere prestaties zien.
Nou Ruudje88 dat is totaal onzin wat jij zegt, want ook bij de net uitgekomen Tom's Hardware review is de Geforce GTX 680 sneller dan de AMD Radeon HD 7970 GHz in Battlefield 3

Tom's Hardware

En hier gebruiken ze wel de Beta van AMD (Catalyst 12.11) maar niet de Beta van NVIDIA (GeForce 310.33 Beta ) , wanneer de GeForce 310.33 Beta NVIDIA kaarten ook een stuk sneller weer maken, dus Tom is niet echt eerlijk geweest.

[Reactie gewijzigd door AmigaWolf op 22 november 2012 12:02]

Er stond ook dat er waarschijnlijk een issue was met de zero core techniek. Het kan dus zijn dat een driver update dit oplost en het verbruik dus uit eindelijk veel lager uitvalt dan nu gemeten.
Die reviews die jij aanhaalt zijn met oude 12.7 beta drivers. De laatste drivers laten aanzienlijk betere prestaties zien.
Upgrademogelijkheden, seriously? Dus als een videokaart van 1000 eu niet genoeg is zet je er een jaar later nog een tweede naast die nog steeds even duur is maar tegen die tijd al lang niet meer de snelste?
Upgrademogelijkheden betekent niet alleen, zoals jij dat suggereert, een uitbreiding in de vorm van een tweede GPU. Het kan natuurlijk ook een ander PCI-kaartje zijn zoals een soundcard.

Dus het argument om hiermee rekening te houden bij de keuze tussen een CF/SLI configuratie of een dual GPU card vind ik zeker gegrond.

[Reactie gewijzigd door Oemfoefoe op 23 november 2012 01:33]

Of omdat crossfire bij de helft de spellen niet goed werkt (twee HD 6970's hier). Of omdat je geen ruimte heb voor twee enorme videokaarten in je kast of om welke reden dat ook

Als 2x HD7970 goedkoper is dan 2x GTX680 terwijl ze gelijkwaardig presteren is dat een geldige reden om de HD7970 een hogere score voor prijs te geven, maar het slaat nergens op om de score van de HD7990 te verlagen. Als de HD 7990 en de GTX690 een gelijkwaardige prestatie leveren en ongeveer hetzelfde kosten moeten ze gewoon dezelfde score voor prijs krijgen.

edit: @Moi_in_actie, sorry ik had gemist dat je de hogere score van de GTX690 tov de HD7990 in prijs ook vreemd vond.

[Reactie gewijzigd door yoenit op 21 november 2012 11:03]

Of omdat crossfire bij de helft de spellen niet goed werkt (twee HD 6970's hier).

Volgens mij werken de 2 GPU's op de 7990 ook samen door Crossfire.
klopt volledig! De drivers zien ook als 2 kaarten en behandelen ze zo ook.
Ik heb nog de 7950GX2 liggen die nu stof hapt maar dat was ook 1 met 2 gpu's met elk 512MB, de laatste (en snelste) dictated DX9 kaart die nvidia gemaakt heeft.

En de problemen van crossfire/sli blijven behouden. Sommige spelletjes konden overweg met sli maar andere niet met grote performance hits. Voor nog andere spelletjes moest ik zelfs sli volledig uitzetten of het wou niet eens draaien.

Toen was ook de gedachte om naar quad sli te gaan maar de markt was er niet gereed voor. 64bit moest nog doorbreken (is pas echt bij het grote publiek met win7 gekomen) waardoor het geheugen de pan uitliep (4 x 512 = 2024MB juist voor de gpu waar x86 een geheugen limiet heeft van 4048MB in totaal)

Maar veel games konden toen nog niet overweg met dual gpu laat staan met quad.
Vandaag is dat, indien de game dictated pc is, anders, die kunnen wel al goed gebruik maken van sli/crosfire maar ik vermoed dat quad nog een brug te ver zal zijn.
De crappy console ports naar pc geven echter wel volop problemen met crossfire/sli. Maar die draaien doorgaans in het algemeen vrij brak op de pc.
Ruimte in de kast is inderdaad nog een factor die je kunt meenemen in de vergelijking en zo zijn er nog een heel aantal. Zo zou je bijvoorbeeld als consument kunnen overwegen dat een dual HD7970 set "verstandiger" is, omdat een enkele nu voldoende is en je over een jaartje er (tegen een aanzienlijk lagere prijs) een tweede bij kunt nemen. Echter is het niet verstandig om al deze punten mee te nemen in een review, omdat ze steeds meer en meer subjectiever en persoonlijker worden.

Dat Crossfire niet altijd super werkt is waar, maar bij de eerste reviews van de Powercolor HD7990 Devil13 waren er ook flinke issues met drivers. Verder begrijp ik je reactie niet over het verlagen van de score van een HD7990. Ik stel nergens dat ik van mening ben dat de HD7990 een lagere score moet krijgen. Het enige wat ik aangaf is dat de GTX690 op de scorekaart een te hoge score krijgt: de HD7990 en GTX690 zijn even duur, dus dienen ze een gelijke score te krijgen voor de prijs. Daarbij is het gemiddelde van de GTX690 4.4 uit 5, wat afgerond 4 (eindoordeel "Goed") moet zijn en niet 5 ("Zeer goed").
Ok daar kan ik nog inkomen. Maar vermeld dat dan in ieder geval.
Het lijkt nu namelijk dat dit een review is van de 690 VS 7990 en dat de scores dus ook in dat opzicht moeten worden bekeken.
Beetje raar, waarom krijgt de Nvidia 1 ster meer voor Prijs terwijl in de review verteld wordt dat de twee kaarten nagenoeg hetzelfde kosten?
Wellicht omdat een 7990 zowel idle als in game ~60W meer verbruikt dan een GTX690? Indien dat de redenatie is vergeet de reviewer hem alleen wel te vermelden... :)

Die 60W vertaalt zich - bij gemiddeld 5 uur PC gebruik per dag - ieder jaar naar ongeveer: EUR 27,50 aan extra kosten. Uitgaande van 2-3 jaar gebruiksduur zou dat komen op zo'n 50-75 Euro totaal extra.

Overigens niet een verschil waarvoor een gamer die +/- 1000 Euro uitgeeft aan een videokaart een radicaal andere keuze zou maken lijkt me...

PS: Als je je PC vaak 24u per dag aan laat staan (bijv ivm rendering/server etc) kan dit wel behoorlijk snel oplopen overigens. Uitgaande van 24/4 (dus dat de PC 4 dagen in de week aan staat) praten we met die 60W verschil al over ~300.000W (60*24*4*52) per jaar. Dat vertaalt zich al naar zo'n 75 Euro op jaarbasis, en dus zo'n 150-225 Euro over de gebruiksduur van 2-3 jaar. 24/7 scheelt nog meer.
Als dat een normaal gebruikscenario voor je is zeker wel iets om in de afweging mee te nemen.

[Reactie gewijzigd door Cheetah op 21 november 2012 12:41]

prijs prestatie en stroomverbruik zijn beter dus zo heel gek is dat niet.
als ze dat teminste met prijs bedoelen.
al ze puur de prijs bedoelen klopt het niet maar ik neem aan dat er prijs in verhouding tot features en prestatie bedoeld word.
Daarnaast zeggen ze als je de amd laat lopen op de temperatuur van de nvidia je het zelfde resultaat hebt. Dus ook dat sterretje is derppp. Want ik heb liever de optie koud en luid dan warm en normaal zodat ik die optie altijd nog kan kiezen.
Dus conclusie amd +1 ster warmte geluid en nvidia -1 prijs.
Zeker een vreemde score kaart. 8)7 Prijs is gelijk of goedkoper voor de club en dan zetten ze de featureset gelijk terwijl je 8 spellen bij de club3d krijgt.
Beide kaarten mogen voor "warmte en geluid" wel 4 sterren ontvangen hoor, niet alleen de GTX 690. De HD7990 is wat luidruchtiger, yes, maar blijft daardoor wel 20 graden koeler. Qua prijs scoren ze gewoon min of meer hetzelfde, dus daar mag de beoordeling ook wel hetzelfde zijn. Kijk je dan naar performance, dan is het inderdaad stuivertje wisselen. Maar over het algemeen verdienen de kaarten wel een gelijke beoordeling.

[Reactie gewijzigd door Fid3lity op 21 november 2012 10:46]

Maar veel mensen zitten hoe dan ook met die 'herrie' opgescheept. De realiteit leert ons gewoon dat cpu's, moederborden en grafische kaarten gewoon worden gebruikt zoals de fabrikant ze levert, out of the box dus. En dan maakt die kaart veel herrie.

En er staat in de conclusie dat het zelf aan te passen valt. Ik vraag me dan ook af, wat wil je nog meer? En waarom lees je niet de hele conclusie? Hopelijk wordt dan het een en ander duidelijk.
Wat bijvoorbeeld leuk zou zijn geweest is om te testen hoeveel geluid de kaart bij ~82 graden zou produceren. Met andere woorden: hoe is het geluidsniveau als je beide kaarten op eenzelfde temperatuur-max probeert in te stellen. Dan heb je in ieder geval bij 1 temperatuur cijfers die je echt 1 op 1 kunt vergelijken.

Of, als je er op de huidige manier naar kijkt: het verschil in temperatuur verantwoord het verschil in geluidsproductie. Dan geef je 1 cijfer voor temperatuur en 1 voor de geluidsproductie en deel je vervolgens het cijfer op in 2 deelcijfers. Het argument "veel mensen zitten ermee opgescheept" en "het is aan te passen" zegt ook al genoeg: mensen die zo'n kaart kopen zullen er heus wel wat van weten en zullen dan ook wat aan de settings gaan sleutelen.

[Reactie gewijzigd door Fid3lity op 21 november 2012 14:26]

Ja en nee. Dat is leuk, maar wat veel mensen niet begrijpen is dat een review niet ons levenswerk is. We hebben meer werk te doen. Ik probeer een product zo goed mogelijk te reviewen, binnen een bepaald tijdsbestek.

Bij televisies bijvoorbeeld, steken we ook veel tijd hoe een televisie kan presteren ALS je deze met dure apparatuur kalibreert. Bij videokaarten steken we tijd in andere dingen, met name het benchmarken zelf. Bij televisie-roundups doen we bijvoorbeeld geen kalibratie, omdat kalibraties (a) tijd vreten (b) een consument dit niet of nauwelijks kan, laat staan doet.

Ik vind dat een fabrikant zijn zaakjes gewoon op orde moeten hebben. In het bios sleutelen aan de temperatuur/fancurve is een peulenschil. Doe het dan ook. Blijkbaar willen ze de tijd niet steken in het testen van de videokaart of deze ook 80 graden aankan gedurende langere tijd. En omdat ze het niet zeker weten, kunnen (en willen) ze die garantie niet geven ofzo. Ik vind het dus een minpunt, want andere fabrikanten kunnen of durven het wel.

[Reactie gewijzigd door Marc Rademaker op 21 november 2012 15:42]

Ja en nee. Dat is leuk, maar wat veel mensen niet begrijpen is dat een review niet ons levenswerk is. We hebben meer werk te doen. Ik probeer een product zo goed mogelijk te reviewen, binnen een bepaald tijdsbestek.
Jullie heten niet voor niets Tweakers, bij reviews hier mag er wel verwacht worden dat er ook iets "getweaked" wordt..
Grapjas, Tweakers en Tweaken. Het is geen 2002 meer... Nu doen Tweakers de was en spelen we vooral games op consoles (zie de nieuwe witgoed sectie in de pricewatch en het onevenredig grote aantal consoles games dat gereviewd wordt t.o.v. het aantal PC games).
Je hebt gelijk, helaas. Ik blijf echter gewoon achter mijn punt staan, het is iets wat je toch wel mag verwachten van een naam als Tweakers.
Tsjah, maar voordat je aan de review was begonnen, had je naar mijn idee toch écht even 3 fullHD monitoren/TV's moeten neerzetten, om de resolutie van 5760x1080 te krijgen en deze HD7990 en GTX690 op 3 monitoren te testen bij gangbare games en benchmarks.
Ik kan me namelijk geen ander ideaal gebruikersdoel voor een HD7990 of een GTX690 op dit moment bedenken dan met 3 monitoren surround gamen.
Op een enkele Full HD monitor voldoet een GTX680 of een HD7970 daarin al voldoende, en heb je heus geen HD7990 of GTX690 nodig voor leuke framerates en playability van games.
Goed idee, maar het moet dan wel iets uitgebreider. Als je maar één temperatuur aanhoudt voor het geluidsniveau dan kan het zijn dat de een relatief stil is terwijl op andere temperaturen het verschil juist groter of kleiner wordt.

Ze moeten een aantal temperaturen pakken (het liefst natuurlijk een interval van bijvoorbeeld 50 tot 90 graden Celsius) en daarop het geluidsniveau meten.
Vervolgens de temperatuur op de Y-as zetten en het geluidsniveau op de X-as zetten om vervolgens uit te zetten in een lijngrafiek. Dit kan natuurlijk voor zowel idle als load gedaan worden. Ik zie namelijk geen probleem als mijn videokaart in idle 70 graden Celsius wordt als je hem dan niet hoort. Als je hem dan gaat belasten gaat de temp wellicht omhoog naar 80 a 90 graden Celsius als mede de geluidsproductie natuurlijk.

Enige probleem met deze methode is dat het best veel werk is, maar het geeft wel een veel beter beeld, zeker voor ons Tweakers.

Dat gelul dat kaart X dus stiller in idle is als kaart Y is vaak gewoon lulkoek daar je de fanspeed gerust een tandje lager kan zetten zonder dat dit problemen oplevert met uiteindelijke resultaat dat kaart X en Y nagenoeg onhoorbaar zijn geworden. Het temperatuurverschil tussen kaart X en Y kan natuurlijk wel groot zijn in dit geval, maar als dit geen probleem is, waarom niet?
Ik vind de conclusie en de daarbij behorende sterren niet erg goed overdacht. De auteur begint met de crème de la crème, absoluut geen understatement.
In de conclusie komt vervolgens naar voren dat beide kaarten elkaar nauwelijks ontlopen, al is er wel een verschil aan te merken in warmteproductie. Is dat verschil dusdanig groot dat de crème de la crème van AMD in de vorm van een HD 7990 maar vier sterren waard is?
Ik snap dat de review een winnaar nodig heeft, daar is niets mis mee. Als ik echter wil gaan vergeleken en een andere videokaart krijgt vier sterren, dan zou deze dus ongeveer gelijkwaardig moeten zijn, wat natuurlijk niet 1, 2, 3 kan. Een nette review, maar ik zou ze beide 5 sterren hebben gegeven.
Zeker als je spreekt van de crème de la crème.
Punt is dat de socres gewoon 1op 1 vergeleken worden met alle andere kaarte, ik zie nml geen creme de la creme categorie. In dat licht bezien zou de waardering voor prijs nooit geen vijf sterren kunnen zijn, laat staan 3 of vier. Want prijs/prestatie gezien, zijn ze gewoon peperduur.

Dat je daarvoor de snelste kaarten in huis haalt, is niet meer dan logisch. daar betaal je tenslotte ook naar.
Heb zelf al sinds enige tijd een 690 in m'n systeem. Mocht je deze kaart ook willen aanschaffen let er dan op dat je een goede airflow door je kast heb met een grote fan voorin je kast. Door het ontwerp van de kaart wordt de helft van de warme lucht aan achterzijde en de andere helft aan de voorzijde van de kaart er uit geblazen. De helft komt dus regelrecht je kast in ipv aan de achterkant er uit. Iets op rekening mee te houden.

Voor de rest absoluut een top kaart!
Met een fan in de voorkant van de case blaas je dus recht tegen de stroming van de fan in ? Wellicht handiger om een fan in de zijkant van de case te plaatsen en deze onder de kaart door te richten.
Het lijkt me duidelijk dat de fan voorin je kast de lucht naar buiten moet blazen ipv naar binnen. Net als veel andere case fans trouwens.
huh.. een Fan voorin de kast moet toch juist lucht in de kast blazen, zodat de Fan achter in de kast het er weer uit blaast.. dan krijg je goede airflow... of heb ik dit nu helemaal fout?
Warmte stijgt op.

Als je GPU werkt zoals de 690 kan je het beste een bottom > top pushpull config bouwen, dan gaat je warme lucht die er in de kast uit komt namelijk bovenin weg, en je hebt dan ook een effectieve airflow langs je ram, hdd en cpu lopen. Je kan dan zelfs nog overwegen ook de cpu fan naar boven te richten.

Heb nu met dual evga GTX 660 een zelfde soort ontwerp en houd daarmee zelfs die volledig gesloten gpu meer dan 4 graden onder de gebenchte temps.
Als je GPU werkt zoals de 690 kan je het beste een bottom > top pushpull config bouwen,
Ja dat is wat ik bedoelde, zo'n opstelling heb ik nu thuis ook (plus nog een top fan die ook uit de kast zuigt)

Maar Hav0c had het er over dat je Fan voorin lucht naar buiten moest blazen, wat mij niet correct lijkt
Warmte stijgt op
Kleine correctie, warme lucht stijgt op; warmte gaat van hoge naar lage temperatuur.
Tja het is ook gewoon een kacheltje he? Vroeger hadden we straalkachels, deze videokaart begint er al aardig op te lijken.
De "snelste" kaarten testen, en toch geen mogelijkheid zien om 2 extra displays te lenen? Echt niet meer van deze tijd, om geen Eyefinity / Surround mee te nemen.

[Reactie gewijzigd door TNJ op 21 november 2012 08:48]

Typische, ik heb dit gemeld bij de laatste 2 reviews van top gpu kaarten, en kreeg steeds -1 ratings.

Goed om te zien dat het nu eindelijks serieus genomen wordt. :)
De score klopt niet, net wat hierboven al werd gezegd: de 7990 is goedkoper en krijg een ster minder ? tevens vind ik dat ze beide hetzelfde aantal sterren horen te hebben.

neem bijv warmte en geluid krijg de HD7990 een ster minder, terrecht zou je denken omdat deze kaart meer herrie maakt. Maar de HD7990 maakt dit weer goed met een lagere temperatuur.

690 > meer warmte minder geluid = 5 sterren voor het geluid, -1 ster voor warmte
7990> meer geluid minder warmte = 5 sterren voor warmte, -1 ster voor geluid.

[Reactie gewijzigd door Crp op 21 november 2012 10:36]

Goed vergelijkings materiaal.

HARDOCP heeft net de DEVIL13 HD7990 getest tegen een GTX680SLI setup Resolutie: 3 * 24" 5760 * 1200

HARDOCP's Conclusie:
NVidia SLI is minder gevoelig voor Microstuttering.
2 losse HD7970's zijn een stuk goedkoper

Tomshardware: Radeon HD 7990 And GeForce GTX 690: Bring Out The Big Guns
2560 * 1440 en 5760 * 1440

Tom's Conclusie:
De HD7990 is sneller maar de GTX690 werkt gewoon net even beter.

En het volgende is zeer interessant voor ATI/AMD X-Fire gebruikers
Tom heeft ook een tool getest die microstuttering moet voorkomen (Dynamic V-sync AMD)en dit werkt gewoon goed

Edit:
Mij persoonlijke ervaringen met micro-stuttering als voormalig Tri-Fire 5970 +5850 gebruiker die is overgestapt naar een SLI GTX680 (i7-2600K@4.5 1920 * 1200, Case Lite-on FS020).

ATI Tri-Fire HD5XXX: Smooth zolang het 60FPS+ is, des te meer frames des te beter.
V-Sync uit voor beste resultaat
Accelero 5970 koeler circuleerd warmte in kast, flinke case flow nodig
Case temp redelijk hoog waardoor hoger fan geluid.
1GB op een HD5XXX is niet meer genoeg, AA eet geheugen en kan slechts met mate gebruikt worden.

NVidia SLI:
Standaard koeler die de hitte aan de achterkant naar buiten werkt, kast blijft een stuk koeler.
Geluid van standaard GTX680 koeler is zeer acceptabel.
Tot nu toe geen enkel geval van micro-stuttering

[Reactie gewijzigd door Zanac-ex op 21 november 2012 20:38]

De GTX 690 kost daarbovenop iets minder[
Azerty ¤ 948,37
Komplett.nl ¤ 949,-

Erm, de 7990 is 67 cent goedkoper :/
[...]

Azerty ¤ 948,37
Komplett.nl ¤ 949,-

Erm, de 7990 is 67 cent goedkoper :/
Ik snap je vergelijking niet helemaal en al helemaal niet waarom je hierop +3 krijgt.
Als je gewoon simpel de links volgt welke in de review staan, zie je vanzelf de prijzen en de daarbij horende verkooppunten. Bij Azerty zijn beide kaarten boven de 1000 euro. Wat je nu doet is appels met peren vergelijken.

Als je puur naar deze type kaarten en merken kijkt dan is de 7990 inderdaad lager in prijs, zelfs een paar tientjes lager. Daarin vraag ik mij ook af of de reviewer überhaupt zijn eigen links heeft bekeken.

Echter ben ik het eens met de reviewer dat een hitte productie waarin de 690 slecht scoort mij minder stoort dan de geluidsproductie die de 7990 neerzet. Ik als geen IT'er tweaker of knutselaar koop een product en gaat er vanuit dat het werkt. Een hogere temperatuur merk ik niets van, maar hogere geluidsniveau stoort mij wel aanzienlijk.
Dat zeg je nu, totdat je systeem te warm wordt door alle warmte die de 690 in je kast laat hangen, en de boel gaat throttlen.

Ik vind de sterren wel onterecht. Het had niet voor een verschil moeten zorgen in beoordeling, maar wel een punt van aandacht moeten zijn. Want het is een keuze - wat vind je belangrijk? Als je kast een eindje weg staat en (bijvoorbeeld) redelijke crowded is heb je namelijk van het geluid geen last en zou je daarom kunnen kiezen voor het ontwerp van de 7990, terwijl een kast met goede air outtake en ruimte in de kast weer voordeel heeft van de lagere geluidsproductie van de GTX 690.

En ik denk dat men op dit prijsniveau toch wel aan dit soort dingen moet denken, en dat men daar ook mee bezig is. Ik in ieder geval wel.

[Reactie gewijzigd door Vayra op 22 november 2012 15:14]

Ik heb eigenlijk de GTX 690 als uitgangsprijs genomen, van eender welke fabrikant. We hebben er een getest met stickers erop van EVGA, maar zoals meermalen is aangehaald in de review, zijn alle GTX 690's gelijk. De GTX 690 kost minimaal 900 euro, als je voor een andere fabrikant kiest, en niet 950 euro. En is dus goedkoper dan de HD 7990. Ook kost de GTX 690 2x zoveel als een GTX 680, terwijl de HD 7990 MEER dan twee keer zoveel als een HD 7990 GHz Edition kost, laat staan een normale HD 7970.
En de 7990 blijft under load 25C graden koeler in vergelijking met de GTX 690.
De 7990 produceert daarentegen wel meer decibellen.

Maar waarom krijgt de 7990 3 sterren en de GTX 690 4 sterren voor warmte en geluid :?
Bedoel je 63 cent?
100% gestoorde shit deze kaarten. Ik vind het geweldig.
In ieder geval "gestoorde shit".

Twee bazen? In wat, micro-stuttering, warmte-productie en geluid?

Micro-stuttering blijf je houden bij dual-gpu kaarten, wat ze ook verzinnen met Vsync en dergelijke.
Volgens mij had hardocp er een mooi artikel over, waarin duidelijk werd dat een goede single-gpu veel prettiger werkt.

En over dat Vsync gebeuren. Ja, dus om de micro-stuttering net zo goed te krijgen als een single-gpu kaart, ga je hem cappen op 40FPS... daar geef je dan 1000 euro aan uit. Om op 40FPS te spelen/
Microstuttering is reeds verleden tijd, nvidea heeft hier een hardware oplossing voor, en voor AMD is er RadeonPro, een software oplossing die microstuttering nog minder dan een enkele kaart maakt.

WSFG- Microstuttering gone
En juist bij Anandtech (dacht ik) laatst een artikel dat Crossfire zelfs soepeler (minder stutters, extra lang wachten op één frame dus) speelt dan een enkele kaart. Het verbaasde mij ook maar ik geloof best dat Crossfire heel wat beter werkt dan sommigen beweren.
Ik heb dus 2 gtx 690's in Quad sli configuratie draaien en ik merk geen micro stuttering. Al hoewel, er waren een aantal spellen die daar op het eerste gezicht last van hadden, maar heel simpel even andere renderings opties tweaken en weg was het probleem.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True