Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 104, views: 180.985 •

Conclusie

In deze review richten we ons op de HD 7970, en dan met name die van XFX, aangezien het de eerste HD 7970 is die met een andere, en zonder meer betere, koeler is uitgerust. Asus moet het doen met een referentie-exemplaar, maar ze weten desondanks iets extra's te bieden met GPU Tweak. Daarmee kan de videokaart net wat verder overgeklokt worden, uiteraard ten koste van het energieverbruik en het geluidsniveau.

De HD 7970 zelf is een goede videokaart, maar zoals op 22 december al werd geconstateerd is de kaart niet revolutionair, zoals de HD 5870 dat destijds wel was. De prestatiewinst ten opzichte van een HD 6970 is aanzienlijk, maar ten opzichte van een GTX 580 is een voorsprong van 20 procent magertjes te noemen. Met name opvallend is het hogere energieverbruik in spellen. Daar staat wel tegenover dat de HD 7970 over een immense hoeveelheid geheugen beschikt, zichzelf volledig kan uitschakelen als je computerscherm uitgaat, en dat de overklokmogelijkheden indrukwekkend zijn.

De prijzen van de HD 7970 liggen met een bedrag van rond 500 euro hoger dan we gewend zijn van AMD. Dat zal te maken hebben met de prijs van de GTX 580, die in verhouding duurder is, maar ook met AMD's eigen line-up. Door de komst van de apu's is er minder ruimte aan de onderkant van de gpu-markt en AMD zal zijn line-up niet omlaag willen drukken door de HD 7970 te laag in de markt te positioneren.

Voor ons is de HD 7970 van XFX echter de winnaar. De gpu haalde met gemak de maximale kloksnelheid van 1125MHz, terwijl ook het geheugen zonder problemen naar 6300MHz overgeklokt kon worden. De koeler is immens stil, ook tijdens het gamen, en dat kan niet gezegd worden van een HD 7970 met de referentiekoeler. Wel zou het XFX sieren als ook zij met software komen om de gpu over te kunnen klokken, want de potentie is er zeker gezien de goede koeler.

 Asus HD7970-3GD5XFX Radeon HD 7970 Double Dissipation
  Asus HD7970-3GD5 XFX Radeon HD 7970 Double Dissipation
Algemene beoordeling Score: 4Score: 5
Prijs Score: 4Score: 4
Featureset Score: 5Score: 5
Prestaties Score: 5Score: 5
Warmte en geluid Score: 2Score: 5
Overklokbaarheid Score: 4Score: 5
 Tweakers zegt: goed!Tweakers zegt: uitstekend!

Reacties (104)

Reactiefilter:-11040102+162+28+31
Veel informatie uit deze review wisten we uiteraard al (nieuws: AMD introduceert nieuwe high-end videokaart HD 7970), maar de resultaten van de XFX Dual Fan (en dan dus vooral het geluid) zijn zonder meer positief. Dat verschil is eigenlijk wel gigantisch te noemen.
De Crossfire scaling in Alien vs Predator is ook behoorlijk netjes. Je krijgt eigenlijk gewoon de volle snelheid erbij, bij zowel 2 als 3 kaarten.
De overklokbaarheid van de XFX zorgde voor een toename van 16.82% bij de minimum FPS bij Alien vs Predator. Enige stottering zal zo toch wel weg moeten zijn (42.8 -> 50.0 FPS).

Voor eigenaren van een 6970 of lager is de 7970 zeker wel een stap die te overwegen is. Bij nVidia zou dat bij de GTX570 en lager ook wel te doen zijn. De GTX580 zal echt afhankelijk zijn van welke games en resolutie je speelt. Het verschil zal immers zelden gigantisch zijn.
Mocht je willen kijken hoe de kaart zich houdt in games t.o.v. je huidige kaart? Kijk dan even in 1 van deze linkjes:Wat betreft levertijd:
De kaarten beginnen langzaam tevoorschijn te komen bij de webshops (sommigen zijn overigens overdreven duur, maar als je echt niet kunt wachten...). Voor prijzen en levertijden suggesties/tips, kijk even in dit draadje: AMD HD7XXX Prijzen & Levertijden topic.

Oh en wat dit betreft:
De kloksnelheden van de gpu zijn wel standaard, al zal XFX nog wel een model uitbrengen dat op 1000MHz is geklokt.
Spec plaatjes van XFX (Black Edition):De buren hebben ook nog een review online gezet zojuist:
AMD Radeon HD 7970 Quad-CrossfireX EyeFinity review

@ Marc,
ik mis de Eyefinity resultaten. :P Die wil jij toch zeker ook weten ;). Er zijn weinig tot geen tests die veel games getest hebben, meestal maar 2 tot 4 games.

[Reactie gewijzigd door Vipeax op 9 januari 2012 07:40]

@ Marc,
ik mis de Eyefinity resultaten. :P Die wil jij toch zeker ook weten ;). Er zijn weinig tot geen tests die veel games getest hebben, meestal maar 2 tot 4 games.
Ik moet mij hier helemaal bij aamsluiten!

Wat is de punt van Tri-CF als je niet minimaal 2560x1600 gebruikt of nog beter 5760x1080/1200.
Want wat is het nut van 200fps als mijn monitor er max 60 kan weergeven!

@Mark
Dit is btw imho een must read voor jouw en alle videokaart testers en gamers:
Inside the second: A new look at game benchmarking

Het test voor wat imho het belangrijker is dan fps, de aanwezigheid van micro stuters.
Wat zijn micro stuters, om het heel simpel te zeggen, het zijn frames die veel langer duren dan de gemiddelde fps.

Stel we hebben 2 kaarten beiden doen 20 fps dat komt neer op 50ms per frame.
Kaart A doet netjes +/- 50ms per frame, maar kaart B doet +/- 25ms per frame met een uitschieter naar +/- 500ms.
Volgens traditionele benchmarks, geven beide kaarten de zelfde fps.
Maar in de praktijk voelt kaart B aan alsof hij 2 fps weergeeft.

Het testen hier van is vooral van belang tijdens CF en SLI waar (spreek uit ervaring) dit probleem veel erger is, van wegen de intronisatie van frame buffers over verschillende kaarten een probleem is

[Reactie gewijzigd door player-x op 9 januari 2012 10:52]

Omdat er niet genoeg tijd was om ook nog op 5760x1080 te testen. En als ik dat doe, wil ik het goed doen, dus ook de GTX 590 meenemen.

AvP @ 2560x1440 nog even toegevoegd in combinatie met TriCF. Die was ik blijkbaar vergeten.
Daar heb je vervolg testen voor. :Y)
Tenzij je de kaarten terug moet sturen, en geen tijd hebt/had om dat ook te testen.

Ik heb pas een X79 systeem gekocht voornamelijk voor het gebruik van 64GB werkgeheugen, en daar door de mogelijkheid van het gebruik van een ramdisk (ramdisk filmpje)

Maar heb zeker over tijd interesse in een Tri-CF/SLI setup, tot die tijd wacht ik iig nog wel een tijdje tot nVidia met zijn 680 kaart komt, en de prijzen dalen?, en zal dan de beste ''Bang for Buck'' kaarten neem.

Want mijn huidige drie HD5870 kaarten gaan nog wel een paar maandjes mee, en heb tegenwoordig geen behoefte meer aan de ''early adopter'' prijs bonus!

[Reactie gewijzigd door player-x op 9 januari 2012 11:30]

Mag ik dan Arma2 aandragen als goeie test-case voor Eyefinity/Surround gaming? Deze is nog altijd een goeie belasting voor iedere kaart, ondanks de leeftijd. Bijkomend voordeel is dat hij nu ook gratis is: http://www.arma2.com/free :)
nadeel van arma 2 is dat ie ook erg zwaar is voor de processor, je kan wel gaan klooien met settings om de gpu's te belasten natuurlijk.
Daarom ook interessant om te zien, hoe de getallen zijn als het hele systeem belast wordt. Hierbij komt het wijde blikveld van Eyefinity en de instelbare afstand van de horizon, welke toch een be´nvloeding van de belasting op het systeem aan de reviewer geeft. Hij kan op een bergtop gaan staan met een "oneindige" horizon, of in een beboste vallei met de horizon op 2000 meter.
Even een andere opmerking: die Dell 3011 heeft toch een resolutie van 2560x1600 in plaats van 2560x1440?
Of is er toch getest op 1440 op een scherm van 1600? Of was het de 2711 :)
Arma 2 is niet echt het beste voorbeeld van goede ondersteuning voor CrossFire dan wel SLI.

[Reactie gewijzigd door HMeijer op 9 januari 2012 21:27]

Arma 2 free gebruikt lage reso textures, iets wat je juist niet wil met een gpu test.
Daarbij is deel 3 onderweg, dat is mijn inziens een betere bealsting voor gpu's, Arma 2 is slecht geoptimaliseerd en zoals al eerder aangegeven nog al een belasting voor cpu's. Dat zou bij 3 iets beter moeten zijn.
Ik ben bekend met het fenomeen micro-stutter. Dat het bestaat is al veel langer bekend en echt geen uitvinding van techreport. Lang niet iedereen heeft er last van, en als het hele artikel leest zie je uiteindelijk dat zijn grafieken direct correleren met zijn grafieken waarin de gemiddelden staan afgebeeld.

Ook is er verschil tussen spellen.

Daarbij opgeteld vermelden wij ook de minima. Dat zijn de outliers die de speelbaarheid negatief kunnen beinvloeden. Lang verhaal kort, het is nogal een hosanna-verhaal en ik ben redelijk overtuigd van het vermelden van zowel de minima als de gemiddelden.

[Reactie gewijzigd door Marc Rademaker op 9 januari 2012 10:37]

Ik nam ook wel aan dat je bekend was met het fenomeen, maar niet alle lezers zijn het, van daar de uitgebreidere uitleg.

En ik heb zelf het fenomeen ervaren, soms is een driver of game update genoeg om het te verhelpen, maar voor sommige games is het een blijvend probleem.

Het zwaarste in mijn ervaring waren Call of Juarez, Mirrors Edge en Fallout 3.
Gelukkig is er de nieuwe 12.1b catalyst driver is een zegen, daar je per program (CF) profielen aan kan maken, en CF aan en uit kan zetten waar nodig!

Met mijn overstap van i7 970 naar een i7 3930K is het probleem beduidend verminderd maar nog steeds niet weg.
Ook helpte een 3de kaart het probleem te verminderen, op een of andere onbekende manier heb ik minder last van micro shuters met Tri-CF dan met Duo-CF.
Waarschijnlijk omdat er meer tijd zit tussen de het wisselen van kaart met 3 kaarten dan 2, 666ms vs 500ms.

Ik weet trouwens niet of het (gedeeltelijk) aan de 5870 kaarten licht, en of het probleem bij HD7000 en/of GTX600 serie kaarten verminderd of zelfs weg is.

[Reactie gewijzigd door player-x op 9 januari 2012 15:24]

En als meer mensen het begrip leren kennen groeit de kans dat men het waarschijnlijk terugziet in eigen gebruik ook aardig. "Wat niet weet, dat niet deert" en "ignorance is bliss".. Mensen die het fenomeen (nog) niet kennen kunnen het net zo goed niet tegenkomen en het pas zien zodra ze erop gaan letten.
"ignorance is bliss" argument werkt niet, ook al laat de fps counter van je Quad-CF rig zien dat je 1000 fps hebt, en je hebt micro-shuters van 250ms, dan voelt je game aan als of je met 4 fps speelt.

En als je net 2000 euro aan een Quad-CF videokaarten set heb uitgegeven, dan verwacht je natuurlijk niet dat je game nog steeds aanvoelt als of je een budget kaart gebruikt.
Ik draai al 3 jaar + sli, en ik heb geen idee waar jullie het over hebben. En dan doel ik op het zien. Ik ken de term, maar ben het nog nooit tegen gekomen.
Als je een voorbeeld wild, hier is er een. ^_^

PCPer's artikel Battlefield 3 Frame Rate Drop Issue with GeForce GPUs
Ik draaide 2 GTX295 kaarten in quad SLI en dat gaf prachtige framrates in Battlefield 3 (80-100FPS onder HIGH setting) maar het "voelde" niet lekker...

Nu een GTX570 waarmee ik 50-60FPS in ULTRA haal maar het voelt zo smooth...
Tomshardware is het met je eens:"The performance of three- and four-way CrossFire setups not only surprised us, but also managed to utterly convince us that micro-stuttering doesn't have to affect your multi-GPU configuration. For some reason, the third GPU almost always eliminates micro stuttering and has a less-pronounced effect on performance. At least in the games we ran, the fourth GPU is more eye candy than anything, and its contribution is minimal."

Ook uitleg wat microstutter is.

[Reactie gewijzigd door Milmoor op 11 januari 2012 08:55]

Zelf prefereer ik Hardocp's tijdlijn, waar je de FPS kan volgen gedurende een X-aamtal seconden. waarom ? Min fps kan een vertekend beeld geven, waar bij je verwacht dat de 16min kaart beter is dan een 12min kaart nietwaar ?

Dat kan zomaar niet kloppen, als de de 16min kaart, 4x min 16 noteert en de -12kaart slechts 1x -12 doet en voor de rest beduidend hogere scores neerzet. Dat zie je nu niet.

http://techreport.com/articles.x/21516/10
Het is idd geen uitvinding van Techreport, het is wel 1 van de eerste sites die het fenomeen haarfijn uit te doeken doet. Beter dan en gedetailleerder dan Tom's artikel bijv.

Bij Starcraft II zien we iig dat de Radeons meer last van stutter hebben dan de Nvidia's, ondanks de vaak hogere gemiddelden van de Radeons. Toch wel interressant nieuws, vind ik. Dat zie je ook niet in min/avg cijfer balkjes.

Dat niet iedereen er last van heeft vind ik een slap excuus. Zo ken ik mensen die geen last hebben van hun SD signaal op hun FullHD televisie, terwijl ik dan wel kan janken.

ps: Voor de snelle surfers ;)

Reviews
http://www.hardwarecanuck...-2gb-dual-fan-review.html new
http://www.anandtech.com/...the-first-semicustom-7970new
http://www.guru3d.com/art...hd-7970-crossfire-review/
http://www.techpowerup.com/reviews/ASUS/HD_7970_CrossFire/
http://www.kitguru.net/co...-hd7970-crossfire-review/
http://www.overclock3d.ne...adfire_eyefinity_review/1
http://www.tweaktown.com/...eo_card_review/index.html
http://www.overclockersclub.com/reviews/sapphire_hd7970_3gb/
http://www.hardwareheaven...-review-introduction.html
http://www.pcper.com/revi...ion-and-CrossFire-Results
http://www.tweaktown.com/...eo_card_review/index.html
http://benchmarkreviews.c...&id=858&Itemid=72

PCIe 2.0 vs PCIe 3.0 test
http://www.overclock3d.ne...0_pcie2_vs_pcie3_review/1
Opvallend dat de min-fps bij de X-58 chipset/Core I7 950 soms beter is dan bij Intel's huidige "vlagge-chispet"/ Core i7-3960X. Duidelijk een gevalletje van verschillende cpu/chipset architectuur, als je het mij vraagt. Of drivers die nog niet volwassen zijn, dat kan natuurlijk ook nog.

HD 7970 videokaarten
http://www.hardwarecanuck...force-3x-clocked-to-1ghz/
http://www.hardwarecanuck...off-their-hd-7970-lineup/
http://www.geeks3d.com/20...artners-boards-available/

een HD7970 waterblock 8-)
http://news.softpedia.com...-Water-Block-244109.shtml
Nu nog waterblocks met fancy blingbling overkappingen, die de hele pcb verbergen :9~

[Reactie gewijzigd door Madrox op 9 januari 2012 14:45]

Mag ik wat toevoegen....

http://www.tomshardware.c...utter-crossfire,2995.html

Artikel over de desbetreffende microstutter.

Microstutter is idd zwaar underrated. Stel je hebt 1 kaart met 30 fps, dat is grofweg te vergelijken met 2 kaarten bij 45 fps. Dit heb ik in Crysis 1 en met name in Metro 2033 mogen ervaren!!

2 kaarten is NOT-DONE tenzij je het nadrukkelijk nodig hebt voor hoge reso's (3 schermen).
Het blijft me verbazen dat veel mensen meteen IN SLI of Crossfire overgaan en dit stomweg iedereen adviseren.

Zelfs op 80 fps heb ik irritatie mogen ondervinden in combo met 2 kaarten in fps games zoals UT2004 .. 1 kaart op 80 fps loopt nog altijd een stuk soepeler! Voor de Pro-class (ultra high end aim) aimers onder ons ;) met 120-hz scherm etc.

[Reactie gewijzigd door A87 op 9 januari 2012 13:09]

@ Marc,
ik mis de Eyefinity resultaten. :P Die wil jij toch zeker ook weten ;). Er zijn weinig tot geen tests die veel games getest hebben, meestal maar 2 tot 4 games.
Idd, ik zou wel een complete Eyefinity review lusten,,,ik draai nu al een bijna een jaar Eyefinity op een 5770, wachtend op de 7000 reeks :+
Leuk maar waarom posten jullie dan ook niet gelijk de temperaturen van deze kaart dat ljikt mij voornamelijk het belangrijkste bij het nieuwe koel design van xfx, hier wordt ik ook niet echt wijzer van eerlijk gezegt, voor de rest leuk kaartje om te hebben, maar ik hou het toch liever nog bij nvidia voornamelijk voor de drivers en de compatibility van heel veel games, ik heb dan ook weinig te klagen hier met mijn gigabyte gtx 580 soc in sli, alles loopt nog als een zonnetje.

[Reactie gewijzigd door D4rKy21 op 9 januari 2012 06:34]

Ik ben het eens met missen van de vergelijking van de temperaturen. Dit lijkt mij niet onbelangrijk met het overclocken en dergelijke.
Kunnen deze alsnog gepost worden? Gemiste kans anders.....
Temperaturen zijn interessant, maar wat zeggen ze precies? Ze zijn namelijk afhankelijk van de fanspeed, en die verschilt ook tussen de videokaarten. Een directe vergelijking tussen de temperaturen kun je dus nooit maken...
Daar ben ik het niet helemaal mee eens, aangezien het voor mensen vaak ook van belang is. Zeker in combinatie met verbruik of geluidsproductie, kan het zeker wel een doorslaggevende factor zijn voor het aanschaffen van een kaart of net iets meer uit te geven zodat je iig niet het reference model hebt met de (veel?) hogere temps icm lawaai.

Wat ik ook wel apart vind is dat er niets wordt vermeld bij de zeer slechte schaling van crossfire in Arkham City waarbij crossfire beduidend slechter presteert dan een enkele 7970...
De temperatuur is in zoverre irrelevant, omdat deze direct afhankelijk is van de koeler. De gpu stoot een bepaalde hoeveel Watt aan warmte uit. De koeler moet dat kwijt zien te raken. Dat levert geluid op. Dat is de belangrijke variabele.

Nu kun je gaan testen met verschillende fansnelheden en kijken welke koeler bij de laagste geluidsproductie de gpu nog net koel genoeg weet te houden, maar dat ligt niet in de scope van deze review.
De temperatuur is in zoverre irrelevant, omdat deze direct afhankelijk is van de koeler.
Maar dat is het nu juist!
Ik ben benieuwd of de XFX koeler dus niet alleen stiller is, maar of de temperatuur ook lager is. Grote kans dat dit zo is, maar een overzicht hier van is toch wel handig.

Bijv met de overclock:
Hoe luid moet de koeler van de XFX zijn om stabiel te zijn @ 1100Mhz
En hoe luid moet die van de reference zijn?

Dan krijg je beter een indicatie hoe goed de koeler nu echt is.

Nu zien we dat de koeler veel stiller is, maar misschien is de temp ook wel 30 graden hoger?

Het zou misschien mooi zijn om bijv een vergelijking te maken tussen de temperaturen bij geluid niveau X (45db) of een vergelijking tussen de geluids niveaus bij temperatuur X (80 graden oid).
Hierdoor heb je beter een idee of een koeler ook daadwerkelijk veel beter koelt, en dus veel stiller kan zijn bij een overclock.
We hebben het bij deze kaarten vooral over 2 verschillende koelers i.p.v. echt hele verschillende kaarten.

Volgens mij is het vrij gewoon (net zoals bij een processorkoeler test) om ook de temperaturen bij de geluidsproductie te vermelden. Het is namelijk denk ik altijd nog aan de gebruiker wat hij acceptabel vindt bij welke temperaturen (als 10db extra je een 15 graden koelere core oplevert kan je daar nog eens over denken).

Zeker aangezien het ook de temperatuur in je kast gaat beinvloeden.
Voor de warmte in de kast maakt het vaak niet uit, dit is gewoon direct gerelateerd aan het verbruik van de kaart (enkel het verschil of een koeler de warmte de kast uitblaast of niet). Maar ik ben het er wel mee eens dat de temperatuur van de GPU interessant genoeg is en ik mis het ook wel een beetje. Ik wil gewoon een goed gekoelde GPU hebben. Als die lage geluidsproductie een temperatuur van 90 graden oplevert, dan liever niet...

En daarbij: de temperatuur is de informatie die het allermakkelijkst uit te lezen is van de hele benchmark-sessie, dat kan catalyst al standaard. Dus kun je het er net zo goed even bij zetten voor de volledigheid, kost hooguit 5 minuutjes extra in totaal.

[Reactie gewijzigd door bwerg op 9 januari 2012 16:29]

Mijn huidige videokaart, een HIS 5850, heb ik juist gekocht na het lezen van een tweakers review waarin de HIS niet alleen stiller was dan twee concurrerende kaarten, maar ook veel beter koelde. Dat gaf voor mij direct de doorslag. Dus het verband tussen lawaai en temperatuur hoeft lang niet altijd rechtlijnig te zijn. Als ik dan zie in deze review bij geluidsdruk onder load, dat de XFX helemaal bovenaan staat en de Asus helemaal onderaan, dan vraag ik me ook af of die XFX dan zoveel warmer wordt en zo ja, hoeveel.
Volledig mee eens!

Jullie zeggen in de review zelf dat Asus een agressief fan profiel gebruikt en XFX houd de fans op een wat lagere stand, waardoor ze dus stiller zijn.

Wat ik me dan direct afvraag, hoeveel warmer laat XFX zijn kaart worden dan ASUS?
Of hebben ze een gelijke temp, omdat XFX een andere koeloplossing heeft gekozen?

Wat mij betreft zijn geen temp charts dan ook een ernstig gemis in deze review.
Ik had eigenlijk ook wel een vergelijking willen zien met 2 GTX580 in SLi :)
Toch denk ik dat de hd6970 een betere keuze is qua prijs/kwaliteit. Als ik mijn radeon een beetje overclock kom ik ook aan deze fps en aangezien ik alleen BF3 speel op 1920/1080 is dit genoeg.
(uiteraard wel meer power nodig en iets meer geluidproductie maar dat stoort mij niet)

En dan zeggen mensen...maar als je de 7970 overclocked dan.....tja waar eindigd het.....

Voor een shooter goed te kunnen spelen heb je tussen de 55 en de 75 fps nodig. Meer bied niet echt meerwaarde om er zoveel meer geld voor neer te leggen. Deze mensen die spelen met hun "100" fps worden net zo snel en hard neergeknald ;) en hun game loopt echt niet merkbaarder beter.(uiteraard kenners zullen het wel opvallen maar een doorsnee gamer niet echt)
Mijn mening...ik merk het verschil niet 123 als ik de game boven de 75fps speel op 1920/1080 ultra.

[Reactie gewijzigd door ErwinJ op 9 januari 2012 07:26]

maar jij bent niet iedereen. Er zijn ook personen die op een hogere resolutie spelen of op 3 schermen of zware games op ultra met alles aan of de komende 4 jaar niet willen upgraden of later er nog een 7970 bij willen steken zodat ze weer bij zijn of het nieuwste willen hebben omdat het kan of of of.
Een 6950 is wat dat betreft dan weer een betere keuze dan jou 6970 als je naar prijs/performance gaat kijken (met kwaliteit neem ik aan dat je performance bedoeld). en als je hem nog verder doortrekt is een CF6870 nog weer beter.http://www.anandtech.com/bench/Product/301?vs=292
Tsja, sommige mensen waaronder ik merken nog een MEGA verschil tussen 90-120 fps... op een 120Hz scherm duidelijk merkbaar, als je beweegt gaat het zo veel vloeiender dan.

En dat het mensenlijk oog 30 fps ziet okee, maar een menselijk oog is heel wat complexer dan 30 beeldjes per seconde jip en janneke taal =)

[Reactie gewijzigd door A87 op 10 januari 2012 12:41]

Complexer? Nee eerder hoe de hersenen gebruik maken van beperkingen van het oog en dit dus ook interpreteren.
Mij lijkt het meer dat je meer dan 30 fps kan waarnemen. Doordat oog uisgesmeerd object waarneemd motion blur.
Als limiet zo strak zou zijn als 1/30 sec sluiter tijd. zoals bij camaera's. Dan heb je met 60 fps een blur sample dat is weinig.
Met 120fps 3 samples om te bluren. Met 90 maar 2.

Dus om 1/30 een strak sherp beeld is voor oog onnatuurlijk. hersenen interpreteerd iets dat statisch is kwa sherpte en toch snel beweegd.

BR 24P maakt gebruik van blured delen dat maakt dat oog ziet wat je met 120++ frames ook zou zien. Maar dan voor geblured.

Soms passen ze ongeblured 24P toe bij aktie films en dat ziet er raar uit als een super fast slide show.
Waarom werd er eigenlijk getest met de oude 11.11 drivers, en niet met de nieuwste 12.1a (of 12.2) beta drivers?

EDIT: in mijn favoriete computerwinkel (tones.be) zijn de saphire en asus kaarten te vinden voor 599euro en zijn op voorraad :)

[Reactie gewijzigd door AndyD op 9 januari 2012 07:17]

Wauw.

1 kaart: 43,0 - 70,9
3 kaarten: 127,5 - 208,5

127,5 / 3 = 42.5. 1% verlies vergeleken met enkele kaart.
208,5 / 3 = 69.5. 2% verlies vergeleken met enkele kaart.

Wauw.

Zo'n upscaling heb ik nog nooit gezien, helemaal richting triple.

edit; vraag me af of een dual gpu dan nog nut zal hebben, dat zal haast niet betere prestaties kunnen geven dan dit.

[Reactie gewijzigd door Xanaroth op 9 januari 2012 07:36]

Wauw.

Zo'n upscaling heb ik nog nooit gezien, helemaal richting triple.

edit; vraag me af of een dual gpu dan nog nut zal hebben, dat zal haast niet betere prestaties kunnen geven dan dit.
Inderdaad, dit geeft de mogelijkheid om ipv dual-GPU 7990 een Úcht snellere 7990 (zoals vervlogen tijden) op de markt te zetten, gezien scaling toch al 99% is.

Marketing technisch zou het denk ik helemaal niet slecht zijn als ze over een paar maanden (na de launch van de nV 6xx serie) een 7990 kunnen terugkoppen die stock op 1,2 ghz loopt oid.
Als ze de dual GPU voor minder dan 2 losse op de markt kunnen zetten dan zou het natuurlijk nog wel nut hebben en dat lijkt me ook wel mogelijk.

Kijk ook eens naar de verschillen op AvP, 26/44.4 tegen 52-88.5 dat verlies is gewoon nihil, hoe krijgen ze het toch voor elkaar :)
Klopt, maar dual GPU is vrijwel altijd gelimiteerd tegenover echte crossfire, doordat ze kloksnelheid moeten terugschroeven (hitte, verbruik) of de PCI-e snelheid die gaat limiteren omdat je maar 1 slot gebruikt of door ruimtegebrek op de kaart.

Dus een dual gpu zal eigenlijk altijd onder deze schaling zitten en daarmee nog stuk goedkoper moeten zijn.

[Reactie gewijzigd door Xanaroth op 9 januari 2012 10:26]

Met de koeler die XFX er nu op heeft zitten lijkt het wel mogelijk om bijna 2 volwaardige kaarten op 1 PCB te zetten. Ook de limieten van de interface zullen wel meevallen met PCI-e 3.0, dat heeft lijkt me voldoende capaciteit.
Ja, het breidt de maximale capaciteit uit. Als je een mATX bord hebt dan kan je alsnog 2 GPU's gebruiken in plaats van 1. Ook opstellingen met 8 GPU's worden dan mogelijk (Yay!). Schaling is alleen maar mooi, maar ik denk dat de prijs voor de 7990 ook wel flink omhoog gaat dan gezien de prestaties die je ervoor krijgt.

Daarnaast wordt de 7990 ook nog minder hoog geklokt dus positioneerd hij zich als een opstelling die tussen een CF 7950 en een CF 7970 in zit. Op een PCB :)

Voor mensen die echt meer prestaties willen kijken die eerder naar een CF setup, maar die is natuurlijk ook dik 2x zo duur (voeding ook meenemen). Wil je wel meer prestaties dan zou je dus een dual GPU kunnen nemen die lager geklokt is en een minder zware voeding.
Ik hoop toch dat de fanprofielen van Asus nog een update krijgen. Een poging om de kaart onder de 70 graden te houden is echt absurd. Zo'n kaart kan best 80 graden worden zonder daarbij een stofzuiger als koeling nodig te hebben. De stockkoeler is wel lekker stil in idle in ieder geval. :)

Wat een hoog verbruik in-game trouwens...
wat je hier ziet aan het crossfire verhaal is dan ook wel dat amd de drivers ook goed voorelkaar heeft. ben al wel benieuwd of de 7990 in crossfire ook zo'n goede prestatie winst geeft. amd heeft nu weer een goede gpu gebakken maar de rest van het pcb+koeler lijkt me wel minder als de xfx zo makkelijk klokt en dan koel weet te blijven.

er komen vast nog wel betere ontwerpen uit, daar is het dan ook nog even op wachten.
Een HD 7970 met een betere stroomvoorziening, en betere koeling, zal mogelijk wel in staat zijn om dergelijk hoge kloksnelheden te halen.
Ik snap niet waarom de gebruikte voeding (750w) niet toereikend zou zijn? Iemand daar een verklaring voor?

[Reactie gewijzigd door DylanE op 9 januari 2012 08:48]

ze bedoelen vooral dat de kaart er niet op gemaakt is. als er custom pcb hd7970's uitkomen zullen de onderdelen ook (bij sommigen) van betere kwaliteit zijn en dus beter om kunnen gaan met hogere voltages en "currents" (:P)

Op dit item kan niet meer gereageerd worden.