Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 97, views: 29.593 •

AMD heeft de HD 7970 ge´ntroduceerd. De videokaart is voorzien van de Tahiti-gpu, die gebruikmaakt van een nieuwe architectuur. Alle specificaties zijn al uitgelekt, maar op 22 december zullen ook de eerste reviews online verschijnen.

AMD was eerst van plan om de HD 7900-serie op 9 januari, tijdens de CES, te introduceren, maar op 16 december werd de introductie van de HD 7970 vervroegd naar 22 december. De HD 7970 is AMD's nieuwe vlaggenschip en zal voorlopig de snelste gpu aan boord hebben, waar de GF110-gpu van Nvidia op de GTX 580 zich tot voor kort nog de snelste gpu mocht noemen.

De HD 7970 heeft de Tahiti-gpu aan boord, die over maar liefst 2048 stream processors beschikt, elk met een kloksnelheid van 925MHz. Dat is goed voor maar liefst 3,79Tflops aan rekenkracht. De gpu staat middels een 384bit-geheugenbus in verbinding met 3GB gddr5-geheugen, dat een kloksnelheid heeft van 5,5GHz. Daarmee heeft AMD's high-end gpu voor het eerst weer een 384bit-geheugenbus, sinds de 2900XT, die meer dan vier jaar oud is en, ter vergelijking, over 320 streamprocessors beschikte.

HD 7970

Behalve de ruim hogere specificaties van de Tahiti-gpu ten opzichte van de HD 6970, werd ook de architectuur aardig op de schop genomen. AMD stapte af van de vliw4-architectuur, waarbij alle streamprocessors, die per 4 gegroepeerd waren, dezelfde berekening moesten uitvoeren. Als dat niet mogelijk was, bleven een of meer streamprocessors onbenut. Met de nieuwe architectuur kan elke streamprocessor onafhankelijk van de andere sp's een berekening uitvoeren. Daarmee zou de efficiëntie hoger komen te liggen.

Volgens AMD's eigen documentatie zou de HD 7970 tussen de 30 en 60 procent sneller zijn dan de GTX 580 van Nvidia. De Tahiti-gpu heeft daarvoor 4,31 miljard transistors aan boord, ruim meer dan de 3 miljard van Nvidia GF110-gpu. Ondanks de grote hoeveelheid transistors meet de chip slechts rond de 365mm². De videokaart zou verder maximaal 250W verbruiken. Dat kan toenemen als de gpu overgeklokt wordt; volgens AMD zijn kloksnelheden van 1100 tot 1200MHz haalbaar.

De HD 7970 wordt vandaag enkel geïntroduceerd. De videokaart zal pas rond 9 januari in de winkels te vinden zijn, voor een adviesprijs van 550 dollar. Hoe zich dat naar euro's vertaalt, is nog onduidelijk. Rond die tijd wordt ook de HD 7950 verwacht, het kleinere broertje van de HD 7970.

AMD Radeon HD 7970

Reacties (97)

Ik zal vannacht even een lijst met reviews bijhouden op 't forum....
http://gathering.tweakers...message/37370059#37370059

Reviews:Crossfire reviews:PCI-E 2.0 vs PCI-E 3.0@ Marc, zelf geen kaart kunnen krijgen?

[Reactie gewijzigd door Vipeax op 22 december 2011 09:21]

Op tweakers reviewen ze liever xbox spelletjes ;-)
Daar heeft het niet zo veel mee te maken :) AMD wil ons ondanks meerdere beloftes blijkbaar niet op tijd samples sturen. Waarom dat is is ons een raadsel, zeker als zo ongeveer de hele rest van de wereld wel een sample krijgt.
Bij CPU's hebben we dit probleem niet, dus wij begrijpen het ook niet.

[Reactie gewijzigd door Daniel op 22 december 2011 12:02]

Waarschijnlijk omdat er nogal wat insider leaks zijn in de GOT draadjes aangaande nieuwe (AMD) gpu's.......

Beetje kinderachtig van AMD.
Nee NDA en dat is vertrouwen kwestie als je daar niet aan houd.
En vooral interresant wil doen ten koste van, tja terrecht.
Als dat de reden mocht zijn.
PCI-E 2.0 vs PCI-E 3.0
•http://img.clubic.com/048...d-radeon-hd-7970-pcie.jpg
Ben blij om te zien dat het verschil in performance nihil is. Scheelt een heleboel gamers weer flink wat duiten denk ik.

Thanks voor de opsomming! Leuk wakker worden zo... met een bakkie de reviews doorstruinen
Mjah, en zelfs als je helemaal PCIe 3.0 uitgerust ben, mobo, cpu en deze kaart, zal je nog even moeten wachten op Windows 8....(en dan maar afwachten wat dan eventueel opleverd)

PCI Express 3.0
Data is fed into and from the GPU through PCI Express, of course, and AMD’s Radeon HD 7970 is the first graphics card to boast compatibility with the third-gen standard. Frankly, today’s desktop software cannot seem to saturate PCI Express 2.0 slots, even when they’re halved into eight-lane links. So, we doubt we’ll see any performance increase from the interface currently only supported by Intel’s Core i7-3000-series processors. However, AMD hints that the 16 GB/s of bidirectional bandwidth may help compute applications in some cases. Again, though, vendors aren’t even ready to show off the applications they demonstrated at the Radeon HD 7970 briefing, and we weren’t given enough time to test the effects of third-gen PCI Express ahead of today’s embargo anyway.


Ze hebben diep moeten graven om iets te vinden wat er winst uitput:

Even among our limited selection compute benchmarks we found something that directly benefitted from PCIe 3.0. AESEncryptDecrypt, a sample application from AMD’s APP SDK, demonstrates AES encryption performance by running it on square image files. Throwing it a large 8K x 8K image not only creates a lot of work for the GPU, but a lot of PCIe traffic too. In our case simply enabling PCIe 3.0 improved performance by 9%, from 324ms down to 297ms.


Maw: je PCIe 2.0 poortjes kunnen nog wel even mee :-)

[Reactie gewijzigd door Madrox op 22 december 2011 09:37]

Sterker nog, ik denk dat deze kaart helemaal niet PCI 2.0 volledig gebruikt. Zoals je ziet komt PCI 3.0 soms iets hoger, en soms iets lager uit. Volledig willekeurig dus.
Zou ook leuk zijn als ze die CF setup zouden vergelijken met andere setups bij singlescreen resoluties ;) En een OC'de CF setup.
Is bij de concurrent reeds verschenen:

http://nl.hardware.info/r...amd-radeon-hd-7970-review

Doet het erg goed in 3DMark11 Extreme (icm i7 3960X)

HD6990: 3450
HD7970: 2745
GTX580: 2139
HD6970: 1891

Geweldige kaart!

Resultaten zijn exact naar verwachtingen geweest. Kan niet wacht op resultaten van een CF setupje. Ik ben wel benieuwd wat de prijzen gaan doen. Ik vind 300-400 euro een logischere zet dan de advies prijs van 500 euro die hij nu mee krijgt. De HD6990 is 550 euro nieuw en is door zijn leeftijd op menig plekken al voor 350-400 euro tweedehands te krijgen. Dat is in dat geval nog steeds een aantrekkelijkere zet dan 500 euro betalen voor een kaart die iets minder presteert. Die prijzen zullen snel moeten gaan zakken, als in maart de HD7990 komt kan ik me niet voorstellen dat de retail price hoger gaat liggen dan die van de HD6990. In elk geval gaan we weer een mooie tijd tegemoet! Tijd zal de aankomende maanden leren of het wijzer is te gaan voor een HD7990 of HD7970 in crossfire.

[Reactie gewijzigd door Chrono Trigger op 22 december 2011 06:19]

Dat is in dat geval nog steeds een aantrekkelijkere zet dan 500 euro betalen voor een kaart die iets minder presteert.
ik weet niet of je het artikel goed gelezen heb, maar daar staat niet euro.
"voor een adviesprijs van 550 dollar."

dat is op het moment van schrijven omgerekend Ą421,62. there goes your argument.
_______

ik vind het een prachtkaart, toch wel jammer dat die dingen altijd duurder zijn dan ik met mijn gemiddeld maandsalaris als vakkenvuller verdien.
verder, ik zie op het plaatje maar 1 DVI poort staan? vind ik persoonlijk een beetje jammer, omdat naar mijn idee de mainstream monitor vaker een DVI aansluiting heeft dan een DisplayPort.
Ten eerste is het een adviesprijs.

Ten tweede: Je kan niet zomaar door de huidige dollarkoers delen, vanwege belasting, importheffingen etc. Net zoals je niet zomaar kan doen 1 euro = 1 dollar.

De uiteindelijke adviesprijs ligt denk ik tussen deze twee uitersten in, de winkelprijs iets lager.
Dat kan prima. Veel van de webshops gaan (dik) onder de adviesprijs zitten, waardoor het omrekenen van de dollar-advies-prijs naar euro-webshop-prijs vrijwel altijd rond de wisselkoers ligt.
dollar omrekenen, BTW erbij doen. je hoeft niks meer te doen. met deze berekening krijg je gewoon de prijs in nederland give or take een paar euro.
Ja, en de huidige omrekenkoersen die graka makers/importeurs/resellers over t algemeen hanteren is dollar=euro-een beetje, dus die 500 seems realistic.
ik zal niet zeggen "there goes your argument" want dat komt zo vlammerig over, maar het is best wel bekend dat we hier in Europa niet 1 op 1 omrekenkoersen voorgeschoteld krijgen....
AAAAARG kan die euro = dollar mythe nu EINDELIJKE een keer dood gaan!

dat geld voor consoles, een paar apple producten en games op steam AND THAT'S IT!.

voor ALLE ANDERE hardware gewoon dollars in euros omrekenen en de BTW erbij doen.
Fyi, incl importheffingen, btw, koers zal die kaart in eerste instantie nog wel boven de 550 euro uit komen in de pricewatch. 500 euro word de uitgangsprijs in Nederland al zie ik het de eerste maanden wel zakken naar 400.
Ik wacht de 7950 nog wel even af dan, iets aan de prijzige kant zijn grootte broer . Als de 7950 net zo goed presteert in verhouding tot de 7970 / concurrentie denk ik daar ruim voldoende aan te hebben :)

Ze zijn goed bezig bij AMD ! Alleen de naam en serie aanduiding vind ik wat minder. Als ik nu zeg 7950 denk ik toch ook meteen weer aan me oude 7950 GT nvidia kaartje :(

[Reactie gewijzigd door bonus op 22 december 2011 07:55]

1 DVI poort is niet erg opzich, maar waarom altijd die irritante mini-DisplayPort aansluitingen vraag ik me af :? Dan moet je weer met converters kloten ... daar heb ik niet 3 DisplayPort monitoren voor gekocht !!! |:(
Wacht gewoon maar tot bv MSI ofzo een kaartje uitbrengt, is vaak nog wel wat verschil te zien in welke en hoeveel aansluitingen

Meestal wel een 2x DVI, HDMI en een enkele of dubbele mini-displayport

Enne, waarom mini ipv standaards DP: plaatsbesparing. Als ze 2x miniDP kunnen nemen ipv 2 normal-sized DP en daardoor nog een HDMI kunnen blijplakken, zullen ze dat zeker doen. verkoopsargumenten ten top :p

En zo'n convertertje kost toch ook niet zo veel + er zit toch aak al eens eentje erbij in de verpakking?
Oh Crossfire setup *kwijl kwijl* .. oh *semi orgasme* .. .. .. .. Whatever dude.
Geen mens is er ooit beter van geworden alleen maar armer en dat terwijl de beste moeilijkst verslaanbare gamers spelen op vˇˇr oorlogse resoluties.
(Getuige enkele van onze eigen levensgevaarlijke GOT BF3 clan members )
Kortom ga jij even jezelf een fps rad voor de ogen draaien, gaan wij verder met gamen !
Hier is sowieso al een uitgebreide preview te vinden. De kaart belooft veel goeds! Ik vraag me af hoe nVidia hierop zal reageren. :)
Ik heb geen toegang tot die artikel geeft die aan.
In het bericht staat dat de 2900XT over een 384bit-geheugenbus beschikt maar volgens mij heeft die kaart een 512bit-geheugenbus.
Dat klopt, die heeft inderdaad 512-bits. Het was volgens mij de 8800GTX/GTS die 384-bits en 320-bits geheugenbussen introduceerde.
het is wel de eerste keer sinde de 2900XT dat AMD een bus breder dan 256 bits gebruikt.
en de eerste keer dat ze geen power of two breedte geheugenbus gebruiken, maar 256+128.

verder prachtige kaart ook het idle vermogen, kan niet wachten om deze architectuur in notebooks te zien, eindelijk high-end zonder permanent stroomverbruik. (de vraag is of GCN naar de 7 serie notebook gpu's komt maargoed) performance is zoals verwacht a een dieshrink helemaal prima, ben benieuwd wanneer nvidia hier iets tegenin kan en gaat brengen, want volgends de geruchten duurt dat nog wel even.

mooi ding!
Klopt, alleen nVidia gebruikte zo'n grote geheugenbus (de laatste daarvan zit in mijn pc, een GTX 285, met een 512bit geheugenbus). Dit was omdat je dan een grotere bandbreedte had. Op mijn kaart zit dan ook nog geen gddr5 maar nog gddr3, welke door de grotere bandbreedte kwa snelheid dan overeenkwamen.
Het is alweer meer dan 6 jaar geleden dat ik een nieuwe videokaart heb gekocht, maar als ik nu weer kijk naar wat er allemaal beschikbaar is dan schik ik enorm. Niet vanwege de performance kloof, maar het verbruik. Tegenwoordig lijken die dingen enorm veel stroom te vreten. Wonen jullie allemaal thuis, dat dit helemaal geen issue voor jullie is?

Ikzelf moet er dus echt niet aan denken om een moderne videokaart te kopen. Niet alleen ben ik dan 500 ballen lichter, maar ik vrees dat mijn stroomrekening ook met dik 500 euro in het jaar omhoog schiet.

Vroegah kreeg ik al gedonder als ik 1 lamp van 40 watt aan liet staan. BF3 spelen met zo'n kaart is dan volgens mij het equivalent aan 10 a 15 van die gloeilampen aan hebben staan. In mijn ogen is dat echt te gek voor woorden. Of maak ik me druk om niks?
Dat hangt er vanaf hoeveel je gamed van de tijd op je systeem. Je systeem beter uit met deze kaart dan met een low-profile kaartje als je naar idle wattages kijkt.
Dat is juist enorm verbeterd met deze nieuwe generatie, sure, hij gebruikt max. 250 w. bij 100% use, alleen zijn idle is van 18w (6xxxx serie) naar 3 w. gegaan, dus is hij veel zuiniger geworden in de SOHO applicaties, en brult ie alleen maar wanneer daarom gevraagd wordt dmv gamen oid.
die 3W voor idle is geloof ik dat de kaart zich bijna helemaal uitschakeld een soort standby. dit had ik ergens gelezen maar weet zo de bron niet meer. idle in onze ogen is internetten of tekstverwerken maar dan heb je beeld en zal de kaart wel meer verbruiken.
Idle is gewoon normale situatie. HIj schakelt zich niet uit.
Je kan beter kijken naar het idle-verbruik en of je je beeldscherm en/of pc vaker uit kan zetten.
Daar kan ik het eigenlijk alleen maar mee eens zijn. De huidige generatie GPUs is verschrikkelijk snel maar kom op, een extra 8 pin EN 6 pin connector om die dingen van stroom te voorzien?

Er is wel een beetje een kentering te zien. De GTX480 was een dieptepunt en de GTX580 is een heel stuk efficiŰnter. Ook bij AMD is deze kaart beduidend zuiniger (tenminste als hij niets staat te doen wat een flink deel van de tijd het geval zal zijn) dan zijn voorganger.

Ik heb mijn "hoop" echter gevestigd op het feit dat de games van tegenwoordig voornamelijk console ports zijn die veel minder spectaculair zijn qua graphics en de trend om krachtiger IGPs te maken. Kunnen we dit soort snelheidsmonsters gewoon negeren. Je ziet nu al dat voor de meeste games een midrange kaart al prima voldoet. Maar zuinige en krachtige computers zullen nog wel wat jaren op zich laten wachten.
Nee hoor, want als volgend jaar de nieuwe consoles uitkomen zul je zien dat ook PC games een enorme sprong qua graphics en benodigde specs zullen maken.
Die stroomconnectors zijn er om te voorkomen dat cheapo voedingen niet doorbranden omdat ze het vermogen niet over 1 kanaal kunnen leveren.

Sommige gamers zijn nou eenmaal geen tweakers.. ;)
komop zeg, "wonen jullie allemaal thuis""

Nee, wij wonen op woonruimte die we goed kunnen betalen en daarnaast genoeg overhouden voor leuke dingen.

Als het stroomverbruik van een videokaart voor jou een no go kan betekenen, dan zou ik eens serieus je vaste lasten overwegen.

on topic:
wat een vette videokaart, leuke verbetering, ben voornamelijk geinteresseerd in de 7950
Laten we even extreem doen en zeggen dat een kaart 200 watt verbruikt, dat is dus 73 KWh per jaar bij 1 uur per dag, dus dat is (laten we 22 ct per KWh aanhouden) 16,06 euro per jaar bij 1 uur per dag, makkelijk te vermenigvuldigen afhankelijk van hoeveel je gemiddeld per dag games speelt.

En moderne kaarten gaan terug naar een <20 Watt verbruik als de GPU niet belast is, dus dat telt veel minder mee.

Ik denk dat de mensen die 500 euro uitgeven aan een GPU dat bedrag wel kunnen betalen.
Het maximale verbruikt welke aangegeven wordt door de fabrikant wordt nooit behaald.
Tevens is stroom relatief goedkoop en het gaat je echt geen honderd euro meer kosten per jaar. (ivm een oudere pc)

Ik zie in vele van de reviews dat het COMPLETE systeem (core i7 ect + HD7970) in full load 400 Watt uit de muur haalt.
Erg netjes!

Stel je gamed 4 uur ELKE dag van de maand.
Dat gaat je dan kosten: 10.56 euro, oftewel peanuts.

Berekening:

1kwh = 0.22 euro
4 uur gamen = 1.6 kwh
30 dagen x 1.6 kwh = 48
48 x 0.22 = 10.56

Dat is dan de theorie, indien je student bent haal je de 4uur per dag misschien wel. Ben je full time aan het werk en heb je andere verplichtingen haal je die 4uur per dag waarschijnlijk niet. ( die haal je in het weekend misschien weer in ;) )

Anyway, komt er opneer dat je dus helemaal niet veel geld kwijt bent voor een high-end pc qua stroom verbruik.
Bij een beetje vakantie baan verdien je wel 10eu per uur. voor 1 dagje werk kun je dus bijna het hele jaar gamen ;)
Het hele jaar niet, maar op jaar basis ben je 60 euro kwijt als je gek doet, ik neem aan dat je overdag studeert of werkt in dit geval.

Wij hebben thuis (ouders) een jacuzzi en die vreet 5 euro per dag als ie aan staat dat is pas groot verbruik :P

[Reactie gewijzigd door A87 op 22 december 2011 12:51]

Ik roep het al jaren en word alleen maar gedownmod ..
Veel van deze schreeuwlelijk "Ik ga em kopen" tweakers hebben slechts een bijbaantje, hoeven dus amper iets te bekostigen dan hun hobby omdat ze nog lekker thuis wonen bij paps en mams en daarom blijken ze in bijna alle gevallen niet te beseffen hoe "prettig" het is dat pappie de stroomrekening betaald.
Want woon je eenmaal op jezelf en moet je fucking alles zelf betalen dan is de aanschaf van zo'n kaart niet alleen iets waar je serieus rekening mee houdt, maar is ook het verbruik van je totale systeem INCL. je videokaart een real issue !
Als je 500 euro over hebt voor een videokaart kun je ook echt wel het geld ophoesten voor het extra verbruik; zo niet, dan liggen je prioriteiten verkeerd. Ik ben het ook met je eens; ik vind het verbruik gortig, maar om daar bij een high-end kaart over te zeuren gaat wat ver. Die dingen zijn immers gemaakt voor pure performance en niet voor performance per watt :).

Ontopic:

Een aantal reviews gelezen en damn, dat ding is snel. Als de rest van de 7xxx reeks een zelfde prestatiewinst laat zien (zo'n +30%) is AMD erg lekker bezig.
Vooralsnog niet echt indrukwekkend. Grootste verschil zie je in dat Anno 1404, een DX10 spel, maar voor de rest scheelt het maar een paar freempjes.

Bovendien ben ik het hier sowieso niet mee eens want je vergelijkt nu twee verschillende generaties kaarten. Je moet dus wachten op de GTX680 en dan vergelijken.

En tijdbestek, van wanneer iets uitkomt, is geen reden. Niemand zit op een schopstoel en er is geen dead-line o.i.d.
Nou ja, toen de HD5870 uit kwam duurde het (even uit mijn hoofd) meer dan een half jaar voordat de GTX480 er was. Iedereen die in die periode een kaart koopt vergelijkt gewoon wat er dan op de markt is. Als het nou ÚÚn of twee maanden verschil is, okÚ.

En als tijdsbestek geen probleem is, dan kan je deze kaart dus ook waardeloos noemen als je het vergelijkt met de GTX880 of zo... Dat slaat natuurlijk nergens op. Mensen willen soms gewoon iets nieuws en willen niet zomaar een half jaar extra wachten. Zeker niet als je echt aan een upgrade toe bent.
Het gaat puur om het technisch vergelijken, niet prijs of beschikbaarheid.

Je kan toch niet een next-gen processor op 28nm met nieuwe technologie vergelijken met een oude 40nm processor met oude technologie? Dat is appels en peren.

Dus met het geschreeuw van "Yeeaaahh, hij is sneller dan de 580!" zal ik het nooit eens zijn.
Nee, dat is een oude appel met een nieuwe, verse , sappige appel vergelijken :9~
Fluister het dan maar, zachtjes: De rode appel is sneller dan de groene peer, eh appel :>

Zal zo even mijn HD7970 Crosfire resultaten posten O-)

[Reactie gewijzigd door Madrox op 22 december 2011 11:02]

Het zijn beide videokaarten, en je koopt ze beide voor hetzelfde doel, en ze liggen ook nog eens in elkaars prijs segment. Prima vergelijkbaar voor mij dus.
Tja, moet je het dan wel eens zijn met "pfff hij is amper sneller dan een 580" terwijl nvidia een relatief veel groter transitorbudget gebruikt. :?

In jouw visie kan een valide vergelijking alleen als ze en op dezelfde node zitten en als we die grootte vergelijken/extrapoleren. Vraag me af of dat perse positief uitpakt voor nvidia.

Het enige waarin ik nvidia meestal overtuigend beter vind, en dat is een heel belangrijk iets, is hun driverkwaliteit bij nieuwe AAA games.

Verder zorgt de verschillende aanpak van AMD en nVidia er imho voor dat er voor ieder wat wils is.
Oh en wanneer ben je ECHT toe aan iets nieuws ... als je een half jaartje gewacht hebt ?!
Man een videokaart (tenzij je een early adapter bent zonder verder leven) kan gerust 1 ß 2 jaar mee.
Dus wtf geen half jaartje langer kunnen wachten ?!
Ik peins er niet over om mijn MSI 460 Hawk in te ruilen voor een 560 laat staan de next gen.
Pas als ik op 1600x1200 (CRT) een game niet meer vloeiend kan spelen op high wil ik misschien MISSCHIEN mezelf over laten halen door reviews en benchmarks ..
EN NIET EERDER.
Don't believe the hype(s) people !!!!
nu nog een Nvidia GTX590 voor 299 euro :+
Jeey..die OC resultaten zijn gewoon sick! Oc-ed kan hij competen met de 6990 :)
( de OC score van legit reviews, 1125 mhz core. Niet allemaal halen ze zo'n OC zie ik nu)

Maar eigenlijk vind ik het idle gebruik gewoon het meest mooie aan de ze kaart.
Eindelijk geen hoog (of zelfs hoger) idle gebruik meer als je zo'n kaart als deze hebt.

Lower idle power graph: anandtech

OC performance @ legitreviews Waar ze ook een P9750 score halen in 3mark11

En nu stop ik met lezen, de crosfire performance in BF3.....:
Battlefield3 crossfire @ 5760x1080

[Reactie gewijzigd door DaOverclocker op 22 december 2011 08:16]

Nouja je moet wel toegeven dat AMD qua High resolution gaming wel een beetje voorloopt op nVidia.
1 kaart nodig voor eyefinity, die al goed presteerd, en ook nog eens op 1 resolutie die nVidia op 1 kaart niet kan halen (590GTX telt niet, zijn 2 kaarten).

Ik kan me trouwens niet voorstellen dat bijna iedereen speelt op 1024 of 1280, grotendeels speelt tegenwoording op 1920x1080 of hoger.

Ik heb zelf een 6990 met 5760x1080 en moet wel zeggen dat ik erg onder de indruk ben dat AMD een singel gpu kaart maakt ie de 6990 ver kan bijhouden.
Mooie kaart en de cijfers liegen er niet om, ben erg benieuwd wat deze kaart gaat doen in CF.. Zal me eens verdiepen in wat van de reviews uit de eerste post :)
Ik kan me nog herinneren dat men met de 3 miljard transistoren van de GTX480 flink schrok. Nu zitten we bij de rode kant van de GPU wereld al op 4,3 miljard.
De GTX480 had ook ▒250W verbruik. Onder volle load bleek die richting de 400W te gaan. Mogen we dat hier ook verwachten?
De videokaart zou verder maximaal 250W verbruiken. Dat kan toenemen als de gpu overgeklokt wordt: volgens AMD zouden kloksnelheden van 1100 tot 1200MHz haalbaar zijn.
Het stroomverbruik is dus onwijs goed voor een high-end kaart.

[Reactie gewijzigd door SuperNull op 22 december 2011 08:51]

Onwijs goed zou ik niet willen zeggen, indien je het vergelijkt met bijv. de HD6970. Maar ik moet zeggen dat AMD het netjes doet. Ze zitten wat stroomverbruik onder de de HD6970 en gaan zo telkens nog een stapje omlaag qua energieverbruik. Dus iedere serie weer (een stuk) meer performance met iets minder energieverbruik, voor een zelfde type kaart (als in HD X970).

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSalaris

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste website van het jaar 2014