Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties, 29.655 views •

AMD heeft de HD 7970 ge´ntroduceerd. De videokaart is voorzien van de Tahiti-gpu, die gebruikmaakt van een nieuwe architectuur. Alle specificaties zijn al uitgelekt, maar op 22 december zullen ook de eerste reviews online verschijnen.

AMD was eerst van plan om de HD 7900-serie op 9 januari, tijdens de CES, te introduceren, maar op 16 december werd de introductie van de HD 7970 vervroegd naar 22 december. De HD 7970 is AMD's nieuwe vlaggenschip en zal voorlopig de snelste gpu aan boord hebben, waar de GF110-gpu van Nvidia op de GTX 580 zich tot voor kort nog de snelste gpu mocht noemen.

De HD 7970 heeft de Tahiti-gpu aan boord, die over maar liefst 2048 stream processors beschikt, elk met een kloksnelheid van 925MHz. Dat is goed voor maar liefst 3,79Tflops aan rekenkracht. De gpu staat middels een 384bit-geheugenbus in verbinding met 3GB gddr5-geheugen, dat een kloksnelheid heeft van 5,5GHz. Daarmee heeft AMD's high-end gpu voor het eerst weer een 384bit-geheugenbus, sinds de 2900XT, die meer dan vier jaar oud is en, ter vergelijking, over 320 streamprocessors beschikte.

HD 7970

Behalve de ruim hogere specificaties van de Tahiti-gpu ten opzichte van de HD 6970, werd ook de architectuur aardig op de schop genomen. AMD stapte af van de vliw4-architectuur, waarbij alle streamprocessors, die per 4 gegroepeerd waren, dezelfde berekening moesten uitvoeren. Als dat niet mogelijk was, bleven een of meer streamprocessors onbenut. Met de nieuwe architectuur kan elke streamprocessor onafhankelijk van de andere sp's een berekening uitvoeren. Daarmee zou de efficiëntie hoger komen te liggen.

Volgens AMD's eigen documentatie zou de HD 7970 tussen de 30 en 60 procent sneller zijn dan de GTX 580 van Nvidia. De Tahiti-gpu heeft daarvoor 4,31 miljard transistors aan boord, ruim meer dan de 3 miljard van Nvidia GF110-gpu. Ondanks de grote hoeveelheid transistors meet de chip slechts rond de 365mm². De videokaart zou verder maximaal 250W verbruiken. Dat kan toenemen als de gpu overgeklokt wordt; volgens AMD zijn kloksnelheden van 1100 tot 1200MHz haalbaar.

De HD 7970 wordt vandaag enkel geïntroduceerd. De videokaart zal pas rond 9 januari in de winkels te vinden zijn, voor een adviesprijs van 550 dollar. Hoe zich dat naar euro's vertaalt, is nog onduidelijk. Rond die tijd wordt ook de HD 7950 verwacht, het kleinere broertje van de HD 7970.

AMD Radeon HD 7970

Reacties (97)

Reactiefilter:-197092+163+25+31
Moderatie-faq Wijzig weergave
Ik zal vannacht even een lijst met reviews bijhouden op 't forum....
http://gathering.tweakers...message/37370059#37370059

Reviews:Crossfire reviews:PCI-E 2.0 vs PCI-E 3.0@ Marc, zelf geen kaart kunnen krijgen?

[Reactie gewijzigd door Vipeax op 22 december 2011 09:21]

PCI-E 2.0 vs PCI-E 3.0
•http://img.clubic.com/048...d-radeon-hd-7970-pcie.jpg
Ben blij om te zien dat het verschil in performance nihil is. Scheelt een heleboel gamers weer flink wat duiten denk ik.

Thanks voor de opsomming! Leuk wakker worden zo... met een bakkie de reviews doorstruinen
Mjah, en zelfs als je helemaal PCIe 3.0 uitgerust ben, mobo, cpu en deze kaart, zal je nog even moeten wachten op Windows 8....(en dan maar afwachten wat dan eventueel opleverd)

PCI Express 3.0
Data is fed into and from the GPU through PCI Express, of course, and AMD’s Radeon HD 7970 is the first graphics card to boast compatibility with the third-gen standard. Frankly, today’s desktop software cannot seem to saturate PCI Express 2.0 slots, even when they’re halved into eight-lane links. So, we doubt we’ll see any performance increase from the interface currently only supported by Intel’s Core i7-3000-series processors. However, AMD hints that the 16 GB/s of bidirectional bandwidth may help compute applications in some cases. Again, though, vendors aren’t even ready to show off the applications they demonstrated at the Radeon HD 7970 briefing, and we weren’t given enough time to test the effects of third-gen PCI Express ahead of today’s embargo anyway.


Ze hebben diep moeten graven om iets te vinden wat er winst uitput:

Even among our limited selection compute benchmarks we found something that directly benefitted from PCIe 3.0. AESEncryptDecrypt, a sample application from AMD’s APP SDK, demonstrates AES encryption performance by running it on square image files. Throwing it a large 8K x 8K image not only creates a lot of work for the GPU, but a lot of PCIe traffic too. In our case simply enabling PCIe 3.0 improved performance by 9%, from 324ms down to 297ms.


Maw: je PCIe 2.0 poortjes kunnen nog wel even mee :-)

[Reactie gewijzigd door Madrox op 22 december 2011 09:37]

Sterker nog, ik denk dat deze kaart helemaal niet PCI 2.0 volledig gebruikt. Zoals je ziet komt PCI 3.0 soms iets hoger, en soms iets lager uit. Volledig willekeurig dus.
Zou ook leuk zijn als ze die CF setup zouden vergelijken met andere setups bij singlescreen resoluties ;) En een OC'de CF setup.
Op tweakers reviewen ze liever xbox spelletjes ;-)
Daar heeft het niet zo veel mee te maken :) AMD wil ons ondanks meerdere beloftes blijkbaar niet op tijd samples sturen. Waarom dat is is ons een raadsel, zeker als zo ongeveer de hele rest van de wereld wel een sample krijgt.
Bij CPU's hebben we dit probleem niet, dus wij begrijpen het ook niet.

[Reactie gewijzigd door Daniel op 22 december 2011 12:02]

Waarschijnlijk omdat er nogal wat insider leaks zijn in de GOT draadjes aangaande nieuwe (AMD) gpu's.......

Beetje kinderachtig van AMD.
Nee NDA en dat is vertrouwen kwestie als je daar niet aan houd.
En vooral interresant wil doen ten koste van, tja terrecht.
Als dat de reden mocht zijn.
Het is alweer meer dan 6 jaar geleden dat ik een nieuwe videokaart heb gekocht, maar als ik nu weer kijk naar wat er allemaal beschikbaar is dan schik ik enorm. Niet vanwege de performance kloof, maar het verbruik. Tegenwoordig lijken die dingen enorm veel stroom te vreten. Wonen jullie allemaal thuis, dat dit helemaal geen issue voor jullie is?

Ikzelf moet er dus echt niet aan denken om een moderne videokaart te kopen. Niet alleen ben ik dan 500 ballen lichter, maar ik vrees dat mijn stroomrekening ook met dik 500 euro in het jaar omhoog schiet.

Vroegah kreeg ik al gedonder als ik 1 lamp van 40 watt aan liet staan. BF3 spelen met zo'n kaart is dan volgens mij het equivalent aan 10 a 15 van die gloeilampen aan hebben staan. In mijn ogen is dat echt te gek voor woorden. Of maak ik me druk om niks?
Het maximale verbruikt welke aangegeven wordt door de fabrikant wordt nooit behaald.
Tevens is stroom relatief goedkoop en het gaat je echt geen honderd euro meer kosten per jaar. (ivm een oudere pc)

Ik zie in vele van de reviews dat het COMPLETE systeem (core i7 ect + HD7970) in full load 400 Watt uit de muur haalt.
Erg netjes!

Stel je gamed 4 uur ELKE dag van de maand.
Dat gaat je dan kosten: 10.56 euro, oftewel peanuts.

Berekening:

1kwh = 0.22 euro
4 uur gamen = 1.6 kwh
30 dagen x 1.6 kwh = 48
48 x 0.22 = 10.56

Dat is dan de theorie, indien je student bent haal je de 4uur per dag misschien wel. Ben je full time aan het werk en heb je andere verplichtingen haal je die 4uur per dag waarschijnlijk niet. ( die haal je in het weekend misschien weer in ;) )

Anyway, komt er opneer dat je dus helemaal niet veel geld kwijt bent voor een high-end pc qua stroom verbruik.
Bij een beetje vakantie baan verdien je wel 10eu per uur. voor 1 dagje werk kun je dus bijna het hele jaar gamen ;)
Het hele jaar niet, maar op jaar basis ben je 60 euro kwijt als je gek doet, ik neem aan dat je overdag studeert of werkt in dit geval.

Wij hebben thuis (ouders) een jacuzzi en die vreet 5 euro per dag als ie aan staat dat is pas groot verbruik :P

[Reactie gewijzigd door A87 op 22 december 2011 12:51]

Dat is juist enorm verbeterd met deze nieuwe generatie, sure, hij gebruikt max. 250 w. bij 100% use, alleen zijn idle is van 18w (6xxxx serie) naar 3 w. gegaan, dus is hij veel zuiniger geworden in de SOHO applicaties, en brult ie alleen maar wanneer daarom gevraagd wordt dmv gamen oid.
die 3W voor idle is geloof ik dat de kaart zich bijna helemaal uitschakeld een soort standby. dit had ik ergens gelezen maar weet zo de bron niet meer. idle in onze ogen is internetten of tekstverwerken maar dan heb je beeld en zal de kaart wel meer verbruiken.
Idle is gewoon normale situatie. HIj schakelt zich niet uit.
Daar kan ik het eigenlijk alleen maar mee eens zijn. De huidige generatie GPUs is verschrikkelijk snel maar kom op, een extra 8 pin EN 6 pin connector om die dingen van stroom te voorzien?

Er is wel een beetje een kentering te zien. De GTX480 was een dieptepunt en de GTX580 is een heel stuk efficiŰnter. Ook bij AMD is deze kaart beduidend zuiniger (tenminste als hij niets staat te doen wat een flink deel van de tijd het geval zal zijn) dan zijn voorganger.

Ik heb mijn "hoop" echter gevestigd op het feit dat de games van tegenwoordig voornamelijk console ports zijn die veel minder spectaculair zijn qua graphics en de trend om krachtiger IGPs te maken. Kunnen we dit soort snelheidsmonsters gewoon negeren. Je ziet nu al dat voor de meeste games een midrange kaart al prima voldoet. Maar zuinige en krachtige computers zullen nog wel wat jaren op zich laten wachten.
Die stroomconnectors zijn er om te voorkomen dat cheapo voedingen niet doorbranden omdat ze het vermogen niet over 1 kanaal kunnen leveren.

Sommige gamers zijn nou eenmaal geen tweakers.. ;)
Nee hoor, want als volgend jaar de nieuwe consoles uitkomen zul je zien dat ook PC games een enorme sprong qua graphics en benodigde specs zullen maken.
Dat hangt er vanaf hoeveel je gamed van de tijd op je systeem. Je systeem beter uit met deze kaart dan met een low-profile kaartje als je naar idle wattages kijkt.
Je kan beter kijken naar het idle-verbruik en of je je beeldscherm en/of pc vaker uit kan zetten.
Laten we even extreem doen en zeggen dat een kaart 200 watt verbruikt, dat is dus 73 KWh per jaar bij 1 uur per dag, dus dat is (laten we 22 ct per KWh aanhouden) 16,06 euro per jaar bij 1 uur per dag, makkelijk te vermenigvuldigen afhankelijk van hoeveel je gemiddeld per dag games speelt.

En moderne kaarten gaan terug naar een <20 Watt verbruik als de GPU niet belast is, dus dat telt veel minder mee.

Ik denk dat de mensen die 500 euro uitgeven aan een GPU dat bedrag wel kunnen betalen.
Ik roep het al jaren en word alleen maar gedownmod ..
Veel van deze schreeuwlelijk "Ik ga em kopen" tweakers hebben slechts een bijbaantje, hoeven dus amper iets te bekostigen dan hun hobby omdat ze nog lekker thuis wonen bij paps en mams en daarom blijken ze in bijna alle gevallen niet te beseffen hoe "prettig" het is dat pappie de stroomrekening betaald.
Want woon je eenmaal op jezelf en moet je fucking alles zelf betalen dan is de aanschaf van zo'n kaart niet alleen iets waar je serieus rekening mee houdt, maar is ook het verbruik van je totale systeem INCL. je videokaart een real issue !
Als je 500 euro over hebt voor een videokaart kun je ook echt wel het geld ophoesten voor het extra verbruik; zo niet, dan liggen je prioriteiten verkeerd. Ik ben het ook met je eens; ik vind het verbruik gortig, maar om daar bij een high-end kaart over te zeuren gaat wat ver. Die dingen zijn immers gemaakt voor pure performance en niet voor performance per watt :).

Ontopic:

Een aantal reviews gelezen en damn, dat ding is snel. Als de rest van de 7xxx reeks een zelfde prestatiewinst laat zien (zo'n +30%) is AMD erg lekker bezig.
komop zeg, "wonen jullie allemaal thuis""

Nee, wij wonen op woonruimte die we goed kunnen betalen en daarnaast genoeg overhouden voor leuke dingen.

Als het stroomverbruik van een videokaart voor jou een no go kan betekenen, dan zou ik eens serieus je vaste lasten overwegen.

on topic:
wat een vette videokaart, leuke verbetering, ben voornamelijk geinteresseerd in de 7950
Is bij de concurrent reeds verschenen:

http://nl.hardware.info/r...amd-radeon-hd-7970-review

Doet het erg goed in 3DMark11 Extreme (icm i7 3960X)

HD6990: 3450
HD7970: 2745
GTX580: 2139
HD6970: 1891

Geweldige kaart!

Resultaten zijn exact naar verwachtingen geweest. Kan niet wacht op resultaten van een CF setupje. Ik ben wel benieuwd wat de prijzen gaan doen. Ik vind 300-400 euro een logischere zet dan de advies prijs van 500 euro die hij nu mee krijgt. De HD6990 is 550 euro nieuw en is door zijn leeftijd op menig plekken al voor 350-400 euro tweedehands te krijgen. Dat is in dat geval nog steeds een aantrekkelijkere zet dan 500 euro betalen voor een kaart die iets minder presteert. Die prijzen zullen snel moeten gaan zakken, als in maart de HD7990 komt kan ik me niet voorstellen dat de retail price hoger gaat liggen dan die van de HD6990. In elk geval gaan we weer een mooie tijd tegemoet! Tijd zal de aankomende maanden leren of het wijzer is te gaan voor een HD7990 of HD7970 in crossfire.

[Reactie gewijzigd door Chrono Trigger op 22 december 2011 06:19]

Dat is in dat geval nog steeds een aantrekkelijkere zet dan 500 euro betalen voor een kaart die iets minder presteert.
ik weet niet of je het artikel goed gelezen heb, maar daar staat niet euro.
"voor een adviesprijs van 550 dollar."

dat is op het moment van schrijven omgerekend Ą421,62. there goes your argument.
_______

ik vind het een prachtkaart, toch wel jammer dat die dingen altijd duurder zijn dan ik met mijn gemiddeld maandsalaris als vakkenvuller verdien.
verder, ik zie op het plaatje maar 1 DVI poort staan? vind ik persoonlijk een beetje jammer, omdat naar mijn idee de mainstream monitor vaker een DVI aansluiting heeft dan een DisplayPort.
Ten eerste is het een adviesprijs.

Ten tweede: Je kan niet zomaar door de huidige dollarkoers delen, vanwege belasting, importheffingen etc. Net zoals je niet zomaar kan doen 1 euro = 1 dollar.

De uiteindelijke adviesprijs ligt denk ik tussen deze twee uitersten in, de winkelprijs iets lager.
Dat kan prima. Veel van de webshops gaan (dik) onder de adviesprijs zitten, waardoor het omrekenen van de dollar-advies-prijs naar euro-webshop-prijs vrijwel altijd rond de wisselkoers ligt.
dollar omrekenen, BTW erbij doen. je hoeft niks meer te doen. met deze berekening krijg je gewoon de prijs in nederland give or take een paar euro.
Ja, en de huidige omrekenkoersen die graka makers/importeurs/resellers over t algemeen hanteren is dollar=euro-een beetje, dus die 500 seems realistic.
ik zal niet zeggen "there goes your argument" want dat komt zo vlammerig over, maar het is best wel bekend dat we hier in Europa niet 1 op 1 omrekenkoersen voorgeschoteld krijgen....
AAAAARG kan die euro = dollar mythe nu EINDELIJKE een keer dood gaan!

dat geld voor consoles, een paar apple producten en games op steam AND THAT'S IT!.

voor ALLE ANDERE hardware gewoon dollars in euros omrekenen en de BTW erbij doen.
Fyi, incl importheffingen, btw, koers zal die kaart in eerste instantie nog wel boven de 550 euro uit komen in de pricewatch. 500 euro word de uitgangsprijs in Nederland al zie ik het de eerste maanden wel zakken naar 400.
Ik wacht de 7950 nog wel even af dan, iets aan de prijzige kant zijn grootte broer . Als de 7950 net zo goed presteert in verhouding tot de 7970 / concurrentie denk ik daar ruim voldoende aan te hebben :)

Ze zijn goed bezig bij AMD ! Alleen de naam en serie aanduiding vind ik wat minder. Als ik nu zeg 7950 denk ik toch ook meteen weer aan me oude 7950 GT nvidia kaartje :(

[Reactie gewijzigd door bonus op 22 december 2011 07:55]

1 DVI poort is niet erg opzich, maar waarom altijd die irritante mini-DisplayPort aansluitingen vraag ik me af :? Dan moet je weer met converters kloten ... daar heb ik niet 3 DisplayPort monitoren voor gekocht !!! |:(
Wacht gewoon maar tot bv MSI ofzo een kaartje uitbrengt, is vaak nog wel wat verschil te zien in welke en hoeveel aansluitingen

Meestal wel een 2x DVI, HDMI en een enkele of dubbele mini-displayport

Enne, waarom mini ipv standaards DP: plaatsbesparing. Als ze 2x miniDP kunnen nemen ipv 2 normal-sized DP en daardoor nog een HDMI kunnen blijplakken, zullen ze dat zeker doen. verkoopsargumenten ten top :p

En zo'n convertertje kost toch ook niet zo veel + er zit toch aak al eens eentje erbij in de verpakking?
Oh Crossfire setup *kwijl kwijl* .. oh *semi orgasme* .. .. .. .. Whatever dude.
Geen mens is er ooit beter van geworden alleen maar armer en dat terwijl de beste moeilijkst verslaanbare gamers spelen op vˇˇr oorlogse resoluties.
(Getuige enkele van onze eigen levensgevaarlijke GOT BF3 clan members )
Kortom ga jij even jezelf een fps rad voor de ogen draaien, gaan wij verder met gamen !
Mooie kaarten, vooral de idle power consumption is fantastisch (3W als de monitor uitgaat) en overal verslaat hij de 580.

Het enige wat me een beetje tegenvalt is de resultaten bij battlefield 3, msaa hakt er weer flink in waardoor hij maar ietsje sneller is dan de 580.
Die resultaten met BF3 vallen inderdaad erg tegen in de reviews die ik tot nu heb gezien.
Zou hier nog een aanzienlijke winst te halen zijn waneer er nieuwere drivers beschikbaar zijn?
Ik rock met mijn gtx580 veel hoger frames per seconden dat zo'n beetje al die benchmarks. Ik heb bf3, metro2033 en batman2 naast elkaar neergelegd en ik weet zelf wat ik gemiddeld haal bij deze games doordat ik dat op mijn systeem heb lopen checken. Ik weet niet precies waar het aan ligt, maar ik heb echt mijn twijfels bij deze resultaten. Ik zie dit nieuwe telgje van AMD de toch wat oudere 580 niet echt verslaan met ruime cijfers in die benchmarks. En als ik dan kijk wat ik haal met mijn 580, dan klopt het al helemaal niet. Rara hoe kan dat ;)

[Reactie gewijzigd door Boeteloes op 22 december 2011 15:55]

Zijn verschillende mogelijkheden voor:
  • ze testen misschien in andere levels als jij test
  • andere hardware combinaties
  • jouw settings staan misschien niet helemaal hetzelfde als bij hun, bijvoorbeeld een andere vorm van AA gebruikt ofzo, kijk maar in battlefield, daar heb je MSAA maar ook FXAA. Dat laatste is veel minder belastend voor de grafische kaart.
  • ...
Om echt een 1 op 1 vergelijking te maken met hun zou je exact dezelfde hardware moeten gebruiken en dan ook nog eens zien dat je exact dezelfde situatie kunt nabootsen in de geteste games. Dus door middel van een scripted parcour ofzo dat je aflegt in de game. Zoals bijvoorbeeld de benchmark die je kon doen bij crysis 1, daar legde de camera een vooropgesteld parcour af en kon je mooi zien waar je de minste fps had enzo.

Edit: na gezien te hebben dat je op dit artikel 3x hetzelfde loopt te verkondigen dat jouw gtx580 veel sneller is, is het mij ineens al wat duidelijker geworden.... ;)

[Reactie gewijzigd door glennvho op 22 december 2011 17:35]

Die van mij is ook sneller hoor! Ze mogen AMD niet laten falen op Battlefield imo, toch zijn de prestaties erg zwak.

Dit spel vertegenwoordigd de toekomst! Die oude games kijk ik niet naar.

[Reactie gewijzigd door A87 op 22 december 2011 20:46]

Of je bent een nVidia fan of je GPU is zo hard overclockt en draait op liquid helium, vreemd dat dik 20 websites zeggen dat de 7970 de snelste kaart is en hier 2 mensen zeggen dat het neit zo is.
Jullie zijn dan zeker wel super gespecialiseerd in gpu's ofniet?
Vooralsnog niet echt indrukwekkend. Grootste verschil zie je in dat Anno 1404, een DX10 spel, maar voor de rest scheelt het maar een paar freempjes.

Bovendien ben ik het hier sowieso niet mee eens want je vergelijkt nu twee verschillende generaties kaarten. Je moet dus wachten op de GTX680 en dan vergelijken.

En tijdbestek, van wanneer iets uitkomt, is geen reden. Niemand zit op een schopstoel en er is geen dead-line o.i.d.
Nou ja, toen de HD5870 uit kwam duurde het (even uit mijn hoofd) meer dan een half jaar voordat de GTX480 er was. Iedereen die in die periode een kaart koopt vergelijkt gewoon wat er dan op de markt is. Als het nou ÚÚn of twee maanden verschil is, okÚ.

En als tijdsbestek geen probleem is, dan kan je deze kaart dus ook waardeloos noemen als je het vergelijkt met de GTX880 of zo... Dat slaat natuurlijk nergens op. Mensen willen soms gewoon iets nieuws en willen niet zomaar een half jaar extra wachten. Zeker niet als je echt aan een upgrade toe bent.
Het gaat puur om het technisch vergelijken, niet prijs of beschikbaarheid.

Je kan toch niet een next-gen processor op 28nm met nieuwe technologie vergelijken met een oude 40nm processor met oude technologie? Dat is appels en peren.

Dus met het geschreeuw van "Yeeaaahh, hij is sneller dan de 580!" zal ik het nooit eens zijn.
Nee, dat is een oude appel met een nieuwe, verse , sappige appel vergelijken :9~
Fluister het dan maar, zachtjes: De rode appel is sneller dan de groene peer, eh appel :>

Zal zo even mijn HD7970 Crosfire resultaten posten O-)

[Reactie gewijzigd door Madrox op 22 december 2011 11:02]

Het zijn beide videokaarten, en je koopt ze beide voor hetzelfde doel, en ze liggen ook nog eens in elkaars prijs segment. Prima vergelijkbaar voor mij dus.
Tja, moet je het dan wel eens zijn met "pfff hij is amper sneller dan een 580" terwijl nvidia een relatief veel groter transitorbudget gebruikt. :?

In jouw visie kan een valide vergelijking alleen als ze en op dezelfde node zitten en als we die grootte vergelijken/extrapoleren. Vraag me af of dat perse positief uitpakt voor nvidia.

Het enige waarin ik nvidia meestal overtuigend beter vind, en dat is een heel belangrijk iets, is hun driverkwaliteit bij nieuwe AAA games.

Verder zorgt de verschillende aanpak van AMD en nVidia er imho voor dat er voor ieder wat wils is.
Oh en wanneer ben je ECHT toe aan iets nieuws ... als je een half jaartje gewacht hebt ?!
Man een videokaart (tenzij je een early adapter bent zonder verder leven) kan gerust 1 ß 2 jaar mee.
Dus wtf geen half jaartje langer kunnen wachten ?!
Ik peins er niet over om mijn MSI 460 Hawk in te ruilen voor een 560 laat staan de next gen.
Pas als ik op 1600x1200 (CRT) een game niet meer vloeiend kan spelen op high wil ik misschien MISSCHIEN mezelf over laten halen door reviews en benchmarks ..
EN NIET EERDER.
Don't believe the hype(s) people !!!!
Ik kan me nog herinneren dat men met de 3 miljard transistoren van de GTX480 flink schrok. Nu zitten we bij de rode kant van de GPU wereld al op 4,3 miljard.
De GTX480 had ook ▒250W verbruik. Onder volle load bleek die richting de 400W te gaan. Mogen we dat hier ook verwachten?
De videokaart zou verder maximaal 250W verbruiken. Dat kan toenemen als de gpu overgeklokt wordt: volgens AMD zouden kloksnelheden van 1100 tot 1200MHz haalbaar zijn.
Het stroomverbruik is dus onwijs goed voor een high-end kaart.

[Reactie gewijzigd door SuperNull op 22 december 2011 08:51]

Onwijs goed zou ik niet willen zeggen, indien je het vergelijkt met bijv. de HD6970. Maar ik moet zeggen dat AMD het netjes doet. Ze zitten wat stroomverbruik onder de de HD6970 en gaan zo telkens nog een stapje omlaag qua energieverbruik. Dus iedere serie weer (een stuk) meer performance met iets minder energieverbruik, voor een zelfde type kaart (als in HD X970).
Damn drie gigabyte aan geheugen alweer... Waar gaat dat echt heen. Wel opmerkelijk dat ze ze gelijk uitbrengen in de 79xx range, in het begin begonnen ze telkens met de x8xx range om zo makkelijk nog hogere modellen aan te bieden. Nu kunnen ze alleen de 7990 nog uitbrengen (of in geval van noodzaak de 7980 of 7999 bijvoorbeeld, maar dat is ook maar beetje halve oplossing...). Ach daar zou het marketing team wel weer over nagedacht hebben, want een x8xx is natuurlijk niet echt high end (voor iemand die er verder niks van weet) dus dan kopen de mensen hem niet voor die prijs
Die 3GB is ook met setups met 6 displays ofzo in het achterhoofd bedoeld. Zelf kan ik met me 2560*1440 ook al wel prima meer dan 1GB gebruiken. En dan heb je dus mensen die op 5760x1080 draaien :p

Ook denk ik dat ze niet van plan zijn deze generatie nog iets snellers uit te brengen. Hoogstens deze kaarten met hogere clocks. Eventueel kan men er nog een 7985 of 7995 van maken.
Dat laat AMD graag over aan de diverse OEM's, die komen altijd met custom koelers/clocks etc... Daar hoeven ze zelf geen moeite voor te doen.
http://www.hardwareheaven...review-battlefield-3.html

Daar zie je de 3 displays en dat werkt verrassend goed met crossfire. Van average 33 naar 64 met 2 kaarten. Beter kan bijna niet. Ik denk dat die nieuwe architectuur hier een belangrijke oorzaak van is.
ik snap die benchmarks totaal niet. Ik heb er 3 lopen checken op bf3 en metro2033, zo'n beetje de zwaarste game uit de tests, maar ik heb gemiddeld gezien hoger frames per seconde dan de uitkomst in die score. Hoe moet ik dat lezen? Mijn kaart doet het net zo goed als de bovenste 2 steeds, maar dat zijn de 2 cpu kaarten.
Let op dat je settings hetzelfde zijn en je dezelfde scene afspeelt ingame.
Ja Navi. Qua verder settings is alles gelijk. Ik speel alles op 1080p met alles op max. Dat doen ze toch in die benchmarks? ik heb een dikke 580 kaart, maar als ik het goed begrijp zou deze nieuwe amd kaart bijna 1/4 sneller moeten zijn. Ik zie het dus nergens in terug. Sterker nog, ik zie juist lager scores dan bij mij. Ik rock bf3 ook op ultra met fullhd, maar heb gemiddeld rond de 90 fps.

Vond het apart, maar volgens mij zie ik toch iets over het hoofd of ik heb niet eens zo'n verkeerd systeem :D
En test dan eens op een hogere resolutie bijvoorbleed 5760x1080, ik weet dat dat met een 580je niet gaat maar ik bedoel maar.
Zo zal je zien dat AMD kaarten bij hogere reso's vaker nog welleens beter willen presteren.
In het bericht staat dat de 2900XT over een 384bit-geheugenbus beschikt maar volgens mij heeft die kaart een 512bit-geheugenbus.
Dat klopt, die heeft inderdaad 512-bits. Het was volgens mij de 8800GTX/GTS die 384-bits en 320-bits geheugenbussen introduceerde.
het is wel de eerste keer sinde de 2900XT dat AMD een bus breder dan 256 bits gebruikt.
en de eerste keer dat ze geen power of two breedte geheugenbus gebruiken, maar 256+128.

verder prachtige kaart ook het idle vermogen, kan niet wachten om deze architectuur in notebooks te zien, eindelijk high-end zonder permanent stroomverbruik. (de vraag is of GCN naar de 7 serie notebook gpu's komt maargoed) performance is zoals verwacht a een dieshrink helemaal prima, ben benieuwd wanneer nvidia hier iets tegenin kan en gaat brengen, want volgends de geruchten duurt dat nog wel even.

mooi ding!
Klopt, alleen nVidia gebruikte zo'n grote geheugenbus (de laatste daarvan zit in mijn pc, een GTX 285, met een 512bit geheugenbus). Dit was omdat je dan een grotere bandbreedte had. Op mijn kaart zit dan ook nog geen gddr5 maar nog gddr3, welke door de grotere bandbreedte kwa snelheid dan overeenkwamen.
En waar zijn de opmerkingen"AMD gaat voor prijs prestatie". Behalve als ze zeker de snelste single gpu hebben dan veranderen ze ineens in nvidia.
AMD gaat zeker voor prijs/prestatie. De bulk van de verkochte 7000 serie zal weer bestaan uit 7770/7850/7870/7950. Dit het topmodel. Bij gebrek aan concurrentie vragen ze daar de hoofdprijs voor, dat neem ik ze niet kwalijk.

Overigens valt het nog af te wachten wat de daadwerkelijke winkelprijs gaat worden. Ik vermoed in het begin nog hoger dan verwacht wegens gebrekkig aanbod. Met een beetje mazzel gaat de GTX580 in de prijsverlaging en dan zal AMD weer moeten volgen. Alleen maar goed voor de concurrrentie.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True