Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 127 reacties

AMD heeft op dinsdag officieel de HD 6990 geïntroduceerd. In benchmarks is de videokaart met twee gpu's ongeveer even snel als twee HD 6950's en ruimschoots sneller dan een GTX 580. De beschikbaarheid komt over twee weken op gang.

De HD 6990 is voorzien van twee Cayman-gpu's, met elk 1536 streamprocessors, die standaard op 830MHz zijn geklokt. Elke gpu kan via een 256bit-geheugenbus 2GB gddr5-geheugen aanspreken, dat een kloksnelheid heeft van 5000MHz. Door de aanwezigheid van twee gpu's kan de videokaart 375W aan energie verbruiken. Om daarin te voorzien, zijn twee pci-e connectors met ieder acht pinnen aanwezig, elk goed voor 150W. Het pci-e-slot voorziet in de overige 75W.

Om dit alles koel te kunnen houden, werd een enkele radiale ventilator in het midden van de videokaart geplaatst, die koele lucht vanuit de behuizing over beide gpu's heen blaast. De helft van de airflow wordt de kast uit geblazen, terwijl de andere helft juist in de kast achterblijft. Tests bij Anandtech wijzen uit dat de kaart erg warm kan worden en dan ook verre van stil is, maar dit was tijdens het gebruik van Furmark, dat een hoger verbruik veroorzaakt dan zelfs de zwaarste games.

Behalve de standaardkloksnelheden heeft de HD 6990 ook een overklokmodus, die geactiveerd kan worden door een bios-schakelaar over te halen. De kloksnelheid van de gpu's gaat dan omhoog van 830 naar 880MHz en de spanning neemt toe van 1,12 tot 1,175V. Hiermee zou de videokaart zelfs nog verder overgeklokt kunnen worden. Het energieverbruik en de geluidsproductie nemen dan eveneens toe.

Uit de verschillende benchmarks van Anandtech blijkt verder dat de HD 6990 ongeveer even snel is als twee HD 6950's in CrossFireX. Verder merkt Anandtech op dat twee HD 6950's minder geluid produceren en minder energie verbruiken, en uiteindelijk ook goedkoper zijn. De HD 6990 is dus 's werelds snelste, maar ook 's werelds duurste videokaart, waarvan de prestaties ook op een goedkopere wijze kunnen worden behaald.

Verschillende fabrikanten, waaronder Asus, Club3D, Sapphire en PowerColor, introduceerden een HD 6990. Dat zijn echter gewoon AMD's HD 6990's, maar dan met een andere sticker erop. Voor zover bekend duurt het nog een tot twee weken voordat de HD 6990 volop in de winkel ligt, voor een prijs van rond de 600 euro. HD 6990's met andere koelers zullen ook geruime tijd op zich laten wachten.

HD 6990 Asus HD 6990 Club3D HD 6990 PowerColor
Moderatie-faq Wijzig weergave

Reacties (127)

Zag de review al op Hwi, wat een monster van een kaart zeg, wat ik helemaal goed gedaan vind van AMD is het energieverbruik, zelfs tijdens load en idle is de kaart zuiniger dan de Nvidia GTX 580 en 480.
Nu maar wachten op Nvidia's antwoord.

Petje af _/-\o_

[Reactie gewijzigd door Dylan93 op 8 maart 2011 11:52]

Ik lees eerlijk gezegd HWI's reviews niet meer omdat de resultaten vaak compleet afwijken van dat bij andere sites. Zie bijvoorbeeld het verbruik van de 6990, bij HWI is het verbruik van de nVidia kaarten veel hoger, en het verbruik van de AMD kaarten veel lager als op andere sites.

Sterker nog, de HD6990 verbruikt bij HWI minder als de GTX580, terwijl het verbruik op andere sites 60 tot 100W hoger uitvalt als de GTX580.

Ook weten ze soms gewoon totaal niet waar ze mee bezig zijn, zoals geluidsmetingen uitvoeren op 10cm afstand.


Al in al is het een indrukwekkende kaart, maar het daadwerkelijke verbruik ligt wel wat aan de hoge kant.

[Reactie gewijzigd door knirfie244 op 9 maart 2011 19:34]

Volgens mij kloppen hun metingen niet echt, kijk eens naar het verschil op Anandtech.com en die heeft het veelal aan het juiste eind vanwege het gebruik van de juiste meet apparatuur.

Wat ik me afvraag is hoeveel stroom de GTX590 dan wel niet zal verbruiken/ nodig zal hebben om de 6990 voorbij te kunnen gaan qua prestatie... :X
dan vind ik het toch raar dat anandtech met het statement komt dat hij even snel is als 2 hd6950's.
beide gpu's lopen op een (iets) hogere snelheid, ze hebben alle shaders geactiveerd, en het geheugen loopt veel sneller.

als het een ziekenhuis was zou ik een second opinion willen.
Ja en hoe zit het nu met die switch?
HWI zegt dat het niet meer is dan een kwestie van ATX specificaties en dat de garantie enkel betrekking heeft op het feit dan AMD niet garandeert dat deze OC modus werkt.
In deze Uber-mode wordt de klokfrequentie van de GPU verhoogd van 830 naar 880 MHz. Het voltage voor de GPU's wordt tegelijkertijd verhoogd van 1,12 naar 1,175 volt. Daarmee komt de klokfrequentie van de GPU's dus op hetzelfde niveau als bij de Radeon HD 6970. De geheugenchips blijven echter gewoon op 1250 MHz werken.

In Uber-mode krijgt de kaart een TDP van 450 watt en gaat de stroomtoevoer, zowel via de PCI-Express bus als via de PEG-kabels, buiten de officiële ATX-specificaties werken. Zodoende kan en wil AMD geen garantie geven dat de snellere modus het daadwerkelijk doet. Wie een kwalitatief goede, zwaardere voeding heeft, hoeft zich daar echter niet direct zorgen om te maken.
Anandtech echter stelt dat je echt je garantie op de kaart zelf aan kan tasten.
Anandtech zegt:
As far as additional overclocking is concerned we did not push our sample beyond uber clockspeeds. In uber mode we were already hitting GPU temperatures of 94C in Furmark, which is as high as we’re willing to go.
Dat lijkt mij raar. Die knop zit er toch niet voor niks? 8)7

[Reactie gewijzigd door dirkjesdirk op 8 maart 2011 14:29]

Wat ik jammer vind is dat AMD zegt dat de kaart in ubermode al 94C in Furmark geeft (dus dik 90 graden in normale games), maar voor 2 tientjes extra niet zorgt voor fatsoenlijk koeling. Mensen die 570 euro voor 1 videokaart over hebben, hebben daar ook nog wel 2 tientjes extra voor over om een kaart met degelijke koeling te kopen. Natuurlijk zullen veel fabrikanten die modellen ook aanbieden, maar ik denk, doe dit bij je TOP-END reference design ook gewoon. Een groot deel van de warme lucht komt bij deze koeler toch al de kast in. Doe het dan in één keer goed. Op een kaart die 450w kan verbruiken, HOORT gewoon standaard betere koeloplossing. Gebruik bijvoorbeeld een Gainward Phantom koeling .

Los daarvan het is leuk dat deze prestaties met 1 kaart mogelijk zijn en de GTX580 kan hier bij lange na niet aan tippen. De 6990 is natuurlijk meer een kaart voor marketing (wij hebben de snelste kaart).

Verder is de 2x 6950 opstelling natuurlijk wel interessant. Crossfire scaling is dezer dagen bij de meeste games zo goed (65-99%), dat 2 midrange kaarten vrijwel altijd een veel betere prijs/prestatie verhouding hebben dan één highend kaarten. Steeds meer goedkopere moederborden hebben ook SLI en Crossfire ondersteuning. Het is daarom jammer dat AMD ook geen 2x6850 in één kaart bakt, maar wel begrijpelijk, omdat ze hun andere kaarten daarmee kapot zouden beconcurreren. Eén ding staat vast: De tijd dat steeds meer mensen een kosten efficiënte Crossfire opstelling met midrange kaarten overwegen, is aangebroken. Voor 320 euro heb je al een 2x6850 opstelling die presteert op 90 tot 105% van een GTX580 van 430 euro.

[Reactie gewijzigd door Yokozuna op 8 maart 2011 18:26]

en waar blijft de review van tweakers.net?
@Dylan93: Nou, daar hoeft nvidia wat mij betreft geen antwoord op te geven hoor. Ten eerste koop ik toch geen nvidia, ten tweede is deze AMD kaart zo schijtduur dat het niet uitmaakt of nvidia met een vergelijkbaar model komt, er is toch bijna geen kip die deze kaart koopt.
Het gaat er niet om of er mensen zijn die het kopen, het gaat er vooral om van "Kijk wij hebben de snelste kaart, wij zijn de betere videokaart fabrikant" en daardoor zullen ze sowieso al beter verkopen, het is dus meer een marketing stunt.
Jemig wat een grafisch geweld.
Wat ik me nu af vraag; Dit soort kaarten. Kunnen die nu de nieuwste games nu met twee vingers in de neus op hoge kwaliteit draaien? of is de GPU nogsteeds de bottleneck?
Ik ben dit gevoel kwijt geraakt na de 4xxx reeksen.

[edit] De vraag die ook na het lezen van dit artikel bij mij op komt is, wat voegt deze kaart dan toe als je zo veel beter 2x 6950's in crosfire kunt zetten?

[Reactie gewijzigd door edterbak op 8 maart 2011 11:53]

Het is een enkele kaart, sommige mensen geven daar de voorkeur aan. Verder is de kaart de snelste videokaart, dat is marketingtechnisch wel interessant voor AMD. En je kunt twee van deze kaarten in quadCrossFireX draaien, als je geld teveel hebt :p
Ik mist een tweeede DVI?

en waaom zitten er in hemelsnaam 4 x mini display op ..... ik ken geen enkel apparaat behalve wat zooi van apple die daarmee kan werken..... of iemand anders die de voordelen van deze aansluiting kan benoemen en wat voor apparaten compatible zijn ..
Je krijgt 3 converters, waarvan 2 DVI (1 digitaal de andere analoog), dus uiteindelijk kan je zonder extra kosten gewoon 3 DVI schermpjes gebruiken :) En de 3de converter is HDMI...

[Reactie gewijzigd door watercoolertje op 8 maart 2011 13:01]

Vind die converters maar helemaal niks, gebruik er noodgedwongen ook eentje, het steekt irritant ver naar achteren uit en het gaat hangen onder het gewicht van de kabel/stekker.

Wat deze kaart aangaat; vind het onredelijk dat zo'n kaart duurder is dan twee lossse kaarten met dezelfde gpu. Er is minder materiaal nodig, zoals pcb, koelblok, fan etc. en dan vind ik het vreemd dat zo'n kaart toch duurder is.

[Reactie gewijzigd door Madrox op 8 maart 2011 14:36]

Een product wat in kleine oplagen gemaakt word is altijd duurder dan een product dat in zeer grote oplagen gemaakt word.
En de Chips worden cherry-picked. daardoor zijn ze ook duurder.
Muah, gebeurt dat niet automatisch ? Net zoals een aardappelboer zijn aardappelen scheid in mooie grote, mediums en de rest ? Alsof dat zoveel kosten maakt. De chips worden zowiezo door een test programma heengehaald.

Nee, ik zie de meerprijs van "cherry picked" produkten niet zo. Dat ik een kleine moeite, die waarschijnlijk vol-automatisch gebeurd.

Mijt, ik snap wat je zegt en als dat zo is snap ik het bestaansrecht van deze kaarten niet zo.
Het voordeel van twee gpu's op 1 kaart, zie je iig niet terug in de prijs. Voor mij is dat alleen al een afknapper.

[Reactie gewijzigd door Madrox op 9 maart 2011 09:38]

ehm beetje research op MDP geeft je toch al gauw dat MDP compatible is met alle beeldscherm standaarden die er zijn. VGA, DVI en HDMI +audio. ook is de maximale resolutie veel hoger en kan daisychainen. verder kun je met AMD's eyefinity zes schermen aan 1 kaart hangen en daarmee gamen op high settings zonder enig prestatie verschil
Het hangt uiteraard volledig af van wat je van plan bent, maar in de link boven je (http://nl.hardware.info/r...amd-radeon-hd-6990-review) staan ook wat benchmarks, bijvoorbeeld in Metro 2033 met directX11, 1920x1200 met alles op very high haalt zelfs deze kaart maar 46 fps (wat overigens wel 30% meer is dan welke andere kaart). Dus wanneer je zoiets in bijvoorbeeld een eyefinity setup wil doen met een resolutie van 5760x1200, dan kan je niet echt spreken over 'met twee vingers in de neus', laat staan als je rond de 120 fps wil zitten voor 3d weergave.
Klopt, maar Metro2033 is een van de uitzondering van een game met belachelijk lage framerates. Bij een spel als Crysis kreeg je nog wat terug voor de lage framerate in grafisch geweld. Bij Metro2033 is - naar mijn gevoel - de engine gewoon vreselijk inefficient in vergelijking met engines als die van Epic (Unreal etc.)

De meeste moderne spellen kunnen op een 6950'tje van 220 euro in 1920x1080 met gemiddeld/hoge instellingen met 60+ FPS gespeeld worden. Metro2033 is een van die uitzonderingen en nou niet bepaald het meest gespeelde spel.
Jemig wat een grafisch geweld.
Wat ik me nu af vraag; Dit soort kaarten. Kunnen die nu de nieuwste games nu met twee vingers in de neus op hoge kwaliteit draaien? of is de GPU nogsteeds de bottleneck?
Ik ben dit gevoel kwijt geraakt na de 4xxx reeksen.

[edit] De vraag die ook na het lezen van dit artikel bij mij op komt is, wat voegt deze kaart dan toe als je zo veel beter 2x 6950's in crosfire kunt zetten?
Ik denk het feit dat twee van deze jongens in CF 't ws. beter doen dan 4 6950's in CF?


Ik zie lever een TOXIC versie van dit ding verschijnen, stock OC'ed met custom cooling e.d, dan worden ze veel interessanter :+
Is het niet standaard dat alle nieuwe amd kaarten op 600 euro beginnen ?
en niks op tegen het is een prachtige kaart echt waar, maar ik bedoel de 6950 draait alles makkelijk dus is die 6990 niet een klein beetje overkill puur om weer boven nvidia te staan met specs ?
jah dat is het ook inderdaad, enigzins overkill, maar het staat mooi op je CV niewaar? ;)

Vind het overigens niet helemaal onzinnig, ik zou nu ook graag 2x 6970 in mijn PC hebben, maar moet nog eventjes sparen. Die combo presteert echter nog beter dan deze kaart hier beschreven. Ik vind het namelijk wel erg leuk om te experimenteren met zulk geweld ookal is het grotendeels ietwat overbodig. Vergeet niet dat er altijd enthousiasten blijven!, En zeker dat je elke combinatie wel op zijn bek krijgt door maar gewoon je Antialias vol open te gooien op de hoogste resolutie en daarbij ook nog eens supersampling aan zet. Het maakt weldegelijk verschil natuurlijk, het is alleen niet een verschil tussen leven of dood, wel of geen plezier etc.
Ik geniet er echter gigantisch van om gewoon te benchmarken en te tweaken aan zulk spul ookal is het voor een ander totaal overbodig, het is mijn hobby
ja de kaart is zeker niet onzinnig want je kan een auto ook pimpen met 0 nut maar natuurlijk het is leuk om zoiets in je kast te hangen.
maar ik vraag me af of dit gemaakt wordt met het idee dit is voor de consument een verbetering is of met het idee van wij maken de snelste kaart = positive reclame voor betere sales.
want in het begin zullen ze niet veel winst maken wat deze kaart want het is voor de pc geeks die alles beste van beste willen en niet echt de mainstream community.
Is het niet standaard dat alle nieuwe amd kaarten op 600 euro beginnen ?
enkel de dual-gpu kaarten.
de main streem en performance kaarten zijn een stuk goedkoper, zelfs in het begin.
Ja, dit is gedeeltelijk om de snelste kaart te hebben.
Nee, 1 6950 is lang niet altijd genoeg. Gamen op 3 monitoren bijv. vereist behoorlijk wat meer rekenkracht.
Volgens Anandtech produceert de 6990 anders 70db onder load!
Altijd kijken naar de afstanden en omstandigheden bij geluidsmetingen. Een gestandaardiseerde geluidsmeting wordt gedaan op 1 meter afstand. Ga je op 30 cm meten dan krijg je uiteraard totaal andere getallen. Verder zit je met de omgevingstemperatuur die mogelijk de snelheid van de fans beïnvloed, nog naast de verschillen in meetapparatuur. Het is al met al een hele kunst om bij dit soort kaarten een goed vergelijkbaar en reproduceerbare geluidsmeting te doen. Kijk dus vooral naar de relatieve verschillen die ze melden op een website binnen een serie geluidsmetingen.

[Reactie gewijzigd door Bas van der Doorn op 8 maart 2011 12:08]

Eens, maar als de 6990 luider is op een meter afstand is hij ook luider op 30cm, de getallen zijn dan anders maar de vergelijking loopt niet stuk. Verder ben ik het helemaal met je eens dat het allemaal afhankelijk is van de testopstelling, zoals de ruimte en andere omstandigheden.
Dat klopt maar waar op gedoeld word is dat de ene meting x dB geeft en de andere y dB, dat dus wat verwarring kan geven.
Dat is maar hoe je het meet he ;) Afstand is alles en de ene meet het direct ernaast de ander 50 cm de ander een meter enz.
http://www.tomshardware.c...illes-crossfire,2878.html

De kaart is behoorlijk sterk maar 2x 6970/50 zijn beter, stiller en koeler :) Toch blijft het een sterk staaltje harde waar. _/-\o_
wow 600 euro is wel echt heel veel.
maar wat wil je met zoveel power :P
maar even snel als 2 6950's is dan toch voordeliger voor die 2 te gaan ??
weet niet precies hoeveel 2x 6950 kost maar zal vast voordeliger zijn.
wel brute kaart, nu wachten op nvidia's antwoord
Een blik in pricewatch had je geholpen om tot de conclusie te komen dat 2x 6950 in CFX goedkoper is, zoals het artikel stelt:

http://tweakers.net/pricewatch/zoeken/?keyword=ati+6950
als je maar plek voor 1 kaart hebt maar wel maximale grafische kracht wil?
Of de kaart in CF draaien in monster pc's of renderfarms enz.
Of veel monitoren op een pc wil aansluiten...

[Reactie gewijzigd door SouLLeSSportal op 8 maart 2011 12:04]

Als je een kaart van 570 euro kunt betalen vind ik het apart dat je daar een mini-towertje bij hebt staan waar geen Crossfire opstelling in past. Dan komt het neer op "Ik koop deze veel te dure kaart, omdat in een veel te goedkoop kastje heb". Klinkt niet echt consequent he.

Ik denk dat hooguit 1 op de 50 (of zelfs 1 op de 100) gamers 570 euro over heeft voor de videokaart. De reden voor de 6990 is het feit dat AMD hiermee de snelste kaart op de markt in handen heeft. Extra aandacht, extra verkopen van andere modellen in de 500 serie. Indirecte winst dus.

[Reactie gewijzigd door Yokozuna op 8 maart 2011 18:35]

"extra verkopen van andere modellen in de 500 serie"

De wat ? Volgens mij kom je nu met een Nvidia serie terwijl je naar mijn weten over ATI/AMD praat... 8)7
Ja, maar het voordeel van 1 6990 is dat je hem nog verder kunt upgraden met een 2e GPU zodra dat nodig is :)
Gave kaart. Maar zoals boven beschreven is idd niet stil, zier ook bij Guru3D.com

http://www.guru3d.com/article/radeon-hd-6990-review/
Ten opzichte van de voorgangers en concurrentie is 'ie toch stiller. Als je een kaart uit deze klasse zoekt, doet qua geluid deze het toch niet slecht.
Deze kaart lijkt me dan zeer geschikt om te gamen met een scherm > 24" Aangezien de 4gb op zit, zal het lekker makkelijk texturen laden zijn op zo'n hoge resolutie. Ik heb nu zelf een 6950. Die maakt echt veel kabaal niet normaal. En aan de afbeelding te zien is het een zelfde soort ventilator die er op zit. Hij is alleen verschoven naar het midden, bij de 6950 zit hij achter aan in de kaart.
Er kan maar 2GB per gpu gebruikt worden, wat overigens ruim voldoende is. Heb ook het idee dat als je deze vergelijkt met de HD6950 die een wonder van stilte zal lijken.
Hier twee reviews:

- Hier
- Hier(engels)

Conclusie:
  • - De HD 6990 is gemiddeld 11% sneller dan de HD 5970 in 3D Mark Vantage
  • - De HD 6990 is gemiddeld 29% sneller dan de HD 5970 in 3D Mark11
  • - De HD 6990 is gemiddeld 30% sneller dan de HD 5970 in Crysis Warhead
Maar...
Het aantal watt is gestegen van 378 naar 491(Crysis). Dus een stijging van 29%. Dus als je naar het verschil kijkt van Crysis en 3D Mark11 is het aantal performance per watt niet gestegen. En zelfs bij 3D Mark Vantage gedaald. Een teleurstellende conclusie.

[Reactie gewijzigd door pieter vs op 8 maart 2011 18:24]

Ik zie toch echt veel grotere verschillen in 3Dmark 11 hoor. En ook in games zijn de verschillen op 2560x1600 of 1920x1200 beduidend meer dan 30% (ik reken daarin niet de games mee waarin CF niet lijkt te werken). Op lagere resoluties zijn de verschillen minder groot maar zeg nou zelf, welke oekel gaat met deze kaart op 1680x1050 of zelfs 1024x768 gamen (ja, op die resolutie wordt getest op TPU) :+ Of als selectief benchmarks pakt: in de heaven-benchmark is de HD6990 op hoge resolutie 92% sneller dan de HD5970.

Over het verbruik: In de review van HWI die je linkt staat een systeemverbruik van 357W vs. 381W, op anandtech is het verschil weer veel groter, dus om een goed beeld te krijgen van hoeveel de HD6990 meer verbruikt dan de HD5970 is het beter een gemiddelde te nemen over een aantal benchmarks van verschillende reviews.

[Reactie gewijzigd door bwerg op 8 maart 2011 20:32]

Over de Heaven benchmark moet ik u een punt geven, hier hebben ze veel aandacht aan besteed, er staat ook dat ze de tesselation. Deze hebben ze gewoon bijna niet gegeven bij de 5000-serie anders had de HD 5970 het niet afgelegd tegen de toch wel slomere single gpu king GTX 580 bij normal tesselsation. En zoals het artikel al suggereert 'Het is nog niet echt een goeie maat voor bestaande games, maar wellicht voor toekomstige directx 11 games'.

Grappig dat je dit opvalt over het verbruik, ik zat namelijk te twijfelen of ik dit ook zou melden, maar bij deze: heeft u het verschil gezien in fps bij farcry, ik denk het niet anders had u dit namelijk niet gezegd. Het verschil in fps tussen de HD 5970 vs 6990 is namelijk 1,4 fps, hierdoor is het verbruik ook 'maar' 6% hoger.

[Reactie gewijzigd door pieter vs op 8 maart 2011 21:11]

toch vind ik die hele HD6*** serie maar een teleurstelling. De 5*** serie was een hele vooruitgang, stil, koel. De 6870 is niet eens sterker dan de 5870, sorry maar dan heb je toch echt gefaald...De 6990 is hierop dan een uitzondering op de serie, maar dat ding kost dan ook 600 euro en een hele krachtige voeding.
De 6870 was ook niet bedoeld als opvolger van de 5870, maar van de 5770. Als je even op had gelet had je geweten dat de volledige linie van AMD een honderdtal is opgeschoven, de 6970 is ook niet de opvolger van de 5970, maar van de 5870. En de 6970 is wel degelijk sneller.

De 5970 had ook een prijs van ongeveer 600,- bij introductie, en bepaald zuinig is 'ie niet. Als je toch zoveel geld neerlegt voor een grafische kaart is 200+ euro voor een beetje deftige PSU een schijntje.
Lijkt me sterk, een opvolger die bijna 2x zo duur is 8)7

Nee, ze wilden het gat vullen tussen de 5770 en de 5850. Daar zat een behoorlijk prijsverschil tussen.

[Reactie gewijzigd door Madrox op 8 maart 2011 14:42]

De 6870 is niet eens sterker dan de 5870, sorry maar dan heb je toch echt gefaald
De HD6870 was dan ook helemaal niet de opvolger van de HD5870 dus dat is niet zo heel vreemd. ;) Qua prijs en verbruik is de HD6870 eerder vergelijkbaar met de HD5850 of nog iets daaronder, dus de prestaties zijn iets vooruit gegaan. Nee, het is inderdaad niet zo'n grote stap als bij de HD5000-serie, maar dat was ook niet te verwachten aangezien ze nog niet op een kleiner productieprocedé konden overstappen. Dat zie je bij de HD6990 ook, de performance moest een stuk beter zijn dan bij de HD5970 maar daar hebben ze toch echt meer verbruik voor nodig. Bij de HD7000-serie kan je weer een grotere stap verwachten.

[Reactie gewijzigd door bwerg op 8 maart 2011 13:37]

De 6870 is niet eens sterker dan de 5870, sorry maar dan heb je toch echt gefaald...
Nee, dat is niet falen, dat is de kaarten een andere naamgeving toekennen. De
*8** kaarten in de 5000 serie (dus de 5870 bijv) zit niet in hetzelfde segment als de *8** kaarten in de 6000 serie (de 6870 bijv). Je zult de vervanger voor de 5870 moeten zoeken in de 69**serie, en de voorloper van de 6870 in de 57**serie.
Ik ben het met je eens dat het misschien wat verwarrend is, maar ik kan niet zeggen dat de HD6000serie faalt.
naast de al genoemde klachten met je statement is het ook zo dat de 5 en de 6 serie beide op 40nm, zijn gemaakt.
normaal is er een kleiner proces beschikbaar na zo veel tijd. maar in dit geval is 32nm gecanceld door TSMC. hierdoor kunnen de verschillen gewoon niet zo groot zijn.

bij nvidia waren ze dat wel, maar dat komt omdat ze veel te fixen hadden met hun architectuur.
Echter is al tijden bekend dat je met Crossfire/SLI de toppers heel aardig kunt imiteren. Mensen willen alleen vaak het gedoe niet met die kaarten, en kopen dus 1 kaart, die dan ook de snelste moet zijn (he, volgend jaar upgraden doen we niet). Aangezien ATi nogal last heeft van gebrek aan een halo-part (de NV 480 en 580 gingen steeds net iets harder dan een 5870 of 6970) is daar op deze manier iets aan gedaan. Ja, er was altijd al een 5970, maar die heeft nooit veel aandacht gekregen, gek genoeg. Nu is de 6990 gewoon deel van de top-lijn, althans in naam, dat zou kunnen helpen.

Nu afwachten of NVidia ook de 300-watt grens durft te breken, om 2 570 of underclocked 580 op 1 kaart te stouwen :)
De 480 en 580 waren/zijn wel flink duurder dan hun AMD-collega's 5870 en 6970 dus ik vind dat je die vergelijking niet mag trekken.
En toch wordt ie gemaakt, aangezien ATi op dat moment niets anders had inde single-GPU-range. (Stiekem lieten veel reviewers de 5970 links liggen, wat ook niet zo gek was aangezien ie de 480 met boter en suiker lustte, en dat staat niet zo netjes in een review van een nieuw kaartje)
dat ze duurder zijn maakt wat minder uit in de vergelijking als er duidelijk gericht was om de genoemde tegenhanger van AMD te beconcurreren. Dit uiteraard tot een gegeven punt maar als je de top van nvidia vs de amd topper zet dan (single core) dan kan dit prima hoor :)
Waarom zou het uitmaken of het een single core is ? Als ze even duur/goedkoper zijn dan een single core kaart EN beter presteert waarom zou je dan niet voor de dual GPU gaan, enige wat ik me kan bedenken is kleine/kast ? en energieverbruik.
Op de één of andere manier voelt een zelfde 60fps bij mij persoonlijk soepeler aan met een single core ten opzichte van een 'dual' core videokaart. Men heeft het wel eens over microstutter, mogelijk dat ik dit ook kan zien.
Omdat *in dit geval* de twin core kaart veel duurder is, de 5870 en gtx 580 directe concurrenten zijn.
hetzelfde voor de 6850 en 460 1gb bv. Als er een duo core kaart in dit geval dezelfde prijs te koop was en dezelfde functionaliteit/prestaties biedt of wat beter dan een single core hoor je mij hier niet over. Echter dit is hier dus niet het geval. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True