Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

HD 6950 en HD 6970: nieuw high-end duo van AMD

Conclusie

De prijzen van de HD 6900-kaarten werden pas op het laatste moment bekendgemaakt. Alle prijzen die in webshops opdoken, waren dan ook volledig uit de lucht gegrepen en vaak veel te hoog. De HD 6970 gaat 329 euro kosten, terwijl de HD 6950 269 euro in het laatje moet brengen. Daarmee is de HD 6970 even duur als de GTX 570, waarvan er enkele al voor 330 euro in de Pricewatch zijn te vinden. Dat lijkt een goede prijs, aangezien de twee videokaarten aardig aan elkaar zijn gewaagd.

De HD 6950 is moeilijker te plaatsen, omdat deze geen echte, directe concurrentie heeft. Uit de benchmarks blijkt dat de videokaart iets sneller is dan de GTX 470, maar die wordt eigenlijk al niet meer geproduceerd. Desondanks zijn er nog genoeg GTX 470's te vinden in de Pricewatch, waarvan de goedkoopste ongeveer 220 euro kost. Dat is dus 50 euro minder dan de HD 6950. Als je puur voor de prestaties gaat, kan het dus aantrekkelijk zijn om snel een GTX 470 op de kop te tikken.

Het is lastig om de HD 6970 en de HD 6950 te beoordelen zonder daarbij de vergelijking met de concurrentie te maken. Veel mensen hadden meer van de videokaarten verwacht. De prestatiewinst ten opzichte van de HD 5870, die toch al ruim een jaar oud is, is niet zo groot als gehoopt. Er is geen nieuwe feature, zoals Eyefinity, om vriend en vijand te verrassen. Aan de andere kant kan worden gezegd dat Cypress al een ijzersterke gpu was, met een hoge performance/watt-ratio. Nvidia kon nog veel verbeteren ten opzichte van de GTX 480, terwijl dat voor AMD dus een stuk moeilijker was.

De prijzen zijn competitief te noemen en als laatste moeten we de framebuffer van 2GB niet vergeten. Vooral in CrossFireX-opstellingen en voor Eyefinity-gebruikers is dat een aardig voordeel. De GTX 580 blijft echter de snelste gpu, terwijl de HD 5970 voorlopig nog de snelste videokaart is. De dual-gpu videokaart, met twee Cayman-gpu's, verschijnt pas in het eerste kwartaal van 2011.

Reacties (189)

Wijzig sortering
Toen de GTX 580 uitkwam was de conclusie erg positief. Minder stroom, meer prestaties.
GTX580 ~ 20% maximaal sneller dan GTX 480.
reviews: Geforce GTX 580: Nvidia terug van weggeweest?

Maar nu hebben we een vergelijkbare situatie waarin de minimum framerates omhoog zijn geschoten met meestal minstens 20%, en de conclusie is plotseling dat de kaart teleursteld?

Ook ben ik erg benieuwd naar de reviewdrivers, die helaas niet op tijd voor deze review gebruikt konden worden.

p.s. ik lees nu pas het eerste kopje en de introductie.
'Fashionably late' en de launch was een rommeltje.
Ik kan me er wel een beetje over opwinden dat er niks negatief over de paperlaunch van de GTX580 in de voorafgaande review werd vermeld. Die kaart was een jaar te laat en werd gepaperlaunched, maar als AMD iets lanceert dan is het te laat en een rommeltje?

[Reactie gewijzigd door Zeus op 15 december 2010 13:23]

Je moet je wel bedenken dat AMD ongeveer 15 maanden in relatieve rust aan deze kaarten heeft kunnen werken, dat de HD6970 op reso 1920x1080(1200) dan maar 10-20% sneller is dan de HD5870, is wel wat magertjes niet? Daarbij is het stroomverbruik niet eens omlaag gegaan, maar zelfs omhoog.

Natuurlijk mag je over de GTX580 een paar kritische noten kraken, maar Nvidia heeft het wel voor elkaar gekregen om binnen 6 maand met die kaart op de proppen te komen en dat is toch best goed. Ook de GTX570 die vanaf 330,- te krijgen is, blijkt vooral nu echt zo slecht niet te zijn.

Ik had gedacht dat AMD de enorme voorsprong die ze hadden op Nvidia wel iets beter zouden uitbuiten, maar mijn inziens hebben ze dit toch een beetje nagelaten...
Het blijft een beetje een gevoel natuurlijk, maar jij bent een van de weinigen waar het artikel als pro-Nvidia op overkomt. De benches sprekn echter voorzich, en die kun je maar op een manier interpreteren.

En natuurlijk zijn de review-drivers wel gebruikt, er zijn geen andere drivers waar je de HD 6900-kaarten mee kunt gebruiken.

Verder was ik bij de GTX 580 vrij positief, omdat het onverwacht was en Nvidia had simpelweg veel om te verbeteren en deed dat ook. AMD had de lat al veel hoger gelegd ten tijde van de Cypress-introductie, waardoor Cayman een beetje als 'meh' overkomt.

Desondanks zijn het goede videokaarten, maar ze stelen niet de show. Ze zijn niet het snelst, noch het goedkoopst. Ik kan er gewoon niet echt lyrisch over zijn.
Dus de HD 5970 is sneller dan de HD 6970

Ben ik de enige die dat vreemd vind? de PS2 is toch ook niet sneller dan de PS3.

Dit is toch verwarrend voor de consument.
De 6970 is de opvolger van de 5870:)

De 6990 wordt de opvolger van de 5970.

Die komt in het eerste kwartaal van 2011 uit,
en zal twee GPU's hebben netzoals de 5970.
verkeerde post

[Reactie gewijzigd door Gatygun op 20 december 2010 01:28]

Ik kan me eigenlijk wel vinden in de conclusie van deze review http://hardocp.com/articl..._6950_video_card_review/9

De 6970 moeten we vergelijken met de 570 en niet met de 580 die stukken duurder is, de amd komt dan eigenlijk heel goed uit. En de 6950 is met deze prijsstelling eigenlijk wel een winnaar als je kijkt naar bang for buck. Zeker als nieuwe drivers nog voor een prestatiewinst kunnen zorgen.
De review van tweakers richt zich vooral op de simpele benchmarks en vergelijking met andere high-end kaarten, maar daar houdt het wel op. HardOCP is er wat meer ervaren in en weet de kaart in het juiste perspectief te plaatsen. Kun je tweakers niet echt kwalijk nemen, maar het brengt wel volledig het verkeerde beeld naar buiten over deze nieuwe ATi kaarten en dat vind ik wel jammer.
Ik vind juist dat HardOCP een zeer slechte review neer zet. Ze testen immers alleen op resolutie 2560x1600 met hoge AA/AF en laat daar de HD6950 en HD6970 met hun 2gb geheugen een voordeel hebben. Zoals Marc zegt geven vrijwel alle andere reviews (incl. hier op tweakers) een beeld dat op meer gebruikelijke resoluties de GTX570 maar net onder de HD6970 zit of gelijk scoort en structureel 5-10% sneller is dan de HD6950.

Ook testen ze bij HardOCP maar 5 games en dan hoeft er maar eentje bij te zitten die beter loopt op AMD of Nvidia kaarten en dan heb je al een scheef beeld.
Nee, als we naar andere (redelijk) goede reviews kijken (Anandtech/Comuterbase/Guru3d/HWI), dan blijkt dat HardOCP eigenlijk als enige een andere conclusie heeft, dan geeft mij dat te raden...

[Reactie gewijzigd door MW1F op 15 december 2010 14:01]

Het laat wel zien dat je op 2650x1600 bij die settings net zo goed een HD6950 kan nemen.
Iig met die vijf spellen, al zullen dat er wel meer zijn.

Voor het effect van powertune kan je beter hier naar kijken:
http://www.hardwarecanuck...70-hd-6950-review-26.html

[Reactie gewijzigd door Madrox op 16 december 2010 00:14]

Eh serieus? We vergelijken de HD 6970 geen enkele keer met de GTX 580. In de conclusie wordt enkel de GTX 570 aangehaald als directe concurrent.

Hoezo brengen we volledig het verkeerde beeld naar buiten? HD 6970 = GTX 570, prijs is bepalend (of je eigen voorkeur naar nvidia/amd) maar je kunt niet echt een miskoop doen.

Daar komt bij dat HardOCP een conclusie heeft die niet echt strookt met bevindingen van andere websites. De HD 6950 net zo snel als een GTX 570 is gewoon onzin. De HD 6970 is net zo snel als de GTX 570. Dat vind ik, maar ook Anandtech bijvoorbeeld.

[Reactie gewijzigd door Marc Rademaker op 15 december 2010 12:33]

Weer een ronde gewonnen door nVidia.
Met die 580 hebben ze wel knap werk afgeleverd zeg, dat maakt deze review alleen maar duidelijker. Alleen jammer van de prijs.

[Reactie gewijzigd door Illidan op 15 december 2010 06:48]

Performance is niet alles he, prijs en stroomverbruik/geluid maken voor mij ook veel uit en met mij 99% van de gebruikers. Die kleine groep die kaarten van 500+ gaan kopen is zo klein dat het meer prestige/aandacht projecten zijn dan werkelijk interessant voor de consument. kaarten als de 570 zijn dan veel betere kaarten voor nvidia.
Ik ken iig naast mij al 4 andere personen. Dan hebben we de 1% al he? ;-)

Ik snap echt niet waarom er altijd geluld moet worden als AMD verslagen wordt met prestaties. Misschien verbruiken ze minder, maar ze presteren ook minder. Als ik wil gamen, dan wil ik grafische prestaties, en niet een goedkope rekening van eneco.
Met die 580 hebben ze wel knap werk afgeleverd zeg, dat maakt deze review alleen maar duidelijker. Alleen jammer van de prijs.
die prijs is anders het direct resultaat van het ' knap werk' dat ze hebben afgeleverd met die gigantische chip. knap werk met een flink nadeel dus.

[Reactie gewijzigd door Countess op 15 december 2010 14:52]

Prijzen worden meestal niet bepaald door de kostprijs maar door wat het meeste opbrengt. Hoeveel marge nVidia op de 580 heeft is niet bekend dus of die prijs een nadeel is of pure winst optimalisatie is een vraagteken. Wel is duidelijk dat de GTX580 zowel qua prijs, verbruik als performance dicht in de buurt van de HD5970 zit. Blijkbaar is die prijs voor de mensen die dat soort chips overwegen niet raar. De patsfactor is trouwens hoger bij een hogere prijs dan bij een lagere, misschien is de "hoge" prijs dus wel een reden tot extra verkopen. Zo werkt het bijvoorbeeld al jaren bij parfum. Denk je echt dat 500ml alcohol en water zoveel geld moet kosten.....
Het is anders duidelijk dat de 580 1/3 meer stroom verbruikt en maar weinig extra prestatie levert daarvoor.
De 570 is de echte concurrent omdat NVIDIA die voor lage prijzen dumpt om markt terug te krijgen. Op een jaar tijd zie je bij Steam dat het aandeel van AMD van 18% naar nu 32% is gestegen, NVIDIA slaat in paniek.

AMD zal dit doortrekken naar de 6990 en dat wordt een interessant kaartje voor de high-end markt.
Er zijn genoeg personen die ietwat overdreven reageren, maar jij legt het er wel erg dik op. Zo nonchalant als nvidia op dit moment met de gaming-markt omgaat laat al zien dat ze vrij weinig te vrezen hebben voor amd, de gf100 was in de eerste plaats al niet voor gaming ontworpen, maar voor de professionele markt.

Ze hebben zowieso nog steeds meer marktaandeel op de desktop markt dan amd, bij laptops gaan ze aardig gelijk op.

Amd heeft idd nog de hd6990 op de planning staan, maar hoeveel mensen kopen nu zo'n prestatiemonster? Dat zal amd niet veel geld in het laatje brengen, de hd68xx en 69xx zijn nu de cashcows, dat weten hun ook. Die hd6990 is er alleen om de performance crown in handen te houden, daar komen ook al genoeg klanten op af.
Ik vraag mij af wat jij bedoelt met "weer een ronde gewonnen door Nvidia"? Nvidia rommeld de laatste paar jaar maar wat aan, het is pas recent dat ze wat meer succes boeken met name met de fermi technologie.

Zeker vanaf eind 2006 is Nvidia erg stom bezig geweest, hierbij revereer ik met name naar het willens en wetens blijven door produceren van GPU's met productiefouten, tot Juni/Juli 2008. Dit betreft de gehele G84, G86 en G92 lijn, terwijl de 200 serie ook nog met deze problemen lijkt te kampen alleen in mindere maten. Tevens het onophoudelijk hernoemen van oude technologie.

Op deze punten doet ATi/AMD het toch een stuk beter met daarnaast wel goede progress op produktie en technologie gebied, na de HD2000 serie welke een nieuw architectuur was. Nvidia begint eigenlijk pas zeer recent weer wat interessante produkten op de markt te zetten, op papier zag het er al goed uit, maar het omzetten in een goed werkend en degelijk produkt liet nog te wensen over.

Dit alles gezegd te hebben, blijft in veel segmenten de ATi/AMD kaarten op het moment toch nog de betere koop op het gebied van performance/prijs/opgenomen vermogen verhouden. Dat Nvidia mogelijk de snelste single GPU kaart heeft is leuk, maar in het grote geheel niet interessant, omdat dat daar niet het geld verdiend wordt.
Ik had opzich ook stuk meer verwacht van deze kaarten.
Wat ik niet snap is hoe de 5xx serie van nVidia opgehemeld word.

Het zijn prima kaarten, maar als je naar de voorganger kijkt is het net als de 69xx serie maar een kleine stap vooruit, en dus imo teleurstellend.
Op zich lijkt nVidia dus een flinke sprong vooruit gemaakt te hebben en AMD een kleintje. De 6970 is een directe concurrent van de 570 (en dus niet de 580) waardoor AMD op dit moment de ruime voorsprong van de vorige generatie weer kwijt is.

Nu afwachten hoe de dual GPU kaarten het gaan doen maar nVidia lijkt dus de keuze te hebben om ofwel een 580 GPU dubbel uit te voeren of de zuiniger 570 GPU en zou dus ook concurrerend met de dual GPU kaarten van AMD moeten zijn. Dit lijkt dan ook een beetje een tegenvaller voor AMD. Men is nog concurrerent maar had waarschijnlijk stiekem op meer gehoopt.
Eigenlijk niet. De GF100 chip size stond niet in verhouding tot de performance. Met de refresh is dat beter geworden. AMD chip is gegroeid maar nog steed een stuk kleiner.
Bij gelijke efficentie zal nV altijd de snelste en vermogen hongerige GPU hebben.
De meer potentie van een grotere chip.
Tja 'n ULV 570 en 6970 dual is dan mogelijk en die zullen dan heel dicht bij elkaar komen. Tenzij een van de twee de TDP ceiling extreem verhogen tov de kaart van de competitie.
Deze kaarten zijn inderdaad gewoon een mooie update van de 6800 gpu cores. Sneller, nauwelijks meer vermogen en stukje betere performance. Wel jammer dat ze nog steeds de straaljager koelers hebben... Ik heb voor mijn xfx 6850 ook al een arctic cooler besteld, ik vond dat ding al een lawaai van jewelste maken. Zelfs al zit er een non reference cooler op. Ik heb dan wel een vrij stille pc. Ik wacht wel tot dat de games op 1050 weer meer kracht vragen op gpu gebied voordat ik upgrade.
Deze kaarten bieden iig een mooie competitieve kaarten voor de juiste prijs, wat voor ons als consument natuurlijk een mooi resultaat is.
Zoals hieronder ook al is aangegeven is de nvidia 570 ook heel erg mooi kaartje als je een groot display hebt of een sterke kaart wil maar niet de hoofdprijs wil betalen of de extra features bij nvidia wil gebruiken, ben aangenaam verrast.

Ik vraag me in de benches bij Black ops eigenlijk wel af of ze nu werkelijk representatief zijn, BO staat nou niet bekend om zijn stabiele framerates... Ik had ook wel de vergelijkende benches van mw2 willen zien tov BO aangezien deze blijkbaar zwaarder is. Dat is dan ook niet echt logisch om over te stappen lijkt me?
Dacht trouwens dat de 6850 zelfde of iets sneller was dan de 460, blijkbaar is dat wat minder... ach ja wat is 4 fps nou :)

[Reactie gewijzigd door SouLLeSSportal op 15 december 2010 09:21]

Deze kaarten zijn inderdaad gewoon een mooie update van de 6800 gpu cores. Sneller, nauwelijks meer vermogen en stukje betere performance. Wel jammer dat ze nog steeds de straaljager koelers hebben... Ik heb voor mijn xfx 6850 ook al een arctic cooler besteld, ik vond dat ding al een lawaai van jewelste maken. Zelfs al zit er een non reference cooler op. Ik heb dan wel een vrij stille pc.
Een aftermarket koeler is niet per se stiller dan de standaardkoeler he.

Ook vind ik vooral het verbruik en geluidstest een beetje jammer. Jullie zeggen dat jullie AMD Powertune 'uit' hebben gezet en op '+20%' hebben gezet. Dat terwijl PowerTune helemaal niet uit kan, alleen op standaard en een aantal stapjes omhoog (meer prestaties) of omlaag (zuiniger en stiller). Op stock kan de kaart zichzelf overklokken tot aan zijn TDP, en op +20% kan de kaart hier lekker agressief overheen gaan.
Vervolgens concluderen jullie dat de HD6900 kaarten niet stil zijn. Volgens mij zijn de 3 van de onderste 4 balkjes toch echt HD6900 kaarten, en de andere de HD5850. Alleen met PowerTune op +20% is de HD6970 net zo lawaaierig als de GTX580.

Ook laten jullie zien dat met PowerTune op +20% het opgenomen vermogen zo rond het niveau van de GTX570 zit. Leuk om te weten maar wel naar verwachting als je toestaat dat je GPU 20% meer energie mag gebruiken.

Maar wat hebben we hier aan? Nu weten we dat de HD6900 kaarten niet zuinig zijn onder load en niet stil zijn als PowerTune op +20% staat, maar vervolgens komt dit niet terug in de gamebenchmarks. Dus weten we nog niks nuttigs: Wat voor effect heeft het op mijn gameprestaties als ik het nodig vind om 60W extra te gebruiken.

Voor de rest: Ik wacht nog even af voor elke prijzen de HD6900 kaarten echt in de winkels liggen, maar gebaseerd op deze benchmarks en de adviesprijzen noem ik het gelijkspel.
Deze man heeft gelijk en dat gedoe met powerplay wat jullie hier deden slaat een beetje nergens op. Ja, als ik mijn CPU op 1.5 volt overklok wordt hij heet wat een verassing.
Ik ben teleurgesteld.

Niet alleen in de prestaties, maar vooral hoe weinig performance je krijgt voor het extra geld ten opzichte van de introductie van de 5870/5850.

We zijn een jaar verder en er is zo goed als bijna niets veranderd met betrekking tot de prijs / performance ratio bij AMD.

Dit terwijl NVIDIA aan zeer sterke inhaalrace heeft gemaakt. Bij nvidia is de performance ook echt daadwerkelijk sterk verbeterd.

Helaas zie ik net als bij de introductie van de 5800 series, nog steeds geen reden tot het upgraden van mijn 4870. Draait alles net zo goed als bovenstaande kaarten, zolang ik de AA maar uit zet, laat die AA me nou net weinig interesseren, ik ben tevreden met 1920x1080.

Als ik echter ga upgraden, zit ik er sterk aan te denken een kaart uit het groene kamp te kopen, ik vind dat AMD de consument in de steek laat. Eerst extreem goede prijs/kwaliteit verhoudingen bieden, om vervolgens kaarten die amper sneller zijn uit te brengen, maar die wel even duur zijn als de huidige generatie.

[Reactie gewijzigd door Bert2000 op 15 december 2010 09:38]

Volgens mij vergeet je wat dingetjes. ATi heeft lange tijd en nu nog steeds een zeer sterke prijs/kwaliteit verhouden en Nvidia haalt dat nu ongeveer pas een beetje in, maar gezien het verbruik van die kaarten zijn ze er nog niet. ATi is niet achteruit gegaan, maar Nvidia heeft héél hard gewerkt om er nog wat van te maken.

De huidige kaarten zijn wel degelijk aardig wat sneller dan de vorige generatie, maar omdat de HD5970 (Dual GPU!) en de GTX580 kaarten meegenomen worden, valt dat niet zo op. De GTX580 is wel sneller, maar ook gigantisch veel duurder, maakt meer geluid en gebruikt ook veel meer. De HD6970 is toch een aardig tikkie sneller dan de HD5870 en lost een hoop probleempjes op die de HD5870 had. (tesselation, 4x1 ipv 5x1 etc.) maar daar gaat de review een beetje aan voorbij, wel jammer eigenlijk. In het prijssegment van de HD6970 is er dan wel concurrentie van de GTX570, maar als de prijzen van de HD6970 zakken zoals de prijzen van alle nieuwe kaarten zakken, dan blijft er misschien weinig concurrentie meer over.

Vergeet ook niet dat de HD6990 over een aantal maanden ook uit komt en die zal de rol van de HD5970 op zich gaan nemen.
Hoe gaat de review voorbij aan verbeterde tesselations? We testen immers games met tesselation erin, maar toch zie je daar amper winst.

De kaarten kunnen namelijk wel wat extra tess. performance gebruiken, maar echt merkbaar is dat helaas niet omdat er ook andere factoren meespelen. Ook zijn veel games al geoptimaliseerd voor AMD's manier van tesselation, waardoor de winst kleiner is dan theoretisch mogelijk.
De review gaat niet voorbij aan verbeterde tesselation, maar wel aan de performance van de HD6970 tegenover de HD5870, want het is als opvolger voor die kaart bedoeld. Hierdoor lijkt de winst kleiner, of niet bestaand, terwijl je toch naar een winst van 25% zit te kijken in veel gevallen. Voor de marktpositie van ATi is dat precies goed en is een winst van 25% best bijzonder. Dat Nvidia grotere winsten heeft geboekt met hun GTX580, is logisch, want de voorganger daarvan was één groot drama, maar voor deze architectuur en voor de markt waarin ATi nu actief is, is deze kaart een heel mooie upgrade voor een heel mooi bedrag. Hij's namelijk ook nog eens een stuk goedkoper dan de HD5870 bij de introductie. Door een vergelijk met kaarten ver boven de performance en prijsklasse raakt dat een beetje ondergesneeuwd.

Zelfde geld eigenlijk ook voor de HD6950 die een nieuw marktsegment probeert te creëren, ik zie die kaart als een beetje zinloos, maar misschien is het wel een gouden vondst.

[Reactie gewijzigd door Sleep0rz op 15 december 2010 10:48]

Okay okay, natuurlijk is het een vooruitgang, maar voor jan modaal die nog een 4870 draait op een 24" schermpje (ik) is er eigenlijk nog steeds niet echt noodzaak om te upgraden.

Ik heb er destijds voor gekozen om te wachten op de 6800 serie. Waardoor ik de 5800 serie aan mijn neus voorbij liet gaan, met mij zijn er velen die zo hebben gedacht. Wat blijkt nu, de 68/69 serie is naar mijn mening marginaal sneller dan de 58 serie. Okay de tesselation is verbeterd maar hoeveel zien we hier van terug in de games?

Mn phenom II wilde ik eindelijk gaan blijmaken met een 6 serie kaart, helaas denk ik nu dat de volgende upgrade een bulldozer cpu wordt icm een 7 serie gpu.
Daar heb je zeker gelijk in, mijn 4850 is ook ruim voldoende voor wat ik er mee doe. De 25% die je extra haalt ten opzichte van een 5870 is wel veel, maar met alle console ports en relatief lage systeemeisen kun je met een 4870/4850 bijna net zo veel als met een 6990.

Wat je er van terug ziet in spellen? Weinig, maar de kaart biedt op zichzelf 25% extra performance voor een 25% lagere prijs. Ergens niet gek. Dat je 't niet zo merkt om andere redenen en dat het daarom in een redelijk aantal gevallen niet echt een upgrade waard is, dat is zeker waar.

Het perspectief van de review van HardOCP is ook wel interessant;
floesh in 'reviews: HD 6950 en HD 6970: het nieuwe high-end duo van AMD'

[Reactie gewijzigd door Sleep0rz op 15 december 2010 12:23]

"ATi heeft lange tijd en nu nog steeds een zeer sterke prijs/kwaliteit verhouden en Nvidia haalt dat nu ongeveer pas een beetje in, maar gezien het verbruik van die kaarten zijn ze er nog niet."

Het lijkt erop dat je amd/ati oogkleppen op hebt. Heb jij de lancering en de recente prijsdaling van de gtx460 gemist??? Voor 140 euro krijg je erg veel performance terwijl het geluid en de warmte afgifte prima in order zijn. Daarbij schalen ze ook ongekend goed.

Overigens zit de prijs/kwaliteit verhouding al jaren dicht bij elkaar. Ten tijde van de 4xxx (toen ati de snellere kaarten kreeg) scheelde het vaak 10-20 euro in het voordeel van ati. Nvidia is natuurlijk ook niet gek en wil graag de voorsprong in marktaandeel behouden;) (die nu overigens lijkt terug te lopen).

Voor marktaandeel zie bijvoorbeeld; http://store.steampowered.com/hwsurvey/

[Reactie gewijzigd door sdk1985 op 15 december 2010 13:43]

Sleep0rz
De GTX580 is wel sneller, maar ook gigantisch veel duurder, maakt meer geluid en gebruikt ook veel meer.
Ik wil niet vervelend doen maar op Idel maakt de Gefroce GTX 580 ongeveer net zo veel geluid als de Ati HD6970.

Hardwarecanucks

Anandtech

En in Load ook bijna gelijk, Ati HD6970 maakt alleen iets meer geluid dan de Gefroce GTX 580.
- - - - - - - - - - -- - - -- - - -- - - - - - -- - - - - - - - -- - -- - - - -- - - -- - - - - -- - - - -- - -- - - -- - - - -- - - -

En de Gefroce GTX 580 gebruikt niet veel meer stroom dan de Ati HD6970.

Idel gebruikt de Gefroce GTX 580 maar +/- 10w meer, en Load maar +/- 30w meer.

Guru3D

Hardwarecanucks

[Reactie gewijzigd door AmigaWolf op 16 december 2010 00:58]

k ben teleurgesteld.

Niet alleen in de prestaties, maar vooral hoe weinig performance je krijgt voor het extra geld ten opzichte van de introductie van de 5870/5850.


Nvidia had natuurlijk veel te verbeteren, AMD een stuk minder.

daarom lijkt nvidia zo geweldig nu, maar wacht nou eens af tot 1e kwartaal 2010. in plaats van high-end(AMD) te vergelijken met ultrahigh-end (Nvidia)
Ik denk dat de gtx570 de grote winnaar is deze ronde. Voor dezelfde prijs als de hd6970 heb je in de meeste gevallen net iets meer performance. Daarbij heb je:
- cuda support
- physx support
- betere 3d support
Moet wel gezegd worden dat CUDA en 3d-support voor 95% van de gamers (als het niet meer is) helemaal niet relevant is. Physx heeft een gamer wat aan, maar is geen essentiële feature, er zijn maar weinig games waarin het verschil tussen wel of geen physX te merken is.

Maar de kaarten vallen me ook wel tegen. Zeker gezien de geruchten dat dit voor de verandering een chip ging worden die qua die-grootte op de GF110 zou lijken, is het een beetje een tegenvallen dat de HD6970 niet over de GTX580 heen gaat. Zo'n GPU zou AMD nu namelijk wel moeten kunnen maken (al weten wij niet precies wat de kosten en baten zijn voor AMD, het zal best een bewuste keuze kunnen zijn). De performancewinst t.o.v. een HD5870 is ook niet echt gigantisch.

Maar aan de andere kant zijn het kaarten met een goede prestatie per verbruik en (even afwachten) waarschijnlijk ook een redelijke prijs/prestatie.

[Reactie gewijzigd door bwerg op 15 december 2010 10:08]

Daarnaast is herhaaldelijk aangetoond dat PhysX eigenlijk een tweede GPU nodig heeft om te schitteren. Zelfs een Gtx580 gaat in hoge instellingen (waarom heb je die kaart anders) in stotter mode aan de gang met heftig PhysX gebruik.

PhysX is leuk voor gamers die een te klein scherm hebben voor de kaart of te weinig CPU om het anders op te lossen. Dit boven op het kleine aantal games dat er uberhaubt wat mee kan maakt het in mijn ogen geen reden om voor nvidia te kiezen.
Maar geen eyefinity, wat imo een leukere feature is dan de 3 die jij opnoemt.
Nou sorry hoor, er zijn maar weinig mensen die 6 Schermen hebben, laat staan 3, en dat kan Nvidia ook gewoon (3 schermen).


Het is een leuk feature, maar ruim 99,9 van de mensen gebruiken niet 6 schermen, je heb meer aan:

- cuda support
- physx support
- betere 3d support
Als je geen videobewerking oid gebruikt, heb je nul aan cuda. Physx kunnen ook prima door ATI kaarten worden uitgevoerd en 3d support, wie gebruikt dat nou al? 0,001% van de gamers?Zolang dat nog enorm duur is, zo'n verlepte bril voor nodig is en je hoofdpijn kan bezorgen is dat een doodlopend eind.
Beide leveren vaak genoeg goede/verbeterende drivers aan.
Ik weet echt niet waar men toch altijd tegenaan loopt bij de drivers van ATI, ik heb nog nooit een probleem gehad met ati, met nvidia wel. Niet dat dat mijn keuze wat beïnvloed maar om maar even aan te geven.
verder ben ik het wel met je eens dat 3 schermen laat staan 6 niet veel gebruikt word. Wat ik belangrijk vind is de prijs, de prestaties tov daarvan en de hoeveelheid stroom/hitte dat dat ding genereert.

[Reactie gewijzigd door SouLLeSSportal op 16 december 2010 09:26]

Misschien dat er nog niet zoveel 3D gamers zijn, maar deze kaart is wel interessant voor HDPC's. Zelf heb ik pas een nieuwe samsung 50" plasma met 3D functionaliteit.

Helaas ondersteund mijn Ati 4870 niet de nieuwe HDMI 1.4a standaard in zijn uitgang.
Daar zijn de 6xxx series weer WEL mee uitgerust. Voor mij heeft deze serie dus wel het voordeel: Ik kan er eindelijk 3D blu-rays mee afspelen en geloof me het beeld is super.

Ik vraag me wel af in hoeverre de nvidia kaarten dit ondersteunen. Met Powerdvd 10 moet de videokaart deze 3D functionaliteit ondersteunen anders gaan de active shutterglasses van de televisie niet werken en dus kijk je naar wazig beeld.
ten opzichte van de HD5870 vind ik de HD6970 zeer teleurstellend. Een fps winst van misschien 6 of 7 gemiddeld....daar ga ik toch geen 350 euro voor neertellen? En dan te bedenken dat ik mijn HD5870 al zo'n beetje een jaar heb. Een jaar! Dat is in hardware land normaal geasproken een eeuwigheid
Inderdaad en nog maar ~200 euro oplevert :S Maar goed de prijzen zijn nog niet bekend he dus wat je nu in de PW ziet hoeven niet de uiteindelijke prijzen te zijn...

Gelukkig heb ik een geld probleem (heb geen geld :D) en kan ik niks kopen maar anders ben ik wel zo iemand die voor die 6/7FPS toch die dikkere kaart wil hebben ookal kost het me 100/150 euro ;)

Voor het eerst in me leven doe ik een videokaart downgrade :S (hd5870>hd5770)

[Reactie gewijzigd door watercoolertje op 15 december 2010 08:46]

Of je HD 5870 was gewoon een goede koop en lijkt me ook nog steeds snel genoeg voor het gros van de spellen op 1920x1200?
mensen met een hd58xx zijn dan ook niet echt de doelgroep voor deze refresh over het algemeen. dat is nog nooit het geval geweest.

[Reactie gewijzigd door Countess op 15 december 2010 15:05]

Stel dat de 6900 serie een stuk sneller was dan de concurrentie voor dezelfde prijs, hoe zit het dan met de beschikbaarheid? Ik wil een leuke vervanger voor mijn GTX260 kopen maar ik ben er nog niet uit. Is het eigenlijk al zinvol en merkbaar om voor een DX11 kaart te gaan?
Stel dat de 6900 serie een stuk sneller was dan de concurrentie voor dezelfde prijs, hoe zit het dan met de beschikbaarheid? Ik wil een leuke vervanger voor mijn GTX260 kopen maar ik ben er nog niet uit. Is het eigenlijk al zinvol en merkbaar om voor een DX11 kaart te gaan?
Dat hangt van jouw af, als je nu tevreden bent moet je niks kopen, mis je nu performance dan is elke kaart die beter is een optie... Het is echt niet moeilijk om voor jezelf te bepalen of je nou een nieuwe kaart wilt of niet, je bent tevreden OF niet en niet iets er tussen in.

DX11 hoef je niet perse voor te gaan, dat zit er toevallig bij als je een kaart van de huidige generatie koopt ;) Aangezien alle nieuwe kaarten DX11 zijn is dus ook de snelste kaart van het moment een DX11 kaart...

Hele DX verhaal gewoon lekker vergeten en een kaart kopen die naar aanleiding van wat benchsmarks/vergelijkingen met je huidige kaart aan je wensen voldoet...
Om eerlijk te zijn vind ik mijn GTX260 ook nog niet echt een belemmering en vraag me af of de "wow"-factor bij deze kaarten (Nvidia en AMD) voldoende is om over te stappen.

Zelf draai ik alles in 1920x1080 (omdat mijn 27" niet hoger gaat). En het moet wel heel goed zijn wil ik het gaan merken.
Hmm, interessante wedloop zeg. Wat ik ook opmerkelijk vind, vroeger stond Nvidia bekend om haar enigszins onbegrijpelijke serie- en modellennummering, en dat ze bang voor iets meer buck hadden. Nu lijkt echter AMD dezelfde kant op te gaan. De 6970 valt tussen 5870 en 5970?? En de gt480 geeft betere prestatie voor je geld (niet meer geproduceerd).

Naja, ik heb nog altijd een 4870 in mijn pc hangen, en ik ben nog geen spelletje tegen gekomen waar ik niet mee uit de voeten kan.

*gaat verder OpenTTD spelen*
Heb ik ook. Met intel E8500. 4GB en Intel SSD.

"...geen spelletje tegen gekomen waar ik niet mee uit de voeten kan."

Black Ops onder Windows 7 (64bits) is een drama. Onspeelbaar in multiplayer op het moment dat er iets te schieten val. Onder Windows XP trouwens weer ok.

De rest van de spellen probleemloos (al heeft Starcraft 2 het zwaar als er heel veel units te renderen zijn - maar ik weet niet of de bottleneck dan bij CPU of GPU ligt).

Configuratie vraagt om upgrade/vervanging in de loop van (maar uiterlijk eind) 2011.


Overstap naar Sandybridge en ATIxx50 is een flinke prestatieverbetering voor een redelijke prijs.

[Reactie gewijzigd door poehee op 15 december 2010 11:22]

Daar heb ik dus helemaal geen last van... Ik speel hier black ops met mn i7 920, Windows 7 (64x) en een GTX460, en hij loopt als een zonnetje, totdat mensen hun downloads niet uitzetten en er pings boven de 150 uitkomen!

En inderdaad, Starcraft 2 pushte mn CPU wel een klein beetje zodra ik de 150 units benaderde XD
ik heb ook een 4870 (1gig variant) en ook windows 7 64bit.

black ops: Alles staat op max en nooit last van framedrop oid.
Ik heb dan ook wel een x6 amd processor, misschien dat dat het is.
Het ligt in ieder geval niet aan de videokaart
COD BO drama onder WIN 7 64bit? Speel deze game vloeiend op mijn GTX260 en i7 920 (en SSD) maar dat is vooral te danken aan één van de handmatige instellingen in de mp config file aan te passen. Sindsdien draait die bij mij heel soepel. Ligt het daar misschien aan?

Voor de rest ik game nog steeds op een 22 inch TFT met 1680X1050 en dan kan je met de meeste games alles nog max draaien op een GTX260. Had GTX260 SLI en daarna GTX260 + 8800GTS voor PhysX. Nu enkel een GTX260 omdat het meer dan genoeg is en ik geen games meer kan vinden diemerkbaar baat hebben bij PhysX op aparte 3D kaart.

Ik wil wel over naar DX11 als er meer games uit zijn die echt wat met DX11 doen.....kan dus nog ff wachten en dan overweeg ik de nieuwe AMD's, ga dan voor fabrikant met de beste prijs-prestatie verhouding in het hogere mainstream segment.
Starcraft 2 heeft tekort aan je CPU.

Hij heeft ook tekort aan mijn CPU, wat net als hieronder een i7 920 is.

Ik heb geen black ops issues, behalve dat AA voor geen meter werkt op de ATI drivers.
Er zit geen verschil tussen 4xAA of 16xAA naar mijn beleving, andere modes forceren heeft geen effect (0xAA) dus ziet het spel er matig uit, mede door de ouderwetse shaders die gebruikt zijn.

Grootste probleem daar is dat het netwerk gedeelte instabiel is. De servers die je builds, contracts en challenges opslaan zijn super onstabiel.
Black ops is nauwelijks een belasting voor de GPU, mijn gtx 260 wordt nog geen 50% belast op 1680x1050. Dus voor black ops hoeft hij iig zijn grafische kaart niet te vervangen :+ .
Ja maar als je hem op 1920x1080 speel of hoger, gaat de gebruik wel meer worden, en 1920x1080 is tegenwoordig de standaard, en een 1920x1080 (FullHD) scherm kosten geen drol meer tegenwoordig.
Laatste patch voor BO zorgt voor een grote verbetering :)
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True