Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties

AMD gaat de prijs van zijn HD 4870 met 20 dollar verlagen, zo heeft de fabrikant aan zijn partners laten weten. De verwachting is dat Europese consumenten de prijs met ongeveer 15 euro zullen zien dalen.

De Radeon HD 4870 werd eind juni van dit jaar uitgebracht en bleek toen de concurrentie met de duurdere Nvidia Geforce GTX260 goed aan te kunnen. Inmiddels heeft Nvidia deze kaart uitgefaseerd en een nieuwe variant uitgebracht, die over 216 in plaats van 192 streamprocessors beschikt. Bovendien bracht Nvidia deze maand de Geforce Release 180-driver uit. Deze stuursoftware zou dermate veel verbeteringen en prestatiewinst brengen, dat Nvidia hem aankondigde onder de naam 'Big Bang II'. Uit de benchmarks blijkt dat de driver de GTX260 Core 216 inderdaad een stuk sneller maakt ten opzichte van AMD's HD 4870, waarmee de prijs-prestatieverhouding in het voordeel van de Nvidia-kaart komt te liggen.

Met de lucratieve feestdagenperiode op komst, moet de prijsverlaging dan ook gezien worden als een poging om de Radeon HD-kaart weer tot een aantrekkelijk alternatief te maken. Het is niet bekend of AMD ook van plan is om in de prijzen van de Radeon HD 4850 of de Radeon 4870 X2 te snijden.

Club3D Radeon HD 4870 close-up
Moderatie-faq Wijzig weergave

Reacties (40)

Laat ATI eerst nog maar eens goed kijken naar de belachelijke prijsstelling van de 4850X2 want dat slaat nog steeds nergens op t.o.v. een 4870X2.

Ik vraag me toch ook serieus af waar die betere performance dan zo ineens vandaan komt. De GTX200 serie is een uitbreiding van horsepower geen nieuwe revolutie door een nieuwe architectuur of andere benadering.

Wellicht zitten er in Big Bang 2 een cheat zoals we ze ook eerder gezien hebben?

Ik heb nog geen verhalen gezien dat er minder IQ is als gevolg van de nieuwe drivers maar serieus meer performance met slechts een driver zet mij aan het denken.
Zonder een ATI / NV war te willen starten is het op zijn minst toch opzienbarend?

[Reactie gewijzigd door Double-X-L op 28 november 2008 12:33]

Ja je hebt gelijk. Er zijn inmiddels ook andere diepgaandere reviews opgedoken waaruit blijkt dat buitenom de door nVidia aangetoonde titels veel minder algemene prestatiewinst is. Dus wederom PR gedoe van nVidia.

In december en daarna komen algemene driver speed-ups van ATI, en ook hun versie van CUDA. Het schijnt dat ATI menigeen applicaties stuk meer kan versnellen dan nVidia en ik begrijp dat dat door de slimmere shader-architectuur van ATI komt.
Mooi om te zien! Ben altijd pro ATI geweest, maar nu heb ik toch een kaart nodig die CUDA ondersteund (ivm testen van password cracking).

Ik twijfel echt over de 4870 (vanwege de snelheid) en een GTX 260. Enig nadeel is wel dat ik bij een NVidia kaart wel weer een nieuwe voeding moet aanschaffen. Bij ATI is mijn 500 Watt voeding wel voldoende.. :(

Moet maar even geduld hebben tot december als ik dat zo lees. Ben benieuwd hoe mijn applicaties ondersteund gaan worden
Met een 500Watt voeding, als deze van een degelijk merk is dan kun je eender welke grafische kaart vlotjes aan.Bij de Nvidea zal de voeding ook zeker genoeg zijn (als deze van een degelijk merk is.)
Gaat dit over de 512MB versie of over de 1GB versie? De 1 GB versie is net zo snel als de GTX260 Core 216 hoor, tenzij je natuurlijk maar een paar games test waarin nVidia toevallig sneller is, zoals de laatste tijd door enkele websites is gedaan, nadat ze een reviewkit van nVidia hebben ontvangen ;)

Overigens zeker niet als flamebait bedoeld. We zullen eens zien wat Catalyst 8.12 over 2 weken brengt.
Mwah, die Big Bang II is helemaal niet zo geweldig als tweakers.net ons probeert te laten geloven. Die fixes waren maar voor 5 games, en dat is ook alleen maar omdat NVIDIA een half jaar lang uit hun neus heeft zitten vreten.

Als je in andere games test zie je amper verschil, soms zelfs een verlies. Als je alle driveroptimalisaties uit de half jaar van AMD bij elkaar optelt zie je een veel indrukwekkendere lijst.

Wat betreft de GTX216, ik vind ook qua hardware de HD4870 nog steeds een veel betere keus. De GTX216 ondersteunt niet eens DirectX10.1, ondersteunt ook geen Tesselation, geen powerplay, geen Cinema 2.0, geen UVD(2). Alleen PhysX, maar dat is zwaar overrated. Het werkt slecht en zorgt voor performance verlies.

Kijk naar Catalyst 8.12, dan komt ATi Stream... Dan wordt de GTX216 nog verder van de kaart geblazen. GPGPU support voor een aantal zeer populaire applicaties... AI en Physics op de GPU... Performance boosts...

Nee, NVIDIA heeft (vooral hardware-matig) nog erg veel te doen, en ik vind het te ver gaan om te zeggen dat de GTX216 een betere keuze is dan de HD4870 want dat is hij absoluut niet.
ik vind het echt triest dat er tegenwoordig zulke brakke drivers worden geschreven...
Als ik een videokaart koop heb ik liefst van in het begin de maximale (of toch bijna) prestaties erbij. En niet dat ineens blijkt dat ie veel sneller kan door een betere driver.
Ik denk dat als game developers en driver ontwikkelaars de afspraken eens wat meer naleven zodat er geen hacks moeten worden geschreven omdat die en die game engine het zo doet? Ik ben zeker geen kenner, maar volgens mij word hier veel tijd aan verspild?
veel sneller? mwa niet echt.
http://www.anandtech.com/video/showdoc.aspx?i=3462&p=4

die veel sneller is misschien wel waar maar zal je alleen zien in heel specifieke gevallen naar het schijnt.
ik heb behalve deze anand tech ook nog geen echte oude driver vs nieuwe driver vergelijking gezien. mensen hebben blijkbaar gewoon aangenoemen dan nvidia gelijk heeft.
nu die van hexus dan. maar behalve vantage (door de cpu test met physics) valt daar de verhoog ook sterk mee.

[Reactie gewijzigd door Countess op 28 november 2008 12:41]

Natuurlijk is niet ieder spel op alle resoluties en settings sneller maar zo werkt marketing nu eenmaal (wasmiddel blijft ook maar schoner en schoner wassen).
Toch is er een aardige verbetering te zien onder bepaalde omstandigheden.
Fudzilla is meestal aardig kritisch tov nvidia maar zijn best happy met de drivers:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10559&Itemid=40
daar testen ze de oude gtx260 tegen de nieuwe gtx260, niet de drivers.
en de hd4870 heb ik nog nooit zo slecht zien presteren ivm de gtx260 in welke test dan ook. het lijkt wel of ze de instellingen hebben gekozen waar de hd4870 het slechte mee werkte. de resolutie is vaak net te hoog voor de hd4870 zeker met AA. daar is de kaart van 200 euro niet voor bedoeld.

http://www.xbitlabs.com/a...ay/7games-fall2008_4.html
hier bijvoorbeeld wint de hd4870 het wel van de gtx260 in dead space, zelfs op 1920x1200. waar hij bij de fudzilla test heel ruim verslagen word.
nvidia noemt geen grote verbeteringe in performance bij dead space maar fudzilla zegt dat de oude gtx260 nu VEEL sneller is als de hd4870.
sterker nog daar zeggen ze dat de gtx260 nu ineens meer als 2 keer zo snel is als in de xbit lab tests op de zelfde resolutie, en de hd4870 'maar' 30%.
fudzilla's cpu is wel 20% hoger geclocked maar daar krijg je niet 100% performance winst door.

als benchmarker vertrouw ik xbit en anandtech het meeste, hexus ook wel maar fudzilla toch een flink stuk minder. ik weet dus niet wat fudzilla gedaan heeft maar ze hebben het flink verkloot.

en in de test van anandtech hebben ze juist de games getest waarvan nvidia zei dat ze sneller zouden zijn.

edit @ barco : tja dat zou ik kunnen zeggen, maar zoals jouw guru3d ook al aan geeft, de verschillen zijn LANG niet zo groot als fudzilla ons wil doen geloven, en bij guru3d (en andere) wint de hd4870 het nog regelmatig net in games waar hij bij fudzilla met 30-40% vooruit gestoven word.

[Reactie gewijzigd door Countess op 28 november 2008 14:36]

Volgens mij gebruiken ze daar de 1GB versie van de 4870 hoor, dus qua geheugen zijn de nvidia's in het nadeel.

Je hebt wel gelijk wat betreft het vergelijken van de oude 260 met de nieuwe, maar volgens mij was de nieuwe (gtx260 216) met de oude driver langzamer dan de 4870. Nu is ie dus sneller.
Je zou ook kunnen zeggen dat je de GTX260 nog nooit zo goed hebt zien presteren.
Misschien hebben ze toch wat zinnigs gedaan in de drivers. ATI heeft niet voor niets soort gelijke verbeteringen belooft in de december (8.12) drivers.
Voor een wat ruimere vergelijking op meerdere resoluties en games:
http://guru3d.com/article...e-gtx-260-core-216-test/1
Moet de prijs van de 4850 dan ook niet verlaagd worden? Ik zou het mooi vinden als die kaart in winkels ook rond de 130 zou gaan kosten. Heb je genoeg aan 500watt voeding om de 4850 in crossfire te draaien?
ze zeggen ook dan je een 450watt voeding moet hebben voor een enkele hd4870 maar het gaat prima met deze 380 watt voeding (coolermaster).
als je een hogere kwaliteit voeding hebt kan je makkelijk met een lager wattage weg komen. die 500 watt is waarschijnlijk geijkt op een voeding die zegt 500 watt te zijn maar dat alleen als korte piek kan leveren.

eigenlijk gaat het erom hoe veel ampère je voeding kan leveren op de 12 volt lijn. moderne voedingen leveren steeds relatief meer ampère op de 12 volt lijn omdat daar steeds meer gebruik van word gemaakt, waar de vroeger de 3.3 en 5 volt waren.

[Reactie gewijzigd door Countess op 28 november 2008 14:33]

Dat hangt ervan af, op de site van AMD/ATI staat dat je een 500W voeding nodig hebt voor een 4850 CfX en een 600W voor 4870 CfX, maar het ligt er natuurlijk aan of je je processor hebt overclockt en hoeveel andere energieslurpende componenten je hebt ingebouwd. Zelfs 3W (CCFLletje) kan het verschil maken.
Dan gaan de prijzen i.i.g. weer terug naar wat ze waren toen de dollar nog 1,60 was. Vooral de laatste 6 weken is het duidelijk dat de meeste onderdelen toch wat duurder zijn geworden omdat de dollar rond de 1,30 is.

Waarom dat laatste zo is gezien de belabberde staat waarin de USA verkeerd, is mij totaal onduidelijk.
Simpel, de kredietcrisis is inmiddels ook in veel hoofden van mensen in europa aangeland. Heeft de euro niet veel goeds gedaan merk je dus wel. (najah, 1.30 is gezonder als 1.60 euro:dollar qua export enzo)
Grotendeels onzin, de echte reden is dat wereldwijd zeer veel institutionele (grote) beleggers hun belangen (aandelen, opties, obligaties, you name it) moeten liquideren om aan vermogensratio's te blijven voldoen en financiering van lopende projecten te kunnen volhouden.

De oorzaak ligt dus wel in de kredietcrisis, maar heeft een heel andere insteek, namelijk de korte termijn vraag naar dollars waardoor er een tekort ontstaat en de prijs dus stijgt. De kans is dus groot dat de dollar binnen nu en een half jaar weer terug op het "oude" niveau van 1,50 euro ligt aangezien de fundamentals van de USA er idd alleen maar beroerder op zijn geworden.

[Reactie gewijzigd door flipjevandejam op 28 november 2008 13:39]

Jullie bedoelen toch 1,50 dollar op 1 euro of niet?
een prijs verlaging is gewoon een feit en dus geen propaganda voor AMD ofzo.
als nvidia het zou doen posten ze het ook gewoon.

ze noemen ook de 180 drivers die een grote prestatie verbetering zouden geven.
nou daar is ook niet iedereen het mee eens
http://www.anandtech.com/video/showdoc.aspx?i=3462&p=4 (max +1,78% max -7.53%! 4 van 5 games TRAGER)

ook zeggen ze in het artikel : "dan ook gezien worden als een poging om de Radeon HD-kaart weer tot een aantrekkelijk alternatief te maken"
alsof ze dat nu niet zijn!

is dus meer nvidia propaganda als voor AMD.
de echte vraag is dus, wat heb jij tegen AMD die de prijzen verlaagt?

[Reactie gewijzigd door Countess op 28 november 2008 12:28]

een prijs verlaging is gewoon een feit en dus geen propaganda voor AMD ofzo.
als nvidia het zou doen posten ze het ook gewoon.
Een prijsverlaging hoort in pricewatch te staan en nergens anders.
Het is gebruikelijk dat Tweakers ongeveer alle door de fabrikant uitgevoerde prijsverlagingen van processoren en videokaarten als frontpage artikel weergeeft.. Tenminste, ik heb het nog nooit anders gezien..
van de week met een maat van me nog uitgezocht welke videokaart hij nou in zijn nieuwe systeem moet zetten..
deze keuze heb ik een half jaar eerder moeten maken.. (ook altijd een tering beroerde... het dilemma: hoeveel geld wil ik nu maximaal uitgeven voor dat extra beetje peformance)

maar.. uiteindelijk maakt het toch geen reet uit? alles rond de 200 euro.. kan elke nieuwe game zonbeetje wel op high spelen.. ik doe wel 2 jaar met zo'n kaart.. dus dan maakt dat uitzoeken niks meer uit.. over 2 jaar koop ik een nieuwe kaart, en kan alles weer op high spelen..
Het is gewoon een hype. Ikzelf heb de 4870 en ben er zeer tevreden over.

Die performance waar over gesproken wordt zijn volgens mij geen grote verschillen in vergelijking met de ATI 4870. Tenzij je 3D Mark geil bent natuurlijk, maar uiteindelijk draait het toch om de game prestaties en belevenis.
Het aloude verhaal van prijs/prestatie. De zogenaamde 'sweet spot' ligt meestal rond de 250 euro.
Zelfs dat valt zwaar te betwisten. True, voor high-end zit je bij 250 gebakken, omdat verdere kaarten meestal overclocks/unlocks zijn van diezelfde chips, waarvoor je al snel 100 euro meer betaalt. Toch zit de sweet spot voor veel gamers rond de 150-200 range. In plaats van de nieuwe midrange te kopen, ga je dan voor de high-end van 1 generatie terug. Meestal betere prestaties per euro.

Met de geforceerde DX10 hype hebben ze dit recentelijk weten te overwinnen, ik verwacht dan ook dat ze hiermee doorgaan tot de consumenten het eindelijk niet meer pikken.
Klopt niet helemaal. Ikzelf heb een HD4850 en een vriend van me ook. Minder dan ¤150,- en CoD4 op z'n hoogst :) Ik denk dan ook dat je jongere gamers meer tussen de ¤100,- en ¤150,- euro gaan zitten voor een videokaart.
kijk dat is mooi, een betere prijs voor een mooie videokaart.
misschien toch eens tijd om er een tweede bij te halen :D
Hmm met al die prijsverlagingen zou ik nog wel een best buy guide december editie willen :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True