Door Hielko van der Hoorn

Club3D Radeon HD 4870 versus MSI Geforce GTX260 OC

Conclusie

Om de resultaten van de tests overzichtelijk samen te vatten hebben we het gemiddelde van de genormaliseerde scores genomen. Dit is in onderstaande grafiek weergegeven.

Gemiddelde genormaliseerde resultaten
12801600Totaal
Radeon HD 48700,960,93 0,95
Geforce GTX260 OC1,001,00 1,00

Zoals uit bovenstaande grafiek blijkt, is de Geforce GTX260 van MSI gemiddeld 5 procent sneller dan de Radeon HD 4870. Het is echter een veilige aanname dat deze voorsprong voornamelijk te danken is aan de net iets hogere kloksnelheden die MSI de kaart heeft meegegeven. Ongeveer hetzelfde beeld zagen we eerder toen de Radeon HD 4850 het opnam tegen de PNY Geforce 9800GTX OC, maar het grote verschil is de prijsstelling van de kaarten. De 4850 kwam overtuigend als favoriet uit de test vanwege de aanzienlijk lagere prijs, maar dat is ditmaal niet het geval.

De MSI Geforce GTX260 OC is op het moment van schrijven de goedkoopste GTX260 in de Tweakers.net Pricewatch met een prijs van 229 euro. De goedkoopste Radeon HD 4870 is niet veel goedkoper met een prijskaartje van net iets minder dan 200 euro. Als we alleen naar de prijs/prestatieverhouding kijken, wint de Radeon HD 4870, maar er zijn ook andere vermeldenswaardige voordelen van deze kaart. De lagere geluidsproductie, de ondersteuning voor DirectX 10.1 en de lagere energieconsumptie onder belasting zijn prettige eigenschappen. Ook belooft AMD dat er nog wat gedaan zal worden aan de energieconsumptie in idle-modus door het implementeren van Powerplay in de drivers.

De Geforce GTX260 heeft echter ook positieve punten. Allereerst is de GTX260 voorlopig nog energiezuiniger in idle-modus, maar het grootste pluspunt van de kaart is de geheugencapaciteit van 896MB. Op ultrahoge resoluties zoals 2560x1600 kan dit zeker van pas komen, evenals in de toekomst wanneer games veeleisender worden.

Als we toch een winnaar moeten aanwijzen, is dat de Radeon HD 4870. Het is echter niet meer zo dat je gek moet zijn om een GTX260 te kopen, zoals het geval was bij de introductie van de 4870. Dankzij de prijsverlagingen die nVidia heeft doorgevoerd, is de GTX260 een concurrerend product geworden.

Club3D Radeon HD 4870 close-up

Reacties (109)

109
93
22
10
2
0
Wijzig sortering
Toch een aantal opmerkingen bij deze review, want ik erger me aan een aantal zaken:

1. Waarom testen jullie deze rappe kaartjes op zo'n oud testsysteem? Een E6600 is veel te langzaam voor zulke kaarten en een E8400 kost ook al geen drol meer. Waarom dan niet het testsysteem uitrusten met zo'n 45nm CPU en die nog een beetje overklokken. Dan heb je een representatief systeem, want verreweg de meeste mensen die zulke kaarten kopen hebben allang de overstap gemaakt naar Intel's 45nm processors.

En ook het moederbord is ongeschikt voor deze benchmark, want deze is gebaseerd op de 965 chipset en die ondersteunt geen PCI-E 2.0, terwijl beide videokaarten dat wel doen. Ik weet zeker dat ze veel betere scores kunnen halen als ze beschikking hebben over de volle bandbreedte en dat de verschillen tussen de GTX 260 en de HD4870 beter naar voren komen en meer aansluiten bij de realiteit.

2. Waarom laten jullie de HD4800 serie het opnemen tegen overgeklokte versies van vergelijkbare GeForce kaarten? Ik vind dit een merkwaardige keus omdat de kaarten elkaar al weinig ontlopen qua prijs. Door een overgeklokte versie van de nVidia kaart te kiezen is deze duurder maar gaat ie er ook vaker met de winst van door qua scores. Dit kan bij de minder geïnformeerde lezers de indruk wekken dat de GeForce GTX 260 een snellere kaart is dan de HD4870.

3. Het aantal games dat getest wordt is naar mijn mening te weinig. Spellen als Race Driver Grid en COD4 zijn heel populair en deze draaien in verhouding beter op AMD videokaarten, net zoals dat Crysis beter loopt op nVidia kaarten. Je hebt dan een iets betere balans qua scores en kunt dan ook makkelijker een oordeel vellen.

En waarom 3DMark 06 meenemen in deze test? Die benchmark is al zo oud en is totaal niet geschikt voor systemen van vandaag de dag. In 3DMark06 wordt de score meer beinvloed door een snellere CPU, terwijl games juist veel meer worden beinvloedt door een snellere videokaart of meerdere videokaarten in SLI/CF. Neem dan de GPU score 3DMark Vantage op in deze test, want die geeft wel een vrij accuraat beeld van de performance van huidige kaarten en oudere kaarten.

[Reactie gewijzigd door frankknopers op 31 juli 2008 15:29]

1. Helemaal mee eens, je moet op z'n minst PCI-ex 2.0 16x tot je beschikking hebben wil je realistisch kunnen testen. Ook een flinke processorupgrade zou niet misstaan.

2. Ik vind dit op zijn minst merkwaardig. Zeker omdat het al twee keer gebeurd is. Het argument wat aangedragen wordt (goedkoper) vind ik een flink non-argument omdat je artikelen met niet-standaard specificaties aan het vergelijken bent. Prijs moet dan niet uitmaken. Als je voor bang-for-buck wilt gaan heb je een heel andere review op het oog.
Als ik wil weten wat het snelheidsverschil is tussen een dual en een quad ga ik toch ook niet één van de twee overclocken?

Als je even wacht is de 4870 OC waarschijnlijk ook goedkoop en dan wordt de uitslag weer heel anders. Nu lijkt het alsof Nvidia steeds de slag wint in de kaarten die tegenover elkaar in de markt gezet zijn. Dit is echter objectief gezien zeker niet het geval.
Het is juist ATI die deze slag gewonnen heeft. Nu lijkt het wel alsof er gedaan wordt dat Nvidia toch wel gewonnen heeft. Waarom? Objectief kan je het niet noemen.

3. Iets meer games zou inderdaad niet verkeerd zijn.
Het meenemen van 3Dmark snap ik wel. Er zijn erg veel mensen die toch nog waarde hechten aan een compleet synthetisch gegenereerd getalletje.
Dan is het toch een kleine moeite om die test even te draaien?
Als niemand meer 3DM06 scores bij de review zet zijn we ook van die kromme scores af die weliswaar synthetisch zijn, maar toch heel weinig zeggen over de videokaart zelf. 3DMark06 is gewoon geen geschikte benchmark meer en die maakt eht vergelijken van verschillende kaarten erg moeilijk.

Iemand die een hogere score haalt met 1 HD4870 dan iemand met 2 in crossfire simpelweg door het feit dat de processor is overgeklokt maakt dat het geen goede maatstaaf meer is. Dus ook al is ie gemakkelijk te draaien, je kunt hem beter links laten liggen.

[Reactie gewijzigd door frankknopers op 1 augustus 2008 01:45]

Punt één ben ik met je eens, het testsysteem is niet meer passend voor deze generatie videokaarten. En als je dan toch bezig bent met een upgrade, dan zou ik ook de harde schijf vervangen: er zijn inmiddels wel snellere HDDs beschikbaar dan een 74GB raptor. (Overall sneller bedoel ik dan, dus niet alleen kijkend naar access times.)

Vraag twee is hierboven al gesteld én beantwoord. De overgeklokte GeForce-kaart is simpelweg de goedkoopste GTX260 in de pricewatch.
Harde schijf maakt zo goed als niks uit in een videokaartentest. Zolang je maar genoeg ram hebt hoeft je HDD ingame niks te doen. Verschillen door de HDD zijn in het geval van voldoende werkgeheugen in de foutmarges van de metingen.
ik moet toch even commentaar maken, misschien dat het verstandig is om een nieuwere processor te nemen (of de huidige te overclocken) bij het benchmarken van videokaarten. De huidige processor is snel, maar niet meer mainstream. Bij het benchmarken van deze snelle gamemonsters zou op een gegeven moment de bottleneck gewoon ergens anders kunnen gaan liggen. Het zou zonde zijn als de resultaten niet representatief zouden zijn als de processor de boel tegenhoud.

verder wel een goede review :), nu nog maar hopen dat ATI / AMD met deze set videokaarten wat winst kan boeken.
Er wordt gewerkt aan een upgrade van het testsysteem, dus met een beetje geluk is dit de laatste review met onze oude en trouwe E6600.

Dat gezegd hebbende, volgens mij overschatten die meeste mensen hier de invloed van de cpu op de benchmarkresultaten enorm. De meeste grafische benchmarks zijn helemaal niet echt cpu-intensief, zeker niet op hoge grafische instellingen en hoge resoluties. Het zou mij verbazen als Crysis significant sneller is met een quadcore bij 1600x1200 op very high, dan met onze E6600. Die cpu is immers snel genoeg om meer dan 60fps te produceren op lage grafische instellingen, dus waarom zou deze de prestaties significant tegenhouden als de videokaart niet verder komt dan 30fps?

Overigens is 3dMark06 een verhaal apart, o.a. vanwege het opnemen van de cpu score in het eindresultaat.
Je hebt helemaal gelijk, op lagere resoluties zal je het verschil wel zien. Maar dat boeit nou juist het minst; op die resoluties voldoen alle cpu's. Op heel hoge resoluties doet de snelheid (en het aantal cores) er veel minder toe; tot nul. Daar scoort een dualcore net zo goed als een opgepompte quadcore.

Dit kwartje wil maar niet vallen bij sommigen.
idd, misschien dat de scores daardoor wat hoger komen. De E6600 is toch al vrij oud, en kan de videokaart misschien niet bij alle tests bijbenen?

btw : Bij de resultaten op de Energie En geluid pagina staat de HD4850 in plaats van de HD4870.
Niet alleen de snelheid is van invloed, ook het aantal cores. Het is bij vorige reviews al gebleken dat high-end videokaarten bij sommige spellen veel betere presteren met een quadcore dan met een dualcore als ondersteuning. Bij sommige revieuws veranderde de resultaten zelfs zo sterk dat kaart A won bij een dualcore systeem en kaart B won bij een quadcore systeem.

Even de oude review er bij gepakt: 8800 Ultra VS HD 3870 X2. De 8800 Ultra won op alle dualcore systemen, de HD 3870 X2 won op alle quadcore systemen. Zie verder de reactie van lism en de reacties daarop.

@hieronder: zeker niet alleen RTS games. Het effect treed ook duidelijk op bij UT3 en is zelfs bij Crysis(de Nvidia liefhebber ;)) zichtbaar.

@hieronder 2: Nog maar even in deze post reageren om het een beetje samenhangend te houden.
Het was niet allen bij ome Tom waar de quadcore won van de dualcore, om het zo maar te zeggen. Lism had een hele collectie gepost.

Ook nu (4870 VS 260) is de quadcore sneller. Met een dualcore is de 260 ongeveer 14% sneller bij Crysis, met een quadcore is het verschil 1% in het voordeel van de 4870. De 4870 wint hier dus niet echt, maar de 4870 heeft nu wel een relatieve prestatiewinst van 10%.

Het appels en peren verhaal maakt verder niet zo uit. Het doel is om duidelijk te maken dat een E6600 er voor zorgt dat de kaarten niet volledig hun kracht kunnen laten zien.

[Reactie gewijzigd door Electrowolf op 31 juli 2008 12:10]

dat kleine handjevol games dat echt kan profiteren van een quad core is nihil. Eigenlijk enkel bij rts games zou een quadcore profijt kunnen hebben van de extra cores. Voor de rest is een hoger geklokte dual core aan te bevelen.

waarom?: omdat de renderthread bij games niet zomaar gemakkelijk doormidden gehakt en verspreid kan worden over twee of meer cores. Dus bij een dual core houd 1 core zich bezig met het renderen, en de andere core met de AI, sound, physics (of niet...) etc. etc. Idem bij een quad core, waar je dus eigenlijk een stel nietsdoende cores hebt. Bij rts games heb je zoveel dingen die naast het renderen ook behandelt moeten worden dat een quad core daar wel profijt heeft :)

maar als er inmiddels bewijs is dat je gelijk hebt, dan ben ik ook wel benieuwd naar de review :)
Even de oude review er bij gepakt: 8800 Ultra VS HD 3870 X2. De 8800 won op alle dualcore systemen, de HD 3870 X2 won op alle quadcore systemen.
eens even gekeken wat er nu vergeleken is.
van deze review van t.net
De specs van t.net: E6600 op 2.4 ghz, Asus Striker ii formula met 2 gb PC6400 DDR2 geheugen, catalyst: 8-451-2-080123a
van deze review van tom
De specs van tom: QX6850 op 3 ghz, een asus p5e3 met een intel chipset, DDR3 geheugen, catalyst: 8-451-2-080108a

De vergelijking die je maakt (bijvoorbeeld crysis) op de resolutie 1680 bij 1050. Waarbij t-net review gebruik maakt van 4x fsaa en 16x aa, waar de anisotropische filterwaardes niet bijstaan, en tom 4x aa (of fsaa) en 8x AF, haalt t-net 18.8, en tom 17.7

alles op een rijtje ben je dus echt appels met peren aan het vergelijken..., verschillende drivers, AA waardes niet gespecificeert, ddr3 en ddr2, verschillende chipsets (intel vs nvidia), en een quad core op 3 gigahertz en een dual core op 2.4. (en ook nog eens verschillende bussnelheden, want die quadcore loopt op 1333 mhz en de dual core op 1066)

en als laatste kleine puntje zou een quad core bij crysis misschien ook wel effect kunnen hebben. crysis heeft namelijk een enorme physics afdeling, waar een quad core profijt van zou kunnen hebben.

ps. 3dmark06 scores vergelijken tussen systemen met dezelfde videokaart, maar een verschillende processor is ook niet eerlijk. de cpu-test wordt ook meegenomen in de eindscore, wat bij een quad core dus veel hoger uitvalt dan bij een dual core

en dit wordt de laatste edit: review tussen een dual en quad core:

@hierboven 2:
nog steeds sla je de plank mis. Relatieve prestatiewinsten van een test bij dezelfde reviewer zijn vergelijkbaar, mits dezelfde externe omstandigheden gebruikt zijn. Zet ik orthos aan bij de tweakers.net review, en geef ik die de realtime prioriteit, dan zal mijn benchmark van crysis uiteraard in het honderd lopen. (oftewel niet vooruit te branden...), om maar even een extreem voorbeeld te geven. Als tom dat niet doet, zal de benchmark van tom veel beter uit de bus komen.

T.net gebruikt een dual core, ome tom een quad core. Beide een compleet ander systeem, andere windows install, andere drivers. Bij een benchmark waar niet alle variabelen bij zijn gezet zeg je zomaar dat de processor het verschil maakt tussen winst voor nvidia of winst voor ati/amd. die vlieger gaat niet op, en je vergelijkt nog steeds appels met een stuk leverworst.

dus, wil je het goed vergelijken, zet dan een systeem in elkaar, voer de benchmark uit met een stock E8400 en een stock Qxxxx (zo'n 45 nm geval op 3.0 ghz) en dan ben je pas aan het vergelijken. Eerder niet.

pps. met de laatste zin ben ik het uiteraard wel eens :)

[Reactie gewijzigd door M2M op 1 augustus 2008 14:13]

Jazeker, in de systemen met een quadcore er in wint de HD 3870 X2 van de 8800 Ultra bij zowel UT3 als Crysis. Dit zijn geen RTS games. In de systemen met een dualcore wint de 8800 Ultra. Het effect treed dus niet expliciet op bij RTS games e.d., maar ook bij andere type spellen en toepassingen.

Simply said: een dualcore is een bottleneck voor de videokaarten, een quadcore is dit niet(of iig minder).

Als we dus een goede vergelijking kwa kracht van de videokaarten willen zien zou minstens de E 6600 moeten worden vervangen worden door een quadcore.

[Reactie gewijzigd door Electrowolf op 31 juli 2008 11:49]

Sluit ik me bij aan. Tevens wil ik hier graag aan toevoegen dat je een quad core goed kan tunen. Je heb meer cores om mee te spelen.

Daar is wel tooling voor nodig.

Ik gebruik zelf hiervoor AffinityII. Dat vindt je hier: http://www.geocities.com/edgemeal_software/SetAffinity/
uiteraard is een gelijkgeklokte quad core minstens zo snel als een dual core (van dezelfde serie, fabrikant en fabrikageprocedé), mits dezelfde overige hardware gebruikt wordt. Echter, voor de meeste huidige games is het niet noodzakelijk om een quad core te hebben, om het optimale uit je videokaart te halen. Een hoge kloksnelheid van de processor is dan belangrijker dan de hoeveelheid cores (in de meeste gevallen). Simpelweg omdat bijna alle huidige games niet geoptimaliseerd zijn voor 2, laat staan meer dan 2 cores.

steek je geld dan in een dual core, klok die 50% over met een goede koeling en je hebt stukken meer prestatie dan een quad core die je stukken minder kunt overklokken omdat het ding enorme hoeveelheden hitte produceert. (zelfs als je het voor elkaar krijgt om die krengen per core te tweaken...)

[Reactie gewijzigd door M2M op 31 juli 2008 14:23]

Dat is een persoonlijke keuze.
Toegegeven, bij de huidige games presteert een dual core beter omdat je die hoger kunt klokken.

Wat je echter wel in veel reviews tegen komt is dat vanaf zo'n 3GHz er niet veel nuttige winst meer te behalen valt.
Of het spel is speelbaar, of hij is het niet.
Dat is dan ook de reden dat ik zelf wél quadcore heb. Mede vanwege virtualisatie en omdat ik er jaren mee wil doen.

Stel dat het spel de twee cores flink gebruikt, dan kunnen de overige processen nog op andere cores. Het zal geen groot verschil zijn maar het maakt wel uit.

Als je echt wilt weten wat de videokaarten presteren moet je op hoge resolutie kijken.
Dat is de enige manier om zeker te zijn dat de processor amper invloed heeft.
Wat je nu zegt klopt voor geen meter. Misschien gaat die regel op voor de 3870 X2, maar is zeker niet algemeen.

Als je hier kijkt:
http://www.hardocp.com/ar...yNCw0LCxoZW50aHVzaWFzdA==

zie je dat, ondanks de extreme 3.66ghz quadcore, de GTX260 nog steeds nauwlijks sneller is dan de 4870. Compleet in lijn met wat de review hier op tweakers laat zien.

Daarmee wil ik niet zeggen dat de Tweakers.net review uitstekend is; dat is die niet. Maar diegenen die denken dat je absoluut een Quadcore nodig hebt om de beste scores neer te zetten, overdrijven schromelijk.

Simply said: Een Quadcore is nog steeds nauwelijks sneller dan een Dual-core, op een enkele uitzondering daargelaten. Mocht je nou net die uitzondering graag spelen en ook nog eens op hoge resoluties en alles op very high; dan heb je pas echt iets aan een quadcore.
Misschien kan iemand de reviewer een Q6600 ter beschikking stellen? Ik zou het erg interessant vinden om te zien of wat hier beweerd wordt, namelijk dat een quadcore hogere benchmarks laat zien, ook waar is. Beide processoren draaien op 2,4 Ghz.
ik moet toch even commentaar maken, misschien dat het verstandig is om een nieuwere processor te nemen (of de huidige te overclocken) bij het benchmarken van videokaarten. De huidige processor is snel, maar niet meer mainstream. Bij het benchmarken van deze snelle gamemonsters zou op een gegeven moment de bottleneck gewoon ergens anders kunnen gaan liggen. Het zou zonde zijn als de resultaten niet representatief zouden zijn als de processor de boel tegenhoud.

verder wel een goede review :), nu nog maar hopen dat ATI / AMD met deze set videokaarten wat winst kan boeken.
Waarom ze nog met een oude processor kiezen is omdat je deze kaarten kan vergelijken met de videokaarten die hiervoor zijn getest op het zelfde systeem. Zou je elke test een snellere proc (kloksnelheid/cores) dan word het moeilijk zoniet ondoenbaar om de kaarten normaal met elkaar te vergelijken.
Ik heb zelf een E2160, loopt nu op 2x3.6 ghz deze heb ik bij een 8800GTX zitten. Tot ik de E2160 op 2x3.0 ghz had lopen, hield deze mijn 3d kaart niet bij (hogere CPU snelheid gaf hogere grafische 3d-mark 06 score).

Aangezien ik een E2160 op 2x3 nodig heb voor een 8800GTX neem ik toch aan dat je voor de 260GTX OC toch echt iets meer nodig hebt.
3DMARK score is ook afhankelijk van CPU-snelheid. Je kan dus geen eventuele bottleneck vinden door 3DMark scores te vergelijken.
Het kan een bottleneck zijn oke, maar dan zou dit dus bij beide kaarten het probleem zijn wat voor deze test uiteindelijk niet uitmaakt, zelfde als voor het aantal cores.
Is het niet gewoon belangrijk dat ze gewoon in het zelfde systeem gebenched worden?!
Anoniem: 96789
31 juli 2008 13:55
Als eerste de reactie geven , fijn dat jullie een mooie review maken van de kaarten maar ik heb even wel mijn bedenkingen.
Vooral de test met stroomverbruik en geluidsproductie. Jullie zetten er al neer dat ATI/AMD de koeler al langzamer laat draaien als Nvidia maar waarom dan nog bij conclusie neer zetten in geluidsproductie en stroomverbruik wint de 4870.Ik durf echt wel te zeggen wanneer de koeler van de 4870 sneller draait dat deze kaart zo wie zo ook meer stroom gaat verbruiken en dat de geluidsproductie ook uiteraard hoger komt te liggen.Ik vind dit nu echt niet een vergelijk en winst voor de 4870. Zo kan ik natuurlijk ook het stroomverbruik laag houden(al hoewel ik dit betwijfel omdat de ATI erg heet word , te veel warmte in de behuizing ook bij goede airflow zal het energieverbruik ook ook hoger worden ,.Logica :) ) Wil je de hitte beperken bij de ATI dan zou de koeler sneller moeten lopen , dan verbruik hij ook meer en de geluidsproductie word ook meer.Dus ik vind het vergelijk een beetje waardeloos omdat ATI zijn fan's véél langzamer laat draaien.Zo zal ATI altijd winnen in stroomverbruik/geluidsproductie

Hier wordt nu wel veel geschreven geen eerlijke test omdat de Nvidia 260 een OC model heeft , maar ik kan me goed begrijpen dat men de goedkoopste 260 Kaart neemt. Maar is het dan wel eerlijk als ATI even de koeler langzamer laat draaien dat ze dus steeds met stroomverbruik en geluidsproductie aan kop staan 8)7 Dat word altijd in de eindconclusie meegenomen , zo nu ook weer. Is dat dan wel eerlijk :? dat ze daardoor beste prijs/prestatieverhouding.Want in deze test krijgt de 4870 deze conclusie.

Vroeger werden de kaarten getest en als er maar paar tientjes in zat in het voordeel van de winnende kaart was deze de beste ook al verbruikte hij meer stroom etc etc.En nu niet meer wat ik wel snap hoor dat er veel op gekeken word , maar dan moet er wel eens goed getest worden door de ATI zijn koelers ook eens volle toeren :X te laten draaien of tenminste even snel als die van de concurrent , dan zal od gebied van stroom en geluidsproductie een hele andere conclusie komen ;)

Ik ben alleen nieuwsgierig hoelang er getest word op stroomverbruik.Is dit even alleen zodra de benchmarks tests of is het even uren lang dat de kaarten aan het stressen zijn?
Ik vraag dit omdat ik grote vraagtekens zet bij stroomverbruik ATI vooral in Stress.Niet zo zeer de kaart maar omdat deze kaart enorm heet word word het systeem automatisch warmer ook met goede airflow , misschien niet veel warmer maar word warmer.Dat gaat dus altijd gepaard met dat de computer meer energie verbruikt.Maar dit ga je pas merken op langer termijn niet even kort testen , vandaar dat ik vraag hoelang word er getest word.
Als we alleen naar de prijs/prestatieverhouding kijken, wint de Radeon HD 4870, maar er zijn ook andere vermeldenswaardige voordelen van deze kaart. De lagere geluidsproductie, de ondersteuning voor DirectX 10.1 en de lagere energieconsumptie onder belasting zijn prettige eigenschappen
P.S: De 4870 in performance is hij beter als de normale 260 variant , dit is uit verschillende reviews duidelijk op te maken , maar tegen deze OC variant is hij qua performance niet beter.De marge bij de normale 260 was in vele opzichten klein. Omdat hier bepaalde tests niet naar voren komen zal de 4870 met bepaalde test niet over de OC editie heengaan.
Ik zeg dit er maar even bij mij gaat het even puur om Stroomverbruik en geluidsproductie test. ;)


Maar een prachtig marketingtrucje van ATI/AMD om dit te doen , iedereen is zo bezig met energie en geluidsproductie O-) , dus besluit ATI/AMD even om de koeler langzamer te laten lopen minder stroomverbruik(zeggen ze) minder geluid(dit is een feit) maar wel een heethoofd(dit word niet gezien :> , of wil niet gezien worden ) Maar wat gebeurd er als hij zo heet wordt :9 .......................... Vul de rest maar zelf in want er zijn meerdere opties ;)
Eentje dan van mijn kant uit. "wat word mijn videokaart toch zo heet en mijn heel systeem word stukken warmer hoe kan dit nu :) _/-\o_ ) |:(


Voordat er gezegt word ik ben Nvidia fan , Nee ik heb geen voorkeur voor eentje , ik zoek en kies gewoon een kaart die bij me past 8-) Is dit Nvidia of ATI mij maakt het niets uit.

[Reactie gewijzigd door Anoniem: 96789 op 31 juli 2008 14:12]

Er is toch ook gekeken naar de geluidsproductie onder volle belasting? De koeler van de HD4870 gaat dan ook wat harder zn best doen, en wat blijkt: het verschil in geluidsproductie tussen de twee kaarten wordt alleen maar groter! Dus ook als de koeler van de 4870 harder gaat draaien blijft ie een heeel stuk stiller dan de GTX260. Dat de temperatuur van de 4870 hoger is doet er niet toe, eenmaal omdat grafische kaarten deze temperaturen aankunnen.

Ati heeft dus besloten dat ze liever een stille kaart leveren die wat warmer wordt, dan een luidruchtige kaart die koeler blijft. Ik geef ze groot gelijk. Echter, als je 't daar niet mee eens bent kun je de fanspeed ook zelf aanpassen. Zelfde geldt voor de GTX260 denk ik.

En over je verhaal over het stroomverbruik. Ik geloof dat je denkt dat hoe warmer de kast van binnen wordt, hoe hoger het stroomverbruik zal worden. Dit is natuurlijk niet waar. De koelers zullen allemaal wellicht iets harder gaan draaien, maar dat valt zowat te verwaarlozen. Omgekeerd is het vaak wel waar: hoe meer energie een kaart gebruikt hoe warmer deze zal worden. Maar de Ati wordt niet warmer omdat 'ie meer energie verbruikt, maar omdat de koeler gewoon zo laag staat.

Het maakt dus ook niet uit hoe lang het energieverbruik gemeten is, als beide kaarten maar even zwaar belast werden.

[Reactie gewijzigd door FreddyFish op 31 juli 2008 14:49]

Jouw verhaal over het voordeel dat ATI haalt in de geluidsproductie- en stroomverbruik tests kan ik niet echt volgen. Je koopt toch een totaaloplossing van videokaart + koeling en als ATI ervoor kiest om de chips 90 graden te laten worden, tegen een lagere geluidsproductie dan heb ik daar niks op tegen. Je moet gewoon kijken naar hoeveel fps je uit je kaart krijgt en met welke features erbij en voor welke prijs. als de HD4870 gewoon snel is dan boeit het mij niet of ie nou 90 of 100C is. De chips zijn er blijkbaar op gebouwd dus ik zal daar neit wakker van liggen. De geluidsproductie daarentegen vind ik wel belangrijk, want daar het ik zelf last van. Dat de RV770 zuiniger is onder load en dus veel minder koeling nodig heeft is dan alleen maar een voordeel.

En over de hitte in de kast: Beide kaarten hebben een dualslot koeler die bijna alle warmte direct uit de kast blaast. Dus eht opwarmen van een kast doordat de fan wat langzamer draait zie ik dan ook niet gebeuren.
Kan iemand mij uitleggen hoe het verschil komt in scores tussen de benchmark in de spellen en de 3dmark score.
Ikzelf vind de 3dmark score toch een belangrijk graadmeter bij het vergelijken van grafische kaarten.
Wat mij dan weer verbaast is dat de ATI kaart daar de beter score in neerzet maar deze het in elke spel die gebenchmarked is legt deze het af tegen de Nvidia kaart.
Dat de ene kaart beter presteert afhankelijk van het spel is natuurlijk algemeen bekend.
Ik dacht alleen altijd dat de 3d mark score een goede scheidsrechter was in deze.
3DMark is ongeveer de slechtste scheidsrechter.

ATI heeft duidelijk geoptimaliseerde drivers vanaf de 3000-serie (kijk maar naar 3870x2 reviews) voor 3DMark.
Vergelijkbaar heeft NVIDIA een voordeel (ik weet niet zeker of dit een driver of code-voordeel is) met Crysis.

Bij vergelijkbare kaarten (die in gamebenchmarks ongeveer hetzelfde scoren) van ATi en NVIDIA scoren de ATI kaarten altijd een stuk(je) hoger op 3DMark (voornamelijk de 06 versie) en de NVIDIA kaarten hoger op de Crysis benchmark.

Omdat 3DMark zo belachelijk veel wordt gebruikt voor het posen met systemen maar ook gewoon ter indicatie van de 'kracht' van je systeem en Crysis het 'stoerste next-gen spel' is de laatste tijd, proberen beide fabrikanten hun marketing ergens op te concentreren.
of je bekijkt het anders: 3dmark is een van de weinige 3d engines die niet door nvidia zijn 'geholpen' bij de ontwikkeling met custom code om het sneller te laten werken op nvidia GPU's (iets wat zeker gebeurt is in crysis). ik zeg niet dat die tweaks slecht zijn voor ATI kaarten, maar in die custom code zitten wel een stuk minder optimalisatie in voor ATI kaarten.
in 3dmark kan het ATI driver team echt laten zien wat ze waard zijn.

de waarheid zal ergens in het midden liggen.

[Reactie gewijzigd door Countess op 31 juli 2008 18:38]

Als gamer heb er natuurlijk niks aan dat 3dmark sneller draait, je hebt er wel wat aan als je 1 van de vele games wilt spelen waarbij Nvidia geholpen heeft bij de optimalisaties. Je kan het oneerlijk vinden, maar dat is uiteindelijk wel de realiteit.
een realitijd waar nu hopelijk wat verandering in komt.
de ATI support in nieuwe games werd na de release van de 9700pro ineens stukken beter.
na de release van de nvidia 8 serie werd het ineens weer een stuk minder, nu met de ATI 4xxx serie hopelijk weer gelijk te liggen.
en hopelijk gaan ze bij AMD iets vergelijkbaars opstellen, want hun hardware is duidelijk wel tot een hoop in staat, maar het komt er niet altijd goed uit.
Simpel, ze hebben de goedkoopste GTX260 gepakt. En in de conclusie staat het duidelijk vermeld, dus vindt het geen kromme vergelijking.
Bij het energie en geluid grafiekje staat Radeon HD 4850.

Ik vind de GTX260 niet echt een concurrerend product. De nu geteste kaart is namelijk een overgeclockte versie. Ik vraag me af wat de verschillen zijn bij een normale kaart. Waarschijnlijk komt ATI nog wel met een prijsverlaging, aangezien Nvidia nu eigelijk neit meer lager kan is ATI dan duidelijk goedkoper. ATi heeft een mooi product gemaakt met deze kaarten :)

Nu moeten ze alleen nog dat powerplay aan de praat krijgen, en dan zouden dit ideale kaartjes zijn. Goede prestaties als je wil gamen en een bescheiden energieconsumptie als je even op tweakers wil kijken.
Ik vind de GTX260 niet echt een concurrerend product.
Het is wel een concurrerend product op basis van de prijs
De nu geteste kaart is namelijk een overgeclockte versie. Ik vraag me af wat de verschillen zijn bij een normale kaart.
Het is inderdaad een overklokte kaart, maar ook de goedkoopste GTX260.
Waarschijnlijk komt ATI nog wel met een prijsverlaging, aangezien Nvidia nu eigelijk neit meer lager kan is ATI dan duidelijk goedkoper.
Wat een aannames weer. ATI komen altjid met prijsverlagingen of mirakeldrivers die op til zijn. Maar ze komen nooit. Het feit blijft dat we in het heden leven en wat kaarten in de toekomst gaan doen is onbekend.
ATi heeft een mooi product gemaakt met deze kaarten :)
Zonder twijfel. Alleen niet zo goed als NVIDIA's kaart
Nu moeten ze alleen nog dat powerplay aan de praat krijgen, en dan zouden dit ideale kaartjes zijn. Goede prestaties als je wil gamen en een bescheiden energieconsumptie als je even op tweakers wil kijken.
Powerplay is er nu niet dus je kan er nog niks over zeggen. Misschien had ATI beter wat gewacht en eerst de halfafgewerkte features volledig geïmplementeerd.

[Reactie gewijzigd door aval0ne op 31 juli 2008 11:40]

ATI komen altjid met prijsverlagingen of mirakeldrivers die op til zijn.
de crysis prestaties van de 3xxx series zijn anders flink omhoog gegaan met de maanden.

en als je even naar de grote van de chips kijkt, en kijkt naar hoeveel de nvidia kaarten (ook de nieuwe) al in prijs zijn gedaalt en hoeveel de ATI kaarten eigenlijk niet veel zijn gedaald, dan zie je meteen dat ATI nog flink in prijs zou kunnen zakken als het nodig zou zijn.
zelfs een 55nm versie van gtx260 versie zou nog steeds een flink stuk groter zijn als de de rv770 chips. (900miljoen transistors vs 1.4miljard)
er is maar een ding dat nvidia nog echt kan redden deze generatie en dat zou zijn dat ze met de 55nm versie een flink hogere clocksnelheid zouden kunnen krijgen zonder dat het verbruik (veel) stijgt....
maar gezien de matige 7% hogere clocksnelheid van de 9800GTX+ met een HOGER verbruik geef ik ze niet heel veel kans.

btw met een bios tweak kan je je eigen powerplay maken, door de 2D clocksnelheid heel laag te zetten, naar 150mhz bijvoorbeeld.
maar powerplay zelf zou nog efficiënter zijn door ook de voltages te verlagen, en die komt er echt wel. dat maandje extra wachten met een hoger idle verbruik heb je er over de leeftijd van je kaart zo uit, zeker als je load verbruik meerekende.

[Reactie gewijzigd door Countess op 1 augustus 2008 03:24]

Zonder twijfel. Alleen niet zo goed als NVIDIA's kaart
De review van tweakers zegt dan toch iets anders ;-)
Toch zou ik voor de nvidia gaan :P
Zonder twijfel. Alleen niet zo goed als NVIDIA's kaart
Hoppa, de ene na de andere fanboy word zichtbaar. Natuurlijk blijft het een persoonlijk keuze waar je voor gaat, maar uit deze test word zichtbaar dat ATI goede producten aflevert. Vergeet niet dat deze ATI als midrange kaart in de markt is gezet en deze NVIDA als high end. Dat maakt m.i. pijnlijk duidelijk dat Nvidia achter de feiten aanhuppelt. Ook hebben ze zich een beetje vergist helaas in het 2 gpu's op 1 plank principe. Voor ATI werkt dit prima, Nvidia vind het onzin (maar doet het zelf toch ook wel een beetje).
Wel erg knap dat ze het idle verbruik van de GTx260 nog zo laag kunnen houden. Deze ronde is voor ATI, volgende maand is er vast weer een nieuwe serie uit.

[Reactie gewijzigd door D2Freak op 1 augustus 2008 08:34]

volgende maand is er vast weer een nieuwe serie uit.
van ATI.
de hd4870x2 en hd4850x2.
en de mid-range en low-end van de 4 serie zouden ook moeten komen ergens deze 2 maanden.

en dat aval0ne een nvidia fanboy was al veel langer duidelijk.

[Reactie gewijzigd door Countess op 1 augustus 2008 19:59]

Ik ben heel blij dat ik dit artikel gelezen heb.
Mijn AGP grafische kaart (XFX GF 7950GT 512MB) heeft 2 weken geleden de geest gegeven.
En ik heb besloten om dan eindelijk mijn AGP dual Opteron bak te upgraden naar een PCI-e bak.
Bij het selecteren had ik mij helemaal blind gestaard op de HD4870.
Maar begin nu toch wel weer "gevoelens" te krijgen voor de GTX 260 en 280.
Ondanks dat dit artikel mij weer aan het twijfelen heeft gebracht, ben ik heel blij dat ik het gelezen heb.
Die 896MB/1GB VRAM en bredere bus zijn toch wel heel handig bij hoge resoluties (2 x 30") en grote textures tijdens het renderen en modelleren. Was met de probeerversie van ZBrush bezig toen mijn grafische kaart het begaf.
Ik dwaal weer af.

In ieder geval, dankjewel.
Anoniem: 111378
@NxCPU1 augustus 2008 01:06
en wat let je om een 4870 met 1 gb geheugen te kopen voor waarschijnlijk 239 euro ?
dat is een snellere kaart met veel meer geheugen dan de gtx 260, die heeft maar 896.
en voor zelfde geld als de gtx 280 heb je 2x een 4850 met 2x 1 gb geheugen. dat is een snellere opstelling dan de gtx 280 en 2x zoveel geheugen.
Mee eens. Ik ben na een jaar weer overgestapt van nVidia naar een ATI 4850 met 1GB geheugen. Had zoveel gezeur met de nVidia icm dual view via een receiver. Met ATI werkt het nog steeds niet perfect, maar dat ligt aan Windows. ATI weet de problemen beter op te vangen.
@likmereet:
Die 4870 zou in eerste instantie al met 1GB geheugen in de markt gezet worden.
Maar door schaarste van het GDDR5 geheugen hebben ze het teruggebracht tot 1GB.
In de pricewatch staat er alsnog geen enkele HD 4870 met 1GB.
Als jij wel weet waar ik in Nederland 2 exemplaren HD 4870 van 1GB kan kopen, hoor ik het graag.

En het was al de bedoeling om twee grafische kaarten te kopen en NIET in CF of SLI opstelling te gebruiken. Elke monitor zijn eigen kaart. Had ik duidelijker in moeten zijn.
Die 2x 24" HP p1230 CRTs die ik heb blijf ik gebruiken want ze hebben een sRGB gamut. Die 2 x 30"ben ik nog niet uit. Ik vind de NEC LCD3090WQXi toch wel best prijzig.

P.S.
Ik moet nog steeds iedere keer glimlachen als ik je nick zie. Hulde!

@mstam:
De 4850 is geen optie, het prijsverschil is gewoon te klein om de performance hit te nemen. Het is zekere geen trage/slechte kaart, maar ongeveer €70 euro per kaart is niet veel verschil vind ik.

[Reactie gewijzigd door NxCPU op 1 augustus 2008 20:47]

Anoniem: 111378
@NxCPU4 augustus 2008 09:23
de 4870 gaat wel degelijk met 1gb uitgebracht worden en zelfs met 2gb. de introductie was met 512mb vanwege de schaarste en de prijs tov de nvidia.

de 4870x2 staat ook nog niet in de pricewatch en geloof me die komt ook echt hoor.

vanuit strategisch oogpunt moeten ze wel wat bieden tussen de 200 euro en de 450
Ik zou graag bovenstaande review willen zien met een 'líchtjes' overgeklokte HD4870. Denk dat de verschillen dan nauwelijks zichtbaar zullen zijn. Desalniettemin mooi dat beide kaarten elkaar nauwelijks ontlopen. Door de prijsdaling is voor mij de 260 voor mij ook ineens een hele interessante optie geworden. Nu maar hopen dat ATI ook een prijsdaling inzet.. want dan neig ik uiteindelijk toch naar de 4870.. :)

EDIT: Oh ja.. nette review.. :)

[Reactie gewijzigd door Frituurman op 31 juli 2008 10:22]

Anoniem: 80466
31 juli 2008 10:44
Is het ook niet zo dat nieuwe driver over het algemeen perfoemance verbeteringen voor specifieke games bevatten ? Als de 260 nieuwere/verbetere drivers heeft door dat deze en paar manenden langer op de markt is dan is er dus voor de 4870 nog meer ruimte om te groeien bij driver updates.
Er is nog geen enkele review geweest van een ATI produkt waarin de commentaar gegeven wordt dat ATI nog met betere drivers komt. En als er dan een nieuwe driver is dan komt er nog een betere. En zo gaat het maar verder.
Waarom is dat altijd? Zijn ATI drivers dan altijd zo brak bij release? Jullie bevestigen dus dat NVIDIA drivers gewoon beter zijn bij release, waarom dan een ati kaart kopen?
Anoniem: 80466
@aval0ne31 juli 2008 13:00
Nee, ik bedoel juist dat de drivers van nVidea ouder en meer uitontwikkeld zullen zijn omdat het product langer op de markt is terwijl de 4870 korter op de markt is en dus de software nog meer ruimte heeft voor verbeteringen.
die 3D 06 score is veeeeeeeel te laag met een 8800GT haal je al 13K met een stock E8400 of iets dergelijks
Je weet dat in 3DMark 06 100MHz meer op de CPU enkele honderden punten meer kan beteren in het slechste geval?

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee