Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Hielko van der Hoorn

HIS Radeon HD 4870 X2 versus Asus Geforce GTX 280

Conclusie

Om de resultaten van de tests overzichtelijk samen te vatten hebben we het gemiddelde van de genormaliseerde scores genomen. Dit is in onderstaande grafiek weergegeven.

Gemiddelde genormaliseerde resultaten
12801600Totaal
Radeon HD 4870 X21,121,06 1,09
Geforce GTX 2801,001,00 1,00

Zoals bovenstaande grafiek laat zien is het AMD gelukt om met de 4870 X2 de prestatiekroon terug te pakken van Nvidia. De kaart is echter gemiddeld niet overtuigend sneller, doordat de relatieve prestaties flink fluctueren tussen verschillende benchmarks. In 3DMark Vantage worden bijvoorbeeld uitstekende scores neergezet, terwijl Devil May Cry 4 teleurstellende resultaten laat zien. Een groot deel van dit probleem is inherent aan de gebruikte techniek: het is onrealistisch om te verwachten dat crossfire in alle gevallen perfect werkt.

Hoewel de Radeon HD 4870 X2 de snelste kaart van dit moment is, is het ook de duurste kaart. Op moment van schrijven staat de goedkoopste Radeon HD 4870 X2 voor 380 euro in de Tweakers.net pricewatch terwijl de goedkoopste Geforce GTX 280 voor 345 euro van eigenaar verwisselt. Welke van de twee kaarten de beste keus is, is dan ook moeilijk aan te geven.

De GTX 280 is goedkoper, gemiddeld niet veel langzamer, energiezuiniger en stiller onder belasting. De Radeon HD 4870 X2 is sneller, stiller in idle-modus en heeft laten zien de potentie te hebben om in sommige gevallen de GTX 280 flink in het stof te laten happen. Hoe je deze factoren weegt is een persoonlijke keuze, maar het is niet zo dat één van deze twee videokaarten overduidelijk de beste keus is.

HIS Radeon HD 4870 X2 close-up

Reacties (152)

Wijzig sortering
Allereerst: mooi dat jullie de E6600 hebben vervangen voor een quad-core processor, dit kan misschien toch weer een beetje verschil maken.

Jullie durven geen conclusie te geven, maar ik vind toch de Nvidia de winnaar, omdat je bij die kaart helemaal niet afhankelijk bent van games die crossfire ondersteunen. Ook al zitten beide HD4870's op 1 kaart, je blijft crossfire nodig hebben. Bij games die het niet ondersteunen zal je dan waarschijnlijk ook maar de prestatie krijgen van 1 HD4870. Qua prijs is de HD4870X2 ook nog eens een stukje duurder dan de NVidia en verbruikt hij ook nog eens een hoop meer energie.
Allereerst: mooi dat jullie de E6600 hebben vervangen voor een quad-core processor, dit kan misschien toch weer een beetje verschil maken.
Hier moet ik me helemaal bij aansluiten! Gelukkig leest de redactie (zo lijkt het iig) ook de reacties op vorige benchmarks O+.

Een interessante ontwikkeling is dat de drivers nu steeds belangrijker worden. De kaarten van zowel ATI/AMD als Nvidia hebben veel kracht in zich, maar ik krijg de indruk dat ATI nog niet alles uit z'n kaart weet te halen terwijl Nvidia dit toch wat beter doet. Maar alleen de toekomst kan dit vermoede bewijzen...


[edit]
Na verder wat te lezen zie ik dat er nog een boel kan worden verbeterd aan het test systeem... Dus met een positieve inval: keep up the good work en kijk kritische naar de opzet van de benchmark ;)

[Reactie gewijzigd door Electrowolf op 12 augustus 2008 10:38]

Vergeet alleen niet dat iedere keer dat nVidia de drivers weer 'beter maakt', je ook inlevert op beeldkwaliteit! Ik heb het ooit eens getest met de 8800GTS 640Mb die ik had, en je zag het verschil wel!
En zowieso heeft de nieuwe lijn van ATi echt fenomenaal mooi beeld! (Spreek uit ervaring, heb tenslotte 2 4870 kaarten in de pc hangen)

Enige voordeel bij nVidia (tot nu toe) is dat er meer/betere programma's zijn voor het overclocken... Tot op heden moet ik het nog doen met ATi CCC, en daardoor kom ik tot maximaal 790 MHz core... Maar, ik ben dan ook sinds vandaag bezig, dus ik kom nog wel een programma tegen wat het beter doet.

En @ het artikel: Vooral op hoge resoluties komen zulke kaarten tot hun recht, dus probeer eens iets vanaf 1920x1440 ofzo... En liefst met veel AA _/-\o_

[Reactie gewijzigd door -GijsJUH- op 12 augustus 2008 11:54]

lol je hebt dus nog nooooiit gehoord van atitool? dat is zo'n beetje het beste programma om dit software matig te doen... ccc doet maar tot een zekere veilige hoogte en niet verder.
Wel van gehoord, zonder meer... alleen krijg ik van die vage getallen, en werkt het niet... Dus, wat heet lol...
ff wachten op een nieuwe versie voor de HD4xxx serie, dan zou het wel moeten lukken. Op een gegeven moment zullen er ook bios-hacks beschikbaar komen waarmee je een hogere waarde als standaard kunt flashen, waardoor de waardes in CCC automatisch ook weer hoger worden. Mark my words... ;)
Nog even kijken naar andere reviews, maar maakt dit: MSI P35 Neo-FI (P35 chipset 16 1.1 lanes) niet een beetje heel erg onder de maat?

De HD4850 in CF op een P45 bordje (x8, x8 2.0 config) wat in feite hetzelfde is als 16 lanes van de vorige generatie voor beide kaarten, gaf al negatieve resultaten tegenover X38/X48, en nu komt er een dual kaart op 16 1.1 lanes die nog een hoger geclockt is ook, en dus minimaal 2x zoveel ruwe kracht heeft, en het met te weinig bandbreedte moet doen.
Jullie durven geen conclusie te geven, maar ik vind toch de Nvidia de winnaar, omdat je bij die kaart helemaal niet afhankelijk bent van games die crossfire ondersteunen.
Voor nVidia kaarten, als je dan 2 cores bij elkaar wil hebben, heb je ook gewoon SLI nodig, dus dit punt mis ik een beetje denk ik.
Ook al zitten beide HD4870's op 1 kaart, je blijft crossfire nodig hebben. Bij games die het niet ondersteunen zal je dan waarschijnlijk ook maar de prestatie krijgen van 1 HD4870.
Geld voor de X2 kaarten van nVidia toch ook dat je dan SLI nodig hebt? En voor zover mij bekend, hoeft de game toch niet per se SLI of Crossfire te ondersteunen? De kaart word dan toch gewoon gezien als 1 videokaart door de game, tenminste, lijkt mij wel zo logisch, net als hardeschijven in een RAID-array.
Qua prijs is de HD4870X2 ook nog eens een stukje duurder dan de NVidia en verbruikt hij ook nog eens een hoop meer energie.
Qua prijs is het inderdaad duurder, maar krijg je mijns inziens ook wel wat voor terug. Dat het opgenomen vermogen meer is dan een GTX280 is ergens wel jammer, maar aan de andere kant is het een logisch gevolg, juist doordat er 2 cores op zitten en 2 keer 1GB geheugen op het PCB geprikt worden. Als je dus per core gaat uitrekenen, is de 4870X2 toch wel zuiniger per core.
"Voor nVidia kaarten, als je dan 2 cores bij elkaar wil hebben, heb je ook gewoon SLI nodig, dus dit punt mis ik een beetje denk ik."

De gtx280 is single getest, de geteste ati heer is een crossfire kaart. Dus eigenlijk zijn het 2 kaarten. Vandaar dat deze kaart minder presteerd in games die hier niet mee overweg kunnen. Dat is wat de bovenstaande persoon bedoelde. Niet relevant dus om te melden dat je voor nvidia sli ondersteuning nodig hebt... want dat is niet zo.

Het werkt ook niet zoals bij Raid... je ziet weldegelijk 2 3dkaarten in je systeem. Call of duty 4 heeft ook bijvoorbeeld een optie "dual GPU" en dan kan je enable of niet...

Dus je positieve reacties zijn onterrecht.

[Reactie gewijzigd door sdk1985 op 12 augustus 2008 15:16]

Moederbord MSI P35 Neo-FI ?
IK vind vaak met tweaker testen de component keuze zeer vreemd tov andere review sites ala hardware.info als Nederlands voorbeeld en vraag me echt af waarom er vaak discutabele componenten worden gekozen..

VInd dit wel hele vreemde keuze.. waarom geen bord met pci-e 2.0?

De cpu keuze tja wat moet ik er van zeggen het is een hele verbetering met die oude E6600 echter hebben jullie hem niet erg overclockt getest.. gezien deze cpu deze kaart echt tegenhoud
Overal gezien is tweakers ook de enige site die zo'n vreemde componenten gebruikt om te testen dus in hoeverre kan je dit nog serieus nemen is de vraag

Verder tja ik heb zo eens wat andere sites erbij gepakt en daar de reviews van en moet zeggen dat de kaart er op tweakers in verhouding bizar slecht uitkomt..
http://www.hardforum.com/...1032874991#post1032874991

Hier staan veel review sites in zie paar posts naar onder.. en hun test uitslagen zijn velen malen beter dan wat tweakers.net laat zien..
De kaart komt gemiddeld hier nog geen 10% beter eruit..
Als jullie cod4 bv hadden getest zagen jullie dat de ATI kaart hierin Minimaal 50% sneller is en zo zijn er veel andere games waarin ATi een hele grote voorsprong heeft..
Echter die hebben jullie blijkbaar geen van alle getest.

Half life 2 ik snap die uitslagen al helemaal niet omdat die op veel andere sites wederom anders zijn

Iemand van tweakers een antwoord waarom deze resultaten van jullie zo discutabel zijn

even een stukje uit onder andere Techgage:

Exactly why the $100 is justified can be seen in our results. At the absolute minimum, this card gave us results 27% better than the GTX 280, and in most cases, that number hovered closer to ~45%, with one even going as high as ~70%. That much of a boost for 20% extra cost seems entirely reasonable.


Ik zal dus eerder vertrouwen op andere sites dan op tweakers omdat ik dit vreemde uitslagen vind
Jullie zijn zo goed als enige site waar de kaart zo slecht eruitkomt en dit moet toch echt een goede reden hebben lijkt mij dus de vraag is welke reden heeft die.

Hopenlijk word ik niet weg gemod omdat ik gewoon mijn mening geef( wat hier ook vaak gebeurd als iemand dat doet)

[Reactie gewijzigd door pino85 op 12 augustus 2008 09:19]

af waarom er vaak discutabele componenten worden gekozen..
Het is niet alsof ik een enorme lading componenten heb waaruit ik maar wat kan kiezen, soms moet je roeien met de riemen die je hebt en is het zeker niet zo dat we obscure hardware gebruiken. Ik vermoed dat er meer dan genoeg bezoekers zullen zijn die een vergelijkbaar systeem beziiten. Het klopt dat het door ons gebruikte moederbord geen pci express 2.0-ondersteuning biedt, maar dat heeft echt nauwelijks invloed op de benchmarkresultaten.
Hier staan veel review sites in zie paar posts naar onder.. en hun test uitslagen zijn velen malen beter dan wat tweakers.net laat zien..
De meeste reviewsites nemen niet de moeite om de gemiddelde resultaten te berekenen. Het is makkelijk om te kijken naar enkele benchmarks waarin de kaart uitstekend uit de test komt, als vervolgens niet meegenomen wordt dat de andere tests waar de kaart niet zo goed naar voren komt het gemiddelde ver naar beneden drukken.
Het is niet alsof ik een enorme lading componenten heb waaruit ik maar wat kan kiezen, soms moet je roeien met de riemen die je hebt en is het zeker niet zo dat we obscure hardware gebruiken.
Is er bij tweakers.net geen enkel X38, X48, P45 moederbord te vinden inclusief 4GB performance geheugen?

Als ik tweakers.net lees verwacht ik betrouwbare, representatieve resultaten te vinden. Wanneer dit verwachtingspatroon niet kan worden waar gemaakt, vraag ik mij af wat voor meerwaarde dit soort reviews hebben voor tweakers.net en zijn gebruikers. Wat houdt tweakers.net tegen om een goede analyse te maken aan de hand van gegevens van derden?
Ik vermoed dat er meer dan genoeg bezoekers zullen zijn die een vergelijkbaar systeem beziiten. Het klopt dat het door ons gebruikte moederbord geen pci express 2.0-ondersteuning biedt, maar dat heeft echt nauwelijks invloed op de benchmarkresultaten.
Wat betreft de gemiddelde config, veel mensen die dit soort kaarten kopen hebben nu of in de nabije toekomst toch een PCIe 2.0 systeempje. De invloed heeft op de performance? Kijkend naar andere resultaten zou je gaan denken dat deze significant is.
De meeste reviewsites nemen niet de moeite om de gemiddelde resultaten te berekenen. Het is makkelijk om te kijken naar enkele benchmarks waarin de kaart uitstekend uit de test komt, als vervolgens niet meegenomen wordt dat de andere tests waar de kaart niet zo goed naar voren komt het gemiddelde ver naar beneden drukken.
Natuurlijk zijn er een paar minderwaardige reviews, maar er zijn genoeg voorbeelden te vinden van goede reviews die hele andere cijfers laten zien. Daarnaast zet ik ook de nodige vraagtekens bij de keuze van spellen,de mogelijke bottlenecks (MEM en CPU) en gebruikte resoluties.

[Reactie gewijzigd door Dedun op 12 augustus 2008 22:13]

ben ik het mee eens, je ziet bijna geen mens meer op 1024 x 768 of 1280 x 1024, de meeste gamers die zulke kaarten zullen halen zijn geinteresseerd in de 1650x1050 en hoger.
daarbij is het feit dat je niet een van de nieuwere mobo's hebt wellicht tijd om een leuk nieuw mobo te regelen? 4 gig is nauwelijks duur meer te noemen, voor 60-70 e heb je al goed oc geheugen, met strakke timings. zelfs ddr3 is niet astronomisch duur meer, maar nog wel erg duur in vergelijking.

ik kan niet anders dan het eens zijn dat ook de benchmarks apart zijn, geen cod4, geen supreme commander, of andere echt zware games, hl2 is zo ondertussen ook al meer dan 2 jaar oud.

Ook is het overclockpotentieel leuk om te weten, alhoewel dat bij deze kaart nihil zal zijn of al helemaal niet mogelijk.

verder zijn de reviews wel redelijk onafhankelijk alleen dus nog niet echt representatief genoeg.


daarnaast is het feit wat ook genoemd is de drivers, het is 99% van alle kaarten zo geweest dat de drivers geoptimaliseerd moeten worden en vooral voor de x2 kaarten is dit het geval geweest. ik wacht dus het oordeel af na in ieder geval een driverupdate.

[Reactie gewijzigd door SouLLeSSportal op 12 augustus 2008 13:48]

uhmmm... ik game nog steeds op 1280x1024, een snelle 19" TFT is op het moment voldoende, dat zal bij veel mensen zo zijn. Niet iedere gamer heeft een boom z'n achtertuin waar ie de euro's zo uit kan schudden, dus waar je die 1650x1050 en hoger vandaan haalt? (tenzij dat een resolutie is die je zelf draait...

Mijn PC is op het moment 2.5 jaar oud en ik begin nu pas bij sommige zware titels echte performance issues te krijgen.
de mensen die een 4870X2 kopen hebben meestal ook geen simpele 17 of 19" monitor e
Ben het wle eens met jullie beiden. Feit is dat er slechts op twee resoluties is getest, met maar een beperkt aantal spellen. Voor de review was het beter geweest als dat aantal hoger zou zijn. Ook is het jammer dat men voor deze high-end GPU review geen PCIe 2.0 moederbord heeft gebruikt. Het mag dan misschien niet veel uitmaken, verschil is er wel!

Een degelijke, goede review heeft minstens:

-voldoende aantal spellen
-up to date hardware
-3 a 4 resoluties waarin gestest word.

Op alle punten schiet deze review tekort.

[Reactie gewijzigd door Madrox op 14 augustus 2008 10:52]

Je laatste regel spreekt de rest een beetje tegen.

De enige reden om momenteel een echte highend grafische kaart te kopen is als je op echt hoge resoluties speelt. Voor 1280x1024 kan je gerust een kaart van 2 jaar oud gebruiken.

Over je geldboom, een 22" breedbeeld die 1650x1050 doet kost een stuk minder als de besproken grafische kaarten.

Dus ja, ik zou ook graag 1650 en 1900 benchmarks zien, want daar ga je het verschil ook daadwerkelijk merken.
en dan alle settings zeker op low zetten... jij bent lekker zeg... ik ben overgestapt van een 2 jaar oude 7900GTX512 naar een 9800GTX512 en ik game op een 19" wide, 1440x900. En het verschil is toch echt fenomenaal te noemen. Waar ik bij veel games alweer de reso moest halveren of de Graphics 2 stappen naar beneden om acceptabele fps (25+) houden is dit nu weer helemaal perfect op de native reso met alles zo hoog mogelijk (in veel gevallen zelfs 16xQFSAA zonder noemenswaardige framedrop, en ja ik weet het mijn proc / geheugencombo is nu mijn bottleneck (opty 165@2.4. 2GB mem, wel met al het mogelijke offloaded naar addinkaarten PPU, XFI en TCP/IP offloading om zoveel mogelijk CPU-tijd over te houden)
Bijkomend komt in de meeste andere artikelen ook naar boven dat de X2 pas echt het verschil begint te maken bij zeer hoge resoluties en dat bij meer standaard resoluties dan ook een goedkopere kaart word aangeraden.

Hexus:
Our performance evaluation shows that the HD 4870 X2 only comes into its own when the resolution is cranked up to 2,560x1,600, along with serious image quality; anything lower and it's sat there, twiddling bemused transistors.

...

As a £330 single-card solution that targets ultra-high-end gaming, the Radeon HD 4870 X2 2GB has absolutely no performance peer at all, based on our results, but, for most games, you really, really need a 30in monitor to make it worthwhile.

Then there's Radeon HD 4850 X2....
Zeg Hielko, als je niet de spullen en de kennis hebt om een fatsoenlijke review te bouwen, kun je 't beter niet doen. Op deze manier zet je jezelf en tweakers gigantisch voor lul in vergelijking met 'concurrerende' websites.

En verder, zij die deze high end kaarten kopen, hebben daar ook een systeem voor. Alles wat gelijk is aan het systeem wat jij bij deze review gebruikt is voer voor een gtx260 of enkele 4870.

Je reviewed een high end kaart in een raar geconfigureerd midrange systeem. Doe het dan gewoon niet. Heb je eindelijk een fatsoenlijke processor, is de rest van je systeem weer rotzooi. Op de raptor na dan.

[Reactie gewijzigd door Sleep0rz op 16 augustus 2008 16:30]

tja, zou het nou nog steeds zo zijn dat die Powerplay van AMD er nog niet in verwerkt zit en dat daarom het verbruik zo achterlijk hoog ligt??

Ik bedoel, 150W idle?? Ja ok, het zijn echt 2 RV770 gpu's, maar dan nog.

Dit is niet een kaart die ik ga halen, simpelweg om het feit dat ik niet zoveel geld uitgeef voor een videokaart, al is het wel zo dat deze kaart beter schaalt dan 2 losse 4870's, of was dat met de 4850??

In ieder geval, erg netjes van AMD dat ze zoiets hebben weten neer te zetten, en ik denk dat de mensen die deze kaarten kopen, 9 van de 10 keer, net als ik, een after market cooler erop doen, of waterkoeling erop gooien, dus wat dat koeling betreft zal dat vaak voor de tweakers niet opgaan
Mensen moeten eens grondig lezen als het over verbruiksbenches gaat. Aangezien het moeilijk is om een grafische kaart apart te meten, wordt meestal het systeem in idle/load gemeten. Zo ook in dit geval. 150W idle voor het hele systeem.
Persoonlijk vind ik het nog inderdaad te vroeg om te beslissen. Er zijn namelijk een paar problemen om deze twee videokaarten te vergelijken. Ten eerste is het zo dat de 4870X2 gewoonweg een dual-gpu videokaart is, wat feitenlijk niet eerlijk is, maar daar gaat het niet om. De 4870X2 is bijna 100€ duurder, hij verbruikt VEEL meer energie en uiteindelijk heeft het niet zoveel prestatiewinst. Beide kaarten zijn dan ook niet overclockt. En natuurlijk werkt de GDDR5 geheugen heel ver in het voordeel van Ati, misschien komt nVidia ook eens met een GDDR5-geheugen kaart. Net zoals nVidia ooit gezegd heeft dat ze klaar zijn voor GDDR5, dus het is wel afwachten.

Maar deze argumenten werken allemaal voor nVidia. Om eerlijk en objectief te blijven zijn er ook die in het voordeel van Ati werken. Ten eerste zijn de drivers nog onvolwassen en moeten er nog betere uitkomen die geoptimaliseerd zijn voor deze kaart. Ten tweede is het net als ferdinand zegt dat de testen met onrealistische resoluties gedaan worden. Maar dat maakt niet veel uit, want het blijft een verschil tussen de 2 kaarten en dat de Ati dan beter is.

Dan gewoonweg in het algemeen. Zoals een nieuwsbericht net zei komt de nieuwe versie van de GTX280 uit die op 55nm gebakken gaat zijn, die gaat NOG zuiniger, NOG sneller en NOG stiller zijn. (vermoedelijk). En waarschijnlijk gaat die evenveel kosten, dan verlagen ze de 65nm versies verder van prijs. Het valt dus allemaal af te wachten.

Dan is er nog een andere ding: de wens van de consument. Wat wilt de consument. Als hij dan toch voor een dual-gpu wilt gaan, dan kan hij zelfs beter 2x9800GTX+ in SLI zetten en komt hij goedkoper en beter uit dan diezelfde 4870X2, toch in meeste gevallen. Het gaat om waarde van je geld. Natuurlijk als je alweer pure kracht wilt kun je ook 2x 4870X2 in CF zetten en dan zul je wel zotte resultaten krijgen, maar dat heb je ook wel als je 2xGTX280 in SLI zet, en dan zal het een dual-gpu vs een dual-gpu zijn, dan is de kroon nog altijd bij nVidia. Dus wat ik hier allemaal wil zeggen is dat de consument zelf moet beslissen wat hij wilt, hij moet veel benchmarks vergelijken etc. Het is niet zomaar op 123 dat je een videokaart koopt van die prijsklasse.

Conlusie: We moeten afwachten tot eind augustus wanneer de nieuwe drivers van Ati uitkomen en de GTX280+(?) uitkomen, dan moet een nieuwe vergelijking gemaakt worden, wat dan zekerheid biedt van concurrentie :) En voor de mensen die niet willen wachten: vegelijk heel goed de benchmarks, je kan misschien zelfs goedkoper uitkomen en betere prestaties krijgen!

Andere reviews: http://www.tomshardware.com/reviews/4870-x2-amd,1992-4.html

[Reactie gewijzigd door Dima_2005 op 12 augustus 2008 10:35]

Ik ben bang dat de nieuwe 55nm kaarten van nvidia niet veel sneller zullen zijn, niet zuiniger (behalfe als ze de clocks niet opschroeven, en stiller hoef je ook niet echt te verwachten

Volgens mij is de grootste reden om meer gpu's uit 1 wafer te krijgen en dus meer winst
Hier even een crosspost uit het ATI Radeon Nieuws & Discussietopic op het forum. Een handige lijst met de meeste reviews tot nu toe:

HD4870X2 POST NDA REVIEWS
Ik zou het tof vinden als tweakers.net opnieuw een review schrijft over de 4870X2 en wat zaken aanpast. Ik zie dat de CPU al is geupgrade, dat soort zaken. Nu nog een goed mobo erbij vinden zodat de kaart ook 100% tot zn recht komt en kan knallen.

Neem de meest gebruikte resoluties waarop gegamed wordt en pak een groot aantal games.

Dan ben ik benieuwd of er nog dezelfde 'conclusie' uitrolt als wat in deze 'review' beweerd wordt :).

Kortom: Dit kan beter tweakers!
Ik heb vorige week, na de GTX 260 vs HD 4870 al een reactie gezet op GoT in het "Opstelling reviewprotocol grafische kaarten" topic, blijkbaar heeft men deze niet ter harte genomen. Niet dat ik mezelf als een kenner ter zake beschouw, maar als zelfs iemand als ik, die niet in het wereldje vertoeft, al de zwakke punten in de review kan aanduiden denk ik dat er nog wel wat mensen zijn met kritiek.

En ja, deze review is al wat beter, maar de methodologie laat nog steeds te wensen over. Net zoals bij de vorige review weer bakken kritiek over de gebruikte testmachine, de geteste array aan games, de in vgl met andere sites nogal vreemde resultaten,etc.

Ik verwacht van t.net eigenlijk net bétere reviews dan van de concurrentie. In vergelijking met de rest van deze site is dit ondermaats. In alle andere opzichten is Tweakers immers ver verheven boven de meeste andere hardwaresites, die vergeven zijn van fanboys, reclame en vooroordelen.
"Het is belangrijk om te beseffen dat bovenstaande waarden het energieverbruik van het gehele systeem zijn: de verschillen tussen de twee videokaarten zijn dus relatief groter, aangezien het verbruik van de overige componenten praktisch constant is."

De verschillen zijn dan toch niet relatief groter? De verschillen worden wel procentueel groter in dat geval.
Of heb ik nu ergens de boot gemist en snap ik er niets meer van :)
Wat een waardeloze review! met deze kaart is het de bedoeling dat je op hoge resoluties speelt en niet een max resolutie van 1600x1200. Neem voor benchmark in hemelsnaam ook hogere resoluties. Verder worden er zeer weinig games getest en geeft deze review een compleet vertekend beeld van de daadwerkelijke kracht van deze videokaart.

Graag verwijs ik naar de wel bekende hardware sites voor een degelijke review, inplaats van dit stukje tekst wat me sterk het vermoeden geeft dat iemand hier nogal een voorkeur voor nvidia heeft.....

Ben normaal beter gewend van tweakers.net qua reviews :(
Eerlijk gezegd lijkt het me nogal raar dat enkel spelletjes op een resolutie van max. 1600x1200 worden getest - de HD4870 X2 en GTX280 zijn echt top-of-the-line, en je verwacht dus ook dat ze in combinatie met andere high-end hardware worden gebruikt, waaronder schermen die wellicht een hogere resolutie [i.e. 1920x1200 of 2560x1600] ondersteunen. Een HD4870 X2 of GTX280 aanschaffen voor op 1280x1024 te gamen lijkt me persoonlijk serieuze overkill - een HD4850 of dergelijk volstaat in 95% van de gevallen ruimschoots.

In b.v. de 'First look' van de HD4870 X2 @ tomshardware testen ze enkel op resoluties van 1920x1200 en 2560x1600. Hieruit blijkt dat de HD4870 X2 [uiteraard in hun test setup] Crysis op een resolutie van 2560x1600 [zonder AA/AF] aan 31.5fps kan spelen - speelbaar naar mijn mening. Uit hun verdere benchmarks blijkt dat ook de meeste andere games op zo'n hoge resoluties gespeeld kunnen worden.

[Reactie gewijzigd door 3phemeral op 12 augustus 2008 09:32]

1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True