Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: AnandTech, submitter: CJ

Bij AnandTech is een uitgebreid artikel verschenen over de prestaties van de laatste nVidia- en ATi-videokaarten in Half-Life 2. Zoals gisteren al naar voren kwam uit verschillende bronnen presteert de GeForce FX-familie beroerd in vergelijking met de recentste ATi-videokaarten. De oorzaak hiervan moet gezocht worden in de prestaties van de pixel shaders die intensief gebruikt worden door Half-Life 2.

Om de resultaten te verbeteren heeft Valve een speciaal code path geschreven voor de GeForce FX 5900 Ultra die volgens de benchmarks van AnandTech 40 procent sneller is dan het standaard DirectX 9 code path. De beeldkwaliteit heeft hier echter wel onder te lijden aangezien er gedeeltelijk gebruik gemakt wordt van 16-bits precisie waardoor lichte banding-effecten ontstaan. Voor de GeForce FX 5600 wordt aangeraden om gebruik te maken van het DirectX 8.1 code path waardoor de verschillende shader effecten er minder indrukwekkend uit zien. De ATi Radeon 9600 Pro kan wel gewoon gebruik maken van het standaard DirectX 9 code path.

Half Life logo (kleiner)De benchmarks bevestigen de resultaten die gisteren door Valve werden vrijgegeven. De Radeon 9800 Pro is in veel gevallen meer dan 50 procent sneller dan de GeForce FX 5900 Ultra en biedt daarnaast ook nog eens een hogere beeldkwaliteit. Hierbij moet wel opgemerkt worden dat AnandTech verplicht was de 45.23 drivers te gebruiken en niet de 50.xx drivers die volgens nVidia aanzienlijk beter presteren.

Ook opvallend is dat de Radeon 9800 Pro en de Radeon 9600 Pro in sommige gevallen nauwelijks van elkaar verschillen qua prestaties. De reden hiervan is dat de GPU de prestatie bepaald en de geheugenbandbreedte nauwelijks meer een invloed heeft. Anand verwacht dat we deze verandering in de toekomst bij veel meer spellen zullen zien. Een leuke bijkomstigheid hiervan is dat bandbreedtehongerige operaties die voorheen een flinke deuk in de framerate sloegen zoals anisotropic filtering straks praktisch zonder prestatieverlies gebruikt kunnen worden.

Half-Life 2 performance grafiek
Half-Life 2 performance grafiek
Moderatie-faq Wijzig weergave

Reacties (57)

Hoe zat dat nou met Doom3? Ik had ooit eens iets gelezen dat ATI gebanned was omdat ze een alpha hebben laten uitlekken ofzo? :? Meer info hierover? iemand?
Ze hebben wel even ruzie hierover gehad maar het lijkt me duidelijk dat je zonder bewijs niet de schuld op iemand anders kan afschuiven.

Volgens mij zijn ze nu in ieder geval weer vriendjes :)

Maargoed deze vraag is niet al te relevant ivm dit topic. Ik vind het enorm laf overkomen dat ze in de drivers hebben geimplementeerd dat zodra er een screenshot word gemaakt, de beeldkwalliteit op full word gezet... Dit is inderdaad zoals eerder gezegd de consument misleiden. Wanneer komt er een rechtzaak tegen NVidia? Eerst driver cheats in 3DMark en nu dit. Nee, vertrouwen in hun bedrijf heb ik niet meer. Ik ben harstikke blij met mijn Radeon 9700 Pro, tevens nu ik deze benchmarks heb gezien,
Nou JC is nogal nV minded die gaat dus wel de extra werk want dat is het dus nog langer wachten erin stoppen voor die nv30 code path te implementeren om beeld kwaliteit opte offeren voor wat performance te winnen om de ati's bij t ekunnen houden.

ATI stuurt DIII op standaart methode aan. zoals het hoort.

Zou mij niet verbazen als DoomIII harder loopt op nVidia.

Of die shaders moeten zo slecht zijn dat JC aTI hardware moet gaan afgnijpen.

nVidia had een shadow tech waar D3 erg veel gebruik van maakt wat ATI weer mist.

ID en nV werken een lange tijd achter de shermen al samen dus goed mogelijk dat DIII beter loopt op nV
DIII loopt beter op een nV, omdat ook DIII speciale NV "optimalisaties" nodig heeft om goed te lopen op een FX.

Nvidia heeft bij de FX gewoon een aantal keuzes genomen die uiteindelijk verkeerd uitgepakt zijn, waardoor als men het maximale aan kwaliteit uit de kaart probeert te halen, de kaart erg traag wordt.

(4x2 pipelines, 128bit vs 256bit geheugennogiets en der was ook nog iets over 16bit of 32 bit bij NV en alleen 24bit bij ATI).

Ik weet het niet precies meer.

En nu kunnen ze wel op Valve gaan zeiken, maar Valve heeft speciaal voor hun subroutines geschreven voor de FX kaarten omdat die anders nie snel genoeg zouden lopen. Dat hebben ze niet voor de ATI kaarten gedaan, die lopen over de standaard DX9 routines.

En ja Det50 zal wel extra performanceboost geven, alleen als je daarvoor de Det45 hebt gezien, zal je ook nog wel iets merken als kwaliteitsverschil.
wel vreemd dat ze de 9700pro meenemen in de test en de FX5800 niet.

wat ik ook mis zijn de hogere reso's (1600*1200 anyone seen it ?)
Niet zo heel erg vreemd. De FX 5800 is namelijk gewoon een wat mislukte kaart die bijna niemand heeft gekocht en zo snel mogelijk is opgevolgt door de FX 5900. De Radeon 9700 Pro daarintegen is en wordt nog steeds goed verkocht.
De mensen met een Gf2 (of Gf4mx) zullen het spel ook wel kunnen spelen.

De Gf FX'en scoren zo slecht omdat er gebenchmarked wordt op de Dx9 kwaliteit.
Hoe de instellingen gaan verlopen weet ik nog niet; maar voor de gf2/gf4mx bezitters (waaronder ikzelf ook) zullen wel ergens DirectX 7.0 kunnen selecteren.
Das niet waar, de GeForce FX 5600 en 5200 worden gebenchmarked op DX 8.1 kwaliteit. Maar d'r zullen voor mensen met een slechtere videokaart inderdaad wel opties aanwezig zijn om voor een nog lagere beeldkwaliteit te kiezen.
de GF FX 5600 en 5200 werken anders op dx8.0/8.1 (zie pic) en score nogsteeds bar en bar slecht.

edit : te laat
Ik denk dat gamers geen FX5200 kopen. Die hebben wel meer verstand van zaken. Ik ga ervan uit dat de meeste gamers wel weten wat 'n goed kaartje is en wat een slecht of mid-range kaart is. FX5200 is voor de standaard gebruikers die amper/nooit gamen of die alleen games zoals MOHAA, Half-Life en CS op een lage of standaard resolutie spelen. Voor in de toekomst is de kaart absoluut niet geschikt natuurlijk maar de prijs is niet hoog dus houd je geld over voor een eventuele upgrade van de videokaart in de toekomst dus in dat opzicht is het misschien wel slim op nu een minder kaartje te kopen voor weinig geld zodat je geld over houdt voor een kaart van 300euro in de toekomst. Je kan nu ook een kaart van 400euro kopen en dan over 2of 3 jaar weer gaan upgraden. Dan ben je juist nog meer geld kwijt terwijl je op dit moment de meeste games nog kan spelen met een FX5200. Dan zou de TI4200 die al voor 100euro te krijgen is een betere optie zijn naar mijn inziens.
Met een FX5200 CS of Halflife op een *lage* resolutie spelen? Ben jij d'r zoeen die altijd minimaal 200 FPS wil halen ofzo??
nee maar iets van 20 frames mmmmm nee dankje dan pas ik wel :S
Hehe dat is dus onzin he.
Ik heb een fx5200 en deze presteerd wel degelijk goed. Ik kan bijvoorbeeld unreal the awakening op maximale instellingen nog soepel spelen.

Ook vind ik het vreemd dat de fx5200 op dx8 getest is daar het een dx9 kaart is.
Dat hebben ze gedaan omdat de FX 5200 / 5600 op DX9 niet vooruit te branden zijn. Als je ziet dat de FX5200 op DX8 nog maar 15.6 fps haalt.... dan berg je maar als ze 'm over DX9 gaan laten lopen.

<10 fps sowieso.
Goed goed, als ze willen dat je met de actuele NV driver gebruikt dan doen we dat toch, maar dit wil toch nog lang niet zeggen dat je toch niet even de nieuwere ook test... wat is daar nu op tegen?
Valve is wel erg pro ATI of contra NV.
Of misschien zitten er wel weer oneerlijke optimalisaties in de nieuwe drivers. Gabe gaf al wat hints door te zeggen dat de Fog uit een level was gehaald en dat er op momenten dat er een screenshot werd gemaakt de beeldqualiteit verhoogd werd en de FPS omlaag gingen. Misschien is het zo dat deze "cheats" in de det50's zitten.

Gabe liet het blijken alsof het na detectie van de applicatie gebeurde. Wat dus niet duid op een bug. Maar we wachten nog wel even af.

En wanneer er niets veranderd aan de output dan is het een optimalisatie en geen cheat!
Fog uit het level halen was een bug.

En als er cheats in zittenis dat alleen maar belangrijk in benchmarks. Daar zijn cheats oneerlijk.

Als er cheats in zitten voor spelletjes. Dan is dat alleen een voordeel en word je kaart daar lekker sneller van. Tenminste zolang er geen vermindering van beeldkwaliteit waarneembaar is.
cheat = vermindering van beeldkwaliteit om zo sneller te lijken

Overigens geven de drivers die mindere kwaliteit dan niet aan. Om bij een screenshot wel op volle kwaliteit te draaien is dan helemaal goor: Je misleidt de consument.
De nieuwe driver is ten allereerste nog niet officieel uit en daarnaast zitten er nog bugs in waardoor ie onder andere niet in staat is om mist te renderen in half life 2 wat de vergelijking ook niet geheel eerlijk maakt.
Mja... misschien wel oneerlijk, maar het feit dat de gaming industry nog altijd te hardwarme fabrikanten opzweept, vind ik een goede zaak. Op het eerste gezicht komt dit bericht althans wel indrukwekkend op mij over.

Dat applicaties (van derden dus) gebruikt worden als maatstaf voor de prestaties waarvoor het product gemaakt is, lijkt mij beter dan het alleen te spiegelen aan het product van de concurrent. Daar worden wij als toekomstig consument veel wijzer van.

Een bericht als dit is in feite gratis reclame (ok deal tussen software en hardware maker dan), maar zal de maker van de 'verliezer' nog eens extra stimuleren om zijn product verder te ontwikkelen.
Afgezien of je over het geheel genomen mee kan komen met, of net beter bent dan je concurrent, zal je als maker ook moeten richten op de eisen die in bijvoorbeeld deze game gesteld worden, om juist de gamers als doelgroep te kunnen bereiken, temeer omdat deze doelgroep relatief meer uitgeeft aan je product dan andere soort gebruikers.
Het lijkt er op dat Valve de benchmark in HL2 als DE benchmark voor DX9 wil positioneren.
Als vervanger voor 3DMark03 zeg maar.

Zo verwijzen ze bv ook naar Microsoft die blijkbaar hun benchmark de beste en meest uigebreide DX9 benchmark vind.

Als je dat als doelstelling hebt dan zul je vanaf het eerste begin ook een harde opstelling tegenover cheats moeten voeren. En dat is gewoon wat ze op het moment doen.

Die fog zou nog een bug kunnen zijn. (Dat kan Valve zelf beter beoordelen dan wij)
Maar een driver die detecteert wanneer een screenshot genomen wordt en dan een hogere kwaliteit beeld aflevert dan er op het scherm staat, dat kan nooit een bug zijn.
Tel hierbij de gebeurtenissen van het afgelopen jaar bij op, en de conclusie is gewoon dat Nvidia zijn streken nog niet verleert heeft.
Vandaar dat Valve dus pissed is op Nvidia.
[quote]
De beeldkwaliteit heeft hier echter wel onder te[b] leiden[/b] aangezien
[/quote]

De spellingskwaliteit ook! }>
De reden hiervan is dat de GPU de prestatie bepaald
Zeg dat wel... }>
Als dat zo zou zijn, dan betekend het dus dat het spel zelf geen flikker waard is.. want graphix bepalen niet of het spel leuk is, maar de gameplay..
Hierbij moet wel opgemerkt worden dat AnandTech verplicht was de 45.23 drivers te gebruiken en niet de 50.xx drivers die volgens nVidia aanzienlijk beter presteren.
Hoezo verplicht? dat is iets wat ik heel erg vreemd vind.. En het gaat hier ook over directx 9 shaders waar de nvidia niet zo denderend in is omdat hun shaders anders werken, maar bij OpenGL schijnen de nvidia shaders weer vele malen beter te zijn als die van ATI.. Microsoft kennende is de implementatie/specificaties altijd gewoon bagger geweest..
Waar haal jij de gedachte vandaan dat in OpenGL de shaders van Nvidia beter werken??

John Carmack heeft juist overduidelijk aangegeven dat in OpenGL ATI het ook veel beter doet dan Nvidia.

Alleen door in DoomIII aparte optimalisaties te stoppen die de beeldkwaliteit omlaag halen, kunnen zij de prestaties van de FX kaarten weer op ATI nivo brengen. (iets hoger zelfs)

Dit heeft helemaal niets met Microsoft te maken, maar alles met het ontwerp van Nvidia wat gewoon niet kan wedijveren met ATI.
ook extreme tech heeft een followup geschreven met eigen benchmarks.

http://www.extremetech.com/article2/0,3973,1264987,00.asp

En ook denk ik niet dat de Det50 zo veel uit zullen gaan maken voor de Geforce series, want de eerste testen geven een 10-15% indicatie.
ik denk dat we nog veel te vroeg conclusies trekken.
Het spel moet eerst maar eens uit komen.
Nu krijg je spellen bij je grafische kaart... straks koop je een spel, en krijg je de best bijpassende grafische kaart erbij.... :?
Ja ehm.. HL2 word gebundeld met een ati kaart... iig zo gaat 'ie ook verkocht worden..
De FX5200 is qua prestaties te vergelijken met een MX440 van de GeForce4 reeks dus dat vind ik niet gek dat deze slecht presteerd. Verder presteren de TI's erg goed tenopzichte van de FX5900. Jammer dat ze radeon9500 niet erbij zetten maar deze kan je wel ongeveer vergelijken met een R9600. Het testsysteem is erg snel dus ik denk niet dat de meeste mensen het spel op 1024 zullen kunnen spelen. 800x600 is vind ik ook niet echt leuk spelen, heb je misschien het beste spel van het jaar en dan moet je op 800x600 spelen. Kan je nog niet alle grafische pracht van het spel zien. En ik denk niet dat de standaardgebruiker zal gaan upgraden voor 'n paar spelletjes die hij op het moment niet kan draaien. Ik ben high-end gamer maar om nu voor DOOM en Half-Life2 te gaan upgraden vind ik wat overbodig. Over 'n jaartje kijk ik wel weer verder, dan zal Half-Life2 ook niet meer zo duur zijn. Overigens zal Half-Life1 vanaf de site binnenkort gratis te downloaden zijn wat natuurlijk erg mooi is voor de mensen die nog niet het spel tot hun beschikking hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True