Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties, 20.126 views •
Bron: DriverHeaven.net

Op het forum van DriverHeaven.net zijn Farcry benchmark resultaten gepost waarin wordt gekeken naar de prestaties van de GeForce 6800 Ultra wanneer Farcry gefopt wordt en ten onrechte denkt dat er een Radeon 9800 aanwezig is in het systeem. Het blijkt dat dit een flinke invloed heeft op de prestaties. Wanneer de GeForce 6800 Ultra met zijn eigen DeviceID door de benchmark wordt gehaald scoort de kaart bijna vijftig procent boven de Radeon 9800 XT. Wanneer de GeForce 6800 Ultra echter met het DeviceID van een Radeon 9800 wordt opgezadeld verdwijnt het verschil grotendeels. Wat overblijft is een voorsprong van ruim vijftien procent voor de GeForce 6800 Ultra ten opzichte van de Radeon 9800 XT.

De oorzaak van dit verschil wordt veroorzaakt doordat de GeForce 6800 Ultra gebruikmaakt van een ander render path dan de Radeon 9800 XT. Volgens de auteur van de resultaten gebruikt Farcry voor de GeForce 6800 Ultra hetzelfde render path als voor de GeForce FX-serie. Dit render path onderscheidt zich van het Radeon 9800-path door het gebruik van meer versie 1.1- in plaats van versie 2.0-shaders en 16-bits precisie in plaats van 24/32-bits precisie. Het gevolg hiervan is logischerwijs een lagere beeldkwaliteit en, zoals de benchmarks hebben laten zien, een flink voordeel qua performance. Zowel nVidia als de developers van Farcry hebben nog niet gereageerd op de resultaten.

Beeldkwaliteit Farcry
Het verschil in beeldkwaliteit tussen nVidia (links) en ATi (rechts) in Farcry (gecropped en geresized)

Reacties (76)

Reactiefilter:-176069+152+233+34
Moderatie-faq Wijzig weergave
dit geval werd al uitvoerig besproken op:
http://gathering.tweakers.net/forum/list_messages/901002/14

conclusie:
- nVidia kan er niets aan doen dat Far Cry de nv40 laat draaien op de nv3x pad.
- de nv40 is nog niet genoeg geoptimaliseerd om nu al duidelijke conclusies te trekken (ik verwacht een driver boost bij de lancering van de R420)
- de nv40 op het R300 pad laten draaien is niet helelmaal eerlijk want dat pad is niet geoptimaliseerd voor de nv40 (ook het nv3x pad). FP16 is een krachtig middel om de performance te verbeteren indien correct gebruikt
Als dat ze conclusies zijn, dat zegt dat niet veel goeds over het niveau van dat forum...

Onnozel om te denken dat NVidia niet heel nauw contact heeft met de makers van Farcry. 't is een TWIMTBP game. En ze zitten verdorie samen PS3.0 patches te maken voor Farcry! Alleen de NV40 die dat kan draaien!!!

Die 1.1 patch is 100% zeker in samenwerking met NVidia gemaakt, om de performance van de NVidia kaarten kunstmatig omhoog te krikken. Die patch is slechts een maandje voor de NV40 uitgekomen. Op dat moment waren de developers al lang en breed op de hoogte van de NV40. Ze zaten weliswaar nog onder NDA, maar dat betekent niet dat ze niet kunnen zorgen dat de NV40 serie als een andere kaart wordt herkent dan de NV3x serie.
Als ze optimale IQ hadden gewild voor de NV40 was dat doodeenvoudig geweest. Slechts n conclusie mogelijk: Het was de bedoeling dat de NV40 met de NV3x codepath draaide, omdat er dan nog een groot prestatie verschil is, terwijl bij gelijke codepath hij nauwelijks boven de 9800XT uit komt.

Valide driver optimalisaties moet je juist NIET verwachten bij de NV40. De architectuur problemen waardoor de NV3x zo makkelijk in een worst-case scenerario kwam, zijn verholpen. Daardoor dat er nauwelijks winst valt te bepalen door herrangschikken van instructies e.d.
En alle overige driver optimalisatie zijn voor 99% IQ cheats, en daar zitten we niet op te wachten.

Verder bestaat er geen R300 codepath in Farcry. De R300 draait in Farcry de STANDAARD DX9 codepath. Geen specifieke R300 optimalisatie dus.
En er is niets logischer en eerlijker dan de NV40 op datzelfde codepath te laten draaien.
FP16 is wederom een aantasting van IQ, en is dus geen eerlijke vergelijking. (zowiezo niet zo interessant... FP16 is voor de NV3.x veel effectiever dan voor de NV4.x )
Het 3.0/2.0 pad is in feite een geavanceerd 2.0 pad, zelf de GFFX zal het kunnen draaien.
Ik noem het DX9 pad het R300 pad omdat het geen partial presicion hints heeft.

Het nv 1.1/2.0 pad is zeker gemaakt om de performance op GFFX kaarten te verbeteren, PP werd te veel gebruikt waardoor er kwaliteit ingeboet wordt.
FP16 geeft voor de nv40 nog altijd een performance hit van ongeveer 33% (in shadergelimiteerde games).

ATi heeft ook zijn 2.0 shaders sinds de 3.0 drivers tot nu ongeveer 15% verbeterd (met een SMID architectuur)

Het 'standaard' dx9 codepath werd ontwikkeld op de R300 (omdat dat bij de tijd van schrijven de enige echte dx9 kaart is). Een Cg compiler update voor de nv40 zou zelf al een versnelling moeten geven.

Je bent een idioot als je denkt dat de nv40 en r300 shaders identiek afhandelen. Dx9 is een spec, de accenten liggen verschillent op deze kaarten dus moet de code (via compilers) appart worden geoptimaliseerd. De shaders in Far Cry werden geschreven op R3xx kaarten met een bepaalt performance target, voor R3xx kaarten niet bv nv40.
je verhaal is goed. Een kleine sidenote: Driver support. Die NV40 is voor zover ik gelezen en begrepen heb weer een meer conventioneel design. Drivers hiervoor zullen dan naar mijn mening ook weer herschreven moeten worden. Zeker als je je bedenkt dat nvidia heel druk met speciefieke nv3x optimalisaties bezig is geweest. Aangezien ps2.0 daar toch niet lekker op draaide en shader programma's terug naar 1.4, 1.1 en fp16 moesten kan je verwachten dat de driver optimalisaties voor ps2.0 en voor nv40 niet echt optimaal zijn. Het zou dan ook niet erg slim zijn met ps2.0 te gaan draaien op een van de weinige spellen die de potentie van de kaart zou kunnen aantonen.
Meestal als ik een spel speel ga ik fraggen en niet aandachtig naar de vloer kijke :P
Oh kom op, dat is zooo flauw.. Als het nu quake 3 was ok, maar farcry is gewoon het spel wat bekend staat om graphics. Ik speel zelf vrij weinig games meer, laat staan fps. Maar in farcry sta ik toch regelmatig even stil om van het uitzicht / grafisch spektakel te genieten. Ik kan me niet voorstellen dat iemand met een kaart van 400 euro en meer alleen maar wil fraggen. Die heeft die kaart gekocht om mooie graphics te krijgen. En om terug te komen op die vloer. Ik heb inderdaad stil gestaan om met me flashlight de vloer te bewonderen.
Toch typisch, er is toch altijd iemand die moet proberen aan te tonen dat er cheats gebruikt worden of dat Nvidia liegt. Zielig gewoon. X-Bit Labs heeft de eigen testsuite (die niet openbaar beschikbaar is) op de 6800 Ultra losgelaten en bevestigt dat het snelheidsverschil weldegelijk correct is. Dat deze website dan door n spel de naam van Nvidia probeert zwart te maken, vind ik gewoonweg kinderachtig.

[edit]
Aan de reacties te zien beschuldigen veel lezers Nvidia weer van cheats e.d., daarom reageerde ik heftig op dit soort berichten. Dat ze een bepaald onderzoek willen uitvoeren, is ok. Maar zet er alstublieft de juiste bemerkingen bij en plaats alles in de juiste context. Dat is alles wat ik vraag. :)
het IS al aangetoond dat nVIDIA gelogen heeft bij de press release door het "verschil" te laten zien tss PS3.0 en 2.0, terwijl ze 1.0 vs 3.0 (wat eigenlijk geen 3.0 was eerder 2.0) toonden. Tussen 1.0 en 2-3 is een groot verschil, terwijl er bijna geen optisch verschil is tussen 2.0 en 3.0.

Ik zeg niet dat ATi betrouwbaarder is per definitie, maar nVIDIA is toch wel erg bullish bezig sinds ze een beetje achterlopen op ATi
Sterker, het was 100% zeker het verschil tussen 1.0 en 2.0
NVidia sprak wel de hele tijd over 3.0, maar Crytek had het de gehele tijd over 2.0 en 3.0
Ik zou zeggen: laat ze het 's omdraaien: R9800XT met GF6800 ID :) Ben benieuwd wat er dan gebeurt, is hij dan even snel als een GF6800? Wordt het verschil dan ook kleiner?
Bij http://www.tommti-systems.de/start.html hebben ze het al omgedraaid. Een ATI 9800 een NVidia ID gegeven. Wat je dan ziet is dat de artefacten die je op de NVidia kaarten ziet, dan ook op de ATI terecht komt.
M.a.w. de artefacten worden veroorzaakt omdat de NVidia codepath PS2.0 vervangt door PS1.x
(En dus niet door pp hints wat eerst gedacht werd.)

Uiteraard is dit iets dat in Farcry zit, NIET in de NVidia drivers.
Echter, de REDEN dat het in Farcry zit, is uiteraard wel NVidia. De NVidia kaarten presteren gewoon zeer slecht in Farcry. En dat geldt dus OOK voor de 6800 !! Die komt nauwelijks boven de 9800XT uit wanneer ze dezelfde standaard DX9 codepath krijgen.

Of NVidia ze heeft gepushed, of dat de developers zelf op het idee zijn gekomen op de NVidia kaarten op lagere kwaliteit pixel shaders te laten lopen mag iedereen voor zichzelf uitzoeken.
Ik heb wel zo'n donkerbruin vermoeden waar ik het moet zoeken. 8-)
ik las reacties op het artikel, en daarna deze reactie van de schrijver...
Panamajack, forcing the XT to run as an FX increased performance (it was using lower shaders). Didnt think that needed stated. Read up on the other articles posted on the net today...IQ is considerably different between the geforce and the radeon due to PS versions used..
veel mensen vergeten dat farcry beslist welke renderpaths gekozen worden. Als de geforce 6800 nieuw is dan kan ik me voorstellen dat ze niet gekozen hebben om de renderpath van de 6800 terug te veranderen naar de "standaard" render path.

wel jammer overigens dat je zelf niet de renderpath mag kiezen, snelheids winst op een radeon is natuurlijk altijd mooi meegenomen :)
Dan start hij niet op of knalt hij er gigantisch uit bij een DX9 instructie die hij niet kent. Denk ik. ;)
tevens de plaatjes die ze gebruiken zijn gecropped/geresized & jpg. ik weet niet hoe het met de rest vd wereld zit maar ik heb heel vaak van dit soort vlekken in jpg's zitten dus wat ze laten zien kan ook nog eens erger zijn dan dat het daadwerkelijk is.
verder dat er teruggegrepen is op 1.1 is naar mijn idee juist een slimme zet. nvidia was 1x al voor op de programmeurs en hierdoor liep het schade op (trage renders) door juist terug te grijpen kan men zekerder zijn dat de nieuwe spellen goed ondersteunt worden
De artefacten zijn absoluut niet veroorzaakt door croppend of jpg compressie. Sterker, de plaatjes hier geven een geflatteerd beeld.
Het daadwerkelijke verschil is nog groter dan je met de kleine plaatjes ziet.
Zie http://www.tommti-systems.de/start.html voor een mooi voorbeeld.
Dat deze website dan door n spel de naam van Nvidia probeert zwart te maken, vind ik gewoonweg kinderachtig.
Jij mag eerst eens met 32-bits precisie gaan lezen voordat je kinderachtig reageert met beschuldigingen die nergens op slaan.
MaverickXP, het is over het algemeen netter om niet te reageren op de moderatie van je bericht, omdat deze nog kan veranderen.
"een typische T.net reactie" is dat berichten gemodereerd worden. Wat jij in jouw bericht doet is trouwens precies hetzelfde: je komt met n benchmark suite aanzetten waar het verschil wl groot is, en het bericht hierboven meldt duidelijk dat het om n spel gaat, en dat het verschil *misschien* minder groot is.

[off-topic]
Mensen die in edits gaan reageren op de moderatie die ze hebben gekregen kan ik me heel erg aan irriteren. Vaak is het helemaal onzinnig omdat er later een hele andere moderatie is en de reactie niet meer ter zake doet. Bovendien is niet meer te controleren of niet ook de inhoud van het bericht is aangepast; mede daarom pleit ik ervoor om het editen na 10 minuten uit te schakelen, zodat reacties op moderaties niet meer kunnen.
[/off-topic]
Ik volg jouw redenering wel en daarom heb ik m'n eigen edit weggedaan. Je hebt gedeeltelijk gelijk, de quotering kan nog wijzigen. Was iedereen maar zo behulpzaam. :)
ho, ho!
In het artikeltje staat dat Farcry en niet Nvidia andere renderpaths gebruikt.
Nvidia is dan dus niet aan het cheaten.

edit: te laat :z
zoals al vaker is aangetoond, drivers zien wel programa er word gestart en passen daar op aan wat ze doen. daarnaa is het farcry laten denken dat ze 1.1shaders moeten gebruiken, of de drivers 2.0 instructies binnen krijgen en 1.1 instructies aan de kaart laten geven een koud kunstje.

het zou me HEEL erg verbazen als FarCry de reden was namelijk.
waarom zouden hun hun game er met opzet beduidend slechter uit laten zien, en dan alleen op Nvidia kaarten? ik bedoel dat is toch onzin.
Uhm...

stomme opmerking misschien, maar als je leest dat er op het moment dat de ID de ID is van een ATI device andere renderpaths worden gekozen, dan worden die dus door hetgene wat die ID bekijkt gekozen, en niet door de drivers. Ofwel, het spel bekijkt welke kaart 't krijgt en past daarop de renderpaths aan voor betere prestaties.

Kan me niet voorstellen dat de nVidia drivers naar het device id gaan kijken en dan maar langzamer renderen omdat het een ATI device is... }>
Betekend natuurlijk niet dat de developers van FarCry geen intensief contact met nVidia gehad hebben bij het maken van deze game. Maar ook met Ati natuurlijk.
Vanaf de tijd dat het spel nog X-Isle zou heten, is het altijd pro-Nvidia geweest. Sterker nog, eerst draaide het niet eens op ATi kaarten.

Nu zeg ik niet dat Nvidia dit zo onderling geregeld heeft, maar de banden tussen beide bedrijven lijken vrij goed te zijn.
Dit moet wel met een hele duidelijke kanttekening gelezen worden dat het om Far Cry gaat. Zoals namelijk in het artikel van Tom's Hardware: http://www20.tomshardware.com/graphic/20040414/geforce_6800-46.html te lezen is, is dat een geval apart.
In de meeste andere spellen en benchmarks is de renderkwaliteit van de 6800 stukken beter dan de NV35/38 serie en vergelijkbaar met de ATI kaarten, terwijl de snelheid nog steeds verbluffend hoog is.
Tja... de meeste andere spellen maken dan ook nauwelijks gebruik van shader model 2. (Sterker, de meeste typische benchmark spellen maken uberhaupt nauwelijks gebruik van shaders!!)

In die zin zijn de resultaten van Farcry dus wel degelijk bijzonder belangrijk. Farcry wordt toch min of meer gezien als de eerste van de nieuwe generatie. Daarmee veel belangrijker als indicator voor de spellen van het aankomende jaar, dan enige andere benchmark.

Uiteraard is het onverstandig op 1 benchmark af te gaan, maar je mag 'm zeker niet negeren omdat hij iets anders zegt dan de overige benchmarks!
Enige wat hier in feite gezegd wordt is dat die geforce met dezelfde IQ als een radeon nog steeds sneller is dan de snelste van Ati.

Dat de game m standaard als lid van de geforce fx familie herkent en de IQ daardoor aanpast kan nVidia niks aan doen en zal ws wel verholpen worden met een patch van Crytek of een driver van nVidia.

Snap niet waar al die heisa om is, niemand speelt vals is gewoon een kwestie van een game die een kaart nog niet correct herkent omdat de kaart pas later uit is gekomen....
mwoah ik vind dat toch wel erg kortzichtig... Het is wel dat Nvidia nog steeds sneller is maar het verschil een heel stuk kleiner is dan verwacht, want als het een 1 jaar oude kaart al niet zou verslaan dan zou Nvidia toch wel erg achteruit gegaan zijn.
Punt 2 is dan dat er nog een aardig grote fout of in de game zit of in de driver want de GF5xxx versie kunnen tenslotte ook gewon pixelshader 2.0 aan terwijl die schijnbaar ook nog gewoon op de 1.1 versie draaien.

Natuurlijk blijft het hele gedoe deels subjectief en zal men nog lang niet de perfecte kaart creeeren en wees blij dat we ondertussen tenminste 2 grote spelers hebben en er mogelijk de komende jaren nog 1 bij kan komen. Sinds Ati zich serieus op de high end markt is gaan storten is de hele industrie in een stroomversnelling gegaan. vroeger zaten de programmeurs te wachten op een kaart die snel genoeg was nu gaan ze zo snoeihard dat het even duurt voor een kaart echt tot een maximum wordt gebruikt.
Dit doet me sterk denken aan de Voodoo3 en TNT2. De Voodoo3 was even snel (soms sneller) als de TNT2/Ultra, maar de beeldkwaliteit was minder. Dit was het begin van het einde voor 3Dfx. Nvidia lijkt nu dezelfde fout te gaan maken.
offtopic:
Niet waar volgens mij, de tnt2 had 32 bits kleuren en de voodoo 3 16 bits kleuren maar als je ze naast elkaar legde gaf de voodoo toch echt een stuk beter beeld.
:)
Dames en heren. FarCry heeft deze keuze zelf gemaakt voor de FX serie, omdat het spel anders niet te spelen was! Geen gecheat van nVidia, maar een zet van de FarCry devs om de mensen met een FX toch de gameplay te kunnen laten ervaren. O+
Hoezo :
omdat het spel anders niet te spelen was
FarCry loopt zelfs op mijn GF4 Ti4200 ook gewoon vloeiend. Tuurlijk staat alles niet op max, maar om nu te zeggen dat er door de makers van FarCry voor gekozen is om dat de nVidia kaarten als geen fatsoenlijke gameplay zouden geven, is werkelijk complete onzin.
...keuze gemaakt...omdat het spel anders niet te spelen was
FarCry loopt zelfs op mijn GF4 Ti4200 ook gewoon vloeiend.
Logisch: als ze geen keuzes hadden gemaakt en iedereen, dus ook jouw dx8 geforce 4, hetzelfde zware geweld van de farcry engine hadden voorgeschoteld dn was het dus absoluut niet vloeiend. Wees blij dat ze ook aan jou gedacht hebben. Anders had je het spel op 640x480 kunnen gaan spelen.
...de makers van FarCry voor gekozen...werkelijk complete onzin.
Zie het eerder als een interessante bevinding van mensen die daadwerkelijk met de technieken moeten werken.
en DAT moeten ze dus niet doen, doordat dat soort spellen ook als benchmark gebruikt worden moeten ze alle kaarten met dezelfde shaders aanspreken, behalve als ze er natuurlijk niet zijn dan gaat het moelijk. Of tijdens de benchmark gewoon PS2 aanspreken en tijdens de game gewoon 1.1
jezus mensen ! leer dit artikel eens lezen !

dit heeft geen _ruk_ te maken met nvidia..

dit heeft alles te maken met de keuzes van de farcry developers tijden 't ontwikkelen van de engine
Waarom denk je dat de makers van Farcry die beslissingen hebben gemaakt?
Hint: het is een TWIMTBP game....
het is echt niet zo vreemd dat voor iedere GPU aparte versies gecompiled worden van de shaders die de beste performance opleveren. dat gebeurt in andere games ook.. ze compilen vaak niet on-the-fly, maar pre-compilen de shaders voor iedere GPU een keer.. en als onder GeforceFX kaarten een 1.x versie sneller draait dan een 2.x variant, lijkt me de keuze duidelijk.
The Way It's Meant To Be Played.
Ofwel : nVidia :)
Volgens mij is het nieuwsbericht onduidelijk, want bijna iedereen interpreteert het verkeerd (maar goed, nVidia heeft ook behoorlijk de schijn tegen). Nu ik het nog eens goed nagelezen heb klopt het inderdaad niet.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True