Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 76, views: 20.070 •
Bron: DriverHeaven.net

Op het forum van DriverHeaven.net zijn Farcry benchmark resultaten gepost waarin wordt gekeken naar de prestaties van de GeForce 6800 Ultra wanneer Farcry gefopt wordt en ten onrechte denkt dat er een Radeon 9800 aanwezig is in het systeem. Het blijkt dat dit een flinke invloed heeft op de prestaties. Wanneer de GeForce 6800 Ultra met zijn eigen DeviceID door de benchmark wordt gehaald scoort de kaart bijna vijftig procent boven de Radeon 9800 XT. Wanneer de GeForce 6800 Ultra echter met het DeviceID van een Radeon 9800 wordt opgezadeld verdwijnt het verschil grotendeels. Wat overblijft is een voorsprong van ruim vijftien procent voor de GeForce 6800 Ultra ten opzichte van de Radeon 9800 XT.

De oorzaak van dit verschil wordt veroorzaakt doordat de GeForce 6800 Ultra gebruikmaakt van een ander render path dan de Radeon 9800 XT. Volgens de auteur van de resultaten gebruikt Farcry voor de GeForce 6800 Ultra hetzelfde render path als voor de GeForce FX-serie. Dit render path onderscheidt zich van het Radeon 9800-path door het gebruik van meer versie 1.1- in plaats van versie 2.0-shaders en 16-bits precisie in plaats van 24/32-bits precisie. Het gevolg hiervan is logischerwijs een lagere beeldkwaliteit en, zoals de benchmarks hebben laten zien, een flink voordeel qua performance. Zowel nVidia als de developers van Farcry hebben nog niet gereageerd op de resultaten.

Beeldkwaliteit Farcry
Het verschil in beeldkwaliteit tussen nVidia (links) en ATi (rechts) in Farcry (gecropped en geresized)

Reacties (76)

Reactiefilter:-176069+152+233+34
Met andere woorden, nVidia is weer aan het cheaten. Die enorme performancewinst ten opzichte van zijn voorgangers was dus toch te mooi om waar te zijn.
Nee, Farcry gebruikt NV40 als een NV30, dat is niet de schuld van nVidia. Het enige wat hieruit blijkt is dat Farcry meer CPU-limited is dan eerder gedacht werd.
Jaja.. En Nvidia wist hier zeker ook niets van toen ze trots hun benchmarks aan iedereen lieten zien? Maar een derde partij komt er wel achter? Geloof ik niets van..

Nvidia heeft dan misschien niet officieel gecheat, maar ze hebben wel informatie achtergehouden en dat komt op hetzelfde neer wat mij betreft..
Waar haal jij die informatie vandaan dat FarCry CPU limited is?? Ik haal dezelfde fps op mijn ATI9800Pro met een 2,4Ghz als met een 3,6Ghz P4 dus dat lijkt me niet het geval
Panamajack, forcing the XT to run as an FX increased performance (it was using lower shaders). Didnt think that needed stated. Read up on the other articles posted on the net today...IQ is considerably different between the geforce and the radeon due to PS versions used..
en
Uiteraard is dit iets dat in Farcry zit, NIET in de NVidia drivers.
Echter, de REDEN dat het in Farcry zit, is uiteraard wel NVidia. De NVidia kaarten presteren gewoon zeer slecht in Farcry. En dat geldt dus OOK voor de 6800 !! Die komt nauwelijks boven de 9800XT uit wanneer ze dezelfde standaard DX9 codepath krijgen.
geven toch eigenlijk wel aan dat
1: de ATI sneller wordt met het oudere renderpath
2: de nVidia trager wordt met het nieuwe renderpath

nVidia heeft geprobeerd een snellere kaart neer te zetten dan ATI en dat is ze ook wel gelukt (for the time being) maar het verschil blijkt maar 10-15% en geen 50% zoals ze voorspeld hadden. Doordat nVidia een nauwe samenwerking heeft gehad met de makers van FarCry hebben ze waarschijnlijk voorlopig de oude shaders gebruikt voor de nieuwe kaart om er toch nog wat performance uit te persen. Er is overigens ook niet voor niets een nieuwe FarCry patch aangekondigd die shader model 3.0 gaat ondersteunen... (speciaal voor de 6800?).....
Dit is gewoon een Farcry instelling, dit moet met een simpele patch op te lossen zijn.
Een herhaling van de schandalige driver optimalisaties op een andere manier, of per ongeluk, of gewoon drivers die nog niet volwassen zijn.

De praktijk zal het uitwijzen of ze wederom keihard op hun smoel gaan of juist niet.
edit:
Welke zielepiet zit de boel zo naar beneden te modden? Check de fora, en zie dat er iets niet klopt.
Dit is niet een driverprobleem, maar het probleem van Farcry.
oftewel nvidia offert nog steeds beeldkwaliteit op voor snelheid jammer. na de gforce4 4200 ben ik van nvidia afgestapt. Heb nu een ati radeon9500 pro.
(en ja ik heb alle voorgaande kaarten van nvidia gehad niks mis mee.)
Toch typisch, er is toch altijd iemand die moet proberen aan te tonen dat er cheats gebruikt worden of dat Nvidia liegt. Zielig gewoon. X-Bit Labs heeft de eigen testsuite (die niet openbaar beschikbaar is) op de 6800 Ultra losgelaten en bevestigt dat het snelheidsverschil weldegelijk correct is. Dat deze website dan door één spel de naam van Nvidia probeert zwart te maken, vind ik gewoonweg kinderachtig.

[edit]
Aan de reacties te zien beschuldigen veel lezers Nvidia weer van cheats e.d., daarom reageerde ik heftig op dit soort berichten. Dat ze een bepaald onderzoek willen uitvoeren, is ok. Maar zet er alstublieft de juiste bemerkingen bij en plaats alles in de juiste context. Dat is alles wat ik vraag. :)
Ik zou zeggen: laat ze het 's omdraaien: R9800XT met GF6800 ID :) Ben benieuwd wat er dan gebeurt, is hij dan even snel als een GF6800? Wordt het verschil dan ook kleiner?
ik las reacties op het artikel, en daarna deze reactie van de schrijver...
Panamajack, forcing the XT to run as an FX increased performance (it was using lower shaders). Didnt think that needed stated. Read up on the other articles posted on the net today...IQ is considerably different between the geforce and the radeon due to PS versions used..
Dan start hij niet op of knalt hij er gigantisch uit bij een DX9 instructie die hij niet kent. Denk ik. ;)
Bij http://www.tommti-systems.de/start.html hebben ze het al omgedraaid. Een ATI 9800 een NVidia ID gegeven. Wat je dan ziet is dat de artefacten die je op de NVidia kaarten ziet, dan ook op de ATI terecht komt.
M.a.w. de artefacten worden veroorzaakt omdat de NVidia codepath PS2.0 vervangt door PS1.x
(En dus niet door pp hints wat eerst gedacht werd.)

Uiteraard is dit iets dat in Farcry zit, NIET in de NVidia drivers.
Echter, de REDEN dat het in Farcry zit, is uiteraard wel NVidia. De NVidia kaarten presteren gewoon zeer slecht in Farcry. En dat geldt dus OOK voor de 6800 !! Die komt nauwelijks boven de 9800XT uit wanneer ze dezelfde standaard DX9 codepath krijgen.

Of NVidia ze heeft gepushed, of dat de developers zelf op het idee zijn gekomen op de NVidia kaarten op lagere kwaliteit pixel shaders te laten lopen mag iedereen voor zichzelf uitzoeken.
Ik heb wel zo'n donkerbruin vermoeden waar ik het moet zoeken. 8-)
veel mensen vergeten dat farcry beslist welke renderpaths gekozen worden. Als de geforce 6800 nieuw is dan kan ik me voorstellen dat ze niet gekozen hebben om de renderpath van de 6800 terug te veranderen naar de "standaard" render path.

wel jammer overigens dat je zelf niet de renderpath mag kiezen, snelheids winst op een radeon is natuurlijk altijd mooi meegenomen :)
Dat deze website dan door één spel de naam van Nvidia probeert zwart te maken, vind ik gewoonweg kinderachtig.
Jij mag eerst eens met 32-bits precisie gaan lezen voordat je kinderachtig reageert met beschuldigingen die nergens op slaan.
tevens de plaatjes die ze gebruiken zijn gecropped/geresized & jpg. ik weet niet hoe het met de rest vd wereld zit maar ik heb heel vaak van dit soort vlekken in jpg's zitten dus wat ze laten zien kan ook nog eens erger zijn dan dat het daadwerkelijk is.
verder dat er teruggegrepen is op 1.1 is naar mijn idee juist een slimme zet. nvidia was 1x al voor op de programmeurs en hierdoor liep het schade op (trage renders) door juist terug te grijpen kan men zekerder zijn dat de nieuwe spellen goed ondersteunt worden
De artefacten zijn absoluut niet veroorzaakt door croppend of jpg compressie. Sterker, de plaatjes hier geven een geflatteerd beeld.
Het daadwerkelijke verschil is nog groter dan je met de kleine plaatjes ziet.
Zie http://www.tommti-systems.de/start.html voor een mooi voorbeeld.
het IS al aangetoond dat nVIDIA gelogen heeft bij de press release door het "verschil" te laten zien tss PS3.0 en 2.0, terwijl ze 1.0 vs 3.0 (wat eigenlijk geen 3.0 was eerder 2.0) toonden. Tussen 1.0 en 2-3 is een groot verschil, terwijl er bijna geen optisch verschil is tussen 2.0 en 3.0.

Ik zeg niet dat ATi betrouwbaarder is per definitie, maar nVIDIA is toch wel erg bullish bezig sinds ze een beetje achterlopen op ATi
Sterker, het was 100% zeker het verschil tussen 1.0 en 2.0
NVidia sprak wel de hele tijd over 3.0, maar Crytek had het de gehele tijd over 2.0 en 3.0
MaverickXP, het is over het algemeen netter om niet te reageren op de moderatie van je bericht, omdat deze nog kan veranderen.
"een typische T.net reactie" is dat berichten gemodereerd worden. Wat jij in jouw bericht doet is trouwens precies hetzelfde: je komt met één benchmark suite aanzetten waar het verschil wél groot is, en het bericht hierboven meldt duidelijk dat het om één spel gaat, en dat het verschil *misschien* minder groot is.

[off-topic]
Mensen die in edits gaan reageren op de moderatie die ze hebben gekregen kan ik me heel erg aan irriteren. Vaak is het helemaal onzinnig omdat er later een hele andere moderatie is en de reactie niet meer ter zake doet. Bovendien is niet meer te controleren of niet ook de inhoud van het bericht is aangepast; mede daarom pleit ik ervoor om het editen na 10 minuten uit te schakelen, zodat reacties op moderaties niet meer kunnen.
[/off-topic]
Ik volg jouw redenering wel en daarom heb ik m'n eigen edit weggedaan. Je hebt gedeeltelijk gelijk, de quotering kan nog wijzigen. Was iedereen maar zo behulpzaam. :)
ho, ho!
In het artikeltje staat dat Farcry en niet Nvidia andere renderpaths gebruikt.
Nvidia is dan dus niet aan het cheaten.

edit: te laat :z
Betekend natuurlijk niet dat de developers van FarCry geen intensief contact met nVidia gehad hebben bij het maken van deze game. Maar ook met Ati natuurlijk.
Vanaf de tijd dat het spel nog X-Isle zou heten, is het altijd pro-Nvidia geweest. Sterker nog, eerst draaide het niet eens op ATi kaarten.

Nu zeg ik niet dat Nvidia dit zo onderling geregeld heeft, maar de banden tussen beide bedrijven lijken vrij goed te zijn.
zoals al vaker is aangetoond, drivers zien wel programa er word gestart en passen daar op aan wat ze doen. daarnaa is het farcry laten denken dat ze 1.1shaders moeten gebruiken, of de drivers 2.0 instructies binnen krijgen en 1.1 instructies aan de kaart laten geven een koud kunstje.

het zou me HEEL erg verbazen als FarCry de reden was namelijk.
waarom zouden hun hun game er met opzet beduidend slechter uit laten zien, en dan alleen op Nvidia kaarten? ik bedoel dat is toch onzin.
Uhm...

stomme opmerking misschien, maar als je leest dat er op het moment dat de ID de ID is van een ATI device andere renderpaths worden gekozen, dan worden die dus door hetgene wat die ID bekijkt gekozen, en niet door de drivers. Ofwel, het spel bekijkt welke kaart 't krijgt en past daarop de renderpaths aan voor betere prestaties.

Kan me niet voorstellen dat de nVidia drivers naar het device id gaan kijken en dan maar langzamer renderen omdat het een ATI device is... }>
Volgens mij is het nieuwsbericht onduidelijk, want bijna iedereen interpreteert het verkeerd (maar goed, nVidia heeft ook behoorlijk de schijn tegen). Nu ik het nog eens goed nagelezen heb klopt het inderdaad niet.
Leuk dat ze het alleen met FarCry doen, maar waarom zou dit bij Nvidia liggen en niet bij Crytek/het spel zelf?? Er bestaat natuurlijk wel een mogelijkheid dat er een oudere driver werdt gebruikt, maar het is afwachten op antwoord van Nvidia.
Er wordt bij driverheaven helemaal niet beweerd dat het bij NVidia ligt. In tegendeel, er wordt juist aangetoond dat het bij het spel ligt.
Volgende keer iets zorgvuldiger lezen graag!

Verder is het onmogelijk dat er een verkeerde driver werd gebruikt, aangezien er op dit moment maar 1 driver voor de 6800 is....
Het blijft gewoon afwachten. Geduld is een schone zaak.

Wanneer beide topmodellen van nVidia en ATi uit zijn en wanneer alle bugs uit de drivers zijn, kunnen we pas de kaarten gaan vergelijken.

We kunnen alleen niet wachten tot het zover is. Op dit moment zijn er alleen maar sprake van speculaties i.p.v. feiten. Hoewel dit wel feiten zijn. Toch jammer dat nVidia weer op deze tour gaat.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013