Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

John Carmack over cheaten vs. optimaliseren van drivers

De soap rondom de optimalisaties die ATi en de cheats die nVidia in hun drivers hebben opgenomen om beter te scoren in de 3DMark 2003 benchmark is nog niet voorbij. Zowel Tim Sweeny als John Carmack, de ontwerpers van respectievelijk Unreal en Quake, hebben ondertussen hun mening hierover geventileerd op verschillende forums op het internet.

Tim Sweeney heeft in principe geen problemen met optimalisaties die in de drivers worden aangebracht zolang het resultaat precies hetzelfde is als het resultaat zonder optimalisaties. Doordat 3D-hardware nog steeds in de kinderschoenen staat vergeleken met bijvoorbeeld cpu's, is het vaak niet duidelijk wat het resultaat is. Dit geeft de fabrikanten speelruimte om optimalisaties toe te passen die een ander resultaat hebben. Volgens Tim zal dit echter in de loop der tijd veranderen en zullen gpu's even voorspelbaar zijn als cpu's.

John Carmack heeft nagenoeg dezelfde mening. Volgens hem is het ontoelaatbaar dat fabrikanten shaders zo herschrijven dat het resultaat verschilt met wat er bedoeld is. Hij voegt toe dat het moeilijk is om de nVidia-shaders te vergelijken met die van ATi. De oorzaak hiervan is de precisie waarmee beide fabrikanten werken. De GeForce FX kan in zowel 12bits-integer, 16bits-floating-point en 32bits-floating-point werken. ATi gebruikt alleen maar 24bits-floating-point, de minium eis voor DirectX 9.0 shaders:

When the output goes to a normal 32 bit framebuffer, as all current tests do, it is possible for Nvidia to analyze data flow from textures, constants, and attributes, and change many 32 bit operations to 16 or even 12 bit operations with absolutely no loss of quality or functionality. This is completely acceptable, and will benefit all applications, but will almost certainly induce hard to find bugs in the shader compiler. You can really go overboard with this -- if you wanted every last possible precision savings, you would need to examine texture dimensions and track vertex buffer data ranges for each shader binding. That would be a really poor architectural decision, but benchmark pressure pushes vendors to such lengths if they avoid outright cheating. If really aggressive compiler optimizations are implemented, I hope they include a hint or pragma for "debug mode" that skips all the optimizations."

Door

Nieuwsposter

46 Linkedin Google+

Submitter: T.T.

Bron: Beyond 3D

Reacties (46)

Wijzig sortering
Slashdot.org draadje waar ook wat meer technische punten aan 't licht worden gebracht
Optimalisaties zijn goed.
Optimaliseren = hetzelfde efficienter(=sneller) doen.
Cheaten is misschien slecht, misschien goed.
Cheaten = iets anders doen wat er op lijkt.

Het hangt van de mate af waarin het 'effect' verschilt in vergelijking met de orginele methode. Ik zou best met een cheat kunnen leven, als deze niet (merkbaar) zou verschillen met het 'origineel'.

Omdat even het voorbeeld van slecht cheaten geven verwijs ik naar deze posting, waarin nvidia dusdanig cheat dat de drivers niet meer in staat zijn om 3dmark2003 fatsoenlijk te renderen.

Om iets beter cheat werk te laten zien (maar alsnog slecht cheaten) verwijs ik naar deze posting, waarin ATI lagere kwaliteit mipmaps en filtering gebruikt in Quake3 (een van de veel gebruikte benchmarks in die tijd ;)) waardoor scores stukken beter uitvielen dan ze op normale kwaliteit waren.

Gepost door mark_unix woensdag 28 mei 2003 - 18:52 :
....de Aangepaste drivers die DX9 heeft kunnen de Ati kaart niet 32 bit mode laten. dit komt door een aanpasing van Nvidia.
Hier je hier wat meer info over??
Zou graag wat meer over die kwestie willen weten ;)

Ik zie ATI namelijk niet hun drivers aan gaan passen omdat Nvidia dat graag wil. Het zou best kunnen dat Microsoft en Nvidia samen besloten hebben om de shader 24-bits te geven (echter imho onwaarschijnlijk omdat dit (24-bits) nou niet het meest gunstige scenario voor de FX is)
Tim Sweeney heeft in principe geen problemen met optimalisaties die in de drivers worden aangebracht zolang het resultaat precies hetzelfde is als het resultaat zonder optimalisaties
Lees ik dit nou gewoon verkeerd, of staat hier nou gewoon dat hij het best vindt dat er optimalisaties in zitten zolang ze niks uithalen? Snap niet helemaal wat er nou precies bedoeld wordt...
hij zegt dat optimaliseren niets uit maakt, zolang het resultaat maar hetzelfde is, kortom als de consument geen verschil ziet is het niet erg
M.a.w. hij keurt wat Nvidia gedaan heeft af en wat ATI gedaan heeft vindt ie toelaatbaar.

En JC zegt hetzelfde.
Snap niet helemaal wat er nou precies bedoeld wordt...
Dat je niet de helft van de details mist vanwege die optimalisatie. Dus je graphics kwaliteit moet hetzelfde blijven.
als je de originele tekst lees: een optimalisatie is toegstaan mits het resultaat netjes hetzelfde blijft. Dus (2+2)/2 veranderen in wortel 4 is een toelaatbare optimalisatie, om een voorbeeld te noemen. De functie is anders, maar de uiteindelijke uitkomst is hetzelfde.
Maar als er zo een optimalisatie gecrëerd wordt voor 3dmark zal dat ook in andere 3d apps verbeteringen geven en dat was bij Nvidia met 25% verschil op 3dmark wel een heel erg groot verschil terwijl het bij de spellen amper wat uitmaakte.....
Laten we 1 ding heel duidelijk maken: De trucjes die Nvidia gebruikte kunnen NIET in spellen worden toegepast.
Niet helemaal waar, want dit soort trucjes kunnen ook in spellen worden uitgehaalt! Wat wel kan zijn is dat 3dmark op deze manier een minder goede indicatie is voor een bepaalde kaart/driver.
Je begrijpt het goed. Zolang het resultaat een scene is die pixel per pixel precies hetzelfde is als zonder optimalisaties heeft hij er geen problemen mee. Hij vergelijkt het namelijk met software functies waar dit soort dingen heel gebruikelijk is.
ja dat vond ik ook raar

waarom optimaliseren als het niets uithaalt :S

/edit: antwoord staat blijkbaar onder mij
de Ati kaart kan wel 32 Bit, maar de Aangepaste drivers die DX9 heeft kunnen de Ati kaart niet 32 bit mode laten.

dit komt door een aanpasing van Nvidia.
Jij zegt het volgende:

- De ATI kaart (qua hardware) kan 32 bit shaders gebruiken
- In spellen gaat dat niet, omdat Directx 9 dat niet toelaat
- Directx 9 laat dat niet toe vanwege een aanpassing van nVidia

Deze aanpassing kan alleen door nVidia worden gemaakt als zij Microsoft zover krijgen om die aanpassing door te voeren. Dat zou betekenen dat nVidia Microsoft beïnvloedt en bewerkstelligt dat kaarten van ATI zo niet 100% op hun top kunnen draaien.

Dat zou ZIEK zijn van nVidia als ze het zouden proberen, en LAME van Microsoft als ze zouden meedoen. Ik denk ook niet dat dit gebeurt.

Daarbij, in OpenGL zou de ATI kaart dan wel 32 bits shaders hebben, omdat OpenGL niet afhankelijk is van Directx 9.

Onderbouw je insinuatie eens met een bron, want ik heb hier nog helemaal niks over gehoord en nooit wat over gelezen.

(OT Edit: ) ? Hoe komt die post van Dries daar opeens 6 minuten eerder dan de mijne? Ik heb echt niet 6 minuten zitten typen...
(OT Edit: ) ? Hoe komt die post van Dries daar opeens 6 minuten eerder dan de mijne? Ik heb echt niet 6 minuten zitten typen...
misschien even bericht en reacties zitten lezen en zonder refresh daarna zelf je reactie getypt?
Dat is echt complete onzin die je uitkraamt.

ATI heeft gewoon zelf gekozen voor 24bit.

DX9 eist minimaal 24bit, en ATI heeft daarvoor gekozen omdat de beeldkwaliteit niet te onderscheiden is van 32bit, maar de performance beter is.

Nvidia heeft alleen 32bit of 16bit. Maar die laatste is voldoet dus niet aan de DX9 norm en levert bovendien duidelijke een mindere beeldkwaliteit op.

ATI heeft gewoon (wedereom) een betere beslissing genomen bij hun ontwerp.
Lekker kort door de bocht...

nVidia heeft gekozen voor een oplossing waarbij de precisie van de berekening niet op voorhand vast staat. Op deze manier kunnen ze (zoals John Carmack al aangeeft) optimalisaties toepassen in shaders welke geen invloed hebben op de kwaliteit, maar alleen op de performance.
Ik kan me goed voorstellen dat er shaders zijn die helemaal geen 32 bit floating point precisie nodig hebben, maar met een 16 bit floating point exact hetzelfde resultaat geven.
In dat soort gevallen lijkt de oplossing van nVidia mij een stuk handiger.

Verder heb heb je de klok wel horen luiden, maar weet je niet waar de klepel hangt (spreekwoordelijk dan :P).
Het 'niet waarneembare verschil' tussen 24 bit en 32 bit heeft geen betrekking op de precisie waarmee shader-berekeningen worden uitgevoerd. Dit heeft betrekking op de kleurdiepte die op een scherm wordt weergegeven.
Vroeger, toen 3dfx nog bestond, speelde dit probleem erg. Op dit moment doet het er niet meer toe, aangezien alles tegenwoordig 32 bits kleur ondersteunt.
In de tijd van 3dfx was het echter zo, dat de voodoo3 kaarten 'slechts' 24 bit kleur ondersteunden en de tnt2 van nVidia 32 bit. De beeldkwaliteit was echter exact hetzelfde. Dat kwam, omdat de 32 bit kleur van nVidia slechts 24 bit 'kleur' bevatte. De overige 8 bit werd (voor zover ik het begrijp) gebruikt voor alpha blending, maar was in principe overbodig.
nVidia maakte gebruik van 32 bit kleur om dat dit rekentechnisch beter werkte, niet omdat de kwaliteit hoger was. Bijkomend voordeel was uiteraard ook, dat 32 bits kleur voor de consument beter leek dan 24 bits kleur.

Laten we verder maar niet gaan beginnen over wie er betere beslissingen heeft genomen bij het ontwerpen van hun gpu's.
In principe ben ik van mening dat de nVidia kaart wat verder gaat dan de minimale specs die Microsoft heeft opgegeven, in tegenstelling tot ATi. Maar goed, uiteindlijk blijkt ATi op dit moment toch sneller te zijn en heeft nVidia een greep gedaan naar een wel erg lam middel om beter uit de bus te komen.
Opzich heb ik geen problemen met optimalisaties, maar als het zover gaat, dat je beeldkwaliteit gaat inleveren, dan is het uiteraard wel een beetje fout ;)
Ik denk dat je zelf waar wat beter naar de klepel moet zoeken, want het klopt niet wat je zegt.
Maar dat is verder off-topic, dus daar zal ik verder niet op in gaan.

Wat betreft ontwerp beslissingen is er maar 1 criterium. Welke levert de beste prestatie/beeldkwaliteit/prijs verhouding. En dat is bij 24bits gewoon beter dan bij 32bits. Zodanig beter dat Nvidia zich genoodzaakt voelt om in DX9 benchmarks 16bits te forceren om nog de prestatie op te krikken. Dan is de conclusie wie in dit geval de beste beslissing heeft gemaakt volgens mij uitermate simpel.

Inderdaad gaat de Nvidia kaart verder dan de minimale specs van DX9 en verder dan de ATI kaart. Dat kan niemand ontkennen, want dat zijn gewoon harde feiten. Of je er ook iets van merkt en of het verstandig is geweest is echter een heel ander punt.
Zover ik het zie is het vooral een marketing-stunt geweest, hee kijk mij is, ik ben 32bit. Alleen is op full 32bit precisie niet vooruit te branden, dat vertellen ze er niet bij.

Of het handiger is of beter ?
JC zegt er zelf ook iets over
1) vergt meer van de programmeurs
2) verhoogt de kans op fouten
3) Moeilijker de fouten in de code op te speuren.

Of de game-ontwikkelaars daar nou zo blij mee zijn :?
Merken de game ontwikkelaars er zoveel van dan?

1) Ik zie 'm nergens stellen dat het meer van de game programmeurs vergt. Het vergt wel meer van de Nvidia programmeurs, maar dat zal hem niet boeien.
2) Verhoogt de kans op fouten in de Nvidia driver. Maar boeit dat de game programmeurs? Ze geven toch zowiezo de videokaart drivers altijd de schuld van alle problemen. Dat zullen ze dan nog wat vaker doen. (en dan zomaar een keer terecht)
3) Het wordt vervelend als ze denken dat het problemen in het spel zijn, maar zie daarvoor 2. Ze geven toch altijd de drivers de schuld, dus het zal Nvidia zijn die het probleem krijgt dat de fouten minder makkelijk op te sporen zijn.

Ik denk dus dat voornamelijk de nvidia programmeurs er niet zo blij mee zijn....
nVidia heeft DirectX aangepast en nu kan ATi geen 32bits precisie meer gebruiken? Heb je daar bewijs voor, want het klinkt erg vreemd.
Ehm.. Bij Beyond3d.com zitten hele knappe jongens en die kijken er toch een beetje anders tegenaan. Tuurlijk gaan Tim and John geen slechte dingen zeggen. Ze zitten te dicht op het "vuur". Het "vuur" wat ze nu en in de toekomst nodig hebben.

Ze zijn het er meer of minder over eens, dat JC eigenlijk niks relevants zegt. Alleen maar iets algemeens, beetje de technick aanspreekt en that's it. Hij komt volgens hun zeggen "zeer vriendelijk" uit de hoek en zegt dus eigenlijk niks wezenlijks.

Atmospher

Wat bedoel je met slecht cheaten. Dus als we monopoly spelen en ik jat geld uit de bank wat jij niet ziet = het GOED cheaten :?
Cheaten=cheaten, PUNT

Nvidia heet ook GECHEAT (volgens jouw logica nog slecht ook, want we zijn erachter gekomen).
Ze hebben sim-pelweg hele stukken code overgeslagen, code die berkend moet worden voor een accurate benchmark. Oww, wat goed van ze ! |:(
Wat bedoel je met slecht cheaten. Dus als we monopoly spelen en ik jat geld uit de bank wat jij niet ziet = het GOED cheaten
Beetje vreemde vergelijking vind ik het eigenlijk, jatten en cheaten, en jij doet meteen beide... Met slecht cheaten bedoelde ik cheaten waar je eigenlijk niets me opschiet (zoals Nvidia laatst). Voorbeeld van goed cheaten is bv HyperZ.
Cheaten=cheaten, PUNT
Heb volgens mij ook helemaal niet gezegd dat cheaten !=cheaten. :+

Waar het mij omging is dat cheaten best kan, als het uiteindelijke resultaat maar niet onderdoet voor het origineel
Dat kan goed zijn in spellen jah, maar da's geen cheaten. Da's optimalisatie. Dat kan je niet vergelijken met 3Dmark, waar ze moedwillig hebben lopen knoeien met de code. Maw; ze hebben hun eigen spelregels verzonnen, iets waar 3Dmark niet vanuit gaat. Al zijn de renderings nog zo onnodig, als ze ze gebruiken om de performance te meten zijn ze onvervangbaar. En da's precies wat Nvidia doet, ze belazeren de benchmark door dingen NIET te doen die ze juist wel moeten doen. Ati's "cheat" doet de dingen WEL, alleen anders. Wat dus ook niet is toegestaan, maar minder erg dan Nvidia's "hack".

Als je meedoet aan een benchmark, behoor je je aan de regeld van het spel te houden. Doe je dat niet dan heeft de hele benchmark geen enkele zin meer.
Waar het mij omging is dat cheaten best kan, als het uiteindelijke resultaat maar niet onderdoet voor het origineel
En hier ga je weer de fout in. Als ze dingen doen die volgens de regels NIET zijn toegestaan heet dat valsspelen. Die regels heeft een benchmark nodig om een betrouwbare weergave te geven van wat de Hardware kan onder bepaalde omstandigheden. Ati heeft ook een regel overtreden, vandaar de wijziging in hun drivers. Ze moeten wel, want ze doen nu eenmaal mee aan het Futuremark-programma. Nvidia doet dat niet meer, en zou eigenlijk helemaal niet meer geaccepteetd moeten worden. Al helemaal niet als ze dit soort fratsen gaan uithalen.
Volgens mij weet jij het verschil niet tussen cheaten en optimaliseren.

De KERN verschil is:
Optimaliseren iets wordt sneller gedaan dan de niet optimale manier.
Cheaten een party word benadeeld cq andere bevoordeeld ten onrechte.

simpel.

Optimaliseren is: HyperZ 'n eerlijke Optimalisatie.

Cheaten is:
nVidia driver 'n bench script detecteren kan en zwaar script specifiek geoptimaliseerd is, geeft dat een Fout beeld over betreffende performance tijdens normaal game gebruik dat is cheaten.
Want ATI wordt hiermee benadeeld en de Benchtool doelstelling is cq ondermijnd

De consument is misleid door Cheaten.

Optimaliseren is juist goed voor de konsument er wordt meer uit de hardware gehaald
In jou opvatting wordt de consument misleid, ik ben het daar in mindere mate mee eens aangezien niet iedere consument 3dmark2003 kent. Eerder worden techneuten misleid, en dat zijn nou juist de mensen die erdoorheen moeten kunnen prikken ;)
Cheaten een party word benadeeld cq andere bevoordeeld ten onrechte...Cheaten is: nVidia driver 'n bench script detecteren kan en zwaar script specifiek geoptimaliseerd is
Het is echter wel de meeste geoptimaliseerde vorm mogenlijk. Een knap staaltje analyse en programmeren. (En misschien zien we er in de toekomst meer van terug in de vorm van hardware prefetch/branchprediction voor de shaders. :+)
Optimaliseren is: HyperZ 'n eerlijke Optimalisatie
HyperZ valt eigenlijk in een schemer gebied aangezien HyperZ eigenlijk bestaat uit een aantal technieken om Z-buffer dataoverdracht te verminderen. Een aantal van deze vallen bij mij nog steeds onder 'goed cheaten' omdat ze eigenlijk dingen doen die niet mogen (zoals het eigenlijk niet leeg schrijven van de Z-buffer, maar een refresh skippen) maar die verder geen consequenties hebben, behalve sneller werken.

Volgens jou redenatie is in de huidige context ook ati met hun HyperZ aan het cheaten ;) aangezien de meeste geoptimaliseerde methode gebruiken om het Z-buffer leeg te gooien, terwil het technisch gezien eigenlijk niet mag/netjes is.
Je hoeft niet zo'n erg knappe jongen te zijn om te zien dat JC niets relevants zegt. Iedereen die de discussie een beetje gevolgd heeft, en een klein beetje begrijpt waar het over gaat concludeert dat.

Maar ja, wat kan ie anders? Door eerlijk en duidelijk te zeggen wat ze er van winnen kunnen de spel makers niets winnen en wel een boel verliezen.

Zij hebben geen belang bij eerlijke benchmarks. Zij hebben alleen belang bij het verkopen van hun spel. Of dat nou op een ATI of Nvidia kaart loopt is in principe niet interessant voor ze.

Maar als je tussen de regels door leest zie je dat ze allemaal wel zeggen dat optimalisaties zoals ATI die doet normaal en geaccepteerd zijn, en wat Nvidia doet duidelijk een cheat is.
Helemaal mee eens. En je weet gelijk ook waarom Nvidia dit doet, hoe fout het ook is.

Nvidia weet nml. donders goed dat met hun huidige GPU-architectuur ze in het niet kunnen winnen of iig in het nadeel zijn met de huidige Futuremark Benchmark. Da's ook precies de reden waarom ze uit het programma van Futuremark gestapt zijn. Zij wilden geen 100% 24bit precisie bencmark zoals DX9 minimaal voorschrijft. Waar overigens wel wat hiaten in zitten. Blijkbaar heeft DX iets teveel ruimte overgelaten waardoor we nu met de gebakken peren zitten.
Is het een hiaat dan? DX9 zelf is geen benchmark tool. Uit het oogpunt van DX is het heel logisch dat je een minimum voorschrijft, maar het is niet vanzelfsprekend dat je ook een maximum voorschrijft. Daarin hebben ze de fabrikanten de vrije keus gegeven.

3DMark03 is ook geen 100% 24bit precisie DX9 benchmark. Je mag in 3DMark ook best hogere precisie gebruiken aangezien dat volgens DX9 toegestaan is.
Maar aangezien GT4 een DX9 benchmark is moet je natuurlijk wel aan de minimale eisen voldoen.

En wellicht had Nvidia wel geen keus? Misschien dat met hun GPU architectuur 24bits helemaal geen snelheidswinst opleverde tov 32bits en ondersteunen ze daarom geen 24bit floats.

(Net zoals oude Radeons maar heel weinig snelheidswinst kregen als je in spellen van 32bits naar 16bits ging, terwijl andere kaarten dan 2x zo snel werden. Het ding was gewoon ontworpen voor 32bits)
Ja, dat klopt. Ati vertaalt die 32bit code naar 24bit, schijnt niet zo'n probleem te zijn. Probleem is wel dat Nvidia niet met 24bit overweg kan en geforceerd word in full 32bit mode te opereren, waar ze een flinke performance dip oplopen.

Keus hebben ze altijd. Net zoals het uitbrengen van de 5800fx. Keuse word bijv. ook gemaakt aan de hand van verwachtingen. En nu hebben ze een GPU ontworpen die anders is dan de concurrent, misschien gewoon verkeerd ingeschat en/of op het verkeerde paard gewed. Misschien is hun architectuur wel net iets te vooruitstrevend ?
Iig is die ingewikkelder, lees JC er maar op na.

[mijtdevries]

JC zegt hier ook iets over:
[quote] DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit.... [/qoute]

convert? converteren. Een soort vertaalslag dus.
Niks vertaling.
Het aantal bits ligt in DX9 gewoon niet vast, zolang het maar boven de 24 bits is.

die opmerking van JC over "assume 32 bit float operation" wordt op het forum waar ie dat gepost heeft dan ook flink tegengesproken.
(ondanks dat JC == god zijn er toch nog wel mensen die 'm tegenspreken)
Als je meedoet aan een benchmark, behoor je je aan de regeld van het spel te houden. Doe je dat niet dan heeft de hele benchmark geen enkele zin meer.
Ik dacht dat nvidia officieel helemaal niet heeft meegewerkt met directX 9 en dus ook indirect ook niet aan 3dmark.. dus waarom zouden ze zich dan aan de regels moeten houden als ze iets vinden (als je even die drivers niet meeteld waar dingen gewoon werden weggelaten) waarmee een bepaald prog 20% sneller draait zonder verlies van kwaliteit?

Persoonlijk vind ik het niet echt belangrijk hoeveel 3dmark03 puntjes mijn videokaart haalt als ik maar de nieuwste (zware) games kan spelen dan vind ik het al best.
Als je de drivers niet meeteld waar dingen gewoon werden weggelaten, dan heeft NVidia geen prog meer dat 20% sneller draait.

Lees de vele discussies eens, evenals het audit rapport van Futuremark.

Nvidia heeft bij de 5800 drivers gemaakt die allerlei details weglieten, zoals kogels etc.

En nu hebben ze wedereom drivers gemaakt die allerie dingen weglaten. Bv opdrachten die 3DMark aan de driver geeft. Zoals het wissen van een buffer.

Er zit geen verschil tussen de huidige cheats en die oudere drivers die zaken weglieten.
In beide gevallen is performance gewonnen door zaken weg te laten en beeldkwaliteit te verminderen.

Als je vindt dat dit moet kunnen dan moet je ook die oude drivers die zaken weglaten acceptabel vinden en vice versa.
[quote] Ik dacht dat nvidia officieel helemaal niet heeft meegewerkt met directX 9 en dus ook indirect ook niet aan 3dmark.. dus waarom zouden ze zich dan aan de regels moeten houden als ze iets vinden (als je even die drivers niet meeteld waar dingen gewoon werden weggelaten) waarmee een bepaald prog 20% sneller draait zonder verlies van kwaliteit?
[/qoute]

1) Nvidia werkt wel degelijk mee aan DX9, da's dat clubje van Micrsoft en ALLE grafische chip-bakkers.

2) Dat bepaalde progje is niet zomaar een progje, maar om de grafische prestatie te meten van grafische kaarten icm. verschillende DX-versies.

3) Ze stappen uit het 3Dmark programma, besparen $5000,- maar geven wel 200.000 $ uit :? (zeggen ze zelluf) Waar blijven die overige $ 195.000 ??
Deels in marketing maar vooral in het ontwikkelen van gecheate drivers, zoals nu blijkt.

4) en ze verliezen wel kwaliteit. Kwaliteit van de intregiteit van de benchmark. Als de test ervan uitgaat(vereist) dat je dynamisch de frames berekent (wat rekenkracht, dus snelheid kost) maar in plaats daarvan je stiekem de frames uit het -driverbuffer (de gecheate van Nvidia) in het geheugen laad zodat je vette winst boekt heb je de integriteit van de benchmark om zeep geholpen. Da's nou precies waarom er niet "off the rail" ff rondgekeken kon worden, er word tenslotte niet dynamisch gerenderd en tja die plaatjes waren niet voorhanden in het buffer. Voila, spel uit. Cheat ontdekt.

Het kan dan niks van doen hebben met je spel-plezier, ze hebben wel een misselijke streek uitgehaalt. Waren we er niet achter gekomen dan hadden ze doodleuk met die grafiekjes gaan lopen pronken :r
Wat me opvalt is dat JC lijkt te vergeten dat FP24 een minimum eis is van DX9. Met andere woorden in een DX9 benchmark met een precisie die lager is als FP24, is dus niet toelaatbaar.

Wat ik echter niet snap, is door deze optimalisaties helemaal niet de grootste snelheidswinst wordt behaald. Nvidia haalde 24% omdat ze ook nog zelf clipping planes toevoegde, en niet ten allertijde de framebuffer leegde wanneer dit niet nodig was. ATI wa de enige die ALLEEN shaders herschreef en die haalde maar 1,9% snelheidswinst.

Met andere woorden de opmerking van JC zegt erg weinig over het hele 3dmark03 debakel.
JCs opmerkingen lijken eerder te gaan over de discussies wat betreft de precisie van de FX code bij eerdere FX drivers.

Je zou haast denken dat ie het audit rapport van Futuremark niet gelezen heeft, want waar hij het over heeft is niet waar Nvidia mee gecheat heeft.
Het is maar goed dat er steeds meer mensen vragen stellen maar ook actief aan het knutselen gaan met nieuwe hardware. Het komt maar al te vaak voor dat de fabrikanten een verkeerd beeld van hun producten neerzetten maar dankzij de vele (technische) reviews kunnen we precies weten wat er allemaal speelt.
voorbeeldje:
Als ik tegen jou zeg: loop 4 rondjes om het veld en jij snijd de boel een beetje af en loopt 4x een half veldje en zet een supertijd neer. En ik lag ff te suffen in het zonnetje en heb niks gemerkt. Ben je dan een winnaar of een valsspeler ?
Dit is gewoon een perfect voorbeeldje :D hoe verzin je het ! Het optimaliseren kun je dan misschien vergelijken met het aantrekken van betere schoenen waardoor je harder gaat lopen.

@SG
Optimaliseren is juist goed voor de konsument er wordt meer uit de hardware gehaald
Dat is waar , maar in princiepe is een cheat die dingen buiten het scerm niet meerendered en dus ook zonder kwaliteit verlies hogere FPS haalt , Ook goed voor de consument ;)
(niet dat ik voor cheaten ben ... )
Ik ben tegen cheaten omdat als je 2 verschillende videokaarten hebt ne je wilt testen welke het snelste is moet je ze exact hetzelfde werk laten doen . Anders kun je ook net zo goed een radeon in ut2k3 testen en een FX in quake 3 ( beetje erg overdreven maar komt in essentie op hetzelfde neer ). Daarom is cheaten niet goed en optimaliseren wel , Daar cheaten de hoeveelheid wwerk vermindert..
Als je even terug gaat en het eerste artikel ivm dit cheaten gaat lezen was het wel duidelijk dat het cheaten geen invlod had op het beeld. Het was enkel wanneer je het beeld naar kamera1 laat verschijnen en een opname maakt met camera2 vanuit een héél andere hoek dat duidelijk werd dater 1 en ander mis was.
Als men in het theater een decor maakt en je gaat langs achter kijken zie je ook dat het geen echt huis is. Maar wie trekt er zich wat van aan als het in de zaal mooi beeld is en achter de scène niet? Juist ja. Niemand.
Behalve diegene die de benchmark ontwikkelt hebben. Die wilden dat ook wat je niet zag gerendert word, juist voor een juiste meting.
Behalve de mensen die, in tegenstelling tot jou-snappen wat hier aan de hand is . Boerenbedrog !

voorbeeldje:
Als ik tegen jou zeg: loop 4 rondjes om het veld en jij snijd de boel een beetje af en loopt 4x een half veldje en zet een supertijd neer. En ik lag ff te suffen in het zonnetje en heb niks gemerkt. Ben je dan een winnaar of een valsspeler ?
Ik snap héél goed wat hier aan de hand is. Dit is gewoon een gebakkelei tussen de 2 marktleiders. De mensen van 3D mark hebben niet van hun neus gemaakt. Ze hebben enkel naar buiten gebracht dat de GeForce FX die rendering niet uitvoerd. De kracht van een onderdeel uit je pc is niet enkel afhankelijk van de hardware. Goede hardware staat of valt met de drivers en software optimalistaties.
En aangezien de FX in theorie minder krachtig is dan de r 9700pro of de r9800pro hebben ze bij nvidia voor driver optimalisatie gekozen. ATI heeft altijd al zeer goede kaarten met relatief slechte drivers(bij de release) geleverd. met de 9*00 serie zijn er eindelijk goede drivers meegeleverd. Maar nu zie je dat nVidia alweer een stap verder gaat met hun drivers.
Als men op korte termijn naar games wil gaan die even realistisch zijn als animatiefilms gaat men naar softwarematige optimalisaties moeten gaan uitkijken. Want hardwarematig zou dit momenteel er kostelijk zijn.
Met deze opmerking laat je dus duidelijk zien dat je niet weet wat er aan de hand is.

Deze optimalisaties passen dus gewoon de benchmark aan!! Niks driver optimalisaties. Driver optimalisaties zouden ook moeten werken in games onder ALLE omstandigheden en dat doen ze dus niet.

Daarnaast zie je WEL verschil in beeldkwaliteit. Kijk maar eens op beyond3d, daar is een vergelijking van de beeldkwaliteit gemaakt. Er is wel degelijk verschil.
En aangezien de FX in theorie minder krachtig is dan de r 9700pro of de r9800pro
Ehm, je bedoelt toch niet de FX5900ultra toch :?
Anders hoef ik hier verder niks aan toe te voegen :+
Maar nu zie je dat nVidia alweer een stap verder gaat met hun drivers.
hoe bedoel je , zo van hink, stap ...sprong....klaar ! :?
Dat is pertinent onjuist. Het cheaten had wel degelijk invloed op het beeld en niet alleen maar als je een ander camera pad kiest.
Zo is het water en de lucht ook van een minder kwaliteit als je het normale camera pad gebruikt. Dat komt omdat Nvidia de shaders daarvoor vervangen heeft door simpeler en snellere. Het lijkt op het eerste gezicht het zelfde water, maar als je beter gaat kijken is het veel minder mooi.
Verder is de lichtval op de schildpad ook compleet anders.

Deze twee cheats zorgen voor een verdubbeling van de framerate in het begin van de GT4 benchmark.

Het is niet alleen die clipping planes die de winst opleverden.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*