Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: Elite Bastards, submitter: FFWD

Na vele maanden discussie over waar de grens tussen optimalisaties en cheats ligt komt ATi in zijn nieuwste drivers (de aanstaande versie 4.10) met Catalyst A.I., een instelling waarmee applicatie-specifieke en/of min of meer omstreden optimalisaties aan- of uitgezet kunnen worden. Hiermee kan bijvoorbeeld het originele algortime voor trilinear filteren weer gekozen worden, of toestemming gegeven worden om shaders en textures in spellen als Doom 3, Unreal Tournament 2004 en Half-Life 2 te vervangen. Elite Bastards heeft een preview van de nieuwe drivers online gezet, waarin gekeken wordt naar de beeldkwaliteit en prestaties van de optimalisaties in verschillende spellen. Het blijkt dat de visuele verschillen in de meeste gevallen nauwelijks zichtbaar zijn, maar de prestaties tot soms wel 10 tot 15% vooruit gaan. Opvallend genoeg zijn er echter ook benchmarks die aantonen dat de optimalisaties het spel juist trager maken, maar dat is iets wat vooral voorkomt op de oudere R3xx-chips.

De conclusie is dat ATi waarschijnlijk een goede zet gedaan heeft door de eindgebruiker de mogelijkheid te geven om al dan niet te kiezen voor optimalisaties. Zowel fps-freaks als pixel-puristen kunnen zo aan hun trekken komen. Bovendien geeft het meer vertrouwen in het bedrijf, omdat niemand meer hoeft te raden naar welke trucs er op een bepaald moment uitgehaald worden. Het dilemma zal vooral komen te liggen bij de reviewers die moeten gaan kiezen welke instelling ze gebruiken tijdens hun tests, nu het niet langer de keus van de fabrikant maar van de eindgebruiker is om omstreden methodes te gebruiken om betere prestaties neer te zetten.

Catalyst A.I.
Moderatie-faq Wijzig weergave

Reacties (47)

Ik vind dit een prachtige ontwikkeling, want ik kies liever voor iets mindere graphics als het spel speelbaar is, dan mooi en te weinig performance om goed te kunnen spelen.
Iets minder mooie graphics heb je altijd al kunnen doen. Door bijvoorbeeld AA en AF uit te zetten. Hierdoor kreeg je precies wat jij wilde, meer performance minder mooie graphics.

Het verschil echter in deze driver is het zelf kiezen van optimalisaties. Die optimalisaties houden in dat wanneer je bijvoorbeeld UT2004 draait of een ander spel, de kaart weet dat je dit draait en dus kleine aanpassingen doet in zijn manier van renderen. Deze aanpassingen hebben niet écht zichtbare invloed op de grafische ouptut, maar zoals de post uitlegt, soms wel tot 15% verbetering.
Dat klopt, maar AA en AF maken het nog mooier, dan het spel komt.

Als je zo redeneerd, dan is het varanderen van resolutie hetzelfde. Ik vind AA, AF en resolutie wisselingen behoorlijke veranderingen in graphics.

Deze optimalisatie is heeft maar een kleine impact op graphics en geeft er veel veel performance voor terug.
Zeker de discussie toen niet gevolgd?

Natuurlijk is het doel om alleen te renderen wat je kunt zien. Maar dat moet dan wel gebeuren op generieke manier. Er mag geen voorkennis in de driver zitten, die de driver in een spel onmogelijk kan hebben.
Bij 3D mark, maar ook in time demo's van daadwerkelijke spellen, loopt de speler in een vast pad. Logisch, want anders kun je het niet vergelijken met andere keren. NVidia had dat pad opgeslagen, en als voorkennis in de driver gestopt, waardoor ze vooraf konden bepalen wat ze niet hoefden te renderen.
Dat is dus een benchmark eigenschap, die NOOIT bruikbaar is in games wanneer de consument ze speelt. Immers, de speler (jizelf) loopt niet volgens een vast pad, maar kan alle kanten uitlopen.
Die bewuste NVidia "optimalisatie" was dus gewoon bedrog.

Er zijn zat optimalisaties die wel eerlijk werken, en zorgen dat er geen onnodige zaken gerenderd worden. Denk bijvoorbeeld aan de Z-buffer systemen, waarbij er gezorgd wordt dat oppervlakken die volkomen verborgen worden door andere objecten, dan ook totaal niet gerenderd worden.
Dat begon als optimalisatie in de eerste Radeon's (De villagemark benchmark !), maar tegenwoordig zit het standaard in alle videokaarten/drivers.
Het geeft echter wel een negatieve impact op de graphics, en geeft er idd veel voor terug. In dat opzicht cheatte Nvidia dus ook niet, hun drivers gaven ook een negatieve impact op de beeldkwaliteit, wat voor een hogere performance zorgde. Exact hetzelfde... echter, voor jou cheatte Nvidia, en Ati optimaliseerd. Das dan niet eerlijk, van de andere kant, waar trek je de lijn tussen optimaliseren en cheatten, een veelbesproken discussie :)
nVidia heeft toendertijd vooral gecheat, doordat in 3D Mark het camerapad al vast lag, en dus niet het complete enviroment gerenderd werd, maar alleen het deel waar de camera zicht op had.

Terwijl GPU's van de concurentie toen gewoon het complete enviroment moesten renderen. Hier kwam een aanzienlijk grote winst uit, maar in realword gaming bleef er van die hoge benchmark scores een stuk minder over.

En bij optimalisaties die in reallife gaming ook die performancewinst leveren ligt de zaak dus anders. Je hebt dus de keuze voor een hogere framerate met inlevering van blijkbaar erg weinig beeldkwaliteit, of maximale beeldkwaliteit met een wat mindere performance.
Het is ook maar de vraag of je wel alles moet renderen als je het toch niet ziet.

Maar ze zouden het ook in games moeten toepassen.
Hangt er van af.
UT2k3/4 of andere online knallers -> snelheid gewenst boven kwaliteit maar bij singleplayer shooters/games a la HL2 of Doom3 liever kwaliteit dan snelheid (al is het maar de vraag of je naar diashows moet kijken maar als het zakt naar 25/30 fps naja - boeien)
Het dilemma zal vooral komen te liggen bij de reviewers die moeten gaan kiezen welke instelling ze gebruiken tijdens hun tests
Ik mag toch hopen dat elke zichzelf respecterende reviewer de AI uitzet en test met 100% "originele" drivers.
komt ATi in zijn nieuwste drivers (de aanstaande versie 4.10) met Catalyst A.I.
Wanneer begint ATI aan v5.x? Ik heb begrepen dat ze om de x aantal weken een nieuwe driverversie willen uitbrengen, maar wat is hun policy betreffende grote versies?

\[edit: typfout]
Ik mag toch hopen dat elke zichzelf respecterende reviewer de AI uitzet en test met 100% "originele" drivers.
En hier kunnen we dus lang over discussieren... Als een bepaalde 'truc' de performance merkbaar positief beinvloed en de beeldkwaliteit gaat er niet zichtbaar op achteruit, is het dat cheaten - of gewoon heel slim programmeren?

Heeft id in Doom3 ook niet dan 'gecheat' met hun monster-models? (Lo-poly models van hun originele modellen met speciale bumpmapping eroverheen?).

Feit is zolang je het niet merkt in beeldkwaliteit maar wel in performance het van mij gewoon mag. Moet zelfs!

Waar willen wij (de consumenten) nou de benchmarks van zien? Wat de ruwe proc-kracht is van de kaart, of wat het uiteindelijke resultaat is wat jij en ik op het scherm ziet?

Deze ontwikkelingen tonen aan dat het maken van een goede videokaart al lang niet meer alleen daar licht. Ook de drivers spelen een significante rol. En degene die beide het beste doet is voor mij de winnaar en mag mijn toekomstige centjes tot hun omzet rekenen.

Bottom-line is dat het mij alleen boeit wat voor qualiteit (zowel performance als beeld) ik hier voor me zie als ik 3d ga.

Een keuze voor de consument om voor deze optimalisaties te kiezen is een zeer positieve ontwikkeling (alleen zou ik het wat uitgebreider willen zien dan alleen een slidertje). En ik zeg dat reviewers optimalisaties maximaal moeten benutten TENZIJ het de beeldkwaliteit aanpast. Dat is imho het beste voor de consument...

[ edit: spelling e.d.... wat wil ik het weer allemaal snel doen :( ]
Of de beeldkwaliteit er (merkbaar) op achteruit gaat is subjectief. De ene zal zeggen dat hij het wel ziet, de ander zal zeggen dat hij het niet ziet.

Een benchmark dient ten alle tijden objectief te zijn. Ik neem aan dat jij er ook weinig zin aan hebt dat de ene site zegt dat een kaart super presteert en een andere site zegt baggerkaart. Daar heb je weinig aan.

De benchmark dient gewoon objectief te zijn. Of de consument vervolgens wel of niet kiest om het te gebruiken is een andere zaak en zijn/haar eigen keus.

Ikzelf zou het overigens ook gebruiken, vooral bij nieuwe spellen (zoals doom 3) waar je elke frame/seconde kunt gebruiken. De consument kan dan zelf kiezen welke grafische effecten hij wel of niet wil.

\[edit: cursusje nederlands bij de LOI is al besteld]
Of de beeldkwaliteit er (merkbaar) op achteruit gaat is subjectief. De ene zal zeggen dat hij het wel ziet, de ander zal zeggen dat hij het niet ziet.
Er is 1 probleem met je veronderstelling. In ATI hun geval, zijn de optimizes van een zodanige aard, dat zelf een subjectief & objectief vergelijking van screenshots, geen verschil vertonen. Men kan pas verschillen zien als men de 2 foto's gaat vergelijken via speciaal programma's dat zwart op wit aangeeft, of er iets anders veranderd is.

Ik geef toe, een objectieve vergelijking zonder optimizes is altijd leuk, probleem is, dan moeten beide partijen dit doen, en tot op heden weet ik niet van andere gpu makers die zo een zware disabeling toelaten zoals deze nu toegepast worden door de Catalyst AI ...

Edit:

Kleine extra:

Zeg nu zelf, als je een vergelijking ziet, waarbij zowat alle tweaks, bugfixes etc van ati zijn disabled, maar dezelfde opsie op vb: een nvidia kaart, maar de helft disabled van hun tweaks, bugfixes etc ... automatise krijgt dan de ene partij een grondig voordeel in een zogenoemde objectieve vergelijking ...
gaat per jaar, dus in 2005 krijgen we 5.xx
waarom zou dit niet mogen. Als je voor elk spel een profiel kan hebben waarop het optimaal draait, waarom zou dat niet mogen. Alleen zodra als je gaan benchmarken op onafhankelijke benchmarks(ja je leest het goed). Dan moeten die cheats eruit zijn.

Je benchmarkt toch hoe snel een spel met een bepaalde kaart is, als dat met cheats op dat spel verhoogd kan worden mag dat. Als het maar niet een cheat is die geschreven is voor die benchmark tool, maar voor het spel zelf.
Alleen zodra als je gaan benchmarken op onafhankelijke benchmarks(ja je leest het goed). Dan moeten die cheats eruit zijn.
Waarom :?

Ze benchmarken toch open en eerlijk kaart X met spel Y? Het zou toch juist volksverlakkerij zijn als ze dan 40fps aangeven terwijl jij thuis met de nieuwste drivers 60fps haalt?

Het probleem is niet aan de reviewers die optimalisaties moeten uitzetten, maar aan users die een benchmark op waarde moeten leren schatten. "Resultaten behaald bij Doom3 bieden geen garantie voor spellen in de toekomst" ;)
Ze benchmarken toch open en eerlijk kaart X met spel Y? Het zou toch juist volksverlakkerij zijn als ze dan 40fps aangeven terwijl jij thuis met de nieuwste drivers 60fps haalt?
Het is pas écht voksverlakkerij als ze die 60fps aangeven aangezien die niet op een eerlijke manier behaalt zijn. Stel een Nvidia en een Ati zijn aan mekaar gewaagd met bv allebij gemiddeld 40fps, dankzij deze 'feature' (om het ff geen cheat of optimalisatie te noemen) haalt de Ati ineens 60fps. Iedereen koopt vrolijk een Ati terwijl in real life deze dus of slechter beeldkwaliteit heeft, of lang niet deze fps haalt, dat vindt ik echt volksverlakkerij.
Het idee is juist dat je de performance omhoog gooit zonder een merkbaar (of amper merkbaar) verschil in kwaliteit.

Als merk X dit wel heeft en merk Y niet, dan is merk X beter.
Ik vind het op zich wel mooi, dat je nu de keuze hebt tussen kwaliteit zoals de makers van het spel bedoelt hebben en meer performance met het risico op zichtbaar kwaliteitsverlies.
Idd... Het verschil met eerdere "cheats" (of het nu nVidia, Ati of who-gives-a-horse-ass was) is dat je nu de keuze hebt om deze optimalisaties aan of uit te zetten.
In mijn ogen is een cheat iets dat gebruikt wordt om een resultaat te halen buiten het besef van mensen om.
Zeker wanneer je er geen kwaliteitsverlies door heb vind ik het een mooie uitvinding.
ik zie liever dat Ati de refresh lock inbouwt in de catalist drivers ipv onzin
dat kan je heel makelijk zelf doen.
DDC checking uit zetten, refresh rate max op iets zinnigs zetten voor 1600x1200 (of lager als je nooit hoger gebruikt en dan apply. (dit zit onder het displays tab, daar klik je je monitor aan)
misschien moet je hierna een programa als reforce fff gebruiken maar meestal is dat zelfs overbodig.
In het Control Panel kan je de RefreshRate Override aanzetten (klik op de monitor-afbeelding).

Werkt zelfs perfect hier. Helemaal geen 3rd-party RefreshRate utils voor nodig.
Vind het op zich een goede ontwikkeling, maar misschien ook een manier om andere optimalisaties buiten schot te houden? Ik bedoel hoe weten we nu dat we alle opties aan of uit kunnen zetten?

Of ben ik nu te cynisch
Je weet nooit of je daadwerkelijk alle opties aan of uit kunt zetten.

Maarre..... wist je dat voor dit tijd wel dan?
Zijn toch zat voorbeelden in het verleden geweest waarbij er stiekem dubieuze optimalisaties werden uitgevoerd...

Geen reden om aan te nemen dat dat niet meer gebeurd wanneer er een "optimalisaties uit" knop op de control panel komt. Kijk naar NVidia...Carmack heeft expliciet aangegeven dat de NVidia drivers truuks uithalen (shader replacements?!) bij Doom3. Maar er zit echt geen optie in de drivers om dat uit te zetten.

Edit @RuL0R:
Die optie om het uit te zetten hoeft er van mij niet in zitten. Maar het is wel een illustratie dat er meer optimalisaties in drivers zitten, dan naar de gebruiker toe wordt aangegeven, en dan de gebruiker kan uitzetten.

(NB: Zolang de beeldkwaliteit inderdaad echt niet wordt aangetast is het wat mij betreft ook niet nodig zo'n optie aan de gebruikers te geven. Je zult het immers dan toch niet uit willen zetten. Maar ik het gemerkt dat er velen zijn die daar anders over denken. Zie o.a. de ATI filtering discussie van de afgelopen maanden)
Maar er zit echt geen optie in de drivers om dat uit te zetten.
moet dat dan? als het met een bepaalde optimalisatie sneller wordt en het beeld er niet merkbaar slechter van wordt..
het zou aangenaam zijn om van een tegenpartij (nvidia bijv.) een stukkie software zouden krijgen die zou detecteren welke cheats aanstaan. zeker met het vrij ingeven dat ze zowieso kunnen draaien is toch even minder naar mijn idee. ik hoop dat dan ook critisch wordt gekeken wanneer men tests gaat draaien
NVidia kijkt wel uit!

Dan zou ATI namelijk exact hetzelfde bij NVidia gaan doen! En ik weet wel wie er dan het slechtste af komt!
Ik snap nog steeds niet wat mensen als "cheaten" zien, sinds wanneer kan je "cheaten" als er geen spelregels zijn opgesteld? Het gaat er gewoon om dat er een respectabele beeldkwaliteit en bijbehorende aantal frames per seconde wordt gehaald. Het is mij aan absoluut raadsel waarom mensen nu ineens slimme manieren om beiden te verbeteren zien als "cheaten". (Zowiezo is het mij een raadsel waarom mensen een partij kiezen en die verdedigen alsof het hun eigen familie is, maar goed, daar ga ik nu niet op in) :P
Ook zonder regels kun je cheaten.

Dat gebeurde in 3Dmark03 bijvoorbeeld toen NVidia het pad waarlangs de player liep, en het bijbehorende blikveld, vooraf in de driver had gestopt, waardoor de kaart minder hoefde te renderen. Die situatie kan per definitie nooit in een spel voorkomen. De consument werd dus gewoon voorgelogen. Dat was puur en simpel bedrog.

In dit geval, is de term cheat inderdaad ongepast. Hier moet je spreken over optimalisaties, en het wel of niet lossy zijn van de optimalisaties. De consument kan het zelf aan zetten, dus er is zowiezo geen sprake van bedrog.
Inderdaad, dat was een cheat, net als dat ati destijds een keer haar drivers quake3 altijd op een lagere kwailiteit liet draaien dan de gebruiker zelf instelde.
Dus je ziet, beide hebben gecheat..

Ik krijg door alle reacties echter wel telkens de indruk dat wanneer nvidia aanpassingen deed die de performance verbeterden maar die niet zichtbaar kwaliteitsverlies betekenden dat er dan heel hard "cheats" werd geroepen (terwijl dat imho optimalisaties zijn) en dat wanneer ati het doet het opeens wel optimalisaties zijn (volgens mij kun je met deze drivers ook alleen maar 1 slider gebruiken om meer of minder "optimalisaties" aan te zetten, zo heb je er dus nog steeds geen echte controle op, al geven ze geloof ik wel aan wat het per game zou moeten beinvloeden)
Niet gelijk alles tot een ATI-NVidia strijd maken. Ik gebruikt 3dMark als voorbeeld, omdat dat de ergste en overduidelijkste cheat is.

Qua effecten was de quake3 kwestie inderdaad een cheat. Het bleek achteraf trouwens dat het eigenlijk een bug in de optimalisatie was. De driver versie erna loste dat op, en leverde toen geen lagere beeldkwaliteit, maar wel diezelfde hogere prestatie. De 'cheat' was in dat geval niet opzettelijk...

Er zijn meer echte cheats op te noemen. In diezelfde tijd hebben ATI en NVidia beiden heel erg veel zitten rommelen met UT, en tri door biliear vervangen.

Maar dat was allemaal kinderwerk t.o.v. van de grote NVidia cheats, zoals met 3dMark. Dat heeft kwaad bloed gezet, omdat er bewust getracht werd de concument te bedriegen. Dergelijke stunts heeft ATI simpelweg nooit uitgehaald.

Vervelend genoeg wordt daarna iedere enigzins dubieuze optimalisatie gelijk als cheat aangeduid. Zoals ik al eerder aangaf, dat is met de recente kwestie absoluut niet het geval. Dat zijn hooguit lossy optimalisaties.
Geen slechte zet alleen weet ik niet hoe men nog 100% kan vertrouwen op benchmarks.

Drivers met zogenaamde "optimaliaties" zijn steeds ongeldig verklaard geweest bij bvb 3D Mark van futuremark.

Tenzij futuremark een systeem zal inbouwen die deze optimaliaties kan herkennen of automatisch kan uitschakelen zullen de benchmarkresultaten wel beinvloed worden hiermee.

Ofwel zal futuremark deze drivers gewoon niet erkennen als geldig.

Voor games zelf is dit natuurlijk enkel maar goed nieuws.
Deze drivers zullen gewoon door futuremark erkend worden.

Wat niet mag is futuremarks 3Dmark als applicatie herkennen, en dan specifieke optimalisaties uitvoeren. Wat WEL mag is generieke optimalisaties uitvoeren die bij alle spellen werken.

NB: ALLE videokaart drivers doen aan applicatie detectie om bugs die specifiek zijn voor een applicatie op te lossen. Dat opzichzelf is geen reden voor afwijzing.

En de optie om lossy optimalisaties aan te zetten is opzichzelf geen reden tot weigering. Immers, dan zouden de NVidia drivers ook niet erkend kunnen worden!
Nee, dit dit is van de drivers zelf andere keuze voor renderen.
Dit heeft OMEGA nooit gehad.

Maar ik ben hier wel blij mee iig!

Heb hier al meer over gelezen, en soms gingen de resultaten idd wel 10 tot 15% erop vooruit, dat is een enorme verbetering natuurlijk :Y)

Maar nu voor alle spellen!
Het dilemma zal vooral komen te liggen bij de reviewers die moeten gaan kiezen welke instelling ze gebruiken tijdens hun tests
Ik verwacht gewoon een extra staaf in de benchmark-grafiekjes te zien, dus zónder en mét optimalisatie's. Dat zie je nu al met de preview van Driverheaven.net. Daarnaast misschien het commentaar v/d reviewer of hij bemerkt of de optimalisatie's de IQ wel of niet zichtbaar veranderd, eventueel met ondersteunende screenshots. Reken maar dat de review-sites er handenwrijvend klaar voor zitten! :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True