Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties
Bron: The Inquirer, submitter: Mastertje

nVidia heeft in de nieuwste versie van zijn driver een probleem met de beeldkwaliteit opgelost waarvan sommige mensen vermoedden dat het een bewuste 'optimalisatie' was. Het effect in kwestie werd enkele weken geleden uitgebreid beschreven door het Duitse 3dCenter. Zowel in 'Quality'- als in 'High Quality'-mode van de driver bleek een geoptimaliseerde versie van het algoritme voor anisotropic filtering gebruikt te worden, ondanks het feit dat deze zichtbaar mindere beeldkwaliteit oplevert. In tegenstelling tot het orginele algoritme vertoont de snellere versie van nVidia een effect dat 'texture shimmering' wordt genoemd, iets wat vrij makkelijk op te merken is tijdens het spelen van spellen. Eigenlijk zou het dus zeker met 'High Quality' instellingen niet gebruikt mogen worden, omdat nVidia daarvan belooft dat ze de maximaal mogelijke beeldkwaliteit opleveren. Het bedrijf noemt de setting zelfs 'overkill' voor spellen, en die uitspraak valt niet te combineren met een sub-optimale implementatie van anisotropic filtering.

ComputerBase is naar aanleiding van deze ontdekking gaan benchmarken en kwam in een artikel van zeven pagina's tot de conclusie dat de nieuwste versies van ForceWare ineens opvallend veel sneller zijn geworden met 'Highest Quality' settings. Deze vinding maakte gamers ongerust, omdat de gigantische discussies over hoe ver bedrijven mogen gaan bij het optimaliseren van de prestaties ten koste van de beeldkwaliteit net een beetje over waren gewaaid door de komst van driverinstellingen. Zolang de consument er zelf voor kan kiezen om het in te schakelen of niet zijn er weinig bezwaren meer tegen de meeste optimalisaties. nVidia zou dus niet bepaald goede reclame voor zichzelf maken door opnieuw twijfelachtige optimalisaties door te voeren die niet uit te zetten zijn.

nVidia GeForce 7800 GTX

Het bedrijf kwam echter al snel met een reactie om opheldering te bieden. Tegenover The Inquirer verklaarde men vandaag dat het probleem met de beeldkwaliteit in ForceWare 78.03 is opgelost. Deze versie is nog niet in de Meuktracker terug te vinden, maar zou inmiddels wel naar reviewers zijn gestuurd. Door de bugfix zouden de prestaties wel iets achteruit gaan, maar het zou niet zo zijn dat de framerates ineens weer naar het oude niveau terug vallen. Hoewel dit nog onafhankelijk bevestigd moet worden, ontkent nVidia dus dat er in dit geval sprake is geweest van een 'illegale' optimalisatie.

Moderatie-faq Wijzig weergave

Reacties (66)

het probleem met de beeldkwaliteit in ForceWare 78.03 is opgelost.
klinkt net alsof ze het perongelijk hebben gedaan.
maar een bug waar het toevallig sneller van gaat lopen vind ik wat onwaarschijnlijk.
zeker gezien eerdere 'bugs' van dit soort in nvidia drivers.
Een graphische bug waarvan het sneller gaat is helemaal niet zo onwaarschijnlijk.

En niet zo naar nVidia wijzen, anders moet ik weer links plaatsen naar de Quaff en Quack reviews....
je realizeert je dat die reviews over de 8500 gaan?
en ook dat ATI sinds de 9700pro maar 1 keer in opspraak is gekomen in verband met 'oneerlijke optimalizaties' die later geen vermindering in beeld qualiteid blijken te veroorzaken.
voor Nvidia daarin tegen is het geloof ik al de 3de keer dat ze op een 'grote' manier op deze manier in het nieuws komen sinds even zo lang.
het lijkt erop dat ATI minder hard leers is als Nvidia.
Jouw telling is een beetje vreemd, op zijn minst,

8500 Quake 3 cheat was BRUUT lelijk.

In tegenstelling tot de applicatie specifieke optimalisaties van nVidia, die in eerste instantie niet zo heel veel beeld kwaliteit verlies veroorzaakte...

tja, tijdens FX ging het flink fout voor nVidia op alle vlakken.

Maar dan nog is het op zijn minst frustrerend dat een x800 kaart, enkel door wijziggingen in de registry aan te brengen trilinear wil filteren......

En nee, daar is inderdaad nooit iemand over in opspraak gekomen, want, tja, het is ATi, die doen toch per definitie niets fout?(en anders vergeten we dat gewoon heel snel, toch? Het blijft immers altijd nVidia die de driver cheats uitgevonden heeft..... :r )
Maar dan nog is het op zijn minst frustrerend dat een x800 kaart, enkel door wijziggingen in de registry aan te brengen trilinear wil filteren......
dat klinkt mij als een gewone simpele bug in de oren.
mail ATI erover als je er zo mee zit.
het is iniedergeval geen reden om ATI te beschuldigen van 'cheaten'.

en dat hun vroegere 'cheat', in quake3 echt oer lelijk was zal me nu, jaren later, een worst wezen, ze hebben duidelijk van hun fout geleerd. nvidia daarintegen is blijkbaar een stuk hardleerser.
Het blijft immers altijd nVidia die de driver cheats uitgevonden heeft..... )
eigenlijk was het intel met hun graphics chips. :P
ARG, je spreekt jezelf ZO ongelovelijk hard tegen, ATi's X800 doet aan brilinear filternig, iets wat met wat IQ verlies een stuk sneller loopt.

ATi heeft helemaal nooit van hun fout geleerd, totop de dag van vandaag doen de sterkste R3XX'en niet aan trilinear filtering!

Ik zal even wat dingentjes van je citeren, misschien hoor je het zelf dan


[quote]
het probleem met de beeldkwaliteit in ForceWare 78.03 is opgelost.
[/quote]
klinkt net alsof ze het perongelijk hebben gedaan.
maar een bug waar het toevallig sneller van gaat lopen vind ik wat onwaarschijnlijk.
zeker gezien eerdere 'bugs' van dit soort in nvidia drivers.



[quote]
Maar dan nog is het op zijn minst frustrerend dat een x800 kaart, enkel door wijziggingen in de registry aan te brengen trilinear wil filteren......
[/quote]
dat klinkt mij als een gewone simpele bug in de oren.
mail ATI erover als je er zo mee zit.
het is iniedergeval geen reden om ATI te beschuldigen van 'cheaten'.



in quake3 echt oer lelijk was zal me nu, jaren later, een worst wezen


Waarom ik dit alles citeer?

Eerst zeg je dat een vreemd probleem met de scherpe texture's een cheat zal zijn.
Vervolgens zeg je dat het niet doen van trilinear filteren en een sneller alternatief nemen, geen reden is om ATi ervan te beschuldiggen dat ze cheaten!

In je begin post zeg je dat nVidia een verleden wat betreft driver cheats heeft.
En vervolgens zeg je dat de cheat van ATi jaren laten, je "wost" zal "wezen"...
Je hebt door dat die 'cheats' in Q3 er nog steeds in zitten? Door een foutje waren de optimalisaties voor de originele Radeon in de drivers voor de 8500 geslopen, waardoor er welgeteld 5 textures verkeerd op het scherm terecht kwamen terwijl er honderden andere textures wel goed werkten. ATi kwam hier binnen een week met een nieuwe driver voor die het probleem fixte. De 'cheat' bleek een geldige optimalisatie te zijn die niets afdeed aan IQ. Na de fix was Q3 even snel en had dezelfde IQ als op alle andere kaarten.

En je bent je er van bewust dat als je Catalyst AI uit zet in de drivers dat alle Radeon kaarten vanaf de R300 precies doen wat er gevraagd wordt? Dus ook Trilineair op alle texture stages wanneer er AF gebruikt wordt.
When the Catalyst AI feature is disabled, the drivers do exactly what the application asks of it, no matter what. In Catalyst 4.9 and earlier drivers, when anisotropic filtering and trilinear filtering is enabled, ATI would perform trilinear filtering on the first texture mipmap level and then bilinear on all levels after that. In 4.10 it will perform trilinear on all levels if Catalyst AI is disabled.
Countess: je vergeet dat ATI nog altijd geen full trilinear doet? Je vergeet dat er vroeger ook geen mogelijkheid was om full trinlinear te doen? Dat ATI flagrant tegen reviewers loog, zijnde dat ati full trilinear deed en nvidia niet? Dat het reviewers aanspoorde full trilinear aan te zetten bij nv kaarten voor een "eerlijke" vergelijking?

Ach die selectieve geheugens toch:
http://techreport.com/etc/2004q2/filtering/index.x?pg=1
Door een foutje waren de optimalisaties voor de originele Radeon in de drivers voor de 8500 geslopen, waardoor er welgeteld 5 textures verkeerd op het scherm terecht kwamen terwijl er honderden andere textures wel goed werkten. ATi kwam hier binnen een week met een nieuwe driver voor die het probleem fixte. De 'cheat' bleek een geldige optimalisatie te zijn die niets afdeed aan IQ. Na de fix was Q3 even snel en had dezelfde IQ als op alle andere kaarten.
Ik had dit niet willen doen, werkelijk, ik vind het niet leuk om hiernaar te moeten verwijzen, maar keer op keer blijkt dat wanneer het om ATi's cheat geschiedenis gaat mensen zeer kort van geheugen zijn. Dus, hier gaat ie dan.

http://techreport.com/etc/2001q4/radeon-q3/index.x?pg=1
Dit is een van de duidelijkere, ik stel voor dat voor je hier commentaar op geeft je eerst het hele artikel doorleest.
Als we dan toch bezig zijn: nog wat cheats van ati op een rijtje (buiten die 2 dan reeds vernoemd)
Cheats in Unreal, Halo en Aquamark: Questionable optimizations in ATi’s drivers:
http://www.tomshardware.c.../nvidia-nv38-nv36-19.html
Cheats in 3Dmark 2001:
http://www.elitebastards....opic.php?t=1343&view=next

Cheats in 3Dmark03
ATI Technologies Admits Cheating the Drivers To Achieve Higher 3DMark03 Score:
http://www.xbitlabs.com/n...splay/20030526040035.html
http://www.infoworld.com/article/03/05/27/HNnvidia_1.html

ATI Trilinear Cheating Uncovered
www.overclockersclub.com/reviews/ati_trilinear_chat.php
heb je ook maar een van die links zelf gelezen?
heb je ook maar een beetje na onderzoek gedaan?

duidelijk niet.
de 3dmark03 'cheat' veroorzaakte GEEN ENKEL verschil in het gerenderde beeld de instructies werden alleen in een andere volgorden geplaats om sneller door de GPU verwerkt te kunnen worden.

de unreal en aquamark waren beide bugs VAN HET PROGRAMA ZELF.

en de trillinair filtering 'bug' heeft weer geen IQ verlies tot gevolg, er word alleen gekeken naar de texture en dan een andere simplere techniek op toegepast als de texture dat toe laat zonder IQ verlies
is dat niet het geval dan zal trilinair filtering gewoon worden toegepast.

en al die sites je jij noemt lullen en lullen maar, maar geen enkele screenshots of naast elkaar vergelijken van het verschil in IQ.
ARG, je spreekt jezelf ZO ongelovelijk hard tegen, ATi's X800 doet aan brilinear filternig, iets wat met wat IQ verlies een stuk sneller loopt.
nou nee niet echt

hier een quote uit een interview over de trillinear filtering.
Andy/Raja
We have never removed "full trilinear". We certainly do not believe that any benchmarks have been invalidated by our techniques. In all cases reviewed so far we believe that we have higher image quality than other implementations.

Sphinx
Is Ati cheating if Colored MipMaps are enabled and shows True FULL_TRI AF and Only Then. Like the Article in ComputerBase.de Descripe it as such one.

Andy/Raja
Absolutely not. If it were the case that we were only performing full trilinear with coloured mipmaps then you might have a point, but this is emphatically not what we do. We take advantage of properties of texture maps for performance and IQ gains. In cases where we are not able to determine that the texture content is appropriate for these techniques we use legacy trilinear filtering. This includes cases such as dynamically uploaded texture maps where we avoid performing analysis so as not to cause any possible gameplay hitches.
en laat mij nu maar eens een screenshot zien waarop te zien is dat wat ATI doet een slechter beeld opleverd als volledige trillinear filtereing
want jullie blijven maar door zeuren maar nog geen screenshot gezien.
ATi heeft helemaal nooit van hun fout geleerd, totop de dag van vandaag doen de sterkste R3XX'en niet aan trilinear filtering!
goh echt? ik heb zelf een r3xx en het verschil tussen met en zonder trilinear is toch erg goed te zien anders....
Eerst zeg je dat een vreemd probleem met de scherpe texture's een cheat zal zijn.
Vervolgens zeg je dat het niet doen van trilinear filteren en een sneller alternatief nemen, geen reden is om ATi ervan te beschuldiggen dat ze cheaten!
zoals hierboven al uitgelegt blijkbaar is de IQ gelijk of zelfs hoger.
In je begin post zeg je dat nVidia een verleden wat betreft driver cheats heeft.
En vervolgens zeg je dat de cheat van ATi jaren laten, je "wost" zal "wezen"...
ik had het over een cheat van ATI uit het verleden en over een HELE SERIE cheats van Nvidia vanuit het verleden TOT NU!
het verschil lijkt me duidelijk en de reden dat het me een worst is ok!
enkel door wijziggingen in de registry aan te brengen trilinear wil filteren.....
probeer het eens door AI volledig uit te zetten.
volgens ATI moet de kaart dan precies doen waar om gevraagt word.
zo niet. vol je een bug report in.

edit :
heb nog eens even zitten nadenken, en tot de conclusie gekomen dat de reden dat ik ATI een stuk meer vertrouw als Nvidia is omdat ATI altijd commentaar geeft zodra ze in opspraak komen, en meestal nog vrij snel ook.
en dan hebben ze meestal een goede verklaring liggen, en zijn er over het algemeen gewoon weinig tot geen screenshots waarop een verschil te zien is.
in tegenstelling to bij Nvidia waar je vaak word dood gezwegen (of er word zelfs glas hard tegen je gelogen) en de screenshots meestal voor zich spreken.
als iemand bewijs van het tegendeel heeft zie ik het graag.
ik had het over een cheat van ATI uit het verleden en over een HELE SERIE cheats van Nvidia vanuit het verleden TOT NU!
het verschil lijkt me duidelijk en de reden dat het me een worst is ok!
Zou je toch even niet willen vergeten dat ATi's strafblad op dit gebied ook erg erg groot is, en dat het niet maar een klein bugje ergens in een grijs verleden is, en zou je dat dan ook niet zo willen voordoen.
heb nog eens even zitten nadenken, en tot de conclusie gekomen dat de reden dat ik ATI een stuk meer vertrouw als Nvidia is omdat ATI altijd commentaar geeft zodra ze in opspraak komen, en meestal nog vrij snel ook.
en dan hebben ze meestal een goede verklaring liggen, en zijn er over het algemeen gewoon weinig tot geen screenshots waarop een verschil te zien is.
in tegenstelling to bij Nvidia waar je vaak word dood gezwegen (of er word zelfs glas hard tegen je gelogen) en de screenshots meestal voor zich spreken.
als iemand bewijs van het tegendeel heeft zie ik het graag.
ATi heeft een nog grotere lieg tegen pers reputatie dan nVidia, en het bewijs daarvoor vind je onder andere in onze links, en anders is er nog de lager geclockte 8500 grap (ja in die tijd dacht ATi wel heel makkelijk rijk te worden ja) die ze pas later 8500LE hadden genoemd, naar flinke druk van de pers en vele leugens later.
heb je ook iets wat niet 5 of meer jaar geleden is gebeurt?
ik kan namelijk nooit zo lang boos blijven en blijf geloven dat mensen en bedrijven hun leven kunnen beteren. (umm ok dat klonk wel erg als een OE uitspraak)
Ik had dit niet willen doen, werkelijk, ik vind het niet leuk om hiernaar te moeten verwijzen, maar keer op keer blijkt dat wanneer het om ATi's cheat geschiedenis gaat mensen zeer kort van geheugen zijn. Dus, hier gaat ie dan.

<a href=\"http://\"http://\"http://\"http://\"http://\"http://techreport.com/etc/2001q4/radeon-q3/index.x?pg=1\\\\\\" target=\"_blank\">http://techreport.com/etc/2001q4/radeon-q3/index.x?pg=1</a>
Dit is een van de duidelijkere, ik stel voor dat voor je hier commentaar op geeft je eerst het hele artikel doorleest.
Ik heb zo'n beetje alle Quack artikelen gelezen dus die ook. Jammer dat jij alleen de negatieve dingen wilt lezen en verklaringen/fixes niet neemt voor wat ze zijn.

nVidia heeft een reviewsite er op moeten wijzen dat de bug er was, voordat mensen het opvielen. Bij de volgende driverrelease was het probleem verholpen zonder aan performance in te boeten.

ATi maakte de fout om de drivers niet te optimaliseren voor de Radeon8500 aangezien ze de 8500 per se uit wilden hebben. Op papier was-ie stukken beter dan de GF3 alleen de drivers waren niet "on par". Je zag duidelijk dat in de 6 maanden er na de 8500 en de ATi drivers gigantische sprongen vooruit maakten.

Blijkbaar maakt het je niets uit dat ATi het probleem binnen een maand gefixed had en blijkbaar lees je ook niet altijd wat er geschreven wordt. Die zogenaamde cheat van je zit er NOG ALTIJD in ook op huidige hardware. Alleen je ziet er niets van terug - dus optimalisatie aldus nVidia - want IQ is hetzelfde en de snelheid is nog altijd hetzelfde.

I rest my case. Of wil je dat ik hier een hele zooi nVidia "cheats" ga opnoemen met links zoals bv:
- het feit dat de GF3/GF4 opeens hele andere scores in 3dMark hadden wanneer je de Splash Screens uit schakelde
- Fart Cry
- DST op de GF FX/6/7 wat er voor zorgt dat schaduwen er niet mooi uit zien, maar wel performance flink boost in benchmarks (zie bv Far Cry en 3dMark05)
- nVidia's variant op Quack met de skybox
- Brilinear filtering
- 3dMurk
- 8 illegale manieren waarop nVidia 3dMark03 scores probeert te beinvloe den, waaronder clippingplanes en versimpelen van vertexshaders ak a T h e Splash Screen debacle, 1
- ForceWare 60.72 & 3DMark & Max Payne 2
- shimmering op NV40 op Quality - wel de aangeraden benchmarkmode, maar niet op Hi Quality wat geen shimmering heeft, maar wel een perfor m a n c e drop
- shimmering op G70
- nVidia die Futuremark de grond in probeert te boren

Goh, elke serie van nV heeft wel weer wat, terwijl ATi 2x echt op z'n bek is gevallen (Quack/Brilineair), aangezien UT een door Epic erkende bug is en Aquamark dito. Overigens was de filtering van de X800 die ter sprake kwam al meer dan een jaar actief bezig in de Radeon9600 serie, maar geen kip die het opviel! Dus ook hier weer... optimalisatie of cheat?

Aangezien Tech Report een graag gequote site is, hieronder nog een quote:
These revelations, however, do not surprise us in any grand way. NVIDIA has always been, top to bottom, ambitious to a fault. Intentional deception of the press, the enthusiast community, add-in board partners, consumers and shareholders with these kinds of tricks is nothing less than what we'd expect from the company. I'm sorry, but if they do not like us writing such things about them, then they should stop behaving as they do.
In Quake3 was het gewoon een stomme bug die er niet in had moeten zitten. Het is het niet waard om je hier druk over te maken zoals jij dat - wel vaker - doet wanneer het op ATi dingen aan komt. En als ik het goed heb, dan was de algemene concensus na deze hele witchhunt op cheats/bugs dat er sprake is van een optimalisatie als de beeldkwaliteit niet wordt aangepast. nVidia was mede verantwoordelijk voor deze eindconclusie. Dus waarom kan je je er niet bij neerleggen? Feit blijft dat nVidia's cheat-CV een heel stuk groter is dan ATi's.

Nieuwe drivers kwamen uit, Quack zit er technisch gezien nog in, maar IQ is weer goed en de snelheid is gelijk gebleven als met Quack. Dus cheat of toch een optimalisatie?

Elke bug is geen cheat, ondanks dat jij anders wilt geloven. Als dat zo was, dan hebben beide fabrikanten een hele cheatlijst om trots op te zijn. In het lijstje van nVidia cheats die ik hierboven heb genoemd, vallen een aantal - die imo zelfs 'erger' zijn dan Quack - nu onder de noemer "optimalisatie".
Zowel van ATi als van nVidia geloof ik het meestal niet wanneer er een dergelijke bug voorkomt......

Maar, de 8500 quack bug, dit was het eerste stukje applicatie specifieke optimalisatie, een bug, die opgeroepen werd door de driver zodra quake3.exe gestart werd.......En die zoals in de link die ik je heb gegeven te zien is een ERG ERG slechte IQ tevoorschijn brengt.

De latere applicatie specifieke optimalisaties kregen veel minder fps wannneer ze uit werden gezet, met de beeld kwaliteit was niets mis (af en toe kun je werkelijk dingen, optimaal op mekaar afstellen, en werkelijk dan kan het echt sneller gaan zonder ook maar ergens iets in te leveren (behalve wat programmeer werk)).

Jij hebt het over de algemene concensus, die is veel te vaak in het voordeel van ATi wanneer het om driver cheats gaat, ik zou persoonlijk niet weten waarom, en ben het er dan ook niet mee eens.


Als je nu eens werkelijk de tijd zou nemen om het artikel waar ik op gewezen heb te lezen en ook de plaatjes te bekijken, dan zou iets als:
In Quake3 was het gewoon een stomme bug die er niet in had moeten zitten. Het is het niet waard om je hier druk over te maken zoals jij dat - wel vaker - doet wanneer het op ATi dingen aan komt. En als ik het goed heb, dan was de algemene concensus na deze hele witchhunt op cheats/bugs dat er sprake is van een optimalisatie als de beeldkwaliteit niet wordt aangepast.
; niet hebben gezegd..

En
Nieuwe drivers kwamen uit, Quack zit er technisch gezien nog in, maar IQ is weer goed en de snelheid is gelijk gebleven als met Quack. Dus cheat of toch een optimalisatie?
Dat ATi na de cheat drivers eindelijk overstapte op 32bit compilers heeft natuurlijk niets te maken met over over agressief bilinear filteren in het spel wat toen de belangrijkste snelheids meter op het gebied van computers was.
Maar, de 8500 quack bug, dit was het eerste stukje applicatie specifieke optimalisatie, een bug, die opgeroepen werd door de driver zodra quake3.exe gestart werd.......
nvidia deed ook aan q3 specifice optimalizatie.
ik weet niet of iemand zich de dawn demos nog kan herineren, ja die met dat feetje.
hernoem dat naar quake3 en zie daar ze is ineens naakt omdat haar kleren bestaan uit opdrachten die in q3 niet voor komen.

dat ATI nu toevallig een bug in haar quak optimalizaite had zitten waardoor blijkbaar 5 textures er toevallige belabberd uit gingen zien.
Het ging hier om een stukje tijdverband, de 8500 cheat was veel ouder dan de FX series driver, 8500 was een van de eerste applicatie specifieke drivers, en toch wordt gesproken van een bug, kijk dat is nu wat men merkwaardig en ongeloofwaardig noemt.

De 8500 bug had grote gevolgen op de IQ, zoals te zien is in de artikelen waar ik wel links naar heb geplaats, maar die jij nog niet gelezen hebt. (blijkt uit je 5 textures commentaar, waar dus vrij weinig waarheid in zit)

Applicatie specifieke drivers opzich zijn zo slecht nog niet, zoals ik al zei, als je je driver op een bepaalt spel gaat afstellen kun je daarmee hogere resultaten behalen, ik was blij dat ik niet meer zelf in Riva tuner allerlei capriolen uit moest halen om wel in UT2004 maar niet in NFSU 4x AA en 8xAF te hebben.
was een van de eerste applicatie specifieke drivers,
nope, ook daar was intel's GFX afdeling ze voor.
benchmarks gingen als een razende maar realworld waren ze niet vooruit te branden.

en die 5 textues is idd niet waar, ik kan alleen fff niet terug vinden waar ik dat nou vandaan had, maar het stond in een van de replys here.
Van intel weet ik eigenlijk weinig op graphisch gebeid, maar intel's innovative marketing strategieen gezien, zul je vast wel gelijk hebben.
De nieuwste drivers zijn heel in de test van ComputerBase heel wat meer sneller dan de paar procent die er volgens nVidia vanaf gaan door de bugfix. Netto is er dus nog steeds een winst.
dat zal best maar dat was niet het punt dat ik probeerde te maken.
je gaat je bijna afvragen welke "bugs" ze nu weer hebben geintroduceert om die snelheids winst voor elkaar te krijgen.
Bij ieder ander bedrijf zou je dat antwoord mogen geven.

Maar Nvidia heeft inmiddels al een jarenlange reputatie van dubieuze "optimalizaties" en "bugs" waarvan het bij de meerderheid overduidelijk was dat er sprake was van opzet.

Andere bedrijven zijn ook niet altijd lievertjes, maar Nvidia is op dit punt toch echt een aantal gradaties erger.

Overigens wel opvallend dat mensen de beweringen van Nvidia voor zoete koek aannemen.
Laat ComputerBase maar eens opnieuw testen met de bugfix en dan zullen we nog wel eens zien of het inderdaad zo is dat er netto een winst is.
Zo kan je achter alles wel iets zoeken.
Nvidia introduceert tenminste nog iets ;)
In hoeverre kun je van bugs spreken. Ik vind dat je in Software nooit over bugs mag praten, een "bug" klinkt als iets dat in je programma is gekropen toen de programmeur net even een bak koffie was gaan halen.

Zodra je over fouten spreekt word het een heel ander verhaal. Als er dan iemand vraagt hoe het met je programma staat zit er een heel verschil in. "het bevat nog enkele bugs" word gelezen als een bijna perfect programma, terwijl "het bevat nog wat fouten" gelezen word als een programma dat het gewoon nog niet doet.

Daarnaast kan een "fout" ook een communicatiefout zijn tussen verschillende programmeurs. Ik denk namelijk niet dat ze bij nVidia zo dom zijn om dit expres gedaan te hebben. Ze weten zelf waarschijnlijk meer van drivers en beeldkwaliteit af dan wie dan ook, en ze zullen dus zelf ook weten dat dit de discussie over optimaliseren weer aan zou wakkeren aangezien het verschil in beeldkwaliteit er duidelijk is.

Overigens is mijn mening dat er niks mis is met optimaliseren, voor mijn part gaan ze in de toekomst bij nvidia en ati per spel aparte optimalisaties maken, zolang dit ik er maar zichtbaar niks aan zie als ik alles op het maximum wil draaien. nVidia is daar overigens al mee bezig geweest, omdat de drivers toen een fout hadden moesten er optimalisaties gebeuren voor farcry (De kaart werd daar verkeerd herkend volgens mij). Een bedrijf had dit toen gerenamed naar "fartcry" waarna het spel een stuk minder liep.
het is een bug aangezien deze drivers totaal niet langzamer maar juist sneller zijn..
de "bugfix" heeft anders wel snelheids verlies tot gevolg zo zeggen ze zelf.
Door de bugfix zouden de prestaties wel iets achteruit gaan
Dat is een quote, van een vertaling, van een Theinq artikel.......... wat een goede betrouwbare bron! Daar hebben we wat aan!
Misschien bedoelen ze "beeldkwaliteit"-prestaties ipv "framerate"-prestaties? ;)
Installeer de 77.77 drivers!
Vier zevens,dat kn gewoon niet fout meer gaan! ;)
Ben ik de enige hier die zich afvraagt waarom Nvidia zo graag meer snelheid uit hun kaarten wil halen, zelfs als dat ten koste van de beeldkwaliteit gaat??

Nvivia is nu gewoon alleenheerser op 3D gebied, ATI heeft nog geen goede concurentie neer kunnen zetten tegen de 7800GTX.. Dus waarom zouden ze meer snelheid willen? ze zijn al de snelste... Of is Nvidia zich alvast aan het voorbereiden op de launch van de ATI R520 (mocht die nog uitkomen voor de 2e Ice age) :'(
Nvidia is zeker voorbereid op de R520, volgens "geruchten" is de goed schaalbare G70 met 32 pipes al klaar. Nvidia weet dat zij de allersnelste kaart hebben op dit moment maar weten ook dat ATI alles zal doen om net zo snel te zijn of zelfs sneller te zijn dan de G70.

Persoonlijk vind ik het wel verdacht dat Nvidia zo snel reageert en het "probleem" oplost, het lijkt wel dat ze dit doen voordat mensen gaan denken dat het een illegale optimalisatie is. Maarja illegaal of niet, als het het zelf uit te schakelen is vind ik het best.
Ik bedoel zowel ATI als Nvidia doen aan deze praktijken.
En Ati zal niet alleen sneller zijn. Maar zou ook betere IQ gaan bieden dus op 2 fronten aanvallen.

Dus ze hadden die tweaks er toch wel uit moeten halen want anders waren de revieuwers er zo achter. In hun R520 XT VS 7800 GTX review's
Ben ik de enige hier die zich afvraagt waarom Nvidia zo graag meer snelheid uit hun kaarten wil halen, zelfs als dat ten koste van de beeldkwaliteit gaat??
Dit is inderdaad niet erg logisch dus dat bevestigt alleen maar dat het een bug is.
nVidia lost 'overoptimalisatie' op met nieuwe driver
Deze uitspraak is iets te enthousiast aangezien een deel v/d oplossing inhoudt dat je het control panel op 'High Quality' moet zetten i.p.v. de default 'Quality'. En laat nou de default Quality mode de mode zijn waar vrijwel alle reviewers hun benchmarks mee tonen en 9 v/d 10 gamers
hun spellen mee spelen, vanwege de (vaak vl) betere performance.
Dus als gebruiker zijnde verwacht je een bepaalde performance, maar als je qua 'shimmering' een betere kwaliteit wilt (op het niveau wat Ati kaarten laten zien in hun default mode), dan moet je naar HQ schakelen, dit geeft veelal een flinke performancedrop.

Bijv:
UT2004, Nvidia 7800GTX.

1280x1024 - 4X AA 16X AF - High Quality: 99.43 fps.

1280x1024 - 4X AA 16X AF - Quality: 139.99 fps.


Een chte fix zou daarom dan ook zijn het verminderen van het texture shimmeren in de default quality mode, naar het niveau wat Ati laat zien in haar default mode. Op deze manier kunnen we eindelijk eens wat 'apples to apples' benchmarks te zien krijgen in de toekomst.
Apple, wie zegt dat de bugfix enkel in HQ mode werkt. Heb jij het al geprobeerd? Heb jij al reviews gelezen.
Nee, dus stop met voorbarige conclusies.
Zowel in 'Quality'- als in 'High Quality'-mode van de driver bleek een geoptimaliseerde versie van het algoritme voor anisotropic filtering gebruikt te worden, ondanks het feit dat deze zichtbaar mindere beeldkwaliteit oplevert.
Dan is de vraag : wat als ze nu eens, in plaats van het originele algoritme te gebruiken, hun geoptimaliseerd algoritme verder hadden uitgewerkt en dit al naar de reviewers gestuurd was ?

Eigenlijk zou Nvidia beter hun eigen algoritme verder uitwerken, als je de prestatiewinst ziet... 30 % is niet niks ! Als ze hem dan wat bijwerken en je hebt nog pakweg 15 % winst voor hetzelfde resultaat, dan is dat mooi meegenomen, niet ? :P

Op de screenshots vindt ik al dat het eigenlijk al zo goed als niet zichtbaar is...
Zelf heb ik de "cheat-drivers" en een 7800GTx, 'k speel regelmatig BF2 en 't was me zelfs niet opgevallen.
't Zal me waarschijnlijk niet opgevallen zijn omdat ik altijd speel met AF op 16x, dan zitten deze verschijnselen toch al op 100 meter van je in-game-personage.
Dat is het juist, de bug zorgt ervoor dat pixel idioot snel van kleur wisselen, alsof een veel te hoog LOD gebruikt is, iedereen die RivaTuner heeft kan even uitproberen bij "Direct3D tweaks" "User mipmaps" uit te schakelen, dan zie je op afstand in je DirectX spellen allemaal mieren over de muren lopen als je beweegt, omdat er van een erg hoog detail texture slechts enkele pixels worden gemaakt, waardoor bij de kleinste beweging die pixel idioot ver van kleur kan veranderen, en dat dan bij alle textures die ver weg zijn. Maar als je stilstaat ziet het er vaak super strak uit (perfect voor screenshots) (mits je AA gebruikt).

Je kan ook de "Mipmap LOD bias" uiterst links plaatsen, dit laatste kan ook bij de "OpenGL tweaks" en heeft ongeveer hetzelfde resultaat als de "User mipmaps" uitschakelen.
Toch prachtig dat nvidia een week na het artikel al een driverfix klaar heeft. Bij ATi moest je op de maandelijkse update wachten.
Geweldig ook dat nVidia zo vaak beta drivers released en de mensen testpersoon laat zijn. Daar heb ik zelf geen zin in. De frequentie van WHQL drivers mag van mij wel omhoog. Dat is het enige wat ik enorm mis op m'n GF6800GT. Ik speel namelijk niet graag voor proefkonijn en met mij vele andere mensen.
Ach daar kiezen de mensen zelf voor hoor. Als ik die dingen niet wil testen en telkens netjes wacht op de WHQL versies dan houdt niemand me tegen. Je hoeft niet perse elke beta driver te installeren, puur je eigen keuze!
WHQL zegt niets over de kwaliteit van de driver.

Een WHQL driver kan net zo goed hardstikke rot zijn en vage optimalisaties hebben, en vreemde artifacts tijdens het spel.

WHQL zegt alleen maar dat de driver 'stabiel' is en voldoet aan het windows driver model, en nog een paar eisen die daar mee samen hangen.

Dus dat gaat enkel over de samenwerking met XP, heeft niets te maken met de in-game opties/kwaliteit of wat dan ook.

Wachten op WHQL is dus zinloos als je een niet belangrijk game systeem hebt.

De drivers worden bij nvidia echt wel intern getest, maar door de grote verscheidenheid van kaarten types klok en mem herzen en die tallloze windows/game versies kun je dat onmogelijk in orde brengen.

Hoewel ik ook vind dat nvidia hun driver versie model wel eens wat mag verbeteren, en iets minder, maar dan wat betere drivers mag uitbrengen. Is het model van Ati 1x per maand echt idioot. Koop je een spel, moet je gewoon vet lang wachten, voordat die ene bug wordt verholpen. Die known bugs list wordt ook niet aangewerkt.

Om nog maar over de Linux drivers te zweigen...
1x per maand lang wachten??

Hoeveel bedrijven zijn er dan sneller? Bij Nvidia moet je juist vet lang wachten op (officiele) drivers.

Bij ernstige bugs heeft ATI zelfs binnen die maand al wel fixen uitgebracht.

Overigens kun je de korte tijd die Nvidia nodig had ook als bewijs zien dat ze die "bug" er expres in gezet hadden als optimalisatie. Een echte bug doen ze immers normaal gesproken heel wat langer over.
mjt, met alle respect, hier kan ik niet tegen

[quote]Hoeveel bedrijven zijn er dan sneller? Bij Nvidia moet je juist vet lang wachten op (officiele) drivers.

Bij ernstige bugs heeft ATI zelfs binnen die maand al wel fixen uitgebracht.

Overigens kun je de korte tijd die Nvidia nodig had ook als bewijs zien dat ze die "bug" er expres in gezet hadden als optimalisatie. Een echte bug doen ze immers normaal gesproken heel wat langer over.[/quote

Eerst zeg je dat nVidia erg langzaam met dat soort dingen is, vervolgens zeg je dat ATi dat binnen een maand kan en dat zeg je dat wanneer nVidia het toch sneller zou blijken te kunnen, er spraken moet zijn van driver optimalisatie.

Een paar threads naar beneden beschuldig je mij en aval0ne ervan een nVidia bril op te hebben, maar zelf kun je er ook wat van!
Jan, aangezien je toch je goeie wil liet blijken in die andere reactie zal ik mijn reactie even verder toelichten.

De afgelopen jaren heeft is Nvidia nou eenmaal erg traag geweest met zijn drivers. Beta drivers kwamen er nog wel eens uit, maar met name officiele drivers kwamen maar tergend traag uit. Dat wil je toch hopelijk niet ontkennen?

Nu is dan n keer Nvidia snel, door in 1 week een update te doen, en dan zijn ze ineens weer die superclub die altijd razendsnel is met driver updates? En ATI die elke maand officiele drivers uitbrengt is dan traag?
Met alle respect, maar daar kan ik dus niet tegen.

Verder geef ik aan dat je bij ATI niet perse tot het eind van die maand hoeft te wachten als ze de oplossing voor een ernstige bug hebben gevonden.

Jij leest daarin dat ik beweer dat ATI binnen een maand een oplossing voor een bug maakt, maar dat heb ik niet gezegd. Het kan best zijn dat het maken van de oplossing anderhalve maand heeft gekost. Maar het is dus niet zo dat fixes altijd worden opgespaart voor die maandelijkse driver update.

Ga nou zelf eens na: 1 week is echt heel kort.
Eerst moet je als bedrijf te horen krijgen dat er mogelijk een bug is. (van meerdere bronnen) Dan moet je verifieren of er werkelijk een bug is. Dan moet er tijd ingepland worden bij de programmeurs om de bug te gaan bekijken. (wat die zitten niet duimen te draaien maar hebben ook nog een stel andere taken waar ze ook mee bezig zijn) En dan pas kan die programmeur aan de slag om de bug op te sporen en te fixen. En vervolgens moet er dan een nieuwe driver gemaakt worden. En die driver moet vervolgens nog eens goed getest worden voor je 'm vrij geeft.
Zelfs als alles in dat traject perfect verloopt en die programmeur niets anders had wat ie eerst moet afmaken en in 5 minuten de bug opgespoord heeft, dan is het nog bijna niet te doen om dat traject in een week door te lopen.
Ik weet niet hoe ze jou hoofdrekenen geleerd hebben, maar, misschien de volgende keer toch maar de rekenmachine gebruiken.

http://www.nvnews.net/vbulletin/showthread.php?t=53834

post te zien van iemand die het effect gezien heeft en er een filmpje van heeft gemaakt, kijk ook naar de datum, nouja, die zal ik dan maar verklappen, 19 juli......

De nieuwe driver is voor ons gewone stervelingen inprinciepe nog niet uit.

van 19 juli tot binnenkort >>>>>> een week

zal ik dan ook maar een link naar het filmpje doen (zocht ik eigenlijk al een tijdje naar, ik heb zelf destijd het filmpje wel gedownload, maar kon het niet meer vinden.
http://homepage.ntlworld.com/gazwelch/shimmer.mpg
Lees de thread nog eens opnieuw.

Jouw nvidia-maatje Aval0ne claimde aan het begin van deze thread dat Nvidia de patch in een week gemaakt had. Dus daar moet je dan mij niet op aanvallen.

Maar ik ben wel blij met je correctie.

Nu dus blijkt dat dit probleem al heel lang bekend is en ze er dus ook al heel lang aan gewerkt kunnen hebben, is er ook geen aanleiding meer om dat shimmering als opzettelijke optimalisatie te zien.

Dus ik ben het hier dan met je eens dat het prima een normale bug kan zijn geweest die ze nu hebben.

Dit specifieke video-tje had ik al een keer gezien. Maar naar aanleiding van de berichtgeving hier over een recent probleem dacht ik dat dit een nieuw shimmering probleem was, en dacht ik niet aan die video, want die was al veel ouder.
AVAL0NE!!!!

(sorry mjt, dan heb ik nix gezegd....)

nouja, we zijn er in ieder geval uiteindelijk dan toch nog uitgekomen :D

EDIT:
overgens, als je iets op de post van aval0ne op te merken hebt, zou je ook eigenlijk daarop moeten reageren, dan kloppen de threads ook, jij reageerde op de post van BT racing, tja, dan krijg je verwarring....
Apple, wie zegt dat de bugfix enkel in HQ mode werkt. Heb jij het al geprobeerd? Heb jij al reviews gelezen.
Nee, dus stop met voorbarige conclusies.
ChrisRay van Nvnews.net heeft de driver al geprobeerd, en een uitgebreid verslag in hun forum geplaatst. Het werkt enkel in HQ mode. (net als de shimmer "oplossing" toendertijd voor de 6800 reeks, deze werkt tot heden ten dage ook enkel in HQ mode.)

Btw wel grappig dat er hier "Ati koeien" uit de sloot gehaald worden. Ook al zuden zij 100.000 optimalisatie's gebruiken, het punt is dat Ati in de default mode veel minder shimmering laat zien dan Nvidia. Dus f
Ati is slimmer, f gebruiken minder optimalisatie's.
In beide gevallen is het Nvidia die dus werk aan de winkel heeft, niet Ati.
Apple, de eerste post van Countess haalt meteen oude nvidia koeien uit de sloot, dus is het niet meer dan normaal dat er ook ATI koeien opgehaald worden.
En zeggen, de ene doet het meer dan de andere, is belachelijk natuurlijk. ATi is de pionier geweest van de cheats en zij gaan er gewoon beter mee om als ze gesnapt worden.
Modern video-hardware manufactures _learned_ to use cheats/optimization in their drivers several years ago. The approach pioneered by ATI is accepted now as a legitimate "optimization" technique and used by virtually anyone these days. The only difference is in the stance each particular manufacturer takes when its "optimization" techniques receive some bad publicity. For example the relatively recent bad publicity around ATI's Futuremark cheats cased ATI to remove these particular cheats from their Catalyst drivers (which was
publically announced). However, other ATI's cheats which received less public attention are still there in their latest drivers (3dmark 2001 cheats notably).
En ATi heeft veel werk aan de winkel. Dat ze eens wat kaarten releasen.
ATi is de pionier geweest van de cheats en zij gaan er gewoon beter mee om als ze gesnapt worden.

Het is geen kwestie van "beter mee omgaan als ze gesnapt worden", het is duidelijk dat de optimalisaties van ATI veel minder afbreuk doen aan de kwaliteit.
Simpel gezegt: Deze optimalistatie vallen niet op.

nVidia roept dit op zich zelf af door zeer grote optimalistaties te maken die duidelijk in Farcry en BF2 met het blote oog te zien zijn.

En ATi heeft veel werk aan de winkel. Dat ze eens wat kaarten releasen.

Een fanboy reactie die niks toevoegt aan de discussie.
Ik had het je van te voren kunnen vertellen aval0ne, en het is ook echt niet alleen t.net, op ieder forum kom je ze tegen, en nee, je kan er tegen praten, maar ze luisteren toch niet, zoals deze wagnef maar weer eens pijnlijk duidelijk maakt, wat we hierboven ook al gepost hadden, het maakt allemaal niet uit.....
zei de ene nvidiot tegen de andere nvidiot.

Sorry hoor Jan, maar zo gedragen jullie je echt in deze thread. En dan moet je niet verbaasd zijn als je wat tegengas krijgt.
Maar uiteraard zijn dat in jullie ogen dan allemaal ATI fanboys waar niet mee te praten valt.
Tja, het blijft altijd lastig objectief te blijven, maar ik beperk mezelf tenminste nog bij de te testen dingen........

Natuurlijk heeft nVIDIA ook een CV kwa driver cheats, maar de begin post schept meteen een heel verkeerd beeld van de situatie (uiteraard door mijn nVIDIA ogen gezien) die verwijst naar de history van het cheaten.

Eigenlijk gaat het in golven, werkelijk, op het moment dat ATi nu echt een grote dikke cheat toe zal passen (maar daar zullen ze wel voor oppassen) dan is iedereen binnen 3 weken alle nVIDIA cheats vergeten.

Net als dat iedereen vind dat P4 zo veel verbruiken en veel hitte maakte, maar vergeten zijn we inmiddels dat toen jan zijn 2000+ Palomino die op 1,75V stond kocht, dat de allergrootste straalkachel van dat moment was, die dus ook alle xeons en hoog geclockte P4's van dat moment voorbij ging.

Mensen vergeten snel dingen, ik probeer ze eraan te helpen herinnen (door continue naar oeroude artikelen van techreport te verwijzen 8-) ).

Maargoed, ik begrijp dat de neutrale persoon onze discussie doorleest en tegelijktijd afwijzend nee-schud, en vervolgens niet eens meer de moeite zal nemen om te reageren, en dat kan ik ze denk ik ook niet kwalijk nemen.
Zouden ze nu echt 16x FA gebruiken ?

Zoals mens kan lezen in het originele stuk (welke helaas niet gepost door tweakers 2 dagen geleden) scheen de optimalisatie max. 2x FA te zijn in de settings en dan nog alleen maar onder een bepaalde hoek, de makers van het artikel vinden dan ook dat de benchmarks in vergelijking met andere kaarten onjuist zijn.
What advantage do you have of 16x AF if you get 2x AF at maximum at certain angles only, are exposed to texture shimmering while other cards provide flicker-free textures? All benchmarks using the standard setting for NV40 and G70 against the Radeon are invalid, because the Nvidia cards are using general undersampling which can (and does) result in texture shimmering. We know and love GeForce 7 for the Tranparency Antialiasing and the high-performance implementation of SM3 features, but the GeForce 7 series cannot be configured to deliver flicker-free AF textures while the GeForce 6 series and the Radeon series can (of course) render flicker-free AF quality.
Ik ken ook nog zo'n post over de ATI X800 cheats:
ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim. Encouraging reviewers to make comparisons to NVIDIA products with NVIDIA's similar trilinear optimizations turned off compounded the offense. Any points ATI has scored on NVIDIA over the past couple of years as NVIDIA has been caught in driver "optimizations" and the like are, in my book, wiped out.
tja zo kan je het verwoorden.

of je leest even wat er echt aan de hand is.
gs.
When will ATI restore full trilinear so that review sites can actually rebench and retest your cards, since any previous review benchmarks is invalidated by this cheat/optimisation/whatever?

Andy/Raja
We have never removed "full trilinear". We certainly do not believe that any benchmarks have been invalidated by our techniques. In all cases reviewed so far we believe that we have higher image quality than other implementations.

Sphinx
Is Ati cheating if Colored MipMaps are enabled and shows True FULL_TRI AF and Only Then. Like the Article in ComputerBase.de Descripe it as such one.

Andy/Raja
Absolutely not. If it were the case that we were only performing full trilinear with coloured mipmaps then you might have a point, but this is emphatically not what we do. We take advantage of properties of texture maps for performance and IQ gains. In cases where we are not able to determine that the texture content is appropriate for these techniques we use legacy trilinear filtering. This includes cases such as dynamically uploaded texture maps where we avoid performing analysis so as not to cause any possible gameplay hitches.
wil je persee toch full trilinear zet je A.I. uit en trilinear aan.

dus niks geen cheat, maar slime optimalizaties en techniken om de FPS te verbeteren terwijl de IQ gelijk blijft of zelfs beter word.

hier is de rest van het artical
http://www.overclockerscl...ws/ati_trilinear_chat.php
heb je trouwens zelf een link van gepost hierboven.
Ik heb een filmpje bekeken met daarop de bug in actie, maar eigenlijk kan ik alleen maar concluderen dat als de de LOD van die bepaalde textures op die afstand naar beneden hadden gehaalt (dus vager gemaakt) dan was de bug zelf niet te zien....Als ze echt een agressieve optimalisatie hebben willen doen, kunnen ze dat na al die jaren toch ook wel zonder dat iemand het opvalt...
Ja inderdaad, je kiest er zelf voor. En als je er niet van al die driver updates houdt dan neem je gewoon alleen die update die nvidia op der site zet.

*wacht op zijn 7800gtx :+
Laat ons ook niet vergeten dat de niet geoptimaliseerde AF modes van nvidia er beter uitzien dan die van ATI. Als de nieuwe driver inderdaad de AF kwaliteit terug naar 6800 normen brengt is deze dus beter dan deze van ATi.

http://www.digit-life.com.../nv40-rx800-4-p4.html#p30
ATI scores best at 0 (and also at 90, 180, and 270). Angles of 45, 135, etc. show a parity, although an increasing degree of anisotropy brings a rising advantage to NVIDIA in non-optimised modes. In the case of angles not divisible by 45 (20, 30, etc.), NVIDIA shows a higher maximal anisotropic filtering quality than ATI. Note that this article dealt with neither the performance/quality ratio nor the theoretical aspects of anisotropic filtering.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True