Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: Driverheaven, submitter: CJ

Bij Driverheaven is een artikel verschenen waarin de beeldkwaliteit van de nVidia GeForce 6800 Ultra in combinatie met de Forceware 60.72 drivers wordt onderzocht. Het blijkt dat de beeldkwaliteit van de nVidia GeForce 6800 Ultra in vergelijking met de reference DirectX rasterizer en de Radeon 9800 XT een beetje achterblijft. De nVidia Forceware 60.72 driver maakt gebruik van mipmap texture levels van een lagere kwaliteit. Hierdoor kan de GeForce 6800 Ultra sommige stukjes van een scene renderen met kleinere textures wat logischerwijs een kleine, doch positieve invloed heeft op de snelheid.

Hoewel de auteur van het artikel op Driverheaven deze optimalisatie bestempelt als cheaten is het de vraag in hoeverre dit waar is. Er wordt immers nergens voorgeschreven welke kwaliteit mipmap levels moeten hebben bij een bepaalde instelling in de drivers. De enige conclusie die getrokken kan worden is dat ATi op de "high quality"-instelling textures van een hogere kwaliteit tekent dan nVidia op zijn "high quality"-instelling.

Mipmap levels in 3DMark03 bij de Radeon 9800 XT

Mipmap levels in 3DMark03 bij de GeForce 6800 Ultra
Verschillende kleuren geven verschillende mipmap levels aan. Zie voor het verschil bijvoorbeeld de muur aan de linkerkant. Boven: ATi Radeon 9800 XT, Onder: nVidia GeForce 6800 Ultra
Moderatie-faq Wijzig weergave

Reacties (86)

Een ieder die hier zondermeer reageert dat het gebruik van kleinere mipmaps slecht is voor beeldkwaliteit begrijpt niet helemaal het idee van mipmaps.

Performancewinst is leuk maar niet de énige bestaansreden van mipmaps; het is namelijk ook zo dat mipmaps pre-rendered (of handgetekend, wat jij wilt) zijn, daardoor kan bijvoorbeeld de scherpte van een texture zijn aangepast op een kwalitatief betere manier dan een grafische kaart doet (trilineair is nog steeds lineair, non-lineaire methoden zoals splinaire of Lanczos leveren veel betere resultaten op).

De "ideale" mipmap komt ongeveer overeen met de mipmap die het dichts bij de resolutie komt waarop hij zal worden gerenderd, het is dus heel goed mogelijk dat nvidia door het gebruik van kleinere mipmaps juist bétere beeldkwaliteit krijgt, de beste manier is om te kijken wat het verschil is voor het oog op die plekken waar het gebruik van mipmap levels verschilt.

En dan nog zijn er andere, belangrijkere verschillen (bijvoorbeeld de manier van verschalen, de manier van mixen van mipmaps, de methode van perspectiefcorrectie, de gebruikte precisie in het interpoleren, etc.) die invloed hebben op de uiteindelijke kwaliteit van het beeld.
Ik ben het met je eens, maar even ter aanvulling.

Mipmaps hebben volgens mij met name het doel om 'knipperde' textures te voorkomen. Als je namelijk ver van een texture afstaat zou elke pixel op je scherm bijvoorbeeld moeten komen uit 64 pixels op een texture. Gezien het niet haalbaar is om alle 64 pixels te gebruiken, zijn ze al voorgemengd in een mipmap. Op een bepaald niveau bijvoorbeeld in 4 groepen van 16 pixels. Nu kan je gaan interpoleren met deze 4 groepen. Als je dit niet zou doen, dan zouden er vrij willekeurig 4 pixels uit de 64 gekozen moeten worden, waardoor de texture sterk kan veranderen bij kleine veranderingen in het camerastandpunt.

Je moet het eigenlijk gewoon zien om te zien wat er gebeurt.

Het te kiezen mipmapniveau hangt af van de afstand, de hoek, de filtermethode en, heel belangrijk, de texture. Het daarom niet eenvoudig te bepalen wat het juiste niveau is. En zoals mwvdlee al zegt is een hoger niveau niet beter. Als dat zo was, waren mipmaps niet nodig geweest en kon je altijd de originele texture gebruiken.
Maar te laag, dan mis je details die je anders wel had kunnen hebben.
[mwcdlee]
lang verhaal...
Aan de plaatjes te zien zit de oplossing van Nvidia verre van de "ideale mipmap". Dat je +4 krijgt zegt mij daarom al genoeg, er zijn teveel mensen hier met oogkleppen op of een blind fanboy gehalte.

Als er nou bewijs ter grondslag aan je verhaal, alla. Het tegendeel lijkt dichter bij de waarheid te liggen.

Nee, ik ben geen fanboy. Gewoon een kritische gebruiker.
Hoe kan jij aan de plaatjes zien dat ze NIET de "ideale mipmap" hebben gekozen? Op het plaatje zie ik enkel het niveau van de mipmap, niet of dit een kwalitatief beter beeld opleverd.
Precies zoals het stuk beschrijft.... een kleine snelheidswinst, maar mindere kwaliteit beeld.

Ik vraag mijzelf af of dit werkelijk waarneembaar zal zijn tijdens het gamen...

Wat ik meer wonderlijk vind is dat de positive berichten van alle hardware reviewers hier feitelijk onderuit worden gehaald. Deze zijn dus gebaseerd op een benchmark resultaat wat feitelijk wederom door een Nvidia truukje bewerkstelligt word. (geen cheat lijkt me)

Neemt niet weg dat deze kaart vast een hele goede is, maar ten opzichte van de Radeon XT niet echt een aardverschuiving teweeg brengt.

Reden temeer om maar eens op de nieuwe radeon te wachten
mwoah elke reviewer bevistigd het feit dat de kwaliteit voorlopig een stuk vooruit is gegaan, maar wat ik wel eens wil weten is in hoeverre gaat Nvidia snijden in de eye-candy om met bv de Ati X800 XT mee te gaan doen mocht die beter blijken te presteren.

Ik acht de kans dan groot dat ze zoals eerder al eens gedaan is gewoon high quality laten varen ook al kies je voor high quality om zo mee te kunnen met de X800XT dan. Ik hoop dat ze het nu eindelijk eens gaan leren om gewoon eens niet te cheaten... in latere driver versies.
hoe kun je dit cheaten noemen..
er zijn geen maten om mee af te meten in dit geval. ze zouden bijv. ook de nvidia & ati tegenover een 3dlabs kunnen testen en dan zeggen van 'goh nvidia & ati cheaten' want beide performen lager in high performen qua beeld kwaliteit lager dan de 3dlabs ;)
het enigste wat dit leert is dat je net zoals de strijd amd/intel dat je de opgegeven waardes enkel kunt vertrouwen door onderlinge benches te vergelijken. en zoals deze review eigenlijk zou moeten aantonen maar de schrijver doelbewust niet gedaan heeft (en naar mijn idee ook een anti-nvidia gebruiker is) is dat nvidia's sneller zijn dan ati's maar kwalitatief minder zijn.
Er zijn WEL maten om mee af te meten. Als je de review had gelezen dan had je gezien dat het beeld van zowel ATI als Nvidia wordt vergelijken met het referentiebeeld.
Nvidia wijkt dat sterk van af.

Ik zou dat in dit geval geen cheaten noemen maar een optimalisatie. Het lijkt er namelijk op dat dat in alle spellen gebeurd.
Dat betekent dus dat je als klant niet belazerd word. De beeldkwaliteit die je in de benchmarks ziet en de snelheid die je daarbij krijgt geven een eerlijk beeld.

Het betekent wel dat je geen apples-to-apples vergelijking van de ATI en Nvidia kaarten kan maken omdat de beeldkwaliteit niet gelijk is.

Voor een eerlijke snelheidsvergelijking zou je dan ook de ATI kaarten op een lagere beeldkwaliteit in moeten stellen.
Neemt niet weg dat deze kaart vast een hele goede is, maar ten opzichte van de Radeon XT niet echt een aardverschuiving teweeg brengt.
Volgens mij heb je andere benchmarks gezien dan want in de meeste games is deze kaart 30-50% sneller.
Hangt er maar vanaf wat je onder 'aardverschuiving' verstaat natuurlijk.
volgens mij ligt dat aan mij , maar ik vind die onderste beter.


en verder heeft future mark al gezegt dat Nvidia optimalisaties gebruikt maar die vallen niet binne cheaten omdat ze minimaal zijn, net zo minimaal als de cheats, want dat moeten we dan ook zo noemen als je dit cheaten vind, die ATI gebruikt.


en dan nu nog iets anders,

stel nvidia had een beter foto, dan hun mipmaps beter waren,

zouden jullie dan nu allemaal lopen roepen ATI is aan het cheaten .

reageer hioer maar eens op.
hmmm... is het dan niet zo dat de groene velden aangeven dat de mipmap level hoger is en rood lager? Of zie ik dit verkeerd en bestaan er enkel van elkaar verschillende mipmap levels?

Het lijkt me dat we met deze vergelijking eigenlijk niet zoveel zijn zonder de referentie image - die op driverheaven wel gegeven worden. Ik vind trouwens niet dat over iets dat een mens haast zeker niet opmerkt veel tralala gemaakt moet worden (wat in dit geval zo is), maar langs de andere kant is het wel zo dat indien er een referentie image is, deze zo nauwkeurig mogelijk benaderd moet worden. En het is wel de afbeelding van ATI die (bij die eerst afbeelding op driverheaven althans, de rest heb ik niet bekeken) het meest overeenkomst vertoont met de referentie image.

Neemt niet weg dat ik echt wel een goed gevoel heb bij de 6800 - nVidia heeft echt geen slechte kaart op de wereld gezet en misschien ligt het wel aan mijn ogen, maar veel problemen maak ik der toch niet van indien dit het soort "cheats" zijn dat ze willen gebruiken...

Tot slot: ik koop die kaart toch niet - ben al jaren geleden afgestapt van dat "ik wil de beste, ik wil de snelste". Just ain't worth it for me.

edit:

:D dt fout verbeterd
Het zijn enkel opeenvolgende mipmap levels die een andere kleur hebben gekregen om ze goed van elkaar te onderscheiden.

Hoe verder het volgende level van je af ligt hoe beter je beeld is.
Hoewel de auteur van het artikel op Driverheaven deze optimalisatie bestempeld als cheaten is het de vraag in hoeverre dit waar is. Er wordt immers nergens voorgeschreven welke kwaliteit mipmap levels moeten hebben bij een bepaalde instelling in de drivers.
Dat is misschien wel zo, maar aan de andere kant mag je met zo'n snelle nieuwe kaart ook wel iets meer verwachten van de beeldkwaliteit. Snelheid is op het moment niet zo'n issue meer dus ik zou niet weten waarom deze kaart dan niet de allerbeste beeldkwaliteit produceert. Op een gegeven moment gaat het verder dan benchmarks naar mijn mening en komen andere zaken aan bod zoals beeldkwaliteit en je zou dan toch wel iets van zo'n nieuwe generatie kaart mogen verwachten. Daarna kan je de MIPMAP texture kwaliteit altijd nog om laag zetten wanneer dat nodig is. Op deze manier krijgt nVidia een beetje de naam dat ze alleen geilen op snelheid en minder op beeldkwaliteit (wat nu ook al zo is met FSAA). Ik zou het echter geen cheaten noemen, maar netjes is anders.

@Hielko:
Daarnaast is het niet eens zeker of een hogere kwaliteit mipmap level textures wel een positieve invloed heeft op de beeldkwaliteit.
Huh? Ik ging er toch echt vanuit dat de beeldkwaliteit er daarom op achteruit ging. Ook door dit stukje tekst:
Het blijkt dat de beeldkwaliteit van de nVidia GeForce 6800 Ultra in vergelijking met de reference DirectX rasterizer en de Radeon 9800 XT een beetje achterblijft.
Daar staat toch echt dat de beeldkwaliteit iets achterblijft. Mocht dit zo zijn dan vind ik dat tegenvallen van een nieuwe generatie GPU, aangezien ik gewoon verwacht dat niet alleen de snelheid maar OOK de beeldkwaliteit een stap voorwaarts heeft gemaakt.
Daarnaast is het zo dat nVidia qua beeldkwaliteit met deze kaart iig een erg grote stap voorwaarts heeft gezet. Zowel qua FSAA als AF is de kaart praktisch identiek aan de Radeon 9800.
Is dat niet een beetje triest dat ze dat nu pas gelukt is? Dat ze dus nu gelijkwaardig zijn aan Ati qua FSAA kwaliteit terwijl die kaart al 2 jaar oud is. Dan ben ik benieuwd naar wat Ati brengt met hun nieuwe generatie kaarten. (Verder vind ik die 6800 Ultra qua specs super hoor :Y) )
Het is IMO gewoon een keuze van de fabrikanten om te kiezen wat de maximale kwaliteit van de mipmap levels zijn. Daarnaast is het niet eens zeker of een hogere kwaliteit mipmap level textures wel een positieve invloed heeft op de beeldkwaliteit. Misschien heeft nVidia de mipmap levels op de hoogste kwaliteit gewoon net iets slimmer neergezet dan ATi. Who knows?

Daarnaast is het zo dat nVidia qua beeldkwaliteit met deze kaart iig een erg grote stap voorwaarts heeft gezet. Zowel qua FSAA als AF is de kaart praktisch identiek aan de Radeon 9800.
Het is gewoon een keuze van nVidia, als iemand wil zeiken over de beeldkwaliteit doen ze dat tohc in een review? Waarom is het nou meteen cheaten?? Reviewers zijn beteje paranoia geworden echt hoor :S
Ze nemen minder gedetaileerde mipmaps, om zo een hogere performance te krijgen... mijns insziens is dat toch cheaten om de benchmarks zo hoog mogelijk uit te laten vallen...
Of het is gewoon slim. Het feit dat ze een ander mipmapniveau kiezen is niet perse fout. Dan moet je de daadwerkelijke plaatjes ernaast leggen.

@Countess: Als je de interpolatie overdrijft en dus een stukje extrapolatie gebruikt, hoeft het detail er niet minder om te worden. Een reference is in mijn ogen niet heilig. Ik blijf erbij dat het gaat om de echte plaatjes die eruit komen.
een kleinere (en dus snellere) mipmap betekend ALTIJD minder detail, en is dus fout.
het feit dat de nvidia kaart niet het zelfde laat zien als de direct X reference render toont aan dat ze fout zitten, de kaart laat namelijk niet zien wat het programa wil dat het laat zien.
Ach iedereen die een beetje 3dmark benched met een nvidia kaart past toch zijn LOD aan om hogere scores te krijgen. Dit wordt allang niet meer als cheaten beschouwd.
Wel als ze beweren dat beide kaarten op dezelfde benchmark getest te zijn met identieke instellingen! Als ze de Radeon op 4xFSAA zetten en de 6800 op 12xFSAA dan is dat toch ook niet gelijkwaardig?

Voor een goede vergelijking moet je ook proberen alle instellingen voor beide kandidaten hetzelfde te kiezen. Voor actie spellen maakt het niet uit dat de kwaliteit wat minder is omdat je dat waarschijnlijk niet zal opvallen door de snelheid maar het is niet netjes.

Maarja we zijn het inmiddels gewend van nVidia
Komaan, dit is gewoon paranoia ten top!

Ten eerste is het NERGENS voorgeschreven hoe met de mipmap levels moet worden omgegaan, dat nVidia nu is niet exact dezelfde instellingen gebruikt als ATI voor bij hun op hoogste kwaliteit. Moeten ATI en nVidia nu samen hun drivers gaan ontwikkelen, om dit soort 'wanpraktijken' te verhinderen?

Die review is in mijn ogen niets waard, drivers gaan vergelijken van verschillende fabrikanten, jah DUH dat er verschillen inzitten. Ze hadden gewoon de 60.72 drivers moeten testen, de versie daarvoor icm. de GF 6800 U en de GF FX 5950. Dan pas had je misschien kunnen zeggen of er werkelijk was gecheat of niet, niet door te gaan vergelijken met een andere fabrikant.

Voor hetzelfde geld vond het nVidia driverteam deze intellingen goed genoeg.... Tsss, sorry dat ik me hierover opwind, maar ik vind het echt te belachelijk voor woorden...

(ATI heeft vroeger gecheat met de mipmaps in Quake3, jaaaaah, maar daar was het verschil echt wel duidelijk te zien (het zag er gewoon bagger uit op de Radeon 8500), en het waren drivercheats, want de exe door de hexeditor halen en het beeld was normaal.
Dit zijn gewoon minieme verschillen, bekijk die scrreens maar is goed.)
@LaMoS:

Ga nou eerst eens de review echt lezen voor je commentaar geeft.

De drivers zijn namelijk niet onderling vergeleken, maar ze zijn vergeleken met de referentie renderer.

Als je de review had gelezen dan had je dat geweten. Maar ondanks dat je 'm duidelijk niet gelezen hebt wil je wel vaststellen dat de review in jouw ogen niets waard is.
Heel Triest.
Uhu, ik heb de review wel gelezen. Tuurlijk, die 2 drivers worden vergeleken tegen de reder van 3DMark zelf...
Normaal is het de bedoeling dat hetzelfde of beter beeld geven als de render. Maar je kunt zelf zien dat ATI er ook niet helemaal aan voldoet en nVidia zit daar ieeets onder. Wow, "It's the end of the world as we know it..."
Tuurlijk worden de beelden van de kaarten vergeleken met de render van 3DMark, maar waarom zit er ook een ATI kaart bij? Hij wilt de beeldkwaliteit van de nVidia nakijken, en waarom dan ook alleen maar de 6800 Ultra en geen enkel van zijn voorgangers en daarbij nog voorgaande drivers (die zullen dan wel niet werken voor de 6800U). Zo kun je een goed beeld bekomen of wel of niet nVidia cheat. Deze review is brol en pure stemmingsmakerij. Ze hebben nog geen enkel bewijs en het vliegt al rond over het internet, phtttt.....
Over the past week or so you’ll all have been reading the reviews of the Geforce 6800Ultra, Nvidia’s new flagship card. We have not published the results of our tests with the 6800U yet and may or may not do so before an upcoming comparison article however during the course of our testing there were a few IQ specific issues which really caused concern. In order to provide the industry with a fair overall view of the 6800 IQ and performance we have taken the decision to publish these findings now.
When I first read the reviews of the 6800 Ultra I was very impressed to see the problems which affected the NV3x being resolved, there were a few issues with IQ mentioned – such as those in Farcry however these were to be fixed in a future driver and appear to be legitimate bugs. I feel this is not the case however for the issues described above. 3Dmark as we all know is a synthetic benchmark, the purpose of which is to compare cards on a level playing field. Based on the changes in mipmap/textures on the NV40 this is not the case. It is disappointing that with such a technology lead over anything currently released that Nvidia have driver issues such as those described above.
Simpele reden waarom er naast de software renderer ook een ATI wordt gezet. Om te laten zien dat andere kaarten NIET een ander beeld neerzetten. Dat het dus niet onmogelijk is om aan de reference te voldeon.

Als je Beyond3D zou lezen, zou je weten dat Veridian3 niet een of andere fanboy is.

Onzin natuurlijk dat hij de NVidia beeldkwaliteit wil nakijken. Dat is bij de NV3x al zo vaak gedaan, dat dat nu echt niet meer nodig is.
Bij een nieuwe GPU is dat uiteraard WEL nodig. En als je dan gekke dingen ziet, dan vergelijk je 'm met de gouden standaard... ATI 9800 dus.
Tja, wat je zegt is allemaal mooi en aardig maar da's jouw mening. Als ik een 200 euro of duurdere kaart koop verwacht ik prima 3D en 2D prestaties.

Ieder zijn keus hoor, maar ik ga liever voor de beste beeld-kwaliteit zolang de performance niet te ver achterblijft. Dit is dus interessant nieuws voor de perfectionisten :)

Trouwens: je speelt toch ook niet met zo'n kaart in 1600x1200 met alles op low en geen AA&AF :? Juist, ook jij wil mooiere plaatjes. En het dan goedkeuren als een bedrijf voor jou beslist wat wel of niet goed genoeg is :Z

Eleganter zou zijn als je zelf mag kiezen, die keus word je ontnomen nu en daar kan ik geen rechtvaardiging voor bedenken.

i rest my case.

[Lamos]

die jongens bij driverheaven hebben getest met alles op maximale beeld-kwaliteit. Hebben ze soms een knop gemist :? (editen in je registry is nou niet bepaald gebruikersvriendelijk; simpel gezegd)

Ow ja, je merkt het niet dus "who carez" |:(
Dus als jij je monitor op 100hz zet, en hij maar maar 80hz ....who carez ? De meesten zien het toch niet, sommigen dus wel. Sommigen zien ook die mindere kwaliteit van je game.
Hoezo? De keus wordt je niet ontnomen, gewoon is wat gaan rondneuzen in de driverinstellingen, daar staat dat wel bij... (LOD)

En dat die mipmap levels ietsiepietsie lager zijn als de concurrentie, je merkt dat toch niet tegen 100 fps :)
nouja dat is niet cheaten, het is een manier om slimmer om te gaan met textures.
Pardon ?

Als het om iets tastbaarders dan grafische kwalitiet zou gaan, zou je dit zeker niet zeggen. Zie het als een het verschil tussen een auto dit perfect in orde is, of een nieuwe die al roest vertoont in de showroom.

nVidia heeft gewoon de kwaliteit naar beneden bij gesteld, om een zo hoog mogelijke score te verkrijgen. Op deze manier is er om te beginnen geen fatsoenlijk vergelijk meer te maken tussen verschillende kaarten. Omdat de één domweg puur voor max framerate gaat, ongeacht de kwaliteit, en de ander toch nog probeerd een product neer te zetten dat werklijk kwaliteit biedt.

edit:

Pro-ATi ......... en dat wordt dan gezegd tegen een man met uitsluitend nVidia in zijn machines. Het is op zich al erg triest dat je niet eens meer een objectief commentaar mag hebben. Je wordt dan direct afgeschoten als zijnde de tegenpartij. Ga es bij jezelf te rade, voor je een ander in een hokje plaatst.

nVidia doet er gewoon alles aan om leuke cijfertjes te presenteren, en als dat ten koste gaat van de kwaliteit, moet dat natuurlijk goedgepraat worden |:(
Mja zoals al in het bovenstaande commentaar staat; er is geen referentiepunt en ook geen standaard qua mipmapping, dus je kunt alleen maar zeggen dat ati een iets beter beeld neerzet, niet dat nvidia cheat, daarnaast is het relevant in welke mate je er echt iets van merkt als je een spel aan het spelen bent.

En voor nvidia maakt het neem ik aan weinig uit wat men ervan vind, het is voor hun in de huidige pro-ati sfeer al praktisch onmogelijk om nog iets goed te doen.
*zucht* *diepe zucht*
Eerst beweren dat er geen referentie punt is, en wanneer je te horen krijgt dat dat er wel is ga je je afvragen of dat referentiepunt zin heeft. Typische fanboy reactie.

Een referentie is er maar voor 1 doel: referentie zijn.
Er is ook maar 1 nut van een referentie. Namelijk kijken of iemand er van afwijkt.

Een videokaart hoort netjes af te doen wat de applicatie van 'm vraagt. Dat kan je controleren met die referentie.

Zodra een kaart dat niet doet dan heb je te maken met ongewenste optimalisaties. Dit soort optimalisaties waarbij kwaliteit wordt opgeofferd aan snelheid moet je namelijk als optie aan de gebruiker geven. Je had hier namelijk ook een checkbox voor in de driver kunnen zetten: "de checkbox activeert veranderingen in het spel die je waarschijnlijk niet kunt zien maar waardoor het spel ietsje sneller loopt"

Of die optimalisatie duidelijk te zien is in een spel is op dat moment nog helemaal niet aan de orde. Het gaat er hier alleen maar om dat Nvidia wederom niet afbeeld wat de applicatie vraagt.

Een andere discussie is dan vervolgens hoe erg je dat kan zien, hoeveel snelheidswinst het geeft en of dat dan de moeite waard is.
Het stomme is dat bv MaxPayne helemaal geen zware eisen aan je videokaart stelt. Daarom is de snelheidswinst nooit nodig en is zo'n verandering helemaal niet nodig.
Maar of het wel of niet te zien is is nogal persoonlijk. Bovendien is het verschil in mipmap levels i.h.a. slecht te zien in screenshots en valt het veel harder op in bewegende beelden.

Maar afgezien dat je het artikel pas gelezen hebt toen ik je op de referentie heb gewezen heb je blijkbaar ook mijn reactie niet goed gelezen.
Ik heb namelijk nooit beweerd dat dit veel impact heeft op de beeldkwaliteit. Ik heb ook nooit beweerd dat dat niet beschreven staat in het artikel. Het is me dus een raadsel hoe jij kan beweren dat ik het artikel niet goed gelezen zou kunnen hebben.

(Sterker nog, in andere reacties heb ik al aangegeven dat ik dit gewoon een erg domme zet van Nvidia vind. Op deze manier rommelen met de mipmap nivo's heeft weinig invloed op zowel beeld als prestatie en is daarom zinloos. Het geeft alleen maar aan dat je als bedrijf het nog steeds geen probleem vind om iets anders af te beelden dan waarom de applicatie vraagt. Als je concurentie sneller is dan kan ik dat nog begrijpen, maar op dit moment is het onnodig en schadelijk voor hun reputatie zonder dat het ze winst kan opleveren).
Het is voor Nvidia heel makkelijk om iets goeds te doen. Gewoon netjes de beelden renderen zoals de applicaties dat vragen.

Het leek er op dat Nvidia dat eindelijk had gedaan, maar nu blijkt dus toch weer van niet. Doordat ze al zo vaak de boel belazerd hebben wordt daar nu inderdaad heftiger op gereageerd dan vroeger. Met name omdat het nu zo onnodig lijkt omdat de 6800 erg snel lijkt te zijn. Maar blijkbaar is Nvidia daar zelf niet zo van overtuigd.

Er is wel een referentiepunt. Dat referentiepunt is namelijk gebruikt in de review en daar wordt steeds mee vergeleken. (Je hebt duidelijk niet eens de moeite genomen de review te lezen voor je je commentaar gaf)
Waar het om gaat is of dat referentiepunt in de review zin heeft, maw: maakt het wat uit als nvidia daarvan afwijkt?

Met de referentie "kwaliteit" die futuremark aangeeft is natuurlijk wel handig voor puur technische vergelijkingen maar waar het uiteindelijk om gaat is de kwaliteit die ik te zien krijg (en nergens blijkt dat deze per definitie absoluut slechter zou zijn)
[..] You’d be hard pushed to say which image is optimised with the mipmap square.
To me though, its not a matter of what I can see so much as the fact that this changing of textures is happening behind the users back.
Wat dus al aangeeft dat het verschil (iig in max payne 2) niet te zien is en dat de persoon die dat artikel schreef gewoon een stok zoekt om nvidia mee te slaan

schijnbaar was ik dus niet degene die het artikel niet gelezen had ;)
Roest betekend dat er wat mis is met de auto, lagere mipmap settings is gewoon een instelling, het doet verder geen afbraak aan de kaart.

Dit is naar mijn mening een olifant van een vlieg maken...
ja, en aimbot is een manier om slimmer iemand dood te schieten. Cheaten vind ik een groot woord dat zeg ik niet, maar feiten zijn feiten, en met mindere kwaliteit textures zijn/kunnen er meer frames gerederd worden.
Dit is zou je trouwens kunnen vertalen naar de normale processor industrie. Amd voert meer berekeningen per clockpuls uit. dan Intel. Dat wil niet zeggen dat intel echt slechter is. maar ze komen op een andere manier aan de snelheid.

Daarbij komt dat dit de nieuwe kaarten van nvidia zijn. en dus sneller zouden moeten zijn. Je hoort het echter wel te noemen vind ik.
Het probleem in deze is dat de snelheid meestal veel meer gebenched wordt. Dus moeten ze bij die benchmarks de ati kaart ook ongeveer op die grafische intellingen laten draaien. Dan heb je een eerlijke vergelijking.

Je gaat toch ook niet de ene kaart op 800x600 benchen en dat tegenover de andere kaart op 1024*768. En dan zeggen: he kaart A is sneller!
Het Cheaten over textures etc. in het nederlands:

Er is een zogenaamde REFERENCE IMAGE die in software DirectX modes wordt gemaakt.
Dit is een frame wat de AFGESPROKEN regels met betrekking tot texturing in DirectX weergeeft.

Vervolgens wordt ditzelfde frame bekeken op een ATI en NVIDIA kaart bekeken.

Wat blijkt nu, ATI blijft in (zover ik kan zien) bijna alle gevallen trouw aan de DirectX standaard met betrekking tot het renderen van de tectures.
Nvidia daarintegen gebruikt veel onnauwkeurigere textures en dientengevolge is het mogelijk om meer textures te verwerken dan andere kaarten.
Als het alleen snelheid zou zijn was het geen probleem, maar de Nvidia kaarten hebben een duidelijk verlies van beelkwaliteit ten opzichte van DirectX/ATI en DAT is hetgene wat hier aan de kaak gesteld wordt.

Wat de mensen van driverheaven tegen het zere been schopt is dat de hogere snelheid dat men in eerste instantie ervaart teniet wordt gedaan dat deze kaart vele malen duurder is dan een vorige generatie kaarten, wel sneller maar qua beeldkwaliteit nog steeds niet voldoet aan de KWALITEITSEISEN die gesteld zijn door Microsoft in hun DirectX architectuur.

Afwijken van de DirectX standaard is in mijn visie \\\\\\\"cheaten.\\\\\\\"

Het feit dat textures met 20 tot 30 procent minder precisie worden gerendered laten zien dat Nvidia puur het hoofd van de pubers op hol wil brengen door frames te pushen terwijl mensen die dachten voor hun 400 euri een nieuwe ervaring te hebben bedrogen uit de bus komen.

Vergeet niet dat hun PS3 tegen PS2 presentatie ook al niet reeel was, al hun presentaties waren in PS2.X en men vergeleek het met PS1.1, wederom een duidelijk feit van manipulatie van Nvidia...
maarja,
ik heb nu een 9800XT en ik vind dat de PS 2.0 effecten in Far Cry alles maken als of het in glimmend centimeter dik krimpfoli is verpakt.
Daarintegen zagen de screenshots gemaakt met de nieuwe 6800Ultra er realistiser uit, minder glimmend...
Ik zie het niet als cheaten. Zoals gezegd : er is geen standaard die gevolg dient te worden, dus mag nVIDIa deze keuze maken. Aan de klant uiteindelijk om te kiezen voor de snelheid of de kwaliteit.
MAAR, hun beeld qualitijd is wel lager als de referentie renden van Direct X.
wil je aan de direct X standaart voldoen moet je eigenlijk wel minstens die qualitijd halen, anders ben je idd de boel aan het belazeren imo.
ATI haalt ook niet de kwaliteit die ze zouden moeten halen volgens de directx standaard, dus met andere woorden wil je zeggen dat ze ons beiden belazeren?

Ik ben van mening dat als ik een spelletje aan het spelen ben dat alles zo soepel mogenlijk moet lopen zodat je zo snel mogenlijk kan reageren op de tegenstander.
Dat ik hiervoor wat aan kwaliteit moet inleveren vind ik minder erg dan dat alles maar schokkerig beweegt.
Zodra ELK spel soepel loopt met de kaarten die er zijn ga ik voor kwaliteit kiezen, maar voorlopig....
Ik weet in ieder geval dat nVidia geen slechte kaart levert met de 6800 Ultra, wat betreft preformance zijn ze in ieder geval weer op het goede spoor.
En zeg nou zelf jongens, velen zijn toch ook tevreden met hun onboard audio kaartje, terwijl er genoeg kaarten zijn die veel betere kwaliteit leveren.
Just my 2 cents.....

Edit:
@mjtdevries: In de review kun je zien dat ATI de kwaliteit niet haalt, het zit er wel heel dicht tegenaan, maar hij haalt het dus niet naar mijn mening (en dit zie ik zelfs op mijn laptop die maar 16-bit kleuren ondersteund op de resolutie die ik nu gebruik).
Maar dit is bij alles het geval, je moet ALTIJD inleveren op kwaliteit, en je zult NOOIT alles zien en horen zoals het bedoeld was, behalve dan op de plek waar het gemaakt is.
Je moet het een beetje met audio vergelijken, je hebt daar ook met de kwaliteit van je apparatuur te maken, en dit is immers nooit hetzelfde als in de studio, er is namelijk alijd een verschil.
@DannyVersluis?

Waar haal je het vandaan dat ATI de kwaliteit van de directx standaard niet haalt??
Hun resultaten voldoen immers keurig aan de reference.

Dat jij zelf van mening bent dat alles zo soepel mogelijk moet lopen en dat daar best kwaliteit voor ingeleverd mag worden doet totaal niet ter zake.

Die keus moet aan de gebruiker liggen en niet aan de fabrikant van de videokaart. Er zijn in de kwaliteitsinstellingen van de spellen en videokaarten legio opties om de kwaliteit omlaag te halen en de snelheid te verhogen.

Als NVidia de boel netjes afbeeldt zoals het hoort dan kan jij dus gewoon zelf de kwaliteit iets omlaag halen zodat jij tevreden kan zijn.
Als Nvidia zoals nu de boel niet netjes afbeeldt, dan heeft iemand niet de kans de kwaliteit hoger te zetten omdat alles al op de hoogste stand staat in de drivers.
Die Q3 bug bij ATI toen (is al lang aangetoont dat het geen cheat was) was zodanig groot dat GEEN ENKELE review site toen gemerkt heeft dat de kwaliteit van een vijftal textures verminderd was.

Nvidia heeft een review site er op moeten wijzen, en toen die daar een artikel over heeft gemaakt viel het de rest pas op.

Bij de volgende driverversie was het verholpen zonder dat het performance kostte.

Ik vind dit oerstom van Nvidia. Dat mipmap gerommel levert wel wat prestatie op, maar ook weer niet zo gek veel. Erg veel verschil in beeldkwaliteit heb je daardoor ook niet.
Maar ondertussen halen ze wel weer hun eigen naam door het slijk door opnieuw niet af te beelden wat de applicatie vraagt, en opnieuw zwaar af te wijken van de referentie. Een totaal overbodig en domme actie van ze.
Tuurlijk, het is logisch dat je kwaliteit wil inleveren voor extra performance. Maar dat doe je dan toch zelf met de hand van 'high' naar 'medium' bijvoorbeeld?

Het is gewoon not done dat een fabrikant voor mij bepaalt dat als ik 'high' wil gewoon 'medium' krijg
Het is gewoon not done dat een fabrikant voor mij bepaalt dat als ik 'high' wil gewoon 'medium' krijg
Maar dat is ook niet het geval, je krijgt dan een mindere/andere kwaliteit als bij ati en het is maar de vraag of dat waarneembaar is, het is niet zoals toen ati in zijn drivers had ingebouwd dat de kwaliteit van de textures in q3 gedownsampled moesten worden.

Regelmatig verschilt de kwaliteit van de implementatie van features per fabrikant, maar alleen bij nvidia is dat cheaten schijnbaar
ATI haalt wel degelijk de kwaliteit die ze moeten halen volgens de DirectX standaard!

De software reference rasterer werkt compleet in FP32 voor full precision. Maar de DX-9 standaard vereist slechts FP24 full precision!

Daarom dat de ATI rendering die FP24 gebruikt best op zeer kleine details kan afwijken van de reference zonder dat ze daarmee niet meer aan de DX-9 vereisten voldoen.
Dit in tegenstelling tot de NV40 die geen FP24 mode heeft, en net zoals de reference in FP32 werkt voor full-precision. Die zou in principe 100% gelijk moeten zijn.
Die Q3 bug bij ATI toen (is al lang aangetoont dat het geen cheat was) was zodanig groot dat GEEN ENKELE review site toen gemerkt heeft dat de kwaliteit van een vijftal textures verminderd was.
Gek, het was destijds volgens mij al zonder nvidia's tussenkomst naar buiten gekomen, en hoewel ati het een ongelukje noemde (ze "optimaliseerde" toen al per applicatie maar dat ging bij de max details in q3 volgens hun schijnbaar mis door een "foutje"), was leek het toch wel opzettelijk (de viewpoints van de mipmaps lagen wel heel dicht bij de speler)
Maar ja, of iets een optimalisatie/foutje of cheat is hangt nog steeds af van je merknaampje natuurlijk ;)
Nee. Ga de boel maar eens nazoeken als je daar zin in hebt. De review site die dit verhaal naar buiten heeft gebracht is getipt door Nvidia. (hun PR man IIRC)

Dat maakt mij verder niet zoveel uit, veel belangrijker is dat er niet gecheat wordt, maar het geeft wel aan dat het verschil niet zo groot was dat het de review sites zelf is opgevallen.

Maar je probeert nu de discussie te verwateren door te beweren dat de naam cheat of optimalisatie van de merknaam afhangt. Maar dat is gewoon onzin. Ik heb het een bug genoemd. De reden daarvoor is simpel: Het is zonder snelheidsverlies gefixed in de eerstvolgende driver versie.

Noem jij eens een optimalisatie of cheat van een bedrijf waarbij je de optimalisatie of cheat uit kunt zetten zonder dat de prestaties omlaag gaan.
En dan mag je zelf uitkiezen wel merknaampje je bij wilt kijken.
qualitijd
offtopic:
Gefeliciteerd! U bent er in geslaagd om 4 spelfouten in 1 woord te maken! }:O
Gaat u door voor de koelkast? ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True