Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: Extremetech, submitter: Pubbert

Eergisteren heeft Extremetech een review gepost waarin de nVidia GeForceFX 5900 Ultra het tegen de ATi Radeon 9800 Pro moet opnemen. Uit de benchmarks blijkt dat de performance van de Radeon 9800 Pro en de GeForceFX 5900 Ultra in de 3D GameGauge 3.0 test van Extremetech nagenoeg gelijk zijn. Deze test bestaat uit het meten van de snelheid van grafische kaart met behulp van de volgende spellen:

  • Comanche 4 (Direct3D)
  • Dungeon Siege (Direct3D)
  • IL-2 Sturmovik (OpenGL)
  • Jedi Knight II (OpenGL)
  • NASCAR 2002 (Direct3D)
  • NHL 2002 (Direct3D)
  • Serious Sam SE (OpenGL)
  • Unreal Tournament 2003 (Direct3D)

Maar als er gebruik wordt gemaakt van FutureMark's 3DMark 2003 om de snelheid van de kaarten te testen, dan is het de GeForceFX 5900 Ultra die wint. Reden genoeg om op onderzoek uit te gaan om uit te vinden waarom de GeForceFX 5900 Ultra sneller is dan de Radeon 9800 Pro onder deze synthetische benchmark.

Uit het onderzoek blijkt dat de hogere scores van de 5900 Ultra vooral te wijten zijn aan de 44.03 DetonatorFX driver. Volgens Extremetech zouden de drivers geoptimaliseerd zijn voor 3DMark 2003. Extremetech bezit een speciale versie van 3DMark 2003 die het mogelijk maakt om een scene stop te zetten en dan vrij de camera te bewegen. Normaal gesproken zou een scene dan vanuit een andere hoek correct gerenderd moeten worden, maar de GeForceFX 5900 Ultra rendert het geheel fout zoals je kunt zien op de bijstaande afbeelding. Volgens Extremetech heeft nVidia statische scenes uit 3DMark in hun drivers verweven om zo het renderen sneller uit te kunnen voeren. Uiteraard heeft Extremetech contact opgenomen met nVidia die antwoorden dat er waarschijnlijk een bug zit in de 44.03 drivers.

GeForce FX 5900 Ultra 3DMark 2003 fouten

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (86)

Ik geloof dat een heleboel mensen totaal niet begrijpen wat er aan de hand is. (en blijkbaar de pagina's bij extremetech niet hebben gelezen)

Het is doodnormaal voor een driver om uit te zoeken welke delen wel en niet in beeld komen, en op basis daarvan alleen de delen die in beeld komen te renderen. (Dan doen alle drivers). Dat optimaliseren is niets mis mee. Dat is alleen maar toe te juichen.

Maar wat Nvidia gedaan heeft is heel iets anders! In een spel moet een driver realtime bepalen welke delen wel en niet in beeld komen. Nvidia heeft nu echter een driver gemaakt die dat bij een benchmark niet realtime hoeft te bepalen. Aangezien ze van te voren weten welke route de camera neemt hoeft de driver niet meer realtime te bepalen wat wel en niet in beeld komt. Dat scheelt de driver dus een boel werk en levert prestatiewinst.

Alleen is hier dus absoluut geen sprake van optimalisatie. Dit truukje is niet te gebruiken in spellen omdat je daar niet van te voren weet welke route de camera neemt. Die bestuur jij immers zelf.
Het is een truukje dat alleen maar werkt bij die ene benchmark en dus compleet nutteloos is voor jou als gebruiker.

Verder zegt het ook helemaal niets over de validiteit van 3DMark03.
Deze manier van vals spelen is bij elke benchmark te gebruiken die gebruikt maakt van een vaste camera route. En dat betekent dus dat ook alle timedemo's hier onder vallen.

Juist omdat je een benchmark reproduceerbaar wilt houden gebruik je vaste routes, zodat elke kaart altijd hetzelfde werk te doen heeft.

Op deze manier maakt Nvidia elke benchmark waardeloos.
Denk even na wat dat betekent: Elke benchmark die je de laatste dagen hebt bekeken kan dus op deze manier gemanipuleerd zijn!!

En aangezien deze truuk in spellen niet te gebruiken is kan je daardoor heel erg teleurgesteld worden in de werkelijke prestaties in spellen.

Hoe wil je dan nog gaan bepalen welke videokaart je het beste kan kopen?

De enige manier om dit te voorkomen is door op een hele andere manier benchmarks uit te voeren:
En dat is namelijk door bij elke review een andere timedemo opnemen. Op die manier is de route van de camera niet van te voren bekend en kan dat niet misbruikt worden door de fabrikanten.

Ik hoop dat nu wat duidelijker is wat NVidia gedaan heeft, en waarom het zo erg is.

(Wat dat betreft was de ATI quake truuk nog wat minder erg. Dat haalde de prestaties omhoog ten koste van de beeldkwaliteit. Maar het werkte in de spellen op dezelfde manier door als in de benchmarks.
In die zin kreeg je met die benchmarks geen valse informatie, zolang de reviewer maar het verschil in beeldkwaliteit duidelijk maakte.)
Ik vraag me af waaruit jij concludeert dat die "truc" niet te gebruiken is in spellen. Ik durf te stellen dat die "truc" zo ongeveer de eerste optimalisatie was die fabrikanten van spellen (en later met de introductie van T&L ook de fabrikanten van 3d-hardware) hebben uitgevonden. Ze krijgen een scene binnen, transformeren die zodat ze weten hoe hij op het scherm moet komen te staan om een bepaald camerastandpunt te simuleren, en gooien vervolgens de polygonen die niet zichtbaar zijn weg. Alles wat aan de achterkant van de camera ligt bijvoorbeeld.

Dat is de meest simpele vorm, maar de mensen bij nVidia en ATi zullen dit ongetwijfeld beter hebben uitgewerkt in hun strijd tegen bandbreedtetekorten, waardoor ze ook hele stukken boven, onder, links, rechts en "achter de muren" t.o.v. van de camera niet hoeven te renderen. Zulke technieken worden op alle chipsets van alle fabrikanten gebruikt, daar hoeft het camerapad niet voor bekend te zijn hoor. Dat deze bug zichtbaar wordt een developer release van 3dMark; pech. nVidia doet niet mee aan het beta-programma en had het dus niet kunnen fixen.

In één ding heb je wel gelijk, en dat is dat 3dMark een waardeloze maatstaaf is. Als mensen er zoveel waarde aan hechten dat ieder bugje gebombardeerd wordt tot een schandaal dan is er iets niet goed.

Zie ook deze reactie.
volgens mij haal je 2 dingen door elkaar. Deze optimalisaties gebeuren VOORDAT de z-buffer checks etc in het spel komen. En heeft dus niets met hardwarematige dingen te maken.

Er wordt bijvoorbeeld gekeken of er een object wat zich in de scene bevind OOIT gerenderd wordt, is dit niet dan wordt het gewoon weggelaten. Dit wordt dus niet per frame gedaan.

Ik stel voor dat je de discussie op de sites zoald beyond3d volgt, daar staat veel handige informatie in.
Yep, wouter haalt de zaken door elkaar. Probleem is nml. dat de GPU nooit kan weten wat het camerapunt is, wat ie niet KAN weten KAN die dus ook nooit vantevoren uit een of ander buffer ophalen.
Bij 3Dmark kunnen ze dat WEL, juist omdat hetzelfde stukje 100% hetzelfde word afgespeelt met precies dezelfde camera-punten.

Capiche?
Ze krijgen een scene binnen, transformeren die zodat ze weten hoe hij op het scherm moet komen te staan om een bepaald camerastandpunt te simuleren, en gooien vervolgens de polygonen die niet zichtbaar zijn weg
leuke is dat dit met deze drivers dus niet zo hoeft te gebeuren omdat alles al bekend is wat gerenderd hoeft te worden....
Ik durf te stellen dat die "truc" zo ongeveer de eerste optimalisatie was die fabrikanten van spellen (en later met de introductie van T&L ook de fabrikanten van 3d-hardware) hebben uitgevonden.
Dat is iets heel anders dan wat hier het geval is. Wat jij beschrijft is een dynamisch proces, de GPU / CPU bepalen welke objecten er wel of niet op het scherm worden gezet. Dat kost power. nVidia wordt er van verdacht deze informatie mee te geven zodat die niet berekend hoeft te worden. Dit kan alleen omdat het pad dat de camera doorloopt is gegeven. Softwarenatig is dus vooraf al bepaald wat er wel en niet te zien zal zijn, iets wat een andere CPU/GPU dus rekenkracht kost om daar achter te komen.
Maar dan zou je dit probleem dus kunnen afvangen (als benchmark-maker zijnde) door een algoritme te ontwerpen dat een random camera-route genereerd. Hierdoor denk ik dat je dus een nauwkeuriger test draait omdat het meer overeenkomt met het gewone gamen, dan doe je (zoals eerder gezegd) ook elke keer iets anders
Je moet oppassen met het berekenen van random routes. Als je namelijk random routes gaat berekenen, betekent dit dat de ene route een andere belasting voor de grafische kaart oplevert dan een andere route (omdat er bijvoorbeeld meer of minder objecten in beeld komen). Op deze manier zijn de scores van de benchmark niet meer onderling te vergelijken.
Ja, het is tegenwoordig steeds moeilijker om objectief de snelheid van een kaart te bepalen aangezien dit met een driveraanpassing al zogenaamd beter kan worden. Hierdoor rijst ook de vraag: Wanneer is iets echt snel? Het optimaliseren van de drivers voor 3dmark lijkt misschien valsspelen, maar het is zoals het woord optimaliseren al zegt een manier om er beter uit te komen. (Waarom zou je bijvoorbeeld in 128 bit kleuren renderen als het programma toch maar 32 bit gebruikt(is maar een voorbeeld), is dit dan valsspelen?) Ik denk niet dat dit een manier van valsspelen is. Het uitzetten van effecten vind ik dan weer wel valsspelen.

Misschien moet ati dan ook maar een 3dmark driver maken die geoptimaliseerd is en dan de performance vergelijken.

Maar het begint er ook een beetje op te lijken dat mensen onderhand wel erg sceptisch worden en bijna paranoïde zijn om te accepteren dat Nvidia weer sneller is.

En uit andere reviews komt de 5900 Ultra bij de meeste games juist wel weer (iets) sneller eruit. Maar dit hing ook al vaak af van de processor. Overklokte systemen gaven een groter verschil in het voordeel van Nvidia.

Ook was het zo dat met de oude drivers versie 42 de 5800 ongeveer gelijk presteerde met de 9700 van ati. Met de nieuwe geheugenbus lijkt het me sowieso waarschijnlijk dat de 5900 gewoon gelijk of beter presteert dan de 9800 van ati.
Waarom zou je bijvoorbeeld in 128 bit kleuren renderen als het programma toch maar 32 bit gebruikt(is maar een voorbeeld), is dit dan valsspelen?
Wel als je zegt dat alle rendering op 128bit plaatsvind en je vervolgens valsspeelt door bepaalde dingen in 32bit te doen. (zou net zoiets zijn als een prijs van 128 euro per stuk afspreken met een winkel en vervolgens de pallet met artikelen opeissen voor 32 euro per stuk...
Het is jammer dat een goed benchmark programma voor zoiets misbruikt wordt.
Als je de benchmarks een beetje volgt, kun je ook concluderen dat 3DMark al een behoorlijke tijd pro-nVidia is (ten koste van beeldkwaliteit) en steeds meer af gaat wijken van alternatieve benchmarks die claimen meer met reallife situaties overeen te komen.
Als je de standaardbenchmark van 3dMark wilt voorbij streven op de in dit artikel genoemde manier, kun je net zo goed die vaste scene's in high-quality vóór-renderen en die vervolgens met Mediaplayer op xxxxx frames/sec afspelen... Is dat eerlijk? Nee, want spellen zijn interactief en altijd slightly anders in tegenstelling tot films die bij elke rewind hetzelfde laten zien...
Het niet renderen van gedeeltes is niet erg, dat zijn gewone standaard optimalistaies. Wat nvidia hier doet is doordat de drivers weten wat er gaat gebeuren. (3dmark volgt in de 3d scene altijd dezelfde route.) Hoeven ze bepaalde delen niet te renderen. Dus als je gebruik maar van vrij om je heen kijken (zoals eigelijk een 3d scene tijdens een spel altijd is.) dan werkt het niet meer.
Oftwel ze geven een beeld van performance die niet overeen komt met de werkelijkheid...
maar dan zou je voor ieder spel. Of iig iedere engine andere drivers moeten installeren. Dit is de consument mislijden. valse informatie verstrekken.Dit moet strafbaar worden gesteld als het iig te bewijzen is dat dit zo is. Als de volgende drivers dit ook nog hebben dan kan het dus zo zijn dat vanaf die drivers die test erg snel is. Het is jammer dat een goed benchmark programma voor zoiets misbruikt wordt.
hij sowieso iets sneller
kijk maar op THG daar is ook getest in spellen en andere tests en daarbij kan je niet vals spelen

http://www6.tomshardware.com/graphic/20030512/index.html
Dat is nou juist het punt. Ook in die tests kan je vals spelen.

Elke timedemo is net zo gevoelig voor dit soort valsspelen als 3DMark03.

Wat Nvidia gedaan heeft is gebruik maken van het feit dat je van te voren weet route de camera neemt en welke objecten wel of niet in beeld komen. Met die voorinformatie kan je dan je winst behalen.
Bij een timedemo geldt precies hetzelfde. De route van de camera ligt daar immers ook vast.

M.a.w. al die benchmarks bij Tom kunnen op exact dezelfde manier gemanipuleerd zijn.
ik vind het verschil in serious sam opvallend. Hier is de 9800 pro sneller. Bij tom's hardware guide is de 5900 ultra sneller.

ok foutje met kijken maar minder sneller als hij tom.
En wederom blijkt; 3Dmark2003 is géén goede test. Er wordt te weinig in getest, onder andere het ontbreken van OpenGL (wat ik toch eigenlijk kies boven D3D als de optie er is), en het feit dat de tests nep zijn; ze geven niet weer wat echt reële in-game benche's zijn. Bijvoorbeeld een AI wat het CPU usage naar 100% sleept...

Die gamegauge lijkt me een 1000% (duizend) betere test, er wordt immers in getest met meerdere spellen, meerdere API's, en meerdere "soorten" spellen (strategy, helicopter, adventure, FPS...)
Het heeft niets te maken met 3DMark of een API of wat voor soort spel het is.

Een benchmark heeft altijd een vaste cameraroute om de benchmark reproduceerbaar te maken. Elke benchmark die hierop gebaseerd is kan op dezelfde manier gemanipuleerd worden als nu met 3DMark is gebeurd.

Dus ook UT2003, ook Serious Sam, QuakeIII, Jedi Knight 2 etc etc.

Het enige punt is dat het veel werk kost om zo'n cheat te bouwen, dus je doet het alleen in de heel erg veel gebruikte benchmarks.
Dus 3DMark UT2003, Serious Sam etc etc.

Je doet het niet in NHL2002 en Nascar2002 wat door bijna geen enkele site gebruikt wordt.

En kijk nu nog eens naar die gamegauge. In de bekende benchmarks scoort de FX 5900 Ultra goed, en in de weinig gebruikte benchmarks scoort ie relatief slecht. In NHL en Nascar zelfs lager dan de Radeon 9800.

In hoeverre kan je ze nou nog vertrouwen? Zijn de drivers van Nvidia nu gewoon geoptimaliseerd voor de veel gebruikte benchmarks, of zijn die benchmarks gemanipuleerd.
Durf iemand er op dit moment nog een harde uitspraak over te doen?

Moet je wellicht alleen nog maar de weinig gebruikte benchmarks vertrouwen?
Dat zou dan wel een compleet andere beeld van de prestaties van de 5900 tov de 9800 geven.
ik hoor nu (zoals veel vaker) weer de kreet marketing vallen....

dat vind ik heel jammer, want marketing gaat veel verder dan alleen winst maken voor het bedrijf over de ruggen van eerlijke consumenten (mits de marketing afdeling eerlijk gepositioneerd wordt uiteraard)...

De marketing afdeling van een bedrijf probeert heus niet alleen maar klanten of prospects (al dan niet op slinkse wijze) zover te krijgen om een bepaald product te kopen!

Marketing draait in principe om het op winstgevende wijze wijze een product aan te bieden dat volstrekt aan de vraag en de eisen uit de markt voldoet.

Nou, ik heb liever een goed presterende videokaart dan dat ik een videokaart heb die een hoge 3DMark score heeft! (jammer dat er een grote groep 3DMark n00bs zijn die denken dat hun score heilig is :z )
Ik ben toch echt benieuwd wat de reactie gaat worden. Als het nu ook al een 'sport' wordt om de benchmarkprogramma's om de tuin te leiden, en zo dus ook de consument, vraag ik mij af waarmee ze bij Nvidia mee bezig zijn.

Als dit werkelijk echt het geval is dan kan dit wel eens het einde zijn van de topstatus van Nividia, voor zover deze er nog was na de laatste chips van ATI.
Tijdje terug deed ATI hetzelfde, dat is inmiddels het gros weer vergeten. Maak je geen zorgen, over 2 maanden is iedereen dit akkefietje ook vergeten. Dit zal niets veranderen aan de status van nVidia denk ik hoor

http://www.tweakers.net/nieuws/18993/?highlight=ati+driver+quake
Tijdje terug deed ATI hetzelfde
een tijdje terug??? das al 1,5 jaar geleden man!
en daar zijn ze destijds al op afgestrafd en hebben ze verholpen. dus om daar nu NOG mee te komen is een beetje erg oude koeien uit de sloot halen he?
geeft wel aan dat mensen het dus blijkbaar NIET zo snel vergeten als je zelf zegt... ;)
Maak je geen zorgen, over 2 maanden is iedereen dit akkefietje ook vergeten.
maar aangezien Nvidia de laatste paar maanden al de hele tijd zulke "geoptimaliseerde" drivers uitbrengt zal het toch wel wat langer bij blijven.
Als het nu ook al een 'sport' wordt om de benchmarkprogramma's om de tuin te leiden

Het is al jaren een sport voor Intel. In de tijd dat AMD opkwam met hun processoren werd Intel er ook al van beschuldigd dat er een soort virus was welke voor een bepaalde benchmark icm een AMD proc extra loops/interupts genereerde om de AMD slecht te doen lijken.

Persoonlijk vind ik het ver gaan dat Nividia mogelijk scenes in de drivers heeft zitten.
Boeiend als die nieuwe driver is geoptimaliseerd voor 3dMark 2003. Die benchmark gebruikt alle belangrijke DirectX 9.0-features, en optimaliseren voor 3dMark 2003 verschilt dus bar weinig van gewoon optimaliseren voor DX9, behalve misschien dat specifieke API-calls wat meer prioriteit krijgen dan anderen. Aangezien 3dMark 2003 één van de weinige echte DX9-producten op de markt is, is het logisch dat nVidia daar naar kijkt om te zien welke functies belangrijk zijn en welke minder vaak gebruikt worden, omdat die trend waarschijnlijk ook in toekomstige spellen te zien zal zijn.

Toen NV30 te traag was in 3dMark 2003 had iedereen dat wel in de gaten, want toen werd er geroepen van: "ha kijk, ze ondersteunen DX9 niet goed, wat een oplichters", maar nu is NV35 snel in 3dMark en kan het ineens alleen maar komen door specifieke optimalisaties voor dat programma, en niet door generieke optimalisaties voor DX9. Ik kan verklappen dat nVidia's officiële standpunt over 3dMark met de komst van NV35 niet is veranderd; ze vinden het nog steeds een slechte benchmark. Maar dat betekent niet dat ze hun kaarten expres traag gaan houden in DX9.

Uit meer dan genoeg reviews is gebleken dat de FX 5900 in veel meer applicaties dan alleen 3dMark 2003 sneller is dan de Radeon 9800. Zowel in huidige als toekomstige games. Laat ze dus maar lekker optimaliseren zolang het ook voor normale spellen winst oplevert. Want laten we eerlijk zijn: of framerate nou bereikt wordt door driveroptimalisaties of door betere hardware, maakt voor de consument niets uit. Het eerste geval is zelfs beter, want dan profiteert de FX 5800 (en misschien zelfs GeForce4 en lager) er ook nog van.

De waarheid is natuurlijk dat beide methodes worden gebruikt om performance te verbeteren. Met de introductie van de programmeerbare GPU is de driver één van de belangrijkste factoren worden die de uiteindelijke prestaties van het product bepaald (zie AnandTech), dus het is niet meer dan logisch dat op dat gebied verbeteringen zijn aangebracht tijdens het ontwikkelen van NV35, en dat Detonator 44.03 dus voor significant betere prestaties zorgt dan een oude driver. De oude driver zal bijvoorbeeld geen gebruik maken van de extra pixelshadercapaciteit in NV35.
Volgens Extremetech heeft nVidia statische scenes uit 3DMark in hun drivers verweven om zo het renderen sneller uit te kunnen voeren.
Dat is gewoon onmogelijk. Je hebt honderden megabytes aan data nodig om die scenes op alle mogelijke kleurendieptes, resoluties, AA-settings etc. weer te kunnen geven, en dat zit allemaal in een driverpakketje van 18MB?
Toen NV30 te traag was in 3dMark 2003 had iedereen dat wel in de gaten, want toen werd er geroepen van: "ha kijk, ze ondersteunen DX9 niet goed, wat een oplichters",
Dit was dus heel iets anders, dat was omdat Nvidia 16bit per kanaal gebruikt ipv 24bit (wat het MINIMUM is voor DX9).
Want laten we eerlijk zijn: of framerate nou bereikt wordt door driveroptimalisaties of door betere hardware, maakt voor de consument niets uit. Het eerste geval is zelfs beter, want dan profiteert de FX 5800 (en misschien zelfs GeForce4 en lager) er ook nog van.
Dit soort optimalisaties zijn dus pure bedrog. In real life zullen deze driver helemaal niet sneller zijn. Er werd gezegd door allerlei sites dat deze nieuwe drivers 50% sneller zouden zijn. Nou ja in 3dmark 2002/2003 ja niet in spellen. Er zijn tests geweest en daarbij bleek dat de drivers ongeveer 1-2% sneller waren. Dat is dus consumenten bedrog.
Dat is gewoon onmogelijk. Je hebt honderden megabytes aan data nodig om die scenes op alle mogelijke kleurendieptes, resoluties, AA-settings etc. weer te kunnen geven, en dat zit allemaal in een driverpakketje van 18MB?
Dit is dus wel mogelijk, omdat bij een statische test het pad wat de camera aflegt bekend is. Hierdoor kunnen bijvoorbeeld speciale truukjes uitgehaald worden mbt extra planes om dingen af te schermen. Dit kost vrij weinig extra code, maar het kan wel degelijk extra snelheid opleveren bij z-buffer operaties. Daarnaast zag je al eerder dit soort dingen bij eerdere drivers, toen sprites niet gerenderd werden in 3dmark.
Dit was dus heel iets anders, dat was omdat Nvidia 16bit per kanaal gebruikt ipv 24bit (wat het MINIMUM is voor DX9).
Lekkere verdraaiing van de feiten zeg. De NV30 ondersteunde inderdaad geen 24 bits per kanaal, maar gebruikte in plaats daarvan 32 bits per kanaal. Da's toch wel even iets anders. De 16 bit-mode moet expliciet geactiveerd worden door de ontwikkelaar.
Dit soort optimalisaties zijn dus pure bedrog. In real life zullen deze driver helemaal niet sneller zijn. Er werd gezegd door allerlei sites dat deze nieuwe drivers 50% sneller zouden zijn. Nou ja in 3dmark 2002/2003 ja niet in spellen. Er zijn tests geweest en daarbij bleek dat de drivers ongeveer 1-2% sneller waren. Dat is dus consumenten bedrog.
Oh ze zullen niet sneller zijn? Ik geloof dat we allang hebben gezien dat ze sneller zijn. Het verschil in 3dMark is echt niet veel groter dan het verschil in spellen (3,6 ~ 4,0% ten opzichte van Detonator 43.45), en omdat 3dMark DX9 is en de meeste andere bechmarks DX8 en DX7 is het logisch dat bij de eerste meer winst kan worden gehaald, omdat voor de oudere versies al jaren wordt geoptimaliseerd en DX9 relatief nieuw is de nieuwe hardware met die API in het achterhoofd is gemaakt.
Dit is dus wel mogelijk, omdat bij een statische test het pad wat de camera aflegt bekend is. Hierdoor kunnen bijvoorbeeld speciale truukjes uitgehaald worden mbt extra planes om dingen af te schermen. Dit kost vrij weinig extra code, maar het kan wel degelijk extra snelheid opleveren bij z-buffer operaties. Daarnaast zag je al eerder dit soort dingen bij eerdere drivers, toen sprites niet gerenderd werden in 3dmark.
Weet je überhaubt wel waar je over praat? Een driver die extra planes opzet... klinkt als een misdaad, maar is toch vrij standaard gedrag. De applicatie is degene die de scene opbouwt, niet de driver. Aangezien van te voren niet bekend hoeveel frames per seconde er gedaan wordt kan de driver niet weten waar de camera zich in een bepaald frame bevindt. Dat wordt pas duidelijk na transformatie (de T in T&L), en zodra dat gebeurd is worden er altijd en door iedere fabrikant clipping planes aangebracht, al is het alleen maar om te voorkomen dat alles achter de camera gerenderd wordt. Het is goed mogelijk dat je die planes op het screenshot ziet, maar dat wil dus niet zeggen dat ze ALLEEN in 3dMark worden gebruikt of custom-designed zijn om de camerabewegingen van 3dMark te volgen. Zelfs ExtremeTech moet toegeven dat nVidia niet meedoet aan het beta-programma van 3dMark, en dus deze bug onmogelijk had kunnen vinden in de developer release.
Lekkere verdraaiing van de feiten zeg. De NV30 ondersteunde inderdaad geen 24 bits per kanaal, maar gebruikte in plaats daarvan 32 bits per kanaal. Da's toch wel even iets anders. De 16 bit-mode moet expliciet geactiveerd worden door de ontwikkelaar.
Nee de laatste drivers gebruiken dus 16bit en niet 24 of 32 bit per kanaal!! Dat is het juist, ze voldoen met de huidige drivers niet aan de minimum eis, omdat de 32bit functie NIET werkt, wanneer deze gebruikt wordt, wordt alles dus 16 bit berekend.
Weet je überhaubt wel waar je over praat? Een driver die extra planes opzet... klinkt als een misdaad, maar is toch vrij standaard gedrag. De applicatie is degene die de scene opbouwt, niet de driver. Aangezien van te voren niet bekend hoeveel frames per seconde er gedaan wordt kan de driver niet weten waar de camera zich in een bepaald frame bevindt. Dat wordt pas duidelijk na transformatie (de T in T&L), en zodra dat gebeurd is worden er altijd en door iedere fabrikant clipping planes aangebracht, al is het alleen maar om te voorkomen dat alles achter de camera gerenderd wordt. Het is goed mogelijk dat je die planes op het screenshot ziet, maar dat wil dus niet zeggen dat ze ALLEEN in 3dMark worden gebruikt of custom-designed zijn om de camerabewegingen van 3dMark te volgen. Zelfs ExtremeTech moet toegeven dat nVidia niet meedoet aan het beta-programma van 3dMark, en dus deze bug onmogelijk had kunnen vinden in de developer release.
pardon, ik weet HEEL goed waar ik over praat, en wat jij zegt dat drivers een plane opzetten normaal gedrag is :? , volgens mij weet je dan toch echt zelf niet waarover je praat. Als ik dus zelf in een driver dingen ga veranderen wat gerenderd wordt en dus niet wat het programma doorgeeft dan is dat niet normaal in mijn ogen. Wat ik probeer te zeggen is dat ze de performance proberen te verhogen in statische testen zodat ze in GEEN ENKEL opzicht nog overeenkomen met de reallife performance. De zaken die ze toevoegen in de drivers werken dus gewoonweg niet in echte spellen. EN DAT noem ik consumenten bedrog.
Iedereen kent hier vast wel het verhaal dat altijd de ronde ging over het feit dat ATI's drivers zo slecht zouden zijn. Vele mensen blijven dit nog steeds volhouden en nu krijgen we dit...
Kom op zeg, welke drivers zijn er hier nou waardeloos?

Tis sowieso waardeloos dat NVIDIA op zo'n manier wil winnen van ATI, NVIDIA heeft het nu echt gehad voor mij, *hier stond een scheldwoord wat is weggemod...*
Nu is het laf van Nvidia, morgen is het laf van Ati.. Zodra ze niet overtuigend sneller of net iets langzamer zijn dan de concurrent dan wordt er over het algemeen door bijna alle bedrijven vals gespeeld. En of dat dan zo slecht is voor het imago vraag ik me af. Het gros van de gebruikers gelooft het toch en de mensen die zich erin verdiepen (tweakers e.d.) is een dermate klein percentage. Daar verdienen ze hun boterham toch niet mee.

Dus maak er aub niet weer een vete tussen van: Ati is veel beter en stomme Nvidia. De geschiedenis heeft bewezen dat het ook precies andersom gebeurt.

Ik kan alleen maar zeggen, foei Nvidia voor deze stunt, maar dat ik daarom geen nvidia meer zou kopen?? Ok ik heb nu ati radeon (voor de eerste keer) in m'n compu zitten, maar ik roep niet dat ati of nvidia beter is.

Ik kijk gewoon naar prijs/kwaliteit verhouding en die was tijdens mijn aankoop toevallig iets beter bij Ati. Een jaar ervoor had ik een andere keuze gemaakt. Volgend jaar zien we wel weer.
Ok. Maar hoe wil jij nog de prijs/kwaliteit verhouding beoordelen als benchmarks op deze manier gemanipuleerd worden?
De performance van de kaart in de benchmark is op deze manier totaal niet maatgevend voor de performance in een spel. En dat wil je uiteindelijk toch weten.

Bij de cheat van ATI zat er tenminste geen verschil tussen de performance in benchmarks en spel. Daar wist je als je de reviews las nog wel waar je aan toe was. (meer performance, lagere beeldkwaliteit)
Dat weet je met deze stunt van Nvidia niet.
geen vaste benchmarks draaien, maar gewoon ingame even alleen voor die vergelijking een demo recorden en op beide testkaarten afspelen. De volgende keer dat je iets test weer iets anders maken, dan kunnen drivers niet aangepast worden op een fixed camera...

edit:

als ik het goed begrijp dan leest hij het opgenomen bestand uit en daardooor zou hij sneller zijn dan of niet? Dus er moet een verschil in zitten tussen het moment dat je het record en het moment dat je het weer afspeelt. Dus een camera op je beeld richten, opnemen en daarna de FPS vergelijken, of is dit een heel erg gek idee?
Er is toch wel een verschil tussen onofficiële versies van Nvidia drivers die in een noch voor Nvidia noch voor het grote publiek beschikbare beta test versie van een benchmark afwijkingen vertonen aan de ene kant, en release versies van de Radeon drivers die lange tijd bijvoorbeeld in Flight Simulator 2002 voor grafische afwijkingen zorgden aan de andere kant.
Het beschuldigen van nVidia van dubieuze optimalisaties door Extremetech is ongeloofwaardig omdat ze zelf een geoptimaliseerde,aangepaste versie van 3DMark 2003 gebruiken.
Er wordt met geen woord gerept over toestemming en publicatie in aanpassingen in 3DMark tussen Futuremark,hardwaretesters zoals Extremetech en fabrikanten in zulke tests.
Het enige wat belangrijk in de ogen van hardwaresites zou mogen zijn de driverprestaties over de gehele lijn,behalve 3DMark :)
ATI en nVidia worden,net zoals fps-junkies over 3DMark,overgeanaliseerd IMO.
Edit: Ik stoor me aan sommige overtrokken reakties als 'nVidiot' aan mijn adres maar er worden wel direkt dubieuze conclusies getrokken zonder erbij te vermelden dat juist nVidia langs de zijlijn mag toekijken bij Futuremark tests,Het staat immers nVidia vrij de drivers totaal maar dan ook totaal te manipuleren,ZIJ hebben immers 3DMark als geloofwaardige test afgezworen... 'overbodige' Europeaantjes.
Ze hebben doodeenvoudig de developer versie gebruikt die je meer mogelijkheden geeft.

Net zoals je ook een gratis versie hebt en een versie met meer mogelijkheden waarvoor je moet betalen. Is dat ineens ook een aangepaste versie die je ongeloofwaardig maakt?

Ze hebben gewoon een andere versie gebruikt, maar die versie kunnen alle andere review sites ook gewoon gebruiken. Exact dezelfde versie!

Ik zie dus ook totaal niet in waarom dit ze dan ongeloofwaardig zou maken.

Maar ja, een nvidiot in het nauw maakt rare sprongen nietwaar? :)
Als dit echt waar is lijkt me dit een zeer laffe actie van nVidia!
Maar ja t zal toch niet veel uitmaken uiteindelijk, vawege de verkoop van de lowend kaarten voor t grote publiek. Jan ... hoort hier toch nooit van.
Dit is niet laf, het is een kwestie van markteting. Wij als consument zijn zo dom om af te gaan op benchmarks van ieder vaag programma. Als een kaart goede scores haalt dan blijkt het een snelle videokaart te zijn. Nee eens te meer blijkt weer dat deze benchmarks gemanipuleerd kunnen worden en blijkbaar kopen consumenten dan zo'n kaart tsja, dat is net zoiets als afgaan op performance beweringen voordat een kaart grondig getest is.
Verstandiger is het om gewoon af te gaan op een aantal verschillende framerates van 'zware' games.
Tuurlijk is het wel laf. ATi heeft ooit eens een truuk uitgehaald met de textures van quake3 om een hogere performance te suggereren en dat was ook laf.. de boel neppen is laf.

Dat je niet alleen op 3Dmark af kan gaan is met 3Dmark2K3 wel duidelijk, maar 3Dmark2k1 was nog prima te vertrouwen.

GPU's zijn tegenwoordig zo complex \[bandbreedte, fillrate, shaders, texture compressie, etc] dat je je kan afvragen of je de performance nogwel kan weergeven in 1 getal. Als je de benchonderdelen niet goed weegt krijg je rare resultaten. En daarbij: de test en gewichten staan vast, maar de ene kaart presteert goed op feature A en de andere kaart op feat. B.
Er kunnen dus kaarten zijn die er slecht afkomen in 3Dmark maar in reallife best ok presteren.
Met een bench krijg je maar een heel beperkt beeld van realworld performance, zeker in zo'n beperkte test als 3Dmark.

Imho kan futuremark beter de performance anders gaan uitdrukken om dit soort ongein te voorkomen.

Verder is qua marketing dit gemanipuleer, mocht het allemaal waar blijken, erg dom. Het beschadigt je naam nogal.
BoesOne heeft gewoon''n zeer sterk punt.

Waarvoor diend 3Dmark en game gauge om prestatie van Grafiche hardware aan te tonen in games.

Als gamer speel je games en geen Benchmark als die bench suite andere resultaten geven dan de meeste games dan is er wat mis en geeft zo'n bench een fout beeld
Games die gebenched worden geven elk een fps getal je kan dus per game kijken als zo'n bench goed overeenkomt met de gemiddelde van alles wat er gebench kan worden dan is zo'n bench goed voor games die niet zo'n optie hebben.

Als dit waar is dan verliest 3Dmark2k3 zijn bench geloofwaardigheid door nVidia's actie omdat de resultaaten niet representatief zijn.

Ik speel games en als ik wel hogere FPS haal in mijn game met een kaart die volgens 3dmark wordt afgeslacht in 3dmark dan geeft 3Dmark foute informatie/conclusies over hardware waarop sommige mensen hun keuze baseren.

Dit is niet optimaliseren ten zij je optimaliseerd voor 3D gerenderde filmpjes Cutscene ipv game scence
dit is gewoon de consument misleiden en de concurentie onder de goedel pakken.
Aangezien 3Dmark voor gamescenes bedoeld is.

Ik zelf kijk al lang niet meer naar 3dmark scores.
Of kijk er wel naar maar hecht er niet zo'n grote waarde aan dat die aankopen beplaad.

Maar naar mijn favoriete game of gemiddelde van vele games en dan die die ik ook zelf speel dus Q3A niet.
Ghos Recon C4 weer wel. voor mij maakt deze zaak dus niet veel uit.

En ik speel ook veel niet benchbare games.
Maar pak dan het gemiddelde van alle games die in reviews voor komen wat ook een groffe benadering is.

Maar gezien de 3Dmark pats topics op forums hechten sommige er wel waarde aan wat ze juist niet moeten doen, maar je hebt nu eenmaal van die 3Dmark score geilerts.

in mijn ogen kunnen al die synthetische zooi afgeschaft worden en een standaart doorvoeren die elke game voorziet van bench mogelijkheden.

Dus reviews met de meeste populaire games zo'n top 30 stuks ofzo

Het voordeel van Game guage tov 3Dmark is dat deze gebasseerd is op een grotere groepje echte games
Alleen wordt 3Dmark veel meer gebruikt om te benchen.
daarom raadt Futuremark ook uitdrukkelijk aan alleen te benchen met WHQL-certified drivers... drivers die dingen weg laten of anderszins gek doen komen daar doorgaans niet door.
ook kun je DAAROM geen results meer uploaden als ze niet gemaakt zijn met WHQL drivers. (tenminste das de bedoeling). een compare-url zit er met zulke drivers dan ook niet in :)
nonsense...

het voordeel van 3D mark is juist dat het uitgedrukt wordt in een cijfer, dat de prestaties verschillen is waar, maar 3D mark probeert een gemiddeld beeld te geven, te testen en te wegen...

bovendien als de ene kaart beter op A presteert dan de andere maar de andere presteert dan weer op B beter dan op A, zullen de verschillen in het algemeen niet zo groot en eerder onbelangrijk, om de beste te worden in 3D mark moet je op alle vlakken goed presteren... dat vertaald zich dan naar een score

een beperkt beeld, no way dus...
Eigenlijk zouden ze dit soort "policies" moeten verbieden.

Door dit gedoe komt NVidia weer op de "2e plaats" te staan, niet dat de meeste mensen toch van plan waren de FX series te kopen daar deze kwa chipset zoveel slechter is dan de Radeon 9800 en de Pro hiervan.

Futuremark komt binnenkort trouwens ook weer met een nieuwe update voor 3dmark 2003!
Ook GameGauge is gevoelig voor dit soort truukjes. Als de videobakker wil vind ie altijd wel een weg om de boel te bedotten. Eerst die truuk met 16-bit FP-presicion en nou dit weer...
Ze weten van geen ophouden...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True