Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 114 reacties
Bron: ExtremeTech, submitter: Madrox

Op verschillende websites is de afgelopen week heftig gediscussieerd over de bewering van ExtremeTech dat nVidia in de nieuwste Detonator-drivers kunstmatig hoge scores haalt in 3DMark03. De GPU-fabrikant sprak van een fout in de drivers, maar ondertussen is een verklaring van Futuremark - de producent van 3DMark03 - verschenen waarin wordt gesproken van opzet. Tussen nVidia en Futuremark botert het al enige tijd niet, wat in december aanleiding was voor nVidia om als enige grote kaartenfabrikant Futuremark niet meer te ondersteunen.

Futuremark logoIn de verklaring van Futuremark worden acht manieren genoemd waarop nVidia de score zou hebben beïnvloed. Het gaat daarbij vooral om het niet renderen van scenes die zich net buiten het camerastandpunt bevinden en om het versimpelen van verschillende vertex shaders. In een nieuwe build van 3DMark03, waarin de cheats niet werken, daalt de score van de GeForceFX 5900 Ultra met 24,1 procent. nVidia heeft daarover aan Tom's Hardware Guide de volgende verklaring uitgegeven:

nVidia GeForce FX 5900 Ultra logo (klein)"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today."[break]Opvallend genoeg daalt ook de score van de Radeon 9800 Pro met de nieuwe build, zij het in veel kleinere mate - iets minder dat twee procent - en slechts in één test. Volgens ATi wordt er alleen gebruik gemaakt van een optimalisatie van twee shaders, waardoor de snelheid omhoog gaat zonder dat het invloed heeft op de beeldkwaliteit. Toch zullen de optimalisaties niet in de volgende driverrelease te vinden zijn:[/break]ATi logo (klein, mooi met drop)"The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST."

Lees meer over

Gerelateerde content

Alle gerelateerde content (32)
Moderatie-faq Wijzig weergave

Reacties (114)

"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in)..."

Even voor de duidelijkheid, de minimum kosten verbonden aan het meedoen aan het beta programma van 3dmark2k3 zijn 5000 dollar. De "honderduizenden" dollars die NVIDIA hier opgeeft nemen voor de handigheid ook gelijk de support en ontwikkelingskosten bij NVIDIA mee indien ze mee zouden doen aan het beta programma. Overigens zjin grote fabrikanten zoals bijv. Dell ook lid van het beta programma van Futuremark.
Tja, en zo heb je er 12 in een dozijn, zodat je als bedrijf dus in elk initiatief moet deelnemen?
Daarnaast zijn die kosten de entre kosten. Je zult als bedrijf ook mensen moeten inzetten en arbeidskosten gaan ontzettend snel, zeker als je er ook nog wat mee wilt doen. Dus het meedoen aan een beta program kan dan wel degelijk meer dan 100.000 dollar kosten!

Als je als bedrijf intern andere manieren van optimalisatie en ontwikkeling hebt opgezet, dan is het niet meedoen aan dergelijke programs een zeer legitieme keuze! Sinds de mogelijkheden e.d. zo ontzettend verbeterd zijn, kun je haast niet echt meer een synthetische benchmark gebruiken om echt iets te kunnen zeggen, gewoonweg omdat je vaak appels met peren vergelijkt. Als je het dan hebt over enkele procenten sneller zou het wel eens heel goed kunnen zijn dat in de praktijk daar niets van waar is.

Ik middel (subjectief) meerdere testen die ik lees met allerlei programma's en benchmarks uit en vergelijk dan gevoelsmatig kaarten die in een zelfde prijsklasse zit. Want dat is uiteindelijk waarom het draait. Mijn subjectieve mening heeft daarom doen besluiten een ati radeon te kopen.
Dat zeg ik ook in mijn post ("De "honderduizenden" dollars die NVIDIA hier opgeeft nemen voor de handigheid ook gelijk de support en ontwikkelingskosten bij NVIDIA mee indien ze mee zouden doen aan het beta programma.").

Het probleem is dat deze cheats die NVIDIA net zo goed en nog moeilijker detecteerbaar in games toegepast kunnen worden. Deze ontdekkingen maken dus _alle_ benchmarks verdacht, dat is de rede dat er zoveel ophef over is.

Dat Futuremark deze cheats ontdekt heeft is juist goed en een positief punt voor 3dmark.
Ik denk dat futuremark z'n doel een beetje voorbij begint te schieten. 3D Mark is een mooie test voor persoonlijk gebruik om te zien of bepaalde tweaks of drivers je voordeel bieden of niet, maar of je er de aanschaf van een videokaart vanaf moet laten hangen, ik denk het niet, hooguit bij geval van twijfel. De nieuwe generatie kaarten zijn toch wel snel en meegeleverde extra's, software en aansluitmogelijkheden hebben vaak een langere "levenduur" dan de kick van een paar honderd punten t.o.v. van een kaart van "de andere partij".
Ik heb het gevoel bij het lezen van de reakties dat erg veel mensen de PDF file van Futuremark uberhaupt niet hebben gelezen (of niet goed gelezen?).

Bij deze dus nogmaals de link: http://www.futuremark.com/companyinfo/3dmark03_audit_report.pdf

Met name alle mensen die zeggen dat 3dmark nu niet (of nooit niet) relevant is, zouden er goed aan doen dit rapport te lezen. Dit probleem beperkt zich namelijk niet tot alleen maar 3dmark, maar is een symptoom van een waarschijnlijk veel voorkomend fenomeen. Het feit dat 3dmark deze cheats heeft ontdekt is juist een rede om _meer_ waarde aan deze benchmark te gaan hechten.
Voor de mensen die nu hard foei nvidia lopen te schreeuwen, ATI heeft de zelfde truck uitgehaald bij de introductie van de radeon. Als Quake3 op werd gestart herkende de drivers dit en verlaagden de beeldkwaliteit om betere resultaten te halen in de timedemos.
Dit klopt niet helemaal ja ze hebben het bij 1 driver gedaan en bij latere er gewoon uit gehouden, maarja Nvidia kaarten staan standard niet eens op de beste opties dus wat dat betreft klopt het ook niet helemaal van die kant. zo blijf je een welles nietes spel houden.

Het probleem met Nvidia is gewoon dat ze denken dat ze zo groot zijn dat ZIJ de standarden in bv DirectX kunnen maken. Ze gaan er gewoon van uit dat het maar geaccepteerd wordt en de rest gewoon moet volgen. De DirectX 9 library is gemaakt in samwerking met ATI en zal daarom een voordeel voor ATI zijn daar een paar eerdere versies met Nvidia zijn gemaakt.

De rollen zijn gewoon een keer omgedraaid en Nvidia schreeuwt gelijk dat ze benadeelt wordt terwijl ze door hun arrogantie gewoon de situatie zelf gecreerd hebben.

Persoonlijk vind ik de manier waarop Nvidia reageert gewoon zielig. Op alles lopen ze te ontkennen terwijl de feiten gewoon te zien zijn. En het moet 100 keer gezegd worden eer ze inzien dat het gewoon een slechte zet was, maar ondertussen wel elke site/instantie zwart proberen te maken die ze maar kunnen.
Het probleem met Nvidia is gewoon dat ze denken dat ze zo groot zijn dat ZIJ de standarden in bv DirectX kunnen maken.
En weet je waarom dat geen probleem is? Omdat ze gelijk hebben :Z
Vergeet niet dat dit bij een driverset was die NIET publiekelijk gereleased is. Bij de eerste publiekelijke release waren de optimalisaties eruit EN bleef de performance gelijk (zelfs iets hoger nog).

Ook was dit bij 5 textures van de game.

En ook het enigste resultaat van deze "cheat" was dat de beeld kwaliteit iets lager werd. Als dat dan als volwaardige cheat wordt gezien, cheat Nvidia dan al niet jaren lang??

Zeker met de FX reeks waar bv in 3dmark2003 door de NV30 met int12 ipv fp24 interne precisie werd gerekend. Dit kwam de beeld kwaliteit al helemaal niet ten goede.
Zo ... dus TOCH .... (grr)
Het is maar goed dat ik een ATI kaart gekocht heb i.p.v. een nVidia.

Optimalistaties ok, maar optimalisaties ruilen tegen beeldkwaliteit terwijl de gebruiker er niet om gevraagd heeft is gewoon vals :( sorry dat ik het zeg.

<edit> Dat van die aankoop van die ATI kaart bedoel ik in moreel opzicht. Bovendien geeft nVidia toe dat ze die "optimalisaties" in hun driver hebben opgenomen, en zeggen vervolgens dat dit heel normaal is... Een synthetisch benchmark programma hoort te benchen ZONDER optimalisaties en blijkbaar heeft nVidia z'n drivers zo "geoptimaliseerd" dat 3DMark03 genept wordt. Nu heeft Futuremark dat rechtgezet en gaan ze lopen zeuren. Terwijl ATI het beestje gewoon bij z'n naam noemt en beterschap belooft. Die optimalisatie die er bij ATI in zat had niet eens invloed op het resulterende beeld (in tegenstelling tot die van nVidia)

Durona:
terwijl bij "the battle of proxichon" er met moeite van een vlotte framerate kan gesproken worden
Dat is ook heel logisch... Als een benchmark bij z'n release al vlot loopt op de dan courante hardware zou het niet een goede benchmark zijn .... Bovendien kijk ik juist wel naar syntetische benchmarks want die games waar standaard mee gebencht worden speel ik voor het grootste deel toch niet en bovendien zijn die helemaal geoptimaliseert voor de op dat moment geldende hardware "norm" (of dit nu nVidia of ATI is) terwijl een syntetische benchmark je veel beter kan laten zien welke kaart nu het meeste in huis heeft onafhankelijk van de hardware fabrikanten en game developers</edit>
Oh maar goed dat je niet weet dat ATI in het verleden dergelijke trucs ook heeft uitgehaald. Ook Intel en AMD maken zich er regelmatig schuldig aan.

Je kunt zeggen dat alle benchmarks het risico lopen voor dit soort doeleinden misbruikt te worden.

Het enige waarvoor ik een benchmark programma gebruik is het optimaliseren van mijn eigen systeem. Dus testen, bios aanpassen en wederom testen. Met dezelfde drivers om zodoende niet op dezelfde wijze als in het bericht misleid te worden.
dit lees je verkeerd, tussen futuremark en nvidia loopt het niet lekker futuremark wil dus met de nieuwe versie van 3Dmark de nieuwe geforce benadelen, maar je ziet bij de spellen zoals UT2003 etc dat de geforce daar wel gewoon beter is.
Ja dat zegt nVidia, zou ik ook zeggen als ik hen was.
welles, nietus, welles, nietus, jij begon, nietus, wellus :Z
Het is wel een feit dat de topkaarten van de GF FX-serie op dit moment de performancekroon dragen, daar kan je niet naastkijken. De GF FX heeft meer FPS in UT2003, serious sam2,... Dus in feite hebben ze wel wat gelijk.
Het sterke punt van ATi is dan weer dat hun FSAA nog wat geavanceerder is kwa beeldkwaliteit. Dus beide fabrikanten hebben hun goede punten.
Je leest niet goed, Nvidia heeft de beeldkwaliteit niet slechter gemaakt, maar heeft punten die buiten het beeld liggen weggelaten, daar merk je dus niets van.

Dit trucje werkt alleen bij 3dmark omdat bij 3dmark de route van de camera vaststaat, bij spellen word de camera bestuurd door de speler en kun je het bovengenoemde trucje dus niet uithalen.

:)
Ja, maar je wil weten hoe snel de kaart is in 3D. Als ze vervolgens de plaatjes 1 voor 1 gaan renderen en dan als een filmpje (2d) gaan afspelen zie je het verschil niet, maar is de snelheid wel VEEL hoger.
Door de truuctjes van nVidia renderen ze eigenlijk geen 3D, maar een soort van filmpje. Als je echte 3D gaat draaien, dan kom je dus 24% lager uit.
Dat is dus pure oplichterij.
Twee punten:
-In games niet nee, maar in benchmarks van games wel. Zo wordt voor quake3 al tijden dezelfde demo gebruikt, je kunt je dus sterk afvragen of daar niet ook dergelijke praktijken zich voordoen.
-Ook de image quality ging achteruit dankzij deze drivers.

Misschien moet je het rapport van Futuremark nog eens nalezen? ;)
vind ik net niet, als nVidia erin slaagt om iets op een alternatieve manier te renderen, zonder dat iemand het merkt en het is sneller, vind ik dat fantastisch, dat is toch het enige wat een driver team doet dacht ik, prutsen voor bepaalde games tot het beter gaat
Behalve als dat gepruts erin resulteert dat ze buiten de specificaties van de standaard gaan wat in sommige andere spellen die ze niet hebben bekeken kan betekenen dat er renderingfouten optreden. Een hele duidelijke en irritante voorbeeld is Shogo waarin op een gegeven moment het menu onzichtbaar wordt na een bepaalde driverupdate. Dat maakt het spelen nagenoeg onmogelijk omdat saven 'blind' moet, je lukraak moet proberen om het spel via de menu te verlaten zonder resetknop e.d., of je zou de lokatie van ieder menupunt op een papiertje moeten zetten en dan maar hopen dat je niet een keer teveel op de cursortoetsen omhoog/omlaag drukt. Of teruggaan naar software rendering waar het nog wel goed gaat, maar daardoor het spel weer totaal lelijk wordt en veel trager ook nog.

Ja dat is een oud spel en nieuwe spellen hebben er (meestal) geen last van, maar het is een duidelijk voorbeeld van wat voor effect 'optimalisaties' kunnen hebben, en voor hetzelfde geld komt dit net zo goed met een nieuw spel voor die nog niet bekeken is, niet populair/bekend/belangrijk genoeg is of wat dan ook. Teruggaan naar een (inmiddels veel) oudere driver is in mijn ogen dan geen oplossing, ook omdat nieuwe spellen dan weer renderingfouten kunnen vertonen die in nieuwe drivers wordt opgelost.
Nee nee nee. Dit is niet de truuk die de Kyro kaarten gebruiken.

Die kaarten bepalen realtime wat wel en niet zichtbaar is en renderen dat dan. Die kaarten hebben daardoor geen problemen als je een andere camera pad kiest in 3DMark03.

Nvidia en ATI kaarten doen in beperkte mate hetzelfde als Kyro doet.

Wat Nvidia nu heeft gedaan heeft is niet in real-time bepalen welke delen wel en niet gerenderd moeten worden, maar dat vast in de driver zetten, aangezien het altijd het zelfde camera pad is.
Daarom werkt het dus niet meer als je een andere camera positite gebruikt.

En daarom is het een cheat, en kan de cheat niet in spellen gebruikt worden.

De cheat kan verder in alle game benchmarks gebruikt worden.

Is er iemand hier die denkt dat dit de enige benchmark is waarin Nvidia cheat?
waarom dragen ze daar de performance kroon wel denk je ? omdat hun gefoefel met mindere beeldkwaliteit daar gewoon wel "aanvaard" wordt en dat ze bij futuremark, terecht, vinden dat dat niet kan?

dit foefelen in games zelf schaadt volgens mij trouwens veel meer de reputatie van nvidia.
vind ik net niet, als nVidia erin slaagt om iets op een alternatieve manier te renderen, zonder dat iemand het merkt en het is sneller, vind ik dat fantastisch, dat is toch het enige wat een driver team doet dacht ik, prutsen voor bepaalde games tot het beter gaat :)
of dacht je nu werkelijk dat men de driver op zichzelf opeens zoveel sneller kan maken? ja tuurlijk, zo van goh, in de eerste versie hadden we er 10 loops teveel in gezet
als beetje programmeur weet je toch dat als je 20% snelheidswinst maakt je toch wel iets speciaals moet doen
Dat zijn niet eens DX9 spellen. 3dMark2003 kijkt vooruit in de tijd (althans dat probeert het te doen).
Je moet er natuurlijk ook rekening mee houden dat dit _de_ truuk is die de Kyro serie kaarten aan de snelheid helpt. Dat andere fabrikanten het ook doen zal natuurlijk wel enige ophef veroorzaken maar in weze is het een oude truuk, in dit geval toch uitgebuit door Nvidia met name omdat niemand er in princiepe van op de hoogte is.
dit lees je verkeerd, tussen futuremark en nvidia loopt het niet lekker futuremark wil dus met de nieuwe versie van 3Dmark de nieuwe geforce benadelen
Je leest zelf anders ook niet erg goed:
Some believe that Futuremark has an ax to grind with Nvidia, but at least in their statement, this does not appear to be the case.
(THG)

En alle nVidiakaarten zijn altijd al beter met OpenGL, dus dat zegt niks. Feit blijft dat nVidia cheat met hun drivers en Futuremark zwart maakt, en Ati echt optimaliseert.
but it looks like they have intentionally tried to create a scenario that makes our products look bad.
Hoe weet jij wat de feiten zijn? Als ik vandaag op het journaal hoor dat er 1500 mensen zijn omgekomen bij een aardbeving zal ik van mijn levensdagen niet weten of dat er nou werkelijk 10 of 15.000 zijn. Wij zijn volgens mij niet echt in de positie lukraak een van de beschikbare beweringen als zijnde feit te bestempelen.
Het is maar goed dat ik een ATI kaart gekocht heb i.p.v. een nVidia.
Who cares????

nVidia is beter in games (op dit moment ;)), dus waarom is het dan beter een ATi-kaart te kopen ipv een van nVidia :?. 3Dmark2003 is maar een synthetische benchmark die nog altijd hevig onder vuur ligt. Zeker als je bekijkt hoe onefficiënt games als "the battle of proxichon" geprogrammeerd zijn. Halflife2 ziet er 100x chiquer uit dan dat game, en het draait enorm goed met een Radeon9800pro, terwijl bij "the battle of proxichon" er met moeite van een vlotte framerate kan gesproken worden.
dus waarom is het dan beter een ATi-kaart te kopen ipv een van nVidia
Check dat knopje 'pricewatch' bovenaan 's voor het antwoord :Y)
Nee maarja voor degene die het wel willen betalen moet het er wel zijn.

Tot nu toe zijn alle bench marks gebaseerd op preproductie modelen die schijnbaar met nep gepreparerde drivers werken van nvidia dus hoe kun je in gods naam nou nvidia ooit de kroon geven voor iets wat ze nog niet hebben?

Alle voorgaande versies van nvidia fx zijn geflopt tegen over de radeon serie die volop verkrijgbaar is
nu beweren ze een snellere te hebben maar blijkt achteraf dat ze met de drivers neppen.

Ik hoop voor nvidia dat het echt zo niet is als ik het opnoem anders kunnen we ze afschrijven als producent.
Je reputaie gaat namelijk volledig naar de klote hiermee.
Niet íedereen wil per sé zo min mogelijk betalen. Niet iedereen focust zo op de prijs.
ach, zowel ati als nvidia doen dit soort dingen, 3dmark is een leuke demo maar als benachmark kun je gewoon beter echter spellen gerbuiken aangezien het al jaren zo is dat er flink veel verschil is tussen de performance van kaarten in 3mark en in feitelijke spellen.

Ik koop geen kaart om t merkje van de GPU maar gewoon omdat ik bepaalde eisen stel aan een videokaart, soms is nvidia daarbij de beste keus en soms ati (en als linux gebruiker heb ik nog steeds geen reden om een ati te kopen)
Op wat voor manier is nVidia in games beter dan ATI Durona?

Praat je hier alleen over zoveel mogelijk frames per seconde of heb je het ook nog over beeldkwaliteit. In het laatste moet ik je teleurstellen. De nVidia GeForce FX5900 mag dan sneller zijn (in de meeste testen) dan de ATI Radeon 9800 Pro, de beeldkwaliteit van de ATI kaart schijnt tegen iets minder fps toch een veel betere beeldkwaliteit te geven.

Veruit de meesten geven de voorkeur aan 200fps met de beste kwaliteit dan 220fps met een mindere kwaliteit.
Het is maar goed dat ik een ATI kaart gekocht heb i.p.v. een nVidia.
Jij let op 3D Mark scores voor je een videokaart koopt? :o
Laat jij je ff beetnemen, 3D Mark is, zoals bekend, helemaal niet betrouwbaar voor het bepalen van de grafische hoogstandjes van een videokaart, het is puur een patserprogramma. Jij doet daar schijnbaar aan mee. :Z
Let jij op game-benchmarks voor je een videokaart koopt?

Laat jij je ff beetnemen. Alle game benchmarks zijn zioals bekend net zo gevoelig voor de cheats van Nvidia als 3DMark.

Al die timedemo's van bekende games zijn gewoon patserprogramma's. Jij doet daar schijnbaar aan mee.

Draai je nu echter spellen waarvan de benchmarks zelden gebruikt worden (en waarvoor dus geen cheats gemaakt worden) dan zie je ineens dat de 5900 Ultra een stuk langzamer is dan de 9800 Pro.
Ra ra hoe zou dat nou toch komen??
(zie extremetech voor benchmarks van NHL en Nascar)
Mwa, ik gok dat futuremark echt flinke ruzie heeft met nvidia en ATI daarom een streepje voor geeft in de tests. Mijn geforce 4 ti4400 lijkt gewoon niks in die test. En dat terwijl ik in 2002SE nog boven de 10000 zat :?

Het is gewoon zo dat 3dmark dingen gebruikt die wellicht nooit in games worden gebruikt, vandaar dat ik steeds minder waarde hecht aan die tests. Ook door het feit dat nvidia/ATI wellicht de drivers dus aanpast ;) Want wie zegt dat ATI niets 'slims' heeft gedaan...

Ik bekijk toch liever de scores in de nieuwe games, en daar houdt mijn geforce kaartje het ook aardig goed in uit.
Als futuremark zich gewoon aan de dx9 specs houdt komt die functionaliteit heus wel een keer terug in games. Maar als pcgamedeveloper ben je gek als je nu alleen maar dx9 functies gebruikt, dan heb gelijk een wel hele kleine doelgroep over.
3DMark 03 is ook een DX9 test ..... dus aangezien die GF4 geen DX9 ondersteunt is het nogal logisch dat hij langzaam scoort .....
Ti4400
Daar zeg je ook wat. Die kan sommige tests niet eens draaien daarom valt je score veel lager uit. 3dmark03 is alleen voor DirectX9 kaarten niet niet voor 8.1 kaarten bedoeld :z

/dubbelpost :(
Spijtige ontwikkeling, nu zal het belang van 3Dmark03 in benches toch echt wel dalen in reviews.
Want NU kan je wel zeggen dat Ati sneller is, maar wat nu over een jaar en nVidia wil nog steeds niet support geven voor 3DMark? Dan kan je de nieuwe kaarten tegen die tijd niet meer met elkaar vergelijken met 3DMark.

Deze rotzooi speelt al langer en lezers beginnen nu ook meer te kijken naar de prestaties van verschillende spellen en ik denk dat als nVidia echt voet bij stuk gaat houden dat dan ook meer het geval gaat worden.

Een ander punt, nVidia zegt dat participatie in 3Dmark ontwikkeling handen vol met geld kost. Aan de hand daarvan zou je kunnen vermoeden dat Futuremark zijn positie misbruikt en de kaarten fabrikanten dwingt tot participatie om geld te verdienen.

Ik weet dat het evil is om zo te denken }> en als jullie zeggen dat Ati gewoon sneller is, wil ik dat best geloven, maar misschien is dat verschil helemaal niet zo groot als Futuremark iedereen nu wil laten geloven?
De geforce FX kaarten zijn echt MEGA langzaam in DX9 shader operaties. Soms wel tot 5x langzamer als ATI. Dit kun je goed zien in de shadermark benchmark (niet van 3dmark2003).

Het verschil in resultaten in 3dmark2003 is zo groot, omdat de GeforceFX serie gewoon erg langzaam is in DX9.

Het motto van de FX reeks was realtime cinematic rendering, dus dit zou de kracht van de FX moeten zijn. En laat hem daar nu het aller langzaamste in zijn, en nog verreweg ook.
Onzin, zolang de community vasthoud aan deze benchmarks, zijn de scores leidend. Zolang 3dmark maar deze ontwikkelingen in de gaten houdt(dus dat alle frames op de juiste wijze weergegeven worden), kunnen de fabrikanten afgerekend worden op de resultaten).

Wat wel zo is, is dat Nvidia en Ati gekozen hebben voor een andere manier van ontwikkeling(dus welke kant gaan we op, hogere AA, meer vertexes e.d.).
Er zijn namelijk meerdere wegen die naar Rome leiden. En als 3dmark 1 weg aanlegt, waarlangs bijde fabrikanten moeten gaan om een goede score te hebben, dan kan dat nadelig uitvallen voor 1 van de 2.

Dus 2dmark2003 lage score Nvidia, UT2003 > Nvidia wel als de winnaar.

Ook heeft Nvidia bepaalde instructiesets ontwikkeld voor hun Fx series, maar die kunnen dan weer niet gebruikt worden in 3dmark, omdat dat niet een standaard is. Dus een pentium 4 met sse2, waarbij deze niet gebruikt wordt.
Tot zover dus écht de objectiviteit van 3dmark.
Tijd dat review sites overstappen op alternatieven.
Welke alternatieven?? Timedemo's?? Hier kunnen dezelfde truckjes mee uitgehaald worden.

Met ALLE statische testen kunnen deze truckjes uitgehaald worden. Daarom is het zo belangrijk dat dit duidelijk aan het licht komt.
Bijvoorbeeld UT2003-bench ja, want nVidia zal daar geen trucjes mee uithalen, want als gamers dan die kaart kopen en merken dat de beeldkwaliteit ten gevolge van die "optimalisaties" slecht is, dan zullen ze de kaart gewoon terugdragen naar hun dealer en een ATi-kaart kopen. Dat zou dan ten nadele van nVidia zijn.

Natuurlijk voldoen ook andere games als benchmark (enkel Quake3 wordt iets te oud ,vind ik. Ok, het geeft de "raw performance" weer, maar daar ben je tegenwoordig nix meer mee).
Ja maar snap je dan ook niet dat deze optimalisaties ook gebruikt kunnen worden voor zoiets als de UT2003-bench.

De cheats die nvidia gebruikt kunnen ook daar voor gebruikt worden. En wie zegt dat hier bijvoorbeeld niet gecheat word......
Als je in een spel als UT2003 de camera steeds een random route af laat leggen en je gaat dan heel lang benchen en ook nog eens meerdere keren en dan het gemiddelde neemt, dan krijg je een vrij betrouwbare vergelijking. Een simpel benchmark programmatje als dit waar routes enzo vast liggen is een stuk minder betrouwbaar en UT2003 is iets interessanter om te weten hoe het presteert dan een stukje software dat is geschreven om een paar voorgedefinieerde filmpjes op je scherm te toveren.
Hier zijn ook al een paar mensen mee bezig. Ik heb hierover ook al gesproken met Humus (van rage3d/beyond3d).

Het probleem met echter een paar random routes af laat leggen is dat de fout marge groter wordt. Bij 3dmark2003 is dat 5%, maar dat kan verder oplopen naar 7% of zelfs nog iets meer.

Waar een aantal mensen nu mee bezig zijn, is een random route met een seed maken, waarmee dus wel op 2 verschillende machines een zelfde route gemaakt kan worden. Dus door de seed waarde in te vullen.
dan zou hget nog niet eerlijk zijn
want misschien komt ie dan op sommige plekken wel veel minder geometry tegen of textures... of andere dingen
dus dan klopt je gemiddelde ook niet meer

ik snap ook echt niet dat iedereen zich zo druk maakt om 3dmark.... :z
ik draai het altijd maar 1 keer om te zien hoe mooi het is (al vind ik 03 echt tegenvallen... saai zeg)
maar verder zit er voor mij geen enkele waarheid in,
geef mij maar een bench van 9 a 12 paginas op anandtech of toms hardware (of waar dan ook)
met een paar kaarten van andere merken er langs... veel beter, dan zie je tenmiste de echte prestatie
De reden dat iedereen zich druk maakt om 3DMark is omdat het duidelijk aangeeft hoever bedrijven willen gaan om de zaak te belazeren. 24% extra performance (door cheaten) kan voor iemand de beslissing zijn om wel of niet een FX 5900 te kopen.

Nu blijkt bewezen is dat Nvidia cheats heeft gebouwd voor 3DMark is iedereen bezorgd over de scores voor de andere benchmarks.

Bij de timedemos voor UT2003, Serious Sam, DoomIII, Splinter Cell kan je net zo makkelijk cheaten.

Als jij als bedrijf besluit te gaan cheaten, doe je dat dan in 1 benchmark, of doe je het dan in de 5 meest gebruikte?
Die 5 meest gebruikte natuurlijk. Anders valt die ene benchmark te veel op, en bovendien kopen mensen je kaart niet als je maar in 1 van de 5 meest gebruikte benchmarks de snelste bent.

Als je bij extremetech naar de benches kijkt dan valt ook op dat de performance in die 5 benches die door alle review sites gebruikt wordt goed is, terwijl de performance in de zelden gebruikte benches (NHL, Nascar) etc ineens veel lager is.
Ook ruim 20% lager.

Toeval? echte optimalizaties in de veelgebruikte benches, of doodgewoon ook cheats? Wie zal het zeggen?

In ieder geval moet elke serieuze review site zich nu zeer sterk gaan afvragen of hun gamebenchmarks nog wel betrouwbaar zijn en hoe ze de benchmarks betrouwbaar kunnen houden/maken.

Daarom maakt iedereen zich hier dus zo druk om!
of je koopt gewoon de kaart die goed lijkt. en je doet die benchmarks niet. :) dan hoef je ook dat gezeik niet aan te horen. Ik vind persoonlijk 3dmark03 een slechte benchmark. Er zitten elementen in die nooit in games zullen gebruikt worden. en zo wel dan op kleine schaal (en dus niet zo overdreven als het met 3dmark03 gebeurd). En daarkomt bij dat het maar getalletjes zijn.

maar goed tis natuurlijk maar een mening. Maar driver trucjes boeit verder niet Als het maar sneller loopt daar door (in games)
Maar getalletjes?? Tegenwoordig draait het overal alleen maar om getallen, anders ging nVidia die niet proberen hun score op te krikken. Als deze truc alleen werkt in 3dmark03 en niet in games(wat waarschijnlijk zo is) zou ik me dus enorm bedrogen voelen.
Jah idd gewoon getalletjes..

het draait voor die bedrijven om getalletjes tegenwoordig maar dat doet het al eeuwen hoor. Maar voor de consument een kaart moet goed lopen in eens spel (daar koop je tenslotte zo kaart voor) en niet een een benchmark. Weet niet hoor maar draai jij 24 uur perdag 3dmark ?
Ik heb het nog nooit gedraaid! :) Waarom zou ik dat doen als er duizenden mensen zijn die het voor mij al doen? Ik speel liever een spel dan dat ik naar een statisch filmpje zit te kijken, maar of dat spel goed speelt heeft voor een groot deel ook met getalletjes te maken, namelijk de fps. En ik geloof dat futuremark best een redelijke goede indicatie geeft welke kaart je voor de toekomst het beste kan aanschaffen. Ik kijk daarnaast natuurlijk ook naar de beeldkwaliteit en als bedrijven daarmee gaan zitten klooien, vind ik dat opper triest. Ati was dat ook, maar ze hebben ervan geleerd en hebben nu een heel goede beeldkwaliteit (en dan bedoel ik dus FSAA).
Benchmarks zijn er alleen om over op te scheppen, net zoals met een snelle ferrari. Het gaat er niet om dat hij lekker rijd, het gaat erom dat jij iets beters hebt dan iemand anders.

Met benchmarks dus precies hetzelfde, wat maakt jouw het uit dat je het nooit gebruikt, als je maar kan zeggen dat jij iets hebt dat iemand anders niet heeft, of dat iemand anders trager doet. Een ferrari mag ook net als een oude Nissan Sunny 120 op de snelweg. Het gaat gewoon om de status die een hoge score met zich meebrengt ;)
Je vergeet een ding, namelijk dat benchmarks ook gewoon worden gebruikt voor persoonlijke vergelijking. Als ik een nieuwe videokaart heb gekocht wil ik wel weten wat ie doet in vergelijking van de oude. Ik doe dan eerst even een bench, vervolgens installeer ik de nieuwe kaart, doe nog een bench, en vergelijk de verschillen.

Eveneens zo als je wat instellingen tweakt in de drivers of bios. Altijd fijn dat je weet wat die veranderingen nou voor invloed hebben op je systeem.

Benchmarks om te patsen? Idd. Zijn benchmarks ook daadwerkelijk nuttig? Imho wel, maar niet om systeem X met systeem Y te vergelijken terwijl die totaal verschillend zijn. Zeker voor een onpartijdige benchmark als dit. Als je dat wilt doen zul je gewoon echte in-game benches moeten doen, en dan met name gewoon een eigen opgenomen demo ergens van. En bovendien verschilt dat toch per spel
3DMark2003 kunnen we dus bij deze afschrijven als valide benchmark tool... Jammer..

edit:
"The GeForce FX 5900 is by far the fastest graphics on the market today."
Yeah right, dream on guys.. Er zijn meer hondje in gfx-land...
Dit klopt niet wat je zegt:

"In een nieuwe build van 3DMark03, waarin de cheats niet werken, daalt de score van de GeForceFX 5900 Ultra met 24,1 procent".
De oorspronkelijke poster heeft wel gelijk dat het hierbij afgelopen is met 3dmark als serieuze benchmark-tool. Het feit dat je geld moet betalen om in een samenwerkingsverband terecht te komen met de maker van het pakket zorgt daarvoor.

Reden: FutureMark krijgt geld van ATI, niet van NVidia. Iemand die nog *serieus* durft te geloven dat FutureMark onpartijdig is? Laat me niet lachen!
heeft wel gelijk dat het hierbij afgelopen is met 3dmark
Waarom? Omdat nVidia alleen kan winnen door te cheaten? Als het dus al zo is, dan is het omdat ze bewust gesaboteerd worden door nVidia. En dat is zeker niet in het belang van de consument.

jouw redenatie klopt niet: nVidia heeft bijna de hele ontwikkeling meegedaan, en zijn er pas op het laatste moment uitgestapt! Deze quote van THG zegt toch wel genoeg?
Nvidia while still participating in the Futuremark Beta program had access to the last code drop before the final code was released for 3DMark03. ... the differences between the last code that Nvidia has access to and the final build where very minimal.
Dus ze weten precies waar het hoe ze moeten cheaten.
Het feit dat je geld moet betalen
Dat is geen feit, maar een éénzijdig statement van nVidia.
FutureMark krijgt geld van ATI, niet van NVidia
FutureMark heeft al een heeele grote zak met geld gehad van nVidia om te helpen bij de ontwikkeling. Net als van Ati, Matrox, 3DLabs, Microsoft en de rest.
En daar krijgen ze dan ook wat voor terug: een eerlijke benchmark die de richting aangeeft waarin de games de komende tijd zullen gaan.

Het is imo uiterst onsportief van nVidia dat nu ze hun wil niet op konden leggen (ze waren er niet mee eens, en 'zij zijn toch immers de grootste'...) er uit zijn gestapt en met dit soort 'tactieken' (puur valsspelen) de boel in het honderd gaan sturen.

Die hele benchmark zal me trouwens een worst zijn. Ik speel liever gewoon een echt spel. Het is alleen wel handig om iets meetbaars te hebben als je je eigen kaart aan het tweaken/overklokken bent.
Het is nou eenmaal zo dat Futuremark geld vraagt van videokaartfabrikanten voor een samenwerkingsverband. Alleen al daarom maken ze zichzelf ongeloofwaardig. Want degene die betaalt, mag mee kiezen welke technieken ze benchmarken. Logischerwijs kiest ATI dan demo's waar hun videokaart het het beste mee doet.

En daarbij: dat het nu zoveel scheelt, wil toch niet zeggen dat dat dan wel een objectieve score is?

Het is dat Futuremark al zover gevestigd is in de benchmarkmarkt, zodat je eigenlijk weinig anders meer kan gebruiken om je PC met andere PC's te vergelijken.
Futuremark bevestigt hiermee in mijn ogen enkel dat ze een product hebben ontwikkeld dat aan alle kanten rammelt.
Met mindere graphics zorgen ze ervoor dat ze toch een hoge score halen. Waar is dan de geloofwaardigheid van 3DMark03. Een programma wat dara met open ogen intuint. Een grote blamage van de software ontwikkelaars.

En ach, concurrentie is toch uiteindelijk cheaten. Elk trucje wordt aangegrepen om mensen meer te laten betalen voor een even goed product. Jammer vind ik dan wel dat nVidia heel vaak geroepen heeft dat ze innoveren en dat dus eigenlijk minimaal doen.

Jimmy, als je puur gaat kijken naar welk 'geintje' nVidia uithaalt zie je dat ze gebruik maken van bepaalde onderdelen die niet of vrijwel minimaal voorkomen in 3D-Engines. Aan de vooruitgang die Ati boekt heb je op dit moment iets, dat is van nVidia iets lastiger te zeggen...
Jamaar wat is saboteren? Ik weet niet precies welke tactieken ze nou hebben gebruikt maar er zijn toch wel enkele truukjes, zoals die die ATi heeft toegepast, die in mijn ogen toch niet slecht zijn. Als zij door bepaalde truken uit te halen betere performance halen is dat toch in ieders belang? Dat is IMO waar drivers helemaal om gebouwd zijn.
Kijk als ze kunstmatig shaders in complexiteit gaan doen dalen, dan is het beeld ook een stuk minder zonder invloed van Futuremark in die kwestie, dan ga je er wel in FPS op vooruit maar is je beeld weer minder, dat vind ik wel oplichterij.
Maar als zij het zonder zichtbaar beeldkaliteits-verlies voor elkaar krijgen toch hogere FPS uit de kaart te persen met drivers denk ik "prima".
Stel nou dat dat juist de technieken zijn waar game-developers gebruik van maken, of dat ATi daar ook geld in stopt om hetzelfde effect te bereiken. Dan is de cirkel mooi rond en krijg je dus, al dan niet op andere weize, toch een representatieve benchmark, immers, games hebben ook wat aan de trukendoos van ATi.
Nee dacht dat het te maken heeft met nVidia's keuze dat hun nep 8 pipeline eigenlijk 'n 4x2 is.
ATI heeft 'n echte8 pipeliner 8x1

in 3Dmark zitten bench demogames die één texture verwerken op Ati gaat dat dus per 8 bij nVidia per 4 dus performance hit bij single texture demogames.

nVidia eisde dat 3Dmark games implementeerde die minstens 2 textures gebruiken.

Daar is 3Dmark niet op ingegaan en dus is nVidia eruit.

nV30 en nV35 heeft dus een zwak punt en dat mocht in test software niet voorkomen.

maar anders om als ze dat wel deden wordt ATI benadeeld

dus wat belangrijk is hoe relevant is singletexture game engines nu en in de toekomst.

ALs je voor een game scene single texture voldoet moet dat toch van nVidia met multytexture gedaan worden dan is dat samenzweren.

Had ook iets te maken met ARB2 en nV specifieke PS2.0 pad.te maken arb2 daar bleef de nV3x erg achter liggen.

Developers ontwikkelen graag met een methode één pad voor alle hardware das ARB2 methode nVidia eis dus een specifieke pad voor hun omdat die erg tegen valt in de normale standaard methode.

in mijn ogen ligt het probleem toch bij nVidia als ze zo innovatief vooruit strevend zijn dan moeten ze maar 'n 8x2 implementern en niet 'n 4x2 een 8pipeliner noemen.
Ook is het voor de developers van groot belang dat een standaard API die alle hardware beslaat, gebruikt wordt dan dat hardware specifiek geneuzel, dat houd in meer werk voor diegine die al die hardware paden moet implementere dus nVidia hardware hoort gewoon zijn performance te leveren met ARB2
één code pad alle hardware.
nVidia wil de markt weer afhankelijk maken van hun support en hardware en dat is een slechte zaak.

Denk aan glide en hun glide only games.voor glide only hardware en dat was één merk 3DFX
In een monopool positie is er dan geen concurentie.

DirectX & OpenGL is niet hardwaremerk specifiek alleen wel ene OS dspecifiek maar hardware merken worden allen ondersteuned.
'n volledige abstraktie dat is die nVidia pad niet heeft voor mijn zo'n modeX dos games gevoel waar elk merk en type specifiek ondersteuned moest worden.
Dan heb ik daar een klein beetje overheen gelezen.. :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True