Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: Futuremark

Futuremark heeft op haar site een reactie neergezet op de kritiek die onder aanvoering van nVidia verscheen op 3DMark03 na de lancering van deze benchmark. Als eerste haast Futuremark te zeggen dat 3DMark03 bedoeld is om de prestaties van DirectX 9 hardware te testen met benchmarks die qua complexiteit overeenkomen met die van toekomstige DirectX 9 games. Voor het testen van DirectX 7 of de eerste generatie DirectX 8 kaarten raad Futuremark het gebruik van 3DMark 2001 aan.

Futuremark logoIn het document wordt onder andere het gebruik van alleen pixelshaders v1.1 en v1.4 verdedigd. Het is belangrijk dat een goede benchmark, onafhankelijk van de videokaart, elke scene exact hetzelfde tekent op de meest efficiënte methode. Als er ondersteuning aanwezig is voor pixelshaders 1.4, wat het geval is bij alle DirectX 9 hardware, wordt dit gebruikt om de scene te renderen aangezien het de enige manier is waarop single pass per light rendering geïmplementeerd kan worden. Als er geen gebruik gemaakt wordt van een DirectX 9 videokaart, maar van een DirectX 8 videokaart zonder ondersteuning voor pixelshaders v1.4, wordt er overgeschakeld naar pixelshaders v1.1 om de scene te tekenen. Het gebruik van pixelshaders v1.2 of v1.3 zou geen enkel voordeel hebben geboden boven v1.1 en worden daarom niet gebruikt.

Verder legt Futuremark uit waarom:

  • Er gebruik gemaakt wordt van single texturing voor de sky box in game test 1
  • Er gebruik gemaakt wordt van dezelfde rendering techniek voor game test 2 en 3.
  • Er gebruik gemaakt wordt van vertex shader skinning in plaats van CPU skinning.
  • Er in game test 4 alleen voor het water en de lucht pixelshaders v2.0 gebruikt worden.
3dMark03 nature screenshot

Ook ATi heeft gemeend niet achter kunnen blijven en hier gereageerd op de kwestie.

Moderatie-faq Wijzig weergave

Reacties (59)

Wat een gezever zeg. NVidia heeft een product op de markt gezet dat niet aan de verwachtingen voldoet, maar wijt de slechte 3d-mark resultaten aan het benchmark-programma en kijkt niet bij zichzelf wat er fout is gegaan bij de ontwikkeling van de FX.

Het is niet zo bijzonder dat je met die andere drivers voor de FX een hogere score haalt, ze zijn "ge-optimaliseerd", voor de wat zwakkeren van begrip: helemaal aangepast op die 3d-mark test om maar een zo hoog mogelijke score te halen. Het is dus heel goed mogelijk dat je daardoor dus in andere applicaties dus een hele lage score haalt, moet NVidia dan een driver per applicatie gaan schrijven, omdat niet alle applicaties nvidia-optimised zijn en dus niet "representatief"?

Ik zit er nu eigenlijk op te wachten totdat ATI een driver schrijft die ook ge-optimaliseerd is voor 3d2k3, als de fx dan weer zo slecht uit de bus komt is het dan ook de fout van Futuremark?

En dan nog een interessant statement over die pixel shaders, over het gebruik van v2.0 of 1.1........Als je een auto wilt laten rijden(fiat panda ofzo) en hij mag niet te zwaar worden gooi je er toch ook geen v8-motor in (pixel shader 2.0) maar een lekker goedkoop 4-cilindertje (pixel shader 1.1)?

Denk eens na voordat je blaat
Die drivers zijn helemaal niet officieel uit en zijn niet specifiek geoptimaliseert voor 3Dmark. NVidia heeft hier officieel ook niets over gezegt

Laat jij eerst maar eens benchmarks zien dat deze drivers langzamer zijn bij andere applicatie's voor je "blaat", want hier ga je meteen al van uit.
dblspace:

Waarom worden deze drivers enkel naar de selectief reviewers gestuurd?? Waarom hebben de mensen die de beta drivers die de build na deze uitkwamen en die wel in de mensen hun handen zijn. Deze zijn vol met reports van ontbrekende graphics effects, en lagere IQ.

Is het mogelijk dat ze *kuch* per ongeluk <saracasm> drivers gemaakt hebben die specifiek de GeforceFX haar score omhoog deed voor deze benchmark? Sinds de mensen met de beta drivers ook dezelfde jump hadden in score maar geen jump hadden in andere games ... Ik herinder me nog de laaste major update die effe 30% meer snelheidswinst ging geven... Ja, de 3dmark2001 nature score ging omhoog zoals een pijl, maar ten koste van IQ, en het feit dat geen enkel game's winst zagen... En nu dit weer ...

Lees effe de nvnews posting & op een paar andere forum's voor je mensen beschuldigt van "blaat" etc

Btw, je zegt zelf, de drivers zijn NIET officieel uit, maar toch zijn ze gestuurd naar alle reviewers om de benchmark er een beetje beter uit te laten zien. En dat vind je normaal?

Een kaart (GeforceFX Ultra 500/1000mhz) die niet uit is, en die nooit uit zal zijn (zojuist info gelezen over de aantallen GeforceFX Ultra kaarten die uit zullen komen, getal met 4 nullen & een 1, reken maar uit), met drivers die nog niet officieel uit zijn. Dat is dus allemaal normaal in je ogen? In de mijn niet ...
Waar het eigenlijk om draait, is dat met deze slechte resultaten met nvidia videokaarten, de populariteit van 3dmark2003 ook daalt... en dat wil natuurlijk futuremark ook niet...
Hier zal nog volop over discussie over ontstaan.

Maar de gffx heeft toch alleen pixel shader 2.0 of 1.1 en niet 1.4?
Dan vind ik dat ze toch 2.0 hadden moeten gebruiken.

Ik mis alleen een verklaring waarom cputest-1 sneller gaat met een 9700 dan met een GFFX.
Nee, een belangrijk kenmerk van de pixelshader zijn dat als je ondersteuning hebt voor versie X automatisch ook ondersteuning hebt voor alle versies die daarvoor komen. Dus als er ondersteuning is voor versie 2.0 is er ook ondersteuning voor 1.4 !!!
Ik mis alleen een verklaring waarom cputest-1 sneller gaat met een 9700 dan met een GFFX.
Dat komt omdat de 9700 al langer uit is en Ati al een half jaar de tijd heeft gehad om de code van de drivers sneller te maken. (zie ook mijn andere posts).

De bench loopt weliswaar in een lage resolutie waardoor er minder stress op de videokaart komt, maar de efficientie van de drivers merk je dus wel!
De CPU test test toch je CPU. Het is namelijk 640x480 in software rendering :) Dus een videokaart mag dan geen verschil maken omdat het softwarematige rendering is en dus geen gebruik maakt van de 3d engine van de 3d kaart.
Het klopt dat de CPU-test in een andere resolutie draait om de 3D-kaart te ontlasten. Maar het is absoluut geen volledige software rendering!

Kijk bijvoorbeeld in de eerste CPU-test naar de reflecties op de rompen van de vliegtuigen: Dat is absoluut geen volledige software rendering. Ik heb een Duron700, niet overgeclocked, en die kan dat absoluut niet uit zichzelf.

Oftewel: De CPU-test draait niet alleen op de CPU, maar ook op de 3D-kaart. Derhalve wordt de uitslag ervan niet alleen bepaald door je CPU.
Als er ondersteuning aanwezig is voor pixelshaders 1.4, wat het geval is bij alle DirectX 9 hardware, wordt dit gebruikt om de scene te renderen
Blijkbaar heeft de GFFX dus ook ondersteuning voor 1.4 pixelshaders
buiten ati (en dan blijkbaar de GF FX die nog niemand heeft...) ondersteund niemand 1.4

Maar iedereen ondersteund wel 1.3 , toch raar vind ik
De reden dat PS1.4 is gebruikt is erg simpel.
Futuremark is begonnen ze in PS2.0 te schrijven. Ze kwamen er toen achter dat ze exact hetzelfde ook makkelijk in PS1.4 konden doen. Vandaar dat het toen logisch werd dat te gebruiken.

Ondanks dat PS1.4 nu niet veel gebruikt wordt, zou dat in de toekomst best wel eens meer kunnen worden, wanneer meer bedrijven tot dezelfde conclusie komen als Futuremark bij het maken van hun nieuwe spellen.

En de FX moet dus wel degelijk PS1.4 kunnen doen, aangezien dat een voorwaarde is voor het netjes ondersteunen van PS2.0/DX9

En in de score doet het niet eens zoveel. Maar 500 punten verschil bij een 9700Pro. De andere 2500 punten verschil tov een GF4 zitten dus niet in die PS1.4
Omdat 1.3 geen enkel voordeel oplevert tov 1.1
Dat had exact dezelfde score opgeleverd als nu met 1.1
Ik vind t een beetje raar.
De pixelshader standaard van Directx9 is 2.0.

Waarom zou je dan 1.4 gaan gebruiken?

En volgens mij doet de gffx niet 1.4
Alleen 1.3 of 2.0
Gepost door enchion zaterdag 15 februari 2003 - 13:34 Score: 0 (Gemodereerd)
Nvidia vind het waarschijnlijk gewoon jammer dat 3dMark2003 niet specifiek gemaakt is voor de Geforce FX , waardoor de ATI R9700 Pro zo goed uit de bus komt .

Ati hoor ik nl niet klagen .

Met de nieuwe drivers van nvidia haalt de FX nu 500 punten meer dan de 9700pro
Nog teleurstellend voor de prijs van een FX ...
Je mist het punt. Als een iets aangepaste versie van een driver al 500 punten uitmaakt, geeft dat niet al te veel vertrouwen in de benchmark-capaciteiten van 3DMark03.
Leuk dat NVidia dit keer niet alleen kritiek levert, maar met een getweakte driver ook laat zien hoe gemakkelijk de score blijkbaar te beinvloeden is...

Los daarvan zijn dit soort benchmarks m.i. zowieso al niet echt geschikt om verschillende videokaarten te vergelijken, ik gebruik ze dan ook alleen om voor dezelfde kaart te kijken in hoeverre m'n overklok-acties effect hebben ;) .
In dat opzicht is 3DMark03 dus niets anders dan 3DMark2001 of QuakeIII.

Ook daarbij was eenvoudig een hogere score te halen door andere drivers, of wat tweaks in de registry.

M.a.w waarom is het NU dan ineens zo'n belangrijk issue, terwijl het dat de afgelopen jaren nooit was?
M.a.w waarom is het NU dan ineens zo'n belangrijk issue, terwijl het dat de afgelopen jaren nooit was?
Waarschijnlijk om dat er nu flinke concurrentie is (Ati en Nvidia), een paar jaar geleden was Nvidia nog alleenheerser, waardoor het toen niet relevant was om te kijken of je kaart snel was, want toen was het toch het snelste wat er was, nu kun je kijken of het een goede keus was.
jij mist zelf het punt! Drivers optimaliseren is heel ok. Dat moet zelfs. Dat heeft Ati al lang gedaan, daarom zul je met een nieuwe versie weinig vooruitgang zien.

Alle code voor de 1ste versie is met de compiler gemaakt. Dat is het snelst klaar als je eenmaal weet hoe de hardware in elkaar zit. Die compilercode is nu eenmaal langzamer dan als je die code met de hand allemaal aan gaat passen. Die handgeschreven code is veel sneller.

Anders wordt het alleen als je stopt na de benchmarks. Of de drivers zo aan gaat passen dat de benchmarks er weliswaar sneller van worden, maar de rest langzamer.

Dit soort benches zijn idd wel handig bij overklokken. Maar dat is een in-game bench zoals in unreal of ssam ook

offtopic:
sala
quoten doe je met [ q ] en afsluiten met [ / q ] (zonder de spaties
Nvidia vind het waarschijnlijk gewoon jammer dat 3dMark2003 niet specifiek gemaakt is voor de Geforce FX , waardoor de ATI R9700 Pro zo goed uit de bus komt . }>

Ati hoor ik nl niet klagen .
je had misschien even de andere nieuwspost moeten lezen, met de nieuwe drivers scoort de FX namelijk hoger dan de 9700 waardoor dit gekopieerde argument van jou niet meer klopt.
Hij zegt toch ook niet dat de FX trager is? voor een kaart van 6 maanden ouder en astronomische prijs is t alleen wel ERG weinig voordeel wat de kaart bied, als aniso en FSAA gebruikt wordt gaat de score van de FX trouwens flink op zn bek ivm de 9700.

Bovendien zijn alle benchmarks tot nu toe van de ULTRA versie van de FX, die misschien nooit in de winkel zal komen :S

Verder vind ik het terrecht dat futuremark zich met hand en tand verdedigd. nVidia heeft tot december (!) meegewerkt, en NU ineeens gaan klagen :? ja lekker nuttig, daarvoor zat je toch in die BETA groep, om te kunnen zeggen wat je er van vind en hoe je het anders gezien had willen hebben?
Ik kan me wel wa voorstelle hoe het er in die Beta-groep aan toe ging:

Nvidia: Nou nog dit, dit en dit aanpasse, dan hebbe wij mooi een lekkere hoge score
Ati: Maar als je nou dit erbij doet, en dat weg, dan halen onze kaarten weer betere scores.
futuremark : Zoute jullie maar op, ik doe 't wel ALLEEN! Ik wordt kei gek van jullie!

(als voorbeeldje dan hè)

edit:

hahaha! Score: 2 (Interessant), was grappig bedoelt :D
edit:

hahaha! Score: 2 (Interessant), was grappig bedoelt

[Reactie gewijzigd door Roel van Nuland]
Ik wil je best -1 modden hoor }>
kei gek? futuremark = brabands? :)
geef me eens linkje naar die resultaten plz :)
moet toch even reageren...

AL die mensen die lopen te zeuren hebben een nVidia kaart (ik heb een GeForce MX440) die test is HEEL zwaar net als 2001 toen die net uitkwam het gebruikt de nieuwste dingen maar ook wat oudere die oudere DX 7 tellen maar een klein beetje mee het is ook een DX 9 test en laat nVidia nou alleen een zware flop hebben die DX 9 compliant is...

en Ati heeft meerdere kaarten voor betere prijs en die al in veel meer computers hangen... hoeveel mensen hebben er nou een GF FX ??? heeeeeeeel weinig dus logisch dat Ati er beter uit de bus komt waar gaat dit allemaal over

nVidia is pissed omdat hun eigen GF FX een (HELE DURE) flop is Ati is nu HEEL ERG blij nu schuift nVidia de schuld naar alles en iedereen behalve hun GF FX en wat betreft de GF4 serie die is DX 8.0 dus logisch dat die het slechter doet dan Ati het is immers (herhaling) een DX 9 test

toch heb ook ik een beetje kritiek op 3D Mark namelijk het volgende...

CPU=telt zo goed als niet mee in de score
CPU test (schijnt) hoger te zijn als je een Ati kaart hebt

verder vind ik het PRIMA !!!
ben ik nog ff vergeten te melden dat nVidia nieuwe drivers heeft waardoor de GF FX meer punten haalt dan de Ati maar dat gaat wel ten koste van de beeld kwaliteit terwijl ze daar al slechtere resultaten hebben dan Ati...

enne Ati liep toch ook niet te zeuren toen deze situatie een poos geleden andersom was !!!
je kunt je post ook aanpassen hoor als je op dat potloodje in de linkerbovenhoek van je post drukt ;)

Is dat zo dat de beeldkwaliteit er minder van wordt? Dat hoeft nml niet persé hoor. Drivers optimaliseren wil ook zeggen: code met de hand herschrijven na de compiler ipv alleen ff snel door de compiler halen. Dat scheelt zo 30%.

Dat heeft Ati al voor een gedeelte gedaan (hadden ze al een 1/2 jaar de tijd voor). Daarom doet de R300 serie het standaard al goed en is dus minder winst te verw88 met de nieuwe catalist.
Pixelshader 1.4 zit ook al in dx8.1 kaarten (de radeon 8500 is de enige dx8.1 kaart).
Breepee, niet alleen de 8500, maar ook de Radeon 9000 heeft de beschikking over PS1.4 ;)
Ik vind de reactie van futuremark wel tekenend: we testen de ruwe hardware op hun capaciteiten; dus onze software alleen met WHQL-drivers testen aub.

Ze hebben in principe gelijk, ze willen een benchmark die directX-native ondersteund testen, NIET software specifiek geoptimaliseerde drivers(zoals de nieuwst Nvidia-3dmark2003 drivers).

Waar ik wel mijn kanttekeningen bij plaats, is het gegeven dat futuremark een benchmark op de wereld zet, waarop heelveel hardcore-gamers hun aankopen beslissingen baseren.
ik bedoel, het is een synthetische benchmark, geen reallife(dus games met geoptimaliseerde drivers) simulatie.
In feite bepaalt futuremark op deze manier wat een snelle grafische kaart is en wat niet. Dat lijkt me geen goede ontwikkeling.
Wat nou als Nvidia met de volgende core zich allen maar houdt aan de directX specs, en niet zelf nog extra features toevoegd(mits ondersteund door de game).
Dan hoor ik ze al schreeuwen, IN 3DMARK2005 HEB IK 200.000 3DMARKS, MAAR IN UNREAL3 HAAL IK MAAR 19 FPS!!!!!!.

Oh ja, voor iedereen die hoge scores in bechmarks wil halen, om hun aankoop van die dure vid.kaart te rechtvaardigen...........
Draai 3dmark99MAX > daar haal haal je zo een score van 30000.
Dan hoor ik ze al schreeuwen, IN 3DMARK2005 HEB IK 200.000 3DMARKS, MAAR IN UNREAL3 HAAL IK MAAR 19 FPS!!!!!!
punica, ik vrees dat je argument geen steek houd. Hou het met bestaande vergelijkingen(3dmark2003 & unreal2). De 3dmark pushed je GPU tot de max, als je een hoge score haalt, mag je zeker zijn dat je unreal goed zal kunnen spelen. Ik heb nog niet gehoort van mensen die een R9700 & GeforceFX (0 mensen die die hebben op reviewers na :) ), die 4000+ points halen dat ze unreal2 niet kunnen spelen ...
@ breepee

daar is nvidia nog nix mee hé :+

waarom kunnen ze 3D mark nu niet gewoon ALLE DX9 features laten testen, onafhankelijk van de manufacturers. Dan zou microsoft z'n DirectX ook wel onafhankelijk moeten ontwikkelen, maar als het aan hen zou liggen zouden ze zich ook geen barst aantrekken van wat nvidia of ati vraagt. spijtig genoeg trekken ze zich wel wat aan van wat beide GEVEN.

daarom zal het voor futuremark niet makkelijk zijn om een evenwichtige benchmark uit te werken waar alle kaarten de volledige performance vertonen die ze hebben. Anders zouden ze al met schalen moeten werken en een puntenverdeling per kaart ipv per test, zeg maar een PR-rating voor elke kaart :+
well there we go.. first: i downloaded doom3leak again, and it ran very well on my ati now. it didn't when i played it the first time. well "ran well".. never forget i am on 256mb ram and the game consumes 1gig of ram in this leak :D

the 3dmark "doom3" demo ran very well as well..

the trick is simple: games will be optimized, at least, most games (most will just buy doom3 engine for their games, or unreal engine, or something like that anyways). so they will run faster than 3dmark or the leaked doom3. BUT anyways, the 3dmark demos do a simple thing: bruteforce. this is not unoptimized, its simply benchmark style. when ever you bench something, you do it too much. 36 passes at 5 lights is really much. then again, doom3 will do.. 7 passes for a full light on a gf3/gf4, 3 on the radeon8500, one on the 9500+.. if i remember right.. possibly not. but anyways.

what i want to say is yes, the 36 passes are stupid, but no, they are not useless.
first: its only on nvidia hw 36 passes.
second: nvidia used 5 lights to get to 36 passes. in most games, for some single polygon, there will not be 5 lights illuminating it (see culling.. one of the most important parts of a todays engine..), so 5 lights is too much most the time anyways. 20 passes for a normal pixel of a normal scene is more likely.
third: think about it again. it shows wich cards can process 36times the full objects, every time animating them, and the card can still draw tons of pixels (stencil shadows are hell for fillrate.. _REALLY_HELL_, a simple tiny triangle can fill a whole screen 2 times for dropping a simple, triangular, some pixels big shadow on the other side of the screen..), and all that. such a card is _FAST_.
meer hier http://www.community.tomshardware.com/forum/showflat.m?Cat=&Board=comp _graphics&Number=482833&page=0&view=collapsed&sb=5&part=2&vc=1

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True