Software-update: 3Dmark 2003 build 330

Futuremark heeft een nieuwe patch uitgebracht voor het bekendste benchmarkprogramma 3DMark 2003. Deze update verhoogt het versienummer naar build 330 en zorgt voor de volgende veranderingen in het programma:

3DMark03 Patch (build 330) Improvements
  • Fixes & Updates:
    • Graphics card core and memory speed detection corrected under Win98/SE/ME.
    • Updated graphics card core and memory speed detection
  • Important Notes:
    • Benchmark results from the original release of 3DMark03 (build 313), 3DMark03 (build 320) and 3DMark03 (build 330) are fully comparable.
    • 3DMark03 (build 330) is currently only available as a patch version.
    • The registration codes for 3DMark03 (build 313 and build 320) also work for 3DMark03 (build 330).
[break]Op het forum loopt een draadje met de vraag of de results van een nVidia-videokaart serieus genomen moeten worden . Futuremark heeft in een statement aangegeven dat dit euvel verholpen is in build 330:[/break]Futuremark has prepared a second patch for 3DMark03, Build 330, where these preventative changes are implemented. We hope this will encourage the whole industry to release drivers that render the tests as 3DMark03 intends them to be rendered, and which produce results that can be fairly compared to those obtained with other hardware. It is possible that new drivers that cheat also in the new 3DMark03 build may be released in the future. We sincerely hope this will not happen. We strive to provide all BETA program members with robust tools to detect such situations.
Versienummer build 330
Besturingssystemen Windows 9x, Windows NT, Windows 2000, Windows XP
Website Futuremark
Download http://www.futuremark.com/download/?3dmark03patch330.shtml
Bestandsgrootte 4,90MB
Licentietype Freeware

Door Robin Vreuls

Doktersteam

24-05-2003 • 00:15

28

Submitter: MrRobot

Bron: Futuremark

Reacties (28)

28
27
23
13
1
0
Wijzig sortering
Anoniem: 72970 24 mei 2003 00:42
Vroeger had een dergelijke benchmark zijn voordelen om videokaarten te vergelijken. Vandaag de dag hebben Nvidia en ATI beide in hun drivers special regels geprogrammeerd om bij zo een benchmark hoger uitkomen en dus geeft zo iets niet meer de werkelijkheid aan.

ATI:
http://www.tweakers.net/nieuws/18993

Nvidia:
http://www.tweakers.net/nieuws/26981

Ik weet niet of deze fix zijn nut heeft, over een tijdje hebben beide partijen weer een oplossing hiervoor gevonden.
Vroeger had een dergelijke benchmark zijn voordelen om videokaarten te vergelijken. Vandaag de dag hebben Nvidia en ATI beide in hun drivers special regels geprogrammeerd om bij zo een benchmark hoger uitkomen en dus geeft zo iets niet meer de werkelijkheid aan.

ATI:
http://www.tweakers.net/nieuws/18993

Nvidia:
http://www.tweakers.net/nieuws/26981

Ik weet niet of deze fix zijn nut heeft, over een tijdje hebben beide partijen weer een oplossing hiervoor gevonden.
Ik denk wel dat er een verschil is tussen:

ATI:
2%

NVIDIA:
24%

Dat er ATI change's inzaten voor 3dmark2003 wist ik al lang. Het staat zelf in hun release info van cat. 3.0 drivers als ik me juist herinder.

Maar hier is het verschil met tussen beide met aanpak:

ATI:
Ja, er zitten een aantal optimizes in die ook gevolgen hebben in andere game's, maar omdat dit een negatieve indruk kan geven, zullen we ze verwijderen bij de volgende cat release (3.5 waarschijnlijk).

Verschil: 2%

NVIDIA:
Er is een complote aan de gang tegen ons. We hebben al lang beweert dat de bevindingen met de Test Software van 3dmark een bug zijn. We zijn geen lid van Futuremark test programma & hebben geen toegang tot de software om dit te testen.

Verschil: 24%

Dit is de samengevatte responce van beide firma's ... Men kan zijn eigen conclussie's eruit trekken. Maar ik heb nu al 3 nvidia driver releases gezien met de zogezegde 20-50% winst sinds men Geforce3, mijne conclussie's zijn al gemaakt ...
ATI:
2%
Let wel dat dit ghet gemiddelde is en geheel aan gametest 4 toegeschreven kan worden, en dat is nu juist de DX9 test, de test dus waar mensen naar zullen kijken voor de toekomst/nieuwe spellen, lijkt me vrij duidelijk dat dit expres gedaan is voor de marketing.

ATI cheat dus net zo hard, of zeg maar een grof stuk minder dan nVidia, maar ze doen het wel, ondanks dat je zou denken dat ze hun lesje van het Quake 3 debacle hadden geleerd.

Dat die optimalisatie zogenaamd ook beter zou zijn voor andere spellen is een drogreden, Futuremark heeft enkele minimale veranderingen doorgevoerd zoals hier en daar registers omruilen en de intro scherm (die niks met de benchmark zelf heeft te maken) anders te doen waardoor de drivers niet in 'cheatmode' belanden. Deze veranderingen mogen in principe geen verschil maken als de drivers echt geoptimaliseerd zouden zijn voor alle spellen maar dan doen ze dus wel, die 8% in gametest 4 (2% overall dus) verdwijnt opeens.

Erg zwak van ATI, ze hebben nu duidelijk de betere hardware en vraag me af waarom ze dachten dat een eventueel tweede ronde gezichtsverlies opweegt tegen zo'n klein verschil.. Van nVidia konden we het verwachten na de FX flop en was het al langer bekend, maar het is net zo zwak natuurlijk.
toch ben ik het niet met je eens...
nvidia is hier bezig de benchmark te verneuken, ze renderen gametest4 (en de andere tests) niet zoals die gerenderd zouden moeten worden

wat ATi heeft toegegeven is dat ze de volgorde van de instructies aanpassen, zodat het sneller loopt op hun hardware...

het verschil? ATi voert de oorspronkelijke code uit, nvidia voert eigen, vervangende code uit

dus nvidia cheat inderdaad STUKKEN harder dan ati, je kan zelfs zeggen dat ati slechts optimaliseert (niet dat ik dat doe, ik vind dat ati ook cheat)

en dan nog: wat is er mis met optimalisaties, als ze de image quality gelijk laten, niks veranderen aan de code, en het geheel alleen maar sneller maken?
toch ben ik het niet met je eens...
nvidia is hier bezig de benchmark te verneuken, ze renderen gametest4 (en de andere tests) niet zoals die gerenderd zouden moeten worden
Volgens mij ben je dan juist wel met me eens, dat zei ik ook ('ATI cheat grof minder dan nVidia'), mijn verhaal ging over dat ATI het ook doet, niet een ontkenning dat nVidia het doet. Grappig genoeg wordt mijn post waarschijnlijk juist door nVidia fans omlaaggemodereerd (-1 Troll, huh? Dit zijn feiten jongens).
wat ATi heeft toegegeven is dat ze de volgorde van de instructies aanpassen, zodat het sneller loopt op hun hardware...

het verschil? ATi voert de oorspronkelijke code uit, nvidia voert eigen, vervangende code uit
Sorry maar je spreekt jezelf tegen, als ze de code veranderen dan voeren ze niet de oorspronkelijke code uit. Of dat nu een herstructureerde code of geheel nieuwe code is maakt bar weinig uit, andere drivers/kaarten hebben geen toegang tot die herstructureerde code dus is het oneerlijk, aangezien ze testen op de applicatie (3DMark03) en voeren het dan alleen uit, dus kan het ook niet goed zijn voor andere applicaties/spelen, alleen voor 3DMark. Het staat iedereen vrij om algemene optimalisaties uit te voeren die zin hebben voor al het gebruik of zelfs voor enkele spelen met ieder spel eigen specifieke optimalisaties (zolang het niet gaat om het benchmarken en zonder kwaliteitsverlies), maar als dat gebeurt met het oog op een benchmark alleen, dan is er geen ander woord voor dan 'cheaten'.
dus nvidia cheat inderdaad STUKKEN harder dan ati, je kan zelfs zeggen dat ati slechts optimaliseert (niet dat ik dat doe, ik vind dat ati ook cheat)
Dat is precies wat ik heb gezegd, ze cheaten allebei, alleen nVidia een stuk harder op dit moment.
en dan nog: wat is er mis met optimalisaties, als ze de image quality gelijk laten, niks veranderen aan de code, en het geheel alleen maar sneller maken?
Nogmaals: dat het hier om een beeldvormende benchmark gaat, daar zou je niet speciaal voor mogen optimaliseren tenzij die optimalisaties ook voor (alle) andere applicaties gelden en dat doen ze niet. Ten tweede zou je dat niet in het geheim mogen doen. Overigens blijft de kwaliteit niet gehandhaafd als je de 'vrije camera' developerversie hebt, er treden dan allerlei renderfouten op door de toegevoegde statische clipping. En in sommige oudere drivers gingen details (rook e.d.) wel degelijk verloren, ook zichtbaar in de gewone versie die iedereen gebruikt. Je kan dan als nVidia zijnde wel claimen dat het driverfouten waren, maar goh hoe toevallig werd daardoor de benchmark een stuk sneller.

ATI heeft tenminste erkend dat hun optimalisatie negatief opgevat zou kunnen worden en het verwijderd wordt, nVidia komt met een lulverhaal dat Futuremark met opzet een benchmark heeft ontwikkeld die ze in een slechter daglicht stelt terwijl ze zich pas in december terugtrokken toen de benchmark al grotendeels gefinaliseerd was. Dan is de gevolgtrekking niet vreemd dat ze dat deden omdat ze al zagen dat NV30 er niet al te goed vanaf zou komen.. Je kan natuurlijk een stuk moeilijker op zo'n benchmark afgeven als je het officieel ondersteunt als beta/medewerker aan de ontwikkeling.

Dat blijf ik bijzonder zwak vinden, alle spelmakers zullen net zo goed ieder telkens op een ander manier code ontwikkelen en dus sneller op de ene kaart zijn dan op de ander omdat ze niet de bronnen hebben om volledig te optimaliseren (of hun engine toevallig gewoon meer affiniteit toont met de een dan de ander). Zijn alle softwarehuizen die dan toevallig een sneller spel hebben op een ATI kaart gekant tegen nVidia? Wat een onzin.

Daar komt nog bij dat nVidia samenwerking zoekt met softwaremakers om speciale optimalisaties voor hun toe te voegen. Op zich niks mis mee maar de kans bestaat dat (helemaal na het voorgaande) er dan niet voor ATI of anderen wordt geoptimaliseerd (d.w.z. niet in de mate waarin het wel gebeurd zou zijn zonder die samenwerking omdat de aandacht naar nVidia uitgaat), of zelfs expres (iets tot veel) trager laten lopen voor de concurrentie, features ontoegankelijk maken tenzij je een nVidia kaart/driver hebt of zelfs geheel niet laten lopen. Het laatste zal niet gauw gebeuren omdat softwaremakers natuurlijk zoveel mogelijk willen verkopen, maar desondanks is er al sprake geweest met exclusieve nVidia deals, b.v. met Electronic Arts.

En voor degenen die het nodig vinden dit weer als -1 Troll te modereren: ik geef af op zowel nVidia als ATI, concurrentie is goed zolang je het netjes speelt maar op dit moment lijkt dat niet te kunnen.
Weet ik niet, ik denk dat futuremark nVidia eens aan de schandpaal wilde nagelen, om zo de driver-makers van alle kaartmakers af te schrikken dit soort geintjes nog een keer te flikken. Misschien helpt het.
Eindelijk een fix voor de verdwijnende effecten op nVidia kaarten waardoor deze hoger scoren. Omdat de drivers deze nieuwe versie niet kunnen detecteren werken de cheats niet die nVidia erin heeft gebakken en dropt de preformance met 24,1 procent. De Radeon 9800 Pro gaat er 1,9 procent op achteruit. Goed dat dit nu aangepakt is en hieruit mag denk ik wel geconcludeerd worden dat nVidia een vies spelletje gespeeld heeft. Bijna een kwart van de preformance is eraf (qua 3dmarks). Nu heeft Ati de snelste kaart in handen met de Ati Radeon 9800Pro.
NVIDIA has issued a brief response in regards to the alleged cheating that FutureMark claimed took place in certain Detonator FX drivers.
Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today.
Leuk, maar ik blijf het een veredelde sceensaver vinden. Vooral nu blijkt dat de score ook niet alles wilt zeggen vraag ik me af wat zo'n benchmark (bahlve voor de echte fanatiekelingen) voor zin heeft.
Een benchmark kan pas echte nut hebben als tig mensen hier gebruik van maken. Als er tien mensen zijn die Benchmark A draaien en twintigduizend andere mensen Benchmark B gebruiken, dan is de tweede representatiever dan de eerste. De database van Futuremark in de jaren zo gegroeid, dat je een duidelijk vergelijk kunt maken met andere gebruikers.

Helaas hebben enkele fabrikanten roet door het eten gegooid door te sjoemelen met het programma waardoor er andere waardes zijn ontstaan. Dit is dus niet echt leuk voor andere mensen die proberen een zo hoog scorend systeem willen hebben.

Ik moet eerlijk gezegd ook nog eens 3DMark 2003 draaien, want de score die ik vorige keer haalde is niet echt hoog te noemen. Volgens mij was er zelfs nog iemand die een score had gehaald van 1 of 5 :D.
Ja tenzij de resultaten nietszeggend of niet representatief zijn. Ik heb vandaag geleerd dat Apple's relatief een stuk minder zijn in het grazen van RC5 blokjes dan x86 PC's. Apple's kunnen darentegen veel beter video editen en dergelijke dingen. Dat wil niet zeggen dat om die reden de een beter is dan de ander, benchmarks kunnen IMO daarom alleen representatief zijn als ze geen appels met peren vergelijken, dan hoeft nog niet eens een hele stoot mensen het te gebruiken.
3DMark test niet op merk, maar tot wat de te testen videokaart in staat is in DirectX 9. Dat heeft dus niks te maken met appels en peren, maar eerder of een videokaart in staat is om de nieuwste technieken te gebruiken. Het leuke is dat de ATi Radeon 9500/9700/9800 hoger scoort dan de GeForce Ti 4600:
http://www.futuremark.com/

1. ATI RADEON 9700/9500 Series
2. NVIDIA GeForce4 Ti 4600
3. NVIDIA GeForce4 Ti 4400
4. NVIDIA GeForce4 Ti 4200
5. ATI RADEON 8500/9100 Series
Dat nVidia dan opeens roet in het eten heeft gegooid is dan niet te wijten aan de gebruikers. 3DMark is het meest gebruikte benchmarkprogramma, en kan weldegelijk een goede vergelijking neerzetten :).
Als je kijkt op http://n0cgi.distributed.net/speed/ zie je dat een Dual G4 1000 MHz een keyrate heeft van 20,848,573.78 en een Dual AMD Athlon MP 2000 MHz 11,740,000.00. Dan is de G4 dus bijna 4 keer zo snel als je het klokvoorklok vergelijkt.
marketingtechnisch heeft het nogal grote gevolgen, welke fabrikant er bij de benchmark die iedereen wel kent en gebruikt, de hoogst scorende kaart heeft.

Daarnaast gebruikten wij het opd e TD nogal eens om de klant te overtuigen dat hun windows installatie niet correct was (hdd van de klant) en de verse installatie van onze kant wel goed was, of om te laten zien dat een bepaalde combinatie toch echt sneller is. Dat scheelt nogal wat aan tijd, als je cijfers kunt laten zien, want "sneller" is nogal een fuzzy begrip.
Wat ik niet begrijp is dat de FX5900 bijna op alle spellen de ati 9800 verslaat en op 3dmark2k3 vies onderuit gaat. Waarom ?

=> hieruit concludeer ik dat 3dmark geen represantatief proggie is.
Wat ik niet begrijp is dat de FX5900 bijna op alle spellen de ati 9800 verslaat en op 3dmark2k3 vies onderuit gaat. Waarom ?
In het kort, nVidia en Futuremark (makers van 3DMark) zijn niet al te dikke vriendjes. Ati en Futuremark zijn wel dikke vriendjes. Je ziet nu al wat een mogelijke conclusie is.

Futuremark is te commercieel geworden na de release van 3DMark 2001. Zo kunnen bedrijven "lid" worden en zo meebeslissen hoe de volgende versie van 3DMark er uit moet komen te zien. nVidia heeft niet meegedaan in het ontwerpen van 3DMark2003, maar Ati wel. Het gevolg hiervan is dat alle features van de Radeon worden ondersteund door 3DMark2003, terwijl die features niet in de nVidia GeForceFX zitten. Andere features die wel in de GeForceFX zitten, maar niet in de Radeon, daarvoor zie je natuurlijk geen ondersteuning terug in 3DMark2003.
=> hieruit concludeer ik dat 3dmark geen represantatief proggie is.
Dat klopt. Als maar één rivaal meewerkt aan het ontwerpen van een programma, terwijl de andere rivaal er niet aan meewerkt, dan is de benchmark hoogstwaarschijnlijk niet representatief. Dat is in dit geval dus ook het geval.

De optimalisaties/trucjes die Ati toepast in de drivers blijken wel te mogen, terwijl de optimalisaties/trucjes die nVidia toepast in haar drivers gezien worden als cheaten. Laat duidelijk zijn, op dit moment is er nog geen bewijs dat nVidia cheat. Al beweren een helehoop communityleden dat dat wel het geval is, er is nog geen bewijs. Dat nVidia drivers bepaalde scenes fout renderen vanuit andere hoeken (link naar het artikel) is dus nog geen bewijs dat nVidia cheat.
In het kort, nVidia en Futuremark (makers van 3DMark) zijn niet al te dikke vriendjes. Ati en Futuremark zijn wel dikke vriendjes. Je ziet nu al wat een mogelijke conclusie is.
Vriendjes ? Weet ik niks van.. Vertel eens wat meer.
Zo kunnen bedrijven "lid" worden en zo meebeslissen hoe de volgende versie van 3DMark er uit moet komen te zien. nVidia heeft niet meegedaan in het ontwerpen van 3DMark2003, maar Ati wel. Het gevolg hiervan is dat alle features van de Radeon worden ondersteund door 3DMark2003, terwijl die features niet in de nVidia GeForceFX zitten. Andere features die wel in de GeForceFX zitten, maar niet in de Radeon, daarvoor zie je natuurlijk geen ondersteuning terug in 3DMark2003.
Als het in nV's belang is om lid te worden, en het lijkt me overduidelijk dat dat in nV's belang is, dan is het oliedom van nV om geen lid te worden. 3Dmark2K3 test gewoon directX8 en 9 features. De test is dusdanig kort en slecht uitgebalanceerd dat het best zou kunnen dat ATi's kaarten beter presteren in de test.. maar niet echt sneller zijn..
Het feit dat er maar hele kleine veranderingen in 3Dmark zijn aangebracht die zorgen voor een groot verschil in performance bij nV's kaart en niet bij de ATi's geeft toch zeker te denken.
Zeker na de driver grapjes van nV in het recente verleden. Ik doel op de trucjes met de performance en agressive settings.
Wat futuremark nu met allemacht probeert is hun testje geloofwaardig te houden. Of nV nu cheat of niet, het is duidelijk dat 3Dmark de prullenbak in kan, want de resultaten zijn niet betrouwbaar meer.

Waar het omgaat is reallife perfomance.
En wat is het geval ATi's Radeon9800 pro presteert in reallife ongeveer net zo goed als nV's GFfx5900.

Wat overblijft zijn geruchten over drivertrucs op forums. Geen bewijs, dat klop. Maar in het recente verleden is ook gebleken dat nV zijn performance oppompte door AA en AF instellingen te negeren of bij 4xAA eigenlijk 2xAA te doen..
Het gevolg hiervan is dat alle features van de Radeon worden ondersteund door 3DMark2003, terwijl die features niet in de nVidia GeForceFX zitten. Andere features die wel in de GeForceFX zitten, maar niet in de Radeon, daarvoor zie je natuurlijk geen ondersteuning terug in 3DMark2003.
Volgens mij is daar een redelijk duidelijk en plausibel weerwoord tegen gekomen van Futuremark toendertijd (nadat nVidia met die beschuldigingen kwam), namelijk (en technisch onderbouwd) dat die shader versies etc. door beide ondersteund zouden moeten worden (backwards compatible) en waar dat niet gebeurt door tests is aangetoond dat er nauwelijks verschil in de wel gebruikte versies van codepaden zit. Wat wel het geval is dat in enkele zeer specifieke gevallen door specifieke nVidia extensies (die buiten de standaard ARB definities vallen!) er extra snelheid uit kan worden geperst, wat dus inhoudt dat elk spel net zo speciaal voor geoptimaliseerd zou moeten worden. En dat is nou juist niet de bedoeling van een benchmark als 3DMark, en nogal naief van nVidia die duidelijk erop rekende dat hun marktleiderschap er voor zou zorgen dat die extensies automagisch de standaard zouden worden en ook door iedereen, incl. Futuremark per default ondersteund zouden worden.

Dat staat gelijk aan flink voorschot nemen op een typisch monopolistische gedachtengoed à la M$, alleen hebben ze niet gerekend op de onverwachte opkomst van ATI met de 9700 serie, of mogelijk zelfs niet nodig geacht verder te gaan met Futuremark als partner, hun dominantie was immers al beklonken. Of misschien zagen ze de bui al hangen en zijn ze er op het laatste moment nog snel uitgestapt om het draagvlak van Futuremark te verminderen?

Vervolgens ondersteunt de praktijk (echte spelen) ook ATI, hun kaarten zijn in het dagelijks leven gewoon sneller dan wat de verdraaide nVidia drivers in 3DMark 2003 zeggen.

Eveneens is al een aantal malen de revue gepasseerd dat er wel degelijk details ontbreken, hier en op andere review sites, dat kun je gewoon niet ontkennen.

Laat ik mijn theorie dan maar horen: doordat de FX op een falikante mislukking is uitgedraaid (mede door de gehaaste executie nadat ATI opeens met de 9700 kwam) heeft nVidia blijkbaar gedacht te moeten besluiten het spelletje dan maar vies te spelen.
De optimalisaties/trucjes die Ati toepast in de drivers blijken wel te mogen, terwijl de optimalisaties/trucjes die nVidia toepast in haar drivers gezien worden als cheaten.
Dan heb je de zeer recente audit report van Futuremark niet goed gelezen, ik quote:
The drop in performance on the same test system with a Radeon 9800 Pro using the Catalyst 3.4 drivers is 1.9%. This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATI drivers. We are currently investigating this further.
en:
Any company that deliberately tries to fool our products is actually trying to take an advantage of our credibility. We will not tolerate such actions from anyone.
Dat lijkt me vrij duidelijk, ATI is net zo goed het haasje.
Laat duidelijk zijn, op dit moment is er nog geen bewijs dat nVidia cheat.
Kom op zeg, dat was al maanden duidelijk. Een bedrijf als Futuremark zal ook niet zomaar met een dergelijk citaat komen:
Alarmed by all these reports Futuremark has conducted a thorough internal audit regarding this matter and has verified that certain NVIDIA drivers indeed seem to have detection mechanisms, which are triggered by components of the 3DMark03 program. We have identified eight such mechanisms.
In our testing, all identified detection mechanisms stopped working when we altered the benchmark code just trivially and without changing any of the actual benchmark workload. With this altered benchmark, NVIDIA’s certain products had a performance drop of as much as 24.1% while competition’s products performance drop stayed within the margin of error of 3%. To our knowledge, all drivers with these detection mechanisms were published only after the launch of 3DMark03. According to industry’s terminology, this type of driver design is defined as ‘driver cheats’.
Overigens worden die cheats met naam en toenaam genoemd in het document, lijkt me vrij duidelijk allemaal.

En guess what, ondanks dit alles ben ik het met je eens dat 3DMark 2003 niet representatief is, of juist vanwege dit soort perikelen, maar ook nog niet representatief, nu lijken hele snelle kaarten die prima presteren met huidige spelen opeens traag ten opzichte van de allernieuwste generatie, terwijl die pas echt zoveel sneller zullen zijn als spelletjes daadwerkelijk van die features gebruik maken die ze 3DMark 2003 zo veel sneller laat lijken op dit moment. Dan hebben we het natuurlijk over al het shader en ander DX9 geweld.
Anoniem: 76151 24 mei 2003 09:44
Ik vind dat de makers van een benchmark zoals 3dmark, geen hardware fabrikanten als partner horen te hebben, dit om optimalisaties voor bepaalde hardware tegen te gaan.

Als ze een goeie DX9 bench willen maken, vind ik dat het DX9 team van Microsoft hun enige parter zou moeten zijn.

IMO is 3dmark03 gewoon een reclame stunt voor ati. nix meer nix minder
dat slaat nergens op...

3dmark gebruikt alleen maar standaard direct-x functies, nergens geen optimalisaties...

en wat is er mis met optimaliseren? échte games zijn ook continue geoptimaliseerd, waarom zou dat bij een benchmark dan niet mogen?
natuurlijk, het mag niet uit de hand lopen, de code moet worden gerespecteerd en de image quality moet gelijk blijven, maar als dat zo is: wat is er dan mis mee als het sneller loopt zonder compromises?
Wil je een ONAFHANKELIJKE bench maken moet je geen hardware fabrikant als parter hebben, dan verlies je je geloofwaardigheid IMO

/edit
voor een realistische bench moet je kijken waar soft/hard-ware aan moeten voldoen. Dat is hier dus DX9. Daarom is het niet van belang wat de hardware makers gaan doen, maar wat het DX9 team doet, hierop word een spel tenslotte gebaseerd. En de hardware ook.
/edit
de enige reden dat er hardware fabrikanten bij zitten, is omdat ze een realistische bench willen maken!
3dmark is bedoeld als graadmeter voor je PC, als weergave van hoe je hele systeem, en dan speciaal je videokaart zich houdt in toekomstige game-scenarios.

maar om nou te weten wat in de toekomst mogelijk is, moet je toch weten wat de hardwarefabrikanten gaan doen? om te weten hoe games die in de toekomst uitkomen lopen, moet je toch ook samenwerken met hardwarefabrikanten? dat zal dan immers ook gebeuren!

nvidia heeft kans genoeg gehad om in het programma te komen, om de eventuele optimalisaties tegen te gaan...
dat ze dit niet gedaan hebben, is óf heel dom van ze, óf ze hadden door dat er geen optimalisaties in zitten...

edit:

ok, misschien slecht punt...
maar dan nog blijft het punt: de games zullen ook geoptimaliseerd worden, dus waarom een benchmark die een weerspiegeling van die games is, waarom zou die dan niet geoptimaliseerd mogen worden? nu zou het inderdaad niet zo moeten zijn dat de benchmark voorkeur heeft voor bepaalde systemen, maar nog nooit is bewezen dat 3dmark2003 dit doet, ondanks het feit dat nvidia niet in de groep zat...
niet om partijdig te doen, maar iedereen zegt nVidia gaat achteruit, dus zal het aan de drivers liggen, maar aangezien 3Dmark2003 ook de videokaart detecteerd, kan het evengoed Futuremark zijn die een vies spelletje speelt, vergeet niet dat die nog altijd boos zijn op nVidia
sinds nVidia uit de groep is gestapt, is de bench nu eenmaal lager in aanzien
Nu kan je wel roepen dat Futuremark of welke synthesische benchmark dan ook overbodig is geworden of niet geloofwaardig maar dan vergeet je wel iets.

elke benchmark die een vast camerapatroon volgt is dan onbetrouwbaar ! Dus ook de Fly-by's en Bot's van Doom, UT etc.etc.
Daarom vind ik juist het tegendeel. En dat Futuremark Nvidia een hak zou willen zetten, komop zeg. Bijna iedereen zit erin , behalve Nvidia. En dat is hun eigen keus, hun "vinger in de pap" was niet groot genoeg en daar waren ze nogal verbolgen over. Als er eentje is die de boel wil verzieken is het Nvidia wel

1) geduchte concurentie laatste tijd
2) debacle van de GF5800u
3) teurglopend marktaandeel

catfish
Oww, dus toen Nvidia nog meedeed was telde de Bench wel mee en nu ze er zelf uitgestapt zijn niet meer ? Da's hetzelfde geblaat wat je altijd ziet bij mensen als hun scores tegenvallen. Ach, het is maar een benchmark, het stelt niks voor...blablabla
Maar ondertussen gebruiken ze het wel.....
En als ze goed scoren hoor je nog harder schreeuwen; hee kijk mij eens...
Anoniem: 57993 24 mei 2003 09:18
Is er nog altijd zoveel schijfruimte nodig op de c-schijf om dit te installeren? Want dit is redelijk ambetant voor mensen met weinig ruimte, kun je dit niet opzeilen?
Nee, je kunt de ruimte niet verminderen. Als je bijv geen DX9 kaart hebt zou je kunnen proberen de Nature demo eruit te gooien. Maar of dat kan en hoe weet ik niet.

Ik denk dat de ruimte die benchmarks innemen alleen maar groter zal worden. Omdat er steeds meer functies in komen, mooiere textures etc.
En je hoeft het niet per se op de c-schijf te zetten hoor. Maar als je je beste score wilt halen wel nauurlijk. Dit komt omdat meestal ook je swapfile op de C staat, die kun je natuurlijk ergens anders neerzetten maar lijkt me niet verstandig. Als je dan aan het benchen bent en hij heeft data nodig van 3dmark (die op de D staat bijv). Dan moet ie van de D schijf laden en daarna misschien weer de swapfile aanpassen. Dan moet ie op een andere schijf gaan laden, krijg je een beetje een delay.
Het probleem met het installeren en het tekort op de c-schijf is in build 320 al opgelost. Ik heb het getest en bij het installeren gebruikt die nu gewoon een andere schijf als er op de c niet voldoende ruimte beschikbaar is.

Op dit item kan niet meer gereageerd worden.