Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties
Bron: X-bit labs

ATi en nVidia maken publiekelijk ruzie met een aantal spelontwikkelaars. De bedrijven betwisten het objectiviteitsgehalte van twee nieuwe DirectX 10-benchmarks.

Lost Planet coverAMD, eigenaar van ATi, is het oneens met de resultaten die voortkomen uit de benchmarks van de shooter Lost Planet: Extreme Condition. Volgens het bedrijf is de titel ontwikkeld onder het 'The way it's meant to be played'-programma van nVidia; daarnaast zouden ATi-ontwikkelaars geen mogelijkheid hebben gekregen om de Catalyst-drivers voor de titel te tweaken. Gamedeveloper Capcom wil niet publiekelijk ingaan op de aantijgingen van AMD, maar opvallend is dat Lost Planet ook op de Xbox 360 draait. Deze console is voorzien van een ATi-gpu.

Aartsvijand nVidia heeft er ook voor gekozen om in het openbaar zijn ongenoegen over een benchmark voor DirectX 10-videokaarten kenbaar te maken. Mikpunt is het spel Call of Juarez, een first person shooter die zich in het Wilde Westen afspeelt. Volgens nVidia remt dit spel gpu's uit de GeForce 8-serie door 'onjuiste code' te veel af, waardoor het geen eerlijke vergelijking zou bieden. Techland, de ontwikkelaar van Call of Juarez, heeft besloten om - in tegenstelling tot Capcom - wel de verdedigende stellingen te betrekken. Een van de klachten van nVidia is dat de benchmark gebruikmaakt van softwarematige fsaa, in plaats van de hardwarematige anti-aliasingmogelijkheden van de GeForce-gpu's. Techland zegt dat zijn programmeurs uit de nieuwe featureset van DirectX 10 hebben geput. Om het beeld te ontdoen van storende kartelrandjes gebruikt de game technieken als high dynamic range rendering en deferred rendering, en houdt daarmee bewust de anti-aliasingtrukendoos van de GeForce-gpu's gesloten. De ontwikkelaar stelt zelfs dat de hardwarematige fsaa-techniek van nVidia achterhaald is; de code van Techland zou een kwalitatief beter beeld bij de speler afleveren. Daarnaast wijst de developer fijntjes op het feit dat de nieuwe mogelijkheden onder andere op verzoek van hardwarefabrikanten in de DirectX 10-specificaties zijn opgenomen.

Behalve met kritiek op de softwarematige fsaa-benadering van Techland, kwam nVidia met de stelling dat de benchmark een verborgen 'extra quality'-instelling heeft. Deze optie zou de nieuwste GeForce-kaarten juist onnodig afremmen. Techland zegt dat deze instelling bij het starten van het spel in Windows Vista altijd actief is en niet uitgezet kan worden; deze optie zou bovendien de DirectX 10-mogelijkheden van het spel volledig benutten. Tot slot klaagt nVidia dat de retailversie van Call of Juarez de shaders van zijn videokaarten niet optimaal weet te benutten, waardoor de prestaties met veertien procent zouden teruglopen. De ontwikkelaar is verbaasd over dit argument, juist omdat de gpu's van nVidia zouden uitblinken in het rap toepassen van anisotropic filtering. Techland sluit zijn verweer af met de stelling dat alle inhoudelijke beslissingen bij het ontwikkelen van een spel niet thuishoren bij bedrijven als nVidia, maar enkel en alleen bij de developers.

De onenigheid tussen enerzijds ATi en nVidia en de ontwikkelaars van spellen anderzijds is allesbehalve nieuw. Beide videokaartenmakers weten hoe de verkoopcijfers van met name de high-end kaarten afhankelijk zijn van goede scores in benchmarks; de twee zetten daarom alles op alles om deze cijfers naar hun hand te zetten. In 2003 ontstond een vergelijkbare rel, waarbij de producent van 3DMark03 uiteindelijk toegaf dat het deze benchmark voor nVidia-gpu's had geoptimaliseerd. Uit de hoek van ontwikkelaars en gamers lijkt de roep om meer aandacht te schenken aan zaken als stabiele drivers en betere beeldkwaliteit, steeds harder te worden.

Scène uit Call of Juarez
Moderatie-faq Wijzig weergave

Reacties (95)

Ik kan me de reactie van beide bedrijven wel voorstellen, tegenwoordig lijkt alles bij de videokaarten wel om benchmarks te draaien, ik betrap mezelf er ook op. Maar als een spel crappy geprogrammeerd is dan kan een kaart daar heel anders in presteren als bij een spel wat wel goed geprogrammeerd is. Ik weet niet of dit nu zo'n goed voorbeeld is maar persoonlijk lijkt me de DoomIII engine een goed voorbeeld; relatief veel eye candy zonder dat er perse een super kaart nodig is.
De DoomIII engine lijkt mij juist een slecht voorbeeld.

Weinig eye candy (alleen maar schaduwen die ook nog eens lelijk zijn) en verder bar slechte performance waardoor je het alleen op heel lage resolutie kon spelen.

De DoomIII engine maakte geen goed gebruik van de kracht van de videokaarten. (Alle shaders waren bv op PS1.3 nivo, ipv 2.0). En daardoor kwam een heleboel werk op de schouders van de cpu terecht, terwijl dat veel efficienter door de videokaart gedaan had kunnen worden.

Vandaar dat de prestaties van de videokaarten in de DoomIII engine dan ook zo totaal verschillend waren tov alle andere spellen.
Je moet niet vergeten dat Carmack de engine schreef voor GeForce 3 / GeForce 4. Deze kaarten bieden alleen PS 1.3.

Bron: http://www.gamer.nl/doc/15540
Je moet niet vergeten dat Doom3 uitkwam in dezelfde periode als oa Far Cry en Half-Life 2, welke allemaal wel gewoon SM2.0-niveau hadden, en ook meer eyecandy, en in verhouding minder op de CPU leunden. Ook draaien deze spellen in verhouding beter op oudere hardware.

Als het Doom3-voorbeeld al iets bewijst, dan is het dat de keuze van Carmack voor OpenGL/portability het ontwikkeltraject een stuk langer heeft gemaakt, en de kwaliteit van de uiteindelijke game niet geheel overeenkwam met z'n tijdgenoten.
Gelukkig hoefde Doom3 het niet van z'n graphics alleen te hebben. De algehele sfeer in het spel was bloedstollend, en de naam 'Carmack' zal ook wel bijgedragen hebben aan het succes (en het feit dat men zoveel geld en tijd in de game kon steken, ik denk dat andere ontwikkelaars simpelweg die luxe niet hebben).
Far Cry: March 23, 2004
Doom 3: Aug 3, 2004
Half Life 2: November 16, 2004

Hetzelfde jaar maar niet dezelfde periode. ;)

Ik heb ze alledrie uitgespeeld en vond Far Cry toch het meest indrukwekkend.
De reden waarom de Doom 3 engine minder goed uit de verf komt is omdat er geen grote buitenomgevingen in de game zitten itt de andere 2.
Hetzelfde jaar maar niet dezelfde periode.
Periode als in 'generatie' van games. Draaiden dus op vergelijkbare hardware.
De reden waarom de Doom 3 engine minder goed uit de verf komt is omdat er geen grote buitenomgevingen in de game zitten itt de andere 2.
Die zitten er niet in vanwege beperkingen van de engine.
Net zoals alle objecten van (nieuw) metaal of plastic zijn, zodat ze geen hout, porcelein, roest etc hoeven te kunnen renderen.
Zowel Far Cry als Half-Life2 beschikken over veel meer verschillende rendering-technieken om een veel grotere verscheidenheid aan scenes aan te kunnen.

[Reactie gewijzigd door ddbruijn op 22 juni 2007 20:02]

benik de enige die vind dat doom3 er goed uitziet? :p

mar ontopic: farcry, HL2 en Doom3 gebruiken allen geen pixelshader 2, omdat het toen idd wel bestond, maar toen waren de topkaarten de GF4 Ti en radeon 9800, welke enkel model 1.3 ondersteunden. de enige kaarten die 2.0 ondersteunden waren de FX kaarten van nVidea als ik me niet vergis.
dus ze toen in 1.3 schrijven zo gewoon dom zijn, ent zoals nu een DX10-only game schrijven nog niet echt slim is :p
mar ontopic: farcry, HL2 en Doom3 gebruiken allen geen pixelshader 2, omdat het toen idd wel bestond, maar toen waren de topkaarten de GF4 Ti en radeon 9800, welke enkel model 1.3 ondersteunden. de enige kaarten die 2.0 ondersteunden waren de FX kaarten van nVidea als ik me niet vergis.
Je vergist je, want de Radeon 9700 was de eerste, en die kwam lang voor de FX-serie (en was ook een heel stuk beter dan de FX-serie... waar destijds nog grote rellen over waren).
Sterker nog, de 9700 was eerder op de markt dan dat Microsoft Direct3D9 klaar had.
FarCry en HL2 gebruiken dan ook WEL pixelshader 2.0, alleen Doom3 niet.
dus ze toen in 1.3 schrijven zo gewoon dom zijn, ent zoals nu een DX10-only game schrijven nog niet echt slim is
Natuurlijk hebben ze ook fallbacks voor oudere hardware. Vooral Half-Life2 pakt dit erg goed aan (er zijn 4 opties: geen shaders, ps1.1, ps1.4 en ps2.0).
Gezien de OpenGL-hel van extensies heeft Doom3 ook behoorlijk wat renderpaden (waarvan sommigen het niet eens gehaald hebben naar de uiteindelijke versie), en theoretisch gezien is het ook wel pixelshader 2.0 (in OpenGL shaders heb je niet echt dergelijke versienummers), maar het gaat erom dat de gebruikte technologie in de shaders niet verder gaat dan 1.3. Sterker nog, het geheel is gebaseerd op een rendermethode die ook met de fixedfunction pipeline van de GeForce2 te doen is, en dit wordt ook ondersteund. Zelfs met ps1.1 of ps1.4 hadden ze toch de graphics wat fraaier en uitgebreider kunnen maken, zoals Half-Life2 ook demonstreert.

[Reactie gewijzigd door ddbruijn op 23 juni 2007 00:50]

dat is niet echt zo, want toen doom3 uitkwam, had ik het gekocht en ik speelde het op de hoogste settings (alles op hoogste) en niet getweaked voor betere performance op mijn Gforce 5950 Ultra...

en de schaduwen enzo zagen er ook heel goed uit (zeker voor die periode)
Wel grappig dat je beide videokaart fabrikanten steunt. Een beetje jammer alleen dat beide fabrikanten graag zelf zwarte dozen verkopen, daarbij wel verwachten dat gameprogrammeurs tweaks voor de betreffende kaarten gebruiken, maar zodra er maar een beetje meer info over de werking van de kaart moet worden vrijgegeven zijn ze niet meer thuis. Ik snap dat spelletjes videokaarten-gehype sowieso niet zo best. Wat mij betreft zouden gameontwikkelaars zich aan de DirectX en/of OpenGL API moeten houden en zijn tweaks gewoon een kwestie om problemen te omzeilen.
Hoezo is dat grappig? :P ik ben geen fanboy die alleen maar 'voor' één bepaald merk is, ik koop gewoon de kaarten die me op dat moment bevallen, merken zeggen vrij weinig, zolang de kwaliteit goed is maakt het toch niet uit :)
Wat mij betreft zouden gameontwikkelaars zich aan de DirectX en/of OpenGL API moeten houden en zijn tweaks gewoon een kwestie om problemen te omzeilen.
Dat is gewoon een grijs gebied.
Ook al hou je je 100% aan de spec (wat CoJ ook doet, voor zover ik in dit verhaal kan nagaan), dan nog zijn er altijd punten waar fabrikant A goed in is en fabrikant B minder, en omgekeerd.
ATi en nVidia ontwerpen nou eenmaal beiden hun eigen kaarten, en daar zullen verschillen in zitten.
Wat nVidia eigenlijk zegt is "Ja, wij hebben onze kaart op bepaalde punten niet snel genoeg gemaakt, dus willen we dat CoJ lelijkere antialiasing gaat gebruiken".
Wat nVidia eigenlijk zegt is "Ja, wij hebben onze kaart op bepaalde punten niet snel genoeg gemaakt, dus willen we dat CoJ lelijkere antialiasing gaat gebruiken".
Nee, nVidia zegt dat er meer uit hun hardware te halen valt als men gewoon ook hardware based AA toestaat en is relatief simpel, omdat dit al jaren gebruikt wordt. In feite leveren zowel Ati als nVidia erg veel prestatie in bij het gebruik van software based AA (14% meer dan hardware based AA). Nvidia geeft aan dat er meer uit hun hardware te halen. En hardware based AA geeft een even mooi plaatje als software based ;)
En hardware based AA geeft een even mooi plaatje als software based
Niet dus.
De hardware AA is niet geschikt voor HDR-rendering.
Je dacht toch niet dat die gasten voor CoJ voor de lol hun eigen software-oplossing gingen maken, als ze gewoon hardware AA konden gebruiken?
Met hardware-AA heb je nog steeds behoorlijk wat aliasing bij contrastrijke delen, omdat alles gewoon lineair gefilterd wordt.
nVidia zegt dus WEL dat CoJ lelijkere antialiasing moet gebruiken. Of dacht je dat ik die opmerking voor de lol plaatste?
Volgens nVidia zie je geen verschil, maar dat neem ik met een flinke korrel zout.
Neen jou verhaal klopt dus niet. AMD (Ati) heeft het bezit van deze benchmark exclusief en kan er mee doen wat ze willen en sindsdien is de AA workaround (soft based) standaard in de benchmark wat nvidia kaarten het bewust lastiger maakt. Die contrastrijke delen kunnen bij andere HDR titels wel gewoon functioneren, maar zou theoretisch belemmering kunnen (niet moeten ) veroorzaken. En in CoJ werkt heel toevallig AF niet wat ook enorme dips op de nieuwste AMD kaartjen geeft.......toeval?
Neen jou verhaal klopt dus niet.
Mijn verhaal klopt wel.
Als je goed kijkt zie je ook duidelijk dat AA vaak tekortschiet, zowel bij HDR als bij per-pixel bumpmapping in het algemeen.
nVidia heeft zelf vroeger het softwarematig AAen van scenes gepromoot.
Jouw verhaal ontkracht mijn verhaal dan ook niet. Misschien heeft AMD inderdaad opzettelijk de hardware-AA functie eruitgehaald.
Dat wil nog niet zeggen dat de kwaliteit ook gelijk is, want dat is het niet.
Verder is het allemaal speculatie. Mijn verhaal houdt zich aan de feiten.

Over AF kan ik trouwens niets vinden (kan me ook niet voorstellen dat dat uit staat, want AF is net als AA standaard anno 2007, en het ziet er niet uit als je dat uitzet)....
nVidia heeft het wel over het feit dat men 'low' detail als standaard gebruikt, wat oa de schaduwen simpeler maakt?

[Reactie gewijzigd door ddbruijn op 22 juni 2007 22:02]

daarnaast zouden ATi-ontwikkelaars geen mogelijkheid hebben gekregen om de Catalyst-drivers voor de titel te tweaken.

Uhm.. drivers moeten gewoon altijd goed werken, en speciaal voor een bepaald spel getweaked moeten worden, anders is het natuurlijk belachelijk voor mensen die een spel uitbrengen maar waarvoor niet getweaked zou worden.. Maarja ik ben dan ook al een tijd weer afgestapt van ATI (9800Pro) juist vanwege brakke drivers..
Het zit een beetje ingewikkelder in elkaar...

Er zitten een heleboel bugfixes en workaround voor game bugs in de drivers. Eigenlijk zouden die niet in de driver moeten, maar zou de game een update moeten krijgen. Maar helaas, de praktijk is dat de driver er op aangekeken wordt, als het spel wel correct op de ene, maar niet op het andere merk videokaart werkt. En dus zorgen videokaart fabrikanten er voor dat ze bugfixes in de driver stoppen, ondanks dat het niet hun schuld is. Het is triest, maar de meeste driver issues zijn eigenlijk game issues...

Verder is het normaal geworden dat er tweaks voor games in de driver zitten. En dat is niet altijd zo erg. Hoewel er veel games zijn, zijn er veel minder game-engines. Een enkele tweak voor een game engine kan zodoende heel veel games bevoordelen. Dat komt dan ook ten goede aan de gebruiker.

Verder.... wanneer je weet dat je concurrent tweaked voor de typische benchmarks, dan heb je weinig keuze... dan zul je zelf mee moeten, want gebruikers maken wel hun keuze op basis van die benchmark.

Zowiezo... als je niet wilt dat er voor een bepaald spel getweaked wordt, dan zou ik maar snel bij NVidia weggaan...
Volgens het bedrijf is de titel ontwikkeld onder het 'The way it's meant to be played'-programma van nVidia; daarnaast zouden ATi-ontwikkelaars geen mogelijkheid hebben gekregen om de Catalyst-drivers voor de titel te tweaken.

In 2003 ontstond een vergelijkbare rel, waarbij de producent van 3DMark03 uiteindelijk toegaf dat het deze benchmark voor nVidia-gpu's had geoptimaliseerd.

Waarom niet 3Dbench.org starten waar een open game benchmark platform ontwikkeld wordt. Ook met input van de GPU producenten. Dan is de optimalisatie geen argument meer.

Als dit platvorm een hogere performance haalt motiveert dit de game engine fabrikanten ook, zeker zal ze onderdoen voor de 3dbench.

Edit: typo

[Reactie gewijzigd door worldcitizen op 22 juni 2007 16:16]

omdat het ontwikkelen van een benchmark VRESELIJK VEEL geld kost. 3dmark onderhouden kost echt veels te veel geld. daarom zijn veel functionaliteiten niet beschikbaar in de gratis versie.

games met benchmark functies verdienen geld omdat ze bedoeld zijn als games. je koopt HL2 omdat je als Gordon Freeman eens even lekker Combine-aars wilt schoppen, niet om time-demo's te draaien.

een _GOEDE_ opensource 3dbenchmark zijn er waarschijnlijk nooit komen.
IMO hooft een benchmark niet persee een game te zijn. Het belangrijkste is dat het overeenkomt met werkelijke games. Het zouden ook best draaiende objecten met reflecties en shaders zijn en andere dingen die belangrijk zijn.

Initieel zal een benchmark geld kosten of het veel is weet ik niet. Ligt ook aan de interresse vanuit de OSS gemeenschap. Aangezien alle GPU producten hier een goede benchmark door krijgen lijkt het me reeel dat ze er mogelijk ook geld en/of ontwikkel capaciteit in steken.

Ik kan me ook voorstellen dat de game industrie er geld in zal steken omdat de benchmark dan maximaal overeen komt met hun games.

een _GOEDE_ opensource 3dbenchmark zijn er waarschijnlijk nooit komen.

Ligt vooral aan de GPU fabrikanten, denk ik. Als zij er niets in zien niet. Zij zijn degene die er primair mee winnen.
En wiens input ga je dan het meeste naar luisteren?

Er zijn altijd meerdere oplossingen voor een probleem. De ene oplossing zal beter zijn voor de ene gpu, de andere voor de andere.
Wie gaat er dan besluiten welke oplossing er gekozen moet worden?

Verder gebruikt het ene spel bv meer highres textures (bv Max Payne2) en het andere heel veel vertices (Morrowind/Oblivion)
Voor beide zijn goede argumenten. Maar de ene videokaart zal sterker zijn op het ene gebied en de andere op het andere.
Hoe ga je je verhouding textures/vertices in je benchmark kiezen?

Ga je optimaal gebruik maken van een nieuwe DX versie of niet?
Ook dat gaat bij verschillende kaarten andere resultaten opleveren.

Dit soort keuzes zul je nooit overeenstemming over krijgen, en dus zal er altijd een leverancier blijven klagen.
En wiens input ga je dan het meeste naar luisteren?

Hoeft niet, want ze kunnen zelf commits op de source doen.


Er zijn altijd meerdere oplossingen voor een probleem. De ene oplossing zal beter zijn voor de ene gpu, de andere voor de andere.
Wie gaat er dan besluiten welke oplossing er gekozen moet worden?


Als alles goed is praat de benchmark tegen directX, opengl etc. Als je een gode benchmark hebt lijkt deze behoorlijk op de exhte werelnd en ga niet alleen call doen die goed zijn 1 fabrikant.

[Reactie gewijzigd door worldcitizen op 22 juni 2007 18:10]

Hoeft niet, want ze kunnen zelf commits op de source doen.
Zo werkt dat dus niet.
Bij een benchmark is het noodzakelijk dat iedereen dezelfde versie draait, er kan dus maar 1 implementatie zijn.
Er moet dus altijd een keuze gemaakt worden, anders krijg je een ATi-fork en een NV-fork, en is de benchmark vrij nutteloos, omdat je appels met peren vergelijkt.
Natuurlijk zal er een maar een versie moeten zijn. Je kunt dit waarborgen door een code maintainer te hebben ala de linux kernel. Dan zou er geen ATI/NVidia/Intel/XGI geoptimaliseerde versie hebben. De code maintainer zou iemand moeten zijn die het vertrouwen geniet van de GPU fabrikanten en de test sites (als onafhankelijk persoon).

IMO ogen het ook belangrijk zijn om standaard calls te doen op DirectX en openGL en dat deze calls zo optimaal mogelijk zijn.
Natuurlijk zal er een maar een versie moeten zijn. Je kunt dit waarborgen door een code maintainer te hebben ala de linux kernel.
Dus moet er altijd een keuze gemaakt worden.
De code maintainer zou iemand moeten zijn die het vertrouwen geniet van de GPU fabrikanten en de test sites (als onafhankelijk persoon).
Dat is een utopie. Zodra er een nieuwe test uitkomt die beter werkt bij fabrikant X, gaat fabrikant Y lopen zeuren.
IMO ogen het ook belangrijk zijn om standaard calls te doen op DirectX en openGL en dat deze calls zo optimaal mogelijk zijn.
Zo optimaal mogelijk voor welke architectuur?
Nogmaals, je denkt er mijns insziens veel te gemakkelijk en naief over.
Over iedere grote benchmark is er altijd gezeik, hoe objectief men het ook probeert te maken. Er kan er altijd maar een de winnaar zijn, en beide fabrikanten willen dat zijn, dus hou je altijd gezeur.
Dus moet er altijd een keuze gemaakt worden.
Klopt, deze keuze zou door bijvooorbeeld door Microsoft gemaakt worden voor DirectX zij zijn de leverancier van DirectX waardoor ze waarschijnlijk expert op dit gebied zijn.
Dat is een utopie. Zodra er een nieuwe test uitkomt die beter werkt bij fabrikant X, gaat fabrikant Y lopen zeuren.
LIgt er helemaal aan. Als een review site en de consument het gevoel hebben dat de benchmark onpartijdig is zal gezeur alleen maar averechts werken.
Over iedere grote benchmark is er altijd gezeik, hoe objectief men het ook probeert te maken. Er kan er altijd maar een de winnaar zijn, en beide fabrikanten willen dat zijn, dus hou je altijd gezeur.
Ben ik met je eens maar het punt dat ze spel niet op tijd in bezit hadden is dan geen valide argument meer.
LIgt er helemaal aan. Als een review site en de consument het gevoel hebben dat de benchmark onpartijdig is zal gezeur alleen maar averechts werken.
De geschiedenis leert ons dat review sites, en vooral consumenten te weinig verstand van zaken hebben om dit soort situaties goed te beoordelen, en dat ze gewoon domweg achter hun 'favoriete merk' gaan staan.

Zo werd bv bij het GeForce FX-fiasco eerst de schuld gezocht bij 3DMark03, ipv dat men gewoon accepteerde dat de benchmark inderdaad onpartijdig was, en nVidia gewoon een wanprestatie had geleverd op het gebied van SM2.0.
De forums staan nog vol met reacties van mensen die maar niet konden geloven dat de ATi kaarten echt zoveel beter waren. Dergelijke verschijnselen zagen we ook bij de eerste benchmarks van Core2 Duo. Men kon het gewoon niet geloven, dus moest Intel de boel wel oplichten.
Ben ik met je eens maar het punt dat ze spel niet op tijd in bezit hadden is dan geen valide argument meer.
Dat is sowieso geen valide argument, zoals mjtdevries en ik elders uitleggen.
Je drivers voor ieder spel optimaliseren is onzin. In principe zouden ze die benchmark niet eens in handen MOGEN hebben, als het echt eerlijk moet gaan. Drivers moeten gewoon domweg hun werk doen. Als je NV of ATi een benchmark geeft, gaan ze niet optimaliseren, maar gaan ze allerlei cheats in hun drivers bouwen.
Als alles goed is praat de benchmark tegen directX, opengl etc. Als je een gode benchmark hebt lijkt deze behoorlijk op de exhte werelnd en ga niet alleen call doen die goed zijn 1 fabrikant.
Zo werkt het niet in de praktijk.

Neem bv weer de verhouding textures en vertices.
Welke verhouding lijkt behoorlijk op de echte wereld?

In elk spel is het anders, en de verhouding veranderd ook nog eens door de tijd.
Wat je ook kiest, het zal altijd een bron van discussie zijn.

Sterker nog, zelfs al kies je één spel als voorbeeld dan zijn er in de verschillende levels van een spel nog grote verschillen.
Kijk bv naar de water levels van HL2 waar de ATI kaarten een nog veel grotere voorsprong hadden op de Nvidia kaarten. Welke levels van HL2 lijken dan behoorlijk op de echte wereld?

Er zijn veel te veel variabelen om ooit consensus te krijgen over de functies die je moet gebruiken en de mate waarin je ze moet gebruiken.
Neem bv weer de verhouding textures en vertices.
Welke verhouding lijkt behoorlijk op de echte wereld?
IMO zou het beste zijn om een aantal synthetische benchmarks te doen voor textures en vertices. De weeg getallen die je er op los laat is een afspraak tussen de partijen, of je laat het zelfs open. En laat je de beoordeling open aan de test sites. Dus HL2 waarde water.

Je kunt nog steeds de synthetische tests met de huidige 3Dmark test gebruiken. Dan krijg je IMO ook gevoel bij de games, hoe goed ze zijn.
Synthetische tests kunnen ook best op spellen gelijkende zaken zijn zoals een combinatie van vuur, water, licht, donker, reflecties etc die het hele syteem heel erg belasten. Zelfs meer als de meest intensive spellen. Puur omdat zoiets bijvoorbeeld niet reeel op speelbaar zou zijn, omdat het irreëel is.
In elk spel is het anders, en de verhouding veranderd ook nog eens door de tijd.
Wat je ook kiest, het zal altijd een bron van discussie zijn.
Klopt maar het hudige nadeel is dat mensen naar spellen kijken. Stel nu spel fabrikant x maakt een heel erg populair spel wat heel erg slecht geprogrammeerd is. Zodat het alleen op de nieuwste hardware draait, terwijl als het beter geprogrammeerd zou zijn zou het ook op minder optimale hardware draaien. Nu worden deze fouten gecompenseerd doordat de GPU fabrikanten hier hun code voor compenseren.

Nu heb je eigenlijk geen "benchmark" voor een spel. Het zou IMO ook eens goed zijn om naar spelfabrikanten te kunnen wijzen dat ze niet optimaal geprogrammeerd hebben.

Daardoor zou de de code ook inspiratie voor de game engine programmeurs kunnen zijn.

[Reactie gewijzigd door worldcitizen op 24 juni 2007 10:43]

Synthetische benchmarks zijn er al lang.
En niemand vind ze interessant. De reden daarvoor is heel simpel: het zegt niets over de prestaties in een spel.

En daar gaat het uiteindelijk om.

Synthetische benchmarks zijn interessant als je de technische details van een videokaart wil leren kennen. Als je z'n sterke en zwakke punten wilt ontdekken.
Maar uiteindelijk gaat het allemaal om de spellen.

DAAROM kijken mensen naar benchmarks van spellen.

Lekker boeiend of de code van Oblivion of DoomIII nu wel of niet goed geschreven is. Mensen willen nou eenmaal dat spel spelen.
En als jij een nieuwe videokaart wilt kopen omdat je Oblivion er op wilt spelen, dan is de Oblivion benchmark de beste informatie die je voor je koop hebt.
Aan een synthetische benchmark heb je dan helemaal niets!


De enige manier om werkelijk een goed inzicht te krijgen in hoe goed een videokaart is, is door 30!! verschillende game-benchmarks van verschillende review sites te analyseren.
En daarbij dan te kijken of je overeenkomsten ziet in prestaties als gevolg van AA, AF, game engine etc etc etc.
Dan kan je een goede afweging maken welke kaart voor jou de beste is.

Eén benchmark zal nooit en te nimmer voldoende informatie geven.
Eén benchmark zal ook nooit en te nimmer objectief genoeg zijn.
Synthetische benchmarks zijn interessant als je de technische details van een videokaart wil leren kennen. Als je z'n sterke en zwakke punten wilt ontdekken.
Maar uiteindelijk gaat het allemaal om de spellen.
Ben ik met je eens zo kijken mensen ernaar, een review site kam met motivatie er anders tegenaan kijken.
Lekker boeiend of de code van Oblivion of DoomIII nu wel of niet goed geschreven is. Mensen willen nou eenmaal dat spel spelen.
Vanuit de consument terecht. (De GPU fabrikanten zullen het ook niet erg vinden verkopen ze hun snelse versie weer).

Vanuit het punt van milieu onterecht. Als er door programmeren niet zo'n grote noodzaak zou zijn om de kaart te upgraden kan zouden de GPU fabrikanten ook eens naar het energieverbruik kunnen gaan kijken.

[Reactie gewijzigd door worldcitizen op 24 juni 2007 10:44]

Vanuit het punt van milieu onterecht. Als er door programmeren niet zo'n grote noodzaak zou zijn om de kaart te upgraden kan zouden de GPU fabrikanten ook eens naar het energieverbruik kunnen gaan kijken.
Volgens mij gaan die twee altijd samen.
Men probeert de technologie steeds zuiniger te maken, zodat men meer processorkracht op een enkele kaart kan proppen.
Ook bij CPUs is die trend duidelijk... Oh, dualcores zijn nu zuiniger? Nou, maak er dan maar meteen een quadcore van, zit je weer aan de 130w.
De low-end modellen worden door deze ontwikkeling wel vaak zuiniger, maar high-end zal stroom blijven vreten... Als jij het niet doet, doet je concurrent het wel, en de meeste mensen willen toch de snelste kaart, niet de zuinigste. Pas als prestaties gelijk zijn, kan zuinigheid de doorslag geven.
Vertex test EN texture test.

En uiteraard optimaliseren voor de nieuwste DX, maar dat ligt voor de hand.
Met een synthetische vertex test en synthetische texture test weet je dan nog steeds niet welke kaart de beste is voor spellen.

En optimaliseren voor de nieuwste DX ligt helemaal niet voor de hand. De meeste spellen zijn nog steeds DX9. Dus dan zou zo'n benchmark geen goed beeld geven van de prestaties die je met de huidige DX10 kaarten in de huidige spellen zou krijgen.

Welke kaart is op dit moment de beste keus?
De kaart die relatief sterk is in DX9 en relatief zwak in DX10? Of juist andersom?

Jouw benchmark zou wijzen naar de tweede optie, maar dat zou een totaal verkeerd beeld geven voor 99% van de spellen die je op dit moment kan kopen.

Zo voor de hand liggend is het dus niet.
ATI heeft gelijk, dat zie je ook aan de reacite van Capcom, Nvidia wil gewoon kloten, want de sourcecode van Call of Juarez is gewoon neit gemaakt voor DX 10!
In 2003 ontstond een vergelijkbare rel, waarbij de producent van 3DMark03 uiteindelijk toegaf dat het deze benchmark voor nVidia-gpu's had geoptimaliseerd. Uit de hoek van ontwikkelaars en gamers lijkt de roep om meer aandacht te schenken aan zaken als stabiele drivers en betere beeldkwaliteit, steeds harder te worden.
Ik kan me er nog steeds kwaad om maken dat na al die jaren nog steeds de waarheid verdraaid wordt.

Deze opmerking refereert waarschijnlijk niet naar 3DMark03 maar naar 3DMark05 (in het gelinkte artikel zegt Futuremark alleen dat nVidia cheats in z'n drivers heeft, en Futuremark speciaal een nieuwe versie heeft gemaakt om die cheats te verijdelen, dat is heel wat anders dan wat hier staat).
Futuremark heeft gekozen om depth/stencil surfaces en percentage closer filtering te gebruiken, een feature die *op dat moment* alleen door nVidia geimplementeerd werd.
Wat Futuremark heeft doen besluiten om toch die feature te gebruiken, is dat het de zekerheid had dat het in de toekomst ook door andere fabrikanten gebruikt zou worden (net zoals bv SM2.0, dat bij het uitkomen van 3DMark03 nog niet door nVidia geimplementeerd was in hun huidige productlijn).

En inderdaad... in de Direct3D10 specs zijn ze verplicht, en kijk eens in het specs-lijstje van de HD2900?
http://ati.amd.com/products/radeonhd2900/specs.html
Percentage Closer Filtering (PCF)
Depth & stencil texture (DST) format support
nVidia-only technologie? Net zomin als bv PS1.4 of SM2.0 ATi-only was. De ene fabrikant was gewoon eerder dan de andere.
Rectificatie graag, de onafhankelijkheid en betrouwbaarheid van Futuremark werd weer eens onterecht in diskrediet gebracht.

[Reactie gewijzigd door ddbruijn op 22 juni 2007 16:29]

Er worden nu twee dingen door elkaar gehaald...

De cheating issue was dat NVidia applicatie detectie deed voor 3DMark, en de rendering zat aan te passen. Dat is volkomen onacceptable voor een benchmark, maar werd (te) lange tijd goed gepraat door Futuremark.

Een volkomen andere issue is de keuze van rendering technieken die soms erg discutabel was.
Er worden nu twee dingen door elkaar gehaald...
Dat is precies het punt van mijn post, die jij niet goed gelezen hebt, denk ik.
De cheating issue was dat NVidia applicatie detectie deed voor 3DMark, en de rendering zat aan te passen. Dat is volkomen onacceptable voor een benchmark, maar werd (te) lange tijd goed gepraat door Futuremark.
Naar dit issue wordt dus gelinkt in het bovenstaande nieuwsitem: nieuws: Futuremark bevestigt 'drivertruc' nVidia in 3DMark03
Maar de omschrijving bij de link luidt dus als volgt:
"In 2003 ontstond een vergelijkbare rel, waarbij de producent van 3DMark03 uiteindelijk toegaf dat het deze benchmark voor nVidia-gpu's had geoptimaliseerd."
Die slaat dus absoluut niet op het artikel waar naar gelinkt wordt.
Een volkomen andere issue is de keuze van rendering technieken die soms erg discutabel was.
Precies, ik vermeen dan ook dat de schrijver deze twee door elkaar haalde... En wees er nog maar eens op dat Futuremark bijzonder gegronde redenen had voor hun keuze, en niet specifiek voor nVidia ontwikkelden. Dezelfde code loopt ook op de nieuwe ATi kaarten.
Futuremark heeft dus helemaal nooit toegegeven dat ze voor een specifieke GPU hebben geoptimaliseerd... Waarom zouden ze ook? Dat hebben ze nooit gedaan.
nVidia heeft wel toegegeven 'geoptimaliseerd' te hebben in de drivers voor 3DMark.

[Reactie gewijzigd door ddbruijn op 22 juni 2007 19:31]

De bedrijven betwisten het objectiviteitsgehalte van twee nieuwe DirectX 10-benchmarks.
Zoweizo valt de objectiviteit van het concept "DX10 benchmark" al ver te zoeken... Ik zou liever zien dat ze ook eens wat aandacht aan opengl gingen besteden in plaats van zich alleen maar op de producten van 1 software fabrikant (MS) te focusen. Er zijn genoeg opengl games en ook in games die zowel DX als OGL ondersteunen is OGL vaak veel sneller dan dat trage D3D.
De objectiviteit is in jouw post nog verder te zoeken.

D3D is helemaal niet traag. En zeker DX10 is niet traag, want daarin zijn een aantal issues van DX juist opgelost.
Zelfs John Carmack heeft al toegegeven dat DX9 beter is dan OGL.
De enige reden dat hij nog OGL gebruikt is vanwege de multi-platform ondersteuning. (En dat is voor hem een doorslaggevend argument)

Het aantal opengl games is op twee handen te tellen, terwijl er duizenden D3D spellen zijn. Nogal logisch dat er dus meer op D3D gefocused word.
Kun jij een link geven waar John Carmack dat toegeeft? Want dat lijkt mij heel erg verzonnen.

[edit] Reactie op ddbruijn: Omdat Carmack altijd een van de grootste voorstanders van OpenGL is geweest, in ieder geval de meest gehoorde.

oude quote van Carmack:
Direct-3D IM is a horribly broken API. It inflicts great pain and suffering on the programmers using it, without returning any significant advantages. I don't think there is ANY market segment that D3D is apropriate for, OpenGL seems to work just fine for everything from quake to softimage. There is no good technical reason for the existance of D3D.

I'm sure D3D will suck less with each forthcoming version, but this is an oportunity to just bypass dragging the entire development community through the messy evolution of an ill-birthed API.

[Reactie gewijzigd door Zigi_Samblak op 22 juni 2007 19:08]

Ik weet niet meer waar hij het gezegd heeft (is alweer jaren geleden he), maar hij heeft het zeker ooit gezegd, ik denk dat de meeste 'insiders' in de graphics-industrie zich dat nog wel kunnen herinneren.
Waarom zou het verzonnen zijn? Het is gewoon een feit (of was dat op het moment dat hij dat zei), en John Carmack is er de man niet naar om de feiten te verdraaien in zijn voordeel.

[Reactie gewijzigd door ddbruijn op 22 juni 2007 18:53]

idd, maar hij zei niet d3d9 > ogl maar eerder dat hij het heel fijn vond om det d3d9 te werken voor zijn nieuwe engine. Hij heeft trouwens ook een ogl pad ontwikkeld voor zijn nieuwe engine.
idd, maar hij zei niet d3d9 > ogl maar eerder dat hij het heel fijn vond om det d3d9 te werken voor zijn nieuwe engine.
Aangezien juist de API altijd z'n grootste probleem met Direct3D was (zie bovenstaande quote), komt dat op hetzelfde neer.
Het prestatieniveau is nooit het probleem geweest (okee, de echte muggezifters kunnen dat moment noemen dat T&L geintroduceerd werd, en OpenGL vanwege het feit dat het een meer highlevel API is, dit meteen kon gebruiken... Bij Direct3D was er zoals gewoonlijk een nieuwe API om de nieuwe technologie optimaal te benutten).
Hij heeft trouwens ook een ogl pad ontwikkeld voor zijn nieuwe engine.
Hij blijft een soort van Apple-fan (of wordt hij goed betaald door Steve?).
Wederom waren de eerste demo's van z'n nieuwe engine op een Mac-congres.
Direct-3D IM is a horribly broken API. It inflicts great pain and suffering on the programmers using it, without returning any significant advantages. I don't think there is ANY market segment that D3D is apropriate for, OpenGL seems to work just fine for everything from quake to softimage. There is no good technical reason for the existance of D3D.

I'm sure D3D will suck less with each forthcoming version, but this is an oportunity to just bypass dragging the entire development community through the messy evolution of an ill-birthed API.
*HELE* oude quote ja.
Hij ging kort daarna al behoorlijk af (voor zover een legende als Carmack af kan gaan dan... maar van z'n beweringen klopte weinig) omdat er toch heel veel D3D-games ontwikkeld werden, en met iedere update werd D3D beter, totdat het OpenGL voorbijstreefde met shaders en dergelijke fratsen.
Hij heeft dus z'n woorden terug moeten nemen.

[Reactie gewijzigd door ddbruijn op 22 juni 2007 19:29]

Mja, D3D werd toen beter omdat OGL 2.0 nog niet uit was, en 1.x ondertussen al aardig op leeftijd begon te raken. Ik ben zelf geen 3D programmeur maar het lijkt me sterk dat er dingen in D3D zitten die je niet onder OGL zou kunnen doen...
Ik ben zelf geen 3D programmeur maar het lijkt me sterk dat er dingen in D3D zitten die je niet onder OGL zou kunnen doen...
Dat is ook precies de valkuil.
Het *kan* in OpenGL wel, maar dan moet je extensies gebruiken, en die zijn voor iedere fabrikant verschillend, en kunnen ook van driver-versie tot driver-versie verschillen.
Pas veel later worden die extensies door de ARB gestandaardiseerd (wat er de laatste jaren op neerkomt dat ze gewoon bij Direct3D afkijken), en komen er dus weer nieuwe extensies uit, die dan door alle fabrikanten hetzelfde worden geimplementeerd.
Bij Direct3D wordt de standaard vantevoren bepaald door Microsoft en de hardware-fabrikanten, en zo heb je nooit dit probleem. Alle functionaliteit werkt vanaf dag 1 hetzelfde, ongeacht het merk of type kaart, en driver.

In OpenGL is het dus allemaal veel lastiger, en daarom is Carmack de enige die er nog aan begint.
Dat is wel een hele oude quote Carmack. DirectX en OpenGL zijn in de tussentijd zeer sterk veranderd, en waarschijnlijk ook Carmack zelf.

Tot en met DirectX 8.x was Carmack altijd een groot voorstander van OpenGL. Met DirectX 9 is daar verandering in gekomen. Toen heeft hij voor het eerst gezegd dat DX9 beter was voor game development dan OpenGL.

Eén van de redenen is dat het een zeer duidelijk afgebakende standaard is, zonder allerlei (proprietaire) extenties. Geen gekloot over wat wel en niet ondersteund wordt. Verder natuurlijk ook de introductie van SM2.0, waarmee een eind kwam aan alle proprietaire zooi, en de developers gewoon zelf hun effecten konden/gingen schrijven.

Met de introductie van DX9 is de hard- en software ontwikkeling duidelijk vanuit DirectX gekomen, is OpenGL achter gaan lopen. (Hoewel je natuurlijk gewoon nog altijd OpenGL extenties hebt die het mogelijk maken de nieuwe features ook in OpenGL te gebruiken.)
D3D is wel traag. Het meest extreme voorbeeld hiervan dat ik ooit heb gezien was Far Cry, waarin ik onder D3D ongeveer 30-40 fps haalde en onder OGL rond de 100. Ook in UT2004 was de OGL driver ongeveer 10% sneller en er is ook een inofficiële UT99 OGL driver die met gemak de D3D onderuit haalt qua performance en beeldkwaliteit. Zelfde verhaal eigenlijk met halflife/counterstrike. De meeste games zijn niet te vergelijken, omdat ze maar 1 van de 2 api's ondersteunen, maar een voorbeeld waarin D3D het wint van OGL moet ik nog tegenkomen
Ik heb zelf die opmerking van Carmack nog nooit letterlijk gelezen, maar wat ik me er van voorstel vind hij het 'beter' omdat het makkelijker is om er voor te ontwikkelen, niet omdat het sneller is. Dat geloof ik namelijk best, aangezien je OGL vele extensies heb die wel of niet beschikbaar zijn in bepaalde hardware drivers en je geen software fallback heb hiervoor, zoals in D3D (het is er wel of het is er niet).
En als DX10 niet traag is, waarom zijn de meeste games dan trager op Vista dan op XP?

[Reactie gewijzigd door kozue op 23 juni 2007 12:42]

omdat de meeste games op vista DX9 zijn, en de nieuwe aanpak van DX10 niet volledig compatible is met DX9

je moet DX10 bekijken wanneer je full DX10 games speelt, dan merk je het wel
de ogl versie van farcry heeft nooit de prestaties of de beeldkwaliteit van de d3d versie kunnen evenaren, je kletst uit je nek
het ontwikkeling van het ogl pad is trouwens nog voor de release stopgezet, ze hadden enkel ook een ogl pad ontwikkeld omdat de d3d drivers van nvidia toendertijd zo slecht waren (qua performance), het waren nog de nv3x dagen ...
1 Ding is zeker, ik koop nooit meer een Nvidia kaart. Heb een laptop met Vista, en ik draai nog steeds de bijgeleverde drivers omdat er gewoon geen nieuwe voor zijn.
Om de zoveel weken zie ik weer een update en hoop dat mijn kaartje er dan tussen staat, maar nee (Geforce Go 7900 GS). Bij veel spellen draait het ronduit slecht voor een vrij nieuwe/ prijzige kaart als deze.

Heb ook WinXP op mijn laptop gezet, de prestaties waren meer dan 2,5x zo goed (!!!). Net alsof er in Vista een frame-rate limiter op zit van 50 frames/sec. De kaart is goed, de drivers zijn om te huilen.

De tijd dat ik een Ati had was het allemaal veel beter heb ik het idee, drivers die ook ECHT voor performance boost zorgden. Tegenwoordig lijkt het alsof Nvidia het te druk heeft om de bugs weg te werken en alleen ondersteuning leveren aan de aller nieuwste videokaarten. (Of is dit inmiddels ook zo met Ati?).

Ik zie vaan reacties zoals *if it ain't broke, don't fix it*, daar heb ik niets aan.
Waar kan ik mijn Ei hier over kwijt, bij Nvidia of juist bij Dell?

[Reactie gewijzigd door BlasterXL op 22 juni 2007 16:32]

Waar kan ik mijn Ei hier over kwijt, bij Nvidia of juist bij Dell?
Wat dacht je van MS? Zij leveren een OS af waar niemand de kans voor heeft gehad behoorlijk te ontwikkelen omdat ze in de ontwikkelfase 10 keer compleet een nieuwe weg ingeslagen zijn en developers ongeveer een dag voor de release de uiteindelijke versie bezorgde met karige documentatie waardoor het bijna onmogelijk is goede drivers te schrijven?

En tegelijkertijd wel je brakke produkt zo hard mogelijk pushen zodat ook niet early adopters tegenwoordig als proefkonijn worden ingezet.
ja ik heb zelf een 8600M GT maar je kunt de drivers(de enige driver die er voor de 8X00 serie is, deze worden ook voor desktop kaarten gebruikt) van de site van nvidia gebruiken, je moet ze alleen handmatig instaleren. Er zijn idd nog geen apparte drivers voor de 8X00M serie, alleen de bijgeleverde. Althans dat is wat ik heb gedaan :)
Ow en het ligt niet helemaal aan nVidia, aTi heeft ook problemen met hun drives van de nieuwste kaarten, soms is dat het nadeel van early adopt :P

[Reactie gewijzigd door Markofnikoff op 22 juni 2007 16:44]

Heb je al eens op deze site gekeken? hier kun je een gemodde .inf downloaden en elke driver die voor jouw kaart uitkomt installeren. Het scheelde bij mij een hele punt in de score index van Vista 32 bit.

http://www.laptopvideo2go...index.php?showtopic=13251

Ik heb zelf een GeForce Go 7600
Ati en nVidia moeten samen een DX10 benchmark ontwikkelen die alle features van beide chipsets uitgebreid test. Zo kan het voor geen van beide geoptimaliseerd zijn.

Je kan een game niet als benchmark gebruiken, dan nog eerder 3D mark maargoed ook dat kan weer aanspraak maken op bepaalde features die enkel bij 1 van beide merken gebruikt worden. Futuremark gaat er wel vanuit dat de game test die hun benchmark doen, representatief is voor games die gaan komen maar dat hoeft niet altijd zo te zijn.

anders moet microsoft maar een DX10 bench maken die uitsluitend alle officieele shaders en features test die DX10 toelaat.

[Reactie gewijzigd door Bulls op 22 juni 2007 17:03]

Dan wordt dat slaande ruzie.

Nou nee het is eerder ze moeten de meeste populaire game testen.
zo'n Top 25 ipv van 3 á 5 wat sommige reviewers doen met ook 'n goede genre mix.
Top 100 nog beter.
dan krijg je 'n kijk op het groter geheel. is er veel variatie dan is het ook heel veel fijner als jouw favo game ook gebenched is.

Bijvoorbeeld what boeid mij die zwart zonder wit DoomIII game.
Als ik AA en AA:SF speel.
zo zal 'n andere juist weg zijn van DoomIII.

Zo hebben sommige ook X3 the Reunion gebenched. Vind ik ook leuk.

Het gaat om de games.

Alles boven de refreshrate 60/72/75 boeid niet. Het gaat om de dips midden in de heat of tha batle.

Daar waar je die smooth 30fps+ nodig hebt bijvoorbeeld bij bunny hoppen combat in zo'n frag fest game.
Zucht.....

Het gaat er om dat je met het gebruik van HDR moeilijk Hardware AA kan gebruiken. Er treden dan renderfouten op. ATi/nVidia en S3 hebben allemaal om Shader based AA gevraagt omdat je dan render fouten verkomt en game defs zelfs AA Profiles kan maken. Nu gaan ze in CoJ die eindelijk gebruiken gaan ze zeuren. U3 gebruikt ook Shaders based AA dus daar zal de GF8 dan ook wel benadeeld worden.

Bij COJ ging het er om dat er wel Hardware AA in zat. Maar blijkbaar werkt die niet helemaal goed. nVidia fans denken dat het wel perfect werkt en dat ATi er express voor gezorgd heeft dat er Shader based AA wordt gebruikt. Maar dat is niet bewezen. Shader based AA is trouwens een must als je het label DX10 wilt dragen.

Lost planet is wel niet helemaal eerlijk gegaan. nVdia is maanden aan het optimaliseren en ATi krijgt de bench pas in handen als de gamers em ook kunnen downloaden dus ze hebben hun drivers er niet goed voor kunnen voorbereiden. En de R600 is veel complexer dan de G80. De G80 scoort zo i zo al goed. Wil je bij de R600 alles er uit halen moet je hele goede drivers hebben die alle Shaders aan het werkt houden.

Ik wil weer terug naar de tijd dat games onafhangelijk zijn en waar geen TWIMTBP of GITG stikker op geplakt is :(
ATi Fanboy alert
En waarom dat ? Ik heb anders een Geforce 7600 GO en een HD2900 XT. Dus ik heb beide kaarten. Ik vind het gewoon gezeur om niets. De 8800 GTX is ook in COJ met de Shader based AA sneller. Alleen verschillen zijn niet zo groot. Ik zie het probleem niet.
Dat zulen we maar beschouwen als een ontkenning dan.
:\ Zijn jullie nVidiots of zo ?
Lost planet is wel niet helemaal eerlijk gegaan. nVdia is maanden aan het optimaliseren en ATi krijgt de bench pas in handen als de gamers em ook kunnen downloaden dus ze hebben hun drivers er niet goed voor kunnen voorbereiden.
Dit is eigenlijk gewoon een onzin-excuus dat ooit door nVidia in de wereld geholpen is, natuurlijk.
Drivers moet je in principe optimaliseren voor het algemene geval. De ene game wijkt heus niet zo veel af van de andere game.
Misschien dat bij een bepaalde game soms een bottleneck naar boven komt die je in andere games niet ziet, maar soit, dat had je zonder die game zelf ook al kunnen testen en oplossen. En dat komt heus niet bij iedere game voor. Het is dan ook geen optimalisatie voor die game, maar een optimalisatie om die bottleneck eruit te halen.
Het zou dan ook niet zo moeten zijn dat NV en ATi voor elke nieuwe game die uitkomt opnieuw hun drivers moeten optimaliseren. Dan zouden er nog wel erg veel bottlenecks in zitten, of niet?

Wat zij met 'optimaliseren' bedoelen, zijn in feite gewoon cheats, zoals ze dat al jaren doen. Of 'profiles' zoals nVidia het verkoopt.

Daar zijn nog mooie verhalen over... zoals dat hardware T&L ineens 'spontaan' twee keer zo snel was in een 3DMark-test na een driver update... en de review sites meteen schrijven "Hum, zouden ze een tweede pipeline hebben geactiveerd, die tot nu toe uit was?". Nou nee hoor ;)
Of dat de fillrate-test in 3DMark ineens zo snel ging, dat ie boven het theoretische maximum van de kaart uit ging... Maar de werkelijke verklaring daar was dat 'magischerwijs' de test ineens gebruikmaakte van gecomprimeerde textures, dus de effectieve bandbreedte was veel lager, en de berekening van het programma klopte niet meer met wat de kaart deed.

[Reactie gewijzigd door ddbruijn op 23 juni 2007 12:00]

Dat optimaliseren is voor 90% inderdaad onzin.

Hoewel er wel wat te optimaliseren is in de huidige videokaarten (bv met de memory controller) is dat effect nooit zo heel groot.
Met 10% heb je het wel gehad.

Zodra een optimalisatie een verbetering van meer dan 30% geeft zijn er maar twee opties:
1. Er was een performance bug die nu opgelost is.
2. Er is een cheat gebruikt.

In dit specifieke geval lijkt het mij overduidelijk dat er een performance bug is.
In DX10 haalt de kaart maar de helft van de snelheid die in DX9 gehaalt wordt, terwijl bij Nvidia de snelheid maar 10% minder is.
Daar is dus iets bijzonders aan de hand, dat niet verklaard kan worden door de verschillende architectuur van de kaarten. (daar is het verschil veel te groot voor)
Ach ja je kan uiteindelijk met benchmarks alles en niks bewijzen. Er wordt hier snel vergeten dat sommige games meer CPU intensief zijn dan GPU intensief, dat DirectX 10 kaarten eigenlijk nog piepjong zijn en dat drivers voor Vista maken blijkbaar een pak moeilijker is dan voor XP.

Begin dan maar eens uit te vissen wie er gelijk heeft |:(.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True