Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 124 reacties
Bron: Sudhian Media, submitter: Rainman18

Op Sudhian Media is een artikel te lezen waarin de auteur uitlegt wat volgens hem de nadelen zijn van hardwareoptimalisatie in spellen. Als voorbeeld hiervoor neemt hij de tweestrijd nVidia-ATi, waarbij Doom 3 geoptimaliseerd is voor de eerste en ATi mag rekenen op de steun van Half-Life 2. nVidia heeft, zoals de meesten zullen weten, zijn 6800-kaart met opzet geoptimaliseerd voor Doom 3. Hoewel ATi zelf zegt bezig te zijn met het herschrijven van de OpenGL-driver, is het onwaarschijnlijk dat het bedrijf het gat tussen zijn kaarten en die van zijn concurrent zal kunnen dichten wat dit spel betreft. Half-Life 2 is een heel ander verhaal: werd er bij de benchmarkdemo van Doom 3 nog uitdrukkelijk benadrukt dat de software op dat moment nog slechts een ruwe performanceschatting kon geven, bij de testrelease van Half-Life 2 was zulk een waarschuwing nergens te bekennen.

In de week voor de sourcecodediefstal werd deze code van Half-Life 2 gebruikt om de kaarten van beide fabrikanten te testen en deze test eindigde in een opmerkelijk grote voorsprong voor de producten van ATi. Hoewel toentertijd werd aangekondigd dat het spel zo goed als klaar was, kunnen we nu ruim tien maanden later hier wat vraagtekens bij zetten. In het begin was de diefstal een legitiem excuus voor het vertraagd uitbrengen van het spel, maar toen Gabe Newell in juni dit jaar toegaf dat de vertraging niet alleen aan het lek was te wijten kon deze verklaring van tafel geveegd worden. Sudhian Media geeft aan te twijfelen aan het feit of het spel op het moment van testen wel daadwerkelijk klaar was en zegt dat dit gegeven grote invloed kan hebben op de reputatie van ATi.

Doom3 screenshotdetailDe slechte HL2-benchmarks van nVidia hebben gezorgd voor een betere verkoop van ATi-kaarten en wanneer bekend wordt dat de test niet geheel geloofwaardig was zal de reputatie van de laatste flinke schade oplopen. Een niet ondenkbaar scenario zou kunnen inhouden dat bij de release van het spel zal blijken dat de voorsprong van ATi op nVidia minder zal zijn in een test met het nu wel afgeronde spel dan in de eerdere benchmark. Klanten die speciaal voor dit spel een ATi-kaart gekocht hebben, zullen zich op zijn minst benadeeld voelen en dit zal geen goede reclame zijn voor de fabrikant.

Hier raken we dan ook het probleem van de hardwareoptimalisatie van spellen: als voor een bepaald spel een bepaalde videokaart nodig is en voor een ander spel weer een andere kaart de beste is, wat is dan de beste keuze voor mensen die beide spellen willen spelen? Afgezien van het nadeel voor de consument is het ook nog maar zeer de vraag of de producent er zelf voordeel van haalt als het bedrijf moet kiezen voor welke game het zijn kaarten optimaliseert. Weegt de winst verkregen door het ene spel op tegen het verlies door het andere spel? Waarschijnlijk zullen beide fabrikanten deze vraag negatief moeten beantwoorden en tot de conclusie moeten komen dat de voordelen van optimalisatie niet opwegen tegen de nadelen.

Half-Life 2-stresstest - grot
Half-Life 2 stresstest: grot.
Moderatie-faq Wijzig weergave

Reacties (124)

-11240121+1102+231+311Ongemodereerd12
Het wordt tijd voor een volledig onafhankelijke benchmarktool. De huidige voldoen niet meer.

Verder gaat de strijd tussen Nvidia en Ati niet alleen om betere drivers en een fractie hogere fps die met het menselijke oog niet waarneembaar zijn.

Er zijn gebruikers die niets meer van Nvidia moeten hebben en graag een Ati kaart hebben. Andersom geld dat natuurlijk ook. Zo gaat dat ook met Amd versus iNtel en bijvoorbeeld Opel versus VW en Ajax versus Feijenoord.
Het gaat niet om de benchmarks maar om de praktijkprestaties. Als ATI bijvoorbeeld in de onafhankelijke benchmarks beter zou scoren, maar NVidia een stuk beter in alle nieuwste games, omdat die ervoor geprogrammeerd zijn, dan is dat geen goede zaak.
Dat is nog maar de vraag. Want als, zoals je zegt, alle spellen het beter doen op de nvidia, dan zou ik deze kopen. Het gaat mij om de praktijk performance, en niet om de theoretische performance.

Het wordt een ander verhaal als de ene kaart goed is in het ene spel, en de andere kaart in het andere. Dat is de situatie die hierboven geschetst wordt.
Wat heeft deze reacties en die cheat in hemels naam met dit stukje hier boven te maken.
Wat hier gebeurd is ten eerste niet cheaten,
dit is kompleet iets anders.
Dit is meer dat software voor hardware X word geschreven en hardware Y daar mee verslaat.
En dit is natuurlijk een grandioze marketing van Nvidia geworden gezien ze zo veel beter in Doom III presteren dan hun naaste concurent..

Maar van cheat is hier geen sprake, hoogtens van uitgedachte marketing cq sponsering.
En met dat betreft heeft het wel een ontzetten goed effect,
idd, maar gezien het een *gepatenteerde* techniek is van Nv is waar DOOMIII veelvuldig gebruik van maakt, vind ik het zeker een kwalijke zaak. (van zowel Carmack als Nv) :(

HL2 was vorig jaar gewoon DX9 code, maar dat was te zwaar voor de gemiddelde GFFX met de drivers van toen.
daar zit niks gepatenteerd van ati aan en je ziet nu ook dat NV met nieuwere drivers/mixed-path goed mee kan komen in snelheid.
De GeforceFX kan nu net zo slecht mee als vroeger. Net als een jaar geleden laat Valve de FX gewoon op DX8.1 niveau werken, i.p.v. DX9.
De framerates zijn daardoor wel ok, maar hij doet gewoon minder werk, met lagere grafische kwaliteit.
Wel op blijven letten, die shadow techniek was gepatenteerd door creative. nVidia heeft wel een extra shadow techniek waar doom3 gebruik van maakt maar dat is iets compleet anders.
Die is er ook, maar we kennen ook het verhaal wat er dan gebeurt.....

(Het cheaten van nVidia en een 'beetje' cheaten van ATI )

http://www.tweakers.net/nieuws/27361/?highlight=cheat+nVidia
een beetje cheaten is geen cheaten ?

objectiviteit ?

ik begin het zeer vervelend te vinden dat alles toegelaten wordt door de voorkeur, en alles streng beoordeelt wordt door de tegenstander.
technisch gezien was het van Ati GEEN cheat maar een optimalisatie die enkel en alleen invloed had op 3D Mark. en het gaf ook maar een hele kleine winst (1,9%) nVidia had zeer grove cheats die ECHT zwaar als cheat konden worden geclassificeerd.

waarom het geen cheat was? simpel om de reden dat alles werdt gedaan dat gedaan moest worden op de manier HOE het gedaan MOEST worden iets dat je van de VELE nVidia cheats niet kon zeggen. wel is het zo dat Ati die optimalisatie kon maken omdat het wist wat en wanneer er gerenderd moest worden.

daarnaast heeft Ati zonder gelul en gedraai gezegd dat het niet netjes was en het gecorrigeerd, terwijl nVidia iedereen de schuld gaf van alles behalve hunzelf terwijl het hun mislukte kaart was die zorgde voor een triest resultaat

dus het cheat verhaal is wel degelijk in het nadeel van nVidia en niet zo`n beetje ook
Bij nVidia werd er gebruik gemaakt van van tevoren bekende gegevens over wat wel en niet zichtbaar was, niet bij Ati. Die actie zou ik trouwens een dikke cheat noemen.
hij heeft het fout geformuleerd
De zogenaamde cheat van ati werkte ook in games en niet alleen in 3dmark
Daarom is het een mening of dit een cheat was of niet want het was puur beeldkwaliteit inleveren voor hogere FPS.
zoals in het artical staat. "in het verleden"
als in nu niet meer.
technisch gezien was het van Ati GEEN cheat maar een optimalisatie die enkel en alleen invloed had op 3D Mark
Een cheat dus, omdat nog steeds veel mensen waarde hechten aan de resultaten van 3D Mark. Laat je dan een drivers in 3D Mark iets anders doen dan in spellen, dan is dat een cheat, omdat het het resultaat beÔnvloed t.o.v. de instellingen gebruikt in een spel.
Op Sudhian Media is een artikel te lezen waarin de auteur uitlegt wat volgens hem de nadelen zijn van hardwareoptimalisatie in spellen.
Wie is die auteur? Gewoon een journalist met een mening?

Buiten dat ben ik het helemaal met de stelling eens, al had ik zijn verhaal zelf kunnen bedenken, het is niet meer dan logisch dat hardware bedrijven en game studios zichzelf in de vingers snijden als ze optimaliseren naar een bepaald merk chipset, dat ze zich richten op de meest verkochte chipset kan ik inkomen. Echter is het verschil tussen Ati en Nvidia niet zo groot.

Ik geloof dus nog steeds niet dat een groot bedrijf als Valve bewust Ati bevoordeeld ten opzichte van Nvidia, ik kan ook wel geloven dat de uitgelekte source code niet af was en dat deze beter draaide op een Ati kaart, als mensen naar aanleiding van een benchmark op uitgelekte sourcecode een video kaart kopen zijn:

a. deze mensen niet slim.
b. moeten ze niet Ati dingen in de schoenen schuiven waar ze zelf schuldig aan zijn (als dat uberhaubt gebeurd)

Dit bericht lijkt op een willekeurige mening van een journalist, echt non nieuws dus wat hier niet thuis hoort (voor meningen lees ik wel fora's)
euhm... noem mij 1 mainstream kaart die beide spellen niet zonder problemen zal kunnen spelen...
zowel de 5600 reeks als de 9600 reeks zal beide spellen moeiteloos kunnen spelen... waarom dan al die heisa??

en misschien even een side-note: het is ATI die volledig met ARB2 werkt, en nVidia die een speciaal nv3X render path nodig had... (in doom3 zitten een nv10, nv20 en een ARB2 render path (dat voor nv3x is geschrapt)) in HL2 werd ook gesproken over een speciaal render path voor nVidia kaarten.

en daarbij is een van de duidelijkste voorbeelden dat DOOM3 gemaakt is om op nVidia hardware net dat ietsje beter te draaien is de humus-'patch' die een texture lookup(waar nVidia sneller is) vervangt door een math-operatie(waar ati sneller is)

conclusie: elk spel heeft net dat beetje voor op z'n eigen hardware, maar niet genoeg om zulke chaos-artikels te schrijven...
Nv gebruikt ook ARB2 hoor
[Doom 3 on the NV40 will use] ARB2. The NV40 is incredibly fast, far and away the fastest thing you can get right now.
I have removed the NV30 path, because Nvidia now has the ARB2 path running well on the earlier hardware.
John Carmack
Carmack heeft in bedekte termen aangegeven dat alle Doom3 NV optimalisaties nu in de driver zelf zitten, en dat de kaart dus weliswaar ARB2 voorgeschoteld krijgt, maar dat uiteindelijk niet uitvoert...
Maar het blijft een slechte zaak dat bepaalde videokaarten voor bepaalde spellen worden geoptimaliseerd...

Ik heb nu een Ati kaart, en die heeft het vrij lastig met Doom III, terwijl, als ik het artikel moet geloven, HL2 wel aankan bijvoorbeeld.

Ik heb daar geen trek in, ik wil gewoon een fatsoenlijke kaart, die gewoon de beschikbare spellen kan draaien.
punt is ook dat "Get in the Game" en "The way its meant to be Played" Het maken van een spel makkelijker maken voor de programmeurs. Automatisch wordt een spel dan ook meer geschreven op Ati kaarten (Get in the Game) of nVidia kaarten (The way its meant to be played).

Het enigste wat dit kan voorkomen is als Ati en nVidia zo'n met z'n beiden zo iets gaan beginnen. Maar ik twijfel of het ooit zo ver zal komen.
Er zit een wezenlijk verschil in GITG en TWIMTBP.
De eerste is puur en alleen een programma om hulp te geven aan developers. Daarom ziet de eindgebruikers er ook zo weinig van. De tweede is ook (en misschien wel vooral) een PR gericht programma.

Dat heeft zijn invloed op de game developers. Van meerdere richtingen hoor je dat ze met ATI samenwerken, maar dat NVidia ze zaken door de strot duwt.... (Met als dieptepunt het opzettelijk het tegenhouden van de Tomb Raider patch, omdat je kon zien dat NVidia slecht presteerde)

Als TWIMTBP meer op het ATI programma zou lijken, dus gewoon hulp aan developers, dan zouden developers gewoon prima aan beide programma's tegelijk deel kunnen nemen.
Is dit ergens op gebaseerd of ben je gewoon een Ati fanboy? (NOFI)
mijn 2 jaar oude 9700pro had anders niet zo super veel problemen met doom3.
high detail @ 12x9.
Dat is ook niet zozeer mijn punt (mijn radeon 9800 ook niet :P ); waar ik meer op doel, is dat mensen met bepaalde hardware worden bevoordeeld tov mensen met andere hardware. DŠt vind ik een verkeerde zaak.
Maar als het niet geoptimaliseerd was dan zou Half Life 2 een stuk minder goed op jouw kaart lopen.

Indien je nVidia had, zou Doom III minder goed lopen.

Er zit een positieve kant aan : Beter een optimalizatie dan geen optimalizatie en een lagere FPS ;)
Mja... Met opzet geoptimaliseerd voor de 6800-series?? ID-software heeft er voor gekozen om het OpenGL-platform te gebruiken, omdat dit niet alleen onder Windows makkelijk ondersteund wordt, zo ook op Linux/Mac..

Ik geloof niet zo zeer in een "hardwareoptimalisatie".. Ik geloof meer dat games-ontwikkelaars gewoon een voorkeur hebben voor welke hun op dat moment het spel schrijven.. Dus bijvoorbeeld bij HL2 is dat path toevallig van ATi, en dan kan ik mij voorstellen dat je als game-ontwikkelaar slecht is als je dat hele path nog moet gaan aanpassen voor nVidia..

Het is al erg genoeg dat men gedwongen is twee verschillende versies van de DX api's te gebruiken.. Geeft dus nooit een realistisch beeld van de prestaties.. Als je eerlijk wilt vergelijk mag je dat eigenlijk alleen tussen de 6800 en X800-serie.. Als je de oude garde vergelijkt (FX 5xxx en Radeon 9xxx), zie je dat het prestatieverschil niet eens zo groot is..
openGL is ZEKER niet de enige reden dat nvidia sneller is.

de voornaamste reden is nvidias virtuele pipeline.
die zorg ervoor dat nvidia bij het redenderen van sommige dingen 2 keer zoveel pipelines tot zijn beschikking heeft (0x32 ipv 1x16) ,
en laat dat nou net een feature zijn die bij doom3 HEEL veel gebruikt word en op ATI kaarten helemaal niet werkt.

doom3 is ook het enige spel wat die feature gebruik. verder werkt het bij geen enkle ander spel. teminste niet op de schaal als bij doom3.
dat heeft dus niks met DX of openGL te maken.
Als je de oude garde vergelijkt (FX 5xxx en Radeon 9xxx), zie je dat het prestatieverschil niet eens zo groot is..
De FX 5xxx-serie gebruikt wel DirectX 8.1 en de R9xxx DirectX 9.

Valve heeft bij autodetect 't zo geregeld omdat de FX 5xxx-serie ontzettend slecht presteerde met DX 9.0-paths.

Hou daar rekening mee als je een vergelijking tussen die twee series wil maken. 9.0 ziet er veel beter uit, maar vergt ook meer van de kaart.
In het artikel zit de aanname dat Valve specifiek voor ATI optimaliseert. Dat is simpelweg niet waar.

Wat Valve heeft gedaan, is dat ze hun engine specifiek voor DirectX 9 ontworpen hebben; dus overvloedig gebruik van floating point pixel shaders.
Ontwerpen naar een DirectX standaard is volkomen logisch.

Omdat NVidia te arrogant was vanwege hun oude markt overwicht, hebben zij zich zelf teruggetrokken uit de samenwerking tussen hardware en software fabrikanten die de DirectX 9 specs opstelden, en hun eigen specs gemaakt. Die zijn geflopt, en het uiteindelijke resultaat daarvan is dat de ATI kaarten uitermate goed aansluiten op de DX9 specs, en de NVidia kaarten veel minder.

Bij de NV3x was dat verschil enorm. Daarom dat Valve zo pissed was, toen ze er achter kwamen dat de DX9 mogelijkheden van de NV3x serie alleen op papier bestonden, maar in de praktijk nutteloos waren. Dat bezorgde Valve verschrikkelijk veel extra werk. In plaats van gewoon voor DirectX standaarden te coden, moesten ze specifieke NV30 optimalisaties gaan schrijven. (Precies andersom dus dan wat er wordt gesuggereerd).
Bij de NV40 is dat verschil veel en veel minder geworden, maar nog niet geheel verdwenen. Nog steeds is ATI de DX9 shader koning.

Het resultaat is simpelweg dat ATI het bij spellen die flink veel DX9 features gebruiken het relatief beter doet dan NVidia. Dat is NIET alleen een effect wat je bij HL2 ziet, maar iets wat al twee jaar aan de gang is. Ook Farcry is een typisch voorbeeld, waar je dezelfde effecten ziet.
Zwaar klote wat betreft de NV30, bijna gelijkwaardig wat betreft de NV40.

Bij source stress test, (en vermoedelijk HL2) is het gat tussen de NV40 en R420 weer wat groter geworden, simpelweg omdat die nog erger dan Farcry op het gebruik van floating point pixel shaders berust.
Ieder ander spel wat volop voor DX9 gaat, zal dezelfde prestaties laten zien.

Laten we wel wezen... de verschillen die we bij de stress test zien zijn helemaal niets vergeleken met de verschillen die we bij Tomb Raider, Shadermark, en 3dMark2003 zagen toen de R300 en NV30 net uit kwamen. Toen dachten we ook niet dat er specifiek voor de Radeon geoptimaliseerd was... Het is gewoon regelrecht uit de architectuur van de GPU's af te leiden.

De enige reden waarom mensen op dit moment gaan denken dat allerlei game developers specifiek naar bepaalde hardware gaan optimaliseren is Doom3.
Ieder ander spel wat volop voor DX9 gaat, zal dezelfde prestaties laten zien.
Ieder toekomstig spel dat voor dx9 gaat zal sm3 bevatten. SM3 zal ATi nooit ondersteunen dus zal er weer een andere codepath moeten uitgevonden worden voor ATi.
ATi gaat "vol" voor dx? Half zul je bedoelen. De NV40 is de enige kaart die "vol" dx zal ondersteunen
Jij bent echt niet goed op de hoogt zeg.

ATI gaat SM3.0 wel degelijk ondersteunen, zodra het zinvol wordt het in de hardware toe te voegen.
M.a.w. vanaf de volgende generatie. De generatie die ook DirectX Next gaat ondersteunen.

Het is net zoals DX9 bij de 5200. Het is compleet onbruikbaar omdat de kaart er niet snel genoeg voor is. Dus moet je de spellen moet een 5200 gewoon op DX8.1 spelen.

Een NV40 met SM3 heeft helemaal niets extra's tov een R420 met SM2. Geen betere snelheid en geen betere beeldkwaliteit. Is recentelijk nog hier ter sprake geweest.
Eindelijk iemand die het door heeft. :)

Bovendien was het volgens mij zo dat nvidia kaarten niet eens op het gewone dirextx9 path geforceerd konden worden in de source stress test. Dit zegt heel weinigs goeds over de eigenlijke performance van Nvidia in HL2.
Sites die benchmarken op FPS is een slechte ontwikkeling.

De meeste sites benchmarken de spellen allen op FPS. Beeldkwaliteit en gamebeleving worden zelden gemeten.

De meeste sites benchmarken de top tof the line kaarten maar vergeten even te kijken naar de werklijke markt.
-30% is geintegeerde intel video....wordt zeer zelden gebenchmarkt.
-30% is is de value kaarten. (ATi 9600, x660, of nog langzamer, nvideo 5600, le )
-30% is de budget kaarten (x300, ati9200, nv fx5200)
-10% is de top of the line kaarten (x800, 6800)

Voorbeelden:
doom 3 is heel aardig te spelen op 640x480
Ik vind het een beetje een overdreven reactie. Dat Doom3 slecht op ATI loopt dat hebben ze toch echt aan zichzelf te danken, de ATI OpenGL driver ontwikkeling loopt ver achter op die van Nvidia.
dat is zeker niet de enige reden.
veel van de berekeningen in doom3 kunnen op een nvidia gedaan worden alsof het een 0x32 pipelined videokaart is.
dat is een feature die alleen werkt op de de 5 en 6 serie nvidia kaarten (voor de 5 serie is het 0x16 trouwens).
ATI moet alles met 1x8 of 1x16 pipelines doen net als nvidia dat moet doen in alle spellen behalve doom3.
vandaar het grote verschil in preformance in doom3 vs HL2.
HL2 is VEEL minder optimized voor ATI in vergelijking met doom3 voor nvidia.
HL2 is VEEL minder optimized voor ATI in vergelijking met doom3 voor nvidia.
ATi heeft 6 miljoen dollar aan valve gegeven voor HL2. Fact. Nvidia heeft niks aan ID gegeven, integendeel ze hebben een kaart gemaakt speciaal voor ID. Voor 6 miljoen dollar zou ik wel wat optimalisaties willen.
Gabe newell gaf op de shader day van ATi een presentatie over hoe goed ati wel was en hoe slecht nv was. Fact. Heb je JC of ID dit zien doen voor nvidia?
D3 volgt het standaard ARB2 codepath wat een opengl standaard is (bemerk "open" en "standaard"). ATI kon evengoed als nv voor dit path optimisen.

Conclusie: daar ben je zelf wel slim genoeg voor als je je ATi brilletje afzet.
@MJTDEVRIES
Sorry hoor maar de eerste benchmarks waar jij het over hebt was de beta en toegegeven daar was ati sneller.
MAAR even over jouw trend, de uitgelekte beta van HL2 was nvidia 5% sneller met de 6800ultra tegen de x800xtpe hoe verklaar je dat dan???
Leuke theorie geef je weer maar er klopt niks van.
En daarbij komt dat ati wel degelijk geld heeft gestopt in het HL2 project. Elk filmpje van HL2 (met name presentaties bevatten altijd wel de mega reclames van ati). Opzich is het geen schande als ze geld toeschuiven maar het is wel degelijk slecht als ze gaan optimaliseren voor dat geld.
En weer even over dat humus verhaal de prestatie van ati gaat omhoog maar is dus nog lang niet op het niveau van nvidia wat sommige beweren. Ati heeft gewoon een kaart die minder geschikt is voor openGL so what....het is prima goed te spelen op zo'n kaart net als dat HL2 prima te spelen is op nvidia hardware. Mensen maken zich weer druk om niks

|:(
ATI heeft gewoon betaald om HL2 mee te leveren bij hun videokaart. Niks geen gift, gewoon normale handel. Je kletst dus gewoon.

Gabe Nevell heeft op shader day inderaad aangegeven dat de GeforceFX beduidend slechtere DX9 prestaties heeft als de Radeon 9700.
Dat is geen reclame, dat is een FEIT, hetgeen uiterst belangrijk is voor developers om te weten.
NB: shader day is een mogelijkheid voor developers om ervaring uit te wisselen. Juist dit soort ervaringen zijn uiterst belangrijk.

Tja... was niet leuk voor NVidia dat de waarheid boven tafel kwam, maar wel noodzakelijk.

Het is op dit moment overduidelijk dat de FX serie op DX9 gebied het zwaar moet afleggen tegen de Radeons. Dat is geen twijfel over mogelijk. Echter, toen Newell er over sprak, was die twijfel er nog wel, o.a. vanwege de PR campagne van NVidia waar ze Futuremark zwart maakten.
Newell waarschuwde gewoon collega developers, dat Futuremark wel degelijk gelijk had dat de FX serie op DX9 gebied zwaar inferieur is aan de Radeons.

Newell heeft echter tegelijk ook de oplossing gegeven om de FX toch behoorlijk te laten presteren.
Hij heeft eigen ervaringen gegeven, waaruit blijkt dat optimalisaties voor de FX uiterst lastig zijn, verschrikkelijk veel tijd kosten, en erg weinig opleveren. Tegelijk gaf hij aan dat simpelweg de DX8 path gebruiken, (hetgeen er toch in moet zitten voor oudere hardware) een veel slimmere oplossing is, omdat de FX dan wel goed presteert.
Dat kost dan helaas grafisch kwaliteit, maar dat is simpelweg onvermuidelijk. Dit soort inside info is waarvoor er dit soort conferenties bestaan.
ATI heeft nooit 6 miljoen dollar aan Valve gegeven

Ze hebben wel een deal gesloten dat ze HL2 konden meeleveren met ATI kaarten. Nogal logisch dat ze daar Valve voor moeten betalen. Je denkt toch niet dat Valve gratis HL2 weg gaat geven?

D3 volgt het standaard ARB2 codepath en daar was de NV30 langzamer in dan de R300. (was bij de eerste publieke benchmarks nog het geval)

Valve volgt het standaard DX9 codepath en daar was de NV30 ook al langzamer dan de R300.

Zien we een bepaalde trend onstaan?

Zowel Valve als ID zijn toen heel veel tijd gaan steken in het optimaliseren van het spel voor de langzamer NV30.

Valve baalde hier flink van, want dat hebben ze nooit gewild.
JC baalde hier niet van, want Nvidia en ID zijn al jaren twee handen op 1 buik, en bovendien heeft ID in het verleden al heel vaak geoptimaliseerd voor 1 stuk hardware. Zij vinden dat blijkbaar normaal.
Alle ID spellen zijn bv super geoptimaliseerd voor Pentium processors. (De engine zelf veel minder, want die optimalisaties komen nooit zo sterk naar voeren in spellen die op die engines gebaseerd zijn)

Als je je Nvidia brilletje afzet dan zie je dat het Nvidia is die de standaarden niet volgt en dat bedrijven daar veel extra geld aan uit moeten geven.
Als ze bovendien "humus" even inhuren bij ID dan kunnen ze de ATI kaarten net zo snel krijgen in Doom3.

Humus kon in 1 dag een 30% performancewinst in elkaar knutselen voor ATI kaarten in Doom3 en bovendien daarbij ook nog eens betere beeldkwaliteit geven. (Bij hem komen een heel stel artefacten niet voor)

En dat zijn dan die geweldige programmeurs van ID. |:(
Blijkbaar hebben die geweldige programmeurs alleen aan het speciale Nvidia path in Doom3 gewerkt en hebben de kneusjes aan het standaard opengl path gewerkt.
Wat een onzin, D3 gebruikt het ARB2 codepath wat een standaard opengl path is. Er is niks specifiek voor nvidia aan. Moest dat zo zijn dan zouden andere openGL games evengoed op een ATi draaien terwijl dat duidelijk niet zo is. Of zijn deze allemaal omgekocht door Nvidia?

Doe je ogen open, Ati heeft gewoon slechte openGL drivers, elk ogl spel bewijst dit.

Humus heeft een niet toegestane optimalisatie gedaan, ie een shader vervangen. Shader replacement is een cheat en geeft een andere IQ dan zoals bedoeld was door de makers.
Bovendien is deze cheat niet bruikbaar als je multiplayer wil spelen.
Geen PS2.0 en geen full floating point precision. Wel PS1.4 en partial precision. M.a.w. de super high-end game engine maakt geen gebruik van de nieuwe features van mid-range en high-end gpu's.

En toevallig is dat de enige manier waarop je goede prestaties uit NV3X kaarten kan krijgen. En dat is dan niet specifiek voor Nvidia? Zo naief kun je toch niet zijn?

Overigens is dat ARB2 codepath flink aangepast door ID. In de eerste beta's bleek de NV30 met dat ARB2 codepath namelijk langzamer te zijn dan een R300. Alleen met het specifiek NV30 codepath was ie sneller.
Was je zeker ook even vergeten?

Niemand kan serieus volhouden dat D3 een standaard ARB2 codepath gebruikt dat niet geoptimaliseerd is voor Nvidia.

Doe je ogen open. Doom3 is gewoon geoptimaliseerd Nvidia. En dat komt niet door de slechte opengl drivers want in elk ander ogl spel is het verschil helemaal niet zo groot als bij D3. Daarmee is het overduidelijk dat het aan D3 ligt.

Humus heeft inderdaad een shader vervangen. En daarmee de beeldkwaliteit VERBETERD en de snelheid verhoogd. Of wilde je nou werkelijk beweren dat die ARTEFACTEN zo bedoeld waren door ID?
Als je dat alleen voor een benchmark doet dan kun je dat strikt genomen een cheat noemen. Als je het voor het spel zelf doet, zodat het beter speelbaar wordt dan moet je het een bugfix noemen!!

ID heeft zelf ook al toegegeven dat hun code inefficient is voor de huidige generatie ati kaarten, maar dat dit handiger is voor oude kaarten zoals geforce2.

Dat zijn bugfix nog niet overal op toepasbaar is doet niet ter zake. Het geeft aan dat waneer een buitenstaander in 1 dag zulke essentiele dingen kan fixen en verbeteren dat er dan voor de ID programmeurs zelf ook heel wat te verbeteren was geweest als ze daar welwillend voor waren geweest. Ze hebben er echter voor gekozen om dat niet te doen.
Op den duur krijgen progammeurs af te rekenen met compatibiliteitsproblemen zoals er nu tussen browsers zijn. En daar wordt niemand beter van.
Ik denk dat dat wel meevalt. Je ziet juist een verandering richting hardware platform onafhankelijke shader languages (DirectX: Cg, OpenGL: HLSL). Dat huidige spel ontwikkelaars daar nu niet voor gekozen hebben, om misschien net die 10% extra uit een kaart te slepen, is hun keuze, maar het hoeft tegenwoordig niet meer.
Valve is juist ťťn van die ontwikkelaars die specifiek WEL gekozen heeft voor een grote standaard, namelijk DirectX 9, met shaders die via HLSL geprogrammeerd zijn.

Programmeurs willen helemaal geen grote verschillen tussen de prestaties van de GPU's. Hun spel moet op iedere PC goed te spelen zijn, en niet op de helft... En ze zitten er echt niet op te wachten om voor iedere videokaart een aparte codepath the schrijven.
Maar wanneer je meerdere architecturen GPU's hebt, zul je altijd ook verschillen zien in de prestaties.

P.S. HLSL hoort bij DirectX. Cg daarentegen is proprietair en van NVidia.
RE: Linuxuser
Ja, dat is bekend. En nu?

RE: aval0ne
OpenGL is wel geimplementeerd op non-windows dozen, maar of dat "beter" is is dan nog de vraag. De meeste gamers spelen toch op Windows dozen, de nieuwste harde waren worden altijd geleverd met functionele Windows drivers, en DirectX is bovendien meer dan alleen Direct3D wat vaak betekent dat als een softwarehuis kiest voor een spel gebouwt op DirectX dat ze dan behalve de videorenderer bijvoorbeeld ook de geluidscode moeten herschrijven. Of het beter zou zijn geweest om OpenGl en OpenAL te gebruiken is nog maar zeer de vraag: is je doelgroep voor 99.9% Windows gebruikers, dan zou je net zo goed Direct3D kunnen kiezen afhankelijk van je gewenste eindresultaat en hoe je dat denkt te gaan bouwen.
DX9 is een Windows standaard. Mensen met ander platform als Windows hebben een probleem.

OpenGL is een cross-platform standaard welke dus ook op andere platform kan werken.
Id heeft gekozen voor een nog grotere standaard, nl OpenGL. Dus volgens jou een nog betere keuze?
De meeste hardcore 3D bedrijfsapplicaties worden in OpenGL geprogrammeerd. Waarom? Omdat OpenGL robuster is. Bij 'kritische' bedrijfsaplicaties wil je namelijk meer stabiliteit, en minder moois. OpenGL komt ook van een niet-windows platform af...OpenGL is dan ook zeer platform onafhankelijk.

En wat programmeurs/spellenfabrikanten betreft: volgens mij is die hele nVidia 'the way it's meant to be played' en de ATI campagne aan je voorbij gegaan.
Dat hardcore 3D bedrijfsapplicaties in OpenGL geprogrammeerd worden komt niet doordat OpenGL robuster is, maar omdat OpenGL altijd al daarop gericht is geweest en wat betreft features dus beter aansluit bij hun behoeftes.
(Vandaar dat er ook allemaal propietaire extensies van Nvidia en ATI bij gehaalf moeten worden om de laatste features van die kaarten voor spellen ook in OpenGL te kunnen gebruiken)

DirectX is van het begin af aan bedoeld geweest voor games en sluit dus minder goed aan bij de behofte van hardcore 3D bedrijfsapplicaties, maar sluit wel weer perfect aan bij de behoefte van spelfabrikanten. Vandaar dat je daar geen propietaire extensies nodig hebt voor je spellen.

De enige reden voor spelfabrikanten om nog OpenGL te gebruiken is dat het makkelijker te porten is. Maar dat is dan ook de enige reden. (Heeft JC ook al toegegeven)
@aval0ne:
ID heeft gekozen voor een gepatenteerde licht/schaduwtechniek die alleen toepasbaar is op (alleen nieuwe) NV hardware...

hoe Open wil je het hebben? :z
Compatibiliteitsproblemen tussen browsers zijn volgens mij weleens erger geweest. Jvo denkt terug aan de tijd van netscape 3/4 en IE 3/4.
Ja, idd, daarom komt er binnenkort ook 3DMark Next.

Maar goed, ff ontopic, ik vind dat ze wel gelijk hebben aan de ene kant. Maar aan de andere kant, een game zal altijd beter presteren op de ene kaart dan op de andere kaart. De game zal net weer iets geschikter er voor zijn. En natuurlijk is HL2 op ATi kaarten ontwikkeld, dus die zullen altijd een grotere voorsprong hebben hiermee. Doom≥ is geschreven op nVidia, en zal daar dus een iets grotere voorsprong in hebben.
Hier en daar zullen wel wat dollars overgegeven worden denk ik.
Maar volledige onafhankelijkheid zal het wel niet worden denk ik.

FnF
Zoals de kaarten nu geschud zijn, geef ik je 100% gelijk. De fabrikanten hebben simpelweg teveel ruimte om te "stoeien" met de hardware. Zou DX9 bijv. striktere regels kennen worden de veschillen ineens een stuk kleiner. Vooral de clock en mem-speeds zouden dan nog het verschil maken. Maar dat willen de heren videochip bakkers nou juist niet, ze willen een uniek en beter produkt dan de concurrent op de markt zetten. Dit is helaas niet perse in het voordeel van de consument, dat moge duidelijk zijn.
verschil is dat doomIII gebruik maakt van een gepatenteerde techniek, die Ati dus ook nooit zal kunnen toepassen
Het leuke van standaarden is... dat er zoveel zijn om uit te kiezen! |:(

"Vroeg‚h" had je inderdaad Glide spellen, Rendition spellen, etc. Toen kwam Microsoft met DirectX (D3D) waarmee dat "probleem" uit de wereld geholpen zou worden. Daarnaast was er al OpenGL, maar dat werd eigenlijk alleen in de professionele grafische wereld (die van Silicon Graphics c.s.) gebruikt.

OpenGL werd langzamerhand main-stream en daarmee ťn door DirectX verloren hardware-fabrikanten hun unique selling points. Door de drang van de hardware-fabrikanten om die uniekheid terug te winnen zijn we langzamerhand weer terug bij af: je hebt NVidia spellen, ATI spellen, etc...
Prrrrffff..... Vroegah had je VESA, dat was pas een genot ! :Y)
Gaan we nu ook praten over Intel software en AMD software?

Wanneer je meerdere hardware fabrikanten hebt, dan is het onvermijdelijk dat die enigzins anders presteren...

Ik zou juist denken dat met de huidige generaties GPU's, (6800 en X800) de prestaties eindelijk weer lekker dicht bij elkaar liggen. Doom3 en HL2 zijn de extremen, niet de norm.

Bij de NV30 en R300 was het veel erger. Daarbij haalde de R300 in met grote regelmaat dubbele prestaties t.o.v. de NV30, en moest er verschrikkelijk hard handmatig geoptimaliseerd, ťn veel te vaak simpelweg keihard gecheat worden om de NV30 bij te laten komen.

We lijken die situatie nu juist een beetje achter ons te hebben gelaten, waarbij beide merken goede prestaties neer zetten...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True