Prestatiewinst in Half-Life 2 mogelijk met nVidia-kaarten

Enkele handige tweakers hebben ontdekt dat het mogelijk is een niet te onderschatten snelheidswinst te behalen met nVidia-kaarten in Half-Life 2. Dit spel heeft namelijk genoeg aan FP16-shaders, maar dwingt deze videokaarten wel constant FP24-shaders te gebruiken voor zijn berekeningen. Met behulp van een programma als 3dAnalyze kan men de kaart zo instellen dat deze toch FP16-shaders berekent, onafhankelijk van wat de software vraagt. Enkele screenshots laten met behulp van deze tweak een prestatiewinst van 11fps zien bij het gebruik van een GeForce FX 5900 Ultra, overgeklokt naar FX 5950 Ultra-snelheid.

Op het forum waar deze tweak gemeld werd, wordt echter meteen de bedenking gemaakt dat deze aanpassing niet bruikbaar is om het volledige spel te spelen. In enkele specifieke gevallen zouden namelijk zichtbare fouten optreden tijdens het renderen. Volgens verschillende gamers illustreert dit echter wel dat Valve niet zozeer de ATi-kaarten bevoordeeld heeft, maar wel de nVidia-kaarten benadeeld, een subtiel verschil. Door specifieke DirectX-instructies te kiezen en andere net weg te laten, presteren nVidia-kaarten heel wat minder goed in dit spel, aldus de ontdekkers.

Half-Life 2

Door Yoeri Lauwers

Eindredacteur

01-12-2004 • 20:13

111

Bron: Hard Forum

Reacties (111)

111
109
41
12
1
43
Wijzig sortering
Anoniem: 120859 2 december 2004 08:42
Jullie halen misschien wat dingetjes doormekaar.

GeForce FX kan wel degelijk DX9, en gewoon goed, destijds VER boven de specificatie, wat ondermeer inhield dat de shaderfragment dingen 80x keer zo groot konder worden als die van de Ati's, daar zei Mr Carmack ook nog over, dat die bij de Radeon al tegen de grens was aangelopen van wat je in die dingen kunt programeren. Neen, het is niet de pixelpipeline zelf met alle shaders die in de FX niet gelukt zijn. Uiteindelijk hebben ze zo veel moeten offeren voor die DX 9, dat ze nogsteeds 4 parralel pixel rendering pipelines overhielden, ipv de 8 die de 9700 Pro gebruikte, 4 dat werd al gebruikt sinds de GeForce 1, maar sinds de GeForce 2 hebben alle GeForcen 2 Texture units per pixel pipeline, oftewel, kunnen ze 4 pixels met 1 texture per pixel maken, en kunnen ze ook 4 pixels met 2 textures maken (8 texels) Dit zorgte voor hget verschil in multitexture fillrate en single texture fillrate. MAAAR, de meeste DX 9 apps gebruiken singletextures omdat de Shaders de rest doen, en multitexture overbodig maken. En ondanks dat de FX 5800 zo hoog geklokt was, als er maar 1 texture op een pixel hoeft te worden geplakt, dan is de 9700 Pro per clock cycle 2 maal zo snel, omdat die 8 pixel pipelines heeft, die elk 1 texture unit hebben.

Zo, en dan nu terug naar de echte shaders, daar heeft de NV30 idd ook wel moeite mee, de registers waren te traag en er waren nog wat andere problemen, maar HF2 drijft het wel heel erg op de spits.

Oja, doom3 die versnelt kan worden met Ultrashadow 2 staat niet in verhouding met HF2 die GeForce FX-en afremt, en geen DX9 geeft, en artifacts geeft.
@Jan Grouthuijse:

Ik raad je aan eens bij Beyond3D te gaan rondhangen om de echte reden te leren waarom de NV30 langzaam is.
(Gaat te diep en te off-topic om hier over uit te wijden)
Anoniem: 76695 1 december 2004 20:20
En dat zijn keuzes van developers om te maken.

En daar speelt de markt op in, of niet. Destijds was het zo dat je 2 shader-methodes had, zijnde 16bit en 32bit.

32bit en 16bit worden beide door nVidia ondersteunt, maar voor 32bit is zélfs een FX5950Ultra, de snelste kaart in die reeks, te traag. Dus 16bit, en dat ziet er niet al te best uit meestal. ATI kwam hetzelfde probleem tegen, en is gekomen met 24bits shaders, de gulden middenweg. En daarom is die reeks ATI kaarten toen zo succesvol geworden. HL2 is te laat uitgebracht (liever laat dan nooit, en liever goed laat dan fout vroer), en helemaal voor die generatie bedacht. Het is óf 16bit, óf 24bit. En die 24bits dingen zijn maar wát lastig te verwerken voor de nVidia kaarten van weleer.
Ongelooflijk wat kunnen mensen toch blaten.

Net overigens als die volledige thread bij hard forum.

Het is COMPLEET ONMOGELIJK om een Nvidia kaart 24bit shaders te geven.
Dat gebeurd dan ook niet. Dat die figuren bij Hardforum dat wel beweren geeft alleen maar aan dat ze geen flauw idee hebben waar ze over praten, en daarom komen ze ook op resultaten die ze niet begrijpen. En dus zal in hun ogen Valve wel iets smerigs gedaan hebben.

DX9 maakt geen onderscheid tussen 24bit en 32bit shaders.

DX9 heeft alleen het onderscheid tussen partial en full precision shaders. Een full precision shader is precies hetzelfde voor een ATI of Nvidia kaart.
Het verschil is dat de identieke code van die shader, intern in een ATI kaart met 24bit precisie wordt verwerkt en intern in een Nvidia kaart met 32bit precisie.

Om een Nvidia kaart sneller te laten werken, kun je een shader vertellen dat die in partial precision gedaan moet worden.
Nog steeds dezelfde code (met als extra een flag dat ie partial precision is). En die code wordt dan met 16 bit precisie verwerkt.


Wat ze bij Hardforum hebben gedaan is een FX kaart zich laten voordoen als een Radeon.
Een Radeon heeft geen partial precision. Dus zal de code voor een Radeon allemaal full precision zijn.

Vervolgens gaat die FX dus alles in full precision doen, dus 32bit.
Dan forceren ze die FX om alles in partial precision te doen. En wordt diezelfde code dus in16bit verwerkt.

Nogal logisch dat je dan een groot snelheidsverschil krijgt. En dat het dan lijkt alsof Valve opzettelijk Nvidia benadeeld.

Maar als je dan vervolgens verder kijkt zie je dat je allerlei artefacten krijgt.
Je zou dus maar een deel van de shaders in partial precision moeten laten draaien. Dat is wat bij de 6xxx serie kaarten gebeurd.

Wat ze hadden moeten doen is die FX zich laten voordoen als een 6800 kaart. DAN had je waarschijnlijk wel partial precision gekregen en had je die artefacten niet gehad.

Maar dan was de performance winst waarschijnlijk ook veel kleiner geweest. Als je namelijk nou net full-precision nodig hebt om een shader die ontzettend veel gebruikt worden, en partial precision op shaders die heel weinig gebruikt worden, dan schiet je waar wat betreft prestaties dus geen zier mee op.

Wellicht dat iemand daar nog eens zo slim wordt om dit te proberen. Maar de thread is daar zo lang, en het nivo zo laag, dat ik niet de moeite ga nemen 'm helemaal door te nemen!
MS zelf heeft (ruim van te voren) gezegt dat de standard shader in DX9 24bit's zou zijn.
dat Nvidia daar niet op heeft ontworpen is dus hun eigen fout.
Eigenlijk is het je reinste sabotage van Valve. Ik maak namelijk zelf wel uit of ik een nVidia kaart neem of een ATI. En dat ze hun game optimaliseren voor één van beide kaarten is al twijfelachtig, maar de gebruiker die 'de verkeerde kaart' heeft regelrecht benadelen is een zeer bedenkelijke praktijk.

Goede reden om hem dan maar niet te spelen...
Wat wil je nu zeggen? Het optimaliseren mag wel van jou (maar twijfelachtig), maar het benadelen van een gebruiker (met de verkeerde kaart) mag niet? Denk je niet dat deze twee statements nogal tegenstrijdig zijn. Om iets wel te optimaliseren voor de ene kaart zal de gebruiker van de andere kaart uiteraard benadeeld worden.
Klopt natuurlijk niet helemaal: je kunt je best doen om de features en sterke kanten van één chipset/merk naar voren te halen, én je kunt je best doen om de zwakke punten van een andere kaart (de concurrent) zodanig te bespelen dat de kaart minder presteert dan hij had gekund.

Ik citeer:
"Volgens verschillende gamers illustreert dit echter wel dat Valve niet zozeer de ATi-kaarten bevoordeeld heeft, maar wel de nVidia-kaarten benadeeld, een subtiel verschil. Door specifieke DirectX-instructies te kiezen en andere net weg te laten, presteren nVidia-kaarten heel wat minder goed in dit spel, aldus de ontdekkers."

Begrijp je het verschil nu?
Nope, ik zie geen verschil. De sterke punten van de ene kaart zijn de zwakke punten van de andere kaart en vica versa.. (als dat immers niet het geval zou zijn, zou het ook niet als sterk punt aangemerkt kunnen worden). Mijn inziens is er dus geen verschil.
Het verschil is dat wat ze hebben gedaan niet per se prestatie winst oplevert bij de Ati kaart en dus geen optimalisatie is, wat ze hebben gedaan is bepaalde eisen stellen aan de hardware zonder daar een directe reden voor te hebben, w3aardoor ze dus de nVidia kaart benadelen.
De ene kaart benadelen of de ander bevoordelen is weldegelijk verschillend, ik snap je stelling wel, "als je voor de een optimaliseerd zal de ander minder presteren" maar dan moet het wel om een optimalisatie gaan, en daar gaat het hier niet over.
Nogmaals: de sterke punten van één kaart uitbuiten mag nog wel, maar je best doen om een andere kaart slechter te laten presteren dan hij zou kunnen is toch echt iets anders.

Vergelijk het hiermee: stel Shell heeft een contract met Opel en zorgt er niet alleen voor dat Opels lekkerder lopen met hun benzine, maar ook dat Volkswagen gaan stotteren door de toevoeging van een stof die niet noodzakelijk is om de Opel beter te laten lopen.
Zeer slechte vergelijking.. en besides.. vergeet niet dat het hier om een specifieke nvidia serie gaat die niet eens dx9 compiant is.

De nieuwswaarde is al ontzettend laag en dan komen daar nog de nutteloze discussies bij..

Valve heeft gewoon een engine gemaakt die veel features uit de dx9 specs gebruikt. Dat toevallig ATI daar hardware voor levert die beter daar op aansluiten is Valve niet te verwijten. Verwijt dan nVidia dat ze zich primair op OpenGL focussen. Dat zou stukken zinvoller zijn.
nou sorry hoor maar als je dingen krijgt als
In enkele specifieke gevallen zouden namelijk zichtbare fouten optreden tijdens het renderen
Dan is dat gelijkt de reden klaar
Je kan als game fabrikant tegenwordig het niet maken om zomaar artifacts en andere troep toe te laten om een merk vid kaarten te laten concureren met een andere.
Punt nu is gewoon over het algemeen is ATI beter met DX9 en Nvidia met Opengl en dat moet je voor lief nemen.

Maar dat je ze saboteur gaat noemen omdat ze niet zomaar het gameengine gaan downgraden om de concurent in video kaarten te helpen is rond uit belachelijk.
Het gaat hier immers om wat je mogelijk niet ziet in verschill tussen 16 en 24 bit. Maar dat wil absoluut niet zeggen dat het engine het niet gebruikt.

Al hadden ze nou hetzelfde TRUKJE uitgeprobeerd met een ati kaart dan was het topic misschien wel anders geweest, want wie zegt dat ati kaarten niet 25 fps winnen door de shader te downgraden ?
een aantal artifacts hadden ze hoogst waarschijnlijk wel kunnen bugfixen, ik hoop persoonlijk dat nVidia's driver devisie hier inmiddels ook hoogte van heeft gekregen en dat er een knappe driver update gaat komen die ons een paar knappe kunstjes gaat laten zien. want het lijkt me dat ze dat wel kunnen daar.
artifacts bugfixen?? We hebben het hier over de render pipeline van de videokaart. Verwacht je dat Valve een chip-upgrade mee levert voor je kaart :-)
ach mag het ook een keer 1 op de 1000 games een keer GEEN "nVidia the way its meant to be played :+

en de nVidia spellen draaien ook goed op ATI en andersom niet nou dan weet ik wel waar het aan ligt :Z
Onzin, Half Life 2 draait bij mij perfect op een 6800GT. Heeft die geen enkele moeite mee. Het gaat hier alleen over de NV30 serie (FX 5xxx).
en de nVidia spellen draaien ook goed op ATI en andersom niet nou dan weet ik wel waar het aan ligt
Dan ligt het dus aan de Ati-based games. Nvidia games blijken ook goed te gamen op een Ati kaart, maar Ati games niet op een Nvidia. Daar kan Nvidia niks aan doen want het is duidelijk dat Nvidia met de NV40 een zeer goede kaart heeft neergezet, als dat dan lang niet zo goed draait op Ati-based games dan ligt het echt wel aan de game, en worden dus Nvidia gamers benaald. Optimalisaties mogen van mij best, maar je gaat andere iig niet benadelen om hun kaart.

@Hielko, ik vindt er nogal een verschil is tussen een kaart optimaliseren, of een ander juist benadelen. Tuurlijk als je voor de 1 optimaliseert, zijn de andere zoiezo al benaald, maar nooit zo dat je allerlei maatregelen neemt om het op de kaart van de concurrent maar slecht te laten draaien. Dat slaat namelijk nergens op
nee want al de andere nvidia games zijn geoptimaliseerd voor nvidia maar daar heeft een ati kaart geen moeite mee want ze zijn snel genoeg

en nvidia kaarten hebben wel moeite met ati optimised games, en als het spel niet ati optimised was draaide het zowiezo goed alleen nu beter ;)

als een spel niet optimised was voor een van beide kaarten dan was alsnog ati sneller :>
Het zat er ook wel in dat het niet helemaal correct was met hl2. Er was opeens een groot gat dat er niet was in andere dx9 games.
Een beetje hetzelfde geval als in d3 met shaderreplacement voor Ati. Met andere woorden zowel Ati als nvidia zijn zwarte schapen die elkaar af willen troeven met een paar mega game hits om zielen te winnen.
Jammer
Het zat er ook wel in dat het niet helemaal correct was met hl2.
het gaat hier vooral om de oude FX5xxx kaarten.
die zijn niet eens dx9 compliant (alleen compatible)
dat valve heeft gekozen om de gewone DX9 standaard aan te houden kan je valve niet aanrekenen, en 24bit shaders horen daarbij.

edit : ik heb net de thread even goed door gelezen en het gaat hier om het geforceerd in dx9 laten draaien van een FX kaart door die kaart voor te doen als een Radeon.
dus het spel schoteld de kaart dan ook 24bit shaders voor.
dat zorgt voor veel artifacts (want de fx kaart is niet dx9 compliant)
maar die krijg je weg door het spel te forceren om 16bit shaders te gebruiken.
maar het is dan geen dx9 renderen meer (dat moet minimaal 24bit zijn)
Valve treft in deze dus geen blame als je het mij vraag. ze hebben zich netjes aan de standaard gehouden en alle kaarten die daar niet op draaien op een lagere standaard laten draaien.
Als je een GF FX gebruikt zal HL2 standaard DX 8.1 gebruiken.

Dus het is bullshit dat Valve de DX9 standaard aanhoudt.
omdat die DX9 zowieso niet kan draaien schakeld HL2 over op het DX8.1 Path ja.

De GF FX kaarten zijn namelijk niet DX9 compliant. De kaarten voldoen NIET aan de volledige DX9 specificaties. Dat Valve DX9 aanhoud is helemaal geen bullshit. Valve heeft HL2 juist gemaakt voor DX9. En ze weten ook dat er kaarten zijn die enkel DX9 compatible zijn en bijv wel DX8.1 compliant. Dus hebben ze ook een path geschreven dat met die kaarten overweg kan. Anders zou een GF FX het spel niet eens kunnen draaien aangezien deze dan bepaalde dingen niet zou kunnen renderen.
Beetje beter formuleren voordat je zegt dit en dat is bullshit. Motiveer je reply's heet dat.
maar als je het de thread had gelezen had je gezien dat het hier ging om een FX kaart geforceerd in dx9 te laten draaien door zich voor te doen als radeon.
en dan vinden mensen het gek als het spel de kaart ook echt behaldeld als een radeon en er 24bit shaders op af vuurt.
Ja en nee, Valve heeft zich inderdaat netjes aan de standaart gehouden en nVidia heeft een crappy kaart gefabriceerd, maar Valve had best alle effecten die de FX wel kan weergeven op de kaart kunnen afvuren, en dat hebben ze dus niet gedaan, ze hebben gezegt, nee je bent geen dx9 dus krijg je ook helemaal geen enkel dx9 effect van ons, of je ze nou kan hebben of niet.

[edit]
dx9 inderdaat natuurlijk
Ok dus ATI heeft er met mindere kaarten zelf ook last van, dan is het toch alleen maar erger voor ons! dat Valve te lui is geweest om in dat hele extra jaar dat ze hebben gehad niet even wat beter heeft geoptimaliseerd voor kaarten die niet dx9 complient zijn.
Valve mag lekker brullen dat die kaarten niet dx9 compliant zijn en dat ze daarom slecht presteren, maar waar het op neer komt is dat Valve het lekker makkelijk voor zichzelf maakt en het spel precies afspemt op een standaart en dan maar kijkt welke kaart fabrikant dat ook doet.
Alle andere developers kijken wel naar de standaart maar gaan daarna nog even kijken wat ze echt klaar kunnen krijgen op de desbetreffende hardware.
Als Valve iets beter z'n best had gedaan hadden we dus meer performance gehad op pre dx9 kaarten, of ze nou van Ati of nVidia zijn
bij ATI`s shader model 2.0b word toch exact het zelfde gedaan?
die mogen ook de extra effecten die ze hebben boven de standaard 2.0 effecten niet gebruiken.(wat jammer is want alle effecten van 3.0 waar je nu wat aan hebt nu zitten erin, en de dingen waar we nu niks aan hebben (branching bv) zitten er niet in(omdat dit een gigantishe hoeveelheid extra transistors vereist)

p.s. i denk dat je dx9.0 bedoeld, 9.1 is nog niet uit. hooguit 9.0c
dat Valve te lui is geweest
š
zeker in ATI`s geval gaat het niet alleen om valve maar om alle developers. en eigenlijk vooral om MS die niet met zijn standaarden laat sollen als ze het kunnen verhelpen.

ATI moet zelfs de extre features van 2.0B uitzetten in hun drivers om het ms certificaat te krijgen. (zijn handmatig weer aan te zetten, maar dat zullen niet zo heel veel mensen doen, en daarom houden developers er ook geen rekening mee waarschijnlijk.)
Had jij nog liever een jaartje op HL2 willen wachten? Denk je dat die mannen niet hebben doorgewerkt? Ben je niet tevreden over het resultaat? Heb je liever ontwikkelingstijden van drie of vier jaar?
Waar heb jij de afgelopen twee jaar gezeten?

In elke DX9 spel zat datzelfde gat.
Het gat is bij HL2 iets groter omdat het nog veel meer van DX9 gebruik maakt dan de meeste andere spellen. Maar je kan echt niet beweren dat er een gat zit in HL2 dat er niet in andere spellen zit.
Bij doom 3 was dat echt niet het geval! ATi was gewoon te beroerd om hun OpenGL drivers te updaten omdat ze dachten dat toch niemand het meer gebruikte.
Ja daarom was er een aparte path voor nvidia kaarten zeker :Y)
Er was een apart pad voor Nvidia kaarten van de 5xxx serie, omdat deze niet echt goed met DirectX 9 overweg kan. Om dit dan toch nog een beetje te laten draaien op een Nvidia 5xxx serie hebben ze een appart pad geschreven voor die kaarten, zoals bij meer games. de 6800 serie is overigens wel gewoon DirectX 9c compliant en deze gebruikt dus gewoon het DirectX pad. DarQ_reaper heeft dus wel degelijk gelijk, de OpenGL drivers van Ati zijn zeer matig te noemen en de ondersteuning van OpenGL is gewoon ronduit slecht te noemen, dit itt tot Nvidia waarbij de drivers keurige prestaties leveren (en elke een kaart behoord dat ook te doen, DirectX of OpenGL zou niet uit moeten maken).
Dat bedoeld ie volgens mij niet.
Er was ook in Doom3 een apart OpenGL pad voor de Nvidia FX kaarten.
Omdat de FX kaarten ook slecht overweg konden met het standaard ARB2 pad.

Uiteindelijk hebben ze er voor gekozen het standaard ARB2 pad zwaar te herschrijven zodat het gunstiger zou zijn voor de Nvidia FX kaarten. (en nvidia kaarten in het algemeen)

m.a.w. de ondersteuning van OpenGL van de 5xxx serie is ook gewoon slecht, want ID moest zijn code volledig herschrijven voor de prestaties acceptabel werden.
eigenlijk was het meer zo dat Doom3 en Nvidia samen een techniek hebben bedacht waarvan ze wisten dat hij alleen op nvidia kaarten zou zitten.(de 0x32 virtuele pipelines namelijk)

ok granted, had ATI shader model 3.0 onderstuened haden ze iets soortgelijks kunnen doen met wat creative drivers schrijven.
Tsjonge, anders ga je werk zoeken of ga je eens buiten kijken of er toevallig ook nog andere intelligente levensvormen in de buurt zijn. Dit is leuk maar echt triest dat je hier naar zoeken gaat, normaal persoon zou het niet eens in opkomen dit uit te vogelen, ik ben echt geen persoon die computer mensen een nerd vindt hoor, ben er zelf ook 1 maar dit gaat wel ver. Leuk voor die mensen die hierdoor van 60 naar 70 Fps gaan waar je geen verschil in ziet :Z
Sommige nerds houden zich nou eenmaal bezig met dergelijke zaken, andere nerds houden zich bezig met idiote reacties te plaatsen op tweakers.net ;)
Maar misschien wel heel leuk voor die mensen die HL2 hierdoor een resolutie hoger kunnen spelen :)
nou ik draai hem op alles hoogst 1600x1200 4x 8x

lekker die x800xt pe :9~
Volgens mij begrijp jij niet helemaal dat dit soort drang naar optimalisatie zorgt voor het voortschreiden van de technische kennis. Er valt veel geld mee te verdienen met het doen van zulk uitvogel werk. Of je dit nu doet door een stuk software anders in te stellen of een chipontwerp te wijzigen, dat maakt daarbij niet uit...
Anoniem: 114616 1 december 2004 20:19
doom3?

En call of duty is ook opengl en presteerd beter op nvidia, nee volgens mij is nvidia altijd al beter in opengl, maar directx 9 spellen verschilde alleen niet zoveel tussen de 6800 en x800 zoals bij half life 2.
Hallo dat OpenGL games beter presteren op een nV hardware is algemeen bekend.
Maar wat heeft dit met doomIII te maken, het zou iets beter moeten presteren op nv hardware. Nee DoomIII presteerd als de grootste uitzondering in heel gameland extreem veel beter op nV40 hardware tov andere OpenGL games laat staan tov DX games.

Had eerder Doom nV moeten heten.
Anoniem: 6882 @SG2 december 2004 07:24
Kan je je nog herinneren dat de Doom3 Alpha was gelekt?
Die kwam bij Ati vandaan, Carmack was daar echt razend over en riep in eerste instantie dat Ati nog maar moest afwachten of Doom3 uberhaupt wel op hun kaarten zou draaien, alles is een beetje gesust en vergeten, maar Carmack houd over het algemeen woord. Daaarnaast is Carmack al veel langer beter te spreken over de nV hardware. Dus ik denk dat Tim Willits z'n best heeft moeten doen om Carmack te overtuigen dat een nV only release niet realistiesch was en Carmack Ati dus niet geheel moest buitensluiten. Als je dan nVidia heet, ben je gek als je niet wat sappige dealtjes aan draagt. et voila...
Anoniem: 93545 @SG1 december 2004 21:55
Had eerder Doom nV moeten heten.
En dan Half-Life Ati ipv Half-Life 2 ?

is namelijk precies hetzelfde: Doom 3 is geoptimaliseerd voor nVidia, HL2 is geoptimaliseerd voor Ati.

Vraag me alleen af waarom ze niet optimalisaties voor beide merken in hun software stoppen... zal wel niet mogen van de hardwarefabrikant die ze het geld geeft.
dat laatste klopt helemaal niet, er is een DX8 patch voor dito gfx kaarten, maar dat path wordt ook gebruikt door de Ati 8500 bijvoorbeeld
dat Valve beslist heeft om dit ook voor de GF FX te gebruiken zijn snelheidsredenen, die ze blijkbaar hadden kunnen oplossen als we deze post mogen geloven
Jij begrijpt het niet helemaal denk ik.

HL2 is geoptimaliseerd voor DirectX9. Laat ATI zich toevallig daar de laatste tijd ook aan gehouden hebben.

Sterker nog:
HL2 bevat een speciaal path voor nVidia kaarten!!! dus niks ati optimalisatie!
Anoniem: 102648 1 december 2004 21:16
wat ik me nu af vraag is hoeveel van die FP dingen heeft een ati?
of gebruikt ati die technologie niet?
Nee, een Ati kan niet FP32 renderen, dat vinden ze niet nodig en dus overbodig. Een Ati kan alleen FP 16 en 24 renderen. Het verschil tussen FP24 en FP32 renderen is namelijk zogoed als niet zichtbaar, en ik heb ooit eens ergens gelezen dat dit verschil wel tot 20% extra transistors betekend voor Nvidia per die. Behoorlijk veel extra transistors dus (als je bedenkt dat een NV40 er 220 miljoen heeft) voor (volgens Ati althans) niks extra's. Vandaar dat hun niet FP32 renderen, en de DirectX standaard beslist enkel dat je minimaal FP24 moet renderen, FP32 is dus niet verplicht :).
FP32 is verplicht voor longhorn. Daar sta je dan met je ATI kaart.
Zenlord: volgend jaar is longhorn er al. Je beseft toch dat elke ATi user zijn kaart dan moet vervangen.
Zenlord: Ik zet die grafische eyecandy dan wel even af ipv meteen naar de winkel te hollen hoor...
... en hoelang is Longhorn nog van ons verwijderd? :p

De gamers van nu die goud geven voro elke fps die ze winnen in-game zullen tegen die tijd al lang één of meerdere videokaarten versleten hebben. De mensen die nu een pc kopen en die ervan verwachten dat die daadwerkelijk 5 jaar of meer meegaat, die moeten op meerdere vlakken (niet alleen op gebied van graka's) inboeten en zullen dan maar de geavanceerde GUI van Longhorn moeten uitschakelen.
@aval0ne:
Dat is onzin.

Er zijn twee opties die nu nog niet duidelijk zijn:
1) DX9 wordt verplicht en daarmee FP24. Je ATI kaart voldoet prima.
2) DX10 wordt verplicht en daarmee FP32. Daar sta je dan met zowel je ATI als je Nvidia kaart, aangezien geen van beiden een kaart op de markt hebben die aan DX10 voldoet.
ATI rendert alleen FP24. Nvidia alleen FP16 of FP32

Als je bij een ATI kaart partial precision vraagt (FP16) dan rendert is gewoon full precision (FP24)
Anoniem: 120859 2 december 2004 21:08
DX8.1, uhm, welke kaart gebruikte dat ook al weer?

En ga me niet vertellen dat je dacht dat de 8500 dat gebruikte, de 8500 gebruikte gewoon alles wat nVidia in de NV20 had gestopt, en voegde daar zelf nog een heel klein beetje aan toe.

DX8.0 is PSM1.0 en VSM1.0 (GeForce 3 - Radeon 8500)
DX8.1 is PSM1.3 en VSM1.1 (GeForce 4 Ti)

PSM1.3 kon wat dingetjes waar PSM1.0 meerdere passes voor nidg had in een pass, je ziet ook nooit het verschil als je het gaat forceren (of tenminste ik niet)

Oja, als het goed is artifact FP16 niet, dat is enkel wanneer je je FX niet als een Radeon laat herkennen en toch DX9 forceerd, dan krijg je artifacts, maar op PF16 en herkend als Radeon ziet het er juist weer goed uit en loopt het snel....Je begrijpt nu waarom wij allemaal zo boos zijn op Valve?
Rza heeft helemaal gelijk.
Maar nog even een toevoeging op een paar puntjes van jouw reactie die Rza nog niet heeft aangestipt.

PS1.3 kan geen dingetjes waar in PS1.0/1.1 meerdere passes voor nodig had in 1 pass. Alleen PS1.4 heeft die mogelijkheid.
Vandaar ook dat PS1.3 geen enkel voordeel had voor developers en dat ook niemand het gebruikte. Iedereen gebruikte dan wel gewoon PS1.0 aangezien dat door veel meer kaarten ondersteunt werd.

DX8.1 voegt PS1.4 toe.
De GF4 kan geen PS1.4 en is dus geen DX8.1 kaart. De 8500 kan wel PS1.4 en is wel een DX8.1 kaart.

Elke DX9 kaart moet ook PS1.4 ondersteunen.

Uiteraard kan FP16 wel artefacten, anders zou er geen reden zijn voor FP32.
Afhankelijk van waar je het voor gebruikt heb je voldoende aan FX12, FP16, FP24 of FP32. (of nog hoger)
In HL2 zijn er gewoon een heel stel situaties waarbij FP16 niet hoog genoeg is.

En ik begrijp heel goed waarom je boos bent. Door je gebruik aan kennis en inzicht op dit onderwerp trek je de verkeerde conclusies en denk je dat Valve express een FX kaart benadeeld.
Uiteraard wordt je daar dan boos over.
Jan, jij en die website moeten echt wel de grootste idiooten ter wereld zijn. Deze discutie hier is echt zinloos en mag van mij volledig verwijdert worden. Het wordt gevoerd tussen een deel wetenden en een deel onwetenden die denken dan ze gelijk hebben.

Voor alle duidelijkheid:
Geforce 3/4 = DX8
Radeon 8500 = DX8.1

Ten tweede FP16 en Radeon gaan niet samen.
Als je uw kaart als Radeon laat herkennen zal HL2 kost wat kost FULL PERCISION gebruiken wat bij een Radeon betekend FP24 en bij nVidia FP32.
Als je uw kaart niet als Radeon zal herkennen dan zal HL2 wel FP16 toelaten, wat de artifacts verklaard.
Mensen die denken dat dit allemaal meevalt moeten maar eens de Direct X 8 of 8.1 screens van HL2 erbij pakken.
Door deze tweak krijgen nVidia GeForce FX bezitters betere graphics in HL2 (realtime refraction) en meer fps.

Dit is dus echt een flikkerstreek.
Dat zie je fout, nvidia zegt full dx9 complaint kaarten te hebben. Hieruit blijkt dat ze dat eigenlijk niet hebben, omdat ze het gewoon niet aan kunnen. Ati houd zich aan de regels, net als developers moeten doen en komen hier dus beter uit.
ze zeggen zelf niet eens dat de fx5xxx serie dx9 compliant is. er staat altijd op de door dx9 compatible.
klein verschil in woorden maar heeft toch een hele andere betekenis.
met de juiste drivers is mijn oude voodoo5 namelijk ook dx8.1 compatible te maken, en zelf dx9 als het echt moet terwijl de hardware daarvoor er toch echt niet in zit.
Op de doos mag dat wellicht staan, maar daarvoor heeft Nvidia continu geroepen naar de pers dat hun 5xxx serie volledig dx9 compliant was.

En dat is ie dan ook bijna. Alleen dx9 compliant zegt niets over de prestaties.
ja de fx 5200 was ook dx9 complaint maar draait als dikke stront door een rietje

Op dit item kan niet meer gereageerd worden.